Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 14 décembre 2025Flux principal

Record setting Pocket Lab shrinks a full AI supercomputer into the size of a power bank

Par : Gaurav Sood
13 décembre 2025 à 18:20

We have come a long way from the computers the size of entire rooms to the sleek personal computers that sit comfortably on our desks. The evolution of computing has consistently pushed toward smaller form factors and greater efficiency. The Mac mini, for example, illustrates how compact modern PCs have become. Yet the question persists: how miniature can a powerful computing device truly be? A recent Guinness World Records certification offers a striking answer.

Tiiny AI, a US-based deep-tech startup, has unveiled the Pocket Lab, officially verified as the “world’s smallest personal AI supercomputer.” This palm-sized device, no larger than a typical power bank, is capable of running large language models (LLMs) with up to 120 billion parameters entirely on-device, without relying on cloud servers or external GPUs.

Designer: Tiiny AI

At its core, the Pocket Lab aims to make advanced artificial intelligence both personal and private. Traditional AI systems often depend on cloud infrastructure, which can raise concerns around data privacy, latency, and carbon emissions associated with large server farms. The Pocket Lab addresses these issues by enabling fully offline AI computation. All processing, data storage, and inference happen locally on the device, reducing dependence on internet connectivity or cloud resources.

Despite its compact size, measuring 14.2 × 8 × 2.53 centimeters and weighing roughly 300 grams, this mini supercomputer delivers noteworthy computing power. The system operates within a typical 65-watt energy envelope, comparable to a conventional desktop PC, yet manages to support extensive AI workloads. The hardware architecture combines a 12-core ARMv9.2 CPU with a custom heterogeneous module that includes a dedicated Neural Processing Unit (NPU), together achieving approximately 190 TOPS (tera-operations per second) of AI compute performance. This configuration is backed by 80 GB of LPDDR5X memory and a 1 TB solid-state drive, allowing large AI models to run efficiently without external accelerators.

Two key technologies underpin the Pocket Lab’s ability to run large models so efficiently in such a small package. TurboSparse improves inference efficiency through neuron-level sparse activation, reducing computational overhead while preserving model intelligence. PowerInfer, an open-source heterogeneous inference engine with a significant developer following, dynamically distributes workloads across the CPU and NPU, delivering server-grade performance at far lower power and cost than traditional GPU-based solutions.

In practical terms, the Pocket Lab supports a wide ecosystem of open-source AI models and tools. Users can deploy popular LLMs such as GPT-OSS, Llama, Qwen, DeepSeek, Mistral, and Phi, alongside agent frameworks and automation tools, all with one-click installation. This broad software compatibility extends the device’s usefulness beyond enthusiasts and hobbyists to developers, researchers, professionals, and students.

By storing all user data and interactions locally with bank-level encryption, the Pocket Lab also emphasizes privacy and long-term personal memory. This feature contrasts with many cloud-based AI services that retain data on remote servers. Tiiny AI plans to showcase the Pocket Lab at CES 2026, but has not yet disclosed full details on pricing or release dates.

The post Record setting Pocket Lab shrinks a full AI supercomputer into the size of a power bank first appeared on Yanko Design.

À partir d’avant-hierFlux principal

Votre cerveau compresse les images 40 fois mieux qu'un algo

Par : Korben
7 novembre 2025 à 08:50

Vous avez, j’imagine, probablement des dizaines de milliers de photos sur votre disque dur. Ça représente peut-être quelques centaines de Go, peut-être 1 To si vous êtes à l’aise en espace de stockage. C’est beaucoup ?

Pas tant que ça si on pense un peu à votre cerveau. Lui, il stocke depuis toujours des décennies de souvenirs dans environ 1,5 kg de matière organique qui consomme moins qu’une ampoule LED.

Comment est-ce qu’il fait ?

Hé bien, une équipe du Weizmann Institute of Science vient peut-être de le découvrir et au passage, changer la compression d’images telle qu’on la connaît.

Le projet s’appelle Brain-IT , et leur idée c’est de reconstruire des images à partir des signaux fMRI (imagerie par résonance magnétique fonctionnelle) de votre cerveau. En gros, ils scannent votre activité cérébrale pendant que vous regardez une image, et ils arrivent à reconstruire ce que vous avez vu. Le papier scientifique est dispo sur arXiv si vous parlez leur langue.

Évidemment, ce genre de recherche, c’est pas nouveau mais Brain-IT est plutôt un franc succès car le process permet d’obtenir les mêmes résultats que les méthodes précédentes avec seulement 1 heure de données fMRI, contre 40 heures pour les autres approches.

En gros, ça représente 97,5% de données en moins pour obtenir le même résultat. Trop fort non ?

En fait, si Brain-IT peut faire ça, c’est parce que les scientifiques ont découvert comment votre cerveau compresse les images de manière hyper efficace. Et d’ailleurs, ce truc pourrait bien inspirer de nouveaux algorithmes de compression pour nos ordis.

Brain-IT utilise en fait ce qu’ils appellent un “Brain Interaction Transformer” (BIT). C’est un système qui identifie des “clusters fonctionnels” de voxels cérébraux. Un voxel, c’est l’équivalent d’un pixel mais en 3D, et chaque voxel représente environ 1 million de cellules dans votre cerveau.

Le truc génial, c’est que ces clusters fonctionnels sont partagés entre différentes personnes, comme si nous avions tous la même bibliothèque de “primitives visuelles” câblée dans nos têtes. Ce sont des schémas de base que notre cerveau utilise pour reconstruire n’importe quelle image.

Brain-IT reconstruit donc les images en deux passes. D’abord les structures de bas niveau (les formes, les contours), puis les détails sémantiques de haut niveau (c’est un chat, c’est un arbre, c’est votre tante Huguette). C’est un peu comme le JPEG progressif que l’on voyait s’afficher lentement avec nos modem 56K, mais en infiniment plus smart.

Du coup, si on comprend comment le cerveau compresse les images, on pourrait créer de nouveaux formats vidéo ultra-légers. Imaginez un Netflix ou un Youtube qui streame en “brain-codec” à 1/40e de la bande passante actuelle. Ça changerait pas mal de choses… Et c’est pareil pour l’IA générative car actuellement, on entraîne des modèles avec des millions d’images durant des jours alors que notre cerveau, lui, apprend à reconnaître un visage en quelques expositions.

Et grâce à ses modèles de diffusion, Brain-IT est même capable de reconstruire visuellement ce que voit le cerveau ! Par contre, Brain-IT n’a pour le moment été testé que sur des images “vues” et pas des choses imaginées…

Mais les scientifiques n’écartent pas l’idée que ce soit possible donc ce n’est qu’une question de temps avant qu’on puisse capturer en image ses rêves par exemple.

Voilà, j’ai trouvé ça cool parce que ça montre que notre cerveau est probablement le meilleur système de compression d’images jamais créé et qu’on commence à peine à comprendre comment il fonctionne.

Merci Dame Nature !

Voilà, si vous voulez creuser, le code et les détails techniques sont sur la page du projet Brain-IT , et le paper complet est dispo sur arXiv .

Source

Chaos Computer Club - Le groupe de hackers qui a révolutionné la cyber

Par : Korben
27 juin 2025 à 11:37

Cet article fait partie de ma série de l’été spécial hackers. Bonne lecture !

Vous savez ce qui est encore plus classe qu’un hacker à capuche dans sa cave ? Et bien c’est certainement quand un groupe de hackers allemands décide dans les années 80 de faire trembler les gouvernements, de défier le KGB et d’inventer au passage la moitié des techniques de cybersécurité qu’on utilise encore aujourd’hui.

Bienvenue dans l’univers du Chaos Computer Club, une organisation incroyable qui a façonné notre monde numérique moderne.

NVIDIA's new bug is affecting RTX 5060 GPUs — here's how to fix black screens on reboot

There's a new black screen bug affecting RTX 5060 and RTX 5060 Ti GPUs, but NVIDIA has taken the initiative by explaining and, more importantly, offering a fix.

Asian male esport gamer plays exciting online game in room with neon lighting - he lost and feels upset

This mini PC can do everything from work to cloud gaming — It's currently at a low price for Memorial Day

The Beelink EQI12 is a fantastic little computer that can handle your work, school, or home workloads with ease. Right now, it's very affordable while this Memorial Day deal lasts.

Beelink EQI12 mini PC on yellow and orange background with a graphic that reads, "Memorial Day Sale".

NVIDIA's RTX 5070 Ti is another busted launch of bogus listings and a rhetorical MSRP for RTX 50 Series GPUs

New GeForce RTX 5070 Ti GPUs sold out in seconds and are again suffering a scalping issue with inflated prices above MSRP.

Nvidia RTX 5090 graphics card during the 2025 CES event in Las Vegas, Nevada, US, on Wednesday, Jan. 8, 2025.

The RTX 5070 Ti is sold out, but you can still find pre-built PCs in stock

NVIDIA's RTX 5070 Ti unsurprisingly sold out in seconds, but that doesn't mean you can't get the new GPU on launch day. I found these pre-built PCs with the GPU.

NVIDIA CES 2025

❌
❌