Au cours des dernieres annees, le developpement de l'intelligence artificielle (IA) s'est lie a une echelle croissante, a plus de donnees, a plus de parametres et a une puissance de calcul plus enorme.
Par consequent, les grands modeles linguistiques (LLM) ne peuvent generalement fonctionner que sur des centres de donnees coûteux, fortement dependants du cloud computing et des GPU dedies.
Cependant, une start-up americaine defie cette approche en introduisant l'IA a grande echelle dans un appareil qui peut etre empoche.
Tiiny AI Inc. a recemment presente Tiiny AI Pocket Lab, reconnu par Guinness World Records comme le plus petit superordinateur IA personnel au monde dans la categorie "miniordinateur fonctionnant a 100 LLM localement".
Selon la societe, il s'agit du premier appareil de poche capable d'executer entierement un modele LLM allant jusqu'a 120 milliards de parametres directement sur l'appareil, sans connexion cloud, serveur ou GPU haut de gamme.
Ambition de rapprocher l'IA puissante des utilisateurs individuels
Dans la declaration de vision, Tiiny AI souligne l'objectif de sortir l'IA avancee des enormes centres de donnees et d'atteindre chaque individu.
La societe estime que le plus grand goulot d'etranglement de l'ecosysteme de l'IA aujourd'hui n'est pas le manque de puissance de calcul, mais la dependance au cloud, entraînant des coûts eleves, des delais importants et des risques lies a la vie privee.
Le Tiiny AI Pocket Lab mesure environ 14,2 x 8 x 2,53 cm, pese environ 300 grammes, mais est conçu comme un systeme de deduction IA complet.
L'appareil fonctionne a une puissance d'environ 65W, ce qui est nettement inferieur aux systemes d'IA bases sur les GPU traditionnels, qui consomment une tres grande quantite d'energie.
Configuration materielle et performances notables
Selon l'annonce, Pocket Lab est equipe d'un processeur ARMv9.2 a 12 cœurs, integrant un processeur neuronal dedie (NPU), atteignant environ 190 TOPS de capacite de calcul d'IA. L'appareil est livre avec 80 Go de memoire LPDDR5X et 1 To de stockage, permettant de traiter de gros modeles directement sur l'appareil.
Tiiny AI a declare que Pocket Lab fonctionne le plus efficacement dans la "zone d'or" de l'IA personnelle, ce qui equivaut a des modeles de 10 a 100 milliards de parametres, une zone consideree comme repondant a plus de 80% des besoins reels.
La societe affirme que les performances de deduction de l'appareil peuvent atteindre un niveau equivalent a GPT-4o, suffisant pour les taches d'analyse multi-etapes, de comprehension du contexte approfondie et de deduction complexe.
Technologie de base derriere l'appareil
La capacite d'executer de grands modeles sur un appareil compact provient de deux technologies principales: TurboSparse et PowerInfer.
TurboSparse utilise une technique d'activation claire au niveau neuronal, ce qui permet de reduire considerablement la quantite de calculs necessaires au processus de deduction.
Pendant ce temps, PowerInfer est un outil de deduction open source qui permet une repartition flexible du volume de travail entre le CPU et la NPU, optimisant les performances sans GPU separe.
Grace a cette combinaison, les taches qui necessitent auparavant des GPU d'une valeur de milliers de dollars peuvent desormais etre realisees sur un peripherique portable.
Ecosysteme ouvert et oriente vers le CES 2026
Tiiny AI Pocket Lab prend en charge l'installation de modeles open source en un seul clic, notamment GPT-OSS, Qwen, DeepSeek, Llama, Phi, Mistral... L'appareil est egalement compatible avec de nombreux agents d'IA open source tels qu'OpenManus, ComfyUI, Flowise ou SillyTavern.
La societe a declare que les utilisateurs recevront des mises a jour continues, y compris des mises a niveau materielles via OTA, et prevoit de les presenter integralement au CES en janvier 2026.