Microsoft a officiellement presente la puce AI Maia 200, la deuxieme generation de la gamme de puces Maia que la societe a annoncee pour la premiere fois en 2023.
Cette puce sera mise en service des cette semaine dans un centre de donnees de Microsoft dans l'Iowa (Etats-Unis), avant de continuer a etre deployee dans un autre etablissement en Arizona dans un avenir proche.
Cette initiative intervient dans un contexte ou les geants du cloud computing tels que Microsoft, Google (Alphabet) et Amazon Web Services, qui sont les plus grands clients de Nvidia, intensifient leur strategie d'auto-developpement de puces d'IA afin de reduire leur dependance a l'egard des fournisseurs dominants sur le marche.
Contrairement a de nombreuses generations de puces auto-conçues precedentes qui se concentraient uniquement sur le materiel, Microsoft souligne cette fois l'element logiciel, qui est le puzzle considere comme le plus grand avantage concurrentiel de Nvidia.
Parallelement a Maia 200, Microsoft propose un pack d'outils de programmation, dont Triton, qui est un logiciel open source largement contribue par OpenAI, le developpeur de ChatGPT.
Triton est conçu pour assumer un role similaire a Cuda, la plateforme logicielle qui a aide Nvidia a construire une position presque exclusive dans le domaine des puces d'IA.
Selon les analystes de Wall Street, le plus grand avantage de Nvidia ne reside pas seulement dans le materiel, mais dans l'ecosysteme logiciel Cuda, qui est un obstacle qui rend la concurrence difficile pour les concurrents.
L'investissement serieux de Microsoft dans les logiciels montre que l'entreprise vise directement ce point fort central.
En termes de technologie de production, le Maia 200 est fabrique par la Taiwan Semiconductor Manufacturing Company (TSMC) sur un processus de 3 nanometres, similaire a la gamme de puces AI haut de gamme Vera Rubin que Nvidia vient de presenter au debut du mois.
La puce de Microsoft utilise egalement de la memoire haute bande passante (HBM), bien qu'elle soit d'une generation plus ancienne et qu'elle ait une vitesse plus lente que les produits Nvidia a venir.
Cependant, le Maia 200 est integre avec une grande quantite de SRAM, qui est un type de memoire avec une vitesse de recharge tres rapide.
Cette conception est consideree comme adaptee aux chatbots et aux systemes d'IA servant un grand nombre d'utilisateurs en meme temps, ce qui permet de reduire le delai lors du traitement des questions. C'est une orientation que de nombreux concurrents emergents de Nvidia poursuivent.
Cerebras Systems, une societe qui vient de signer un accord de 10 milliards de dollars avec OpenAI pour fournir des capacites de calcul, repose egalement fortement sur une technologie de memoire similaire.
Groq, une autre startup d'IA, a meme obtenu une licence technologique de Nvidia dans une transaction censee valoir jusqu'a 20 milliards de dollars.
Le fait que Microsoft developpe a la fois des puces et construit un ecosysteme logiciel montre que la course a l'IA entre dans une nouvelle phase, ou les geants de la technologie n'acceptent plus de dependre completement de Nvidia.