Google Cloud vient d'annoncer la dernière génération de puces d'intelligence artificielle (IA), marquant la prochaine étape de sa stratégie d'auto-développement matériel visant à optimiser les performances et les coûts sur la plateforme cloud.
Il est à noter que cette puce de huitième génération est divisée en deux variantes distinctes, répondant à deux besoins fondamentaux de l'IA: la formation et la déduction.
Google présente le TPU 8t pour l'entraînement de modèles, qui est une étape qui nécessite une capacité de calcul extrêmement élevée pour enseigner aux systèmes d'IA la compréhension des données.
Pendant ce temps, le TPU 8i est optimisé pour la déduction, c'est-à-dire que le processus de modèle appris est utilisé pour répondre aux questions, traiter les demandes de l'utilisateur en temps réel.
Selon Google, les nouveaux TPU apportent un bond significatif en termes de performances. Par rapport à la génération précédente, la vitesse d'entraînement du modèle peut être jusqu'à 3 fois plus rapide.
Il est à noter que le système a également la capacité de connecter plus d'un million de TPU dans le même groupe, ouvrant une échelle de calcul extrêmement importante pour les applications d'IA complexes.
Outre les performances, les facteurs coût et énergie sont également mis en évidence. Les puces TPU conçues par Google sont connues pour leur capacité à économiser de l'énergie, ce qui permet aux entreprises de réduire considérablement les coûts d'exploitation lors du déploiement de l'IA à grande échelle.
Il s'agit d'un avantage important dans un contexte de demande croissante d'IA, entraînant des pressions sur les infrastructures et l'électricité.
Cependant, le lancement d'un TPU de nouvelle génération ne signifie pas que Google tourne le dos à Nvidia (le géant qui domine le marché mondial des puces d'IA).
En fait, Google affirme que les TPU joueront un rôle complémentaire, sans remplacer les systèmes utilisant le GPU de Nvidia dans son infrastructure cloud.
La société a même déclaré qu'elle intégrerait les dernières puces de Nvidia, y compris l'architecture Vera Rubin, dans le service dans un avenir proche.
Cette tendance ne concerne pas seulement Google. Les grands fournisseurs de cloud tels que Microsoft et Amazon développent également des puces d'IA internes, afin de réduire la dépendance aux tiers et d'optimiser les coûts.
Cependant, à court terme, Nvidia conserve une position presque irremplaçable.
L'analyste Patrick Moorhead avait prédit en 2016 que les TPU de Google pourraient être préjudiciables à Nvidia. Mais la réalité actuelle montre le contraire lorsque Nvidia est devenue une entreprise avec une capitalisation boursière de près de 5 000 milliards de dollars, grâce à la vague d'AI explosive.
Même le développement de plateformes cloud telles que Google Cloud pourrait continuer à profiter à Nvidia. Lorsque la demande d'IA augmente, les entreprises auront besoin de plus de ressources de calcul, y compris le GPU de Nvidia et le TPU de Google.
Ne s'arrêtant pas là, ces deux géants ont également élargi leur coopération. Google a déclaré qu'il coopérait avec Nvidia pour optimiser les performances du réseau pour les systèmes GPU sur la plateforme cloud, grâce à la technologie Falcon, qui est une solution de réseau logiciel développée par Google et qui publie le code source sous le patronage d'Open Compute Project.
La combinaison du développement autonome de puces et de la coopération stratégique montre que Google poursuit une orientation équilibrée, à la fois en construisant des capacités indépendantes et en tirant parti de l'écosystème existant.