Amazon vient d'entrer officiellement dans la course à l'infrastructure d'IA de nouvelle génération en présentant le produit 'AI Factories' (Facteurs d'IA) un modèle de déploiement de l'IA directement dans les centres de données des entreprises ou des agences gouvernementales.
Ceci est considéré comme une étape stratégique visant à répondre à la demande croissante de propriété des données un facteur que de nombreux grands groupes et gouvernements placent au premier plan lorsqu'ils appliquent l'intelligence artificielle.
Selon la description d'Amazon le modèle fonctionne de manière assez simple lorsque les clients fournissent de l'énergie et des centres de données tandis qu'Amazon est chargé d'intégrer le système d'IA de déployer des logiciels du matériel de gérer et de se connecter à d'autres services cloud si les clients en ont besoin.
Grâce à cela toutes les données sensibles sont conservées sur le site de l'entreprise limitant au maximum le risque de fuite ou de dépendance à l'égard des infrastructures tierces.
Le point notable est que le nom 'AI Factory' n'est pas étranger. Il s'agit du concept que Nvidia utilise pour ses systèmes matériels d'IA complets allant du GPU Blackwell à la technologie réseau haut débit.
Le système AWS AI Factory est en fait un produit de coopération entre Amazon et Nvidia combinant la puissance des GPU spécialisés avec les capacités de l'infrastructure d'AWS.
Les clients qui déploient ce modèle peuvent choisir entre le dernier GPU Blackwell de Nvidia ou Trainium3 une puce d'IA de nouvelle génération développée par Amazon lui-même.
Parallèlement il existe un système de stockage un réseau une sécurité une base de données interne AWS et prend également en charge toutes les plateformes telles qu'Amazon Bedrock (choix de modèles d'IA) et AWS SageMaker (construction - formation de modèles).
Non seulement Amazon mais Microsoft installe également les 'Maisons d'IA' de Nvidia dans le système mondial de centres de données.
En octobre dernier la société a présenté un modèle d'AI Factory pour servir les volumes de travail d'OpenAI. Cependant contrairement à AWS Microsoft n'a pas mentionné à l'époque la possibilité d'intégrer ces supermachines de l'IA dans le centre de données privé de l'entreprise.
Ils ont principalement souligné la stratégie de construction de'super-factories d'IA' (AI Super Factories) dans le Wisconsin et la Géorgie.
Parallèlement Microsoft développe également des services d'infrastructure pour servir la propriété des données notamment le modèle Azure Local qui est un matériel géré par Microsoft mais installé directement sur la base client. Cela montre que l'entreprise recule d'un pas pour accéder aux exigences strictes en matière de données dans chaque pays.
Un paradoxe intéressant se produit : l'IA une technologie qui est stimulée par le cloud pousse les géants de la technologie à revenir au modèle de déploiement sur place comme vers 2009 lorsque les entreprises construisaient elles-mêmes leurs propres centres de données.
Cependant la grande différence réside dans le fait que les usines d'IA actuelles ne sont pas des salles de machines ordinaires mais des clusters de superordinateurs coûteux qui exigent une combinaison de matériel haut de gamme et de services de gestion spécialisés.
Amazon considère cela comme une pièce importante pour consolider sa position dans la course à l'infrastructure d'IA mondiale en particulier lorsque les clients sont de plus en plus prudents quant à leurs données. La concurrence entre AWS Nvidia et Microsoft devient donc plus brûlante que jamais.