
Au lieu de dependre uniquement de Microsoft comme au debut OpenAI utilisera desormais simultanement de nombreux fournisseurs de services cloud notamment : Google Cloud CoreWeave et Oracle. Cette diversification est consideree par les analystes comme une etape strategique pour resoudre la situation de « congestion des ressources GPU » et reduire les risques de dependance.
Google est a l'avant-garde de la part de marche par rapport a Amazon et Microsoft dans le domaine du cloud computing. Cependant il est considere qu'il a marque les esprits en devenant le partenaire d'exploitation de l'infrastructure de ChatGPT et des API d'OpenAI dans de nombreuses regions du monde telles que : les Etats-Unis le Japon l'Europe.
Il est a noter que bien que les deux parties participent a la course a l'IA et developpent leurs propres modeles (Gemini de Google et GPT d'OpenAI) elles sont toujours pretes a cooperer sur les infrastructures. Cela reflete clairement la tendance 'partenariat - concurrentiel' (coopetition) dans l'industrie technologique.
Cette expansion de l'infrastructure intervient dans un contexte ou le PDG Sam Altman a publiquement reconnu les difficultes a trouver des GPU pour maintenir des modeles d'IA a grande echelle. 'Si quelqu'un a 100 000 GPU disponibles veuillez nous appeler' a-t-il ecrit sur le reseau social X en avril.
Auparavant OpenAI avait egalement signe un contrat de 5 ans d'une valeur de pres de 12 milliards de dollars avec CoreWeave et annonce un plan de cooperation bilaterale avec Microsoft et Oracle pour partager des ressources de calcul sur la plateforme cloud.
Bien que Microsoft conserve un role de partenaire strategique a long terme et exclusif avec les interfaces de programmation d'OpenAI l'expansion du reseau d'infrastructures montre que l'entreprise entre dans une phase de croissance mondiale qui exige de la flexibilite et une capacite d'optimisation des ressources au plus haut niveau.