
Le GPU de Nvidia est la principale plateforme pour les volumes de travail de l'IA il consomme donc une tres grande quantite d'energie ce qui necessite un systeme de refroidissement plus efficace. Amazon a declare avoir conçu une nouvelle solution appelee echangeur de chaleur (In-Row Heat Exchanger - IRHX) qui peut etre integree a la fois au centre de donnees actuel et futur sans avoir besoin de reparer l'ensemble du systeme.
« Les solutions de refroidissement liquide actuelles occupent trop de surface et consomment beaucoup d'eau ce qui n'est pas adapte a notre taille » a partage M. Dave Brown vice-president de la division informatique et d'apprentissage automatique d'AWS.
Auparavant le systeme de refroidissement par air etait suffisant pour les GPU Nvidia anciens. Mais avec une nouvelle generation comme la Nvidia GB200 NVL72 - integrant jusqu'a 72 GPU en un seul support Amazon est oblige de moderniser son infrastructure.
AWS a lance la nouvelle gamme de serveurs P6e utilisant la conception Blackwell de Nvidia fournissant une puissance informatique enorme pour la formation et l'exploitation de grands modeles d'IA. Avant Amazon les systemes bases sur le GB200 NVL72 ont ete fournis par Microsoft et CoreWeave.
En tant que plus grand fournisseur de cloud au monde Amazon developpe depuis longtemps lui-meme des materiels tels que des puces d'IA des serveurs et des routeurs afin de reduire sa dependance aux tiers et d'augmenter ses benefices. AWS contribue actuellement en grande partie aux benefices nets d'Amazon avec la marge beneficiaire la plus elevee depuis 2014 au premier trimestre 2025.
Selon CNBC Microsoft (le plus grand concurrent d'AWS) developpe egalement son propre materiel d'IA. En 2024 Microsoft a egalement presente le systeme de refroidissement Sidekicks pour la puce Maia conçue par la societe.