OpenAI et Amazon Web Services ont annoncé, lundi, avoir conclu un partenariat à hauteur de 38 milliards de dollars. Le créateur de ChatGPT va accéder à l'infrastructure d'Amazon et aux capacités de calcul de NVIDIA.

C'est une annonce retentissante que nous offrent Amazon Web Services et OpenAI ! Les deux entreprises ont officialisé leur union ce lundi 3 novembre 2025, avec à la clé un contrat de 38 milliards de dollars (33 milliards d'euros), étalé sur sept ans. Amazon offre à Sam Altman les ressources nécessaires pour pousser l'IA générative dans ses derniers retranchements. Serveurs, processeurs, puces graphiques haut de gamme signées NVIDIA, c'est tout l'arsenal technologique d'AWS qui est désormais mobilisé au service des ambitions du créateur de ChatGPT.
Les puces NVIDIA et l'infrastructure AWS disponibles pour ChatGPT
Concrètement, qu'est-ce qu'OpenAI va récupérer au terme de cette transaction ? D'abord, un accès immédiat aux fameux serveurs EC2 UltraServers d'Amazon, ces monstres de calcul équipés de processeurs graphiques NVIDIA de dernière génération. On parle ici des puces GB200 et GB300, regroupées dans des ensembles géants pouvant compter jusqu'à 500 000 unités. Ces configurations sont pensées pour encaisser aussi bien le service ChatGPT actuel que l'entraînement des futurs modèles d'IA.
Mais il n'y a pas que les GPU dans cette affaire. OpenAI pourra aussi compter sur des dizaines de millions de processeurs CPU traditionnels. L'objectif est de faire tourner les fameux « agents autonomes », ces programmes capables d'exécuter des tâches complexes sans intervention humaine. Le tout devrait être opérationnel d'ici la fin 2026, avec une porte ouverte pour continuer l'expansion en 2027 et au-delà. Autant dire qu'on ne joue pas dans la cour des petits ici.
AWS met les petits plats dans les grands en promettant une infrastructure taillée sur mesure. L'idée ? Maximiser l'efficacité et minimiser les temps de latence entre les différents systèmes. Matt Garman, le patron d'AWS, est heureux en ce début de semaine. « Alors qu'OpenAI continue de repousser les limites du possible, l'infrastructure de premier ordre d'AWS servira de colonne vertébrale à leurs ambitions en IA », réagit-il. L'infrastructure d'AWS est en tout cas taillée pour supporter les énormes charges de travail IA d'OpenAI.
OpenAI est déjà adopté par de nombreuses entreprises depuis AWS
Si le montant du contrat impressionne, la collaboration entre AWS et OpenAI n'est pas le fruit du hasard. Les deux entreprises travaillent déjà main dans la main depuis plusieurs mois. Plus tôt cette année, OpenAI avait mis certains de ses modèles à disposition sur Amazon Bedrock, la plateforme qui permet aux entreprises d'intégrer facilement différentes IA dans leurs outils. Ce fut un coup gagnant, puisqu'OpenAI est rapidement devenu l'un des fournisseurs les plus demandés du service, avec des milliers de clients actifs.
Et les exemples d'utilisation ne manquent pas. Des noms comme Thomson Reuters, Peloton, Comscore, Bystreet, Triomics ou Verana Health exploitent déjà les modèles d'OpenAI depuis Bedrock. Ces derniers les sollicitent pour résoudre des problèmes scientifiques ou mathématiques, développer des logiciels à vitesse grand V ou créer des workflows autonomes pour l'entreprise.
Pour Sam Altman, le patron d'OpenAI, ce partenariat répond à une nécessité vitale. « Faire évoluer l'IA de pointe nécessite une puissance de calcul massive et fiable », explique-t-il. « Notre partenariat avec AWS renforce le large écosystème de calcul qui alimentera cette nouvelle ère et apportera l'IA avancée à tout le monde. » Message reçu, car dans la bataille de l'intelligence artificielle, celui qui contrôle les serveurs contrôle l'avenir. Et avec cet accord, OpenAI vient de s'assurer un sacré avantage.