Meta et AWS viennent de signer un accord pour déployer les processeurs Graviton5 à très grande échelle. Le géant des réseaux sociaux devient l'un des plus grands clients de la puce cloud d'Amazon Web Services.

Derrière chaque assistant IA qui répond en temps réel, génère du code ou enchaîne des tâches complexes sans intervention humaine, il y a une infrastructure, et elle peut parfois être colossale. Meta, propriétaire de Facebook, Instagram et WhatsApp, vient de renforcer la sienne en signant un accord XXL avec AWS pour déployer plusieurs dizaines de millions de cœurs Graviton5, processeurs CPU spécialement conçus pour ce type de calculs intensifs. Car contrairement à l'entraînement des grands modèles IA, qui mobilise surtout des GPU, faire tourner des agents autonomes au quotidien, c'est avant tout une affaire de puissance CPU.
Meta devient l'un des plus grands clients Graviton d'AWS au monde
Pendant longtemps, la recette semblait immuable : pour faire de l'intelligence artificielle, il fallait des GPU, toujours plus de GPU. Meta veut quelque peu nuancer cette vision. En déployant plusieurs dizaines de millions de cœurs Graviton signés AWS, le groupe de Mark Zuckerberg s'impose d'emblée comme l'un des plus grands clients de la puce au monde. Il montre que pour les usages agentiques du quotidien, les processeurs CPU ont désormais leur mot à dire.
La distinction est subtile, mais elle compte. Quand on entraîne un modèle IA, c'est-à-dire quand on lui apprend à raisonner, sur des semaines entières, les GPU sont rois. Ils excellent dans les calculs massifs et parallèles. Mais une fois le modèle prêt, le faire fonctionner en conditions réelles, donc en gros répondre instantanément, écrire du code, coordonner des tâches en chaîne, demande un autre type de puissance, plus réactive et continue. C'est là que les CPU comme Graviton5 prennent le relais.
Meta et AWS collaborent depuis longtemps, notamment via Amazon Bedrock, la plateforme cloud d'Amazon qui permet aux entreprises de développer et déployer leurs modèles IA. Meta l'utilise déjà massivement. Autant dire que le terrain était bien préparé. Santosh Janardhan, responsable de l'infrastructure chez Meta, le confirme en expliquant que « diversifier nos sources de calcul est une nécessité stratégique. AWS est un partenaire cloud de confiance depuis des années. »

Ce que Graviton5 change vraiment pour les workloads agentiques
Mais que vaut Graviton5 sous le capot concrètement ? La puce, dévoilé en décembre dernier lors de la dernière édition de l'AWS re:Invent, embarque 192 cœurs, donc autant de petits processeurs qui travaillent simultanément, et un espace de mémoire rapide cinq fois plus grand que celui de la génération précédente. Les échanges d'informations entre ces cœurs sont ainsi 33 % plus rapides. Pour un agent IA qui doit enchaîner des centaines de micro-décisions à la seconde, ce gain de réactivité peut faire la différence.
La puce Graviton5 s'appuie sur le système AWS Nitro, une couche technique conçue par Amazon pour que les serveurs exploitent le matériel au maximum de ses capacités, sans les ralentissements habituels liés à la virtualisation. À cela s'ajoute une technologie appelée Elastic Fabric Adapter, qui permet à des centaines de processeurs de communiquer entre eux très rapidement. Quand une tâche d'IA agentique doit être découpée et distribuée sur des milliers de machines en même temps, c'est indispensable.
Notons que la puce Graviton5 est fabriquée avec une finesse de gravure de 3 nanomètres. Les transistors sont si minuscules qu'ils consomment moins d'énergie tout en faisant davantage de calculs. AWS annonce des performances en hausse de 25 % par rapport à la génération précédente, avec une facture électrique contenue. Un détail qui compte, forcément, quand on sait que faire tourner l'IA de Meta à l'échelle mondiale représente une consommation énergétique colossale.