Malgré l'hégémonie quasi totale de NVIDIA sur le marché des puces pour l'intelligence artificielle, les investisseurs montrent un regain d'optimisme pour son concurrent AMD. La feuille de route agressive du concepteur de puces et ses nouveaux produits semblent convaincre que la bataille pour la suprématie dans l'IA est loin d'être terminée.

- AMD défie NVIDIA avec sa nouvelle série de puces Instinct MI350, promettant des performances supérieures à moindre coût.
- La stratégie d'AMD mise sur l'ouverture avec sa plateforme logicielle ROCm, séduisant développeurs et entreprises pour plus de flexibilité.
- NVIDIA reste dominant, mais AMD pourrait se démarquer sur le marché de l'inférence grâce à ses innovations énergétiques.
Le secteur de l'intelligence artificielle est aujourd'hui largement dominé par NVIDIA, qui détient entre 85% et 92% des parts de marché des processeurs dédiés. Pourtant, son rival de toujours, AMD, orchestre une contre-offensive remarquée qui suscite l'intérêt des analystes et des géants de la tech. En s'appuyant sur une nouvelle génération de puces et une stratégie logicielle ouverte, l'entreprise espère bien tailler des croupières au géant vert.
L'offensive d'AMD : des puces performantes et une stratégie agressive
La confiance retrouvée envers AMD repose en grande partie sur l'annonce de sa nouvelle gamme d'accélérateurs d'IA, la série Instinct MI350. Lors d'une récente présentation, Lisa Su, la PDG d'AMD, a affirmé que ces nouvelles puces, telles que la MI355X, surpassent les offres de NVIDIA en matière d'efficacité.
AMD met en avant des arguments chiffrés pour séduire le marché. La série MI350 serait jusqu'à 35 fois plus rapide que les générations précédentes de la marque. Plus important encore, Lisa Su affirme que la puce MI355X offre des performances équivalentes à celles de la complexe et onéreuse GB200 de NVIDIA, mais à un coût inférieur. Le ratio performance/prix est un axe d'attaque majeur : AMD promet jusqu'à 40% de tokens — les unités de texte traitées par les modèles d'IA — en plus par dollar investi par rapport aux solutions concurrentes.
Ce discours a trouvé un écho favorable, y compris auprès d'acteurs de premier plan. Sam Altman, le PDG d'OpenAI, a confirmé que son entreprise utiliserait les dernières puces d'AMD, un soutien de poids qui confère une crédibilité certaine à l'offensive du constructeur.
Au-delà du matériel, la stratégie d'AMD repose sur sa plateforme logicielle ROCm, un écosystème open software stack. Contrairement à l'environnement fermé CUDA de NVIDIA, ROCm mise sur l'ouverture en assurant une compatibilité native avec les principaux frameworks d'IA comme TensorFlow et PyTorch. Cette approche pourrait séduire les développeurs et les entreprises cherchant plus de flexibilité. De quoi laisser penser que l'ère où NVIDIA pouvait manger son pain blanc sans véritable opposition touche peut-être à sa fin.
NVIDIA ne cède pas un pouce de terrain
La domination de NVIDIA est écrasante, avec des clients majeurs comme Meta, Microsoft, Amazon et Google qui investissent des dizaines de milliards dans ses infrastructures. En réponse aux avancées de ses concurrents, l'entreprise a déjà dévoilé sa propre nouvelle génération, la puce Blackwell Ultra, attendue pour la seconde moitié de 2025. Celle-ci promet des performances 1,5 fois supérieures à l'architecture Blackwell standard et une mémoire accrue, spécifiquement conçue pour l'IA agentique, la prochaine étape du développement de l'IA.

NVIDIA maintient également un rythme de développement effréné, avec une feuille de route qui annonce déjà les architectures Rubin pour 2026 et Rubin Ultra pour 2027. Cette cadence soutenue vise à maintenir à distance toute concurrence potentielle.
Pour se faire une place, AMD pourrait jouer sur un terrain différent. Le monde des puces IA se divise en deux grands domaines : le training (l'entraînement des modèles) et l' inference (l'exécution des requêtes une fois le modèle entraîné). NVIDIA est quasiment indétrônable sur le training, grâce à la maturité de son écosystème CUDA et à des optimisations matérielles poussées.
Cependant, le marché de l'inference est en pleine expansion et ses exigences, notamment en matière de mémoire et d'efficacité énergétique, sont différentes. C'est sur ce segment qu'AMD pourrait avoir une carte à jouer avec ses puces MI350. Cette stratégie, axée sur un meilleur rendement, s'aligne d'ailleurs sur la promesse passée d'AMD de multiplier l'efficacité énergétique de ses solutions dans les années à venir.
Source : WCCFTECH