Le roi des puces IA déclare la guerre à ses propres clients. Vingt-six milliards de dollars pour bâtir des modèles ouverts : la manœuvre est aussi audacieuse que risquée.

NVIDIA ne se contente plus de fournir la quincaillerie de l'intelligence artificielle. Des documents déposés auprès de la SEC, l'autorité boursière américaine, révèlent un plan d'investissement de 26 milliards de dollars sur cinq ans. L'objectif : développer des modèles d'IA à poids ouverts capables de rivaliser avec ceux d'OpenAI, d'Anthropic et de DeepSeek. Le tout rapporté initialement par Wired et confirmé par des cadres du groupe.
26 milliards de dollars pour des modèles ouverts : que prépare NVIDIA ?
Le montant donne le vertige. Pour mémoire, l'entraînement de GPT-4 aurait coûté environ 3 milliards de dollars à OpenAI (nous ne connaissons pas le coût de GPT-5). NVIDIA dispose donc, en théorie, de quoi produire plusieurs modèles de pointe avec de la marge. Le groupe a d'ailleurs déjà posé ses premiers jalons. Nemotron 3 Super, son modèle le plus abouti, affiche 128 milliards de paramètres. Un modèle de 550 milliards de paramètres serait déjà pré-entraîné.
Le terme « poids ouverts » mérite une précision. Contrairement à l'accès libre intégral, il désigne la publication des paramètres finaux du modèle. Les développeurs peuvent télécharger, modifier et adapter ces modèles sur leurs propres machines. Les données d'entraînement, elles, restent propriétaires. C'est un compromis entre l'approche fermée d'OpenAI et la transparence totale revendiquée par certains laboratoires.
La stratégie n'est pas neuve. DeepSeek, Alibaba, Baidu et d'autres acteurs chinois publient des modèles performants en accès libre depuis plus d'un an. Leur logique : distribuer l'intelligence pour capter l'écosystème. NVIDIA reprend cette recette mot pour mot, mais avec un carnet de chèques que les laboratoires chinois ne possèdent pas. Et surtout, avec un avantage structurel qu'aucun concurrent ne peut reproduire : le contrôle du matériel sur lequel ces modèles tournent.
Pourquoi NVIDIA risque gros en attaquant ses propres clients
C'est là que le pari devient périlleux. Microsoft, Amazon et Google figurent parmi les plus gros acheteurs de puces NVIDIA. Ces trois géants investissent aussi massivement dans des modèles concurrents et développent leurs propres processeurs pour réduire leur dépendance au verrou CUDA. En lançant des modèles ouverts, NVIDIA cible directement le cœur de métier de ses clients. La tension est résumée par un cadre du secteur sous anonymat. On ne peut pas être la Suisse de l'infrastructure IA et un concurrent frontal à la fois.
Mais le calcul de Jensen Huang repose sur une logique que l'on connaît bien chez NVIDIA. Depuis NemoClaw et les microservices NIM, le groupe empile les briques logicielles libres autour de ses processeurs. Des modèles ouverts optimisés pour GPU NVIDIA créent un nouveau type de verrouillage. Le modèle est gratuit, mais il tourne mieux sur du matériel estampillé vert. Le rasoir est offert, les lames sont facturées à prix d'or.
Le parallèle avec CUDA s'impose. Depuis vingt ans, cette plateforme propriétaire enchaîne les développeurs aux puces du groupe. C'est le socle de sa domination. Les modèles ouverts pourraient devenir le CUDA du logiciel : un écosystème si commode qu'on finit par ne plus le quitter. Les entreprises qui adoptent Nemotron tirent ensuite sur NIM pour l'inférence, sur NeMo Guardrails pour la sécurité, sur toute la pile logicielle maison.
Le calendrier n'est pas anodin non plus. NVIDIA vient d'annoncer un partenariat pouvant atteindre 100 milliards de dollars avec OpenAI pour du matériel d'inférence. Le groupe joue donc sur les deux tableaux : fournisseur privilégié d'un côté, concurrent de l'autre. Un grand écart qui ne pourra pas durer indéfiniment.