Cela ressemble à une acquisition, cela a le goût d'une acquisition, mais officiellement c'est simplement un accord de non-exclusivité.

La veille de Noël, Groq a annoncé sur son site officiel « la signature d'un accord de licence non exclusif avec NVIDIA pour sa technologie d'inférence ». Une belle victoire pour Jensen Huang qui semble même être parvenu à éloigner la menace de l'autorité de régulation malgré un net renforcement de sa position sur l'IA.
Offre partenaire
En partenariat avec Avast, la rédaction de Clubic a sélectionné les appareils qui combinent innovation, performance et fiabilité. Voici les grands gagnants qui ont marqué l'année 2025 et méritent ce Clubic Awards !
Offre partenaire
20 milliards, mais pas de fusion-acquisition
Non, il n'est pas question de Grok, le chatbot d'intelligence artificielle générative développé par xAI et principalement lancé à l'initiative d'Elon Musk, jaloux de la position et du succès d'OpenAI.
L'entreprise Groq – avec un « q » donc – est une société américaine spécialisée dans l'intelligence artificielle. Son principal fait d'armes est la conception d'un circuit intégré spécifique (un ASIC) agissant comme un accélérateur d'IA. Une puce qu'elle a baptisée LPU pour Language Processing Unit ou, en bon français, unité de traitement du langage.
Pas forcément très connue, notamment en France, Groq a aiguisé l'appétit de Jensen Huang, fondateur et actuel patron de NVIDIA, qui – la veille de Noël – a validé un accord estimé à 20 milliards de dollars. Un accord qui avait d'abord été présenté comme le rachat pur et simple de Groq par NVIDIA, mais dont la nature est en réalité plus subtile, plus intelligente.
En effet, le rachat d'une entreprise aussi spécialisée dans l'IA (Groq) par un groupe qui, justement, est aujourd'hui l'un des poids lourds du secteur (NVIDIA) a fait frémir une large partie de l'industrie qui, immédiatement, a indiqué que les autorités de régulation allaient devoir faire leur travail et contrecarrer, au plus vite, les plans de Jensen Huang.
Sauf que la réalité est bien différente et, comme nous l'écrivions en préambule, Groq a indiqué sur son site officiel qu'il était question « d'un accord de licence non exclusif avec NVIDIA pour sa technologie d'inférence ».
Groq continue d'être « indépendante »…
De fait, au moins sur le papier, les deux entités semblent tranquilles et très loin d'être exposées aux risques d'une attaque liée à l'acquisition de Groq par NVIDIA qui enfreindrait alors les règles sur la domination d'un marché.
En y regardant de plus près, tout semble même indiquer un coup de maître de la part de Jensen Huang avec cet accord de non-exclusivité. « Dans le cadre de cet accord, Jonathan Ross, fondateur de Groq, Sunny Madra, président de Groq, et d'autres membres de l'équipe Groq rejoindront NVIDIA afin de contribuer au développement et à l'expansion de la technologie sous licence ».
Le fait que tous les cadres rejoignent ainsi NVIDIA semble confirmer l'hypothèse d'un phagocytage pur et simple. Pourtant, pour sauver les apparences, Groq indique aussi qu'elle « continuera d'opérer en tant qu'entreprise indépendante, Simon Edwards assumant alors le rôle de directeur général », avant d'ajouter que « GroqCloud restera pleinement opérationnel ».
De fait, tout porte à croire que la forme prise par l'accord signé entre Groq et NVIDIA devrait permettre à l'entreprise de Jensen Huang d'échapper à toute vérification de la part des autorités de régulation. Par voie de conséquence, cela permet également d'accélérer grandement les choses et de valider l'opération en quelques jours seulement.
Reste maintenant à comprendre le pourquoi du comment de l'intérêt de NVIDIA dans la compagnie américaine Groq. NVIDIA semble déjà disposer de tout ce qu'il faut côté hardware pour alimenter la machine intelligence artificielle.
… mais participe de la domination NVIDIA sur l'IA
Il faut comprendre que, justement, Groq et NVIDIA ne boxent pas tout à fait dans la même catégorie, et ce, même si en apparence tout semble rapprocher les actions des deux entreprises.
Comme l'expliquent nos confrères de Wccftech, Groq dispose d'un écosystème hardware qui paraît être en mesure de dupliquer le succès de NVIDIA dans le domaine de l'entraînement des IA. De l'aveu de nombreux spécialistes, l'industrie a aujourd'hui clairement besoin d'une nouvelle approche dans le domaine du calcul d'inférence et c'est justement le « rôle » de Groq.
Jonathan Ross, l'ancien P.-D. G. de Groq et qui rejoint donc NVIDIA aux termes de l'accord signé entre les deux parties, a imaginé le concept de LPU. Ce sont ces LPU qui constituent la solution de Groq pour les charges de travail d'inférence grâce à deux atouts fondamentaux : ce que l'on appelle l'exécution déterministe et le fait d'intégrer de la SRAM comme stockage principal.
Groq explique que grâce à ces deux atouts, sa solution accélère grandement toutes les tâches et, pour appuyer ses dires, la société a déjà présenté deux de ses solutions : la puce GroqChip et la carte GroqCard. Oui, on a le sens de la formule chez Groq. Un GroqChip intègrerait 230 Mo de SRAM afin d'autoriser une bande passante de 80 To/s ! De plus, la SRAM permet une latence minimale.
Autre avantage de la solution de Groq alors que l'on parle beaucoup des besoins gargantuesques de l'intelligence artificielle, la SRAM consomme beaucoup moins d'énergie par bit. De plus, lors du décodage, les unités de traitement logique (LPU) permettent d'améliorer considérablement la consommation d'énergie par jeton et tout cela vient en plus de l'exploitation des cycles déterministes.
Là, Groq s'appuie sur sa méthode de planification à la compilation qui lui permet de garantir l'absence de délais au sein des pipelines de décodage. De fait, on optimise à nouveau leur fonctionnement en autorisant des débits bien plus élevés que celui des accélérateurs actuels. Groq souligne que son GroqChip est spécifiquement conçu pour les besoins d'inférence des hyperscalers.
Sauf que, bien sûr, qui dit haut niveau de spécialisation dit aussi manque de polyvalence et difficulté à s'imposer comme plateforme standard, versatile. C'est ici que NVIDIA intervient. Les GroqChips ne sont plus considérés que comme un maillon de la chaîne et ils sont proposés au sein de systèmes d'inférence, à l'échelle du rack où ils sont pleinement associés à l'infrastructure réseau.
De fait, il devient possible de faire travailler conjointement les GPU pour assurer le préremplissage et le contexte long tandis que les LPU de Groq se concentrent sur le décodage. On peut donc considérer qu'avec le soutien de Groq, NVIDIA maîtrise maintenant l'intégralité du processus lié aux tâches d'inférence.