Mark Zuckerberg, autrefois fervent défenseur de l'IA open source, semble revoir sa copie. Le PDG de Meta suggère désormais que les futurs modèles d'intelligence artificielle les plus puissants du groupe pourraient rester propriétaires, invoquant des raisons de sécurité et une compétition féroce.

La stratégie de Meta en matière d'IA oscille entre la promesse d'ouverture et la nécessité de protéger ses technologies les plus avancées. © Shutterstock
La stratégie de Meta en matière d'IA oscille entre la promesse d'ouverture et la nécessité de protéger ses technologies les plus avancées. © Shutterstock

Ce potentiel changement d'orientation intervient alors que Meta injecte des sommes colossales dans la course à la superintelligence, un type d'IA qui égalerait ou dépasserait l'intellect humain. Le géant de la tech, qui a récemment promis d'investir des centaines de milliards de dollars pour développer la superintelligence, a fait de ce domaine son principal champ de bataille. La philosophie de l'ouverture, incarnée par la famille de modèles Llama, constituait jusqu'ici son arme distinctive face à des concurrents comme OpenAI ou Google.

Meta.AI
  • Intégration multiplateforme
  • Modèles open-source Llama 4
  • Fonctionnalités de génération d'images et vidéos

L'open source confronté à des « problèmes de sécurité inédits »

C’est une partition bien différente que joue désormais le PDG de Meta. Dans une note récente, Mark Zuckerberg a conditionné le partage des futures technologies à des « problèmes de sécurité inédits » qui obligeront l'entreprise à être « rigoureuse » et « prudente sur ce que nous choisissons de mettre en open source ». Le discours sur la supériorité de l’ouverture en matière de sécurité, martelé un an plus tôt, s'efface au profit d'une prudence de façade. Cette nouvelle rhétorique coïncide avec la mise en place d'une nouvelle division d'élite, les Meta Superintelligence Labs, destinée à centraliser les efforts les plus ambitieux du groupe.

Derrière le paravent de la sécurité se dessinent les contours d’une forteresse technologique. Zuckerberg lui-même s'interroge sur la pertinence de partager des modèles avancés si cela revient principalement à « aider les concurrents ». Cette logique économique prend tout son sens alors que Meta mène une guerre des talents sans merci, attirant un nouvel ingénieur de chez Apple et d'autres experts à coups de salaires mirobolants. Protéger ces investissements colossaux et les joyaux de la couronne qui en résulteront devient une nécessité stratégique.

Mark Zuckerberg justifie son éventuel changement de stratégie par des impératifs de sécurité liés à la puissance des futurs modèles d'IA. © Shutterstock

L'open source, une arme à double tranchant ?

Cette évolution amène à relire le passé sous un autre angle. La générosité affichée de Meta dissimulait en réalité une manœuvre stratégique brillante. Ses modèles Llama n'ont jamais été véritablement open source au sens pur du terme, mais plutôt open weight, leur code source et leurs données d'entraînement restant secrets. En publiant gratuitement des modèles performants, le groupe visait à banaliser le marché et à saper le modèle économique de rivaux comme OpenAI, qui monétisent l'accès à leurs systèmes propriétaires via des API. Une tactique redoutable pour fédérer une communauté, attirer les talents et affaiblir la concurrence.

L'avenir de la stratégie IA de Meta semble donc s'écrire sur une partition hybride. Le groupe conserverait jalousement ses modèles les plus puissants et coûteux, tel le projet « Behemoth », pour un usage propriétaire et un avantage compétitif maximal. En parallèle, il continuerait de publier des versions plus anciennes ou moins performantes pour entretenir l'écosystème de développeurs et son image d'acteur ouvert.

Source : Engadget