Lors d'un échange houleux avec Elon Musk sur les réseaux, Sam Altman a reconnu que combiner utilité et sécurité était un challenge particulièrement complexe.

Sam Altman défend le bilan d'OpenAI sur les questions de sécurité. © Rokas Tenys / Shutterstock
Sam Altman défend le bilan d'OpenAI sur les questions de sécurité. © Rokas Tenys / Shutterstock

La sécurité de ChatGPT soulève régulièrement de nombreuses inquiétudes : implication dans des suicides, renforcement des comportements négatifs, vulnérabilités critiques, discussions dévoilées par erreur sur le web… Critiqué par Elon Musk, qui poursuit OpenAI en justice, Sam Altman a tenu à défendre les efforts de son entreprise pour améliorer la protection des utilisateurs. Explications.

Sam Altman défend les efforts d'OpenAI en matière de sécurité…

Dans une récente publication parue sur X.com, Elon Musk a partagé un article expliquant que ChatGPT était lié à pas moins de 9 décès. Le milliardaire et co-fondateur d'OpenAI en a profité pour faire la mise en garde suivante : « Ne laissez pas vos proches utiliser ChatGPT ». Il n'en fallait pas plus pour attirer l'attention de Sam Altman, d'habitude plutôt taiseux sur le sujet.

Le PDG a d'abord reproché à Elon Musk son manque de cohérence : « Parfois, tu te plains que ChatGPT est trop restrictif, puis dans des cas comme celui-ci, tu prétends qu'il est trop laxiste ». Il en a ensuite dit un peu plus sur la stratégie de sa société en expliquant que trouver un équilibre entre simplicité d'utilisation et sécurité était loin d'être simple : « C'est vraiment difficile ; nous devons protéger les utilisateurs vulnérables, tout en veillant à ce que nos garde-fous permettent à tous nos utilisateurs de bénéficier de nos outils. »

Sam Altman en a aussi profité pour rappeler qu'OpenAI ne prenait pas sa mission à la légère et que les « situations tragiques et complexes méritaient le plus grand respect. »

ChatGPT a encore du chemin à faire côté sécurité. ©Shutterstock
ChatGPT a encore du chemin à faire côté sécurité. ©Shutterstock

… et critique les projets d'Elon Musk

Loin de baisser sa garde, le PDG d'OpenAI a aussi souligné qu'Elon Musk n'était pas vraiment en position de critiquer qui que ce soit. Il a, pour preuve, rappelé l'implication de l'Autopilot de Tesla dans plusieurs accidents mortels et les nombreux dérapages de son chatbot IA, Grok.

  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
9 / 10

Alors que ChatGPT est proche de dépasser le milliard d'utilisateurs, OpenAI a encore énormément de travail pour assurer la sécurité de ses utilisateurs. Si de nombreux garde-fous sont déjà en place, des règles trop sévères pourraient entraver le bon fonctionnement du chatbot. Une position plus laxiste serait, quant à elle, beaucoup trop dangereuse. C'est pourquoi la firme est obligée de naviguer à vue et de trouver des solutions au fil de l'eau : rappelons qu'OpenAI a récemment déployé un contrôle parental et mis en place de nouvelles mesures pour protéger les adolescents.

En tout cas, cet échange tendu aura au moins permis à Sam Altman de préciser la stratégie de sa firme en matière de sécurité. On espère que lui et ses concurrents feront preuve d'un peu plus de transparence à l'avenir sur ces sujets critiques.

Source : TechRadar

À découvrir
Quelles sont les meilleures IA pour générer vos contenus ? Comparatifs 2026
02 janvier 2026 à 14h39
Comparatifs services