Chez OpenAI et d'autres entreprises renommées du secteur de l'IA, de plus en plus de voix s'élèvent pour dénoncer les pratiques de xAI en matière de sécurité.

- xAI est critiquée pour le manque de transparence et de sécurité de son modèle IA Grok, jugé irresponsable.
- Des experts soulignent l'absence de documentation sur les tests de sécurité, ce qui inquiète la communauté IA.
- Des lois pourraient forcer les entreprises IA à publier leurs rapports de sécurité pour plus de transparence.
Alors qu'elle vient tout juste de lancer un nouveau modèle IA qui serait plus intelligent que la concurrence, xAI est loin d'être en odeur de sainteté et pour cause : Grok ne cesse de défrayer la chronique en raison de ses propos haineux. Si l'entreprise s'est penchée sur la question dans l'espoir de régler ce problème, plusieurs chercheurs estiment que les pratiques de sécurité chez xAi laissent encore à désirer.
Des voix s'élèvent contre les pratiques de xAI
Boaz Barak, professeur d'informatique en congé de Harvard fait des recherches sur la sécurité de l'IA chez OpenAI. Cette semaine, il a partagé ses inquiétudes concernant Grok dans une publication parue sur X : « J'apprécie les scientifiques et les ingénieurs de xAI, mais la façon dont la sécurité a été gérée est totalement irresponsable. »
L'expert critique notamment le manque de transparence de la firme, qui n'a pas rendu publiques ses fiches systèmes pour expliquer comment l'IA Grok avait été entraînée et quel risques elle présentait. Il s'inquiète aussi des conséquences néfastes que peuvent avoir les nouveaux compagnons IA de la firme sur certaines personnes.
Même son de cloche pour Samuel Marks, chercheur en sécurité de l'IA chez Anthropic : « xAI a lancé Grok 4 sans fournir aucune documentation sur ses tests de sécurité. Cette attitude est imprudente et va à l'encontre des meilleures pratiques suivies par les autres grands laboratoires d'IA.» D'autres experts ont aussi vivement critiqué la firme sur le web, estimant qu'elle n'avait pas mis en place assez de garde-fous. Le conseiller en sécurité d'xAI a, quant à lui, affirmé sur X que des évaluations de dangerosité avait bien été réalisées, mais rien n'a été dévoilé publiquement.

La sécurité de l'IA, un sujet qui soulève de nombreuses inquiétudes
En attendant, Grok enchaîne les comportements problématiques, et ce, malgré les efforts d'xAI pour les limiter. Si tout cela fait grincer des dents, le problème est, toutefois bien plus vaste qu'il n'y paraît : toutes les entreprises du secteur gagneraient, en effet, à être plus transparentes.
Steven Adler, qui a, par le passé, dirigé les équipes en charge de la sécurité chez OpenAI, estime que le secteur de l'IA est un peu trop laxiste concernant le respect des règles de sécurité. En effet, beaucoup d'entreprises ne publient pas à l'heure actuelle les résultats des tests sur les risques de leurs technologies : « Les gouvernements et le public méritent de savoir comment les entreprises d'IA gèrent les risques liés aux systèmes très puissants qu'elles prétendent développer. »
Des projets de loi émergent, notamment aux États-Unis, pour obliger les sociétés IA à publier leurs rapports de sécurités. Ils seraient d'autant plus nécessaires que les progrès de cette technologie sont rapides. Si pour l'heure, aucun scénario catastrophe ne s'est produit, les risques restent cependant bien réels et pourraient, si l'on en croit certains experts, finir par se concrétiser.
Il est donc crucial d'accompagner les progrès de l'IA avec autant de transparence et de bon sens que possible.
Source : TechCrunch
04 février 2025 à 14h11