Pendant que les plaintes s'accumulent contre ChatGPT, OpenAI pousse un projet de loi en Illinois qui protégerait les entreprises d'IA si leurs outils provoquaient des catastrophes. Y compris des morts en masse.

Le 10 avril, le procureur général de Floride James Uthmeier a annoncé l'ouverture d'une enquête contre OpenAI. En cause : la fusillade de l'Université d'État de Floride, survenue un an plus tôt, qui a fait deux morts et sept blessés. Les victimes affirment que des conversations avec ChatGPT ont contribué au passage à l'acte du tireur. Deux jours plus tard, le média américain Wired révélait qu'OpenAI soutenait activement un projet de loi dans l'Illinois. Son objectif : exempter les entreprises d'IA de toute responsabilité civile en cas de « dommages critiques ».
Ce que le projet de loi SB 3444 protège
Le texte, baptisé SB 3444, couvre les scénarios les plus extrêmes. Morts en masse, blessures touchant plus de 100 personnes, dégâts dépassant un milliard de dollars : l'entreprise serait protégée dans tous ces cas. Le périmètre inclut aussi l'utilisation d'outils IA pour fabriquer des armes chimiques ou nucléaires.
OpenAI défend cette approche. Sa porte-parole Jamie Radice a déclaré à Wired que ce cadre réduit les risques liés aux systèmes les plus avancés. Il éviterait aussi une mosaïque de lois étatiques contradictoires. Caitlin Niedermeyer, du pôle affaires globales d'OpenAI, a soutenu le texte devant les législateurs de l'Illinois.
Pourtant, difficile de ne pas regarder le calendrier dans lequel le géant de l'IA pousse cette démarche. OpenAI fait face à onze plaintes pour « psychose liée à l'IA ». L'affaire Adam Raine, un adolescent de 16 ans qui s'est suicidé après neuf mois de conversations avec ChatGPT, reste pendante. D'autres plaintes citent des meurtres et des épisodes psychotiques.
L'Europe emprunte la direction opposée
Les obligations de l'AI Act pour les systèmes à haut risque entrent en vigueur en août 2026. Elles imposent transparence, supervision humaine et gestion des risques aux fournisseurs d'IA. Un chatbot grand public comme ChatGPT tombe dans le périmètre des systèmes soumis à des obligations de transparence. La directive révisée sur la responsabilité des produits, adoptée en 2024, étend la responsabilité stricte aux logiciels, IA comprise. Si un système IA cause un préjudice en Europe, le fabricant peut être tenu responsable même sans faute prouvée.
La directive dédiée à la responsabilité civile de l'IA a été retirée par la Commission en février 2025, faute de consensus. Mais le filet de protection européen reste plus serré que ce que l'Illinois envisage. En Europe, la charge de la preuve est allégée pour les victimes. Aux États-Unis, SB 3444 supprimerait la possibilité même de poursuivre.
Les sondages américains ne vont pourtant pas dans le sens d'OpenAI. Scott Wisor, directeur de Secure AI, a rappelé qu'une majorité d'Américains s'oppose à toute loi qui réduirait la responsabilité des entreprises d'IA. La question reste de savoir si l'Illinois deviendra le premier État à graver cette exemption dans la loi. Si c'est le cas, les experts préviennent qu'elle pourrait servir de modèle au niveau fédéral.
En attendant, aucune législation nationale sur l'IA ne pointe à l'horizon à Washington. L'administration Trump continue de s'aligner sur les positions de l'industrie, laissant chaque État légiférer seul.
La posture d'OpenAI reste difficile à concilier avec son discours public. L'entreprise répète depuis des années qu'elle « accueille favorablement » la régulation de l'IA. Elle a pourtant retiré le mot « en toute sécurité » de ses statuts début 2026. Pousser une loi d'exemption tout en réclamant davantage de régulation relève d'un numéro d'équilibriste. Les familles de victimes auront du mal à applaudir.