Loi sur l'intelligence artificielle : risques, règles et amendes, voici ce que l'Europe prévoit, point par point

Alexandre Boero
Chargé de l'actualité de Clubic
11 décembre 2023 à 10h26
4
X © Vitor Miranda / Shutterstock.com
X © Vitor Miranda / Shutterstock.com

Avec un accord historique, l'Union européenne pose enfin un cadre réglementaire digne de ce nom pour l'intelligence artificielle et les grands modèles, comme celui qui impulse ChatGPT par exemple. Clubic vous offre un résumé des principales règles.

C'est en grande pompe que l'Union européenne a salué et annoncé, samedi 9 décembre, l'accord politique sur la loi sur l'intelligence artificielle, baptisé « AI Act », devant à terme définir les règles pour une IA de confiance. La réglementation, dont nous allons faire le tour point par point, propose notamment une classification des systèmes en risque « minimal », « élevé » ou « inacceptable », et détaille le montant des sanctions qui pourront être particulièrement lourdes dans certaines circonstances. Mais attention, car si la Commission européenne a posé les bases avec l'approbation du Parlement et du Conseil, doit encore intervenir l'adoption définitive du texte.

Avoir une intelligence artificielle digne de confiance, telle est la volonté de l'Union européenne

Avec cet AI Act, l'Union européenne n'a qu'une obsession : encourager le développement, le déploiement et l'adoption d'une intelligence artificielle fiable dans tous les pays membres. « Notre loi sur l’IA apportera une contribution substantielle au développement de règles et de principes mondiaux pour une IA centrée sur l’humain », expliquait d'ailleurs samedi la présidente de la Commission européenne, Ursula von der Leyen.

Les futures règles, qui seront appliquées de manière uniforme dans tous les États membres, adoptent une approche basée sur les risques. Le premier échelon sera à ce titre celui du « risque minimal », qui regroupera la grande majorité des systèmes d'IA. Parmi les applications, on retrouve les filtres anti-spam et les systèmes de recommandation basés sur l'IA que l'on peut retrouver sur de nombreux sites. Ces IA-là bénéficieront de laissez-passer volontaires, car elles présentent un « risque minime, voire nul » pour les droits et la sécurité des citoyens de l'UE.

Le grade suivant placera les systèmes d'IA plus sensibles dans la catégorie des intelligences de « risque élevé ». Les infrastructures critiques seront considérées comme à haut risque et devront se conformer à de plus strictes exigences, comme une journalisation des activités, une surveillance humaine élevée et une cybersécurité de pointe. Les domaines et secteurs de l'eau, du gaz, de l'électricité, du contrôle des frontières, de l'administration de la justice, du processus démocratiques, et des systèmes biométriques d'identification et de reconnaissance des émotions, n'échapperont pas à ces règles fortes.

Drapeau de l'Union européenne © Pixabay
Drapeau de l'Union européenne © Pixabay

Les IA qui présentent un «  risque inacceptable » pour les citoyens européens seront bannies

Il existe un troisième échelon, celui du « risque inacceptable ». Ici, on touche aux systèmes d'IA qui menacent les droits fondamentaux, qui seront purement et simplement interdits. L'UE vise ici les IA qui manipulent le comportement humain (pour par exemple agir sur le libre arbitre des utilisateurs) comme les jouets qui font appel à l'assistance vocale et encouragent les comportements dangereux, mais aussi les systèmes qui permettent une notation sociale, que ce soit par des autorités, gouvernements ou entreprises. Certains usages des systèmes biométriques seront aussi interdits, ce sera le cas de la reconnaissance des émotions utilisées sur le lieu de travail.

Un peu plus à part, Bruxelles a validé un « risque spécifique de transparence ». Les utilisateurs devront être pleinement mis au courant, lorsqu'ils échangent sur un chatbot, qu'ils interagissent bien avec une machine. L'UE inclut aussi les contenus générés par l'IA dans cette catégorie, comme les deepfakes, qui devront être identifiés comme tels. Les contenus audio, vidéo, texte et images générés par l'intelligence artificielle devront plus globalement être marqués dans un format lisible et indiquer qu'ils ont été créés ou manipulés artificiellement.

Des amendes qui pourront être lourdes pour les applications d'IA qui se risquent à ne pas respecter la loi européenne

Les mesures plus strictes appliquées aux modèles de langage et aux IA plus sensibles feront l'objet de codes de bonnes pratiques qui seront rédigés de manière collégiale par l'industrie, la société civile et la communauté scientifique, sous la supervision de la Commission européenne puis des autorités nationales des pays membres. Un nouvel office européen de l'IA (l'AI Office) assurera d'ailleurs la bonne coordination de la réglementation.

Concernant le volet des sanctions, des amendes pouvant aller jusqu'à 35 millions d'euros pour de plus petites entreprises, ou 7 % du chiffre d'affaires annuel mondial de l'entreprise pour les plus grosses, seront prononcées à l'encontre des acteurs qui déploient des IA interdites et violent l'AI Act.

Une fois la loi européenne définitivement adoptée, Bruxelles explique que « les interdictions s'appliqueront déjà au bout de 6 mois, tandis que les règles sur l'IA à usage général s'appliqueront au bout de 12 mois ». En attendant, la période transitoire sera comblée par un « pacte pour l'IA », qui réunira des développeurs européens et mondiaux, pour mettre en oeuvre les obligations principales du texte avant les délais légaux.

Alexandre Boero

Chargé de l'actualité de Clubic

Chargé de l'actualité de Clubic

Journaliste, chargé de l'actualité de CLUBIC. Reporter, vidéaste, animateur et même imitateur-chanteur, j'ai écrit mon premier article en 6ème. J'ai fait de cette vocation mon métier (diplômé de l'EJC...

Lire d'autres articles

Journaliste, chargé de l'actualité de CLUBIC. Reporter, vidéaste, animateur et même imitateur-chanteur, j'ai écrit mon premier article en 6ème. J'ai fait de cette vocation mon métier (diplômé de l'EJCAM), pour écrire, interroger, filmer, monter et produire au quotidien. Des atomes crochus avec la Tech, certes, mais aussi avec l'univers des médias, du sport et du voyage. Outre le journalisme, la prod' vidéo et l'animation, je possède une chaîne YouTube (à mon nom) qui devrait piquer votre curiosité si vous aimez les belles balades à travers le monde, les nouvelles technologies et Koh-Lanta :)

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (4)

Goodbye
C’est plutôt du bon sens, rien de choquant dans cette IA Act.<br /> Une bonne chose finalement, en accord avec nos valeurs.
cid1
Un peu plus à part, Bruxelles a validé un « risque spécifique de transparence ». Les utilisateurs devront être pleinement mis au courant, lorsqu’ils échangent sur un chatbot, qu’ils interagissent bien avec une machine.<br /> OMG, moi qui croyais que ChatGPT était un humain
Proutie66
Je trouve que ce n’est pas du tout stupide sur le fond de dire qu’on parle avec un bot. De manière forcée.<br /> Il n’y a pas que chatgpt… aussi sur les assistants online.
ar-s
Tu rigoles mais il y a déjà des démonstrations d’interactions téléphoniques de démarchage avec un IA vocale aux commandes et franchement, ça présage un futur qui a clairement besoin d’être encadré. Ensuite tu blagues avec chatGPT mais si tu sais que c’est un bot c’est parce qu’il est justement bridé pour ne pas se faire passer pour un humain. Les models de langage progressent à une vitesse complètement folle.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet