Le Conseil européen adopte l'IA Act : découvrez ces mesures qui vous protègent des dérives de l'intelligence artificielle

Mélina LOUPIA
Publié le 22 mai 2024 à 08h53
L'IA Act va enfin être encadré à l'échelle européenne pour protéger les utilisateurs des dérives de cette technologie © bump23 / Shutterstock
L'IA Act va enfin être encadré à l'échelle européenne pour protéger les utilisateurs des dérives de cette technologie © bump23 / Shutterstock

L'Union européenne vient d'adopter définitivement l'IA Act, première législation mondiale visant à encadrer le développement de l'intelligence artificielle. Un cadre juridique inédit, audacieux, mais aussi très attendu, pour à la fois stimuler l'innovation IA et protéger les droits fondamentaux des utilisateurs.

C'est une première mondiale que vient d'accomplir l'Union européenne. À l'issue de plus de deux ans de négociations intenses, les institutions européennes ont définitivement adopté l'IA Act après l'avoir annoncé en décembre 2023. Cette législation pionnière vise ainsi à réguler le développement et l'utilisation de l'intelligence artificielle.

Hasard du calendrier, Emmanuel Macron a ouvert ce 21 mai 2024 deux jours dédiés à l'intelligence artificielle, en souhaitant que la France en soit une place forte. Le Conseil européen semble avoir trouvé l'équilibre délicat entre encourager l'innovation technologique et garantir le respect des valeurs et des droits fondamentaux. De leur côté, les États-Unis visent le même objectif avec leur US AI Safety Institute Consortium (AISIC).

En classant les systèmes d'IA par niveau de risque, avec des règles proportionnées, l'Europe entend à la fois stimuler l'essor d'une IA « digne de confiance » sur son marché unique et protéger ses citoyens contre les potentiels abus et dérives.

Les meilleures IA pour générer vos contenus
A découvrir
Les meilleures IA pour générer vos contenus

27 mars 2024 à 20h50

Comparatifs services

Les niveaux de risque, un cadre juridique précurseur né d'un processus législatif marathonien

Proposé dès avril 2021 par la Commission européenne, l'IA Act était très attendu pour combler un vide juridique face à la multiplication des systèmes d'IA, prometteurs, mais aussi suscitant de vives inquiétudes. Après 18 mois de navette législative entre les institutions européennes, un accord politique a finalement été trouvé en décembre 2022 sur ce texte fondateur d'un écosystème de confiance pour l'IA en Europe.

Suivant une approche inédite qui repose sur les risques, l'IA Act établit un cadre graduant les obligations en fonction du niveau de menace pour la sécurité et les droits fondamentaux. Les systèmes à risque inacceptable, comme la surveillance biométrique de masse ou la notation sociale, sont ainsi simplement interdits. Des règles strictes d'homologation et de contrôle humain encadrent ensuite les usages dits à haut risque dans des domaines aussi sensibles que les ressources humaines, l'éducation, les infrastructures critiques, l'application de la loi, etc. Des obligations de transparence et de surveillance des dérives s'appliquent aux IA à risques moindres. Enfin, une catégorie de risques minimaux reste quasi exempte de contraintes.

Pour garantir l'effectivité du dispositif, l'IA Act met aussi en place une nouvelle gouvernance européenne de l'IA : un bureau de contrôle au sein de la Commission, un conseil d'experts scientifiques indépendants, un comité opérationnel des États membres ainsi que des mécanismes d'implication des parties prenantes et de la société civile.

Les développeurs et utilisateurs de ces IA à haut risque auront de lourdes contraintes à respecter © PeopleImages.com - Yuri A / Shutterstock

De lourdes obligations pour les IA dites à haut risque pour protéger les utilisateurs, mais aussi des garde-fous pour garantir l'innovation

Au cœur de l'IA Act, c'est la catégorie des systèmes d'IA à haut risque qui concentre l'essentiel des nouvelles obligations. Utilisation de l'IA dans le recrutement, l'éducation, les services publics essentiels, la police et la justice, la contraction de crédits, les infrastructures critiques : toute une série de cas d'usage très répandus devra désormais respecter des exigences drastiques. Transparence et traçabilité du développement, contrôle humain effectif, monitoring régulier des biais et des dérives, tests rigoureux, certification par un tiers… Les développeurs et utilisateurs de ces IA à haut risque auront de lourdes contraintes à respecter pour pouvoir accéder au marché européen.

Il s'agit de mesures fortes pour protéger les utilisateurs d'éventuels dérapages que ces outils permettent hélas déjà, comme les applications de type « Nudify » qui déshabillent les femmes par le biais de l'IA, ou encore les deepfakes diffusant de fausses informations.

Dans le même temps, l'IA Act introduit aussi des garde-fous pour permettre l'essor d'une innovation IA responsable et digne de confiance. Les « bacs à sable réglementaires » offriront ainsi un cadre sécurisé pour tester et développer des solutions d'IA avant qu'elles soient pleinement déployées. Un suivi régulier est également prévu pour ajuster les listes des systèmes interdits ou à haut risque, en fonction des évolutions techniques.

Enfin, un régime spécifique et allégé est prévu pour les très populaires IA généralistes de type chatbot ou moteur d'IA. S'ils ne présentent pas de risque majeur, ces modèles auront quelques obligations de transparence. Mais en cas de risques avérés pour la société, des règles plus strictes pourront leur être imposées. La nouvelle ère de l'IA est-elle enfin arrivée ?

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
Mistral.AI
  • Peut tourner en local selon votre configuration
  • Open-source
  • API peu coûteuse
Google Gemini (Bard)
  • Un modèle de génération puissant
  • Une base de connaissances actualisée en temps réel
  • Gratuit et intégré à l'écosystème Google
Par Mélina LOUPIA

Modératrice, contributrice et community manager pour le regretté OVNI Le Post, puis journaliste société spécialisée dans la parentalité et la psychologie notamment sur Le HuffPost, l'univers du Web, des réseaux, des machines connectées et de tout ce qui s'écrit sur Internet s'inscrit dans le champ de mes sujets préférés.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (1)
PEPSIMAX

J’ai lu le rapport d’un journaliste sur la première conférence sur l’IA militaire à Washington. le sponsor principal étant Palantir la boite de Peter Thiel. Mais Google est là aussi. Déjà il faut savoir que la CIA elle-même à son fond d’investissement qui investit dans l’IA. C’est dire qu’on est en premier dans une affaire de gros sous. Impressionné par la froideur et le cynisme de l’armée US qui possède une vision du Monde et des conflits sans doute discutable… l’IA de guerre est performante et va rapporter beaucoup. Et les hommes dans tout cela ? Cela ne sembla pas trop concerner tout ce beau Monde. D’ailleurs Palantir mais aussi l’armée américaine a trouvé dans la guerre Ukrainienne l’occasion de proposer gratuitement ses services IA dès le second jour de l’invasion, l’Ukraine est devenu un terrain d’expérimentation idéal pour l’IA américaine et d’ailleurs après la guerre le gouvernement ukrainien espère que l’Ukraine deviendra un des leaders mondiaux de l’IA et ainsi trouver une source de revenu. On voit donc un autre aspect de l’IA et des possibilité illimitées? de l’utilisation de big datas…Mais bien sûr aussi au niveau de l’image, de l’industrie musicale, etc…En fait c’est encore très flou l’IA dans ses conséquences sur l’humanité mais c’est surtout une technologie dominante des USA et un énorme appétit au vu des sommes potentielles en jeu.
C’est donc normal que l’UE par principe de précaution tente de mettre des pare feu bien qu’on ne sache pas tellement ce qu’il faut protéger. D’ailleurs ces lois ne concernent pas l’Ukraine qui se trouve hors de l’UE. Et pourtant l’IA est présentée encore il y a peu par Macron comme solution d’avenir, mais il n y a pas que lui tous les pays de l’UE veulent « en être » et devenir leaders de cette nouvelle technologie qu’est l’IA…