Se montrant inflexible jusqu'à maintenant, la Commission européenne pourrait finalement lâcher du lest concernant l'AI Act. La pression venue de l'autre côté de l'Atlantique serait-elle trop forte ?

Pour rappel, cette législation, au calendrier assez complexe, vise à encadrer la distribution et l'usage de l'intelligence artificielle (IA) au sein de l'Union européenne (UE). Entrée en vigueur en août 2024, elle fait l'objet d'une mise en application progressive et surtout, fait du Vieux Continent un pionnier dans la régulation de l'IA. Mais encore faut-il qu'il puisse être déployé correctement…
Un texte pionnier, mais très critiqué
Car de très nombreux acteurs de l'écosystème technologique se sont opposés au texte. Non seulement les géants technologiques américains, mais aussi des dizaines d'entreprises européennes. Celles-ci estiment, en effet, que les diverses mesures de l'AI Act vont avant tout pénaliser l'innovation locale, permettant aux mastodontes américains d'asseoir leur leadership.
Pour couronner le tout, la Maison-Blanche a elle aussi haussé le ton, affirmant que les efforts européens pour mieux encadrer les plateformes numériques relevaient de pratiques anti-concurrentielles. Donald Trump a même évoqué de possibles représailles. Et visiblement, toutes ces critiques commencent à porter leurs fruits.
Un représentant de la Commission européenne a ainsi indiqué au Financial Times que les responsables discutaient actuellement de « retards de mise en œuvre ciblés ».

Changement de cap ?
Dans cette optique, la Commission et des représentants américains auraient engagé des discussions afin de mettre en place un « processus de simplification » plus large, attendu le 19 novembre prochain. Si l'UE a malgré tout réaffirmé son soutien aux objectifs fondamentaux de la loi, elle semble fléchir avec la possible suspension de certaines mesures.
Car il s'agit d'un changement de cap clair : en juillet dernier, Bruxelles refusait catégoriquement tout report dans la mise en œuvre de l'AI Act malgré, déjà, de nombreuses plaintes.
Pour rappel, la loi impose des obligations distinctes selon le niveau de danger que représente chaque système d'IA, avec pour objectif principal d'assurer la sécurité, la transparence et le respect des droits fondamentaux. Elle établit quatre niveaux de risque : inacceptable, élevé, limité et minimal.
Source : The Financial Times
