Lors d'une interview avec un média local, le Premier ministre suédois, Ulf Kristersson, a admis avoir recours à l'intelligence artificielle (IA) pour l'aider dans certaines de ses décisions politiques. Une déclaration qu'il a sans doute regrettée…

- Ulf Kristersson, Premier ministre suédois, utilise des IA comme ChatGPT pour obtenir des avis secondaires sur ses décisions.
- Les experts, dont Virginia Dignum, critiquent cette pratique, soulignant que l'IA reflète les biais des développeurs.
- L'IA, notamment ChatGPT, peut renforcer les biais de l'utilisateur, posant des questions sur la fiabilité des décisions.
« Je l'utilise moi-même assez souvent. Ne serait-ce que pour avoir un deuxième avis. Qu'ont fait les autres ? Et devrions-nous penser le contraire ? Ce genre de questions », a-t-il expliqué, allant même jusqu'à révéler les modèles qu'il utilisait le plus souvent : ChatGPT et Le Chat, le chatbot made in France de Mistral AI. Ses propos en ont fait bondir plus d'un, notamment des experts.
L'IA est loin d'être infaillible
Virginia Dignum, professeur spécialisée dans l'IA responsable à l'université d'Umeå, a ainsi rappelé que la technologie n'était pas capable de donner un avis valable sur les idées politiques, mais reflétait surtout les opinions de ceux qui l'ont mise au point.
« Plus il s'appuie sur l'IA pour des choses simples, plus le risque d'un excès de confiance dans le système est grand. C'est une pente glissante. Nous devons exiger que la fiabilité soit garantie. Nous n'avons pas voté pour ChatGPT », a-t-elle asséné.
Autre problème souligné : la propension des modèles, et particulièrement ChatGPT, à aller dans le sens de leur interlocuteur. Plutôt que de les contredire, l'IA peut renforcer leurs biais ou leurs idées, même si celles-ci ne vont pas forcément dans la bonne direction. Et si OpenAI tente de solutionner cette problématique, elle n'est pas encore résolue à 100 %.
À cela vient s'ajouter la tendance des IA génératives à « halluciner », c'est-à-dire à faire passer comme avérées des informations fausses. Il arrive que certains de ces mensonges passent entre les mailles du filet, et trompent l'utilisateur.
Livrer des données sensibles aux géants de la tech
Mais ce n'est pas tout. La confidentialité de données sensibles entre bien évidemment en jeu. Dans un éditorial, le journal suédois Aftonbladet accuse le Premier ministre d'être « tombé dans la psychose de l'IA des oligarques ». Car les conversations que l'on entretient avec des chatbots peuvent être exploitées pour l'entraînement des futures IA de l'entreprise, laissant filtrer des informations potentiellement secrètes.
Face à ce tollé, le porte-parole de Kristersson a assuré qu'« aucune information sensible » n'avait été mentionnée. La maladresse du dirigeant permet tout de même de soulever le débat de l'utilisation de l'IA en politique. Une question vraisemblablement amenée à revenir sur le devant de la scène.
Sources : Gizmodo, The Guardian