Microsoft Copilot bloque certains termes dans ses prompts qui peuvent générer des contenus choquants

10 mars 2024 à 18h30
8
Microsoft a déterminé 3 catégories à bannir de ses prompts © Microsoft
Microsoft a déterminé 3 catégories à bannir de ses prompts © Microsoft

La dernière mise à jour de l'IA de Microsoft a entraîné le bannissement de certaines catégories de prompts, notamment ceux pouvant générer des contenus violents, choquants ou à caractère sexuel.

Depuis que les outils d'intelligence artificielle sont entrés dans nos usages, il n'est pas rare que l'on constate que certains d'entre eux déraillent, pour ne pas dire inquiètent ses utilisateurs.

C'est ainsi qu'après le craquage de ChatGPT, ou l'énorme controverse liée aux erreurs historiques de Gemini, c'est au tour de, Copilot l'assistant de Microsoft, de faire parler de lui.

En cause, les remontées alarmantes d'un ingénieur testeur d'IA qui a averti Microsoft puis la Federal Trade Commission de contenus sexuels et violents générés par Copilot. Silencieuse dans un premier temps, la firme de Redmond a fini par réagir en mettant à jour Copilot pour empêcher certaines catégories de prompts sujets à controverses.

3 catégories de prompts interdits

Suite aux alertes lancées par Shane Jones, ingénieur responsable de l'IA chez Microsoft, la firme de Redmond a rectifié le tir et interdit certains prompts, de manière à empêcher Copilot de générer des contenus sexualisés, violents ou controversés.

Ainsi, si un utilisateur inclut des termes tels que « pro-life » (pro-vie, mouvement anti-avortement), ou « 420 » (quatre-vingt, faisant référence à une date bien connue des consommateurs de stupéfiants), ainsi que tous les prompts relatifs à des enfants manipulant des armes se verra notifier un message d'avertissement.

« Cette invite a été bloquée » s'affiche, accompagné d'une explication plus ou moins vague, de la raison de la suppression. Ainsi, tantôt précise, « Je suis désolé, mais je ne peux pas générer une telle image. Cela va à l’encontre de mes principes éthiques et des politiques de Microsoft. Ne me demandez pas de faire quoi que ce soit qui puisse nuire ou offenser autrui. Merci de votre collaboration », tantôt plus politiquement correcte, comme ci-dessous.

La réponse de Copilot suite à un prompt désormais banni  © Clubic
La réponse de Copilot suite à un prompt désormais banni © Clubic

D'autres prompts problématiques, mais Microsoft surveille

Mais l'ingénieur ne s'arrête pas là. Face au silence de Microsoft, il a contacté la célèbre chaîne de télévision américaine CNBC, qui a à son tour mené l'enquête et découvert que certains prompts a priori anodins, pouvaient généré des contenus problématiques en transformant l'IA en véritable personnalité despotique par exemple ou encore en violant les droits d'auteur.

C'est ainsi que « accident de voiture » a généré des victimes ensanglantées à bord de leurs véhicules, ou que « pro-choix » a représenté des monstres dépeçant des nourrissons ou encore Elsa, l'héroïne de la production des studios Disney « La reine des neiges », brandissant le drapeau palestinien devant des bâtiments détruits.

Contactée par la chaîne, l'entreprise Microsoft se veut rassurante : « Nous surveillons, effectuons des ajustements et mettons en place des contrôles supplémentaires en permanence pour renforcer davantage nos filtres de sécurité et atténuer les utilisations abusives du système ».

Quant à Shane Jones, il explique avoir démarré ses tests de Copilot en décembre 2023, mais que Microsoft était restée sourde à ses alertes, bien que les ayant entendues. Il avait alors partagé ses inquiétudes dans une lettre ouverte sur son compte LinkedIn que son employeur lui avait sommé de retirer. Ce n'est qu'après avoir contacté le FTC que Microsoft a réagi et entamé la purge de Copilot en interdisant certains termes et prévenant ses utilisateurs.

« D’autres violations des règles peuvent entraîner la suspension automatique de votre accès », peut-on lire après une demande de prompt interdit. Microsoft entend bien éviter de nouveaux couacs, à l'approche de l'élection présidentielle américaine, qui génère déjà du contenu controversé.

Les meilleures IA pour générer vos contenus
A découvrir
Les meilleures IA pour générer vos contenus
31 janv. 2023 à 18:03
Comparatifs services

Source : CNBC

Mélina LOUPIA

Ex-journaliste société, l'univers du web, des réseaux, des machines connectées et de tout ce qui s'écrit sur Internet m'ouvre l'appétit. De la dernière trend TikTok au reels le plus liké, je suis issu...

Lire d'autres articles

Ex-journaliste société, l'univers du web, des réseaux, des machines connectées et de tout ce qui s'écrit sur Internet m'ouvre l'appétit. De la dernière trend TikTok au reels le plus liké, je suis issue de la génération Facebook que la guerre intestine entre Mac et PC passionne encore. En daronne avisée, Internet, ses outils, pratiques et régulation font partie de mes loisirs favoris (ça, le lineart, le tricot et les blagues pourries). Ma devise: l'essayer, c'est l'adopter, mais en toute sécurité.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (8)

Neferith
L’étape suivante sera-t-elle de contrôler ce que tu tapes dans word et compagnie ? Je caricature bien sur, mais on peut se questionner de où tout ça peut mener, jusqu’à quel point ils vont interfacer les logiciels avec l’IA. Perso, pour le moment, je prefere juste utiliser chat GPT comme un truc à part, mais les IA vont je pense devenir inévitable dans certains domaines à commencer par le développement.
adarion29
Les IA seront des machines à propagandes c’est inévitables, les restrictions seront forcément biaisée de par les opinions politiques des développeurs, et leur sensibilité à tel ou tel sujet, la foirade gémini nous a donné une bonne idée de la pensée dominantes chez les ingé IA de Google (et qui s’est retournée contre eux)
Rainforce
Neferith:<br /> L’étape suivante sera-t-elle de contrôler ce que tu tapes dans word et compagnie ?<br /> Tu ne pourra tout simplement pas enregistrer / imprimer un document qui ne validera pas certains idéaux prédéfinies.
jbobby
La définition de la liberté? pouvoir faire tout ce qui est autorisé par les entreprises qui entrainent les IA de nos OS.
Sodium
Écrire de la merde toi-même et administrer un service pouvant servir d’arme de propagande, ça n’est pas tout à fait la même chose <br /> De la même manière, tu peux écrire un livre bourré d’idées vomitives si ça te tente mais les éditeurs ne sont pas tenus de le publier.
Rainforce
Bonjour @Sodium,<br /> Je ne sais pas si je parlais d’idées vomitives ou non-vomitimes, mais je parlais surtout de contrôle.
arbor111
C’est aux gouvernements et à l’Europe de légiférer. On ne peut pas laisser des entreprises commerciales américaines décider de ce qui est acceptable ou non. Facebook ne fait pas la différence entre nudité et pornographie. La nudité n’a rien de choquant, la bannir, c’est revenir aux années 60, lorsque l’église décidait de qui était acceptable ou pas. Aux USA le fric justifie tout, pas en France. Sur bing, demander une photo de deux adultes qui s’embrassent est considéré comme choquant. Produire une photo d’armes, ça passe tranquille…
jbobby
Je ne vois pas ce que les gouvernements pourraient décider là dessus. Tout au plus pourront-ils interdire les blocages explicites ou exiger d’ajouter d’autres blocages, mais comment pourraient-ils forcer un entrainement sans biais politico-culturel? Il suffit de lire n’importe quel journal ou parler à n’importe qui pour voir que les biais sont partout et donc ils seront aussi dans les IA! Et j’ai l’impression que nos gouvernements s’orientent vers l’ajout de lois pour limiter la liberté d’expression plutôt que l’inverse.
Neferith
Mon propos n’est de toute manière que de la pure SF. Pour le moment, l’interface avec l’IA n’est qu’au stade de compagnon bien pratique. On est pas encore au stade où il corrige pour toi, sans meme te demander ton avis… et je ne sais pas si cela arrivera un jour.<br /> Néanmoins, il est bon de s’interroger, car au final, celui qui défini ce qui est acceptable ou non, c’est toujours la morale et toutes les morales ne se valent pas. Quand on sait qu’un simple propos sur internet peut entrainer un torrent de haine dans un sens ou dans l’autre… Mais oui ce qui est important, c’est le controle, tant qu’on a le controle sur ce qu’on dit, je pense qu’il n’y aura pas de soucis.<br /> Je pense que les IA sont parfaites pour tout ce qui est technique, par contre dès qu’on entre dans des cadres moins objectifs, l’IA n’est pas pertinente. Soit elle generera du contenu au pif parfois choquant, soit elle aura tendance à etre biaisé par ceux qui la contrôlent.<br /> Et ajouter des lois me semblent une fausse bonne idée. C’est juste détourner le probleme.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet