Gemini a fait n'importe quoi ces derniers jours, et en voici les causes selon Google

Maxence Glineur
Publié le 26 février 2024 à 18h02
Gemini : un nouveau type d'outil avec un nouveau type de problèmes © Rokas Tenys / Shutterstock
Gemini : un nouveau type d'outil avec un nouveau type de problèmes © Rokas Tenys / Shutterstock

Le chatbot de Google arrive après ses principaux concurrents. Une opportunité de ne pas commettre les mêmes erreurs qu'eux, mais qui ne garantit pas que les choses ne peuvent pas mal tourner.

Si l'intelligence artificielle générative ne produit pas que de grandes œuvres d'art, elle a au moins le mérite d'être au centre de quelques histoires rocambolesques. C'est le cas de Gemini, le nouveau surnom de Google Bard, dont les capacités de génération d'images ont été vivement critiquées.

En effet, l'outil a la fâcheuse manie de réécrire l'histoire quand on ne le lui demande pas. Un problème qui n'est pas anodin et dû à… ses garde-fous.

Les bonnes intentions de Google

Les récents déboires de Taylor Swift avec des deepfakes nous ont rappelé qu'il est nécessaire de contrôler plus étroitement ce qui peut être fait avec un outil génératif. Une image convaincante peut causer beaucoup de torts, à petite échelle comme au sommet de nos États, et la modération d'outils comme DALL·E ou Midjourney devient une préoccupation cruciale pour les entreprises qui les développent.

Google en est bien conscient, et a rendu Gemini public avec les garde-fous nécessaires pour éviter les déboires que d'autres ont connus (ou permis). Il est ainsi impossible de créer des images à caractère violent ou sexuel avec le programme, ou même de représenter une personne réelle, par exemple. Un réglage est aussi précis qu'essentiel pour les développeurs, car nombreux sont les petits malins qui tentent de trouver la faille qui leur permettra de faire faire n'importe quoi à une IA.

Mais, à Mountain View, on veut bien faire les choses. Outre la mise en place de garde-fous, l'entreprise a souhaité montrer la diversité de nos sociétés au sein des images générées par Gemini. Ainsi, dans des contextes crédibles, et lorsque cela n'est pas spécifié par l'utilisateur, les personnages dessinés par le programme peuvent avoir n'importe quelle couleur de peau ou être de n'importe quel sexe.

De bonnes idées, mais qui se sont retournées contre Google.

Les 6 meilleurs générateurs d'images par intelligence artificielle (2024)
A découvrir
Les 6 meilleurs générateurs d'images par intelligence artificielle (2024)

25 juillet 2024 à 13h00

Comparatifs services

Quand la modération fait du zèle

Dans un billet de blog publié ce week-end, Prabhakar Raghavan, vice-président de Google, explique pourquoi Gemini semble avoir manqué les cours d'histoire. « Tout d'abord, notre réglage pour s'assurer que Gemini montre un éventail de personnes n'a pas pris en compte les cas qui ne devraient manifestement pas montrer d'éventail », a-t-il expliqué. « Deuxièmement, au fil du temps, le modèle est devenu beaucoup plus prudent que nous ne l'avions prévu et a refusé de répondre à certaines requêtes, interprétant à tort des questions très inoffensives comme étant sensibles. »

Pas question de réécrire l'histoire à la sauce californienne, donc. Ici, l'IA a eu tendance « à surcompenser dans certains cas et à être trop prudente dans d'autres, ce qui a donné lieu à des images maladroites et erronées », conclu Raghavan. Les programmes comme Gemini sont incroyablement complexes, et le géant américain s'est fait avoir par sa prudence pourtant essentielle.

En attendant de régler ce problème, Google a désactivé la possibilité de générer des images avec des êtres humains sur Gemini. Une décision aussi critiquée qu'applaudie, mais qui donnera à l'entreprise un peu plus de temps pour affiner ses garde-fous.

  • Un modèle de génération puissant
  • Une base de connaissances actualisée en temps réel
  • Gratuit et intégré à l'écosystème Google
8 / 10

Source : Neowin

Par Maxence Glineur

Geek hyper connecté et féru de podcasts, je suis toujours en train de lire ou écouter des points infos en tout genre. Entre histoire, tech, politique, musique, jeux-video et vulgarisation scientifique : toute l'actualité (ou presque) attise ma curiosité. Sinon, j'aime le rock et le lofi, les game-nights toujours trop longues, les bons films et les nanards.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
somoved

L’IA c’est l’avenir !
L’avenir c’est du n’importe quoi !

MHC

L’important est-il de montrer partout une diversité, pratique qui n’est d’ailleurs nullement la règle dans les pays d’où cette diversité est originaire, ou qu’on puisse tout simplement montrer les réalités historiques, statistiques, factuelles… et vivre sans haine de la différence tout en tendant tout de même vers un socle commun et in fine une intégration qui nous unit ?

L’extrémisme des uns nourrit celui des autres. Il serait bon de revenir à la raison et arrêter de créer des polémiques et des incendies partout en attisant inutilement la colère de part et d’autre.

Neferith

Après on va nous dire que le phénomène woke n’existe pas aux USA. A noter que la réaction est assez tardive et légère (C’est sur quand il y a eu une certaine génération d’images de la seconde guerre mondiale que ça a commencé à choqué), mais bon on ne pouvait pas ne pas en parler le truc est tellement gros.
A noter que le moteur de recherche de google a déjà un peu ce genre de biais, mais c’est moins visible.

tfpsly

somoved

C’est une construction très récente ce mot, avant c’était « droit de l’hommiste » après « Bobo gauchiasse » et « Isalamo-gaucho »…
Ce sont de beaux hommes de paille ce genre de catégories.

Vous êtes très informé, avez vous les sources qui vous mène à ce constat ?

LeToi

C’est vraiment catastrophique niveau histoire, que d’approximations quand on demande des résumés de faits historiques, plein d’erreurs de dates etc.

prisme

Le problème vient d’une modification du prompt interne de Gemini. C’est Gemini lui-même qui remonte l’information quand on lui demande pourquoi il ne suit pas notre demande.
Au mots clés utilisés, il va rajouter de lui même les mots suivants : « diversité », « inclusivité », spécifié des ethnicités ou des genres.
A la phrase, si on demande un « portrait », il remplace par « portrait d’une variété de ».

Source : https://youtu.be/CIRQcrabq0k?t=654

tfpsly

C’est supposer qu’un LLM connaît son prompt.
Par contre, citer Psyhodelik comme source, heu…

Ipoire

« peuvent avoir n’importe quelle couleur de peau » c’est faux votre article vu que Gemini refuse catégoriquement de montrer des personnes blanches, que ca soit sur des faits historiques ou même lors d’une demande directe.
Et plus Gemini veut réécrire l’histoire en refusant de générer ou de parler du massacre de Tienanmen.

Donc en plus d’être woke, Gemini est pro chinois !

adnstep

Sur un grand nombre de sujets, certains documents, y compris universitaires, qui apparaissaient dans les premiers résultats de Google sont aujourd’hui difficilement accessibles… En d’autres temps et d’autres lieux, on appelait ça la censure.