Gemini a fait n'importe quoi ces derniers jours, et en voici les causes selon Google

26 février 2024 à 18h02
12
Gemini : un nouveau type d'outil avec un nouveau type de problèmes © Rokas Tenys / Shutterstock
Gemini : un nouveau type d'outil avec un nouveau type de problèmes © Rokas Tenys / Shutterstock

Le chatbot de Google arrive après ses principaux concurrents. Une opportunité de ne pas commettre les mêmes erreurs qu'eux, mais qui ne garantit pas que les choses ne peuvent pas mal tourner.

Si l'intelligence artificielle générative ne produit pas que de grandes œuvres d'art, elle a au moins le mérite d'être au centre de quelques histoires rocambolesques. C'est le cas de Gemini, le nouveau surnom de Google Bard, dont les capacités de génération d'images ont été vivement critiquées.

En effet, l'outil a la fâcheuse manie de réécrire l'histoire quand on ne le lui demande pas. Un problème qui n'est pas anodin et dû à… ses garde-fous.

Les bonnes intentions de Google

Les récents déboires de Taylor Swift avec des deepfakes nous ont rappelé qu'il est nécessaire de contrôler plus étroitement ce qui peut être fait avec un outil génératif. Une image convaincante peut causer beaucoup de torts, à petite échelle comme au sommet de nos États, et la modération d'outils comme DALL·E ou Midjourney devient une préoccupation cruciale pour les entreprises qui les développent.

Google en est bien conscient, et a rendu Gemini public avec les garde-fous nécessaires pour éviter les déboires que d'autres ont connus (ou permis). Il est ainsi impossible de créer des images à caractère violent ou sexuel avec le programme, ou même de représenter une personne réelle, par exemple. Un réglage est aussi précis qu'essentiel pour les développeurs, car nombreux sont les petits malins qui tentent de trouver la faille qui leur permettra de faire faire n'importe quoi à une IA.

Mais, à Mountain View, on veut bien faire les choses. Outre la mise en place de garde-fous, l'entreprise a souhaité montrer la diversité de nos sociétés au sein des images générées par Gemini. Ainsi, dans des contextes crédibles, et lorsque cela n'est pas spécifié par l'utilisateur, les personnages dessinés par le programme peuvent avoir n'importe quelle couleur de peau ou être de n'importe quel sexe.

De bonnes idées, mais qui se sont retournées contre Google.

Les 6 meilleurs générateurs d'images par intelligence artificielle (2024)
A découvrir
Les 6 meilleurs générateurs d'images par intelligence artificielle (2024)
30 août 2023 à 09:00
Comparatifs services

Quand la modération fait du zèle

Dans un billet de blog publié ce week-end, Prabhakar Raghavan, vice-président de Google, explique pourquoi Gemini semble avoir manqué les cours d'histoire. « Tout d'abord, notre réglage pour s'assurer que Gemini montre un éventail de personnes n'a pas pris en compte les cas qui ne devraient manifestement pas montrer d'éventail », a-t-il expliqué. « Deuxièmement, au fil du temps, le modèle est devenu beaucoup plus prudent que nous ne l'avions prévu et a refusé de répondre à certaines requêtes, interprétant à tort des questions très inoffensives comme étant sensibles. »

Pas question de réécrire l'histoire à la sauce californienne, donc. Ici, l'IA a eu tendance « à surcompenser dans certains cas et à être trop prudente dans d'autres, ce qui a donné lieu à des images maladroites et erronées », conclu Raghavan. Les programmes comme Gemini sont incroyablement complexes, et le géant américain s'est fait avoir par sa prudence pourtant essentielle.

En attendant de régler ce problème, Google a désactivé la possibilité de générer des images avec des êtres humains sur Gemini. Une décision aussi critiquée qu'applaudie, mais qui donnera à l'entreprise un peu plus de temps pour affiner ses garde-fous.

Google Gemini (Google Bard)
  • Un modèle de génération puissant
  • Une base de connaissances actualisée en temps réel
  • Gratuit et intégré à l'écosystème Google

Google Gemini est un chatbot IA intrinsèquement connecté au web dans lequel il puise la majorité de ses connaissances. Le service possède comme principal avantage d'être totalement gratuit et d'offrir de la reconnaissance d'image. L'intégration progressive à l'écosystème de Google devrait en faire un chatbot des plus capables pour tout une variété de tâches.

Google Gemini est un chatbot IA intrinsèquement connecté au web dans lequel il puise la majorité de ses connaissances. Le service possède comme principal avantage d'être totalement gratuit et d'offrir de la reconnaissance d'image. L'intégration progressive à l'écosystème de Google devrait en faire un chatbot des plus capables pour tout une variété de tâches.

Source : Neowin

Maxence Glineur

Geek hyper connecté et féru de podcasts, je suis toujours en train de lire ou écouter des points infos en tout genre. Entre histoire, tech, politique, musique, jeux-video et vulgarisation scientifique...

Lire d'autres articles

Geek hyper connecté et féru de podcasts, je suis toujours en train de lire ou écouter des points infos en tout genre. Entre histoire, tech, politique, musique, jeux-video et vulgarisation scientifique : toute l'actualité (ou presque) attise ma curiosité. Sinon, j'aime le rock et le lofi, les game-nights toujours trop longues, les bons films et les nanards.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (12)

somoved
L’IA c’est l’avenir !<br /> L’avenir c’est du n’importe quoi !
MHC
L’important est-il de montrer partout une diversité, pratique qui n’est d’ailleurs nullement la règle dans les pays d’où cette diversité est originaire, ou qu’on puisse tout simplement montrer les réalités historiques, statistiques, factuelles… et vivre sans haine de la différence tout en tendant tout de même vers un socle commun et in fine une intégration qui nous unit ?<br /> L’extrémisme des uns nourrit celui des autres. Il serait bon de revenir à la raison et arrêter de créer des polémiques et des incendies partout en attisant inutilement la colère de part et d’autre.
Neferith
Après on va nous dire que le phénomène woke n’existe pas aux USA. A noter que la réaction est assez tardive et légère (C’est sur quand il y a eu une certaine génération d’images de la seconde guerre mondiale que ça a commencé à choqué), mais bon on ne pouvait pas ne pas en parler le truc est tellement gros.<br /> A noter que le moteur de recherche de google a déjà un peu ce genre de biais, mais c’est moins visible.
tfpsly
Neferith:<br /> Après on va nous dire que le phénomène woke n’existe pas aux USA.<br />
somoved
Neferith:<br /> phénomène woke<br /> C’est une construction très récente ce mot, avant c’était «&nbsp;droit de l’hommiste&nbsp;» après «&nbsp;Bobo gauchiasse&nbsp;» et «&nbsp;Isalamo-gaucho&nbsp;»…<br /> Ce sont de beaux hommes de paille ce genre de catégories.<br /> Neferith:<br /> A noter que le moteur de recherche de google a déjà un peu ce genre de biais, mais c’est moins visible.<br /> Vous êtes très informé, avez vous les sources qui vous mène à ce constat ?
LeToi
C’est vraiment catastrophique niveau histoire, que d’approximations quand on demande des résumés de faits historiques, plein d’erreurs de dates etc.
prisme
Le problème vient d’une modification du prompt interne de Gemini. C’est Gemini lui-même qui remonte l’information quand on lui demande pourquoi il ne suit pas notre demande.<br /> Au mots clés utilisés, il va rajouter de lui même les mots suivants : «&nbsp;diversité&nbsp;», «&nbsp;inclusivité&nbsp;», spécifié des ethnicités ou des genres.<br /> A la phrase, si on demande un «&nbsp;portrait&nbsp;», il remplace par «&nbsp;portrait d’une variété de&nbsp;».<br /> Source : https://youtu.be/CIRQcrabq0k?t=654
tfpsly
prisme:<br /> Le problème vient d’une modification du prompt interne de Gemini. C’est Gemini lui-même qui remonte l’information quand on lui demande pourquoi il ne suit pas notre demande.<br /> C’est supposer qu’un LLM connaît son prompt.<br /> Par contre, citer Psyhodelik comme source, heu…
Ipoire
«&nbsp;peuvent avoir n’importe quelle couleur de peau&nbsp;» c’est faux votre article vu que Gemini refuse catégoriquement de montrer des personnes blanches, que ca soit sur des faits historiques ou même lors d’une demande directe.<br /> Et plus Gemini veut réécrire l’histoire en refusant de générer ou de parler du massacre de Tienanmen.<br /> Donc en plus d’être woke, Gemini est pro chinois !
adnstep
Sur un grand nombre de sujets, certains documents, y compris universitaires, qui apparaissaient dans les premiers résultats de Google sont aujourd’hui difficilement accessibles… En d’autres temps et d’autres lieux, on appelait ça la censure.
adnstep
Go woke, go broke.
MattS32
Ipoire:<br /> Et plus Gemini veut réécrire l’histoire en refusant de générer ou de parler du massacre de Tienanmen.<br /> En même temps, si tu veux pas réécrire l’histoire, faut de toute façon pas demander à une IA générative de générer des trucs sur des sujets historiques… Une IA générative produit une réponse purement statistiques face à un prompt, elle n’a aucune compréhension des évènements sur lesquels tu lui demande de générer…<br /> Un truc rigolo d’ailleurs, c’est qu’on accuse Gemini de réécrire l’histoire parce qu’elle a produit des images de vikings noirs… Mais si elle avait généré des images de vikings blond aux yeux bleus avec les cheveux au vent, une barbe impeccable, des muscles saillants, des bijoux et des protections rutilantes, personne n’aurait rien dit, alors que c’est sans doute tout autant une réécriture de l’histoire : c’est juste l’image du viking dans la pop culture des 20-30 dernières années, sans doute bien éloignée de la réalité historique…
somoved
Ce n’est pas une source mais un ressenti/expérience personnel non ?<br /> De plus un changement d’algorithme change les résultats, et la compréhension de l’algorithme permet aux gens de manipuler l’algorithme.<br /> Il est facile de voir des preuves de choses qui conforte notre vision (biais de confirmation).<br /> Et un autre outil sympa, à manipuler avec prudence, c’est le rasoir de Hanlon qui dit<br /> Ne jamais attribuer à la malveillance ce que la bêtise suffit à expliquer<br />
adnstep
Vous êtes en train de dire que la direction de la modération chez Google est bête ?<br /> On a vu chez Tweeter ce qu’il est advenu de certains (ou plutôt certaines) après la reprise en main par Musk.<br /> Le modèle de pensée des IA reflète celui de ceux qui les entraînent, les modèlent, et les corrigent. Essentiellement, ce sont des gens qui vivent en californie. En 2020, 98% des dons des employés californiens dans la tech sont allés au Parti Démocrate.<br /> Le biais est clair.
somoved
adnstep:<br /> Vous êtes en train de dire que la direction de la modération chez Google est bête ?<br /> Oui, on fait tous des erreurs (de la bétise quoi), on n’est pas toujours au courant de tout, nos connaissances ne sont pas infaillible, nos croyances sont souvent bancale, la fatigue peut jouer un rôle important.<br /> adnstep:<br /> IA reflète celui de ceux qui les entraînent<br /> C’est plus les données. Et donc ceux qui sélectionnent les données, et ceux qui font le fine tuning à la fin (la modération doit être la touche final du fine tuning).<br /> adnstep:<br /> vivent en californie<br /> Je ne sais pas d’où vous tenez vos informations, mais je ne pense pas que les employés à la Silicon Valey soient les seuls à intervenir dans l’apprentissage des LLM. Il y a des tâches très rébarbatives qui doivent être sous-traité dans des pays comme l’Inde.<br /> adnstep:<br /> En 2020, 98% des dons des employés californiens dans la tech sont allés au Parti Démocrate.<br /> Premièrement source. Et même si ce chiffre serait le reflet de la vérité, en quoi une somme représente des gens ? Ceux qui ne donnent pas ? Ceux qui donne plus ? Ceux qui mentent/ne veulent pas répondre ? Chiffre certes percutant mais dont on ne peut pas sortir grand chose.<br /> On en revient au biais de confirmation, vous ne pouvez pas dire qu’il y a une intention clair et défini. Moi non plus. Dans un sens ou dans l’autre.<br /> Faute de preuve vous devez reconnaître que la position que vous exposez n’est qu’une croyance au service d’une idéologie politique.
MattS32
somoved:<br /> l y a des tâches très rébarbatives qui doivent être sous-traité dans des pays comme l’Inde.<br /> Tout a fait. C’est massivement sous traité à des «&nbsp;travailleurs du clic&nbsp;» (voir le docu de France.tv du même nom) payés au lance-pierre, donc principalement dans des pays pauvres (mais pas que) via des services comme Amazon MTruck. Ou même partout dans le monde sans payer, avec par exemple reCaptcha (hé oui, quand ont nous demande d’identifier les passages piétons, feux de circulation, etc… ce n’est pas juste pour vérifier qu’on est humain, c’est aussi pour entraîner des IA à reconnaître ces éléments pour les voitures autonomes).
Neferith
Deux simples recherches google image banal : «&nbsp;couple blanc&nbsp;» et «&nbsp;couple noir&nbsp;». Tu fais une comparaison sur quel theme renvoie et quel theme renvoie l’autre.<br /> Après pour ton commentaire précédent, tu as le droit de nier ce que tu vois sous ton nez. Après je suis d’accord ce ne sont que des termes crus/moqueurs pour désigner un phénomène qu’on constate aux USA, mais qui a d’ailleurs de moins en moins le vent en poupe, surement car pas assez rentable.
Neferith
C’est bien. Du coup, il n’y a plus de malveillance, mais juste de la betise. Vous utilisez beaucoup les outils zet, mais n’allez pas en faire votre seul trait d’argumentation.<br /> A noter que là, il ne s’agit pas tellement de malveillance de la part de google, mais plutot un espece d’excès de fausse bienveillance. D’ailleurs google l’a reconnu lui meme pour gemini, car c’est allé un peu loin quand meme.<br /> La malveillance et la bienveillance se confondant souvent très bien et ont tendance à rendre les gens un peu «&nbsp;bête&nbsp;».
adnstep
somoved:<br /> Je ne sais pas d’où vous tenez vos informations, mais je ne pense pas que les employés à la Silicon Valey soient les seuls à intervenir dans l’apprentissage des LLM. Il y a des tâches très rébarbatives qui doivent être sous-traité dans des pays comme l’Inde<br /> J’excluais de fait les petites mains. On peut inclure les anglais de deep mind, par contre.<br /> La question est celle du choix ou de l’exclusion des sources de données. Sélectionner les archives du New-York Times, ou sélectionner les archives du Weekly Standard, ça ne donnera pas exactement la même chose.
adnstep
somoved:<br /> Premièrement source. Et même si ce chiffre serait le reflet de la vérité, en quoi une somme représente des gens ? Ceux qui ne donnent pas ? Ceux qui donne plus ? Ceux qui mentent/ne veulent pas répondre ? Chiffre certes percutant mais dont on ne peut pas sortir grand chose.<br /> On en revient au biais de confirmation, vous ne pouvez pas dire qu’il y a une intention clair et défini. Moi non plus. Dans un sens ou dans l’autre.<br /> Faute de preuve vous devez reconnaître que la position que vous exposez n’est qu’une croyance au service d’une idéologie politique.<br /> Pour la source, je serais tenté de dire : cherchez vous même, une simple requête Google…<br /> La source est CNBC, relayé par l’Express.<br /> «&nbsp;en quoi une somme représente des gens ?&nbsp;»<br /> Ben quand on dit 98% des employés qui ont donné, c’est pourtant clair, non ? S’il vous faut une preuve de plus : Elections américaines : malmenée par Trump et par Biden, la Silicon Valley reste démocrate<br /> «&nbsp;Ceux qui donne plus ?&nbsp;» Ils font partie des 98%.<br /> «&nbsp;Ceux qui mentent/ne veulent pas répondre&nbsp;»<br /> Tout sondage un peu sérieux utilise une méthodologie propre à éliminer ces biais.<br /> «&nbsp;Chiffre certes percutant mais dont on ne peut pas sortir grand chose.&nbsp;»<br /> Si, on peut en conclure que 98% des donateurs employés de la tech en Californie soutiennent le Parti Démocrate. Et d’ailleurs, leurs patrons aussi. Ils ont massivement versé pour la campagne de Biden.<br /> «&nbsp;On en revient au biais de confirmation, vous ne pouvez pas dire qu’il y a une intention clair et défini. Moi non plus. Dans un sens ou dans l’autre.&nbsp;» Quand 98% des dons vont au parti démocrate, on peut penser que les donateurs sont un peu démocrates, et qu’ils vont agir en fonction de leurs idées, ou plutôt de leur idéologie. C’est pourquoi il est légitime de s’interroger au sujet du tropisme idéologique des IA développées dans de tels contextes. Et quand on constate les résultats biaisés affichés par l’IA de Google, ça ne fait que confirmer ce qu’on pouvait penser.<br /> «&nbsp;Faute de preuve vous devez reconnaître que la position que vous exposez n’est qu’une croyance au service d’une idéologie politique.&nbsp;» .<br /> L’inversion de la charge de la preuve est un sophisme qui consiste, dans un débat heuristique, à avancer un fait en incombant la charge de la preuve de son contraire à son interlocuteur.
adnstep
La controverse a continué d’enfler quand le générateur de texte lui-même a été pris en flagrant délit. Gemini “a eu du mal à dire qui d’Hitler ou d’Elon Musk était le pire pour la société, a dit qu’il ne défendrait pas la viande ou qu’il n’aiderait pas à faire la promotion des combustibles fossiles”, rapporte Business Insider.<br /> Pour le spécialiste de la tech Ben Thomson, le problème n’est pas tant ces réponses stupides que le fait même que Google dise “aux utilisateurs ce qu’ils doivent penser” au lieu de “les aider à prendre des décisions importantes”. Il serait temps de “débarrasser l’entreprise des employés attirés par la puissance de Google et sa capacité à servir leurs desseins politiques, et de rendre le pouvoir décisionnel à ceux qui veulent vraiment fabriquer de bons produits”, explique-t-il dans sa lettre spécialisée Stratechery. Et de désigner nommément le PDG Sundar Pichai comme l’une de ces personnes “à écarter”.<br /> Pris dans la tourmente, le patron de Google s’est fendu d’un e-mail à ses équipes le mardi 27 février en fin de journée, relate le Wall Street Journal :<br /> « Je souhaite évoquer les dernières difficultés liées à la génération de (contenus) problématiques dans l’application Gemini », a écrit Sundar Pinchai mardi, « Je sais que certaines de ses réponses étaient biaisées, ont fait preuve de partialité et ont choqué nos utilisateurs. Et, pour être clair, c’est totalement inacceptable et nous nous sommes trompés. »<br /> Va falloir dewoker ta boîte, Sundar…
Voir tous les messages sur le forum
Haut de page

Sur le même sujet