Une récente enquête sur plusieurs jouets pour enfants dopés à l’IA révèle un constat pour le moins déroutant : derrière leur apparente innocence, certains n’hésitent pas à déraper vers des propos à caractère sexuel… ou même à expliquer où dénicher des couteaux dans la maison.

L'ourson Kumma a été temporairement retiré de la vente. ©Folotoy
L'ourson Kumma a été temporairement retiré de la vente. ©Folotoy

Depuis toujours (ou presque), l’ours en peluche incarne cet ami rassurant, ce confident silencieux des enfants (et de certains parents) et des insomnies. Doux, inoffensif, poilu et immuable, il ne jure que par le câlin et les histoires au coin du lit. Mais à l’ère de l’intelligence artificielle, il a désormais un cousin connecté, qui prend la forme d'un compagnon interactif, capable de converser, d’apprendre et, potentiellement, de franchir des limites très inquiétantes.

Un ours en peluche très indiscret… et même franchement pervers

C’est précisément ce scénario que révèle un rapport explosif de l'association PIRG (pour Public Interest Research Group). La société singapourienne FoloToy a dû suspendre les ventes de sa gamme de jouets IA, dont un ours baptisé Kumma, après qu’il ait été découvert que ce dernier tenait des propos hautement problématiques lors de tests.

Un ours en peluche animé par GPT-4o, ça vous tente ? ©Folotoy
Un ours en peluche animé par GPT-4o, ça vous tente ? ©Folotoy

L'ourson Kumma était présenté comme un compagnon intelligent et chaleureux, capable de s’adapter à la personnalité de l’utilisateur, adulte ou enfant. Une adaptation rendue possible grâce à l'intégration de l'intelligence artificielle GPT-4o mise au point par OpenAI.

Toutefois, au fil des conversations, l’ours était susceptible d'évoquer des sujets sexuels explicites, allant jusqu’au BDSM. Les chercheurs expliquent qu’une allusion au kink dans une conversation déclenchait des réponses détaillées : jeux de rôle, fessée, instruction de bondage « pour débutants », et même des scénarios de rapport enseignant-élève ou parent-enfant.

Des vrais soucis (aussi) de protection de la vie privée

Au-delà des potentielles réponses à caractère sexuel, Kumma n’hésitait pas non plus à donner des conseils dangereusement pratiques, comme indiquer où trouver des couteaux dans la maison ou comment allumer des allumettes. Selon le rapport, ce sont les mécanismes de limitation du jouet qui sont très insuffisants pour un enfant en bas âge.

La marque a déclaré mettre en œuvre un audit interne de sécurité « de bout en bout » et suspendre temporairement la commercialisation de tous ses produits. De son côté, OpenAI a annoncé avoir coupé l’accès de FoloToy à ses modèles, accusant l’entreprise de violer ses politiques.

Dans son rapport, PIRG a également indiqué que d'autres jouets animés par l'IA (à savoir Grok) se sont révélés tout aussi problématiques. En plus de la sexualité, les jouets évoquaient également la religion ou encore « la gloire de mourir au combat dans la mythologie nordique ».

À cela s'ajoute la gestion (et la protection) des données privées, puisque si certains jouaient nécessitent la pression d'un bouton pour discuter, d'autres écoutent l'enfant en permanence.

Rappelons qu'en juin dernier, OpenAI et Mattel annonçaient un partenariat pour un nouveau jouet boosté à l'IA, avec pour ambition de « réimaginer de nouvelles manières de jouer ».

Source : Engadget

À découvrir
Quelles sont les meilleures IA pour générer vos contenus ? Comparatifs 2025
15 septembre 2025 à 11h58
Comparatifs services