Toxicité en jeu : attention à ce que vous direz sur Call of Duty, l'IA sera à l'écoute

31 août 2023 à 13h15
11
© Activision
© Activision

Afin de combattre la toxicité rampante dans les chats vocaux sur Call of Duty, Activision s'allie à ToxMod, une IA conçue par Modulate.

Cette intelligence artificielle sera donc chargée de scanner les chats vocaux à la recherche de violations du code de conduite du jeu et de placer une cible sur les joueurs les plus toxiques. Cette nouvelle mesure s'inscrit, à l'image de ce que fait déjà Microsoft, dans un effort plus large d'Activision dans son éternel combat contre un fléau particulièrement présent sur cette franchise phare du genre FPS.

Une IA qui vise les joueurs toxiques en vocal

Selon de nombreuses études, Call of Duty a en effet la triste réputation d'accueillir l'une des communautés les plus toxiques dans un genre qui a tendance à faire chauffer le sang de ses joueurs. Entre la toxicité et les tricheurs, Activision est pour ainsi dire en guerre constante pour tenter d'assainir sa proverbiale machine à billets.

© Activision
© Activision

C'est pourquoi le studio vient tout fraîchement de signer un partenariat avec Modulate, la société derrière ToxMod, un système de modération alimenté par l'intelligence artificielle. Sa mission sera d'écouter et d'analyser les chats vocaux des jeux Call of Duty afin d'identifier des violations de leur code de conduite.

Sur le papier, l'intelligence artificielle prendra en compte le contexte des conversations, le ton employé et les émotions véhiculées par la voix des joueurs en vue de déterminer dans quelle mesure des propos colorés peuvent être considérés comme un discours de haine, de discrimination ou de harcèlement. Si tel est le cas, les joueurs incriminés seront identifiés afin que les équipes de modération puissent agir en temps réel, si le besoin s'en fait sentir.

Déploiement du drone en bêta

Ce partenariat entre Activision et Modulate en est à ses balbutiements, ToxMod étant pour l'heure déployé en bêta aujourd'hui en Amérique du Nord sur Call of Duty: Modern Warfare II et le Battle Royale Warzone.

© Activision
© Activision

Un déploiement mondial (à l'exception visiblement de l'Asie) de ce nouveau système de modération sera opéré le 10 novembre, soit le jour de la sortie de Call of Duty: Modern Warfare III, le nouvel opus annuel de la franchise.

Reste donc à voir si le concours de l'IA dans cette guerre sempiternelle contre la toxicité sur Call of Duty se montrera une arme efficace, ou au contraire une nouvelle source de problèmes. Il convient en effet de noter que, pour l'heure, de telles IA peuvent faire preuve d'excès de zèle, et ne pas pleinement saisir la nuance entre blague de mauvais goût et véritable discours condamnable.

Source : Modulate

Robin Lamorlette

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons &...

Lire d'autres articles

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons & Dragons/Baldur's Gate 3.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (11)

Goodbye
C’est un fléau la toxicité en ligne, bien que facilement évitable si on est sensible à ce genre de personnage (mute, voilà).<br /> Par contre, en dehors pomper les informations des joueurs honètes, ce genre de solutions sur des jeux gratuit (Warzone) c’est totalement useless, tout le monde s’en fou, encore plus les gens toxique.<br /> Sur 10 comportement toxique report, ta souvent que 1 qui va se faire bannir du chatou vocal pendant 3h ou 3 jours.<br /> Youpi.
trollkien
Oui enfin déjà si les joueurs utilisent discord leur ia servira à rien.<br /> D’autre part qu’appelle t’on toxique ?<br /> Ne pas.parler/agir comme.une petite licorne woke lgbtq+ ?<br /> Après il distribuent un jeu qui incite à la violence et au sale<br /> A un moment on recolte ce que l’on sème.<br /> Perso je préfère largement aujourd’hui un fps/tps a la fortnite qui es bien plus «&nbsp;propre&nbsp;» visuellement aujourd’hui, malgré mes 20+ années de counterstrike
SPH
Ce serait peut-être bien qu’un humain valide ce que l’IA a détecté (une insulte par exemple).<br /> Ou alors, pour être tranquille, il faut couper son micro…
dredd
Au moin il y aura enfin une intelligence quelque part dans Call of Duty !
Ccts
Pour une fois c’est une bonne utilisation de l’ia. Il faudra garder un minimum de personne physique dans le processus. Et pour répondre à celui qui dit que ça servira à rien si tu utilises discord… et bien c’est le genre de truc qui pourrais faire justement que j’utilise pour une fois le système intégré de chat vocal.
gothax
OK ! C’est un jeu où tu tues avec des balles perfo ou explosif des mecs en face voire même au couteau comme un adepte de Daech et après tu dis ‹&nbsp;sale con&nbsp;› à un teuteu ou un cheater et tu te fais ban ??? Y a problème avec cette approche punaise; Les licornes sont de sorties ?<br /> Dans Tarkov tu insultes en russe et c’est très bien c’est l’immersion !
Aegis
“ D’autre part qu’appelle t’on toxique ?”<br /> Ce genre de phrase:<br /> “Ne pas.parler/agir comme.une petite licorne woke lgbtq+ ?”
SPH
C’est quoi ces histoires de licorne ??
bafue
Cod lol…Tu fait une bonne partie ,tu peut être sur a 100% que sur la prochaine tes balles ne touche plus …Sans compter les boucliers qui te rende invincible sur les tirs de derrière même au lance rocket …Et étrangement les gens s’insulte ??..Comme c’est étrange !!!..<br /> Il fond absolument tout pour que ce sois le cas …
davidly
Je suis pas entièrement sûr, mais de ce que j’ai compris de l’article, l’IA évalue les conversations et alerte une équipe humaine qui peut agir en temps réel.<br /> Du coup on est plutôt sur une modération à posteriori plutôt qu’une sanction instantanée prononcée par un bot. En tout cas bon courage pour bien prendre en compte le contexte, éliminer les faux positifs et traiter le volume de conversations…
Voir tous les messages sur le forum
Haut de page

Sur le même sujet