Afin de combattre la toxicité rampante dans les chats vocaux sur Call of Duty, Activision s’allie à ToxMod, une IA conçue par Modulate.
C’est un fléau la toxicité en ligne, bien que facilement évitable si on est sensible à ce genre de personnage (mute, voilà).
Par contre, en dehors pomper les informations des joueurs honètes, ce genre de solutions sur des jeux gratuit (Warzone) c’est totalement useless, tout le monde s’en fou, encore plus les gens toxique.
Sur 10 comportement toxique report, ta souvent que 1 qui va se faire bannir du chatou vocal pendant 3h ou 3 jours.
Youpi.
Oui enfin déjà si les joueurs utilisent discord leur ia servira à rien.
D’autre part qu’appelle t’on toxique ?
Ne pas.parler/agir comme.une petite licorne woke lgbtq+ ?
Après il distribuent un jeu qui incite à la violence et au sale
A un moment on recolte ce que l’on sème.
Perso je préfère largement aujourd’hui un fps/tps a la fortnite qui es bien plus « propre » visuellement aujourd’hui, malgré mes 20+ années de counterstrike
Ce serait peut-être bien qu’un humain valide ce que l’IA a détecté (une insulte par exemple).
Ou alors, pour être tranquille, il faut couper son micro…
Au moin il y aura enfin une intelligence quelque part dans Call of Duty !
Pour une fois c’est une bonne utilisation de l’ia. Il faudra garder un minimum de personne physique dans le processus. Et pour répondre à celui qui dit que ça servira à rien si tu utilises discord… et bien c’est le genre de truc qui pourrais faire justement que j’utilise pour une fois le système intégré de chat vocal.
Quelqu’un qui répond avec un « kill yourself » après que quelqu’un donne son opinion sur le chat. Une façon extrême de dire « ferme là, idiot » d’après l’argot internet, mais les nuances ne sont pas perçues de la même façon d’une personne à l’autre. Pour une personne normale ou dépressive, c’est perçu effectivement comme une incitation à se tuer, donc c’est un propos illégal.
Quelqu’un qui abuse des explétives et termes péjoratifs liés à un peuple, même sans aller vers un harcèlement ou incitation à la violence.
Faut-il sanctionner la toxicité verbale au même titre que la tricherie ?
OK ! C’est un jeu où tu tues avec des balles perfo ou explosif des mecs en face voire même au couteau comme un adepte de Daech et après tu dis ‹ sale con › à un teuteu ou un cheater et tu te fais ban ??? Y a problème avec cette approche punaise; Les licornes sont de sorties ?
Dans Tarkov tu insultes en russe et c’est très bien c’est l’immersion !
“ D’autre part qu’appelle t’on toxique ?”
Ce genre de phrase:
“Ne pas.parler/agir comme.une petite licorne woke lgbtq+ ?”
C’est quoi ces histoires de licorne ??
Cod lol…Tu fait une bonne partie ,tu peut être sur a 100% que sur la prochaine tes balles ne touche plus …Sans compter les boucliers qui te rende invincible sur les tirs de derrière même au lance rocket …Et étrangement les gens s’insulte ??..Comme c’est étrange !!!..
Il fond absolument tout pour que ce sois le cas …
Je suis pas entièrement sûr, mais de ce que j’ai compris de l’article, l’IA évalue les conversations et alerte une équipe humaine qui peut agir en temps réel.
Du coup on est plutôt sur une modération à posteriori plutôt qu’une sanction instantanée prononcée par un bot. En tout cas bon courage pour bien prendre en compte le contexte, éliminer les faux positifs et traiter le volume de conversations…