Call of Duty révolutionne le gaming avec une IA révolutionnaire pour modérer les chats vocaux. Préparez-vous à une expérience inédite et sans compromis !

Sommaire :

Modulate : une startup contre la toxicité dans les jeux en ligne

La toxicité dans les jeux en ligne

Call of Duty et d’autres jeux de tir à la première personne (FPS) sont parfois infectés par la toxicité des joueurs, tant dans les canaux de discussion que dans les chats vocaux. Les enquêtes montrent que la communauté de fans de Call of Duty est la plus négative de tous les jeux en ligne. Des incidents graves ont même eu lieu, comme l’intervention de l’équipe SWAT lors d’une querelle entre joueurs aux États-Unis. Pour remédier à cette situation, l’éditeur du jeu, Activision, travaille depuis plusieurs années à la suppression de ces comportements toxiques, et une partie de la solution pourrait résider dans l’utilisation d’outils d’intelligence artificielle.

Une IA de reconnaissance vocale pour la modération

Activision s’est associé à la startup Modulate, spécialisée dans la lutte contre les comportements toxiques en ligne, pour intégrer une fonctionnalité de « modération du chat vocal in-game » dans ses jeux. Ce nouveau système de modération utilise une technologie IA appelée ToxMod, qui permet d’identifier en temps réel des comportements toxiques tels que les discours haineux, la discrimination et le harcèlement.

Déploiement progressif et lancement mondial

ToxMod est actuellement en version bêta en Amérique du Nord, dans les jeux Call of Duty: Modern Warfare II et Call of Duty: Warzone. Le lancement mondial, excluant l’Asie pour le moment, est prévu pour le 10 novembre prochain, en même temps que la sortie de Call of Duty: Modern Warfare III, le nouvel opus de la franchise.

Comment fonctionne ToxMod ?

Les détails sur le fonctionnement de ToxMod sont encore rares, mais selon le site web de Modulate, l’outil analyse le chat vocal pour détecter les comportements inappropriés, en prenant en compte les nuances de chaque conversation. Il fournit ensuite aux modérateurs des rapports sur les incidents, avec un contexte pertinent et précis. Le PDG de Modulate a également souligné que ToxMod va au-delà de la simple transcription des mauvais comportements en ligne en tenant compte d’autres facteurs tels que les émotions et le volume sonore des joueurs, afin de différencier les déclarations nuisibles de celles qui sont simplement enjouées.

Une implémentation humaine restera nécessaire

Il est important de noter que, pour le moment, ToxMod ne prend pas de mesures à l’encontre des joueurs en se basant sur ses données. Son rôle principal est de fournir des rapports aux modérateurs d’Activision. Dans un avenir proche, il est probable que l’intervention humaine restera essentielle, car certains systèmes de reconnaissance vocale ont montré des biais dans leur réponse aux utilisateurs en fonction de leur accent ou de leur identité raciale.

Conclusion

Alors qu’OpenAI promeut son modèle GPT-4 pour la modération de contenus à grande échelle, il est clair que nous sommes encore loin d’une vie en ligne entièrement encadrée par des robots. Cependant, l’intégration de technologies d’intelligence artificielle comme ToxMod dans les jeux en ligne constitue une avancée significative pour lutter contre la toxicité et améliorer l’expérience de jeu pour tous les joueurs.

Aymeric du blog Les meilleures comparatifs et avis