- English
- Français
Publié le 3 décembre dans 20Minutes
Twitch a annoncé ce mardi l’introduction d’un système de détection des utilisateurs malveillants qui créent de nouveaux comptes anonymes pour revenir sur des chaînes qui les ont bannis. Le phénomène est problématique et crée beaucoup de cyberharcèlement.
La plateforme de jeux vidéo peine depuis quelques mois à endiguer la vague de harcèlement raciste et homophobe contre certains créateurs de contenus. Des personnes non-blanches ou de la communauté LGBT+ sont notamment victimes de « hate raids » (raids de haine) en ligne.
Des messages masqués
Les harceleurs viennent dans les chats des victimes et inondent les échanges d’insultes ou d’images choquantes. Si le créateur les bannit, certains reviennent en créant un nouveau compte. Baptisé Suspicious User Detection, le nouvel outil « est là pour vous aider à identifier ces utilisateurs en fonction de certains signaux » afin d’aider les créateurs à « prendre des mesures », indique Twitch.
Le programme créé avec du machine learning distinguera les fraudeurs « probables » et « possibles ». Dans le premier cas, leurs messages n’apparaîtront pas en public, seuls le joueur et ses modérateurs les verront. À charge à eux de décider ensuite de les surveiller ou de les bannir.
Deux utilisateurs poursuivis en justice
« Aucun système de machine learning n’est fiable à 100 % », précise Twitch, « C’est pour cela que [l’outil] n’interdit pas automatiquement tous les potentiels fraudeurs. » La plateforme, qui appartient à Amazon, affirme accueillir plus de 30 millions de visiteurs par jour.
En août dernier, des joueurs se sont mobilisés pour appeler la société à réagir face aux raids. Twitch a lancé de nouveaux outils et porté plainte contre deux utilisateurs. Ces deux personnes gèrent selon la plateforme des comptes multiples sous différentes identités et sont capables de « générer des milliers de bots en quelques minutes » dans le but de harceler leurs victimes.