Les joueurs face à la violence des réseaux
Les réseaux sociaux font partie intégrante de la routine des joueurs. 68% d’entre eux consultent leurs réseaux sociaux avant un match selon Bodyguard, une société spécialisée dans le secteur de la protection sur les réseaux utilisée par le PSG notamment. Avec cette place prépondérante, les réseaux peuvent avoir un impact psychologique fort sur les joueurs. Ils peuvent être particulièrement violents. On recense des commentaires 11 fois plus haineux après une défaite. Malgré les initiatives des ligues ou de la FIFA contre les discriminations, le harcèlement sur les réseaux est un sujet auquel trop de joueurs sont confrontés.
L’intelligence artificielle est un bon allié des joueurs et des clubs pour lutter contre cela grâce au Natural Language Processing (NLP) en particulier.
Comment le NLP peut aider ?
L’intelligence artificielle peut maintenant identifier facilement des commentaires injurieux et haineux grâce au NLP (voir notre article d’explication). Une application ayant cette capacité peut être connectée aux réseaux d’un joueur ou d’un club et identifier les commentaires de ce type que ce soit sur Instagram, X ou TikTok.
Cette IA peut aller plus loin en signalant ces commentaires voire même en initiant des actions légales. En effet, au-delà de l’identification, la proposition d’un accompagnement dans les démarches par l’application IA est utile. Les joueurs sont peu au courant des possibilités en général et l’essentiel pour eux est de se concentrer sur le sportif.
Enfin, la génération de rapport au niveau du club pour le coach ou le médecin peut être faite par l’IA pour que le staff ait une meilleure compréhension de ce à quoi chaque joueur fait face. Cela est d’autant plus utile dans le sens où il y a un écart générationnel souvent entre staff et joueur faisant que le staff est moins au courant de ce qu’il se passe sur les réseaux. Des solutions existent déjà dans ce domaine comme GuardianAI de Sentients Sport qui identifie les joueurs à risque et propose des idées d’accompagnement.
L’exemple de Bodyguard
Bodyguard est une solution utilisant l’intelligence artificielle pour répondre à ce besoin de protection et de modération en grande quantité. Elle est utilisée par des clubs (PSG, Toulouse FC), des ligues (LFP) ou encore des diffuseurs (beIN Sports).
Son service permet notamment de supprimer automatiquement des commentaires ou de bloquer certains utilisateurs postant du contenu haineux. Cette modération se fait en moins d’une seconde et en plus de 40 langues. Au-delà du contenu haineux, l’outil peut permettre de filtrer d’autres types de commentaires (contenu promotionnel, scam).
Bodyguard permet d’adresser 3 points principaux avec l’IA :
- Protéger leur communauté : Cette tâche est cruciale notamment pour la santé mentale des joueurs et des membres du club. Sur leur action avec le PSG, 9% des commentaires totaux ont été supprimés ce qui montre l’ampleur de la tâche en quantité.
- Créer un environnement positif : Avec la suppression des discours de haine, l’espace commentaire sera plus propice à l’échange et l’engagement positif est renforcé. Pour le PSG, après l’utilisation de Bodyguard, 16% des interactions étaient réalisées par de nouvelles personnes.
- Gérer une audience croissante et internationale : L’IA permet de traiter des données en quantité et provenant de différentes langues.
Conclusion : L’IA peut améliorer l’expérience en ligne pour les joueurs, clubs et supporters
L’intelligence artificielle est un bon outil pour améliorer l’expérience sur les réseaux sociaux des joueurs, des clubs et de leurs followers en s’appuyant sur le NLP pour détecter les expressions problématiques et sur la capacité quantitative de l’IA.
Pour comprendre ce qu’est le NLP, vous pouvez consulter notre article explicatif.
Pour toute question sur l’IA dans le football ou le sport, n’hésitez pas à contacter notre équipe.
Source :