Quand des réseaux d’images non consenties à caractère sexuel pullulent sur Telegram
Very Large Harassment Channels
Dans un rapport intitulé « Le harcèlement comme infrastructure », AI Forensics analyse la manière dont Telegram est utilisé comme lieu de dépôt et d’échange de contenus non consentis à caractère sexuel par des milliers d’internautes espagnols et italiens. Pour l’ONG, l’Union européenne devrait notamment faire du réseau social une très grande plateforme au sens du règlement sur les services numériques pour la soumettre à de plus fortes obligations.
Mise à jour 12:44 : ajout de la réponse détaillée de Telegram.
Des groupes de plusieurs dizaines de milliers de personnes, des contenus à caractère sexuel diffusés, voire produits sans consentement, et échangés contre monétisation, des abonnements mensuels pour accéder à une variété de contenus au milieu desquels se logent du matériel représentant des agressions sexuelles sur mineurs (child sexual abuse material, CSAM), des représentations d’incestes ou de viols…
Tel est le vaste écosystème qui prolifère sur Telegram, que les internautes utilisent comme dépôt pour des contenus obtenus ailleurs, que ce soit sur des comptes TikTok, Instagram, ou dans des conversations privées tenues sur les plateformes de Meta (WhatsApp inclus). Reddit est une autre plateforme importante de ce réseau, le plus souvent utilisée pour diffuser les invitations qui mèneront aux canaux Telegram en question.
En s’appuyant sur la collecte de 2,8 millions de messages collectés dans 16 groupes et canaux Telegram différents sur une période de six semaines, l’ONG AI Forensics publie ce 8 avril une étude de l’ « écosystème d’agression largement automatisé » qui se déploie dans au moins deux aires géographiques : l’Italie et l’Espagne.
Pour ses autrices et auteurs, menés par la sociologue Silvia Semenzin et le directeur de recherche d’AI Forensics Salvatore Romano, cette continuité d’une plateforme à l’autre appelle à une approche « plus holistique » que ce qui existe pour le moment dans la lutte contre les agressions sexuelles par images (IBSA, image-based sexual abuse).
Dizaines de milliers de contenus non consentis à caractère sexuel
Concrètement, les auteurs du rapport ont repéré 24 571 comptes actifs ayant diffusé au moins un message violent pendant la période observée, intégrés dans des groupes dont l’audimat peut grimper à 25 000 membres en Espagne, voire 27 000 en Italie.
Loin de rester dans une seule zone géographique, les autrices de l’étude constatent que 72 % des contenus espagnols sont aussi disponibles dans les groupes italiens. Au total, 8 % de tous les médias analysés sont disponibles dans les deux zones étudiées.