Selon un rapport de l’Université de Stanford et du Wall Street Journal, les algorithmes d’Instagram facilitent la vente de pédopornographie. La filiale de Meta serait la principale plateforme utilisée par des réseaux de pédophiles.
Un rapport conjoint de l’Université de Stanford et du Wall Street Journal a mis en évidence un problème particulièrement alarmant : les algorithmes d’Instagram semblent faciliter la vente de contenu pédopornographique. Cette découverte révèle la nécessité urgente de revoir les mécanismes de modération et de protection de ces plateformes. Des chercheurs du Cyber Policy Center de la prestigieuse université de la Silicon Valley ont indiqué que "de larges réseaux de comptes, qui donnent l’apparence d’être opérés par des mineurs, promeuvent ouvertement la vente de contenus pédopornographiques".
Les fonctionnalités telles que les algorithmes de recommandation de contenus et la messagerie intégrée sur Instagram facilitent grandement les échanges entre les vendeurs et les acheteurs de contenus illicites. Les chercheurs ont souligné que les algorithmes de recommandation de la plateforme contribuent à la propagation de ces contenus préjudiciables. En effectuant une simple recherche avec des mots-clés tels que #pedowhore ("pedo putain") ou #preteensex ("sexe pré-ado"), il est possible de trouver des comptes qui utilisent ces termes pour promouvoir des contenus montrant des abus sexuels sur des mineurs.
Bien que les comptes en question n’indiquent pas explicitement qu’ils vendent ces images, ils proposent des menus comportant diverses options, y compris la possibilité de demander des actes sexuels spécifiques. Certains profils utilisent des pseudonymes ouvertement sexuels et prétendent être gérés par les enfants eux-mêmes, en utilisant des termes tels que "petite s***** pour toi". Les chercheurs de Stanford ont également identifié des offres de vidéos contenant de la bestialité et de l’automutilation. Selon le rapport, il est même possible d’organiser des "rencontres" en personne avec des enfants moyennant un certain prix.
Le rôle des algorithmes d’Instagram dans la diffusion de ces contenus préoccupants est mis en évidence par l’étude. Lorsqu’un compte-test a cliqué sur quelques recommandations de ce genre, il a été submergé de contenus sexualisant les enfants. Face à ces révélations, Meta, la société mère d’Instagram, n’a pas encore répondu aux sollicitations de l’AFP. Cependant, le WSJ rapporte que l’entreprise reconnaît des problèmes au sein de ses services de sécurité et a mis en place un groupe de travail pour y remédier.
Cette affaire soulève de sérieuses préoccupations quant à la protection des enfants sur Instagram. Des plaintes ont déjà été déposées contre Meta, l’accusant de fermer les yeux sur le trafic d’êtres humains et la pédocriminalité sur ses plateformes. Instagram est également régulièrement critiqué par des associations et des autorités pour son manque de protection des enfants face aux risques de harcèlement, d’addiction et de problèmes d’image de soi.