Le blog du Mulot

Le scandale d’Instagram : Quand les algorithmes font la promotion des réseaux pédophiles

Les algorithmes d’Instagram au service des réseaux pédophiles. ‘une enquête menée conjointement par des universitaires et le Wall Street Journal, révélant comment ils favorisent les réseaux de comptes promouvant du matériel d’abus sexuels sur des enfants. Cette enquête met en lumière la manière dont ces systèmes de recommandation « connectent les pédophiles et les guident vers les vendeurs de contenu ».

Les chercheurs ont découvert que ces comptes utilisaient des hashtags explicites tels que # owhore, #preteen  et # obait pour annoncer leur présence sur la plateforme. Ils proposaient ensuite des « menus » de contenu que les utilisateurs pouvaient acheter ou commander, comprenant des vidéos et des images d’automutilation et de bestialité. Lorsque les chercheurs ont créé un compte test et exploré le contenu partagé par ces réseaux, ils ont immédiatement reçu des recommandations pour suivre d’autres comptes similaires. En suivant seulement quelques-unes de ces recommandations, le compte test a rapidement été inondé de contenu sexualisant les enfants.

Face à ces révélations, Meta, la société propriétaire d’Instagram, a déclaré mettre en place un groupe de travail interne pour résoudre ces problèmes. Elle a souligné son engagement à lutter contre l’exploitation des enfants et a affirmé avoir supprimé 490 000 comptes en janvier qui enfreignaient ses politiques de sécurité des enfants. Au cours des deux dernières années, 27 réseaux pédophiles ont également été éliminés. Meta a déclaré avoir bloqué des milliers de hashtags associés à la sexualisation des enfants et restreint ces termes dans les recherches des utilisateurs.

Néanmoins, Alex Stamos, responsable de l’Observatoire Internet de Stanford et ancien responsable de la sécurité de Meta, a souligné que l’entreprise pourrait et devrait faire davantage pour résoudre ce problème. Il a appelé Meta à réinvestir dans des enquêteurs humains, compte tenu de la facilité avec laquelle une équipe de trois universitaires a découvert un réseau aussi vaste. En plus des problèmes liés aux algorithmes de recommandation, l’enquête a également révélé que les pratiques de modération du site ignoraient ou rejetaient souvent les signalements de matériel pédopornographique.

Le rapport a également comparé les résultats obtenus sur d’autres plateformes, notant que Twitter présentait moins de comptes proposant du matériel pédopornographique que Instagram, bien qu’il compte moins d’utilisateurs. TikTok, quant à lui, ne semble pas être un terrain propice à la prolifération de tels réseaux. Enfin, Snapchat n’aurait pas non plus activement promu ces réseaux, étant principalement utilisé pour la messagerie directe.

David Thiel, technologue en chef à l’Observatoire Internet de Stanford, a souligné le besoin pour Instagram de trouver le bon équilibre entre les systèmes de recommandation visant à encourager et à connecter les utilisateurs, et les fonctionnalités de sécurité qui examinent et suppriment les contenus abusifs.

Cette enquête conjointe soulève des préoccupations sérieuses quant à la responsabilité d’Instagram sur le fait d’héberger et de référencer du contenu illicite,

Source:.theverge.com

Vous pouvez lire le rapport complet du Wall Street Journal ici .

Retour en haut