Instagram : le grand marché noir des pédophiles via algorithmes ?

Ecouter cet article

C’est le dernier coup de théâtre de notre ère numérique, la descente aux enfers de l’éthique et de la décence. Une investigation conjointe du Wall Street Journal et des chercheurs de Stanford et de l’Université du Massachusetts à Amherst a révélé un visage hideux d’Instagram, ce géant des réseaux sociaux : la plateforme servirait de plaque tournante pour un réseau de pédophiles.

Imaginez, si vous osez, un lieu où des adolescents cherchent des likes, postent des selfies et testent des filtres pour chats, et qui sert simultanément de marché noir pour des adultes aux intentions répugnantes. Oui, vous avez bien compris. Instagram, propriété de Meta Platforms, semble non seulement complice mais également facilitateur de ces monstruosités.

Comment est-ce possible, demandez-vous ? Les chiffres et les faits fournis par l’enquête sont aussi poignants que dérangeants. Des milliers de comptes, actifs à toute heure, échangent du contenu sexuel explicite impliquant des mineurs. Ces comptes sont promus par les algorithmes de recommandation d’Instagram, formant ainsi un réseau d’une ampleur effrayante. Des hashtags flagrants comme #pedowhore, #preteensex, et #pedobait font la publicité de ces comptes, offrant des “menus” de contenu pour les utilisateurs à acheter ou à commander. Des vidéos et des images d’automutilation et de bestialité sont parmi les options proposées.

L’investigation a révélé que suivre seulement quelques-unes des recommandations suffisait pour inonder un compte test avec du contenu sexualisant les enfants.

Face à ces révélations, Meta a déclaré qu’elle créait une task force interne pour s’attaquer aux problèmes soulevés par l’enquête. En janvier, l’entreprise a fermé 490 000 comptes qui violaient ses politiques de protection de l’enfance et, au cours des deux dernières années, elle a supprimé 27 réseaux de pédophiles. Elle a également bloqué des milliers de hashtags associés à la sexualisation des enfants et a restreint ces termes dans les recherches des utilisateurs.

Cependant, Alex Stamos, chef de l’Observatoire Internet de Stanford et ancien chef de la sécurité de Meta, a affirmé au Wall Street Journal que l’entreprise pouvait et devait en faire plus pour lutter contre ce fléau. Il a souligné qu’il était alarmant qu’une équipe de trois universitaires avec un accès limité puisse trouver un réseau aussi vaste.

Alex Stamos

L’enquête a également révélé que les pratiques de modération d’Instagram ignorent fréquemment ou rejettent les signalements de matériel d’abus sur les enfants. Le Wall Street Journal relate des incidents où des utilisateurs ont signalé des publications et des comptes suspectés d’abus envers des mineurs, sans que ces signalements ne soient pris en compte par l’équipe de révision d’Instagram.

Il est maintenant évident que le défi est lancé à nous tous : serons-nous les spectateurs passifs de cette tragédie, ou lèverons-nous la voix pour mettre fin à cette ignominie ?

https://www.theverge.com/2023/6/7/23752192/instagrams-recommendation-algorithms-promote-pedophile-networks-investigation

Total
0
Shares
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires