Mastodon, le nid de la pédopornographie

Ecouter cet article

Mastodon, ce réseau décentralisé qui se présente comme une alternative viable à Twitter, est en réalité un véritable nid de matériel d’abus sexuels sur les enfants (CSAM), selon une nouvelle étude du Stanford Internet Observatory.

En seulement deux jours, les chercheurs ont découvert 112 instances de CSAM connus parmi 325 000 publications sur la plateforme. Le premier cas a été détecté après seulement cinq minutes de recherche.

Pour mener leur étude, l’Observatoire Internet a analysé les 25 instances les plus populaires de Mastodon à la recherche de CSAM. Les chercheurs ont également utilisé l’API SafeSearch de Google pour identifier les images explicites, ainsi que PhotoDNA, un outil qui aide à repérer le CSAM signalé. Au cours de leur recherche, l’équipe a trouvé 554 contenus correspondant à des hashtags ou des mots-clés souvent utilisés par les groupes d’abus sexuels sur les enfants en ligne. Tous ces contenus ont été identifiés comme explicitement sexuels avec la “plus grande confiance” par Google SafeSearch.

Il y a également eu 713 utilisations des 20 hashtags les plus liés au CSAM à travers le Fediverse sur des publications contenant des médias, ainsi que 1 217 publications uniquement textuelles qui pointaient vers des “échanges de CSAM hors site ou des tentatives de séduction de mineurs”. L’étude note que la publication ouverte de CSAM est “troublante“.

Un exemple cité est la panne prolongée du serveur mastodon.xyz que nous avons signalée plus tôt ce mois-ci, qui a été causée par du CSAM posté sur Mastodon. Dans une publication à propos de l’incident, le seul mainteneur du serveur a déclaré avoir été alerté d’un contenu contenant du CSAM, mais a précisé que la modération est effectuée pendant son temps libre et peut prendre jusqu’à quelques jours. Ce n’est pas une opération géante comme Meta avec une équipe mondiale de sous-traitants, c’est juste une personne.

Alors qu’ils ont déclaré avoir pris des mesures contre le contenu en question, l’hôte du domaine mastodon.xyz l’a quand même suspendu, rendant le serveur inaccessible aux utilisateurs jusqu’à ce qu’ils puissent contacter quelqu’un pour restaurer sa liste. Après la résolution du problème, l’administrateur de mastodon.xyz a déclaré que le registraire avait ajouté le domaine à une liste de “faux positifs” pour éviter de futures suppressions. Cependant, comme le soulignent les chercheurs, “ce qui a causé l’action n’était pas un faux positif”.

“Nous avons obtenu plus de correspondances avec PhotoDNA en deux jours que probablement dans toute l’histoire de notre organisation en matière d’analyse des médias sociaux, et ce n’est même pas proche”, a déclaré David Thiel, l’un des chercheurs du rapport, dans une déclaration au Washington Post. “Beaucoup de cela est simplement le résultat de ce qui semble être un manque d’outils que les plateformes de médias sociaux centralisées utilisent pour répondre aux préoccupations en matière de sécurité des enfants.”

Alors que Mastodon et d’autres réseaux décentralisés gagnent en popularité, il est impératif de prendre en compte la sécurité des utilisateurs, en particulier celle des enfants. Il est clair que la décentralisation ne doit pas être une excuse pour permettre la propagation de contenus illégaux et ignobles.

https://www.euronews.com/next/2023/07/25/mastodon-has-child-sexual-abuse-content-problem-researchers-say

https://www.washingtonpost.com/politics/2023/07/24/twitter-rival-mastodon-rife-with-child-abuse-material-study-finds/

https://www.engadget.com/mastodons-decentralized-social-network-has-a-major-csam-problem-202519000.html?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmZyLw&guce_referrer_sig=AQAAADuWzO9uFwLtvrVWgRAUGiNnX64U6asQYNR5_WVc-rI4LEAlEOmnrJSBXmKYpgzDSs_QzPzSDtp32iekXWASci5RwE6JW4l7eq_8IrQtfgED6ay2MVZYzDUcIomikMxUTznx23mMmYznBbLwQeg0l6mor-G-te9lrAtDoe3V87d2

Total
0
Shares
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires