Il semble que l’Union européenne, dans sa quête infinie de “protection”, ait décidé de jeter un coup d’œil à vos messages privés. Le règlement CSAR, surnommé “Chat Control“, est le dernier gadget à la mode pour les bureaucrates qui souhaitent garder un œil sur ce que vous dites en ligne. Et tout cela sous le prétexte de protéger les enfants des abus sexuels.
Le règlement CSAR ne se contente pas de surveiller vos messages. Il veut que les fournisseurs de services, tels que Signal, Whatsapp et même les jeux en ligne, analysent vos conversations pour détecter tout contenu “suspect“. Et par “suspect”, ils entendent tout, des images déjà identifiées comme abusives aux contenus “inconnus” qui pourraient, peut-être, éventuellement, ressembler à quelque chose de louche.
Alors, comment cela fonctionne-t-il ? Eh bien, chaque fois que vous envoyez un message, une image ou une vidéo, elle est analysée avant même d’être envoyée. Si elle correspond à quelque chose dans leur base de données, une alerte est déclenchée. Et si elle ne correspond pas ? Eh bien, ils utiliseront l’intelligence artificielle pour voir si elle “ressemble” à quelque chose de suspect. Vous voyez où je veux en venir ?
Les fournisseurs de services devront également recueillir des informations sur leurs utilisateurs. Qui utilise leur service ? Quel type de contenu est échangé ? Tout cela va à l’encontre du principe de base de la vie privée en ligne : ne pas collecter de données inutiles.
Et si vous pensez que tout cela est pour le bien des enfants, détrompez-vous. Des études ont montré que ces mesures ne sont pas efficaces pour protéger les enfants. En fait, elles pourraient même causer plus de tort que de bien. Ce sont clairement des mesures dictatoriales.
- EDRi’s position paper
- Gesellschaft für Freiheitsrechte’s findings
- Online Safety Bill discussions
- laquadrature.net