Pour les enfants d’aujourd’hui, Internet est un lieu de découverte de soi, de socialisation et d’établissement de liens significatifs en ligne. Mais ces mêmes espaces peuvent également être utilisés par de mauvais acteurs, qui les fréquentent pour cibler les enfants à des fins de manipulation et de sextorsion, et pour partager du matériel pédopornographique (CSAM).
C’est pour cette raison que les entreprises technologiques jouent un rôle clé dans la défense des enfants contre les abus sexuels.
Chez Thorn, nous donnons aux entreprises technologiques les moyens de poursuivre cette démarche. Nos solutions innovantes équipent les plateformes technologiques pour lutter contre la diffusion de contenus abusifs et mettre fin au cycle de traumatisme que provoque leur circulation.
En tant qu’experts en technologies de sécurité des enfants, nous aidons également les entreprises à comprendre leur rôle spécifique et leurs capacités à participer à l’écosystème de la sécurité des enfants.
La lutte contre le CSAM est une étape cruciale vers la création d’environnements en ligne plus sûrs et le soutien aux survivants d’abus. Notre approche multiforme permet à Thorn et à nos partenaires de plateforme de rendre Internet plus sûr et de protéger les enfants à l’échelle mondiale.
Arrêter la diffusion de matériel pédopornographique
Il peut être surprenant d’apprendre que les plateformes que nous utilisons pour communiquer avec nos amis et notre famille sont également utilisées par de mauvais acteurs pour créer et partager du matériel pédopornographique. Eux aussi forment des communautés très unies, où ils facilitent la création et le commerce de ce contenu abusif.
Qu’est-ce que le CSAM ?
Mais d’abord, qu’est-ce que le CSAM exactement ? Le matériel pédopornographique (CSAM) est légalement connu sous le nom de pédopornographie aux États-Unis et fait référence à tout contenu décrivant des activités sexuellement explicites impliquant un enfant. Les représentations visuelles comprennent des photographies, des vidéos, des diffusions en direct et des images numériques ou générées par ordinateur, y compris du contenu généré par l’IA, impossibles à distinguer d’un véritable mineur. L’émergence de l’IA générative élargit le champ d’application pour inclure les adaptations par l’IA de contenus originaux, la sexualisation d’images inoffensives d’enfants et le CSAM entièrement généré par l’IA.
En 2004, 450 000 dossiers suspects d’abus sexuels sur Internet ont été signalés aux États-Unis. En 2022, ce nombre est monté en flèche pour atteindre plus de 87 millions de dossiers. Internet rend tout simplement trop facile la production et la diffusion de ce contenu horrible.
Comment se produit la revictimisation ?
Même après qu’un enfant victime a été sauvé d’un abus actif et concret, des photos et des vidéos de ses abus circulent souvent en ligne et perpétuent le cycle du traumatisme.
Les survivants du CSAM peuvent voir leurs abus partagés des milliers et des dizaines de milliers de fois par an. Chaque fois que le contenu est partagé, la victime est à nouveau maltraitée.
Comment la technologie de Thorn arrête-t-elle le cycle des abus ?
Bien que des millions de fichiers CSAM se propagent quotidiennement, ils sont mélangés à des quantités encore plus importantes d’images et de vidéos inoffensives. Cet afflux de contenu rend l’identification des fichiers CSAM incroyablement difficile, gourmande en ressources et presque impossible pour un examen humain seul. Sans parler de l’incroyable fardeau émotionnel que l’examen de ce matériel fait peser sur les personnes qui travaillent à assurer la sécurité des communautés en ligne.
Chez Thorn, nous avons développé notre solution industrielle Safer pour stopper la propagation du CSAM. La solution technologique avancée permet aux plateformes technologiques de détecter, d’examiner et de signaler les CSAM à grande échelle.
Safer identifie les CSAM connus et précédemment signalés grâce à ses capacités de hachage et de correspondance. Il détecte également les CSAM jusqu’alors inconnus grâce à ses classificateurs prédictifs d’images et de vidéos AI/ML. Il est essentiel de trouver ce nouveau matériel d’abus : cela permet d’alerter les enquêteurs sur les situations d’abus actifs afin que les victimes puissent être soustraites à tout danger. Soutenant également ces actions, Thorn travaille actuellement sur une nouvelle technologie visant à identifier les conversations potentiellement dangereuses liées aux abus sexuels sur enfants afin de mettre fin aux préjudices avant qu’ils ne commencent. Des équipes plus sûres avec une solution proactive pour trouver des CSAM et les signaler aux autorités.
En luttant contre le CSAM sur leurs plateformes, les entreprises protègent non seulement leurs utilisateurs et leurs enfants, mais brisent également ce cycle de revictimisation.
Et l’effort collectif porte ses fruits.
Histoires de réussite
À ce jour, Thorn a aidé l’industrie technologique à détecter et à signaler pour suppression plus de 5 millions de fichiers d’abus sexuels sur des enfants sur Internet.
Les entreprises avec lesquelles nous collaborons vont des petites plateformes à certains des plus grands noms du numérique au monde.
En 2019, le site mondial d’hébergement de photos et de vidéos Flickr est devenu un client Safer et s’appuie sur nos solutions complètes de détection pour détecter les CSAM sur sa plateforme. En 2021, Flickr a déployé le classificateur d’images CSAM de Safer. Grâce au classificateur, leur équipe Confiance et sécurité a pu détecter des images CSAM jusque-là inconnues qu’elles n’auraient probablement pas découvertes autrement.
Un classificateur a conduit à la découverte de 2 000 images de CSAM non vérifiées jusqu’alors et à une enquête menée par les forces de l’ordre – au cours de laquelle un enfant a été sauvé du danger.
En 2022, Flickr a signalé 34 176 fichiers de contenu suspecté d’abus pédosexuels au Centre national pour les enfants disparus et exploités. Il s’agit de données sur lesquelles on peut agir pour identifier et soustraire les enfants victimes à tout danger.
VSCO, une application destinée aux communautés de création de photos et de vidéos, a déployé Safer en 2020. Face à l’accélération de l’utilisation abusive des contenus malveillants en ligne, l’engagement fondamental de VSCO en faveur de la sécurité l’a poussé à donner la priorité à la détection sur sa plateforme.
VSCO utilise Safer pour cibler de manière proactive les CSAM à grande échelle. L’outil accélère leurs efforts et augmente la quantité de contenu qu’ils peuvent consulter, leur permettant ainsi d’élargir leur réseau. En trois ans, ils ont signalé aux autorités 35 000 dossiers de suspicion d’abus sexuels sur Internet.
Rien qu’en 2023, Safer a détecté plus de 3 millions de fichiers CSAM sur les plateformes technologiques, ce qui a eu un impact tangible sur la vie des enfants et des survivants.
Une approche multiforme de la sécurité des enfants en ligne
La lutte contre les abus sexuels sur enfants en ligne nécessite une approche globale, impliquant la technologie, l’éducation de l’industrie, les politiques et l’engagement communautaire. Thorn travaille à chaque niveau pour créer un changement systémique et renforcer l’écosystème de la sécurité des enfants.
La sécurité dès la conception
Dans l’industrie technologique, tout le monde, des développeurs d’IA aux plateformes d’hébergement de données, en passant par les applications de médias sociaux et les moteurs de recherche, chacun recoupe d’une manière ou d’une autre la sécurité des enfants. Thorn les aide à comprendre les menaces qui peuvent survenir sur leurs plateformes et comment les atténuer.
L’émergence de l’IA générative n’a fait qu’accélérer la propagation du CSAM. Thorn exhorte les entreprises à adopter une approche Safety-by-Design, qui nécessite que des mesures de sécurité soient intégrées dans la conception fondamentale des technologies.
À mesure que les technologies d’IA continuent de progresser, Thorn travaille avec des plateformes pour garantir que la sécurité des enfants reste au premier plan.
Des services de consultation
Thorn aide les plateformes à résoudre ces problèmes grâce à nos services de conseil en matière de sécurité des enfants. Thorn guide les plateformes dans l’élaboration de politiques de sécurité des enfants et de stratégies d’intervention et de prévention sur la plateforme. Nous aidons même les équipes à identifier les vulnérabilités des produits en cas d’utilisation abusive et d’activités malveillantes.
Campagnes de prévention
En plus de fournir son expertise à l’industrie technologique, Thorn travaille avec des plateformes en ligne pour développer des campagnes de prévention spécifiques au CSAM et des ressources éducatives comarquées pour les jeunes en partenariat avec notre programme NoFiltr et le Youth Innovation Council. Les plateformes peuvent également obtenir des perspectives uniques de jeunes sur les mesures de sécurité de leur plateforme grâce aux ateliers personnalisés du NoFiltr Youth Innovation Council.
Créer ensemble un Internet plus sûr
Chez Thorn, nous développons des technologies pour défendre les enfants contre les abus sexuels. Mais nous ne sommes qu’une pièce du puzzle, aux côtés de l’industrie technologique, des décideurs politiques et du public.
Lorsque nous travaillons ensemble, nous pouvons lutter contre la propagation du CSAM. Ce faisant, nous mettrons fin à la revictimisation et commencerons à construire un monde où chaque enfant est libre d’être simplement un enfant.
Rejoignez-nous
Devenez une force du bien. En savoir plus sur Les solutions de Thorn et comment vous pouvez contribuer à faire d’Internet un endroit plus sûr pour les enfants.
Voir nos solutions