C’est un scénario courant dans la lutte pour identifier et défendre les enfants contre les abus sexuels :
Une plateforme de médias sociaux populaire découvre des images d’abus sexuels sur mineurs (CSAM) circulant sur son site. Son équipe signale ces fichiers au Centre national pour les enfants disparus et exploités (NCMEC), qui alerte ensuite les forces de l’ordre. Les agents examinent les données et, s’il y a suffisamment de preuves pour émettre un mandat, ils lancent une perquisition, saisissant les ordinateurs portables, les téléphones, les disques durs et d’autres appareils de l’auteur présumé.
Les policiers sont désormais confrontés à une tâche ardue : ils doivent passer au crible toutes ces preuves numériques – parfois des millions de fichiers – pour trouver des indices qui pourraient aider à identifier les enfants victimes.
Ces examens médico-légaux peuvent prendre des semaines, voire des mois. Pendant ce temps, les enfants peuvent être victimes de maltraitance. Plus vite les policiers trouveront ces indices, plus vite ils pourront mettre ces enfants hors de danger.
C’est là que le classificateur CSAM de Thorn Le classificateur joue un rôle essentiel dans l’accélération de ces enquêtes. Grâce à un apprentissage automatique de pointe, le classificateur identifie automatiquement les fichiers susceptibles d’être des CSAM et les catégorise pour les agents. En traitant davantage de fichiers plus rapidement qu’un humain seul ne pourrait le faire manuellement (souvent en quelques heures seulement), le classificateur accélère la capacité des agents à résoudre de tels cas.
Il est essentiel pour ces enquêtes de pouvoir identifier de nouveaux contenus d’abus sexuels sur mineurs (CSAM) qui existent mais qui n’ont pas encore été signalés au NCEMC et classés comme CSAM. Ces nouveaux contenus représentent souvent des enfants actuellement victimes de maltraitance et sont donc essentiels pour les soustraire à tout danger. Notre classificateur permet aux agents de trouver beaucoup plus rapidement de nouveaux contenus d’abus sexuels sur mineurs.
Les agences du monde entier utilisent le classificateur CSAM de Thorn intégré à leur logiciel de traitement médico-légal. Le temps ainsi économisé est important lorsque la vie des enfants est en jeu.
Identification des victimes d’excès de vitesse
Les informations transmises aux forces de l’ordre concernant des abus sexuels sur mineurs peuvent provenir du public, du NCMEC ou même d’une autre agence qui a mené une enquête et signalé qu’un enfant victime se trouve dans une juridiction particulière.
Aujourd’hui, lorsqu’ils examinent les fichiers des appareils saisis, les agents sont confrontés à des volumes de données bien plus importants, car la capacité de stockage sur un ordinateur moyen a augmenté de manière exponentielle au fil des ans.
Pour mettre en perspective l’ampleur des fichiers, pensez à toutes les photos et vidéos sur votre téléphone. Maintenant sur votre cloud, puis sur votre bureau, etc. Vous avez téléchargé des jeux vidéo ? Cela représente aussi des centaines d’images. Ces gigaoctets, voire téraoctets, peuvent représenter des dizaines de millions de fichiers.
Chacun de ces fichiers doit être traité, car les auteurs tentent de dissimuler les contenus pédopornographiques. Par exemple, ils peuvent les étiqueter comme des fichiers .txt pour les faire ressembler à des fichiers texte.
En utilisant le classificateur CSAM — qui examine 15 à 60 images par seconde selon le matériel et le déploiement — les agents peuvent traiter tous ces dossiers à une vitesse et à une échelle impressionnantes, changeant ainsi la donne dans ce qui était autrefois un processus manuel fastidieux.
La détection de contenus d’abus sexuels sur mineurs est essentielle à l’identification des victimes. EChaque dossier contient potentiellement une pièce manquante du puzzle permettant de localiser un enfant : un logo d’école, une affiche de concert régionale ou d’autres indices sur l’identité ou le lieu où se trouve un enfant. Tout aussi important, les images d’abus sexuels sur mineurs se trouvent souvent dans des dossiers contenant également d’autres informations et indices d’identification. Le classificateur aide les agents à trouver ces dossiers, qui peuvent contenir des informations utiles sur 10, 20 ou 100 victimes.
À partir de là, les agents peuvent prendre les mesures suivantes pour traduire l’auteur en justice et soustraire l’enfant au danger.
Retirer les auteurs de violences des rues
Les policiers disposent souvent d’un créneau limité pour détenir un suspect. Heureusement, dans de nombreuses juridictions américaines, ils n’ont besoin que d’une dizaine de fichiers CSAM pour inculper l’auteur. Trouver rapidement ces fichiers CSAM en possession du suspect peut faire la différence entre maintenir en détention un auteur potentiel et renvoyer quelqu’un chez lui pour qu’il puisse à nouveau le blesser. Le classificateur CSAM de Thorn offre aux agents cette rapidité et cette efficacité.
De plus, lorsqu’il s’agit de déterminer la peine, le volume de matériel pédopornographique qu’un suspect possède est important. En identifiant rapidement l’ampleur du matériel pédopornographique en sa possession, les agents peuvent mettre un agresseur dangereux derrière les barreaux pendant une durée considérable, réduisant ainsi le temps pendant lequel cette personne est susceptible de nuire aux enfants.
Améliorer le bien-être des agents
Le processus automatisé du classificateur CSAM a également des effets positifs en aval sur le bien-être des agents. Imaginez que vous parcourez les photos sur le téléphone d’une autre personne. Soudain, vous voyez une image horrible. L’expérience choquante vous reste en mémoire pendant un certain temps. Imaginez maintenant que vous vivez cette expérience à plusieurs reprises pendant des jours ou des semaines. Ce type d’exposition constitue un défi professionnel pour de nombreux types de premiers intervenants et est connu sous le nom de traumatisme par procuration.
Pour les policiers impliqués dans des affaires d’abus sexuels sur mineurs, cette exposition répétée est une réalité. Mais le classificateur CSAM permet de soulager cette situation en allégeant le fardeau des examens manuels. Le classificateur détecte les fichiers susceptibles d’être des fichiers CSAM à divers degrés et les catégorise. Les policiers peuvent ensuite choisir d’examiner les fichiers CSAM lorsqu’ils sont prêts.
Ce degré de contrôle sur leur propre exposition signifie beaucoup pour les enquêteurs qui traitent ce matériel au quotidien.
De plus, pendant que le classificateur travaille toute la nuit, les agents peuvent rentrer chez eux auprès de leur famille, se ressourcer et se recentrer, évitant ainsi l’épuisement mental et émotionnel.
Avantages du classificateur CSAM de Thorn
Identifie les nouveaux et CSAM non signalé auparavant
Si vous essayez de trouver du CSAM sur des appareils saisis, une technologie appelée hachage et correspondance perceptuelle est un moyen puissant d’identifier connu CSAM — matériel qui a déjà été signalé au NCMEC et identifié comme CSAM. Bon nombre de ces fichiers continuent de se propager de manière virale pendant des années, voire des décennies.
Mais nouveau Des images d’abus sexuels sur mineurs sont produites en permanence et représentent souvent des abus sexuels sur mineurs. Pour trouver ces fichiers, il faut disposer d’un outil puissant comme un classificateur. Équipés du classificateur d’images d’abus sexuels sur mineurs de Thorn, les policiers peuvent se concentrer sur la recherche de ces nouveaux éléments et identifier plus rapidement les enfants victimes d’abus physiques et continus.
Formé directement sur CSAM pour plus de précision
Chez Thorn, nous formons le modèle de notre classificateur sur de vraies images et vidéos CSAM, en partie en utilisant des données fiables provenant de la CyberTipline du NCMEC. Ces données de haute qualité augmente considérablement sa précision. La nature visuelle des abus sexuels sur mineurs diffère de la pornographie adulte, de sorte que les classificateurs qui tentent de combiner les estimations de visage et d’âge avec la pornographie adulte n’offrent pas le même niveau de détection. En fait, environ 50 % des CSAM ne contiennent aucun visage.
Utilisé dans l’industrie et les forces de l’ordre, offrant une amélioration constante
Le classificateur CSAM de Thorn est déployé dans nos solutions pour les plateformes d’hébergement de contenu ainsi que pour l’identification des victimes depuis 2020. Nous travaillons avec des clients et des partenaires de confiance au sein de ces groupes qui fournissent intentionnellement des commentaires sur les détections incorrectes ainsi que du matériel qui permet à notre équipe d’itérer sur le modèle, en élargissant les ensembles d’images sur lesquels elle s’entraîne. Cela garantit des détections de meilleure qualité pour tous les utilisateurs, accélérant le processus d’identification correcte du CSAM et des enfants qu’il contient.
Les forces de l’ordre qui sont en première ligne pour défendre les enfants contre les abus sexuels jouent un rôle noble et exigeant au sein de nos communautés, et sont souvent engagées dans une course contre la montre. Plus vite elles peuvent détecter les images d’abus sexuels sur mineurs et trouver des indices permettant d’identifier une victime mineure, plus vite elles peuvent mettre cet enfant hors de danger et mettre l’agresseur derrière les barreaux. Nous sommes fiers de développer une technologie, comme notre classificateur d’images d’abus sexuels sur mineurs, qui accélère ces efforts pour sauver des vies, ouvrant ainsi un nouveau chapitre et un avenir meilleur pour les enfants concernés.