card crime

[ad_1]

Les abus sexuels et l’exploitation des enfants représentent les défis les plus urgents de la sécurité des enfants de notre âge numérique. Du toilettage et de la sextorsion à la production et au partage de matériel d’abus sexuel d’enfants (CSAM), ces menaces interdépendantes créent des dommages complexes pour les enfants du monde entier. Derrière chaque instance d’exploitation se trouve un enfant subissant un traumatisme qui peut avoir des impacts durables. Au fur et à mesure que la technologie évolue, les méthodes utilisent également pour exploiter les enfants – en créant un environnement où les efforts de protection doivent constamment s’adapter et évoluer.

Le défi est immense:

Rien qu’en 2024, plus de 100 dossiers de matériel d’abus sexuel pour enfants ont été signalés chaque minute.En 2023, 812 rapports d’extorsion sexuelle ont été soumis en moyenne par semaine à NCMEC.Le NCMEC a connu une augmentation de 192% des rapports d’attractions en ligne entre 2023 et 2024.

Ces chiffres montrent que les documents d’abus ne représentent qu’une seule facette d’un paysage plus large de maltraitance. Les enfants sont confrontés à un toilettage, à la sextorsion, à des fesses profondes et à d’autres formes d’exploitation nocive. Lorsque ces menaces ne sont pas détectées, les enfants restent vulnérables à l’exploitation continue et les auteurs continuent de fonctionner en toute impunité.

Innovation technique: un pilier de base de la stratégie de Thorn

L’innovation technique représente l’un des quatre piliers de la sécurité des enfants de Thorn, servant de base technologique qui permet à tous nos outils de protection de l’enfance. En développant des solutions de pointe grâce à un processus itératif de solution de problèmes, nous construisons des technologies évolutives qui s’intègrent et améliorons nos autres piliers stratégiques:

Notre Recherche et perspectives Donnez-nous une visibilité précoce aux menaces émergentes, afin que nous puissions rapidement fournir une réponse technologique.Notre Identification des victimes de l’enfant Les outils aident les enquêteurs à trouver plus rapidement des enfants qui sont abusés sexuellement, protégeant les enfants contre les abus actifs.Notre Sécurité des plates-formes Les solutions permettent aux plateformes technologiques de détecter et d’empêcher l’exploitation à grande échelle.

Cette approche globale garantit que nos innovations techniques n’existent pas isolément mais travaillent de concert avec nos autres initiatives pour créer un filet de sécurité robuste pour les enfants en ligne.

Un puissant exemple de nos recherches et des idées traduites en innovation technique est le développement de Hachage vidéo sensible à la scène (SSVH). Thorn a identifié que le CSAM basé sur la vidéo devenait une forme de plus en plus répandue et sophistiquée de matériel d’abus. Les outils de détection existants se sont principalement concentrés sur le traitement efficace du matériel d’image, représentant une lacune critique dans l’écosystème de la sécurité des enfants. En réponse, notre équipe d’innovation technique a développé l’un des premiers algorithmes de hachage vidéo et de correspondance adaptés spécifiquement à la détection du CSAM. SSVH utilise le hachage perceptuel pour identifier les scènes visuellement uniques dans les vidéos, permettant à notre classificateur d’image CSAM pour marquer la probabilité de chaque scène contenant du matériel d’abus. La collection de hachages de scène CSAM constitue le hachage de la vidéo. Cette technologie révolutionnaire a depuis été déployée via nos outils de sécurité de la plate-forme depuis 2020.

La technologie derrière la protection de l’enfance

Comme vous pouvez l’imaginer, le volume pur de matériel d’abus sexuel des enfants et les messages d’exploitation l’emporte de loin sur ce que les modérateurs humains pourraient jamais revoir. Alors, comment résolvons-nous ce problème? En développant des technologies qui servent de force pour le bien:

Systèmes de détection CSAM avancésNos classificateurs d’apprentissage automatique peuvent trouver de nouvelles images et vidéos d’abus inconnues. Nos solutions de hachage et de correspondance peuvent trouver du CSAM d’image et de vidéo connu. Ces technologies sont utilisées pour hiérarchiser et triage sur le matériel d’abus, qui peut accélérer le travail pour identifier les enfants actuellement maltraités et lutter contre la revictimisation.Détection d’exploitation textuelleAu-delà des images et des vidéos, notre technologie identifie les conversations textuelles liées au CSAM, à la sextorsion et à d’autres dommages sexuels contre les enfants. La détection de ces conversations nuisibles crée des opportunités d’intervention précoce avant l’exploitation dégénère.Prévention des menaces émergentesNos équipes techniques développent des solutions prospectives pour relever de nouveaux défis, notamment le CSAM généré par l’IA, les tactiques de toilettage en évolution et les programmes de sextorsion qui ciblent les enfants.

Qu’est-ce qu’un classificateur exactement?

Classificateurs sont des algorithmes qui utilisent automatiquement l’apprentissage automatique pour trier automatiquement les données dans les catégories.

Par exemple, lorsqu’un e-mail va à votre dossier de spam, il y a un classificateur au travail.

Il a été formé sur les données pour déterminer quels e-mails sont le plus susceptibles d’être spam et lesquels ne le sont pas. Comme il est nourri plus de ces e-mails et que les utilisateurs continuent de dire si c’est bien ou mal, il devient de mieux en mieux pour les trier. La puissance de ces classificateurs déverrouille est la possibilité d’étiqueter de nouvelles données en utilisant ce qu’elle a appris des données historiques – dans ce cas, pour prédire si les nouveaux e-mails sont susceptibles d’être spam.

La classification d’apprentissage automatique de Thorn peut trouver du CSAM nouveau ou inconnu dans les images et les vidéos, ainsi que l’exploitation sexuelle des enfants basée sur le texte (CSE).

Ces technologies sont ensuite déployées dans l’identification des victimes d’enfants et les outils de sécurité des plateformes pour protéger les enfants à grande échelle. Cela en fait un élément puissant du filet de sécurité numérique qui protège les enfants contre les abus sexuels et l’exploitation.

Voici comment différents partenaires de l’écosystème de la protection de l’enfance utilisent cette technologie:

Application de la loi Peut identifier les victimes plus rapidement car le classificateur élève des images et des vidéos CSAM inconnues lors des enquêtes. Plates-formes technologiques Peut étendre les capacités de détection et mettre à l’échelle la découverte de CSAM auparavant invisible ou non déclaré. Ils peuvent également détecter des conversations textuelles qui indiquent des abus sexuels suspects ou en cours sur les enfants.

CSAMClassifier Blog Safer2024Impact Detected

Qu’est-ce que le hachage et la correspondance?

Hachage et assortiment représente l’une des technologies les plus fondamentales et les plus percutantes de la protection de l’enfance. À la base, le hachage convertit le CSAM connu en une empreinte digitale numérique unique – une chaîne de nombres générés par un algorithme. Ces hachages sont ensuite comparés à des bases de données complètes de CSAM connu sans jamais exposer le contenu réel aux examinateurs humains. Lorsque nos systèmes détectent une correspondance, le matériau nocif peut être immédiatement signalé pour le retrait.

Grâce à notre produit plus sûr, nous avons déployé une grande base de données de hachages vérifiés – 76,6 millions et de croissance – permettant à nos clients de jeter un large filet pour la détection. Rien qu’en 2024, nous avons traité plus de 112,3 milliards d’images et de vidéos, aidant les clients à identifier 4 162 256 fichiers de CSAM suspecté à retirer de la circulation.

Comment la technologie de la sécurité des enfants aide-t-elle?

Le nouveau CSAM peut représenter un enfant qui est activement maltraité. Les auteurs marié et sextort enfants en temps réel via la conversation. L’utilisation de classificateurs peut aider à réduire considérablement le temps nécessaire pour trouver une victime et les retirer du préjudice, et des algorithmes de hachage et de correspondance peuvent être utilisés pour signaler les matériaux connus pour l’élimination pour empêcher la revictimisation.

Cependant, trouver ces indicateurs d’image, de vidéo et de texte des abus sexuels et de la réactivation des enfants imminents et en cours repose souvent sur des processus manuels qui accordent le fardeau aux examinateurs humains ou aux rapports d’utilisateurs. Pour le mettre en perspective, vous auriez besoin d’une équipe de Des centaines de personnes avec des heures illimitées Pour réaliser ce qu’un classificateur peut faire grâce à l’automatisation.

Tout comme la technologie que nous utilisons tous, les outils des auteurs déploient des modifications et des évolutions. L’innovation technique de Thorn est informée par nos recherches et nos idées, ce qui nous aide à répondre à de nouvelles menaces émergentes comme le toilettage, la sextorsion et le CSAM généré par l’AI.

Une réussite Flickr

Site d’hébergement d’image et de vidéo populaire Flickr Utilise le classificateur CSAM de Thorn pour aider leurs critiques à trier la montagne de nouveaux contenus qui se téléchargent chaque jour sur leur site.

En tant que responsable de Flickr en matière de confiance et de sécurité, Jace Pomales, l’a résumé: «Nous n’avons pas un million de corps à lancer sur ce problème, donc avoir le bon outil est vraiment important pour nous.»

Un récent classificateur a conduit à la découverte de 2 000 images précédemment inconnues de CSAM. Une fois signalé à Ncmecles forces de l’ordre ont mené une enquête, et Un enfant a été sauvé des abus actifs. C’est le pouvoir de cette technologie qui change la vie.

La technologie doit être une force pour de bon si nous voulons rester en avance sur les menaces auxquelles les enfants sont confrontés dans un monde numérique. Nos produits adoptent la technologie de pointe pour transformer la façon dont les enfants sont protégés contre les abus sexuels et l’exploitation. C’est à cause de nos généreux supporters et donateurs que notre travail est possible.

Si vous travaillez dans l’industrie de la technologie et que vous souhaitez utiliser plus sûr et le classificateur CSAM pour votre plateforme en ligne, veuillez contacter info@safer.io. Si vous travaillez dans l’application des lois, vous pouvez contacter info@thorn.org ou remplir Cette application.

[ad_2]

Source link