Alors que nous nous tournons vers 2024, je prends le temps de réfléchir aux progrès significatifs réalisés par Thorn cette année dans notre mission vitale consistant à défendre les enfants contre les abus sexuels.
L’urgence de notre mission atteint un niveau sans précédent. Nos recherches montrent qu’une majorité de jeunes considèrent comme courante la probabilité que des adultes tentent de se lier d’amitié et de manipuler un mineur en ligne (c’est-à-dire le toilettage). Dans Rapport CyberTipline 2022 du NCMECnous avons constaté une augmentation spectaculaire de l’incitation en ligne d’enfants à des actes sexuels (de 37 872 en 2020 à 80 524 en 2022) ainsi que du volume de matériels suspectés d’abus sexuels sur enfants (CSAM) signalés au NCMEC (de 20 millions en 2017 à 88 millions). millions en 2022).
Nous avons tous un rôle à jouer dans la création d’un monde où chaque enfant peut simplement être un enfant. Et c’est pourquoi Thorn poursuit notre travail, jour après jour – et pourquoi nous ne nous arrêterons pas tant que nous n’aurons pas atteint ce monde ensemble.
Voici quelques-uns des thèmes clés auxquels je pense à l’approche de 2024 :
Nous devons continuer à intégrer la sécurité dès la conception dans les nouvelles technologies
En tant qu’organisation à but non lucratif qui développe des technologies, nous gardons une longueur d’avance sur les technologies émergentes, à la fois pour comprendre les risques qu’elles posent et pour déterminer comment elles peuvent être exploitées à bon escient.
Les contenus pédopornographiques générés par l’intelligence artificielle (AIG-CSAM) restent une priorité. Notre position est la suivante l’heure est désormais à la sécurité dès la conception, et les entreprises d’IA doit ouvrir la voie pour garantir la protection des enfants à mesure que la technologie de l’IA générative est non seulement construite, mais devient également plus sophistiquée. Notre responsable de la science des données, Dr Rebecca Portnoff, en a partagé davantage dans Le New York Times cette année.
La collaboration sera cruciale pour faire face à cette menace. Notre rapport robuste, ML génératif et CSAM : implications et atténuations, co-écrit avec nos partenaires du Stanford Internet Observatory, explore les défis que pose l’IA en matière d’exploitation sexuelle des enfants. Ce rapport continuera d’être mis à jour et nous fournira davantage d’informations sur les futures menaces liées à l’IA.
De plus, la branche conseil de Thorn a travaillé dur pour diriger Séances d’équipe rouge avec des entreprises d’IA pour aider à mettre en œuvre un élément essentiel de la sécurité dès la conception. Les sessions d’équipe rouge de Thorn sont conçues pour tester les produits d’IA générative et identifier les lacunes en matière de sécurité des enfants, les considérations extrêmes et les conséquences involontaires liées à l’abus et à l’exploitation sexuels d’enfants. Les entreprises qui ont travaillé avec Thorn ont pu améliorer la sécurité et l’efficacité de leurs modèles pour gérer le risque d’exploitation sexuelle des enfants et de CSAM, et pour réduire et prévenir les réponses dangereuses de l’IA.
Nous devons équiper davantage de plates-formes pour détecter les CSAM
Toutes les plateformes d’hébergement de contenu doit détecter de manière proactive les CSAM. Derrière chaque fichier CSAM se cache un véritable enfant ; ceux qui n’ont pas encore été retrouvés sont victimes d’abus actifs, tandis que les survivants sont revictimisés par la circulation de leur contenu.
Plus sûr, notre solution tout-en-un pour la détection des CSAM, utilise une technologie d’IA avancée pour détecter, examiner et signaler les CSAM à grande échelle. À ce jour, Safer a trouvé plus de 2,8 millions de fichiers CSAM potentiels. Maintenant, Un essentiel plus sûr peut atteindre un niveau égal plus large public avec une configuration plus rapide qui nécessite moins de ressources d’ingénierie.
L’année prochaine, Thorn continuera à développer des technologies innovantes pour aider les plateformes à faire progresser la sécurité des enfants. Nous avons hâte de partager ce travail avec vous.
Nous devons faire face aux menaces qui pèsent sur la sécurité des enfants grâce à la recherche et aux ressources
La sextorsion, le toilettage et les matériels d’abus sexuels sur enfants auto-générés (SG-CSAM) continuent de présenter des risques considérables pour la sécurité des enfants.
Notre original recherche aide notre équipe et nos partenaires de l’écosystème de la sécurité des enfants à obtenir des informations significatives sur les perspectives des jeunes – de la part des enfants eux-mêmes. En 2024, nous avons prévu de nouveaux projets de recherche perspicaces pour approfondir encore plus les problèmes changeants auxquels sont confrontés les jeunes.
Nos programmes de prévention doter les jeunes et leurs soignants de ressources de sécurité numérique. Aucun filtre, notre programme axé sur les jeunes, réduit la stigmatisation et suscite un dialogue ouvert entre les jeunes tout en fournissant des connaissances applicables en matière de sécurité et des messages de soutien. Et par l’intermédiaire du Youth Innovation Council, nous travaillons en partenariat avec des jeunes qui conseiller les plateformes et parler publiquement pour construire l’Internet qu’ils méritent. Avec Épine pour les parentsnous fournissons aux soignants des connaissances, des outils et des conseils adaptés à leur âge pour avoir des conversations sans jugement avec leurs enfants.
Nous devons façonner la politique et la législation
Thorn participe régulièrement à des discussions législatives entre législateurs, experts et survivants. Pour créer un véritable changement, nous devons plaider en faveur d’une politique efficace – non seulement aux États-Unis mais à l’échelle mondiale – car les abus sexuels sur enfants ne connaissent pas de frontières.
Les victoires récentes incluent le Loi britannique sur la sécurité en ligne qui a été récemment promulguée et le Chaque image compte campagne visant à détecter, signaler et supprimer les contenus CSAM dans l’UE.
Plaider en faveur de politiques efficaces est essentiel pour atteindre notre objectif d’éradiquer l’exploitation sexuelle et pédopornographique.
Nous devons bâtir une communauté de soutien philanthropique
Notre généreuse communauté de donateurs rend notre travail possible. J’espère que vous considérerez nous soutenir pour nous aider à progresser vers notre mission pour les années à venir.
Ensemble, nous changeons la façon dont le monde réagit aux abus sexuels sur enfants. Merci de vous engager à construire un monde où chaque enfant peut être en sécurité, curieux et heureux.
—Julie