Il y a 12 ans ce mois-ci, Thorn s’est fixé un objectif audacieux : développer une technologie pour lutter contre les abus sexuels et l’exploitation des enfants. C’était un objectif ambitieux, mais nous le savions essentiel. Le paysage numérique a depuis évolué rapidement, présentant des menaces nouvelles et complexes qui étaient inimaginables au départ.
Au début de ce voyage, nous n’aurions jamais pu imaginer à quelle vitesse le paysage numérique évoluerait et façonnerait radicalement l’expérience de l’enfant. Nous n’aurions pas pu imaginer la myriade de menaces nouvelles et complexes qui pèseraient sur les enfants au cours des 12 prochaines années.
Qui aurait pu prédire, par exemple, un monde où les Du matériel d’abus sexuel d’enfants généré par l’IA serait créé et commencerait à se diffuser? Ou celui dans lequel Des réseaux du crime organisé exploitent des enfants en ligne à grande échelle ?
Cela semble intimidant, et souvent, est – mais avec votre soutien, nous ripostons. Voici un aperçu de la façon dont nous avons fait cela au cours de notre 12e année :
Lancer un mouvement pour lutter contre l’utilisation abusive de l’IA générative pour nuire aux enfants
Cette année, nous et nos partenaires d’All Tech Is Human avons lancé notre initiative révolutionnaire Safety By Design. – un effort qui rassemble certains des leaders mondiaux de l’IA les plus influents pour prendre un engagement sans précédent en faveur de la protection des enfants contre l’utilisation abusive des technologies d’IA générative.
Dans le cadre du projet, Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI, OpenAI et Stability AI se sont engagés à adopter les principes de Safety by Design pour se prémunir contre la création et la propagation d’abus sexuels sur enfants générés par l’IA. matériel informatique (AIG-CSAM) et autres préjudices sexuels contre des enfants.
Les entreprises ont convenu de publier et de partager de manière transparente la documentation de leurs progrès.n mettant en œuvre ces principes, et nous avons commencé à partager ces rapports de transparence à une cadence régulière.
En intégrant les principes de la sécurité dès la conception dans leurs technologies et produits d’IA générative, ces entreprises protègent non seulement les enfants, mais mènent également la charge en matière d’innovation éthique en matière d’IA. Et, avec une vague de nouvelles menaces contre les enfants facilitées par l’IA, les engagements n’arrivent pas trop tôt.
Approfondir nos connaissances sur les menaces urgentes qui pèsent sur les enfants
Avec autant d’enfants qui grandissent en ligne – nouant des amitiés, jouant à des jeux et se connectant les uns aux autres – nous devons reconnaître à la fois les avantages et les risques très réels de l’ère numérique pour les enfants.En comprenant les menaces auxquelles les enfants sont confrontés en ligne, nous pouvons développer des systèmes pour les protéger contre les méfaits introduits par les progrès rapides des technologies.C’est pourquoi nous continuons à mener et à partager des recherches originales qui génèrent des solutions de sécurité pour les enfants, éclairent la technologie que nous construisons et équipons tout le monde qui a intérêt à protéger les enfants grâce aux connaissances puissantes dont ils ont besoin pour apporter des changements éclairés et tangibles.
Cette année, nous avons publié deux études clés :
Rapport de sextorsion financière : En collaboration avec le Centre national pour les enfants disparus et exploités (NCMEC), nous avons étudié l’augmentation de la sextorsion financière ciblant les adolescents, révélant que 812 rapports hebdomadaires sont déposés auprès du NCMEC, la plupart impliquant des demandes financières.Rapport de suivi des jeunes : Notre rapport annuel s’étend désormais sur cinq ans, suivant les comportements des jeunes et mettant en évidence les risques émergents, tels que l’utilisation croissante de la technologie deepfake par les mineurs.
Ces études ont été largement couvertes par les médias et utilisé par nos partenaires, contribuant ainsi à sensibiliser et à éclairer les stratégies conçues pour défendre les enfants à travers l’écosystème.
Mettre notre technologie entre les mains d’un plus grand nombre d’enquêteurs
Dans la lutte contre les abus sexuels sur enfants, les forces de l’ordre sont confrontées à des défis de taille, dont le moindre n’est pas la tâche écrasante de passer au crible les preuves numériques.
Obtenir une technologie comme notre classificateur CSAM entre les mains du plus grand nombre possible d’organismes chargés de l’application des lois est essentiel. Pour nous aider, Thorn a annoncé cette année notre partenariat avec Griffeye, le leader mondial basé en Suède en matière d’investigation des médias numériques pour les enquêtes sur les abus sexuels sur enfants. Désormais, le classificateur CSAM de Thorn est disponible directement dans Griffeye Analyse, une plateforme utilisée comme base d’attache par les forces de l’ordre du monde entier. Grâce à ce partenariat, nous élargissons notre impact en fournissant aux forces de l’ordre de meilleurs outils qui créent un front plus fort, plus unifié et plus résilient contre les abus sexuels sur enfants.
Créer une technologie pour détecter l’exploitation sexuelle des enfants dans les conversations textuelles en ligne
Cette année, Thorn a lancé une avancée révolutionnaire dans notre mission de protection des enfants en ligne : Safer Predict.
En tirant parti de modèles d’apprentissage automatique de pointe, Safer Predict permet désormais aux plateformes d’élargir leur réseau pour la détection du CSAM et de l’exploitation sexuelle des enfants, identifier les préjudices basés sur le texte, y compris les discussions sur la sextorsion, les CSAM auto-générés et l’exploitation potentielle hors ligne, et faire évoluer efficacement les capacités de détection. En tirant parti de l’IA à bon escient, cette nouvelle technologie améliore notre capacité à défendre les enfants contre les abus sexuels en détectant les conversations nuisibles et l’exploitation sexuelle potentielle.
Élargir nos efforts de protection auprès des entreprises technologiques
Cette année, nous avons élargi notre base de détection en nous associant à davantage d’entreprises technologiques engagées à nos côtés dans la lutte contre l’exploitation sexuelle des enfants. L’adoption de notre technologie sur encore plus de plateformes permet une détection plus rapide et plus précise des contenus nuisibles. Ces collaborations amplifient non seulement notre impact, mais créent également une défense collective plus forte contre les menaces évolutives auxquelles les enfants sont confrontés chaque jour dans leur vie en ligne.
Regarder vers l’avenir
Alors que nous célébrons 12 années d’innovation technologique pour la sécurité des enfants, nous sommes enthousiasmés par ce qui nous attend. L’année prochaine, nous visons à exploiter encore plus ce pouvoir collectif, en faisant progresser notre technologie et en donnant à davantage de partenaires les moyens de protéger les enfants. Mais pour y parvenir, nous devons exploiter le pouvoir et la générosité de ceux qui croient en notre mission. Avec vous à nos côtés, nous sommes convaincus qu’ensemble, nous pouvons protéger encore plus d’enfants et construire un monde numérique plus sûr pour tous. Vous souhaitez soutenir Thorn ? Faites un don maintenant pour nous aider à faire encore plus pour protéger les enfants au cours de l’année à venir.