[ad_1]
L’essor du CSAM généré par l’IA
L’augmentation rapide du matériel pédopornographique généré par l’IA (CSAM) représente l’une des menaces les plus urgentes et les plus évolutives auxquelles sont confrontés les enfants aujourd’hui. Rien qu’au cours de l’année écoulée, il y a eu une forte augmentation du recours par les délinquants à l’IA générative pour créer des contenus abusifs réalistes. Au cours du premier semestre 2025, les rapports au NCMEC sur les CSAM générés par l’IA ont grimpé à 440 419, contre 6 835 en 2024. Les recherches de Thorn montrent qu’un adolescent sur huit déclare connaître personnellement quelqu’un ciblé par une image deepfake générée par l’IA.
Nos recherches montrent que le CSAM généré par l’IA a déjà un impact sur de vrais enfants et met à rude épreuve les systèmes conçus pour les protéger. La loi ENFORCE aligne la loi fédérale sur la réalité à laquelle nous sommes témoins chaque jour : les abus créés avec l’IA restent des abus et doivent être traités comme tels. Nous avons besoin d’outils clairs et cohérents pour responsabiliser les délinquants, et ce projet de loi le prévoit.
— Melissa Stroebel, vice-présidente de la recherche et de l’impact stratégique chez Thorn
Alors que la loi fédérale rend déjà illégales les CSAM générées par l’IA, les lois existantes et les conséquences collatérales permettent des responsabilités incohérentes, et les procureurs ne disposent pas toujours de l’ensemble complet des outils dont ils ont besoin pour obtenir justice.
À retenir : La loi ENFORCE de 2025 vise à combler les lacunes statutaires existantes en modernisant la loi fédérale et en garantissant des sanctions sévères et cohérentes pour les infractions CSAM impliquant l’IA.
Quel est l’état actuel de la loi fédérale sur le CSAM généré par l’IA ?
Le CSAM généré par l’IA est illégal au niveau fédéral. Les contrevenants sont poursuivis pour des crimes impliquant la production, la possession ou la distribution de CSAM générés par l’IA.. Cependant, des lacunes subsistent quant à la manière exacte dont les contrevenants sont pénalisés. Si une image représente un enfant réel, modifié ou non avec l’IA, elle est poursuivie en vertu des lois fédérales CSAM. Si une image est entièrement générée à l’aide de l’IA, sans représenter un véritable enfant, elle est poursuivie en vertu des lois fédérales sur l’obscénité. Selon la loi en vertu de laquelle un délinquant est inculpé, les sanctions qui en résultent peuvent différer considérablement, créant des incohérences entre les lignes directrices en matière de détermination de la peine, les exigences de surveillance et d’autres mesures de responsabilisation cruciales.
Le Loi de 2025 renforçant les infractions fédérales nécessaires concernant l’exploitation des enfants (ENFORCE) comblerait ces lacunes. En modernisant les lois fédérales et en renforçant les exigences en matière de détermination de la peine, le projet de loi garantit que les contrevenants qui commettent des crimes impliquant du CSAM généré par l’IA seront confrontés à des conséquences graves et cohérentes, quelle que soit la manière dont leur affaire est inculpée.
Dispositions clés de la loi ENFORCE
Mettre à jour le texte statutaire sur la production de CSAM modifié par l’IA :
La loi ENFORCE mettrait à jour les lois fédérales pour clarifier que les contrevenants peuvent être poursuivis pour avoir produit du CSAM modifié par l’IA, qu’ils aient ou non l’intention de distribuer le matériel. Nous savons que tous les délinquants ne créent pas du CSAM modifié par l’IA pour d’autres, et cette mise à jour aligne les sanctions liées à la production de CSAM modifiés par l’IA sur celles du CSAM authentique, en reconnaissant les risques et les préjudices parallèles.
Des peines cohérentes pour tous les délinquants CSAM de la génération AI
La loi ENFORCE mettrait à jour les lois fédérales sur l’obscénité pour garantir que tous les délinquants CSAM qui utilisent l’IA pour créer ou modifier du matériel abusif soient confrontés aux mêmes sanctions, quelle que soit la loi en vertu de laquelle ils sont inculpés. Cela inclut la présomption de détention provisoire, le registre obligatoire des délinquants sexuels, la libération surveillée obligatoire après la détention et l’absence de prescription. Ces mises à jour garantiront que tous les contrevenants feront face à des conséquences graves et cohérentes.
Protégez les CSAM générés par l’IA dans le cadre de procédures judiciaires
La loi ENFORCE garantirait que les CSAM générés par l’IA soient protégés tout comme les CSAM authentiques le sont dans les procédures judiciaires – ce qui est essentiel pour protéger la vie privée et la sécurité des victimes.
La loi ENFORCE garantit que les contrevenants qui produisent du contenu obscène impliquant des mineurs, que ce soit par le biais de deepfakes ou d’IA générative, soient finalement tenus responsables de la même manière que ceux poursuivis en vertu des lois existantes sur les abus sexuels sur enfants. Nos lois doivent refléter la réalité selon laquelle les abus numériques causent un préjudice réel. Ce projet de loi donne aux procureurs les outils dont ils ont besoin, notamment l’enregistrement obligatoire des délinquants sexuels, pour réagir efficacement et poursuivre ces crimes avec toute la gravité qu’ils exigent.
— Jennifer Dunton, directrice des affaires législatives chez RAVEN
Quelle est la prochaine étape pour la loi ENFORCE ?
La loi ENFORCE a été présentée à la Chambre des représentants des États-Unis le 1er août 2025 et au Sénat américain le 23 octobre 2025. Nous remercions les parrains de cette législation – le sénateur John Cornyn, le sénateur Richard Blumenthal, le sénateur Mike Lee, le sénateur John Kennedy, la représentante Ann Wagner, le représentant Jeff Van Drew et le représentant Steve Cohen – pour leur travail important visant à faire face à la menace croissante du CSAM généré par l’IA.
Alors que l’IA accélère la production et la diffusion de matériels pédopornographiques, notre système juridique doit suivre le rythme. La montée du CSAM généré par l’IA nuit aujourd’hui aux enfants ; ce n’est pas une menace lointaine. La loi ENFORCE représente une étape cruciale pour relever ce défi. Thorn est fier de soutenir cette législation aux côtés de RAVEN, de la National Children’s Alliance, de la Child Rescue Coalition, du Rape, Abuse & Incest National Network (RAINN), du National Center for Missing & Exploited Children (NCMEC), Rights 4 Girls et de la National District Attorneys Association (NDAA). Nous devons désormais agir de toute urgence pour garantir que ces protections deviennent une loi.
[ad_2]
Source link
