Le gouverneur de Californie, Gavin Newsom, a signé mardi trois projets de loi visant collectivement à réglementer le contenu lié aux élections généré par l’intelligence artificielle (IA).
L’AB 2655 précise qu’une « grande plateforme en ligne » doit « bloquer la publication de contenu trompeur lié aux élections en Californie ». De plus, ces plateformes devraient créer des procédures permettant aux résidents californiens de les avertir et de signaler tout contenu qui ne respecte pas la loi. Si une plateforme ne se conforme pas à cette loi, les représentants de l’État peuvent demander une injonction.
Ces trois lois s’appuient sur l’AB 730 et d’autres lois existantes. Tout d’abord, l’AB 2355 exige qu’une « publicité politique qualifiée » (publicité) inclue une mention indiquant qu’elle a été générée ou modifiée à l’aide de l’IA. Le projet de loi détaille également le formatage de la mention et définit une « publicité politique qualifiée » comme une publicité qui utilise l’IA, qui peut être prise à tort pour authentique par une « personne raisonnable » et cette personne raisonnable aurait une « compréhension fondamentalement différente » de la publicité en comparant la version IA et la version non IA.
Enfin, l’AB 2839 interdit à quiconque, tel que défini dans la loi, de « diffuser sciemment » une publicité « avec malveillance » qui a un « contenu matériellement trompeur » 120 jours avant une élection en Californie et dans des cas particuliers 60 jours après, sous réserve d’exceptions. Toute personne, telle que définie dans la loi, qui reçoit le contenu pourrait alors intenter une action civile pour demander des dommages et intérêts contre celui qui a diffusé la publicité.
En 2019, Newsom avait pris des initiatives similaires dans le projet de loi AB 730 pour réglementer les « deepfakes », un terme générique utilisé dans le langage courant pour décrire les contenus contenant des représentations fausses, trompeuses ou autrement inexactes. L’AB 730 interdisait à quiconque de diffuser des deepfakes de candidats dans les 60 jours suivant leur apparition sur un bulletin de vote. Le projet de loi permet également aux candidats victimes de deepfakes d’engager des poursuites judiciaires.
Newsom estime que l’importance de ces lois réside dans leur capacité à défendre la démocratie et à protéger les électeurs de la désinformation :
La préservation de l’intégrité des élections est essentielle à la démocratie, et il est essentiel de veiller à ce que l’IA ne soit pas utilisée pour saper la confiance du public par la désinformation, en particulier dans le climat politique tendu actuel. Ces mesures contribueront à lutter contre l’utilisation néfaste des deepfakes dans les publicités politiques et d’autres contenus, l’un des nombreux domaines dans lesquels l’État se montre proactif pour favoriser une IA transparente et digne de confiance.
Les trois députés qui ont présenté les projets de loi ont félicité Newsom pour avoir fait des progrès dans la réglementation de l’IA en approuvant leurs projets de loi. Le député Marc Berman, qui a présenté l’AB 2655, a expliqué que « l’AB 2655 est une première nationale » pour résoudre les problèmes posés par l’IA lors des élections.
Les gouvernements du monde entier mettent de plus en plus en œuvre des réglementations sur l’IA, en particulier sur l’utilisation des deepfakes, en raison des effets néfastes qu’elles ont sur la société et sur les personnes qui peuvent en être victimes. En juin 2024, l’Australie a présenté un projet de loi qui criminalise les deepfakes contenant du contenu sexuellement explicite non consensuel. En 2023, le gouvernement indien a publié un avis aux plateformes de médias sociaux concernant les deepfakes. En 2022, l’Administration du cyberespace de Chine a commencé à rédiger une réglementation sur les deepfakes.
Ces nouvelles lois californiennes interviennent à un moment particulièrement critique avec l’approche de l’élection présidentielle américaine de 2024 en novembre.