Peu d’innovations technologiques récentes ont suscité le large éventail d’émotions dans les conversations sociales en tant que catégorie naissante d’outils d’intelligence artificielle (IA) générative. Selon la personne à qui vous posez la question, l’IA générative représente soit une percée passionnante dans la créativité humaine, soit un nouveau monde terrifiant de deepfakes devenus fous, ou les deux.
Après avoir repéré l’industrie technologique avec une longueur d’avance depuis le lancement de ChatGPT – le premier outil d’IA générative disponible dans le commerce – en novembre 2022, les législateurs et régulateurs américains sont rapidement entrés dans la mêlée avec diverses tentatives pour maîtriser cette technologie révolutionnaire.
Et comme c’est souvent le cas, les gouvernements des États et locaux progressent beaucoup plus rapidement et obtiennent de meilleurs résultats que le gouvernement fédéral.
« Les inquiétudes concernant une utilisation abusive potentielle ou des conséquences involontaires de l’IA ont incité à examiner et à élaborer des normes », a rapporté la Conférence nationale des législatures des États (NCSL). “Les législateurs des États examinent les avantages et les défis de l’IA : un nombre croissant de mesures sont introduites pour étudier l’impact de l’IA ou des algorithmes et les rôles potentiels des décideurs politiques.”
En fait, plus des deux tiers des États ont désormais introduit ou adopté des projets de loi visant à résoudre les problèmes de gouvernance ou d’éthique de l’IA depuis le début de 2023, selon la base de données de suivi législatif LexisNexis® State Net®.
Compte tenu de la croissance et de la transformation rapides des applications d’IA générative, il est certain que cette première législation n’est que la pointe de l’iceberg. Pour les professionnels chargés de superviser la conformité des entreprises, il s’agit probablement de la nouvelle frontière de la surveillance législative et de la conformité réglementaire.
Thèmes législatifs
Le State Net Capitol Journal™ rapporte que la plupart des mesures introduites à ce jour par les législateurs des États impliquent la création de groupes de travail ou d’agences gouvernementales pour superviser la manière dont les technologies d’IA sont déployées dans leurs États, tandis que d’autres s’efforcent d’imposer immédiatement des conditions réglementaires spécifiques.
Par exemple, un projet de loi intéressant dans le Massachusetts vise directement ChatGPT et des modèles d’IA générative similaires avec un certain nombre de garde-fous proposés pour restreindre la technologie à mesure qu’elle se développe. Une mesure californienne obligerait les déployeurs de produits d’IA à effectuer des évaluations d’impact annuelles sur tous les outils d’IA qu’ils créent ou utilisent.
Voici quelques-uns des principaux sujets que les législateurs des États ciblent avec leurs projets de loi liés à l’IA en 2023, sur la base de l’analyse du NCSL :
Utilisation et surveillance gouvernementales
Un projet de loi de l’Arizona établirait un système automatisé de notification des victimes de crimes par les forces de l’ordre qui exploite la technologie de l’IA conversationnelle. Une proposition californienne nécessiterait un examen et un inventaire interinstitutions de tous les systèmes de décision automatisés à haut risque qui utilisent l’IA. Un projet de loi de Pennsylvanie établirait un registre des entreprises exploitant des systèmes d’IA dans l’État et confierait aux régulateurs la surveillance de l’industrie.
Emploi
Une proposition du Massachusetts a pour objectif noble de « prévenir un environnement de travail dystopique » en réglementant l’utilisation de l’IA sur le lieu de travail. Dans le Maryland, un projet de loi établirait un programme de subventions technologiques pour fournir une aide financière aux petites et moyennes entreprises manufacturières cherchant à tirer parti des technologies de l’IA. Une proposition en Caroline du Nord vise à documenter l’impact de l’IA et de l’automatisation sur la main-d’œuvre de l’État.
Services de santé
Un projet de loi dans le Maine concerne le personnel des établissements de santé en interdisant l’utilisation de l’IA pour surveiller les patients. Une proposition géorgienne vise à réglementer l’utilisation des appareils et équipements d’IA dans les soins de la vue. Un autre projet de loi du Massachusetts propose de réglementer l’utilisation de l’IA dans la fourniture de services de santé mentale ; un projet de loi similaire a été présenté au Texas. Il s’agit d’un domaine important à surveiller alors que les régulateurs des États s’efforcent de garantir que les droits à la vie privée et les protocoles de traitement des patients sont protégés dans le contexte de l’expansion des soins de santé mentale basés sur l’IA.
Contenu explicite
La législation proposée au Texas cible l’utilisation de l’IA dans la création de « matériel visuel intime » représentant une autre personne. Un projet de loi du Minnesota érigerait en infraction la diffusion d’images sexuelles « profondément fausses » sans le consentement de la personne représentée et établirait une cause d’action pour les personnes lésées.
Transparence
Un certain nombre de mesures ont été introduites qui exigeraient la divulgation de l’utilisation de l’IA dans des contenus tels que : les images/vidéos affichées publiquement (Illinois) ; publicité (New York) ; médias sociaux (Illinois) ; et campagnes politiques (Washington).
State Net peut aider les entreprises à surveiller ces développements émergents concernant l’IA en leur donnant accès à une base de données complète des activités législatives et réglementaires à tous les niveaux de gouvernement, ainsi qu’à une analyse approfondie qui aide les dirigeants à mieux comprendre l’impact potentiel de la nouvelle législation relative à l’IA. et planifiez en conséquence.
Désireux d’en savoir plus sur la législation sur l’IA ayant un impact sur votre entreprise ? Demandez votre rapport IA personnalisé gratuit, alimenté par State Net, ici.