Quatre législateurs de la Chambre se joignent aux efforts en faveur d’une législation qui obligerait les agences fédérales à informer les individus lorsque le gouvernement utilise des technologies d’intelligence artificielle pour interagir avec eux ou prendre des décisions automatisées qui affectent leur bien-être – une proposition complémentaire à la législation du Sénat qu’un haut législateur espère. deviendra loi d’ici la fin de l’année.
Le Transparent Automated Governance Act – présenté le 22 décembre par le représentant Clay Higgins, R-La., et co-parrainé par les représentants Randy Weber, R-Texas, Jim McGovern, D-Mass., et Don Davis, DN. C. — chargerait le directeur du Bureau de la gestion et du budget de donner des directives aux agences fédérales sur la meilleure façon d’alerter le grand public lorsque des entités gouvernementales utilisent des « systèmes automatisés et augmentés » pour interagir avec elles ou pour « prendre des décisions critiques ». »
Le projet de loi établirait également un processus d’appel permettant aux individus de contester les décisions automatisées et de traiter les situations « dans lesquelles une personne subit un préjudice en conséquence directe de l’utilisation d’un système automatisé dans le processus de décision critique augmenté ».
La proposition définit les « décisions critiques » comme une détermination de l’agence qui, en partie, « affecte de manière significative l’accès, ou le coût, les conditions ou la disponibilité » de l’éducation, de l’emploi, du transport, des soins de santé ou du statut d’asile d’un individu.
« Je ne fais pas confiance au gouvernement et je ne fais pas confiance à l’IA », a déclaré Higgins à Nextgov/FCW dans un communiqué. “Je ne fais donc certainement pas confiance à la bureaucratie gouvernementale armée de l’IA comme arme d’enquête ou de répression.”
Une législation bipartite similaire a été présentée au Sénat en juin dernier par les sénateurs Gary Peters, D-Mich., Mike Braun, R-Ind., et James Lankford, R-Okla. Ce projet de loi a été adopté par la commission sénatoriale de la sécurité intérieure et des affaires gouvernementales – présidée par Peters – plus tard le même mois.
“L’utilisation autoritaire de l’IA pour contrôler et restreindre a des implications majeures et cette législation, ainsi que le texte connexe au Sénat, tiennent le gouvernement fédéral responsable”, a déclaré Higgins, ajoutant qu'”à l’avenir, nous devons nous concentrer sur l’équilibre entre la puissance de l’IA et les dangers potentiels liés à son utilisation.
La version de la Chambre parrainée par Higgins est la même que le projet de loi amendé adopté par le comité Peters, qui ajoutait une définition de l’IA au texte législatif et modifiait l’engagement de l’OMB avec d’autres agences d’une consultation requise à une consultation suggérée.
Le projet de loi recommande – mais n’exige pas – que les « lignes directrices transparentes en matière de gouvernance automatisée » de l’OMB soient rédigées en consultation avec le Government Accountability Office, l’Administration des services généraux et d’autres entités des secteurs public et privé.
Un rapport d’un comité sénatorial qui recommandait favorablement que le projet de loi modifié soit adopté a noté que plusieurs agences, dont la Social Security Administration, la Federal Communications Commission et le Consumer Financial Protection Bureau, développent déjà ou utilisent de plus en plus l’IA et des outils autonomes pour les communications avec le public. mais que ces premières utilisations de la technologie ne se sont pas faites sans difficultés.
Le rapport note que l’application mobile des douanes et de la protection des frontières permettant aux migrants de demander l’asile à la frontière entre les États-Unis et le Mexique – qui utilise la biométrie faciale – « n’a pas réussi à enregistrer de nombreuses personnes à la peau plus foncée, les privant ainsi de leur droit de demander l’entrée ». Dans un autre cas, les législateurs ont noté que « les algorithmes déployés dans au moins une douzaine d’États pour décider qui est éligible aux prestations Medicaid ont supprimé par erreur une aide essentielle à des milliers d’Américains qui comptaient sur des prestations d’invalidité ».
Dans une déclaration à Nextgov/FCW, Peters a déclaré : « Alors que le gouvernement fédéral utilise de plus en plus l’intelligence artificielle pour aider à fournir des services essentiels au public, il doit y avoir de la transparence afin que les gens sachent quand ils interagissent avec l’IA et quand l’IA prend des décisions. cela les affectera.
Un porte-parole de Peters a déclaré que le projet de loi du Sénat ne nécessiterait pas de temps de parole et que l’on espère qu’il sera adopté par consentement unanime ou dans le cadre d’un ensemble législatif plus large avant la fin du 118e Congrès. Ils ont ajouté que le bureau de Peters avait été en contact avec celui de Higgins au sujet du projet de loi complémentaire de la Chambre.
“J’apprécie mes collègues de la Chambre d’avoir rejoint mes efforts pour proposer ce projet de loi bipartite afin de permettre aux Américains de comprendre plus facilement comment l’IA est utilisée par le gouvernement et de garantir qu’un être humain examinera les décisions générées par l’IA si nécessaire”, a déclaré Peters. .