WASHINGTON — Des délégués de 60 pays se sont réunis la semaine dernière à l’extérieur de Washington et ont choisi cinq pays pour diriger un effort d’un an visant à explorer de nouveaux garde-fous de sécurité pour l’IA militaire et les systèmes automatisés, ont déclaré des responsables de l’administration. exclusivement » a déclaré Breaking Defense.
Le Canada, partenaire des « Five Eyes », le Portugal, allié de l’OTAN, Bahreïn, allié au Moyen-Orient, et l’Autriche neutre se joindront aux États-Unis pour recueillir les commentaires internationaux en vue d’une deuxième conférence mondiale l’année prochaine. dans quelle représentationSelon des représentants des départements de la Défense et d’État, il s’agit d’un effort vital de gouvernement à gouvernement pour sauvegarder l’intelligence artificielle.
Alors que l’IA se répand dans les armées du monde entier, depuis les drones d’attaque russes jusqu’aux commandements de combat américains, l’administration Biden fait pression à l’échelle mondiale en faveur d’une « utilisation militaire responsable de l’intelligence artificielle et de l’autonomie ». C’est le titre d’une déclaration politique officielle que les États-Unis ont publiée il y a 13 mois lors de la conférence internationale REAIM à La Haye. Depuis, 53 autres pays ont adhéré à l’accord.
La semaine dernière, des représentants de 46 de ces gouvernements (y compris les États-Unis), ainsi que de 14 autres pays observateurs qui n’ont pas officiellement approuvé la Déclaration, se sont réunis en dehors de Washington pour discuter de la manière de mettre en œuvre ses dix grands principes.
“Il est vraiment important, tant du côté de l’État que du DoD, que ce ne soit pas juste un morceau de papier”, Madeline Mortelmans, secrétaire adjointe par intérim à la Défense pour la stratégie.gy, » a déclaré Breaking Defense dans une interview exclusive après la fin de la réunion. “Il s’agit de la pratique des États et de la manière dont nous renforçons leur capacité à respecter les normes auxquelles nous nous engageons.
Cela ne signifie pas imposer les normes américaines à d’autres pays ayant des cultures stratégiques, des institutions et des niveaux de sophistication technologique très différents, a-t-elle souligné. « Même si les États-Unis sont certainement à la pointe en matière d’IA, de nombreux pays possèdent une expertise dont nous pouvons bénéficier », a déclaré Mortelmans. dont le discours a clôturé la conférence. « Par exemple, nos partenaires en Ukraine ont acquis une expérience unique dans la compréhension de la manière dont l’IA et l’autonomie peuvent être appliquées dans les conflits. »
« Nous l’avons dit fréquemment… nous n’avons pas le monopole des bonnes idées », a reconnu Mallory Stewart, secrétaire d’État adjoint au contrôle des armements, à la dissuasion et à la stabilité, dont le discours a ouvert la conférence. Pourtant, a-t-elle déclaré à Breaking Defense, « le fait que le DoD puisse apporter son expérience de plus d’une décennie… a été inestimable ».
Ainsi, lorsque plus de 150 représentants de 60 pays ont passé deux jours en discussions et présentations, l’ordre du jour s’est largement inspiré de l’approche du Pentagone en matière d’IA et d’automatisation, des principes d’éthique de l’IA adoptés dans le cadre der alors président Donald Tavant le déploiement, l’année dernière, d’une boîte à outils en ligne pour l’IA responsable pour guider les fonctionnaires. Afin de maintenir l’élan jusqu’à ce que le groupe au complet se réunisse à nouveau l’année prochaine (dans un lieu encore à déterminer), les pays ont formé trois groupes de travail pour approfondir les détails de la mise en œuvre.
Groupe un : Assurance. Les États-Unis et Bahreïn dirigeront conjointement le groupe de travail « assurance », axé sur la mise en œuvre des trois principes les plus techniquement complexes de la Déclaration : que les IA et les systèmes automatisés soient construits pour des « utilisations explicites et bien définies », avec « des tests rigoureux, » et des « garanties appropriées » contre les pannes ou les « comportements involontaires » – y compris, si nécessaire, un coupe-circuit afin que les humains puissent l’éteindre.
Ces domaines techniques, a déclaré Mortelmans à Breaking Defense, étaient « là où nous estimions que nous avions un avantage comparatif particulier, une valeur unique à ajouter ».
Même l’appel de la Déclaration à définir clairement la mission d’un système automatisé « semble très basique » en théorie mais est facile à bâcler en pratique, a déclaré Stewart. Regardez les avocats condamnés à une amende pour avoir utilisé ChatGPT pour générer des mémoires juridiques superficiellement plausibles qui citent des cas inventés, a-t-elle dit, ou ses propres enfants qui essaient et échouent à utiliser ChatGPT pour faire leurs devoirs. « Et c’est un contexte non militaire ! a-t-elle souligné. “Les risques dans un contexte militaire sont catastrophiques.”
Groupe deux : responsabilité. Tandis que les États-Unis appliquent leur immense expertise technique au problème, d’autres pays se concentreront sur les aspects personnels et institutionnels de la sauvegarde de l’IA. Le Canada et le Portugal dirigeront conjointement les travaux sur la « responsabilisation », axés sur la dimension humaine : s’assurer que le personnel militaire est correctement formé pour comprendre « les capacités et les limites » de la technologie, qu’il dispose d’une documentation « transparente et vérifiable » expliquant comment elle est utilisée. fonctionne, et ils « exercent les soins appropriés ».
Groupe trois : Surveillance. Pendant ce temps, l’Autriche (sans co-responsable, du moins pour l’instant) dirigera le groupe de travail sur le « contrôle », qui examinera des questions politiques générales telles que l’exigence d’examens juridiques sur le respect du droit humanitaire international, la surveillance par de hauts fonctionnaires et la élimination des « biais involontaires ».
EN RELATION : Éviter un armageddon accidentel : un rapport recommande de nouvelles règles de sécurité pour les systèmes sans pilote
Mise en œuvre dans le monde réel
Que pourrait signifier la mise en œuvre de ces principes abstraits dans la pratique ? Peut-être quelque chose comme la boîte à outils en ligne pour l’IA responsable du Pentagone, qui fait partie d’une initiative du directeur du numérique et de l’IA (CDAO) du DoD visant à développer des outils accessibles au public et même open source pour mettre en œuvre la sécurité et l’éthique de l’IA.
Stewart a souligné que Matthew Kuan Johnson du CDAO, l’architecte en chef de la boîte à outils, a fait une présentation « étonnante » lors de la conférence internationale : « C’était vraiment, vraiment utile de lui faire parcourir la boîte à outils et de répondre aux questions.
S’exprimant quelques jours après la fin de la conférence, à lors d’un panel du Potomac Officers Club sur l’IA, Johnson a déclaré : « nous avons reçu des commentaires incroyablement positifs… Nations alliées [were] disant qu’ils pensaient qu’il s’agissait d’une évolution vraiment positive, qu’il y avait une telle poussée vers l’open source et le partage d’une grande partie du matériel et des meilleures pratiques.
“Il y a un élan et un appétit vraiment importants”, a déclaré Johnson au panel. “Comment pouvons-nous passer de ce type de principes de haut niveau à cette mise en œuvre… processus, références, tests, évaluations, mesures, afin que vous puissiez réellement démontrer comment vous suivez les principes et les mettez en œuvre.”
Johnson est certainement reparti enthousiaste. “C’est une période vraiment passionnante pour une IA responsable dans l’espace international”, a-t-il déclaré, “avec la Déclaration politique, avec le partenariat pour la défense qu’a mis en place la CDAO, et avec le deuxième sommet du REAIM qui se tiendra en Corée en septembre.”
Cela concerne uniquement le côté militaire. L’administration Biden a publié un décret radical sur l’utilisation fédérale de l’IA en octobre, a rejoint en novembre la Déclaration de Bletchley menée par le Royaume-Uni sur la sécurité de l’IA et, la semaine dernière encore, a amené l’Assemblée générale des Nations Unies à adopter à l’unanimité une résolution dirigée par les États-Unis. consentement qui appelait à une IA « sûre, sécurisée et digne de confiance » pour le développement durable.
Mais l’administration s’efforce également de maintenir une distinction entre les discussions civiles et militaires. Cela s’explique en partie par le fait que l’IA militaire est plus controversée, de nombreux militants appelant à une interdiction juridique contraignante des « systèmes d’armes autonomes létaux » que les États-Unis, leurs alliés et leurs adversaires comme la Russie et la Chine aimeraient tous avoir une certaine latitude pour développer.
“Nous avons fait le choix délibéré, en poursuivant une résolution consensuelle de l’ONU, de ne pas inclure la discussion sur les utilisations militaires”, a déclaré un haut responsable de l’administration aux journalistes lors d’un point de presse avant le vote de l’Assemblée générale de la semaine dernière. « Il existe de nombreux endroits pour avoir cette conversation [elsewhere], y compris dans le système des Nations Unies…. Nous avons un ensemble intensif d’engagements diplomatiques autour de l’utilisation militaire responsable de l’intelligence artificielle.
Les deux pistes se veulent parallèles mais complémentaires. “Nous sommes vraiment heureux que l’AGNU ait pu faire un pas dans l’arène non militaire”, a déclaré Stewart à Breaking Defense. “[There’s] le potentiel d’une pollinisation croisée avantageuse et synergique.
Mais, a-t-elle ajouté, le monde a encore besoin de forums distincts permettant à différents types de personnes de discuter des différents aspects de l’IA. Les Nations Unies rassemblent tous les pays sur toutes les questions. Les conférences militaires sur l’IA comme REAIM incluent des militants et d’autres groupes non gouvernementaux. Mais la valeur de la Déclaration politique et de son processus de mise en œuvre réside dans le fait que les gouvernements parlent à d’autres gouvernements, en particulier sur les applications militaires, et à huis clos.
« La Déclaration politique examine la question d’un point de vue de gouvernement à gouvernement », a déclaré Stewart. «Nous nous concentrons réellement sur un environnement dans lequel les gouvernements peuvent discuter des défis qu’ils rencontrent, des questions qu’ils se posent, et… aborder la mise en œuvre pratique, concrète et réellement efficace et efficiente.»
Recommandé