Un nouvel accord entre le Royaume-Uni et les États-Unis sur la sécurité de l’intelligence artificielle pourrait renforcer les efforts visant à amener les pays partenaires et alliés à un large accord sur les risques liés à l’IA. Cela fait suite à une collaboration dirigée par le ministère de la Défense entre les deux pays sur l’éthique de l’IA militaire.
Signé lundi, le protocole d’accord engage les pays à travailler ensemble pour concevoir des tests de sécurité pour les outils d’IA populaires, une évolution qui pourrait ouvrir la voie à une réglementation qui façonnera l’avenir de l’industrie de l’IA à travers le monde.
“Alors que les pays renforcent leur partenariat sur la sécurité de l’IA, ils se sont également engagés à développer des partenariats similaires avec d’autres pays pour promouvoir la sécurité de l’IA à travers le monde”, a déclaré le Royaume-Uni dans son communiqué mardi.
Parmi les dirigeants de l’industrie présents à la cérémonie de signature figuraient Demis Hassabis de DeepMind de Google, Elon Musk et Sam Altman d’OpenAI, qui a été particulièrement convaincu que les gouvernements devraient réglementer plus fermement l’industrie naissante de l’IA pour renforcer la fiabilité des consommateurs et éviter une catastrophe.
Cette annonce intervient alors que le ministère de la Défense s’efforce également de mieux comprendre les risques et les avantages potentiels des modèles d’IA générative, à la fois ceux qui sont accessibles au public et ceux que l’armée peut créer.
Ces derniers mois, les États-Unis et le Royaume-Uni ont tous deux mobilisé des instituts de recherche pour comprendre les enjeux de sécurité liés à l’IA. L’administration Biden a créé l’Institut américain de sécurité de l’IA sous l’égide du National Institute of Standards and Technology en février, environ un mois après que le Royaume-Uni ait créé le sien.
Dans le cadre de l’accord, les instituts travailleront ensemble pour effectuer au moins un test commun sur un modèle d’IA accessible au public et “construiront une approche commune des tests de sécurité de l’IA et partageront leurs capacités pour garantir que ces risques peuvent être traités efficacement”, a déclaré le Commerce. » a déclaré le ministère dans un communiqué lundi.
Cette annonce fait suite au sommet de novembre au Royaume-Uni, où 28 pays et l’Union européenne ont convenu de « soutenir un réseau international inclusif de recherche scientifique sur la sécurité de l’IA aux frontières ». Bien entendu, de tels accords sont faciles. Parmi les signataires figuraient la Chine, Israël et l’Arabie saoudite, qui ont tous été critiqués pour leurs pratiques de collecte et d’utilisation des données. Cependant, l’UE est un leader en matière d’éthique en matière de protection des données. En mars, l’organisme a publié l’AI Act, un ensemble de politiques visant à « soutenir le développement d’une IA digne de confiance, qui comprend également le paquet d’innovation en matière d’IA et le plan coordonné sur l’IA », écrit l’UE sur son site Internet.