La communauté du renseignement américaine, habituellement secrète, est tout aussi fascinée par l’intelligence artificielle générative que le reste du monde, et devient peut-être plus audacieuse en discutant publiquement de la manière dont elle utilise cette technologie naissante pour améliorer ses opérations de renseignement.
« Nous avons été capturés par l’esprit du temps de l’IA générative, tout comme le monde entier l’était il y a quelques années », a déclaré la semaine dernière Lakshmi Raman, directrice de l’innovation en intelligence artificielle de la CIA, lors du sommet Amazon Web Services à Washington, DC. Raman était l’un des principaux orateurs de l’événement, qui a enregistré une participation de plus de 24 000 personnes.
Selon Raman, les analystes du renseignement américain utilisent actuellement l’IA générative dans des contextes classifiés pour aider à la recherche et à la découverte, à la rédaction, à l’idéation, au brainstorming et à la génération de contre-arguments. Ces nouvelles utilisations de l’IA générative s’appuient sur les capacités existantes au sein des agences de renseignement depuis plus d’une décennie, notamment la traduction et la transcription du langage humain et le traitement des données.
En tant que responsable fonctionnel de la collecte de données open source de la communauté du renseignement, Raman a déclaré que la CIA se tournait vers l’IA générative pour suivre, par exemple, « toutes les nouvelles qui arrivent chaque minute de chaque jour du monde entier ». L’IA, a déclaré Raman, aide les analystes du renseignement à passer au peigne fin de vastes quantités de données pour en extraire des informations qui peuvent éclairer les décideurs politiques. Dans une botte de foin géante, l’IA permet de repérer l’aiguille.
« Dans notre espace open source, nous avons également eu beaucoup de succès avec l’IA générative, et nous avons exploité l’IA générative pour nous aider à classer et à trier les événements open source pour nous aider à rechercher, découvrir et effectuer des niveaux de requête en langage naturel sur ces données », a déclaré Raman.
Une approche « réfléchie » de l’IA
Les économistes estiment que l’IA générative pourrait générer des milliards de dollars de bénéfices par an pour l’économie mondiale, mais cette technologie n’est pas sans risques. D’innombrables rapports font état de ce que l’on appelle des « hallucinations » – ou des réponses inexactes – générées par des logiciels d’IA générative. Dans le contexte de la sécurité nationale, les hallucinations de l’IA pourraient avoir des conséquences catastrophiques. Les hauts responsables du renseignement reconnaissent le potentiel de cette technologie, mais doivent en évaluer les risques de manière responsable.
« Nous sommes ravis de voir l’opportunité qui s’offre à nous [generative AI] « Nous avons une technologie de pointe », a déclaré Adele Merritt, directrice de l’information de la communauté du renseignement, à Nextgov/FCW lors d’une interview en avril. « Et nous voulons nous assurer que nous réfléchissons à la manière dont nous exploitons cette nouvelle technologie. »
Merritt supervise les efforts de stratégie informatique dans les 18 agences qui composent la communauté du renseignement. Elle rencontre régulièrement d’autres hauts responsables du renseignement, notamment Lori Wade, responsable des données de la communauté du renseignement, John Beieler, récemment nommé responsable de l’intelligence artificielle de la communauté du renseignement, et Rebecca Richards, qui dirige le Bureau des libertés civiles, de la vie privée et de la transparence du Bureau du directeur du renseignement national, pour discuter et s’assurer que les efforts en matière d’IA sont sûrs, sécurisés et conformes aux normes de confidentialité et aux autres politiques.
« Nous reconnaissons également qu’il existe un immense potentiel technique que nous devons encore maîtriser, en veillant à regarder au-delà du battage médiatique et à comprendre ce qui se passe, et comment nous pouvons intégrer cela dans nos réseaux », a déclaré Merritt.
À la CIA, Raman a déclaré que son bureau travaille de concert avec le Bureau du conseiller juridique général et le Bureau de la confidentialité et des libertés civiles pour faire face aux risques inhérents à l’IA générative.
« Nous réfléchissons beaucoup aux risques, et l’un des risques auxquels nous réfléchissons vraiment est de savoir comment nos utilisateurs pourront utiliser ces technologies de manière sûre, sécurisée et fiable », a déclaré Raman. « Il s’agit donc de s’assurer qu’ils sont en mesure d’examiner les résultats et de valider leur exactitude. »
Les exigences de sécurité étant très strictes au sein de la communauté du renseignement, bien moins d’outils d’IA générative sont suffisamment sécurisés pour être utilisés dans l’ensemble de l’entreprise que dans le secteur commercial. Les analystes du renseignement ne peuvent pas, par exemple, accéder à un outil d’IA générative commercial comme ChatGPT dans une installation d’informations sensibles compartimentée (prononcer « skiff ») où sont effectuées certaines de leurs tâches les plus sensibles.
Pourtant, un nombre croissant d’outils d’IA générative répondent à ces normes et ont déjà un impact sur les missions.
En mars, Gary Novotny, responsable du bureau de gestion du programme ServiceNow de la CIA, a expliqué comment au moins un outil d’IA générative contribuait à réduire le temps nécessaire aux analystes pour exécuter des requêtes de renseignement. Ses remarques faisaient suite à un rapport de 2023 selon lequel la CIA était en train de construire son propre modèle linguistique à grande échelle.
En mai, Microsoft a annoncé la disponibilité de GPT-4 pour les utilisateurs de son cloud Azure Government Top Secret, qui comprend des clients du secteur de la défense et du renseignement. Grâce à cette solution isolée, les clients du secteur classifié peuvent utiliser un outil très similaire à celui utilisé dans le secteur commercial. Les responsables de Microsoft ont noté que l’accréditation de sécurité avait pris 18 mois, ce qui montre à quel point le contrôle de sécurité des logiciels au plus haut niveau peut être complexe, même pour les géants de la technologie.
Les principaux fournisseurs de cloud commercial prennent des engagements similaires. Google Cloud applique une grande partie de ses offres d’IA commerciales à certaines charges de travail gouvernementales sécurisées, notamment sa célèbre plateforme de développement d’IA Vertex. De même, l’infrastructure cloud d’Oracle et les outils d’IA associés sont désormais disponibles dans son cloud gouvernemental américain.
Pendant ce temps, AWS, le premier fournisseur de services cloud commerciaux au service de la communauté du renseignement, cherche à tirer parti de sa position de leader du marché du cloud computing pour mieux répondre aux demandes croissantes des clients en matière d’IA générative.
« La réalité de l’IA générative est qu’il faut disposer d’une base de cloud computing », a déclaré Dave Levy, vice-président du secteur public mondial d’AWS, lors d’une interview accordée à Nextgov/FCW le 26 juin au sommet AWS. « Vous devez placer vos données dans un endroit où vous pouvez réellement en faire quelque chose. »
Lors du sommet, Levy a annoncé l’AWS Public Sector Generative AI Impact Initiative, un investissement de 50 millions de dollars sur deux ans visant à aider les clients du gouvernement et de l’éducation à relever les défis de l’IA générative, notamment la formation et le support technique.
« L’impératif pour nous est d’aider les clients à comprendre ce parcours », a déclaré Levy.
Le 26 juin, le PDG de la société d’intelligence artificielle Anthropic, Dario Amodei, et Levy ont annoncé conjointement la mise à disposition des modèles d’intelligence artificielle Claude 3 Sonnet et Claude 3 Haiku d’Anthropic aux agences de renseignement américaines. Ces outils d’intelligence artificielle générative, très appréciés des entreprises, sont désormais disponibles sur la place de marché AWS pour la communauté du renseignement américain, qui est en fait une version classifiée de sa place de marché commerciale dans le cloud.
Selon Amodei, bien qu’Anthropic soit responsable de la sécurité du modèle de langage à grande échelle, l’entreprise s’est associée à AWS en raison de ses normes de sécurité cloud supérieures et de sa réputation de leader du secteur public dans le domaine du cloud computing. Selon Amodei, la place de marché classée, qui permet aux clients gouvernementaux de lancer et d’essayer des logiciels avant de les acheter, simplifie également les achats pour le gouvernement. Et, selon lui, elle donne aux agences de renseignement les moyens d’utiliser les mêmes outils que ceux dont disposent les adversaires.
“Le [Intelligence Community Marketplace] « Cela facilite les choses, car AWS a déjà travaillé sur ce sujet à de nombreuses reprises, et nous n’avons donc pas besoin de réinventer la roue », a déclaré Amodei. « L’IA doit donner du pouvoir aux démocraties et leur permettre de mieux fonctionner et de rester compétitives sur la scène mondiale. »