WASHINGTON — Les grands modèles linguistiques n’ont pas atteint une conscience semblable à celle de l’humain ni transformé ou brisé la société – du moins pas encore – comme l’ont suggéré des personnalités éminentes comme Elon Musk au début du cycle de battage médiatique. Mais ils n’ont pas non plus été paralysés au point de devenir inutiles à cause de leur tendance à « halluciner » de fausses réponses.
Au lieu de cela, l’IA générative apparaît comme un outil utile pour un éventail d’objectifs large mais difficilement illimité, allant de la synthèse de nombreuses réglementations à la rédaction de mémorandums d’approvisionnement et de plans d’approvisionnement.
Ainsi, deux ans après le dévoilement public de ChatGPT, 16 mois après que le ministère de la Défense a lancé le groupe de travail Lima pour comprendre les dangers et le potentiel de l’IA générative, le Chief Digital & AI Office (CDAO) du Pentagone a effectivement déclaré que la nouvelle technologie était adéquatement adaptée. compris et suffisamment protégé pour pouvoir être déployé. Le 11 décembre, le CDAO a officiellement finalisé le groupe de travail exploratoire quelques mois avant la date prévue, institutionnalisé ses conclusions et créé une cellule permanente de capacités rapides d’IA (AIRCC) dotée d’un financement de démarrage de 100 millions de dollars pour accélérer l’adoption de GenAI dans l’ensemble du DoD.
[This article is one of many in a series in which Breaking Defense reporters look back on the most significant (and entertaining) news stories of 2024 and look forward to what 2025 may hold.]
Les prochains projets pilotes de l’AIRCC ne sont pas les premiers déploiements de GenAI au Pentagone. L’Air Force a par exemple donné accès à son personnel à un chatbot appelé NIPRGPT en juin, par exemple, tandis que l’armée a déployé un système GenAI d’Ask Sage qui pourrait même être utilisé pour rédiger des documents formels d’acquisition. Mais ces deux cas montrent également le type de « garde-fous » que le Pentagone estime nécessaires pour utiliser l’IA générative en toute sécurité et de manière responsable.
EN RELATION : Nous avons confiance en l’IA : comment le groupe de travail Lima du DoD peut protéger l’IA générative pour les combattants
Pour commencer, aucune des deux IA n’est sur Internet ouvert : elles fonctionnent toutes deux uniquement sur des réseaux fermés du ministère de la Défense – le cloud de l’armée pour Ask Sage, le NIPRnet à l’échelle du DoD pour NIPRPT. Cette séquestration permet d’éviter les fuites de données des utilisateurs, telles que des invites détaillées susceptibles de révéler des informations sensibles. Les chatbots commerciaux, en revanche, aspirent souvent tout ce que leurs utilisateurs leur disent pour nourrir leur appétit insatiable de données de formation, et il est possible de les inciter à régurgiter, textuellement, les informations originales qui leur ont été fournies – ce que le l’armée ne veut absolument pas que cela se produise.
Une autre protection de plus en plus courante consiste à exécuter la saisie de l’utilisateur via plusieurs grands modèles linguistiques et à les utiliser pour se vérifier mutuellement. Ask Sage, par exemple, propose plus de 150 modèles différents sous le capot. De cette façon, même si toute IA individuelle peut encore halluciner des absurdités aléatoires, il est peu probable que deux modèles complètement différents de fabricants différents génèrent les mêmes erreurs.
Enfin, en 2024, il est devenu une bonne pratique tant au sein du DoD que dans le secteur privé de mettre l’IA générative au régime, en ne lui fournissant que des données soigneusement sélectionnées et fiables, souvent en utilisant un processus appelé Retrieval Augmented Generation (RAG). En revanche, de nombreux chatbots publics gratuits ont été formés sur de vastes étendues d’Internet, sans aucune vérification humaine préalable ni aucune capacité algorithmique à détecter les erreurs, les fraudes ou les blagues pures et simples – comme un vieux post de Reddit sur la mise de la colle sur la pizza que l’IA de Google a commencé à régurgiter. comme recette sérieuse dans un exemple notable cette année.
Certains responsables de la défense ont déclaré cette année qu’un adversaire avisé pourrait aller plus loin et insérer délibérément des erreurs dans les données d’entraînement, « empoisonnant » toute IA construite à partir de celles-ci pour qu’elle commette des erreurs qu’elle pourrait exploiter. En revanche, le Pentagone préfère les IA qui sont formées sur des documents officiels et d’autres ensembles de données gouvernementales, et qui citent des pages et des paragraphes spécifiques comme preuves à l’appui de leurs réponses afin que l’utilisateur humain puisse vérifier par lui-même.
Aucune de ces garanties n’est infaillible, et il est toujours possible que l’IA générative tourne mal. Mais au moins, les garde-fous sont désormais suffisamment solides pour que le Pentagone se sente en sécurité pour avancer jusqu’en 2025.
Recommandé