Dans son célèbre discours de 1963, le président américain John F. Kennedy déclarait : « Nos problèmes sont créés par l’homme, ils peuvent donc être résolus par l’homme. » Bien que cette référence ait été faite à l’époque pour aborder la question de la paix et du contrôle des armements, les remarques de Kennedy semblent encore plus pertinentes aujourd’hui, alors que l’avènement de l’intelligence artificielle a été présenté comme rendant les problèmes bien au-delà du contrôle humain.
Suite au dernier sommet entre le président chinois Xi Jinping et le président américain Joe Biden, où la déclaration commune ont souligné la nécessité de faire face au risque des systèmes d’IA avancés, les responsables des deux parties se sont réunis à Genève débattra cette année des risques liés à l’IALa question de la sécurité et des risques liés à l’IA a été une fois de plus mise en évidence et débattue lors de la rencontre récente entre le conseiller à la sécurité nationale américain Jake Sullivan et le ministre chinois des Affaires étrangères Wang Yi.
L’une des préoccupations les plus pressantes concerne la dépendance accrue à l’égard de l’IA militaire ; les armées convoitent continuellement les avancées de cette technologie en développement. Le « Projet Maven » des États-Unis et « Réplicateur » à Le « commandant de l’IA » de la Chine et de « Lavande » d’Israël pour égaliser « Zvook » depuis les lignes de front en UkraineL’intelligence artificielle militaire est de plus en plus utilisée et devient rapidement omniprésente. En effet, le général Mark Milley a même prédit que d’ici 2039, Un tiers de l’armée américaine serait robotiséeCes tendances inquiétantes soulèvent certainement le spectre d’une course aux armements de l’IA qui s’accélère si elle n’est pas restreinte ou réglementée.
Certes, les avantages que l’IA apporte sur le champ de bataille sont indéniables. L’IA protège non seulement les soldats et réduit les inefficacités, mais maximise également les chances de victoire grâce à un avantage décisionnel, permettant une prise de décision rapide et précise. Comme l’a déclaré Vladimir Poutine en Russie une fois remarqué« L’intelligence artificielle est l’avenir… celui qui deviendra le leader dans ce domaine deviendra le maître du monde. » La suprématie de l’IA est désormais synonyme de résilience nationale.
Dans ce contexte, la Chine a annoncé un plan ambitieux à travers son « Plan national pour une IA de nouvelle génération » se positionner comme un leader mondial de l’IA d’ici 2025. Cette démarche audacieuse a naturellement suscité des inquiétudes à Washington. En réponse, le Le ministère américain de la Défense a alloué 1,8 milliard de dollars dans son budget pour l’exercice 2025 uniquement aux initiatives d’IAtandis que l’administration Biden a renforcé la réglementation sur les puces mémoire et les semi-conducteurs IA. À l’approche de l’élection présidentielle, l’un ou l’autre des candidats est susceptible d’adopter des politiques dans ce sens. La vice-présidente Kamala Harris devrait maintenir la position ferme de l’administration Biden-Harris sur la réglementation chinoise de l’IA, tandis que l’ancien président Donald Trump, faisant écho à des préoccupations similaires, donnerait probablement la priorité au maintien de la supériorité technologique des États-Unis, indiquant que les États-Unis devraient continuer à s’appuyer sur des mesures de sécurité. une reconnaissance commune de l’intensification de la rivalité entre la Chine et les États-Unis.
Les experts mettent de plus en plus en garde que Pékin rattrape rapidement, voire dépasse, les États-Unis dans des domaines clés de l’IA militaire. Un article récent du New York Times Il a souligné que, malgré les contrôles stricts des exportations américaines, les puces fabriquées aux États-Unis sont activement commercialisées sur le marché clandestin chinois et utilisées dans la recherche militaire, démontrant ainsi que la concurrence en matière d’IA a transcendé les simples frontières technologiques.
Cependant, un autre rapport L’analyse des articles rédigés par des experts chinois de la défense a permis de conclure que la Chine, qui n’a pas participé à une guerre à grande échelle au cours des 40 dernières années, a du mal à collecter, gérer et analyser les données militaires. En outre, Bresnick souligne les lacunes de la compétitivité internationale de la Chine en matière de renseignement, de surveillance et de reconnaissance (ISR), ainsi que les failles de ses cadres de test et d’évaluation des systèmes d’IA (T&E).
Si le rapport indique que les capacités de l’IA chinoise ne sont peut-être pas aussi avancées qu’on le pensait, cela ne signifie pas nécessairement que les risques de concurrence sino-américaine soient exagérés. Ces dangers sont indéniablement réels et doivent être pris au sérieux. Cependant, évaluer les capacités globales sur la base de données fragmentées est à la fois erroné et imprudent. L’IA, par sa nature même, est une boîte noire : ses processus ne peuvent pas être entièrement expliqués, ses résultats ne peuvent pas être prédits de manière fiable et elle peut finalement résister à un contrôle humain complet. Par conséquent, tenter de quantifier l’écart sans un critère de mesure commun ne ferait qu’intensifier la course aux armements de l’IA et exacerber le dilemme de la sécurité de l’IA.
Ainsi, plutôt que de se concentrer sur la tâche périlleuse d’évaluer la concurrence sino-américaine en matière d’IA militaire, il faudrait plutôt s’efforcer de redynamiser les discussions bilatérales afin d’endiguer les passions de la concurrence dans ce domaine.
Étant donné que les deux pays ont tiré des bénéfices considérables de l’IA, la crainte des risques liés à l’IA ne devrait pas freiner le développement de l’IA de l’un ou l’autre. Par conséquent, les discussions entre la Chine et les États-Unis doivent aller au-delà du potentiel et des opportunités de l’IA pour donner la priorité aux préoccupations et aux développements immédiats. Au lieu de spéculer à outrance et de tenter de réglementer des scénarios hypothétiques comme l’intelligence artificielle générale (IAG), les discussions devraient se concentrer sur les réalités actuelles de l’IA militaire et être guidées par des agendas pratiques tels que les risques et les préoccupations communes à cet égard.
Étant donné que toute technologie a le potentiel d’être utilisée à mauvais escient, voire anthropomorphiséce qui reste La question cruciale est de savoir qui la contrôle et comment la technologie est utilisée.. Par conséquent, le plus grand risque auquel nous sommes confrontés ne réside peut-être pas dans l’IA elle-même, mais dans l’action humaine impliquant l’IA. Cela fait allusion à la nécessité d’établir de nouveaux axes de discussion qui répondent spécifiquement au rôle essentiel, mais souvent négligé, des humains. De ce point de vue, le sujet des humains et du contrôle humain doit être au centre de tout dialogue pratique sur l’IA militaire.
Ce changement nécessitera également, par extension, une réorientation de la manière dont on conceptualise et aborde les dialogues. Aussi improbable que cela puisse paraître, les sujets de discussion sur l’IA devraient adopter une approche plus « humaniste », où le rôle, les responsabilités et les réponses de l’humain dans l’IA militaire devraient être davantage débattus et mis en avant avant toute tentative de déchiffrer l’IA elle-même. Adopter une approche « humaniste d’abord » remet en lumière la capacité des humains à contrôler et à gérer l’IA militaire, déplaçant ainsi l’impulsion des dialogues d’une approche principalement axée sur la reconnaissance des problèmes à une approche axée sur la résolution des problèmes.
En ce sens, à la différence des dialogues conventionnels sur l’IA qui se concentrent principalement sur l’IA elle-même – qu’il s’agisse des efforts visant à aligner l’interprétation de Washington et de Pékin sur Termes conceptuels de l’IA ou démystifier les discussions de la piste I Au niveau de la piste II, les dialogues doivent avant tout définir et décoder le rôle des humains dans l’IA militaire. Des questions importantes mais difficiles – telles que : quel est le rôle des humains dans le processus d’IA militaire ? Comment les humains peuvent-ils jouer un rôle plus important dans l’IA militaire ? Quel est le niveau actuel d’implication humaine dans l’IA militaire ? – doivent être abordées en amont pour garantir l’efficacité des dialogues. En dissipant le brouillard qui se cache derrière ce que les humains peuvent et veulent faire avec l’IA militaire, les dialogues seront alors en meilleure position pour discuter de ce qui devrait être fait collectivement.
Prenons l’exemple des discussions sur un accord impliquant une intervention humaine. Les avancées dans la négociation de cet accord ont été rares et espacées malgré les meilleurs efforts déployés par toutes les voies diplomatiques. En développant une idée récente impliquant une intervention humaine dans la boucle, accord « partiel » sur l’humain dans la boucle Pour relancer les discussions, les dialogues pourraient commencer par élucider l’étendue et le niveau d’implication humaine dans cette proposition. Par exemple, clarifier l’étendue des actions autorisées par les opérateurs humains à chaque étape du processus de prise de décision, ou définir le degré approprié d’implication humaine dans la boucle pourraient être des points de départ précieux pour des discussions sur toutes les voies diplomatiques. Ces points de discussion, qui ne sont en aucun cas de simples mécanismes de renforcement de la confiance, pourraient jeter les bases nécessaires à des discussions plus soutenues, plus solides et plus fructueuses entre les États-Unis et la Chine.
Dans ce contexte, le prochain «Sommet sur l’IA responsable dans le domaine militaire (REAIM) 2024prévu en septembre à Séoul, en Corée du Sud, pourrait servir de point de départ essentiel pour discuter du rôle des humains par rapport à l’IA militaire. Lors de la précédente édition, tenue l’année dernière, les pays avaient souligné dans le discours du sommet déclaration Les humains doivent rester responsables et prendre des décisions lorsque l’IA est utilisée dans des contextes militaires. Sur cette base, l’accent du REAIM 2024 devrait passer de la simple reconnaissance de l’importance des rôles humains à la discussion de lignes directrices plus concrètes. Il est essentiel que ces discussions aient lieu en premier lieu, car ce n’est qu’alors que nous pourrons traiter efficacement les risques potentiels que l’IA pourrait poser dans les contextes militaires.