[ad_1]
La théorie de l’équilibre attaque-défense de Robert Jervis soutient que l’impact stratégique d’une technologie dépend du fait qu’elle facilite l’attaque ou la défense par rapport à un adversaire. Par exemple, les chars et les tactiques de blitzkrieg rapides donnaient autrefois le dessus aux attaquants en écrasant les défenses statiques. Aujourd’hui, l’intelligence artificielle (IA) soulève des questions similaires. Beaucoup supposent que l’IA profite automatiquement aux agresseurs, mais son impact militaire dépend de la manière dont les États choisissent de la développer, de la déployer et de l’interpréter.
Un débat est en cours sur la question de savoir si l’IA révolutionner le caractère de la guerre ou simplement représenter un augmentation évolutive des capacités existantes. Même s’il est difficile de tirer des conclusions définitives en raison de l’évolution technologique rapide et d’une transparence limitée, l’IA transforme clairement la conduite de la guerre. Des cycles de décision plus rapides, une projection de force élargie et une nouvelle dynamique homme-machine modifient déjà la nature du conflit.
En intégrant les données en temps réel provenant de drones, de satellites et de cybersystèmes, l’IA réduit la prise de décision de quelques minutes à quelques secondes. Les outils américains comme FIRESTORM et ABMS offrent aux troupes un avantage en termes de vitesse, mais augmentent également les risques. Les délais serrés réduisent l’espace réservé à la diplomatie ou à la vérification, augmentant ainsi le risque que des perceptions erronées – comme le fait de confondre surveillance et agression – puissent déclencher un conflit involontaire avant qu’une intervention humaine ne soit possible.
Au-delà de la vitesse, les systèmes sans pilote alimentés par l’IA – que ce soit dans les airs, en surface ou sous l’eau – améliorent considérablement la portée et la puissance de feu militaires. Lorsqu’elles sont intégrées aux forces humaines, ces plates-formes autonomes permettent des missions plus longues, une plus grande couverture et une coordination plus efficace sur le champ de bataille. Cette ampleur et cette efficacité accrues peuvent constituer un avantage majeur dans les conflits entre puissances à parts égales. Il est important de noter qu’à mesure que ces technologies deviennent plus abordables et largement disponibles, des armées plus petites ou moins avancées pourraient également les adopter, ce qui pourrait remodeler la dynamique du pouvoir mondial et rendre la guerre de haute technologie plus accessible.
Plus important encore, à mesure que les systèmes d’IA assument davantage de rôles sur le champ de bataille, les armées comptent moins sur les soldats humains pour les missions dangereuses, réduisant ainsi le nombre de victimes et accélérant le passage à une guerre « post-héroïque ». Pourtant, cette dépendance croissante à l’égard des machines soulève de sérieuses préoccupations éthiques quant à la responsabilité et à la moralité de la délégation de décisions de vie ou de mort à des algorithmes.
L’IA remodèle la puissance militaire, mais son effet ultime sur l’équilibre attaque-défense reste incertain. Le cadre de Jervis suggère que la question clé n’est pas de savoir qui possède une technologie supérieure, mais avec quelle facilité chaque camp peut atteindre ses objectifs – que ce soit par l’attaque ou la défense – par rapport à son adversaire. L’IA pourrait faire pencher la balance dans un sens ou dans l’autre : elle pourrait alimenter l’escalade en permettant des frappes plus rapides et moins coûteuses, ou renforcer la stabilité en améliorant la surveillance et la défense.
Le navire chinois sans pilote, le Zhu Hai Yun, met en évidence la frontière floue entre l’offensive et la défense dans la guerre basée sur l’IA. Conçu pour déployer plus de 50 véhicules autonomes aériens, de surface et sous-marins, le Zhu Hai Yun peut renforcer la surveillance maritime et les défenses anti-sous-marines – mais il pourrait tout aussi bien être utilisé pour lancer des essaims de drones coordonnés et projeter une force dans des eaux contestées.
Cet exemple montre que l’impact stratégique de tels systèmes n’est pas figé. Que le Zhu Hai Yun fasse pencher la balance vers l’offensive ou la défense dépend non seulement de la manière dont la Chine l’utilise, mais aussi de la manière dont ses rivaux s’adaptent – grâce aux technologies de lutte contre les drones, aux plates-formes furtives ou aux cyberdéfenses. Comme l’a soutenu Jervis, l’équilibre offensif-défense n’est pas déterminé uniquement par les capacités, mais par la manière dont ces capacités interagissent – ce qui en fait une équation en constante évolution.
Un autre facteur crucial est de savoir si les systèmes basés sur l’IA sont déployés de manière optimale. Les systèmes d’armes autonomes peuvent favoriser la défense s’ils sont renforcés contre les cyberattaques, s’ils sont construits avec des chaînes d’approvisionnement fiables et s’ils conservent une surveillance humaine significative. Mais s’ils restent vulnérables – en raison d’un matériel compromis, d’un empoisonnement des données ou d’une mauvaise hygiène informatique – ils peuvent révéler des faiblesses exploitables par des adversaires. Dans de tels cas, le camp offensif prend le dessus en ciblant les failles des systèmes d’IA plutôt qu’en affrontant leurs forces.
La Chine et les États-Unis en sont parfaitement conscients. La Chine s’efforce d’atteindre l’autosuffisance technologique et d’étendre les réseaux à sécurité quantique. Les États-Unis ont interdit les drones fabriqués en Chine et investissent dans une microélectronique fiable. Ces efforts reflètent une compréhension commune : l’impact stratégique de l’IA sur l’équilibre offensif et défensif dépend non seulement de ce qu’elle peut faire, mais aussi de la manière dont elle peut être mise en œuvre en toute sécurité et fiabilité.
Les perceptions comptent également. Les planificateurs de la défense chinois et américains considèrent l’IA non seulement comme une avancée technologique, mais aussi comme une voie vers une future domination militaire. La Chine a décrit l’IA comme inaugurant une ère de guerre « intelligente », provoquant des changements doctrinaux similaires aux réponses passées aux révolutions nucléaire et numérique. Les responsables américains soulignent également une domination rapide via des systèmes autonomes. Mais cette croyance partagée dans le potentiel offensif de l’IA risque d’alimenter un cycle action-réaction qui pourrait réduire la stabilité de la crise – surtout si les deux parties estiment qu’elles doivent frapper les premières pour l’emporter.
Historiquement, les technologies militaires favorisant l’offensive n’ont pas toujours conduit à davantage de guerres. Parfois, la crainte d’une déstabilisation a incité à la retenue diplomatique. Une tendance similaire pourrait émerger aujourd’hui. Les inquiétudes quant au potentiel de l’IA à abaisser le seuil de conflit ont conduit à des efforts internationaux visant à gérer les risques. Depuis 2014, les Nations Unies organisent des discussions récurrentes sur les systèmes d’armes létaux autonomes. En 2023, les États-Unis et la Chine ont tenu des discussions de haut niveau sur la sécurité de l’IA. Pendant ce temps, les chercheurs et les dirigeants de la société civile construisent des canaux informels de « voie 2 » pour explorer des approches coopératives en matière de gouvernance de l’IA.
Pourtant, aucun accord contraignant n’existe. L’intensification de la course aux armements, notamment entre les États-Unis et la Chine, continue de stimuler les investissements dans des systèmes de plus en plus avancés et potentiellement déstabilisateurs. Il est donc essentiel d’aborder l’innovation militaire en matière d’IA avec prudence. Même si l’impact stratégique de l’IA reste incertain, prendre le temps d’instaurer la confiance, de renforcer la surveillance et d’encourager la coopération pourrait contribuer à prévenir
[ad_2]
Source link
