Un nouveau rapport de la société d’IA OpenAI révèle que des acteurs basés en Russie et en Chine ont utilisé l’intelligence artificielle générative pour intensifier leurs opérations de désinformation sur des sujets comme l’Ukraine, Taiwan, la Moldavie et les États-Unis.
Le rapport détaille cinq opérations d’information distinctes au cours des trois derniers mois qui ont utilisé les outils OpenAI pour améliorer leur efficacité ou leur portée. Ensemble, ils ouvrent une fenêtre sur la manière dont les adversaires peuvent utiliser des outils d’IA avancés pour influencer la perception des événements géopolitiques.
Une découverte centrale : l’IA générative peut permettre aux opérateurs ayant une maîtrise très limitée de l’anglais (ou potentiellement d’autres langues) de paraître beaucoup plus authentiques, et peut donner du caractère aux messages et aux commentaires pour les faire paraître davantage comme s’ils provenaient de véritables locuteurs natifs. Certains acteurs ont utilisé ces outils pour augmenter le nombre de commentaires qu’ils pouvaient publier sur diverses plateformes, créant ainsi l’impression d’un sentiment populaire massif contre les États-Unis, l’Ukraine ou d’autres cibles. C’est essentiel, car une mauvaise utilisation de la langue est l’un des rares signes révélateurs que les utilisateurs en ligne recherchent lorsqu’ils décident si un contenu Internet est légitime.
Un groupe pro-russe appelé Bad Grammar a utilisé les outils OpenAI pour accuser « les présidents d’Ukraine et de Moldavie de corruption, de manque de soutien populaire et de trahison de leur propre peuple face à l’« ingérence » occidentale. Les commentaires en anglais sur Telegram se sont concentrés sur des sujets tels que l’immigration, les difficultés économiques et les dernières nouvelles du jour. Ces commentaires utilisaient souvent le contexte des événements actuels pour affirmer que les États-Unis ne devraient pas soutenir l’Ukraine », selon le rapport. La Russie a récemment ciblé davantage d’opérations d’information vers la Moldavie, signalant qu’elle pourrait être une cible potentielle pour une invasion russe.
Un autre groupe opérant en Russie, appelé Doppelganger, a utilisé l’outil pour publier du contenu en anglais, français, allemand, italien et polonais, et l’a fait paraître beaucoup plus populaire qu’il ne l’était en réalité. « Chaque fois que la campagne publiait un mème ou une vidéo sur 9GAG, trois à cinq comptes répondaient, généralement avec des messages simples tels que « hahaha » ou « mdr ». Chacun de ces comptes n’a interagi qu’avec le contenu de cette campagne ; la plupart ont été créés à la même date. Ce comportement a souvent suscité des commentaires critiques de la part d’autres utilisateurs, dont beaucoup ont qualifié les comptes de « robots ».
L’utilisation de l’IA pour manipuler la portée des publications était également courante parmi les acteurs qui « utilisaient nos modèles pour générer de grandes quantités de courts commentaires qui étaient ensuite publiés sur Telegram, X, Instagram et d’autres sites ».
Les acteurs chinois étaient moins susceptibles d’utiliser ces outils pour lancer du contenu troll, mais utilisaient plutôt l’IA pour affiner leurs opérations et intensifier l’analyse des plateformes, de leurs failles de sécurité, du sentiment du public en ligne, etc. Un groupe chinois appelé Spamouflage « a utilisé les outils pour déboguer le code ». , demandez des conseils sur l’analyse des médias sociaux, recherchez l’actualité et l’actualité, et générez du contenu qui a ensuite été publié sur les forums de blogs et les réseaux sociaux. Et ils « ont utilisé nos modèles pour résumer et analyser le sentiment d’un grand nombre de publications sur les réseaux sociaux, en particulier les publications en chinois. Les personnes agissant pour le compte de l’IUVM ont utilisé nos modèles pour créer des tags de sites Web, qui semblent ensuite avoir été automatiquement ajoutés au site Internet du groupe.
D’après l’analyse d’OpenAI, aucune des campagnes n’a eu beaucoup d’impact, tel que mesuré par Breakout Scale. Mais ils montrent comment les adversaires cherchent déjà à utiliser des outils d’IA basés aux États-Unis pour influencer la perception du public sur les plateformes de médias sociaux étrangères comme Telegram, mais aussi sur les plateformes nationales comme X, anciennement Twitter.
Les responsables de la sécurité nationale mettent en garde depuis des mois contre la menace croissante de l’IA en matière de désinformation liée aux élections, et la directrice de l’ODNI, Avril Haines, a déclaré en mars que l’IA pourrait avoir joué un rôle essentiel dans les élections slovaques du début de cette année, en permettant aux acteurs pro-russes de créer et diffuser du faux contenu audio prétendant montrer des dirigeants gouvernementaux se livrant à la corruption.
Le rapport d’OpenAI suit les efforts de l’entreprise pour obtenir une législation garantissant que le contenu généré par l’IA soit clairement étiqueté, mais il montre également que même si la détection du contenu généré par l’IA s’améliore, les mauvais acteurs peuvent toujours le générer et le diffuser beaucoup plus rapidement que les modérateurs ne peuvent agir.