OpenAI a révélé que des opérations liées à la Russie, à la Chine, à l’Iran et à Israël utilisent ses outils d’intelligence artificielle pour créer et diffuser de la désinformation, alors que la technologie devient une arme puissante dans la guerre de l’information au cours d’une année électorale chargée.
Le créateur du chatbot ChatGPT, basé à San Francisco, a déclaré jeudi dans un rapport que cinq opérations d’influence secrètes avaient utilisé ses modèles d’IA pour générer du texte et des images en grand volume, avec moins d’erreurs de langue qu’auparavant, ainsi que pour générer des commentaires ou des commentaires. réponses à leurs propres messages. Les politiques d’OpenAI interdisent l’utilisation de ses modèles pour tromper ou induire autrui en erreur.
Le contenu se concentrait sur des questions « notamment l’invasion de l’Ukraine par la Russie, le conflit à Gaza, les élections indiennes, la politique en Europe et aux États-Unis, ainsi que les critiques du gouvernement chinois par les dissidents chinois et les gouvernements étrangers », a déclaré OpenAI dans le rapport.
Les réseaux ont également utilisé l’IA pour améliorer leur propre productivité, en l’appliquant à des tâches telles que le débogage de code ou la recherche sur l’activité des médias sociaux publics, indique-t-il.
Les plateformes de médias sociaux, notamment Meta et YouTube de Google, ont cherché à réprimer la prolifération des campagnes de désinformation à la suite de la victoire de Donald Trump à l’élection présidentielle américaine de 2016, lorsque les enquêteurs ont découvert des preuves selon lesquelles une ferme de trolls russe avait cherché à manipuler le vote.
La pression monte sur les sociétés d’IA à croissance rapide telles qu’OpenAI, car les progrès rapides de leur technologie signifient qu’il est moins cher et plus facile que jamais pour les auteurs de désinformation de créer des deepfakes réalistes et de manipuler les médias, puis de diffuser ce contenu de manière automatisée.
Alors qu’environ 2 milliards de personnes se rendront aux urnes cette année, les décideurs politiques ont exhorté les entreprises à introduire et à faire respecter des garde-fous appropriés.
Ben Nimmo, enquêteur principal pour le renseignement et les enquêtes chez OpenAI, a déclaré lors d’un appel avec des journalistes que les campagnes ne semblaient pas avoir augmenté « de manière significative » leur engagement ou leur portée grâce à l’utilisation des modèles d’OpenAI.
Mais, a-t-il ajouté, « l’heure n’est pas à la complaisance. L’histoire montre que des opérations d’influence qui ont passé des années à échouer peuvent soudainement éclater si personne ne les recherche.»
OpenAI, soutenu par Microsoft, a déclaré qu’il s’engageait à découvrir de telles campagnes de désinformation et qu’il construisait ses propres outils basés sur l’IA pour rendre la détection et l’analyse « plus efficaces ». Il a ajouté que ses systèmes de sécurité rendaient déjà difficile le fonctionnement des auteurs, ses modèles refusant à plusieurs reprises de générer le texte ou les images demandés.
Dans le rapport, OpenAI a révélé que plusieurs acteurs de désinformation bien connus affiliés à l’État avaient utilisé ses outils. Il s’agit notamment d’une opération russe, Doppelganger, qui a été découverte pour la première fois en 2022 et qui tente généralement de saper le soutien à l’Ukraine, et d’un réseau chinois connu sous le nom de Spamouflage, qui défend les intérêts de Pékin à l’étranger. Les deux campagnes ont utilisé leurs modèles pour générer du texte ou des commentaires dans plusieurs langues avant de les publier sur des plateformes telles que X d’Elon Musk.
Il a signalé une opération russe non signalée auparavant, baptisée Bad Grammar, affirmant qu’elle utilisait des modèles OpenAI pour déboguer le code permettant d’exécuter un robot Telegram et pour créer de courts commentaires politiques en russe et en anglais qui étaient ensuite publiés sur la plateforme de messagerie Telegram.
X et Telegram ont été contactés pour commentaires.
Il a également déclaré avoir contrecarré un effort de désinformation contre rémunération pro-israélien, prétendument dirigé par une entreprise de gestion de campagnes politiques basée à Tel Aviv appelée STOIC, qui utilisait ses modèles pour générer des articles et des commentaires sur X et sur Instagram et Facebook de Meta.
Meta a publié mercredi un rapport indiquant qu’elle avait supprimé le contenu STOIC. Les comptes liés à ces opérations ont été clôturés par OpenAI.
Reportage supplémentaire de Cristina Criddle
© 2024 The Financial Times Ltd. Tous droits réservés. Ne pas être redistribué, copié ou modifié de quelque manière que ce soit.