OpenAI a déclaré avoir arrêté cinq opérations d’influence secrètes qui utilisaient ses modèles d’IA pour des activités trompeuses sur Internet. Ces opérations, qu’OpenAI a arrêtées entre 2023 et 2024, provenaient de Russie, de Chine, d’Iran et d’Israël et tentaient de manipuler l’opinion publique et d’influencer les résultats politiques sans révéler leur véritable identité ou intentions, a déclaré jeudi la société. « En mai 2024, ces campagnes ne semblent pas avoir augmenté de manière significative l’engagement ou la portée de leur public grâce à nos services », a déclaré OpenAI dans un rapport sur l’opération, et a ajouté qu’elle travaillait avec des personnes de l’industrie technologique, civile. la société et les gouvernements pour éliminer ces mauvais acteurs.
Le rapport d’OpenAI intervient au milieu d’inquiétudes concernant l’impact de l’IA générative sur les multiples élections prévues cette année dans le monde, y compris aux États-Unis. Dans ses conclusions, OpenAI a révélé comment des réseaux de personnes engagées dans des opérations d’influence ont utilisé l’IA générative pour générer des volumes de texte et d’images beaucoup plus élevés qu’auparavant, et ont simulé un engagement en utilisant l’IA pour générer de faux commentaires sur les publications sur les réseaux sociaux.
« Au cours de la dernière année et demie, de nombreuses questions ont été posées sur ce qui pourrait arriver si les opérations d’influence utilisaient l’IA générative », a déclaré Ben Nimmo, enquêteur principal de l’équipe Intelligence and Investigations d’OpenAI, aux médias lors d’un point de presse. à Bloomberg. « Avec ce rapport, nous voulons vraiment commencer à combler certains vides. »
OpenAI a déclaré que l’opération russe appelée « Doppelganger » utilisait les modèles de l’entreprise pour générer des titres, convertir des articles de presse en publications sur Facebook et créer des commentaires dans plusieurs langues afin de saper le soutien à l’Ukraine. Un autre groupe russe a utilisé les modèles d’OpenAI pour déboguer le code d’un robot Telegram qui publiait de courts commentaires politiques en anglais et en russe, ciblant l’Ukraine, la Moldavie, les États-Unis et les États baltes. Le réseau chinois « Spamouflage », connu pour ses efforts d’influence sur Facebook et Instagram, a utilisé les modèles d’OpenAI pour rechercher l’activité des médias sociaux et générer du contenu textuel dans plusieurs langues sur diverses plateformes. L’« Union internationale des médias virtuels » iranienne a également utilisé l’IA pour générer du contenu dans plusieurs langues.
La divulgation d’OpenAI est similaire à celle que d’autres entreprises technologiques font de temps à autre. Mercredi, par exemple, Meta a publié son dernier rapport sur les comportements inauthentiques coordonnés, détaillant comment une société de marketing israélienne avait utilisé de faux comptes Facebook pour mener une campagne d’influence sur sa plateforme ciblant des personnes aux États-Unis et au Canada.