Les deepfakes politiques sont le moyen le plus populaire d’abuser de l’IA

Les « deepfakes » générés par l’intelligence artificielle qui usurpent l’identité d’hommes politiques et de célébrités sont bien plus répandus que les efforts visant à utiliser l’IA pour faciliter les cyberattaques, selon la première étude menée par la division DeepMind de Google sur les utilisations malveillantes les plus courantes de cette technologie de pointe.

L’étude indique que la création d’images, de vidéos et d’audio réalistes mais faux de personnes était presque deux fois plus courante que la deuxième utilisation abusive la plus importante des outils d’IA générative : la falsification d’informations à l’aide d’outils basés sur du texte, tels que les chatbots, pour générer de la désinformation. publier en ligne.

L’objectif le plus courant des acteurs utilisant à mauvais escient l’IA générative était de façonner ou d’influencer l’opinion publique, selon l’analyse menée avec l’unité de recherche et développement du groupe de recherche, Jigsaw. Cela représente 27 % des utilisations, alimentant les craintes quant à la manière dont les deepfakes pourraient influencer les élections mondiales de cette année.

Des deepfakes du Premier ministre britannique Rishi Sunak, ainsi que d’autres dirigeants mondiaux, sont apparus sur TikTok, X et Instagram ces derniers mois. Les électeurs britanniques se rendront aux urnes la semaine prochaine pour des élections générales.

L’inquiétude est répandue que, malgré les efforts des plateformes de médias sociaux pour étiqueter ou supprimer de tels contenus, le public pourrait ne pas les reconnaître comme faux et que la diffusion de ces contenus pourrait influencer les électeurs.

Ardi Janjeva, associé de recherche à l’Institut Alan Turing, a qualifié de « particulièrement pertinente » les conclusions de l’article selon lesquelles la contamination d’informations accessibles au public par du contenu généré par l’IA pourrait « fausser notre compréhension collective de la réalité sociopolitique ».

Janjeva a ajouté : « Même si nous sommes incertains quant à l’impact des deepfakes sur le comportement électoral, cette distorsion peut être plus difficile à repérer dans l’immédiat et présente des risques à long terme pour nos démocraties. »

L’étude est la première du genre réalisée par DeepMind, l’unité IA de Google dirigée par Sir Demis Hassabis, et constitue une tentative de quantifier les risques liés à l’utilisation d’outils d’IA générative, que les plus grandes entreprises technologiques du monde ont précipitées auprès du public dans le cadre de leurs recherches. d’énormes profits.

À mesure que les produits génératifs tels que ChatGPT d’OpenAI et Gemini de Google deviennent plus largement utilisés, les entreprises d’IA commencent à surveiller le flot de désinformation et d’autres contenus potentiellement nuisibles ou contraires à l’éthique créés par leurs outils.

En mai, OpenAI a publié une étude révélant que des opérations liées à la Russie, à la Chine, à l’Iran et à Israël utilisaient ses outils pour créer et diffuser de la désinformation.

« Il y a eu beaucoup d’inquiétudes compréhensibles concernant les cyberattaques assez sophistiquées facilitées par ces outils », a déclaré Nahema Marchal, auteur principal de l’étude et chercheur chez Google DeepMind. « Alors que ce que nous avons vu étaient des utilisations abusives assez courantes de GenAI [such as deepfakes that] pourrait passer un peu plus inaperçu.

Les chercheurs de Google DeepMind et de Jigsaw ont analysé environ 200 incidents d’utilisation abusive observés entre janvier 2023 et mars 2024, provenant des plateformes de médias sociaux X et Reddit, ainsi que de blogs en ligne et de rapports d’utilisation abusive dans les médias.

Ars Technica

La deuxième motivation la plus courante derrière les abus était de gagner de l’argent, qu’il s’agisse d’offrir des services pour créer des deepfakes, notamment en générant des représentations nues de personnes réelles, ou d’utiliser l’IA générative pour créer des pans de contenu, tels que de faux articles d’actualité.

L’étude a révélé que la plupart des incidents utilisent des outils facilement accessibles, « nécessitant une expertise technique minimale », ce qui signifie qu’un plus grand nombre d’acteurs malveillants peuvent abuser de l’IA générative.

Les recherches de Google DeepMind influenceront la façon dont il améliore ses évaluations pour tester la sécurité des modèles, et il espère qu’elles affecteront également la façon dont ses concurrents et d’autres parties prenantes perçoivent la manière dont « les dommages se manifestent ».

© 2024 The Financial Times Ltd. Tous droits réservés. Ne pas être redistribué, copié ou modifié de quelque manière que ce soit.

Source-147