Une coalition de 20 entreprises technologiques a signé vendredi un accord pour aider à prévenir les deepfakes d’IA lors des élections critiques de 2024 qui se dérouleront dans plus de 40 pays. OpenAI, Google, Meta, Amazon, Adobe et X font partie des entreprises qui rejoignent le pacte pour prévenir et combattre les contenus générés par l’IA qui pourraient influencer les électeurs. Cependant, le langage vague de l’accord et l’absence d’application contraignante remettent en question sa portée suffisante.
La liste des entreprises signataires de l’« Accord technologique pour lutter contre l’utilisation trompeuse de l’IA lors des élections de 2024 » comprend celles qui créent et distribuent des modèles d’IA, ainsi que les plateformes sociales sur lesquelles les deepfakes sont les plus susceptibles d’apparaître. Les signataires sont Adobe, Amazon, Anthropic, Arm, ElevenLabs, Google, IBM, Inflection AI, LinkedIn, McAfee, Meta, Microsoft, Nota, OpenAI, Snap Inc., Stability AI, TikTok, Trend Micro, Truepic et X (anciennement Twitter). ).
Le groupe décrit l’accord comme « un ensemble d’engagements visant à déployer une technologie pour lutter contre les contenus nuisibles générés par l’IA et destinés à tromper les électeurs ». Les signataires ont convenu des huit engagements suivants :
-
Développer et mettre en œuvre une technologie pour atténuer les risques liés au contenu Deceptive AI Election, y compris des outils open source, le cas échéant.
-
Évaluer les modèles dans le cadre de cet accord pour comprendre les risques qu’ils peuvent présenter en ce qui concerne le contenu électoral trompeur de l’IA
-
Cherchant à détecter la diffusion de ces contenus sur leurs plateformes
-
Cherchant à traiter de manière appropriée ce contenu détecté sur leurs plateformes
-
Favoriser la résilience intersectorielle face au contenu électoral trompeur de l’IA
-
Assurer la transparence envers le public sur la manière dont l’entreprise y répond
-
Continuer à collaborer avec un ensemble diversifié d’organisations mondiales de la société civile, d’universitaires
-
Soutenir les efforts visant à favoriser la sensibilisation du public, l’éducation aux médias et la résilience de l’ensemble de la société
L’accord s’appliquera à l’audio, à la vidéo et aux images générés par l’IA. Il vise les contenus qui « falsifient ou modifient de manière trompeuse l’apparence, la voix ou les actions des candidats politiques, des responsables électoraux et d’autres parties prenantes clés d’une élection démocratique, ou qui fournissent de fausses informations aux électeurs sur le moment, le lieu et la manière dont ils peuvent voter. »
Les signataires déclarent qu’ils travailleront ensemble pour créer et partager des outils permettant de détecter et de lutter contre la distribution en ligne de deepfakes. En outre, ils prévoient de mener des campagnes éducatives et de « garantir la transparence » aux utilisateurs.
OpenAI, l’un des signataires, a déjà annoncé le mois dernier son intention de supprimer la désinformation liée aux élections dans le monde entier. Les images générées avec l’outil DALL-E 3 de la société seront codées avec un classificateur fournissant un filigrane numérique pour clarifier leur origine en tant qu’images générées par l’IA. Le créateur de ChatGPT a déclaré qu’il travaillerait également avec des journalistes, des chercheurs et des plateformes pour obtenir des commentaires sur son classificateur de provenance. Il prévoit également d’empêcher les chatbots de se faire passer pour des candidats.
« Nous nous engageons à protéger l’intégrité des élections en appliquant des politiques qui préviennent les abus et en améliorant la transparence autour du contenu généré par l’IA », a écrit Anna Makanju, vice-présidente des affaires mondiales chez OpenAI, dans le communiqué de presse commun du groupe. « Nous sommes impatients de travailler avec des partenaires industriels, des dirigeants de la société civile et des gouvernements du monde entier pour contribuer à protéger les élections contre une utilisation trompeuse de l’IA. »
Midjourney, la société dotée d’un générateur d’images IA (du même nom) qui produit actuellement certaines des fausses photos les plus convaincantes, est particulièrement absente de la liste. Toutefois, la société a déclaré plus tôt ce mois-ci qu’elle envisagerait d’interdire complètement les générations politiques pendant la période électorale. L’année dernière, Midjourney a été utilisé pour créer une fausse image virale du pape Benoît XVI se pavanant de manière inattendue dans la rue avec une veste blanche bouffante. L’un des concurrents les plus proches de Midjourney, Stability AI (créateur du logiciel open source Stable Diffusion), a participé. Engadget a contacté Midjourney pour commenter son absence, et nous mettrons à jour cet article si nous recevons une réponse.
Seul Apple est absent parmi les « Big Five » de la Silicon Valley. Cependant, cela peut s’expliquer par le fait que le fabricant d’iPhone n’a pas encore lancé de produits d’IA générative et n’héberge pas non plus de plate-forme de médias sociaux où les deepfakes pourraient être distribués. Quoi qu’il en soit, nous avons contacté Apple PR pour obtenir des éclaircissements, mais nous n’avions pas de réponse au moment de la publication.
Même si les principes généraux convenus par les 20 entreprises semblent être un début prometteur, il reste à voir si un ensemble d’accords vagues, sans application contraignante, suffira à lutter contre un scénario cauchemardesque dans lequel les mauvais acteurs du monde utilisent l’IA générative pour influencer l’opinion publique et élire des candidats agressivement antidémocratiques – aux États-Unis et ailleurs.
« Le langage n’est pas aussi fort qu’on aurait pu s’y attendre », a déclaré Rachel Orey, directrice associée principale du projet Elections au Bipartisan Policy Center. The Associated Press vendredi. « Je pense que nous devrions rendre à César ce qui appartient à César et reconnaître que les entreprises ont tout intérêt à ce que leurs outils ne soient pas utilisés pour saper des élections libres et équitables. Cela dit, c’est volontaire et nous surveillerons s’ils donnent suite.
Les deepfakes générés par l’IA ont déjà été utilisés lors de l’élection présidentielle américaine. Dès avril 2023, le Comité national républicain (RNC) a diffusé une publicité utilisant des images générées par l’IA du président Joe Biden et de la vice-présidente Kamala Harris. La campagne pour Ron DeSantis, qui a depuis abandonné la primaire du GOP, a suivi avec des images générées par l’IA de son rival et probable candidat Donald Trump en juin 2023. Les deux incluaient des avertissements faciles à manquer selon lesquels les images avaient été générées par l’IA.
En janvier, une imitation de la voix du président Biden générée par l’IA a été utilisée par deux sociétés basées au Texas pour appeler automatiquement les électeurs du New Hampshire, les exhortant à ne pas voter lors de la primaire de l’État le 23 janvier. Le clip, généré à l’aide de l’outil de clonage vocal d’ElevenLabs, a atteint jusqu’à 25 000 électeurs du NH, selon le procureur général de l’État. ElevenLabs fait partie des signataires du pacte.
La Commission fédérale des communications (FCC) a agi rapidement pour empêcher de nouveaux abus de la technologie de clonage vocal lors de faux appels de campagne. Plus tôt ce mois-ci, il a voté à l’unanimité l’interdiction des appels automatisés générés par l’IA. Le Congrès américain (apparemment dans une impasse éternelle) n’a adopté aucune législation sur l’IA. En décembre, l’Union européenne (UE) a adopté un vaste projet de loi sur le développement de la sécurité dans le cadre de la loi sur l’IA, qui pourrait influencer les efforts de réglementation d’autres pays.
« Alors que la société profite des avantages de l’IA, nous avons la responsabilité de veiller à ce que ces outils ne deviennent pas des armes lors des élections », a écrit le vice-président et président de Microsoft, Brad Smith, dans un communiqué de presse. « L’IA n’a pas créé la tromperie électorale, mais nous devons nous assurer qu’elle ne favorise pas la tromperie. »