Les géants de la technologie signent un engagement volontaire pour lutter contre les deepfakes liés aux élections

Les entreprises technologiques s’engagent à lutter contre les deepfakes liés aux élections alors que les décideurs politiques intensifient la pression.

Aujourd’hui, lors de la conférence sur la sécurité de Munich, des fournisseurs tels que Microsoft, Meta, Google, Amazon, Adobe et IBM ont signé un accord signalant leur intention d’adopter un cadre commun pour répondre aux deepfakes générés par l’IA et destinés à induire les électeurs en erreur. Treize autres sociétés, dont les startups d’IA OpenAI, Anthropic, Inflection AI, ElevenLabs et Stability AI et les plateformes de médias sociaux X (anciennement Twitter), TikTok et Snap, se sont jointes à la signature de l’accord, aux côtés du fabricant de puces Arm et des sociétés de sécurité McAfee et TrendMicro.

Les soussignés ont déclaré qu’ils utiliseraient des méthodes pour détecter et étiqueter les deepfakes politiques trompeurs lorsqu’ils sont créés et distribués sur leurs plateformes, en partageant les meilleures pratiques entre eux et en fournissant des « réponses rapides et proportionnées » lorsque les deepfakes commencent à se propager. Les sociétés ont ajouté qu’elles accorderaient une attention particulière au contexte dans leur réponse aux deepfakes, dans le but de «[safeguard] expression éducative, documentaire, artistique, satirique et politique » tout en maintenant la transparence avec les utilisateurs sur leurs politiques en matière de contenu électoral trompeur.

L’accord est en réalité inefficace et, diront certains critiques, il ne s’agit que d’un signal de vertu : ses mesures sont volontaires. Mais ce battage médiatique montre une méfiance de la part du secteur technologique à l’égard de la réglementation en ce qui concerne les élections, à une époque où 49 % de la population mondiale se rendra aux urnes lors d’élections nationales.

« Le secteur technologique ne peut en aucun cas protéger à lui seul les élections contre ce nouveau type d’abus électoral », a déclaré Brad Smith, vice-président et président de Microsoft, dans un communiqué de presse. « Alors que nous regardons vers l’avenir, il semble à ceux d’entre nous qui travaillent chez Microsoft que nous aurons également besoin de nouvelles formes d’action multipartite… Il est tout à fait clair que la protection des élections [will require] que nous travaillons tous ensemble.

Aux États-Unis, aucune loi fédérale n’interdit les deepfakes, qu’ils soient liés aux élections ou autres. Mais dix États du pays ont adopté des lois les criminalisant, le Minnesota étant le premier à cibler les deepfakes utilisés dans les campagnes politiques.

Ailleurs, les agences fédérales ont pris toutes les mesures coercitives possibles pour lutter contre la propagation des deepfakes.

Cette semaine, la FTC a annoncé qu’elle cherchait à modifier une règle existante interdisant l’usurpation d’identité d’entreprises ou d’agences gouvernementales afin de couvrir tous les consommateurs, y compris les politiciens. Et la FCC a décidé de rendre illégaux les appels automatisés vocaux par l’IA en réinterprétant une règle qui interdit le spam de messages vocaux artificiels et préenregistrés.

Dans l’Union européenne, la loi sur l’IA du bloc exigerait que tout contenu généré par l’IA soit clairement étiqueté comme tel. L’UE utilise également sa loi sur les services numériques pour forcer l’industrie technologique à lutter contre les deepfakes sous diverses formes.

Pendant ce temps, les deepfakes continuent de proliférer. Selon les données de Clarity, une société de détection de deepfakes, le nombre de deepfakes créés a augmenté de 900 % d’une année sur l’autre.

Le mois dernier, des appels automatisés d’IA imitant la voix du président américain Joe Biden ont tenté de décourager les gens de voter aux élections primaires du New Hampshire. Et en novembre, quelques jours seulement avant les élections en Slovaquie, des enregistrements audio générés par l’IA ont usurpé l’identité d’un candidat libéral discutant de projets visant à augmenter les prix de la bière et à truquer les élections.

Dans un récent sondage de YouGov, 85 % des Américains se sont déclarés très préoccupés ou plutôt préoccupés par la propagation de deepfakes vidéo et audio trompeurs. Une enquête distincte de l’Associated Press-NORC Center for Public Affairs Research a révélé que près de 60 % des adultes pensent que les outils d’IA augmenteront la diffusion d’informations fausses et trompeuses au cours du cycle électoral américain de 2024.

Source-146