lundi, décembre 23, 2024

Microsoft offre aux politiciens une protection contre les deepfakes

Alors que l’on craint de plus en plus que l’IA puisse faciliter la diffusion de fausses informations, Microsoft propose ses services, notamment un filigrane numérique identifiant le contenu de l’IA, pour aider à lutter contre les deepfakes et à renforcer la cybersécurité à l’approche de plusieurs élections mondiales.

Dans un article de blog co-écrit par le président de Microsoft, Brad Smith, et la vice-présidente de Microsoft, Technologie pour les droits fondamentaux, Teresa Hutson, la société a annoncé qu’elle offrirait plusieurs services pour protéger l’intégrité des élections, notamment le lancement d’un nouvel outil qui exploite le système de filigrane Content Credentials développé par la Coalition pour l’authenticité de la provenance du contenu (C2PA). L’objectif du service est d’aider les candidats à protéger l’utilisation de leur contenu et de leur image, et à empêcher le partage d’informations trompeuses.

Appelé Content Credentials as a Service, les utilisateurs comme les campagnes électorales peuvent utiliser l’outil pour joindre des informations aux métadonnées d’une image ou d’une vidéo. Les informations peuvent inclure la provenance du moment, du comment, du moment et de la personne qui a créé le contenu. Il indiquera également si l’IA a été impliquée dans la création du contenu. Ces informations deviennent une partie permanente de l’image ou de la vidéo. C2PA, un groupe de sociétés fondé en 2019 qui travaille à l’élaboration de normes techniques pour certifier la provenance du contenu, a lancé cette année Content Credentials. Adobe, membre du C2PA, a publié en octobre un symbole d’informations d’identification de contenu à joindre aux photos et vidéos.

Content Credentials as a Service sera lancé au printemps de l’année prochaine et sera d’abord mis à la disposition des campagnes politiques. L’équipe Azure de Microsoft a créé l’outil. Le bord a contacté Microsoft pour plus d’informations sur le nouveau service.

« Étant donné la nature technologique des menaces impliquées, il est important que les gouvernements, les entreprises technologiques, le monde des affaires et la société civile adoptent de nouvelles initiatives, notamment en s’appuyant sur le travail de chacun », ont déclaré Smith et Huston.

Microsoft a déclaré avoir formé une équipe qui fournira des conseils et un soutien aux campagnes visant à renforcer les protections en matière de cybersécurité et à travailler avec l’IA. La société mettra également en place ce qu’elle appelle un centre de communications électorales où les gouvernements du monde entier pourront accéder aux équipes de sécurité de Microsoft avant les élections.

Smith et Hutson ont déclaré que Microsoft approuverait le Loi sur la protection des élections contre l’IA trompeuse présenté par la sénatrice Amy Klobuchar (D-MN), Chris Coons (D-DE), Josh Hawley (R-MO) et Susan Collins (R-ME). Le projet de loi vise à interdire l’utilisation de l’IA pour créer « du contenu matériellement trompeur décrivant faussement les candidats fédéraux ».

« Nous utiliserons notre voix en tant qu’entreprise pour soutenir les changements législatifs et juridiques qui renforceront la protection des campagnes et des processus électoraux contre les deepfakes et autres utilisations nuisibles des nouvelles technologies », ont écrit Smith et Huston.

Microsoft prévoit également de travailler avec des groupes tels que l’Association nationale des directeurs d’élections d’État, Reporters sans frontières et l’agence de presse espagnole EFE pour faire apparaître sur Bing des sites réputés proposant des informations électorales. La société a déclaré que cela étendait son précédent partenariat avec Newsguard et Claim Review. Il espère publier régulièrement des rapports sur les influences étrangères lors des élections clés. Il a déjà publié le premier rapport analysant les menaces des influences étrangères malignes.

Certaines campagnes politiques ont déjà été critiquées pour avoir diffusé des photos et des vidéos manipulées, même si toutes n’ont pas été créées avec l’IA. Bloomberg a rapporté que la campagne de Ron DeSantis avait publié de fausses images de son rival Donald Trump posant avec Anthony Fauci en juin et que le Comité national républicain avait promu une fausse vidéo d’un États-Unis apocalyptique accusant l’administration Biden. Ces deux actes étaient relativement inoffensifs, mais ont été cités comme exemples de la façon dont la technologie crée des ouvertures pour diffuser de la désinformation.

La désinformation et les contrefaçons constituent toujours un problème dans toute élection moderne, mais la facilité d’utilisation d’outils d’IA générative pour créer du contenu trompeur alimente la crainte qu’il soit utilisé pour induire les électeurs en erreur. La Commission électorale fédérale américaine (FEC) discute de l’opportunité d’interdire ou de limiter l’IA dans les campagnes politiques. La représentante Yvette Clark (Démocrate de New York) a également déposé un projet de loi à la Chambre pour obliger les candidats à divulguer leur utilisation de l’IA.

Cependant, on craint que les filigranes, comme les informations d’identification de contenu, ne suffisent pas à mettre fin purement et simplement à la désinformation. Le filigrane est un élément central du décret de l’administration Biden concernant l’IA.

Microsoft n’est pas la seule grande entreprise technologique à espérer freiner l’utilisation abusive de l’IA lors des élections. Meta exige désormais que les annonceurs politiques divulguent le contenu généré par l’IA après leur avoir interdit d’utiliser ses outils publicitaires génératifs d’IA.

source site-132

- Advertisement -

Latest