jeudi, décembre 19, 2024

Anthropic prend des mesures pour prévenir la désinformation électorale

À la veille de l’élection présidentielle américaine de 2024, Anthropic, la startup d’IA bien financée, teste une technologie permettant de détecter lorsque les utilisateurs de son chatbot GenAI posent des questions sur des sujets politiques et de rediriger ces utilisateurs vers des sources « faisant autorité » d’informations de vote.

Appelée Prompt Shield, la technologie, qui repose sur une combinaison de modèles et de règles de détection d’IA, affiche une fenêtre contextuelle si un utilisateur américain de Claude, le chatbot d’Anthropic, demande des informations de vote. La fenêtre contextuelle propose de rediriger l’utilisateur vers TurboVote, une ressource de l’organisation non partisane Democracy Works, où il peut trouver des informations de vote à jour et précises.

Anthropic dit que Prompt Shield a été rendu nécessaire par les lacunes de Claude dans le domaine de l’information politique et électorale. Claude n’est pas formé assez fréquemment pour fournir des informations en temps réel sur des élections spécifiques, reconnaît Anthropic, et il est donc enclin à halluciner – c’est-à-dire à inventer des faits – sur ces élections.

« Nous avons mis en place un » bouclier d’invite « depuis que nous avons lancé Claude – il signale un certain nombre de types de préjudices différents, sur la base de notre politique d’utilisation acceptable », a déclaré un porte-parole à TechCrunch par courrier électronique. « Nous lancerons notre intervention de bouclier rapide spécifique aux élections dans les semaines à venir et nous avons l’intention de surveiller son utilisation et ses limites… Nous avons parlé à diverses parties prenantes, notamment des décideurs politiques, d’autres entreprises, la société civile et des agences non gouvernementales et des acteurs spécifiques aux élections. consultants [in developing this].»

Il s’agit apparemment d’un test limité pour le moment. Claude n’a pas présenté le pop-up lorsque je lui ai demandé comment voter aux prochaines élections, mais a plutôt craché un guide de vote générique. Anthropic affirme qu’il peaufine Prompt Shield alors qu’il se prépare à l’étendre à davantage d’utilisateurs.

Anthropic, qui interdit l’utilisation de ses outils dans les campagnes politiques et le lobbying, est le dernier fournisseur de GenAI à mettre en œuvre des politiques et des technologies pour tenter d’empêcher l’ingérence électorale.

Le timing n’est pas une coïncidence. Cette année, à l’échelle mondiale, plus d’électeurs que jamais dans l’histoire se rendront aux urnes, puisqu’au moins 64 pays représentant une population combinée d’environ 49 % de la population mondiale sont censés organiser des élections nationales.

En janvier, OpenAI a annoncé qu’elle interdirait aux gens d’utiliser ChatGPT, son chatbot viral alimenté par l’IA, pour créer des robots qui usurpent l’identité de vrais candidats ou gouvernements, dénaturent le fonctionnement du vote ou découragent les gens de voter. Comme Anthropic, OpenAI ne permet actuellement pas aux utilisateurs de créer des applications en utilisant ses outils à des fins de campagne politique ou de lobbying – une politique que l’entreprise a réitérée le mois dernier.

Dans le cadre d’une approche technique similaire à Prompt Shield, OpenAI utilise également des systèmes de détection pour orienter les utilisateurs de ChatGPT qui posent des questions logistiques sur le vote vers un site Web non partisan, CanIVote.org, géré par l’Association nationale des secrétaires d’État.

Aux États-Unis, le Congrès n’a pas encore adopté de loi visant à réglementer le rôle politique de l’industrie de l’IA, malgré un certain soutien bipartite. Pendant ce temps, plus d’un tiers des États américains ont adopté ou présenté des projets de loi pour lutter contre les deepfakes dans les campagnes politiques alors que la législation fédérale est au point mort.

Au lieu de légiférer, certaines plateformes – sous la pression des organismes de surveillance et des régulateurs – prennent des mesures pour empêcher que GenAI ne soit utilisée de manière abusive pour tromper ou manipuler les électeurs.

Google a déclaré en septembre dernier qu’il exigerait que les publicités politiques utilisant GenAI sur YouTube et ses autres plateformes, telles que la recherche Google, soient accompagnées d’une mention bien visible si les images ou les sons étaient modifiés de manière synthétique. Meta a également interdit aux campagnes politiques d’utiliser les outils GenAI – y compris les siens – pour faire de la publicité sur ses propriétés.

Source-146

- Advertisement -

Latest