OpenAI expose sa stratégie de désinformation avant les élections de 2024

Alors que les États-Unis se préparent pour l’élection présidentielle de 2024, OpenAI partage ses projets visant à supprimer la désinformation liée aux élections dans le monde entier, en mettant l’accent sur le renforcement de la transparence sur l’origine des informations. L’un de ces points forts est l’utilisation de la cryptographie – telle que standardisée par la Coalition for Content Provenance and Authenticity – pour coder la provenance des images générées par DALL-E 3. Cela permettra à la plate-forme de mieux détecter les images générées par l’IA à l’aide d’un classificateur de provenance, afin d’aider les électeurs à évaluer la fiabilité de certains contenus.

Cette approche est similaire, sinon meilleure, à SynthID de DeepMind pour filigraner numériquement les images et l’audio générés par l’IA, dans le cadre de la propre stratégie de contenu électoral de Google publiée le mois dernier. Le générateur d’images IA de Meta ajoute également un filigrane invisible à son contenu, bien que la société n’ait pas encore fait part de sa volonté de lutter contre la désinformation liée aux élections.

OpenAI indique qu’il travaillera bientôt avec des journalistes, des chercheurs et des plateformes pour obtenir des commentaires sur son classificateur de provenance. Sur le même thème, les utilisateurs de ChatGPT commenceront à voir des actualités en temps réel du monde entier avec attribution et liens. Ils seront également dirigés vers CanIVote.org, la source officielle en ligne sur le vote aux États-Unis, lorsqu’ils poseront des questions de procédure telles que où voter ou comment voter.

De plus, OpenAI réitère ses politiques actuelles visant à mettre fin aux tentatives d’usurpation d’identité sous la forme de deepfakes et de chatbots, ainsi qu’aux contenus conçus pour fausser le processus de vote ou pour décourager les gens de voter. La société interdit également les applications conçues pour les campagnes politiques et, si nécessaire, ses nouveaux GPT permettent aux utilisateurs de signaler des violations potentielles.

OpenAI affirme que les enseignements tirés de ces premières mesures, si elles réussissent (et c’est un très grand « si »), l’aideront à déployer des stratégies similaires à travers le monde. La société fera d’autres annonces connexes dans les mois à venir.

Source-145