Lundi, le créateur de ChatGPT, OpenAI, a détaillé ses plans pour empêcher l’utilisation abusive de ses technologies d’IA lors des prochaines élections en 2024, promettant la transparence du contenu généré par l’IA et améliorant l’accès à des informations de vote fiables. Le développeur d’IA affirme travailler sur une approche qui implique l’application de politiques, la collaboration avec des partenaires et le développement de nouveaux outils visant à classer les médias générés par l’IA.
« Alors que nous nous préparons pour les élections de 2024 dans les plus grandes démocraties du monde, notre approche consiste à poursuivre notre travail de sécurité de la plateforme en fournissant des informations de vote précises, en appliquant des politiques mesurées et en améliorant la transparence », écrit OpenAI dans son blog. « La protection de l’intégrité des élections nécessite la collaboration de tous les acteurs du processus démocratique, et nous voulons nous assurer que notre technologie ne soit pas utilisée d’une manière qui pourrait nuire à ce processus. »
Les initiatives proposées par OpenAI incluent la prévention des abus par des moyens tels que les deepfakes ou les robots imitant les candidats, l’affinement des politiques d’utilisation et le lancement d’un système de signalement permettant au public de signaler les abus potentiels. Par exemple, l’outil de génération d’images d’OpenAI, DALL-E 3, comprend des filtres intégrés qui rejettent les demandes de création d’images de personnes réelles, y compris de politiciens. « Depuis des années, nous étudions des outils pour améliorer l’exactitude des faits, réduire les biais et refuser certaines demandes », a déclaré la société.
OpenAI affirme mettre régulièrement à jour ses politiques d’utilisation de ChatGPT et de ses produits API pour éviter toute utilisation abusive, notamment dans le contexte des élections. L’organisation a mis en place des restrictions sur l’utilisation de ses technologies à des fins de campagne politique et de lobbying jusqu’à ce qu’elle comprenne mieux le potentiel de persuasion personnalisée. En outre, OpenAI interdit la création de chatbots qui usurpent l’identité de véritables individus ou institutions et interdit le développement d’applications qui pourraient dissuader les gens de « participer aux processus démocratiques ». Les utilisateurs peuvent signaler les GPT susceptibles de violer les règles.
OpenAI prétend être engagé de manière proactive dans des stratégies détaillées pour protéger ses technologies contre toute utilisation abusive. Selon leurs déclarations, cela implique de créer de nouveaux systèmes en équipe rouge pour anticiper les défis, de dialoguer avec les utilisateurs et les partenaires pour obtenir des commentaires et de mettre en œuvre de solides mesures d’atténuation de sécurité. OpenAI affirme que ces efforts font partie intégrante de sa mission consistant à affiner continuellement les outils d’IA pour améliorer la précision, réduire les biais et traiter de manière responsable les demandes sensibles.
Concernant la transparence, OpenAI affirme poursuivre ses efforts dans la classification de la provenance des images. La société prévoit d’intégrer des informations d’identification numériques, à l’aide de techniques cryptographiques, dans les images produites par DALL-E 3 dans le cadre de son adoption des normes par la Coalition pour la provenance et l’authenticité du contenu. De plus, OpenAI affirme tester un outil conçu pour identifier les images générées par DALL-E.
Dans le but de connecter les utilisateurs à des informations faisant autorité, notamment concernant les procédures de vote, OpenAI affirme s’être associé à la National Association of Secretaries of State (NASS) aux États-Unis. ChatGPT dirigera les utilisateurs vers CanIVote.org pour obtenir des informations vérifiées sur le vote aux États-Unis.
« Nous voulons nous assurer que nos systèmes d’IA sont construits, déployés et utilisés en toute sécurité », écrit OpenAI. « Comme toute nouvelle technologie, ces outils comportent des avantages et des défis. Ils sont également sans précédent, et nous continuerons à faire évoluer notre approche à mesure que nous en apprendrons davantage sur la façon dont nos outils sont utilisés.