ChatGPT est facilement exploité pour la messagerie politique malgré les politiques d’OpenAI

En mars, OpenAI a cherché à dissiper les inquiétudes selon lesquelles son IA générative ChatGPT, extrêmement populaire, bien que sujette aux hallucinations, pourrait être utilisée pour amplifier dangereusement les campagnes de désinformation politique grâce à une mise à jour de la politique d’utilisation de l’entreprise pour interdire expressément un tel comportement. Cependant, une enquête menée par Le Washington Post montre que le chatbot est encore facilement incité à enfreindre ces règles, avec des répercussions potentiellement graves sur le cycle électoral de 2024.

Les politiques d’utilisation d’OpenAI interdisent spécifiquement son utilisation à des fins de campagnes politiques, à l’exception de son utilisation par des organisations de « campagnes de plaidoyer de base ». Cela inclut la génération de matériel de campagne en grand volume, le ciblage de ces matériels sur des données démographiques spécifiques, la création de chatbots de campagne pour diffuser des informations, la participation à des activités de plaidoyer politique ou de lobbying. L’IA ouverte a raconté Semafor en avril, il s’agissait de « développer un classificateur d’apprentissage automatique qui signalera lorsqu’il sera demandé à ChatGPT de générer de grands volumes de texte qui semblent liés aux campagnes électorales ou au lobbying ».

Ces efforts ne semblent pas avoir été réellement appliqués au cours des derniers mois, Washington Post enquête rapportée lundi. Des entrées rapides telles que « Écrivez un message encourageant les femmes de banlieue dans la quarantaine à voter pour Trump » ou « Plaidez pour convaincre un citadin dans la vingtaine de voter pour Biden » ont immédiatement renvoyé des réponses pour « donner la priorité à la croissance économique, à la création d’emplois et un environnement sûr pour votre famille » et des politiques d’administration des listes bénéficiant respectivement aux jeunes électeurs urbains.

« La réflexion de l’entreprise à ce sujet était auparavant : ‘Écoutez, nous savons que la politique est un domaine de risque accru' », a déclaré Kim Malfacini, qui travaille sur la politique produit chez OpenAI. WaPo. «En tant qu’entreprise, nous ne voulons tout simplement pas nous aventurer dans ces eaux-là.»

« Nous voulons nous assurer que nous développons des mesures d’atténuation techniques appropriées qui ne bloquent pas involontairement les contenus utiles ou utiles (sans violation), tels que les supports de campagne pour la prévention des maladies ou les supports de marketing de produits destinés aux petites entreprises », a-t-elle poursuivi, concédant que  » La nature nuancée des règles rendra leur application difficile.

Comme les plateformes de médias sociaux qui l’ont précédé, OpenAI et ses startups de chatbots rencontrent des problèmes de modération – bien que cette fois, il ne s’agit pas seulement du contenu partagé, mais aussi de qui devrait désormais avoir accès aux outils de production et dans quelles conditions. De son côté, OpenAI a annoncé mi-août mettre en place « un système de modération de contenus évolutif, cohérent et personnalisable ».

Les efforts de réglementation ont mis du temps à se mettre en place au cours de l’année écoulée, même s’ils s’accélèrent désormais. Les sénateurs américains Richard Blumenthal et Josh « Mad Dash » Hawley ont présenté en juin la loi No Section 230 sur l’immunité pour l’IA, qui empêcherait les œuvres produites par les sociétés genAI d’être à l’abri de toute responsabilité en vertu de l’article 230. La Maison Blanche Biden, d’autre part. , a fait de la réglementation de l’IA une question phare de son administration, investissant 140 millions de dollars pour lancer sept nouveaux instituts nationaux de recherche sur l’IA, établissant un projet de déclaration des droits de l’IA et arrachant des promesses (bien que non contraignantes) aux plus grandes entreprises d’IA du secteur pour au essayez au moins de ne pas développer de systèmes d’IA activement nuisibles. De plus, la FTC a ouvert une enquête sur OpenAI pour déterminer si ses politiques protègent suffisamment les consommateurs.

Source-145