Armed America Radio vante l’un de ses animateurs, Mark Walters, comme la « voix la plus forte d’Amérique luttant pour les droits des armes à feu ». Maintenant, il semble que le commentaire éminent de Walters sur les droits des armes à feu et la Second Amendement Foundation (SAF) – une organisation à but non lucratif pour les droits des armes à feu qui lui a décerné un prix de service distingué en 2017 – a conduit le chatbot d’IA génératif ChatGPT à connecter à tort des points et à faire des faux et prétendument malveillants déclarations sur l’animateur de radio. Cela inclut la génération de déclarations potentiellement diffamatoires selon lesquelles Walters était autrefois le directeur financier et le trésorier de SAF et qu’il a été accusé d’avoir détourné des fonds et fraudé SAF.
Maintenant, Walters poursuit le propriétaire de ChatGPT OpenAI devant un tribunal de l’État de Géorgie pour des dommages-intérêts non spécifiés dans ce qui est probablement le premier procès en diffamation résultant des soi-disant « hallucinations » de ChatGPT, où le chatbot fabrique complètement des informations.
La désinformation a été découverte pour la première fois par le journaliste Fred Riehl, qui a demandé à ChatGPT de résumer une plainte déposée par SAF devant un tribunal fédéral.
Cette plainte de la SAF a en fait accusé le procureur général de Washington, Robert Ferguson, d' »abus de procédure judiciaire pour poursuivre des vendettas privées et éradiquer la dissidence ». Walters n’a jamais été partie à cette affaire ni même mentionné dans la poursuite, mais ChatGPT n’a pas tenu compte de cela et de tous les faits réels de l’affaire lorsqu’il a été invité à le résumer, selon la plainte de Walters. Au lieu de cela, cela a généré une réponse totalement inexacte à l’invite de Riehl, affirmant à tort que l’affaire avait été déposée contre Walters pour détournement de fonds qui ne s’est jamais produit alors qu’il servait à un poste SAF qu’il n’a jamais occupé.
Même lorsque Riehl a demandé à ChatGPT de pointer vers des paragraphes spécifiques qui mentionnaient Walters dans la plainte SAF ou de fournir le texte intégral de la plainte SAF, ChatGPT a généré une « fabrication complète » qui « ne ressemble en rien à la plainte réelle, y compris un numéro de dossier erroné, » dit la plainte de Walters.
« Chaque déclaration de fait » dans le résumé de l’affaire SAF de ChatGPT « concernant Walters est fausse », a déclaré la plainte de Walters.
OpenAI n’a pas immédiatement répondu à la demande de commentaire d’Ars.
OpenAI est-il responsable lorsque ChatGPT ment ?
Ce n’est pas la première fois que ChatGPT a complètement fabriqué un procès. Un avocat fait actuellement face à de lourdes conséquences devant le tribunal après que ChatGPT ait inventé six affaires que l’avocat a citées sans vérifier au préalable les détails de l’affaire qu’un juge a qualifié de « charabia juridique » évident, a rapporté Fortune.
Bien que le chatbot sophistiqué soit utilisé par de nombreuses personnes – des étudiants recherchant des dissertations aux avocats recherchant la jurisprudence – pour rechercher des informations précises, les conditions d’utilisation de ChatGPT indiquent clairement que ChatGPT ne peut pas générer des informations précises. Ça dit:
L’intelligence artificielle et l’apprentissage automatique sont des domaines d’étude en évolution rapide. Nous travaillons constamment à l’amélioration de nos Services pour les rendre plus précis, fiables, sûrs et avantageux. Compte tenu de la nature probabiliste de l’apprentissage automatique, l’utilisation de nos services peut, dans certaines situations, entraîner une sortie incorrecte qui ne reflète pas avec précision des personnes, des lieux ou des faits réels. Vous devez évaluer l’exactitude de toute sortie en fonction de votre cas d’utilisation, y compris en utilisant un examen humain de la sortie.
L’avocat de Walters, John Monroe, a déclaré à Ars que « bien que la recherche et le développement en IA soient des efforts valables, il est irresponsable de lancer une plate-forme sur le public qui fait sciemment de fausses déclarations sur les gens ».
OpenAI a déjà été menacé d’un procès en diffamation par un maire australien, Brian Hood, après que ChatGPT ait généré de fausses allégations selon lesquelles Hood avait été emprisonné pour corruption. Dans ce cas, Hood a demandé à OpenAI de supprimer les fausses informations en tant que remède significatif ; sinon, le fonctionnaire pourrait subir des dommages à sa réputation qui, selon lui, pourraient avoir un impact négatif sur sa carrière politique.
Monroe a déclaré à Ars que Walters ne demandait pour le moment que des dommages-intérêts comme réparation, confirmant que la perte de réputation potentielle de Walters pourrait avoir un impact sur les futures opportunités d’emploi ou entraîner la perte d’auditeurs de son commentaire radio.