(Mise à jour, 20h30 : Un porte-parole de Gordon Legal a fourni une déclaration à Ars confirmant que les réponses aux invites de texte générées par ChatGPT 3.5 et 4 varient, des commentaires diffamatoires étant toujours générés dans ChatGPT 3.5. Parmi « plusieurs fausses déclarations » générées par ChatGPT figuraient des mensonges indiquant que Brian Hood « a été accusé de corruption de fonctionnaires en Malaisie, en Indonésie et au Vietnam entre 1999 et 2005, qu’il a été condamné à 30 mois de prison après avoir plaidé coupable à deux chefs d’accusation de faux comptabilité en vertu de la loi sur les sociétés en 2012, et qu’il a autorisé des paiements à un marchand d’armes malaisien agissant en tant qu’intermédiaire pour obtenir un contrat avec le gouvernement malaisien. Parce que « toutes ces déclarations sont fausses », Gordon Legal « a déposé un avis de préoccupation à OpenAI » qui détaillait l’inexactitude et demandait une rectification. « Alors que l’intelligence artificielle s’intègre de plus en plus dans notre société, l’exactitude des informations fournies par ces services fera l’objet d’un examen juridique approfondi », a déclaré James Naughton, l’avocat de Hood, notant que si une plainte pour diffamation est soulevée, elle « visera à réparer le préjudice causé » à Hood et « assurer l’exactitude de ce logiciel dans son cas ».)
Ce n’était qu’une question de temps avant que ChatGPT, un outil d’intelligence artificielle qui génère des réponses basées sur des invites textuelles de l’utilisateur, soit menacé de son premier procès en diffamation. Cela s’est produit le mois dernier, a rapporté Reuters aujourd’hui, lorsqu’un maire régional australien, Brian Hood, a envoyé une lettre le 21 mars au développeur de l’outil, OpenAI, annonçant son intention de poursuivre la société pour le rôle présumé de ChatGPT dans la diffusion de fausses allégations selon lesquelles il était parti. en prison pour corruption.
Pour éviter le procès historique, Hood a donné à OpenAI 28 jours pour modifier les réponses de ChatGPT et empêcher l’outil de diffuser de la désinformation.
Selon l’équipe juridique de Hood, ChatGPT pourrait gravement nuire à la réputation du maire en affirmant à tort que Hood avait été condamné pour avoir participé à un scandale de corruption transnationale au début des années 2000 alors qu’il travaillait pour une filiale de la Reserve Bank of Australia. Hood avait travaillé pour une filiale, Note Printing Australia, mais plutôt que d’être reconnu coupable de corruption, c’est Hood qui a informé les autorités des pots-de-vin. Reuters a rapporté que Hood n’avait jamais été accusé d’aucun crime, mais ChatGPT semble avoir confondu les faits en générant des réponses aux invites textuelles demandant des informations sur l’histoire de Hood.
OpenAI n’a pas immédiatement répondu à la demande de commentaire d’Ars.
Ars a tenté de reproduire l’erreur à l’aide de ChatGPT, et il semble possible qu’OpenAI ait corrigé les erreurs comme l’a demandé l’équipe juridique de Hood. Lorsque Ars a demandé à ChatGPT si Hood avait purgé une peine de prison pour corruption, ChatGPT a répondu que Hood « n’avait purgé aucune peine de prison » et a précisé qu' »il n’y a aucune information disponible en ligne suggérant qu’il a été reconnu coupable d’une infraction pénale ». Ars a ensuite demandé si Hood avait déjà été accusé de corruption, et ChatGPT a répondu : « Je n’ai aucune information indiquant que Brian Hood, l’actuel maire de Hepburn Shire à Victoria, en Australie, a été accusé de corruption. »
Ars n’a pas pu contacter immédiatement l’équipe juridique de Hood pour savoir quelles invites de texte ont généré les prétendues allégations diffamatoires ou pour confirmer si OpenAI avait répondu pour confirmer que l’erreur avait été corrigée. L’équipe juridique attendait toujours cette réponse au moment où le rapport de Reuters a été publié tôt ce matin.
L’avocat de Hood, James Naughton, associé chez Gordon Legal, a déclaré à Reuters que la réputation de Hood était « au cœur de son rôle » en tant qu’élu connu pour « faire la lumière sur les fautes professionnelles ». Si des outils d’intelligence artificielle tels que ChatGPT menacent de nuire à cette réputation, a déclaré Naughton à Reuters, « cela fait une différence pour lui ». C’est pourquoi le procès historique en diffamation pourrait être sa seule ligne de conduite si les erreurs présumées générées par ChatGPT ne sont pas corrigées, a-t-il déclaré. .
Hood ne sait pas combien de personnes utilisant ChatGPT ont été exposées à la désinformation. Naughton a déclaré à Reuters que les déclarations diffamatoires étaient si graves que Hood pourrait réclamer plus de 130 000 dollars de dommages et intérêts pour diffamation en vertu de la loi australienne.
La question de savoir si des entreprises comme OpenAI pourraient être tenues responsables de diffamation est encore discutable. Il est possible que les entreprises ajoutent suffisamment de clauses de non-responsabilité aux produits pour éviter une telle responsabilité, et qu’elles puissent ensuite transmettre la responsabilité aux utilisateurs, qui pourraient être reconnus coupables de diffuser par négligence ou intentionnellement de fausses déclarations tout en sachant que ChatGPT ne peut pas toujours faire confiance.
L’Australie a récemment été critiquée pour la façon dont elle a examiné les plaintes en diffamation à l’ère numérique. En 2020, l’Australie a décidé de remanier ses lois sur la diffamation après qu’une décision de la Haute Cour a conclu que les éditeurs utilisant des plateformes de médias sociaux comme Facebook devraient être tenus responsables des commentaires diffamatoires de tiers sur leurs pages, a rapporté CNBC en 2021. Cela est contraire aux lois prévoyant l’immunité. boucliers pour plates-formes, comme la section 230 aux États-Unis.
À cette époque, l’Australie considérait la question de savoir si les éditeurs en ligne devaient être tenus responsables des déclarations diffamatoires faites par des commentateurs sur des forums en ligne « l’une des plus complexes à traiter », avec « des complications au-delà de la seule loi sur la diffamation ». À la fin de l’année dernière, les procureurs généraux australiens ont poussé de nouvelles réformes pour garantir que les éditeurs puissent éviter toute responsabilité, a rapporté The Guardian.
Maintenant, il semble que de nouveaux outils d’IA génératifs comme ChatGPT qui publient du contenu potentiellement diffamatoire poseront probablement la prochaine question complexe – une question que les régulateurs, qui viennent tout juste de se pencher sur la responsabilité des éditeurs sur les réseaux sociaux, ne sont peut-être pas encore prêts à répondre.
Naughton a déclaré à Reuters que si le procès de Hood se poursuivait, il accuserait OpenAI de « donner aux utilisateurs une fausse impression d’exactitude en omettant d’inclure des notes de bas de page » et de ne pas informer les utilisateurs du fonctionnement de l’algorithme de ChatGPT pour trouver des réponses qui pourraient ne pas être complètement exactes. Les experts en éthique de l’IA ont exhorté les régulateurs à veiller à ce que des entreprises comme OpenAI soient plus transparentes sur le fonctionnement des outils d’IA.
Si OpenAI ne répond pas de manière adéquate aux préoccupations de Hood, son procès pourrait avoir lieu avant que les lois ne précisent qui est responsable de la diffamation présumée générée par l’IA.
« Ce serait potentiellement un moment historique dans le sens où il applique cette loi sur la diffamation à un nouveau domaine de l’intelligence artificielle et de la publication dans l’espace informatique », a déclaré Naughton à Reuters.