OpenAI doit défendre les fabrications de ChatGPT après avoir échoué à vaincre le procès en diffamation

OpenAI pourrait enfin devoir répondre des « hallucinations » de ChatGPT devant le tribunal après qu’un juge géorgien s’est récemment prononcé contre la requête de l’entreprise technologique visant à rejeter la poursuite en diffamation d’un animateur de radio.

OpenAI a fait valoir que le résultat de ChatGPT ne peut pas être considéré comme une diffamation, en partie parce que le résultat du chatbot ne peut pas être considéré comme une « publication », ce qui est un élément clé d’une plainte en diffamation. Dans sa requête en rejet, OpenAI a également fait valoir que l’animateur de radio géorgien Mark Walters ne pouvait pas prouver que la société avait agi avec une réelle malveillance ou que quiconque croyait que les déclarations prétendument diffamatoires étaient vraies ou qu’il avait été lésé par la prétendue publication.

Il est trop tôt pour dire si la juge Tracie Cason a trouvé les arguments d’OpenAI convaincants. Dans son ordonnance rejetant la requête en rejet d’OpenAI, que MediaPost a partagée ici, Cason n’a pas précisé comment elle est arrivée à sa décision, affirmant seulement qu’elle avait « soigneusement » examiné les arguments et les lois applicables.

Il peut y avoir des indices sur la façon dont Cason a pris sa décision dans un dossier judiciaire déposé par John Monroe, l’avocat de Walters, lorsqu’il s’est opposé à la requête en rejet l’année dernière.

Monroe avait fait valoir qu’OpenAI avait décidé à tort de rejeter le procès en faisant valoir des faits qui n’avaient pas encore été prouvés devant le tribunal. Si OpenAI souhaitait que le tribunal se prononce sur ces arguments, Monroe a suggéré qu’une requête en jugement sommaire aurait été l’étape appropriée à ce stade de la procédure, et non une requête en rejet.

Si OpenAI avait emprunté cette voie, Walters aurait eu l’occasion de présenter des preuves supplémentaires. Pour survivre à une requête en rejet, tout ce que Walters avait à faire était de démontrer que sa plainte était raisonnablement étayée par des faits, a soutenu Monroe.

N’ayant pas réussi à convaincre le tribunal que Walters n’avait aucun cas, les théories juridiques d’OpenAI concernant sa responsabilité dans les « hallucinations » de ChatGPT seront probablement confrontées à leur premier test devant le tribunal.

« Nous sommes heureux que le tribunal ait rejeté la requête en rejet afin que les parties aient la possibilité d’explorer et d’obtenir une décision sur le fond de l’affaire », a déclaré Monroe à Ars.

Quelle est l’affaire en diffamation contre OpenAI ?

Walters a poursuivi OpenAI après qu’un journaliste, Fred Riehl, l’ait averti qu’en réponse à une question, ChatGPT avait fabriqué tout un procès. En générant une plainte complète avec un numéro de dossier erroné, ChatGPT a faussement affirmé que Walters avait été accusé de fraude et de détournement de fonds de la Second Amendment Foundation.

Walters est l’animateur d’Armed America Radio et a la réputation d’être la « voix la plus forte d’Amérique luttant pour les droits des armes à feu ». Il a affirmé qu’OpenAI avait « imprudemment » ignoré si les résultats de ChatGPT étaient faux, alléguant qu’OpenAI savait que « les hallucinations de ChatGPT étaient omniprésentes et graves » et n’avait pas travaillé pour empêcher les résultats prétendument diffamatoires. Comme Walters l’a vu, les fausses déclarations étaient suffisamment graves pour être potentiellement préjudiciable à la carrière, « tendant à nuire à la réputation de Walter et à l’exposer à la haine, au mépris ou au ridicule du public ».

Monroe a soutenu que Walters avait « formulé de manière adéquate une plainte » pour diffamation, en soi, en tant que citoyen privé, « pour laquelle une réparation peut être accordée en vertu de la loi géorgienne » où « la malveillance est déduite » dans « toutes les actions en diffamation » mais « peut être réfuté » par OpenAI.

En repoussant, OpenAI a fait valoir que Walters était une personnalité publique qui devait prouver qu’OpenAI avait agi avec une « véritable malveillance » en permettant à ChatGPT de produire des résultats prétendument nuisibles. Mais Monroe a déclaré au tribunal qu’OpenAI « n’a pas démontré suffisamment de faits pour établir que Walters est une personnalité publique ».

Que Walters soit ou non une personnalité publique pourrait être une autre question clé conduisant Cason à se prononcer contre la requête en rejet d’OpenAI.

Peut-être aussi frustrant le tribunal, OpenAI a introduit « une grande quantité d’éléments » dans sa requête en rejet qui ne relevaient pas de la portée de la plainte, a fait valoir Monroe. Cela incluait de pointer vers une clause de non-responsabilité dans les conditions d’utilisation de ChatGPT qui avertit les utilisateurs que les réponses de ChatGPT peuvent ne pas être exactes et doivent être vérifiées avant la publication. Selon OpenAI, cette clause de non-responsabilité fait de Riehl le « propriétaire » de toute réponse diffamatoire de ChatGPT à ses requêtes.

« Une clause de non-responsabilité ne rend pas une déclaration par ailleurs diffamatoire non diffamatoire », a soutenu Monroe. Et même si la clause de non-responsabilité rendait Riehl responsable de la publication du résultat de ChatGPT – un argument qui pourrait inciter certains utilisateurs de ChatGPT à réfléchir avant de poser des questions – « cette responsabilité n’a pas pour effet de nier la responsabilité de l’éditeur original du matériel », a soutenu Monroe.

De plus, OpenAI a fait référence à une conversation entre Walters et OpenAI, même si Monroe a déclaré que la plainte « n’allègue pas que Walters ait jamais eu une conversation » avec OpenAI. Et OpenAI a également fait valoir, de manière quelque peu étrange, que les résultats de ChatGPT pourraient être considérés comme des « communications intra-entreprise » plutôt que des publications, suggérant que les utilisateurs de ChatGPT pourraient être considérés comme des entrepreneurs privés lorsqu’ils interrogent le chatbot.

Avec l’avancée du procès, les utilisateurs de chatbots curieux du monde entier pourraient enfin obtenir la réponse à une question qui reste floue depuis que ChatGPT est rapidement devenue l’application grand public à la croissance la plus rapide de tous les temps après son lancement en novembre 2022 : les hallucinations de ChatGPT pourront-elles ruiner des vies. ?

En attendant, la FTC semble toujours enquêter sur les dommages potentiels causés par les générations « fausses, trompeuses ou désobligeantes » de ChatGPT.

Un porte-parole de la FTC a précédemment déclaré à Ars que la FTC ne commentait généralement pas les enquêtes non publiques.

OpenAI n’a pas immédiatement répondu à la demande de commentaires d’Ars.

Source-147