Les avocats ont une très mauvaise journée au tribunal après avoir cité de faux cas inventés par ChatGPT

Images Getty | style-photographie

Un juge fédéral a intenté une action en justice et infligé une amende de 5 000 $ aux avocats du plaignant après avoir utilisé ChatGPT pour rechercher des documents judiciaires citant six faux cas inventés par l’outil d’intelligence artificielle créé par OpenAI.

Les avocats Steven Schwartz et Peter LoDuca du cabinet Levidow, Levidow, & Oberman « ont abandonné leurs responsabilités lorsqu’ils ont soumis des avis judiciaires inexistants avec de fausses citations et citations créées par l’outil d’intelligence artificielle ChatGPT, puis ont continué à s’en tenir aux faux avis après l’examen judiciaire. les ordonnances ont remis leur existence en question », a écrit hier le juge de district américain Kevin Castel dans une ordonnance. Les avocats, a écrit Castel, « ont plaidé pour les faux cas et arguments juridiques » même « après avoir été informés par la soumission de leur adversaire que leurs citations étaient inexistantes et introuvables ».

Le juge a imposé une amende de 5 000 $ à payer par les deux avocats et leur cabinet sous responsabilité conjointe et solidaire. Plus embarrassant pour les avocats, ils sont tenus d’envoyer des lettres à six vrais juges qui ont été « faussement identifiés comme l’auteur des faux » avis cités dans leurs documents judiciaires. Castel a décrit l’analyse juridique dans l’un des faux cas comme du « charabia ».

« La Cour exigera des intimés qu’ils informent leur client et les juges dont les noms ont été invoqués à tort des sanctions infligées », a écrit Castel. « La Cour n’exigera pas d’excuses de la part des défendeurs car des excuses forcées ne sont pas des excuses sincères. Toute décision de présenter des excuses est laissée aux défendeurs. »

Soumettre de fausses opinions à un tribunal nuit au client des avocats, fait perdre du temps au tribunal, oblige la partie adverse à perdre « du temps et de l’argent à dénoncer la tromperie » et cause « un préjudice potentiel à la réputation des juges et des tribunaux dont les noms sont faussement invoqués ». en tant qu’auteurs des fausses opinions et à la réputation d’un parti attribué à une conduite fictive », a écrit Castel. « Cela encourage le cynisme à l’égard de la profession d’avocat et du système judiciaire américain. Et un futur justiciable peut être tenté de défier une décision de justice en invoquant de manière malhonnête le doute sur son authenticité. »

Affaire rejetée

Comme nous l’avons écrit le mois dernier, Schwartz a admis avoir utilisé ChatGPT pour la recherche et n’a pas vérifié si les « avis juridiques » fournis par le chatbot AI étaient exacts. Schwartz a écrit dans un affidavit qu’il n’avait « jamais utilisé ChatGPT comme source pour mener des recherches juridiques avant cet événement et n’était donc pas au courant de la possibilité que son contenu puisse être faux ».

Le cas réel, Roberto Mata contre Avianca, a été déposée à l’origine devant un tribunal de l’État de New York, mais a été transférée au tribunal de district américain du district sud de New York. Schwartz représentait Mata devant un tribunal d’État mais n’a pas été admis à exercer devant le tribunal fédéral. Schwartz a continué à rédiger les mémoires juridiques et LoDuca les a déposés sous son propre nom.

Mata a demandé des dommages-intérêts pour les blessures subies lors d’un vol Avianca d’El Salvador à New York en août 2019 lorsqu’un chariot de collations et de boissons en métal a heurté son genou. Les avocats de Mata ont utilisé les fausses citations de ChatGPT pour faire valoir que l’affaire devrait être renvoyée devant le tribunal de l’État de New York, où un délai de prescription de trois ans s’appliquerait.

Sans surprise, leur argument citant des cas bidons n’a pas convaincu le juge. En plus de punir les avocats, Castel a fait droit hier à la requête d’Avianca de rejeter l’affaire. Le juge a convenu avec le défendeur qu’un délai de prescription de deux ans en vertu de la Convention de Montréal s’applique et que la poursuite du demandeur a été déposée trop tard.

« Je n’ai jamais pensé que ça pouvait être inventé »

Le différend sur les faux précédents s’est déroulé sur quelques mois. Le 1er mars, les avocats de Mata ont cité les faux cas dans un mémoire qui s’opposait à la requête d’Avianca de rejeter l’affaire.

« Mais si l’affaire s’était terminée avec des intimés révélant leurs actions peu de temps après avoir reçu le mémoire du défendeur du 15 mars remettant en question l’existence des affaires, ou après avoir examiné les ordonnances de la Cour des 11 et 12 avril exigeant la production des affaires, le dossier maintenant serait tout à fait différent », a écrit Castel. « Au lieu de cela, les intimés individuels ont doublé et n’ont commencé à révéler la vérité que le 25 mai, après que la Cour a rendu une ordonnance de justification pour laquelle l’un des intimés individuels ne devrait pas être sanctionné. »

Castel a conclu que les avocats étaient coupables de « mauvaise foi » et « d’actes d’évitement conscient et de déclarations fausses et trompeuses à la Cour ». Alors que Schwartz a rédigé les faux documents juridiques, LoDuca n’a pas vérifié leur exactitude.

« M. LoDuca s’est simplement appuyé sur la conviction que le travail produit par M. Schwartz, un collègue de plus de vingt-cinq ans, serait fiable », a écrit Castel. Mais la pratique de Schwartz était exclusivement devant un tribunal d’État. Les avocats ont admis dans un mémoire de loi que Schwartz avait tenté « de rechercher un problème de faillite fédérale avec lequel il n’était absolument pas familier ».

Lors d’une audience le 8 juin sur les sanctions potentielles, Schwartz a témoigné qu’il « agissait sous la fausse perception que ce site Web [ChatGPT] ne pouvait pas fabriquer des cas par lui-même. » Schwartz a déclaré: « Je ne pensais tout simplement pas que le cas pouvait être fabriqué, donc je ne l’examinais pas de ce point de vue … Ma réaction a été que ChatGPT trouve que cas quelque part. C’est peut-être inédit. Peut-être qu’il a été porté en appel. Peut-être que l’accès est difficile à obtenir. Je n’ai jamais pensé que ça pouvait être inventé. »

La société Levidow n’avait pas de comptes Westlaw ou LexisNexis, mais utilisait à la place un compte Fastcase qui avait un accès limité aux affaires fédérales. Schwartz a témoigné qu’il « a entendu parler de ce nouveau site que j’ai supposé – j’ai supposé à tort qu’il ressemblait à un super moteur de recherche appelé ChatGPT, et c’est ce que j’ai utilisé ».

Source-147