L’avocat de Michael Cohen a cité trois faux cas dans une possible erreur alimentée par l’IA

Agrandir / Photo de l’avocat David Schwartz tirée de son site Web.

Un avocat représentant l’ancien avocat de Donald Trump, Michael Cohen, a déposé un mémoire citant trois cas qui n’existent pas, selon un juge fédéral. L’incident est similaire à un incident récent au cours duquel des avocats ont soumis de fausses citations initialement fournies par ChatGPT, mais il n’a pas encore été confirmé si l’avocat de Cohen a également utilisé un outil d’IA.

« Le 29 novembre 2023, David M. Schwartz, l’avocat inscrit au dossier de l’accusé Michael Cohen, a déposé une requête en cessation anticipée de la libération surveillée », a écrit le juge de district américain Jesse Furman dans une ordonnance de justification hier. « Dans la lettre de synthèse, M. Cohen affirme que, »[a]Récemment, en 2022, des décisions de tribunaux de district, confirmées par la Cour du deuxième circuit, ont accordé la fin anticipée de la mise en liberté surveillée.' »

La lettre de Schwartz citait « trois exemples de ce type », citant États-Unis c.Figueroa-Florez, États-Unis c.Ortizet États-Unis c.Amato. Le mémoire fournissait des numéros de cas, des résumés et des dates de décision, mais Furman a conclu que les cas étaient faux.

« Pour autant que la Cour puisse en juger, aucun de ces cas n’existe », a écrit Furman. Furman, juge du tribunal de district américain du district sud de New York, a ordonné à Schwartz de fournir des copies des trois décisions citées avant le 19 décembre.

« S’il n’est pas en mesure de le faire, M. Schwartz devra, avant la même date, justifier par écrit pourquoi il ne devrait pas être sanctionné conformément au (1) Règle 11(b)(2) et (c) des Règles fédérales. de procédure civile, (2) 28 USC § 1927, et (3) le pouvoir inhérent de la Cour de citer des affaires inexistantes devant la Cour », a écrit Furman.

En supposant qu’il ne puisse pas retrouver ces cas, Schwartz doit également fournir « une explication approfondie de la façon dont la motion en est venue à citer des cas qui n’existent pas et quel rôle, le cas échéant, M. Cohen a joué dans la rédaction ou la révision de la motion avant qu’elle ne soit publiée ». déposé. »

Le nouvel avocat de Cohen n’a pas pu vérifier les citations

Schwartz annonce ses services de défense pénale sur un site Web personnel avec un slogan qui dit : « Le pouvoir de l’avocat réside dans l’incertitude de la loi ».

Nous avons contacté Schwartz aujourd’hui et mettrons à jour cet article si nous obtenons une réponse. Un journaliste de Politico a appelé Cohen hier mais a rapporté que « Cohen avait raccroché » lorsqu’on lui avait demandé un commentaire.

Dans une note de bas de page relative à son ordonnance, Furman note que le tribunal « n’est apparemment pas le seul à ne pas être en mesure de trouver ces cas ». Le 6 décembre, l’avocate E. Danya Perry a informé le tribunal qu’elle représenterait Cohen. Le 9 décembre, Perry a écrit pour soutenir la requête visant à mettre fin à la liberté surveillée, mais a reconnu qu’elle ne pouvait pas vérifier les cas cités par Schwartz.

« Bien que plusieurs cas aient été cités dans la requête initiale déposée par différents avocats, l’avocat soussigné n’a pas été engagé à ce moment-là et doit informer la Cour qu’il n’a pas été en mesure de vérifier ces citations », a écrit Perry.

Il s’agit peut-être d’un autre exemple d’un avocat citant de faux cas hallucinés par un outil d’intelligence artificielle. En mai, un juge fédéral du même tribunal de district a imposé une amende de 5 000 $ à deux avocats et à leur cabinet après avoir admis avoir utilisé ChatGPT pour aider à rédiger des documents judiciaires citant six cas inexistants inventés par le chatbot IA. Les avocats ont également dû écrire des lettres aux six vrais juges « faussement identifiés comme étant les auteurs des faux avis » cités dans leurs dossiers juridiques.

Au Texas, un juge fédéral a imposé une règle interdisant les soumissions rédigées par l’intelligence artificielle à moins que le résultat de l’IA ne soit vérifié par un humain. Devant un autre tribunal fédéral du District de Columbia, le rappeur Prakazrel « Pras » Michel, condamné, a fait valoir qu’il devrait obtenir un nouveau procès parce que son avocat « a utilisé un programme expérimental d’IA pour rédiger » une « plaidoirie finale frivole et inefficace ».

Source-147