Juge fédéral : pas d’IA dans ma salle d’audience à moins qu’un humain n’en vérifie l’exactitude

Images Getty | le-lightwriter

Un juge fédéral du Texas a une nouvelle règle pour les avocats dans sa salle d’audience : aucune soumission rédigée par l’intelligence artificielle à moins que la sortie de l’IA ne soit vérifiée par un humain. Le juge de district américain Brantley Starr a également ordonné aux avocats de déposer des certificats attestant que leurs documents sont soit rédigés soit révisés par des humains.

« Tous les avocats comparaissant devant la Cour doivent déposer au rôle un certificat attestant soit qu’aucune partie du dossier n’a été rédigée par une intelligence artificielle générative (telle que ChatGPT, Harvey.AI ou Google Bard) ou qu’une langue rédigée par une intelligence artificielle générative a été vérifiée pour son exactitude, à l’aide de journalistes imprimés ou de bases de données juridiques traditionnelles, par un être humain », selon une nouvelle « exigence spécifique au juge » dans la salle d’audience de Starr.

Une certification doit être soumise pour chaque cas et couvrira tous les documents déposés dans le cas. Un exemple de certification indique que les exigences s’appliquent à n’importe quelle langue dans un dossier, « y compris les citations, les citations, les affirmations paraphrasées et l’analyse juridique ».

Starr, un candidat de Trump au tribunal de district américain du district nord du Texas, a déclaré que « les plates-formes d’intelligence artificielle sont incroyablement puissantes et ont de nombreuses utilisations dans la loi : formulaires de divorce, demandes de découverte, erreurs suggérées dans les documents, questions anticipées lors de la plaidoirie. Mais le briefing juridique n’en fait pas partie. » « Les plates-formes d’IA dans leur état actuel sont sujettes aux hallucinations et aux préjugés. Sur les hallucinations, elles inventent des trucs, même des citations et des citations. »

Le nouvel ordre permanent de Starr sur l’IA a été publié hier, selon un article de l’expert juridique Eugene Volokh. « Notez que les juges fédéraux ont régulièrement leurs propres ordres permanents pour les avocats exerçant dans leurs salles d’audience. Ceux-ci s’ajoutent aux règles du district local et aux règles fédérales normales de procédure civile et pénale », a écrit Volokh.

Un avocat a cité de faux cas inventés par ChatGPT

L’ordonnance de Starr est intervenue après que l’avocat new-yorkais Steven Schwartz a admis qu’il avait utilisé ChatGPT pour aider à rédiger des documents judiciaires citant six cas inexistants inventés par l’outil d’intelligence artificielle. Schwartz et ses associés attendent d’éventuelles sanctions du juge Kevin Castel du tribunal de district américain du district sud de New York.

Dans ce que Castel a appelé « une circonstance sans précédent », le juge a déclaré que les documents déposés par les avocats du plaignant comprenaient six « fausses décisions judiciaires avec de fausses citations et de fausses citations internes ». Les documents déposés comprenaient des noms d’affaires inventées et une série d ‘«extraits» de fausses décisions citant d’autres faux précédents inventés par AI.

Un affidavit déposé par Schwartz a déclaré qu’il « regrette profondément d’avoir utilisé l’intelligence artificielle générative pour compléter les recherches juridiques effectuées ici et qu’il ne le fera jamais à l’avenir sans une vérification absolue de son authenticité ». Il a également déclaré qu’il n’avait « jamais utilisé ChatGPT comme source pour mener des recherches juridiques avant cet événement et qu’il n’était donc pas au courant de la possibilité que son contenu puisse être faux ».

Juge : l’IA ne prête aucun serment, n’a aucune allégeance

Le nouvel ordre permanent de Starr traitait des biais potentiels dans les outils d’IA. « Alors que les avocats prêtent serment de mettre de côté leurs préjugés, préjugés et croyances personnels pour faire respecter fidèlement la loi et représenter leurs clients, l’intelligence artificielle générative est le produit d’une programmation conçue par des humains qui n’ont pas eu à prêter un tel serment », a-t-il déclaré. écrit.

« Les systèmes d’IA n’ont aucune allégeance à un client, à l’état de droit ou aux lois et à la Constitution des États-Unis (ou, comme indiqué ci-dessus, à la vérité) », a poursuivi Starr. « Libres de tout sens du devoir, de l’honneur ou de la justice, ces programmes agissent selon un code informatique plutôt que par conviction, sur la base d’une programmation plutôt que d’un principe. expliquer pourquoi. »

À l’avenir, l’ordonnance de Starr a déclaré que le tribunal « rayera tout dépôt d’un avocat qui ne dépose pas de certificat sur le rôle attestant que l’avocat a lu les exigences spécifiques au juge de la Cour et comprend qu’il sera tenu responsable en vertu de la règle 11. pour le contenu de tout dépôt qu’il ou elle signe et soumet à la Cour, que l’intelligence artificielle générative ait rédigé ou non une partie de ce dépôt. »

Source-147