Des avocats américains condamnés à une amende de 5 000 $ après avoir inclus de fausses citations de cas générées par ChatGPT

C’est quelque chose qui vous est venu à l’esprit dès le premier essai que vous écrivez à l’école : vérifiez toujours vos sources. Pourtant, l’avocat new-yorkais Steven Schwartz s’est appuyé sur ChatGPT pour les trouver et les examiner à sa place. Le gardien rapports. Schwartz l’a utilisé pour une affaire dans laquelle un homme poursuivait la compagnie aérienne colombienne Avianca alléguant qu’il avait été blessé lors d’un vol à destination de New York. Dans ce cas, ChatGPT a produit six cas comme précédents, tels que « Martinez c. Delta Airlines » et « Miller c. United Airlines », qui étaient soit inexacts, soit n’existaient tout simplement pas.

Dans la décision d’infliger une amende à Schwartz et compagnie, le juge P Kevin Castel a expliqué : « Les progrès technologiques sont monnaie courante et il n’y a rien de fondamentalement inapproprié à utiliser un outil d’intelligence artificielle fiable pour l’assistance. Mais les règles existantes imposent un rôle de contrôle aux avocats pour garantir l’exactitude. de leurs dossiers. » Fondamentalement, vous pouvez utiliser ChatGPT pour votre travail, mais vérifiez au moins ses revendications. En ne le faisant pas, les avocats avaient « abandonné leurs responsabilités », y compris lorsqu’ils ont soutenu les fausses déclarations après que le tribunal eut mis en doute leur légitimité.

Les exemples d’inexactitudes de ChatGPT et d’autres chatbots IA sont répandus. Prenez le chatbot de la National Eating Disorder Association qui a fourni aux personnes qui se remettent de troubles de l’alimentation des conseils de régime ou ChatGPT accusant à tort un professeur de droit d’agression sexuelle en utilisant un article inexistant de Le Washington Post comme preuve.

Source-145