Avec le battage médiatique autour de l’IA qui a atteint son paroxysme ces derniers mois, de nombreuses personnes craignent que des programmes comme ChatGPT ne les mettent un jour au chômage. Pour un avocat new-yorkais, ce cauchemar pourrait devenir réalité plus tôt que prévu, mais pas pour les raisons que vous pourriez penser. Tel que rapporté par l’avocat Steven Schwartz du cabinet d’avocats Levidow, Levidow et Oberman s’est récemment tourné vers le chatbot d’OpenAI pour obtenir de l’aide dans la rédaction d’un dossier juridique, avec des résultats prévisibles désastreux.
Un avocat a utilisé ChatGPT pour faire des « recherches juridiques » et a cité un certain nombre de cas inexistants dans un dossier, et a maintenant beaucoup de problèmes avec le juge 🤣 pic.twitter.com/AJSE7Ts7W7
—Daniel Feldman (@d_feldman) 27 mai 2023
L’entreprise de Schwartz a poursuivi la compagnie aérienne colombienne Avianca au nom de Roberto Mata, qui prétend avoir été blessé lors d’un vol vers l’aéroport international John F. Kennedy à New York. Lorsque la compagnie aérienne a récemment demandé à un juge fédéral de rejeter l’affaire, les avocats de Mata ont déposé un mémoire de 10 pages expliquant pourquoi la poursuite devait se poursuivre. Le document citait plus d’une demi-douzaine de décisions de justice, dont « Varghese c. China Southern Airlines », « Martinez c. Delta Airlines » et « Miller c. United Airlines ». Malheureusement pour toutes les personnes impliquées, personne qui a lu le mémoire n’a pu trouver l’une des décisions de justice citées par les avocats de Mata. Pourquoi? Parce que ChatGPT les a tous fabriqués. Oops.
Dans un affidavit déposé jeudi, Schwartz a déclaré qu’il avait utilisé le chatbot pour « compléter » ses recherches sur l’affaire. Schwartz a écrit qu’il « ignorait la possibilité que [ChatGPT’s] le contenu pourrait être faux. Il a même partagé des captures d’écran montrant qu’il avait demandé à ChatGPT si les cas cités étaient réels. Le programme a répondu que oui, affirmant que les décisions pouvaient être trouvées dans des « bases de données juridiques réputées », notamment Westlaw et LexisNexis.
Schwartz a déclaré qu’il « regrette beaucoup » d’utiliser ChatGPT « et qu’il ne le fera jamais à l’avenir sans une vérification absolue de son authenticité ». Qu’il ait une autre chance de rédiger un mémoire juridique est en suspens. Le juge chargé de l’affaire a ordonné une audience le 8 juin pour discuter des sanctions potentielles pour les « circonstances sans précédent » créées par les actions de Schwartz.
Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.