L’ancien avocat de Trump, Michael Cohen, a accidentellement cité de fausses affaires judiciaires générées par l’IA

Michael Cohen, l’ancien avocat de Donald Trump, a admis avoir cité de fausses affaires judiciaires générées par l’IA dans un document juridique qui s’est retrouvé devant un juge fédéral, comme l’a rapporté plus tôt Le New York Times. UN dossier descellé vendredi dit que Cohen a utilisé Bard de Google pour effectuer des recherches après l’avoir confondu avec « un moteur de recherche suralimenté » plutôt qu’un chatbot IA.

Le document en question était une motion demandant à un juge fédéral de raccourcir la durée de la probation de trois ans de Cohen, à laquelle il fait désormais face après une peine de prison et un plaidoyer de culpabilité pour évasion fiscale et autres frais. Mais après avoir examiné la lettre, le juge de district américain Jesse Furman a écrit dans un dossier qu’« aucune de ces affaires n’existe » et a demandé à l’avocat de Cohen, David Schwartz, d’expliquer pourquoi les trois affaires sont incluses dans la requête ainsi que si son client, désormais radié du barreau, a aidé à la rédiger.

En réponse, Cohen a soumis une déclaration écrite affirmant qu’il n’avait pas l’intention d’induire le tribunal en erreur, ajoutant qu’il avait utilisé Google Bard pour effectuer des recherches juridiques et qu’il avait envoyé certaines de ses conclusions à Schwartz. Cependant, Cohen dit qu’il n’avait pas réalisé que les cas cités par Bard pouvaient être faux, et il ne pensait pas non plus que Schwartz ajouterait les citations à la motion « sans même confirmer qu’elles existaient ». Schwartz risque des sanctions potentielles pour avoir inclus les fausses citations.

« En tant que non-avocat, je n’ai pas suivi les tendances émergentes (et les risques associés) dans le domaine de la technologie juridique »

« En tant que non-avocat, je n’ai pas suivi les tendances émergentes (et les risques associés) dans le domaine de la technologie juridique et je ne savais pas que Google Bard était un service de texte génératif qui, comme Chat-GPT, pouvait afficher des citations et des descriptions qui semblaient réelles mais qui semblaient réelles. en fait, ce n’était pas le cas », écrit Cohen. « Au lieu de cela, j’ai compris qu’il s’agissait d’un moteur de recherche surpuissant et je l’avais utilisé à plusieurs reprises dans d’autres contextes pour trouver (avec succès) des informations précises en ligne. »

source site-132