Réveil : une « hallucination » de l’IA est apparue dans une affaire judiciaire en Colombie-Britannique

L’essor des outils d’IA générative comme ChatGPT, a-t-il déclaré, constitue un « changement révolutionnaire dans la pratique du droit », mais une décision récente de la Cour suprême de la Colombie-Britannique montre que les avocats doivent utiliser la technologie avec prudence et scepticisme, affirment les experts juridiques.

Contenu de l’article

Le travail de Ryan Black, avocat spécialisé dans les technologies de Vancouver, auprès des sociétés de jeux vidéo lui a permis d’observer l’essor de l’intelligence artificielle dans l’industrie.

Publicité 2

Contenu de l’article

Aujourd’hui, il se retrouve à nouveau en première ligne alors que sa propre profession est aux prises avec la technologie.

Contenu de l’article

« L’ampleur de l’impact sur les studios de jeux a vraiment surpris les gens », a déclaré Black, qui a aidé le Barreau de la Colombie-Britannique à rédiger des conseils à l’intention des avocats sur l’utilisation de l’IA.

« La révolution générative (IA) a vraiment frappé les gens très durement en termes de ‘Oh mon Dieu, nous devons vraiment y prêter attention maintenant’, donc je dirais que c’est une chose nouvelle pour beaucoup de gens, « , a-t-il déclaré en faisant référence au type de technologie capable de créer des arguments et des essais basés sur les invites d’un utilisateur.

« Cela ne me surprend pas que les avocats n’en sachent pas grand-chose. »

L’essor des outils d’IA générative comme ChatGPT, a-t-il déclaré, constitue un « changement révolutionnaire dans la pratique du droit », mais une décision récente de la Cour suprême de la Colombie-Britannique montre que les avocats doivent utiliser la technologie avec prudence et scepticisme, affirment les experts juridiques.

Publicité 3

Contenu de l’article

Dans une décision sur les dépens rendue le 20 février concernant une affaire de garde d’enfants, il a été révélé que l’avocat de Vancouver, Chong Ke, avait utilisé ChatGPT pour préparer les documents soumis dans l’affaire. Le matériel comprenait des citations de cas qui n’existent pas, ce que son adversaire dans l’affaire a qualifié d’« hallucination » de l’IA.

Ke a déclaré au tribunal que découvrir que les cas cités étaient fictifs était « mortifiant », et elle a rapidement informé le Barreau et a admis un « manque de connaissance des risques » liés à l’utilisation de l’IA pour rédiger des arguments devant le tribunal.

« Je suis désormais conscient des dangers de compter sur des matériaux générés par l’aluminium », a déclaré Ke dans un affidavit. «Je comprends que ce problème s’est posé dans d’autres juridictions et que le Barreau a publié ces derniers mois des documents destinés à alerter les avocats de la Colombie-Britannique de ces dangers.»

Contenu de l’article

Publicité 4

Contenu de l’article

Ke s’est excusée auprès du tribunal et de ses collègues avocats.

Son avocat, John Forstrom, a déclaré dans un courriel que l’affaire « a suscité un intérêt public considérable, mais que la substance de ce qui s’est passé est par ailleurs banale ».

« Je ne suis pas sûr que l’affaire ait des implications significatives concernant l’utilisation de l’IA générative dans les procédures judiciaires en général », a déclaré Forstrom. « MS. L’utilisation de l’IA par Ke dans ce cas était une erreur reconnue. La question de savoir si et comment l’IA générative pourrait être utilisée de manière appropriée dans le travail juridique ne s’est pas posée.

La société enquête actuellement sur la conduite de Ke, a déclaré la porte-parole Christine Tam dans un courrier électronique.

« Tout en reconnaissant les avantages potentiels de l’utilisation de l’IA dans la prestation de services juridiques, le Barreau a également publié des lignes directrices à l’intention des avocats sur l’utilisation appropriée de l’IA et s’attend à ce que les avocats se conforment aux normes de conduite attendues d’un avocat compétent s’ils s’appuient sur l’intelligence artificielle. sur l’IA au service de leurs clients », a déclaré Tam.

Publicité 5

Contenu de l’article

Les directives du Barreau, publiées fin 2023, exhortent les avocats à suivre une formation sur l’utilisation de la technologie et à être conscients des problèmes de confidentialité liés à la sécurité des données, du plagiat et des droits d’auteur, ainsi que des biais potentiels dans les documents produits par la technologie.

Les barreaux et les tribunaux d’autres provinces et territoires ont également produit des lignes directrices sur l’utilisation de l’IA. Par exemple, la Cour suprême du Yukon a déclaré dans une directive de pratique de juin 2023 que si un avocat s’appuie sur l’IA « pour ses recherches ou ses observations juridiques sur quelque question et sous quelque forme que ce soit », il doit en informer le tribunal.

Pour Black, de la société DLA Piper, l’utilisation de l’IA provoque beaucoup « d’angoisse nécessaire à l’idée de s’appuyer sur un outil comme celui-ci pour faire le gros du travail ».

Publicité 6

Contenu de l’article

Black a déclaré que rendre la justice nécessite l’impartialité d’un « pair humain », capable d’évaluer et de prendre d’importantes décisions juridiquement contraignantes.

Il a déclaré avoir rencontré des avocats et des juges qui étaient soit « complètement impliqués, soit complètement opposés, soit complètement agnostiques ».

Il s’est dit « impressionné par le rythme de la technologie », mais la nécessité de faire preuve de prudence et de scepticisme à l’égard de tout matériel généré par le matériel est essentielle pour les avocats d’aujourd’hui et de demain.

En réfléchissant au cas Ke et à d’autres similaires, Black a déclaré que des outils comme ChatGPT sont « de très bons outils de correction automatique qui font un travail fantastique en reliant le texte à un autre texte, mais ils n’ont aucune compréhension du monde, ils n’ont aucune compréhension de la réalité ».

Publicité 7

Contenu de l’article

Kristen Thomasen, professeur de droit à l’Université de Colombie-Britannique, a déclaré que l’affaire de la Cour suprême de la Colombie-Britannique montre non seulement les limites de la technologie, mais aussi la nécessité pour les avocats et autres professionnels « d’être critiques à l’égard des technologies qu’ils utilisent ».

Thomasen a déclaré qu’il fallait évaluer les forces et les faiblesses de la technologie « en dépit de ce qui relève souvent d’un battage médiatique ».

Elle a déclaré qu’il était important de ne pas déléguer un travail qui nécessite un élément humain à un système informatique dans des professions « à enjeux élevés » comme le droit et la police, où les nouvelles technologies potentiellement problématiques doivent être abordées et utilisées avec prudence.

Thomasen a déclaré que la technologie a été décrite comme un « être vivant » ou une menace existentielle pour l’humanité, ou considérée comme un « fantôme surhumain dans la machine », mais bien qu’elle soit très sophistiquée, elle ne fait que faire des calculs basés sur des données récupérées sur Internet. .

Publicité 8

Contenu de l’article

Elle a déclaré que ne plus considérer la technologie comme une « personne » aiderait les institutions, les étudiants et les enseignants à mieux comprendre ce que fait réellement la technologie.

« À mesure que nous voyons comment cela progresse, je pense qu’il est logique, un peu comme les barreaux, de continuer à élaborer des lignes directrices ou des règles plus raffinées et détaillées à mesure que nous comprenons mieux à quoi ressemble la technologie », a-t-elle déclaré.

Le juge dans l’affaire impliquant Ke a déclaré qu’il serait « prudent » pour elle d’informer le tribunal et les avocats adverses si d’autres documents utilisaient la technologie de l’IA comme ChatGPT.

« Comme cette affaire l’a malheureusement clairement démontré, l’IA générative ne peut toujours pas remplacer l’expertise professionnelle que le système judiciaire exige des avocats », a écrit le juge David Masuhara dans sa décision sur les dépens. « La compétence dans la sélection et l’utilisation de tout outil technologique, y compris ceux alimentés par l’IA, est essentielle. L’intégrité du système judiciaire n’en exige pas moins.

Publicité 9

Contenu de l’article

Black a déclaré que la technologie de l’intelligence artificielle ne disparaîtrait pas et que toutes les règles élaborées maintenant devront probablement être modifiées en raison de la « vitesse vertigineuse » de son évolution.

« Nous sommes désormais dans un monde où l’IA existera », a-t-il déclaré. « En ce qui me concerne, il est impossible de faire sonner cette cloche. »


Ajoutez notre site Web à vos favoris et soutenez notre journalisme : Ne manquez pas les nouvelles que vous devez savoir — ajoutez VancouverSun.com et LaProvince.com à vos favoris et inscrivez-vous à nos newsletters ici.

Vous pouvez également soutenir notre journalisme en devenant abonné numérique : pour seulement 14 $ par mois, vous pouvez obtenir un accès illimité au Vancouver Sun, à The Province, au National Post et à 13 autres sites d’information canadiens. Soutenez-nous en vous abonnant aujourd’hui : Le Soleil de Vancouver | La province.

Contenu de l’article

Source link-19