Nous savons tous que ChatGPT se trompe. Comme dans très mal, et tout le temps. Bien que cela puisse être amusant, c’est moins drôle si ChatGPT vous identifie par erreur comme un criminel. Et c’est encore moins drôle si vous étiez en fait la personne qui a initialement découvert le crime en question.
En effet, vous pourriez trouver cela si peu drôle que vous décidez de porter plainte pour diffamation. C’est exactement ce que fait Brian Hood, un homme politique basé à Melbourne en Australie.
ChatGPT a apparemment identifié Hood (s’ouvre dans un nouvel onglet)aujourd’hui maire d’une autorité locale du nord-ouest de Melbourne, en tant que l’un des principaux auteurs du scandale de corruption soi-disant Securency (s’ouvre dans un nouvel onglet). Le chatbot décrit comment Hood a plaidé coupable aux accusations en 2012 et a été condamné à deux ans et demi de prison.
Et c’est toujours le cas si vous interrogez ChatGPT sur le scandale aujourd’hui.
En fait, c’est Hood qui a alerté les autorités sur la corruption en cours dans une imprimerie de billets de banque appelée Securency, qui était alors une filiale de la Reserve Bank of Australia. À l’époque, la juge de la Cour suprême de Victoria, Elizabeth Hollingworth, a félicité Hood pour son « immense courage » à se manifester.
Hood a apparemment perdu son emploi après avoir dénoncé et a souffert des années d’anxiété alors que l’affaire judiciaire traînait en longueur.
Lorsque Hood a appris que les fausses informations étaient propagées par ChatGPT, il dit qu’il « s’est senti un peu engourdi. Parce que c’était si incorrect, si sauvagement incorrect, cela m’a juste stupéfié. Et puis je me suis mis assez en colère à ce sujet. »
Selon nos informations, les avocats de Hood ont entamé une procédure initiale en diffamation contre OpenAI pour diffamation, mais n’ont pas encore reçu de réponse.
Compte tenu des erreurs de routine commises par le chatbot, il est facile de voir comment cela s’est produit. Il est exact que le nom de Hood est associé au crime. Mais ChatGPT a tout compris, comme tous ceux qui ont utilisé le chatbot le savent trop facilement.
C’est un peu ennuyeux si vous lui demandez d’expliquer la différence entre l’USB 3.2 et l’USB 3.2×2, mais plutôt plus inquiétant quand il diffuse des mensonges diffamatoires sur de vraies personnes vivantes.
L’affaire semble être la première à tester le principe de base de savoir si les créateurs d’un chatbot IA peuvent être tenus responsables de ce qu’il produit.
L’argument de Hood sera sans aucun doute centré sur le fait que ChatGPT a été déployé pour un large public et que ses créateurs chez OpenAI ont explicitement déclaré que le modèle est expérimental et sujet aux erreurs.
Open AI, pour sa part, indiquera probablement la clause de non-responsabilité de l’interface ChatGPT qui stipule que le bot « peut produire des informations inexactes sur des personnes, des lieux ou des faits ».
Quoi qu’il en soit, ajoutez cela à la longue liste croissante de problèmes nouveaux, intéressants et imprévus que ces nouveaux chatbots créent. C’est une charge de travail tellement énorme que nous devrons probablement utiliser une IA pour tout nettoyer.