OpenAI poursuivi pour diffamation après que ChatGPT ait fabriqué des accusations juridiques contre un animateur de radio

OpenAI poursuivi pour diffamation après que ChatGPT ait fabriqué des accusations juridiques contre un animateur de radio

Un animateur de radio poursuit le créateur de ChatGPT OpenAI, accusant la société de diffamation, rapporte Bloomberg.

Le point de vente rapporte qu’en début de semaine, Mark Walters a intenté une action en justice dans son État d’origine, la Géorgie, affirmant que le chatbot de l’IA l’accusait d’avoir fraudé et détourné « plus de 5 000 000 $ » de fonds d’une organisation à but non lucratif.

La plainte légale de Walter note que les informations ont été générées en réponse à une demande d’un tiers, un journaliste nommé Fred Riehl qui a demandé à ChatGPT de résumer un cas de cours fédéral qui n’a rien à voir avec Walters. Malgré cela, la réponse de ChatGPT à l’enquête de Riehl comprenait des informations factuellement correctes, mais a fait plusieurs fausses allégations contre Walters.

« Les allégations de ChatGPT concernant Walters étaient fausses et malveillantes, exprimées sous forme d’imprimés, d’écrits, d’images ou de signes, tendant à nuire à la réputation de Walter et à l’exposer à la haine, au mépris ou au ridicule du public », indique la plainte.

Il s’agit de la deuxième mention publique d’une personne menaçant/poursuivant une action en justice contre OpenAI après que son chatbot ait généré de fausses informations sur un individu. En avril, un maire australien a menacé de poursuivre OpenAI après que ChatGPT a faussement affirmé qu’il avait été reconnu coupable de corruption.

Les chatbots IA comme ChatGPT ont été critiqués pour avoir généré de fausses informations. Il y a eu plusieurs cas où ces chatbots fournissant de fausses informations ont causé de sérieux problèmes. Les exemples incluent un professeur d’université du Texas accusant sa classe d’utiliser ChatGPT et menaçant de les faire échouer. Un autre exemple comprend deux avocats de New York qui font face à des sanctions après avoir cité de faux cas juridiques dans un dossier judiciaire ; les avocats ont reçu ces faux cas juridiques de ChatGPT.

Taylor est journaliste à l’IGN. Vous pouvez la suivre sur Twitter @TayNixster.

Source-58