OpenAI a fait l’objet d’une plainte relative à la confidentialité en Autriche par un , qui signifie None Of Your Business. La plainte allègue que le robot ChatGPT de la société a fourni à plusieurs reprises des informations incorrectes sur une personne réelle (qui, pour des raisons de confidentialité, n’est pas nommée dans la plainte), . Cela pourrait enfreindre les règles de l’UE en matière de confidentialité.
Le chatbot aurait craché des informations incorrectes sur la date de naissance de l’individu, au lieu de simplement dire qu’il ne connaissait pas la réponse à la question. Comme les politiciens, les chatbots IA aiment inventer des choses en toute confiance et espèrent que nous ne le remarquons pas. Ce phénomène s’appelle une hallucination. Cependant, c’est une chose lorsque ces robots fabriquent des ingrédients pour une recette et une tout autre chose lorsqu’ils inventent des choses sur de vraies personnes.
Le fait qu’OpenAI ait refusé d’aider à supprimer les fausses informations, répondant qu’il était techniquement impossible d’effectuer ce genre de changement. La société a proposé de filtrer ou de bloquer les données à certaines invites. La politique de confidentialité d’OpenAI indique que si les utilisateurs remarquent que le chatbot IA a généré des « informations factuellement inexactes » à leur sujet, cette « demande de correction », mais la société affirme qu’elle « pourrait ne pas être en mesure de corriger l’inexactitude dans tous les cas ». .
C’est plus qu’une simple plainte, car la tendance du chatbot à inventer des choses pourrait aller à l’encontre du Règlement général sur la protection des données (RGPD) de la région, qui régit . Les résidents de l’UE ont des droits concernant les informations personnelles, y compris le droit de faire corriger les fausses données. Le non-respect de ces réglementations peut entraîner de lourdes sanctions financières, pouvant aller jusqu’à 4 % du chiffre d’affaires annuel mondial dans certains cas. Les régulateurs peuvent également ordonner des modifications dans la manière dont les informations sont traitées.
« Il est clair que les entreprises ne sont actuellement pas en mesure de rendre les chatbots comme ChatGPT conformes au droit de l’UE lorsqu’ils traitent des données sur des individus », a déclaré Maartje de Graaf, avocat spécialisé en protection des données chez NOYB, dans un communiqué. « Si un système ne peut pas produire des résultats précis et transparents, il ne peut pas être utilisé pour générer des données sur les individus. C’est la technologie qui doit respecter les exigences légales, et non l’inverse.
La plainte a également soulevé des préoccupations concernant la transparence de la part d’OpenAI, suggérant que l’entreprise ne fournit pas d’informations sur l’origine des données qu’elle génère sur les individus ou si ces données sont stockées indéfiniment. Ceci est particulièrement important lorsqu’il s’agit de données relatives aux particuliers.
Encore une fois, il s’agit d’une plainte déposée par un groupe de défense et les régulateurs européens n’ont pas encore commenté dans un sens ou dans l’autre. Cependant, selon OpenAI, ChatGPT « écrit parfois des réponses plausibles mais incorrectes ou absurdes ». NOYB a contacté et demandé à l’organisation d’enquêter sur le problème.
L’entreprise fait face à une plainte similaire en Pologne, dans laquelle l’autorité locale de protection des données, suite à un chercheur, n’a pas pu obtenir l’aide d’OpenAI pour corriger de fausses informations personnelles. Cette plainte accuse OpenAI de plusieurs violations du RGPD de l’UE, en matière de transparence, de droits d’accès aux données et de confidentialité.
Il y a aussi l’Italie. L’autorité italienne de protection des données et OpenAI ont conclu en affirmant qu’elles estimaient que l’entreprise avait violé le RGPD de diverses manières. Cela inclut la tendance de ChatGPT à inventer de fausses informations sur les gens. Le chatbot avant OpenAI a apporté certaines modifications au logiciel, comme de nouveaux avertissements pour les utilisateurs et la possibilité de refuser que les chats soient utilisés pour entraîner les algorithmes. Bien qu’elle ne soit plus interdite, l’enquête italienne sur ChatGPT se poursuit.
OpenAI n’a pas répondu à cette dernière plainte, mais a répondu à la salve réglementaire émise par la DPA italienne. «Nous voulons que notre IA découvre le monde, pas les individus», . « Nous travaillons activement à réduire les données personnelles en formant nos systèmes comme ChatGPT, qui rejette également les demandes d’informations privées ou sensibles sur les personnes. »