La fuite de données ChatGPT pousse les législateurs italiens à réglementer la collecte de données

Aujourd’hui, un régulateur italien, le Garant de la protection des données personnelles (désigné par son acronyme italien, GPDP), a annoncé une interdiction temporaire de ChatGPT en Italie. L’interdiction entre en vigueur immédiatement et restera en place pendant que le régulateur enquête sur ses inquiétudes selon lesquelles OpenAI, le développeur de ChatGPT, collecte illégalement les données personnelles des internautes italiens pour former le logiciel d’IA conversationnelle et n’a pas de système de vérification de l’âge en place pour empêcher les enfants d’accéder à l’outil.

L’interdiction italienne intervient après une violation de données ChatGPT le 20 mars, exposant « des conversations d’utilisateurs et des informations relatives au paiement des abonnés au service payant », a déclaré GPDP dans son communiqué de presse. OpenAI a informé les utilisateurs touchés par la violation et a déclaré qu’il était « engagé à protéger la vie privée de nos utilisateurs et à assurer la sécurité de leurs données », s’excusant d’avoir manqué « à cet engagement et aux attentes de nos utilisateurs ».

Ars n’a pas pu joindre OpenAI dans l’immédiat pour commenter. La société a 20 jours pour répondre avec des propositions de mesures qui pourraient répondre aux préoccupations du GPDP ou encourir des amendes pouvant aller jusqu’à 20 millions d’euros ou 4% des revenus bruts d’OpenAI.

Les efforts d’atténuation potentiels pour lever l’interdiction pourraient inclure la notification aux utilisateurs de la manière dont OpenAI collecte leurs données et la mise en œuvre d’un système de vérification de l’âge pour empêcher les jeunes enfants d’utiliser ChatGPT.

GPDP craint également que les réponses de ChatGPT aux invites de texte puissent manipuler les données et potentiellement induire les utilisateurs en erreur en traitant les données de manière inexacte et en partageant finalement des informations erronées.

Actuellement, GPDP a déclaré qu’il n’y avait aucune base légale pour qu’OpenAI collecte et stocke des données personnelles pour former son modèle d’IA, que ChatGPT utilise pour simuler et traiter de manière convaincante de vraies conversations. Il n’y a pas non plus de système de vérification de l’âge pour empêcher les mineurs d’être exposés à des réponses aux invites textuelles qui sont « absolument inadaptées » au « degré de développement et de conscience de soi » des utilisateurs plus jeunes.

Ars n’a pas pu joindre le GPDP dans l’immédiat pour commenter les prochaines étapes de son enquête.

Comme OpenAI n’est actuellement pas basé dans l’Union européenne, la société a jusqu’à 60 jours pour faire appel de l’interdiction, selon un document GPDP.

Les gouvernements devraient-ils restreindre les outils d’IA ?

ChatGPT n’est que l’un des nombreux outils d’IA qui suscitent un débat éthique animé, certains critiques exhortant les régulateurs à ralentir le développement de la technologie de l’IA jusqu’à ce que les risques d’une adoption massive soient pleinement compris. Cependant, selon Reuters, ChatGPT est l’application grand public à la croissance la plus rapide de l’histoire – atteignant 100 utilisateurs actifs par mois dans les deux mois suivant son lancement – ce qui explique probablement pourquoi il est devenu l’un des premiers outils d’IA populaires à faire face à une interdiction gouvernementale. .

L’examen approfondi des produits d’OpenAI en particulier ne fait apparemment que commencer. Plus tôt cette semaine, un groupe de recherche sur l’IA à but non lucratif a déposé une plainte auprès de la Federal Trade Commission des États-Unis au sujet du produit GPT-4 d’OpenAI, affirmant qu’il était « partial, trompeur » et pose « un risque pour la vie privée et la sécurité publique ». GPT-4 est formé sur une quantité massive de données en ligne et est déjà disponible pour les abonnés ChatGPT Plus et alimente Bing de Microsoft.

Source-147