L’Italie va bloquer ChatGPT pour des problèmes de protection des données

Les Italiens pourraient ne pas avoir accès à ChatGPT pendant beaucoup plus longtemps. Le garant de la confidentialité italien a ordonné le blocage de ChatGPT car OpenAI viole le règlement général sur la protection des données (RGPD) de l’Union européenne par le biais de ses pratiques de traitement des données. Le régulateur affirme qu’il n’y a pas de « base légale » pour la collecte en masse de données d’OpenAI pour la formation du modèle de ChatGPT. Les résultats parfois inexacts indiquent également que l’IA générative ne traite pas correctement les données, déclare le garant. Les responsables sont particulièrement préoccupés par une fuite de données sensibles des utilisateurs la semaine dernière.

L’agence de données affirme également qu’OpenAI ne fait pas assez pour protéger les enfants. Alors que la société affirme que ChatGPT est destiné aux personnes de plus de 13 ans, il n’y a pas de contrôle d’âge pour empêcher les enfants de voir des réponses « absolument inappropriées », selon les responsables.

Le garant donne à OpenAI 20 jours pour décrire comment il va résoudre les problèmes. Si l’entreprise ne se conforme pas, elle encourt une amende pouvant aller jusqu’à 20 millions d’euros (environ 21,8 millions de dollars américains) ou un maximum de quatre pour cent de son chiffre d’affaires mondial annuel.

Nous avons demandé à OpenAI de commenter et nous vous ferons savoir si nous avons une réponse. La politique de confidentialité ChatGPT de l’entreprise indique clairement que les formateurs peuvent utiliser les données de conversation pour améliorer l’IA, mais qu’elle agrège ou rend également anonymes ces données. Les conditions d’OpenAI interdisent l’utilisation par les enfants de moins de 13 ans, tandis que la politique stipule que l’entreprise ne recueille pas « sciemment » les informations personnelles de ces utilisateurs mineurs.

L’action de l’Italie intervient juste un jour après qu’un organisme de recherche à but non lucratif a déposé une plainte auprès de la Federal Trade Commission (FTC) des États-Unis dans l’espoir de geler les futures versions de ChatGPT jusqu’à ce qu’OpenAI respecte les directives de l’agence en matière de transparence, d’équité et de clarté. Les leaders et experts technologiques ont également appelé à une pause de six mois sur le développement de l’IA pour résoudre les problèmes éthiques. On craint qu’OpenAI n’ait pas suffisamment de contrôles sur ses plates-formes, ce qui pourrait désormais conduire à une interdiction au niveau national.

Source-145