OpenAI cède aux exigences de l’Italie en matière de confidentialité des données, mettant fin à l’interdiction de ChatGPT

En mars, un régulateur italien de la confidentialité a temporairement interdit le ChatGPT d’OpenAI, craignant que le générateur de texte n’ait aucun contrôle de vérification de l’âge ni aucune « base légale » pour collecter des données d’utilisateurs en ligne afin de former les algorithmes de l’outil d’IA. Le régulateur a donné à OpenAI jusqu’au 30 avril pour résoudre ces problèmes, et vendredi dernier, OpenAI a annoncé qu’il avait mis en œuvre un grand nombre des modifications demandées avant la date prévue. Dans une déclaration à l’Associated Press, OpenAI a confirmé que l’Italie avait levé l’interdiction.

« ChatGPT est à nouveau disponible pour nos utilisateurs en Italie », indique le communiqué d’OpenAI. « Nous sommes ravis de les accueillir à nouveau et nous restons déterminés à protéger leur vie privée. »

OpenAI a fait plusieurs concessions à l’Autorité italienne de protection des données pour ramener ChatGPT en Italie, a rapporté le Wall Street Journal.

Premièrement, OpenAI a accepté de mieux informer les utilisateurs sur la façon dont ChatGPT traite leurs données et de créer un formulaire en ligne afin que les utilisateurs puissent se retirer et supprimer leurs données des algorithmes de formation de ChatGPT. Ensuite, OpenAI a accepté d’exiger des utilisateurs italiens qu’ils fournissent leur date de naissance lors de l’inscription, ce qui aidera OpenAI à identifier et à bloquer les utilisateurs de ChatGPT de moins de 13 ans ou à demander des autorisations parentales pour les utilisateurs de moins de 18 ans.

Mais ce n’est pas parce que l’interdiction est levée que l’enquête du régulateur italien est terminée. OpenAI devrait toujours travailler à la mise en œuvre du reste des demandes, notamment en lançant une campagne publicitaire pour informer les utilisateurs de ChatGPT sur le fonctionnement réel de l’outil et pour expliquer comment se retirer du partage de données, a rapporté le WSJ. Ars n’a pas pu contacter OpenAI dans l’immédiat pour commenter, mais un porte-parole d’OpenAI a déclaré à l’AP que la société « attendrait avec impatience des discussions constructives en cours » jusqu’à la fin de l’enquête italienne.

L’interdiction temporaire de l’Italie est devenue l’un des premiers efforts nationaux pour restreindre l’accès à ChatGPT, arrivant juste après que l’outil soit devenu l’application à la croissance la plus rapide de tous les temps. En seulement deux mois, ChatGPT a attiré 100 millions d’utilisateurs actifs par mois, dépassant des applications comme TikTok, qui a mis neuf mois pour atteindre ce niveau d’adoption massive, et Instagram, qui a mis 2,5 ans, a rapporté Time. Depuis sa sortie, ChatGPT a évolué et a introduit davantage de protections pour les utilisateurs, car des problèmes ont été signalés après sa première fuite de données majeure. Désormais, ChatGPT permet aux utilisateurs de désactiver l’historique des discussions, de refuser la formation et d’exporter des données. Cependant, malgré la réactivité apparente d’OpenAI aux problèmes signalés, l’arrivée soudaine de ChatGPT a laissé les législateurs se démener pour ajuster les lois face à l’adoption généralisée de l’application.

Les gouvernements débattent de la manière de réglementer l’IA

Probablement motivé pour continuer à attirer plus d’utilisateurs dans le monde, OpenAI a agi rapidement pour apaiser l’Autorité italienne de protection des données après que le régulateur a montré à quel point ChatGPT pouvait être soudainement restreint. L’Italie a accru les enjeux en intensifiant sa réponse aux risques perçus de l’IA, et certains critiques génératifs de l’IA ont exhorté les gouvernements du monde entier à intervenir rapidement, comme l’Italie l’a fait, et même à « suspendre » complètement le développement de l’IA jusqu’à ce que les régulateurs puissent rattraper leur retard. Ces critiques affirment que les entreprises sont dans une course pour conquérir le marché de l’IA et qu’on ne peut pas compter sur elles pour s’autoréguler et atténuer les risques connus dans un contexte de concurrence féroce.

Le cas en Italie semble être une victoire pour ceux qui sont en faveur de l’adoption de réglementations plus spécifiques à l’IA à l’échelle mondiale, mais tous les gouvernements ne conviennent pas que davantage de lois sont nécessaires pour protéger adéquatement les utilisateurs contre le développement irresponsable de l’IA. Certains législateurs qui ont rédigé une législation spécifique à l’IA prennent déjà du recul pour reconsidérer l’ensemble de leur stratégie d’IA après avoir réalisé que la loi ne tenait pas compte des technologies émergentes comme ChatGPT.

La Commission européenne, le Parlement européen et le Conseil de l’Union européenne « retournent à la planche à dessin » pour remanier la loi sur l’intelligence artificielle, a rapporté Politico. Rédigé à l’origine pour réglementer les applications d’IA telles que la notation sociale, la manipulation ou la reconnaissance faciale, la loi européenne sur l’IA est en cours de reconfiguration alors que les législateurs réfléchissent à la manière dont des outils tels que ChatGPT devraient être pris en compte. Un problème, rapporte Politico, est que les législateurs divisés ne peuvent pas décider. si le générateur de texte doit être considéré comme « à haut risque », car il peut être utilisé à la fois de manière bénigne – pour écrire une carte d’anniversaire à grand-mère, par exemple – et de manière maligne.

Source-147