vendredi, décembre 20, 2024

L’organisme européen de surveillance de la vie privée enquête sur Google concernant les données utilisées pour la formation de l’IA

Agrandir / Le stand de Google à la conférence Integrated Systems Europe le 31 janvier 2023, à Barcelone, en Espagne.

Getty Images | Cesc Maymo

Google fait l’objet d’une enquête de l’autorité européenne de protection de la vie privée concernant son traitement des données personnelles dans le cadre du développement de l’un de ses modèles d’intelligence artificielle, alors que les régulateurs intensifient leur surveillance des ambitions d’IA des Big Tech.

La Commission irlandaise de protection des données, chargée de faire respecter le règlement général de l’UE sur la protection des données, a déclaré avoir lancé une enquête statutaire sur le modèle linguistique Pathways 2, ou PaLM 2, du géant de la technologie.

PaLM 2 a été lancé en mai 2023 et précède les derniers modèles Gemini de Google, qui équipent ses produits d’IA. Gemini, qui a été lancé en décembre de la même année, est désormais le modèle de base de son offre de génération de texte et d’images.

L’enquête évaluera si l’entreprise a violé ses obligations en vertu du RGPD sur le traitement des données personnelles des citoyens de l’UE et de l’Espace économique européen.

En vertu de ce cadre, les entreprises doivent procéder à une évaluation de l’impact sur la protection des données avant de se lancer dans le traitement de ces informations lorsque la nature de leur utilisation est susceptible de présenter un risque élevé pour les droits et libertés des individus.

Cela s’applique en particulier aux nouvelles technologies et est « d’une importance cruciale pour garantir que les droits et libertés fondamentaux des individus soient correctement pris en compte et protégés », a déclaré le régulateur dans un communiqué.

L’évaluation est en cours d’examen dans le cadre de l’enquête.

Un porte-parole de Google a déclaré : « Nous prenons au sérieux nos obligations en vertu du RGPD et travaillerons de manière constructive avec la DPC pour répondre à leurs questions. »

Il s’agit de la dernière d’une série d’actions menées par la DPC contre les groupes Big Tech qui construisent de grands modèles linguistiques.

En juin, Meta a suspendu son projet de former son modèle Llama sur le contenu public partagé par des adultes sur Facebook et Instagram à travers l’Europe, à la suite de discussions avec le régulateur irlandais. Meta a ensuite limité la disponibilité de certains de ses produits d’IA aux utilisateurs de la région.

Un mois plus tard, les utilisateurs de X ont découvert qu’ils avaient « opté » pour que leurs publications sur le site soient utilisées pour former les systèmes de la startup xAI d’Elon Musk.

La plateforme a suspendu le traitement de plusieurs semaines de données d’utilisateurs européens qui avaient été récoltées pour entraîner son modèle d’IA Grok, à la suite d’une procédure judiciaire engagée par la DPC. C’était la première fois que le régulateur utilisait ses pouvoirs pour prendre une telle mesure contre une entreprise technologique.

© 2024 The Financial Times Ltd. Tous droits réservés. Ne pas redistribuer, copier ou modifier de quelque façon que ce soit.

Source-147

- Advertisement -

Latest