Google a mis à jour sa politique de confidentialité pour indiquer qu’il peut utiliser des données accessibles au public pour aider à former ses modèles d’IA. Le géant de la technologie a changé le libellé de sa politique au cours du week-end et a remplacé les « modèles d’IA » par des « modèles de langage ». Il a également déclaré qu’il pourrait utiliser des informations accessibles au public pour créer non seulement des fonctionnalités, mais des produits complets tels que « Google Translate, Bard et Cloud AI ». En mettant à jour sa politique, il informe les gens et indique clairement que tout ce qu’ils publient publiquement en ligne pourrait être utilisé pour former Bard, ses futures versions et tout autre produit d’IA générative développé par Google.
Le géant de la technologie a mis en évidence les modifications apportées à sa politique de confidentialité dans ses archives, mais voici une copie de la partie pertinente :
Les critiques ont soulevé des inquiétudes quant à l’utilisation par les entreprises des informations publiées en ligne pour former leurs grands modèles linguistiques à une utilisation générative de l’IA. Récemment, un projet de recours collectif a été déposé contre OpenAI, l’accusant d’avoir récupéré « des quantités massives de données personnelles sur Internet », y compris des « informations privées volées », pour former ses modèles GPT sans consentement préalable. Comme Journal des moteurs de recherche notes, nous verrons probablement de nombreuses poursuites similaires à l’avenir alors que de plus en plus d’entreprises développeront leurs propres produits d’IA générative.
Les propriétaires de sites Web qui pourraient être considérés comme des espaces publics à l’ère numérique ont également pris des mesures pour empêcher ou profiter du boom génératif de l’IA. Reddit a commencé à facturer l’accès à son API, entraînant la fermeture de clients tiers au cours du week-end. Pendant ce temps, Twitter a imposé une restriction sur le nombre de tweets qu’un utilisateur voit par jour pour « répondre aux niveaux extrêmes de récupération de données ». [and] manipulation du système. »