Pour moi, l’intelligence artificielle ressemble beaucoup à des aimants : je n’ai aucune idée de leur fonctionnement. Mais je comprends, dans un sens très général, que l’IA n’est pas réellement intelligente. Ce ne sont que des données, collectées à grande échelle, digérées de manière algorithmique et recrachées sur des tons conversationnels conçus pour nous faire penser que la machine est « intelligente ».
Les versions populaires de ces systèmes, comme ChatGPT, vivent et meurent en fonction de la quantité de données qu’elles peuvent récolter, ce qui signifie essentiellement qu’elles dépendent de vous. Et en cas de doute sur ce que « vous » signifie dans ce contexte particulier, Google (via Techspot) a mis à jour sa politique de confidentialité pour indiquer explicitement que pratiquement tout ce que vous dites ou faites en ligne peut être récupéré et utilisé pour former ses modèles d’IA. .
Naturellement, Google collecte des données à partir de votre activité en ligne, comme les éléments que vous recherchez, les vidéos que vous regardez, les choses que vous achetez, les personnes avec lesquelles vous parlez et les données de localisation accessibles via votre appareil mobile Android. Mais « dans certaines circonstances », il collecte également des informations provenant de « sources accessibles au public » : si votre nom apparaît dans un article de journal local, par exemple, Google peut indexer l’article, puis le partager avec des personnes recherchant votre nom.
Ce n’est pas nouveau en soi : ce qui a changé, comme on peut le voir sur la page des mises à jour des politiques de Google, c’est la façon dont Google dit qu’il peut utiliser les informations qu’il récupère de ces sources publiques. Auparavant, la politique stipulait que les données accessibles au public pouvaient être utilisées « pour aider à former les modèles linguistiques de Google et à créer des fonctionnalités telles que Google Translate ». La dernière mise à jour élargit considérablement la politique : « Nous pouvons collecter des informations accessibles au public en ligne ou provenant d’autres sources publiques pour aider à former les modèles d’IA de Google et à créer des produits et des fonctionnalités telles que Google Translate, Bard et les capacités Cloud AI. »
Bard est essentiellement la réponse de Google à ChatGPT, annoncé plus tôt cette année, et tout comme d’autres modèles d’IA, il n’a pas été entièrement fluide. En avril, par exemple, un rapport affirmait que plusieurs employés de Google avaient exhorté l’entreprise à ne pas déployer Bard parce que les informations qu’elle fournissait en réponse aux requêtes étaient « pires qu’inutiles » et faisaient effectivement du chatbot un « menteur pathologique ».
Plus de données devraient, en théorie du moins, conduire à de meilleurs résultats pour les bots de Google. Mais politique de confidentialité mise à jour ou non, le statut juridique de ce comportement n’a pas été clairement établi. OpenAI fait face à de multiples poursuites judiciaires sur la façon dont il récolte et utilise les données pour former ChatGPT : des politiques comme celle récemment mise en œuvre par Google peuvent sembler en faire un jeu équitable, mais, comme l’a rapporté le Washington Post, les modèles d’IA vont s’aspirer à peu près des pages Wikipédia aux publications d’actualités et aux tweets individuels, une habitude avec laquelle un nombre croissant de personnes contestent.
Et tout le matériel en question n’est pas en fait un jeu équitable : les auteurs Mona Awad et Paul Tremblay ont récemment déposé leur propre plainte contre OpenAI, alléguant que ChatGPT a violé les lois sur le droit d’auteur en utilisant leurs œuvres pour former son modèle d’IA sans autorisation.
J’ai contacté Google pour plus d’informations sur ses raisons de modifier ses politiques de confidentialité, et je mettrai à jour si je reçois une réponse.