Vous ne devriez pas faire confiance aux réponses qu’un chatbot vous envoie. Et vous ne devriez probablement pas non plus lui confier vos informations personnelles. Cela est particulièrement vrai pour les « copines IA » ou les « petits amis IA », selon une nouvelle étude.
Une analyse de 11 chatbots dits romantiques et compagnons, publiée mercredi par la Fondation Mozilla, a révélé une litanie de problèmes de sécurité et de confidentialité avec les robots. Collectivement, les applications, qui ont été téléchargées plus de 100 millions de fois sur les appareils Android, rassemblent d’énormes quantités de données personnelles ; utiliser des trackers qui envoient des informations à Google, Facebook et à des entreprises en Russie et en Chine ; permettre aux utilisateurs d’utiliser des mots de passe faibles ; et manquent de transparence sur leur propriété et les modèles d’IA qui les alimentent.
Depuis qu’OpenAI a lancé ChatGPT dans le monde en novembre 2022, les développeurs se sont précipités pour déployer de grands modèles de langage et créer des chatbots avec lesquels les gens peuvent interagir et payer pour s’abonner. L’étude de Mozilla donne un aperçu de la façon dont cette ruée vers l’or a pu négliger la vie privée des gens, ainsi que des tensions entre les technologies émergentes et la manière dont elles collectent et utilisent les données. Cela indique également comment les messages de discussion des personnes pourraient être exploités par des pirates informatiques.
De nombreux services de « petite amie IA » ou de chatbot romantique se ressemblent. Ils présentent souvent des images de femmes générées par l’IA qui peuvent être sexualisées ou accompagnées de messages provocateurs. Les chercheurs de Mozilla ont examiné une variété de chatbots, y compris des applications de grande et petite taille, dont certaines prétendent être des « petites-amies ». D’autres offrent aux gens un soutien par le biais de l’amitié ou de l’intimité ou autorisent les jeux de rôle et autres fantasmes.
« Ces applications sont conçues pour collecter une tonne d’informations personnelles », explique Jen Caltrider, responsable du projet de l’équipe Privacy Not Included de Mozilla, qui a mené l’analyse. « Ils poussent vers le jeu de rôle, beaucoup de sexe, beaucoup d’intimité, beaucoup de partage. » Par exemple, des captures d’écran du chatbot EVA AI affichent un texte disant « J’adore quand vous m’envoyez vos photos et votre voix » et demandant si quelqu’un est « prêt à partager tous vos secrets et désirs ».
Caltrider affirme qu’il existe de nombreux problèmes avec ces applications et sites Web. De nombreuses applications peuvent ne pas savoir clairement quelles données elles partagent avec des tiers, où elles sont basées ou qui les crée, explique Caltrider, ajoutant que certaines permettent aux utilisateurs de créer des mots de passe faibles, tandis que d’autres fournissent peu d’informations sur l’IA qu’elles utilisent. utiliser. Les applications analysées présentaient toutes des cas d’utilisation et des faiblesses différents.