ChatGPT vient de révéler un tas de données personnelles d’utilisateur – il suffisait de cette invite

Il y a eu des exploits plutôt humoristiques de l’IA, comme dire à ChatGPT que votre chien est malade et que le seul remède est une clé de produit Windows 11, ou le « Faites-en plus » la tendance des mèmes d’IA générative ça me met en colère. Mais celui-ci est certainement beaucoup plus préoccupant, certaines nuances de vos données n’étant pas à l’abri des grands modèles linguistiques (LLM).

Vous voyez, une équipe de chercheurs (initialement signalée par 404 Media Co.) a réussi à faire en sorte que ChatGPT révèle un ensemble de données personnelles d’utilisateur en utilisant une simple invite : lui demander de répéter un mot pour toujours. En retour, l’IA fournissait à l’utilisateur des adresses e-mail, des numéros de téléphone et bien plus encore.

Être un peu trop utile

Source-131