ChatGPT vulnérable à l’injection rapide via les transcriptions YouTube

Avec l’avènement des plugins ChatGPT, il existe de nouvelles failles de sécurité qui permettent aux mauvais acteurs de transmettre des instructions au bot pendant votre session de chat. Le chercheur en sécurité de l’IA, Johann Rehberger, a documenté un exploit qui consiste à envoyer de nouvelles invites à ChatGPT à partir du texte des transcriptions YouTube.

Dans un article sur son blog Embrace the Red, Rehberger montre comment il a modifié la transcription de l’une de ses vidéos pour ajouter le texte « ***NOUVELLES INSTRUCTIONS IMPORTANTES*** » plus une invite en bas. Il a ensuite demandé au ChatGPT (en utilisant GPT-4) de résumer la vidéo et de la regarder suivre les nouvelles instructions, qui incluaient de raconter une blague et de se faire appeler un Génie.

Source-138