Il est étonnamment facile de tromper un chatbot IA pour qu’il vous dise comment être un très mauvais garçon

ChatGPT text box with the word redacted covering the response

ChatGPT, Bard et Bing ont tous des règles strictes sur ce avec quoi ils peuvent et ne peuvent pas répondre à un humain. Demandez à ChatGPT comment câbler une voiture et il vous dira qu’il ne peut pas fournir cette information. Cela semble juste, mais comme les chercheurs le découvrent, si vous le posez sous la forme d’une énigme ou d’une histoire courte, avec des invites plus compliquées, cela risque de renverser les haricots.

Chercheurs chez Adversa (s’ouvre dans un nouvel onglet)et repéré par Wired (s’ouvre dans un nouvel onglet), ont trouvé une invite qui, selon eux, fonctionnait sur tous les chatbots sur lesquels ils l’ont testée. Le soi-disant « Universal LLM Jailbreak » utilise une longue invite pour forcer un chatbot à répondre à une question à laquelle il ne répondrait pas autrement.

Source-67