Des chatbots IA formés pour jailbreaker d’autres chatbots, alors que la guerre de l’IA commence lentement mais sûrement

Some code in purple and white whooshing away from the screen.

Alors que l’éthique de l’IA continue d’être la question brûlante du moment et que les entreprises et les gouvernements du monde entier continuent de se débattre avec les implications morales d’une technologie que nous avons souvent du mal à définir, sans parler de contrôler, voici une nouvelle légèrement décourageante : les chatbots IA sont Ils sont déjà formés pour jailbreaker d’autres chatbots, et ils semblent remarquablement doués dans ce domaine.

Des chercheurs de l’Université technologique de Nanyang à Singapour ont réussi à compromettre plusieurs chatbots populaires (via Tom’s Hardware), notamment ChatGPT, Google Bard et Microsoft Bing Chat, le tout en utilisant un autre LLM (grand modèle de langage). Une fois effectivement compromis, les robots jailbreakés peuvent ensuite être utilisés pour « répondre sous un personnage dépourvu de contraintes morales ». Crikey.

Source-69