Alors que ChatGPT continue de gagner en popularité, un nouvel outil d’IA alternatif beaucoup plus sombre a été conçu spécifiquement à des fins criminelles.
WormGPT est un outil d’IA malveillant capable de générer un texte très réaliste et convaincant utilisé pour créer des e-mails de phishing, de fausses publications sur les réseaux sociaux et d’autres formes de contenu néfaste.
Il est basé sur le modèle de langage open source GPT-J, qui a été développé en 2021. En plus de générer du texte, WormGPT peut également formater du code, ce qui rend beaucoup plus probable que les cybercriminels puissent simplement utiliser la technologie pour créer des logiciels malveillants homebrew. Il met à portée de main des éléments tels que les virus, les chevaux de Troie et les attaques de phishing à grande échelle.
Mais l’aspect le plus effrayant de cette technologie est que WormGPT peut conserver la mémoire du chat, ce qui signifie qu’il peut garder une trace des conversations et utiliser ces informations pour personnaliser ses attaques.
L’accès à cet outil d’intelligence artificielle est actuellement vendu sur le dark web en tant qu’outil pour les escrocs et les créateurs de logiciels malveillants pour seulement 67 $ par mois, ou 617 $ pour un an.
La société de cybersécurité SlashNext a eu accès à l’outil via un forum en ligne associé à la cybercriminalité. Au cours de leurs tests, ils ont décrit WormGPT comme un « modèle d’IA sophistiqué », mais ont affirmé qu’il n’avait « aucune limite ou limitation éthique ».
Écrivant sur un article de blog, ils ont expliqué : « Cet outil se présente comme une alternative blackhat aux modèles GPT, conçue spécifiquement pour les activités malveillantes,
« WormGPT aurait été formé sur un large éventail de sources de données, en se concentrant en particulier sur les données liées aux logiciels malveillants. »
Pourquoi WormGPT fait-il si peur ?
Alors que de plus en plus de personnes deviennent averties avec les e-mails de phishing, WormGPT peut être utilisé pour entreprendre des attaques plus sophistiquées. En particulier, Business Email Compromise (BEC) qui est une forme d’attaque de phishing où les criminels tentent d’inciter les titulaires de comptes seniors à transférer des fonds ou à révéler des informations sensibles, qui peuvent être utilisées pour d’autres attaques.
D’autres outils d’intelligence artificielle, notamment ChatGPT et Bard, ont mis en place des mesures de sécurité pour protéger les données des utilisateurs et empêcher les criminels d’utiliser la technologie à mauvais escient.
Dans leurs recherches, SlashNext a utilisé WormGPT pour générer un e-mail destiné à faire pression sur un gestionnaire de compte sans méfiance pour qu’il paie une facture frauduleuse.
Les résultats ont montré que WormGPT produisait des e-mails qui étaient non seulement rusés mais aussi remarquablement persuasifs, montrant le potentiel d’attaques à grande échelle.
WormGPT peut également être utilisé pour créer des attaques de phishing en produisant un texte convaincant qui encourage les utilisateurs à divulguer des informations sensibles telles que les informations de connexion et les données financières. Cela pourrait augmenter le nombre de cas de vol d’identité, de pertes financières et de sécurité personnelle.
À mesure que la technologie, en particulier l’intelligence artificielle, évolue, les cybercriminels ont le potentiel d’utiliser la technologie pour leur propre profit et de causer des dommages importants.
En publiant des captures d’écran sur le forum de piratage utilisé par SlashNext pour obtenir l’outil, le développeur de WormGPT l’a décrit comme « le plus grand ennemi du célèbre ChatGPT », affirmant qu’il « vous permet de faire toutes sortes de choses illégales ».
Un défi pour les forces de l’ordre
Un rapport récent d’Europol a averti que les grands modèles de langage (LLM) tels que ChatGPT qui peuvent traiter, manipuler et générer du texte pourraient être utilisés par des criminels pour commettre des fraudes et diffuser de la désinformation.
Ils ont écrit : « À mesure que la technologie progresse et que de nouveaux modèles deviennent disponibles, il deviendra de plus en plus important pour les forces de l’ordre de rester à la pointe de ces développements pour anticiper et prévenir les abus.
« La capacité de ChatGPT à rédiger des textes hautement authentiques basés sur une invite de l’utilisateur en fait un outil pratique à des fins de phishing,
« Alors que de nombreuses escroqueries par hameçonnage de base étaient auparavant plus facilement détectables en raison de fautes de grammaire et d’orthographe évidentes, il est désormais possible d’usurper l’identité d’une organisation ou d’un individu de manière très réaliste, même avec seulement une compréhension de base de la langue anglaise. »
Ils ont averti que les LLM signifient que les pirates peuvent mener des attaques plus rapidement, de manière plus authentique et à plus grande échelle.