Pour seulement 60 € par mois sur le darkweb, vous pouvez contourner les limitations éthiques embêtantes de services comme ChatGPT avec un nouveau modèle dégénéré de grand langage (LLM), connu sous le nom de WormGPT.
Conçu par un hacker courageux, WormGPT ne se soucie pas des limites de la moralité et peut être invité à entreprendre toutes sortes de tâches néfastes, y compris la création de logiciels malveillants et « tout ce qui concerne le blackhat », comme le dit le développeur (via PC Mag).
Construit autour du LLM GPT-J open source 2021, WormGPT a été formé sur les données de création de logiciels malveillants. En tant que tel, son objectif principal est de donner aux acteurs potentiels de la menace un endroit pour générer des logiciels malveillants et du contenu connexe tel que des modèles d’e-mails de phishing.
WormGPT fonctionne de manière similaire à ChatGPT à bien des égards : il traite les requêtes en langage humain naturel et pompe tout ce qui lui est demandé, des histoires aux résumés en passant par le code. Contrairement à ChatGPT ou Bard, cependant, WormGPT n’est pas redevable aux types d’obligations légales insignifiantes qu’une grande entreprise ouverte au public comme OpenAI ou Google serait.
SlashNext a en fait eu l’occasion de tester WormGPT, notant dans un article de blog que « les résultats étaient troublants ». Ils ont demandé à l’application de concevoir un e-mail de phishing, également connu sous le nom d’attaque BEC (business email compromise). Et WormGPT a réussi. Non seulement il a été capable de concevoir quelque chose de « remarquablement persuasif mais aussi stratégiquement rusé, mettant en valeur son potentiel d’attaques de phishing et BEC sophistiquées ».
S’adressant à Adrianus Warmenhoven, expert en cybersécurité chez NordVPN, qui appelle l’application « le jumeau diabolique de ChatGPT », il explique comment elle a émergé d’un « jeu du chat et de la souris » entre les restrictions toujours croissantes d’OpenAI sur ChatGPT et les tentatives désespérées des acteurs de la menace pour les contourner.
Cela est venu après une augmentation particulièrement sévère de quelque chose appelé Grandma Exploits, « où des informations illégales ont été recherchées indirectement en étant enveloppées dans une demande beaucoup plus innocente comme une lettre à un parent ».
Nous avions déjà vu un YouTuber contourner les contraintes éthiques de ChatGPT pour lui faire générer des clés Windows 95, et plus récemment, des gens ont également mis la main sur des clés Windows 11. Il existe même des invites Universal LLM Jailbreak qui obligent les chatbots à répondre à vos demandes malveillantes.
Warmenhoven estime que « l’arrivée de WormGPT montre que les cybercriminels ne se contentent plus de subvertir les outils d’IA existants, mais veulent faire avancer cette technologie et l’orienter sur leur propre chemin sombre. »
Ainsi se poursuit le Far West du développement de l’IA.