Les escroqueries sur Internet pourraient devenir beaucoup plus dangereuses maintenant, grâce aux fraudeurs ayant un accès sans entrave à ChatGPT, le chatbot alimenté par l’IA (s’ouvre dans un nouvel onglet) qui ne semble jamais quitter les gros titres.
C’est selon un rapport (s’ouvre dans un nouvel onglet) publié plus tôt ce mois-ci par les chercheurs en cybersécurité Norton. Dans ce document, la société a exposé trois façons principales dont les acteurs de la menace pourraient abuser de ChatGPT pour rendre les escroqueries sur Internet plus efficaces : grâce à la génération de contenu deepfake, au phishing à grande échelle et à la création plus rapide de logiciels malveillants.
Norton soutient également que la capacité à générer « de la désinformation ou de la désinformation de haute qualité à grande échelle » pourrait aider les fermes de robots à alimenter la division plus efficacement, permettant aux acteurs de la menace de « semer la méfiance et de façonner des récits dans différentes langues » avec facilité.
Combattre la désinformation
Les fraudeurs qui cherchent à gérer de fausses critiques pourraient également s’amuser avec ChatGPT, disent-ils, en les générant en masse et dans différents tons de voix.
Enfin, le chatbot déjà célèbre pourrait être utilisé dans des « campagnes de harcèlement » sur les réseaux sociaux, pour faire taire ou intimider les gens, dit Norton, ajoutant que les conséquences pourraient être « glaçantes »:
Les pirates peuvent également utiliser ChatGPT dans des campagnes de phishing, qui, dans de nombreux cas, sont menées par des attaquants sans connaissance native de la langue anglaise, ce qui aide les victimes à repérer une tentative d’escroquerie évidente en cas de mauvaise orthographe et de grammaire. Avec ChatGPT, les pirates peuvent créer des e-mails très convaincants, à grande échelle.
Enfin, le codage de logiciels malveillants n’est peut-être plus réservé aux pirates chevronnés. « Avec la bonne invite, les auteurs de logiciels malveillants novices peuvent décrire ce qu’ils veulent faire et obtenir des extraits de code fonctionnels », ont déclaré les chercheurs.
Par conséquent, nous pourrions assister à une augmentation du nombre et de la sophistication des logiciels malveillants, disent-ils. De plus, avec la capacité de ChatGPT à « traduire » rapidement et facilement le code source dans des langages de programmation moins courants, davantage de logiciels malveillants pourraient passer outre les solutions antivirus.
Comme pour tout nouvel outil avant lui, ChatGPT sera très probablement utilisé par les escrocs et les pirates pour faire avancer leurs objectifs également. Il appartient aux utilisateurs, ainsi qu’à la communauté de la cybersécurité au sens large, de fournir les réponses à ces nouvelles menaces, ont conclu les chercheurs.