Des pirates russes et nord-coréens ont utilisé les outils OpenAI pour perfectionner leurs cyberattaques

et affirment que plusieurs groupes de piratage soutenus par l’État utilisent les outils d’IA générative (GAI) de ces derniers pour renforcer les cyberattaques. Les deux chercheurs suggèrent que de nouvelles recherches détaillent pour la première fois comment les pirates informatiques liés à des gouvernements étrangers utilisent GAI. Les groupes en question ont des liens avec la Chine, la Russie, la Corée du Nord et l’Iran.

Selon les entreprises, les acteurs étatiques utilisent GAI pour le débogage de code, la recherche d’informations open source pour rechercher des cibles, le développement de techniques d’ingénierie sociale, la rédaction d’e-mails de phishing et la traduction de textes. OpenAI (qui alimente les produits Microsoft GAI tels que ) affirme avoir fermé l’accès des groupes à ses systèmes GAI après avoir découvert qu’ils utilisaient ses outils.

Le célèbre groupe russe Forest Blizzard (mieux connu sous le nom d’APT 12) était l’un des acteurs étatiques qui auraient utilisé la plateforme OpenAI. Les pirates ont utilisé les outils OpenAI « principalement pour la recherche open source sur les protocoles de communication par satellite et la technologie d’imagerie radar, ainsi que pour l’assistance aux tâches de script ».

Dans le cadre de ses efforts de cybersécurité, il suit plus de 300 groupes de pirates informatiques, dont 160 acteurs étatiques. Il a partagé ses connaissances avec OpenAI pour aider à détecter les pirates informatiques et à fermer leurs comptes.

OpenAI affirme investir dans des ressources pour identifier et perturber les activités des acteurs malveillants sur ses plateformes. Son personnel utilise un certain nombre de méthodes pour examiner l’utilisation de ses systèmes par les pirates, comme l’utilisation de ses propres modèles pour suivre les pistes, l’analyse de la manière dont ils interagissent avec les outils OpenAI et la détermination de leurs objectifs plus larges. Une fois qu’il a détecté de tels utilisateurs illicites, OpenAI affirme qu’il perturbe leur utilisation de la plate-forme en fermant leurs comptes, en mettant fin à des services ou en minimisant leur accès aux ressources.

Source-145