5 technologies d’intelligence artificielle que les pirates peuvent utiliser de nouvelles manières terribles

Andrew Heinzman / How-To Geek

Les technologies d’intelligence artificielle peuvent perturber de nombreuses industries, mais au moins dans la plupart des cas, nous pouvons voir comment elles seront plus utiles que nuisibles à long terme. Cependant, ces nouveaux outils ouvrent également de nombreuses nouvelles opportunités pour les types infâmes.

IA en langage naturel pour les attaques de phishing surpuissantes

Être capable de comprendre et de produire un langage humain naturel a été l’un des principaux objectifs de la recherche sur l’IA depuis les premiers jours. Aujourd’hui, nous avons une production vocale synthétique, des chatbots hautement sophistiqués, des générateurs de texte en langage naturel et de nombreuses autres technologies liées à l’IA.

Ces applications sont parfaites pour les attaques de phishing, où les pirates se présentent comme des entités légitimes et leurs représentants comme un moyen d’obtenir des informations sensibles des personnes. Avec ces nouvelles technologies, vous pourriez avoir des agents d’IA qui se font passer pour des personnes en masse par e-mail, appels téléphoniques, messagerie instantanée ou partout où les humains se parlent via un système informatique.

Contrairement au phishing que nous connaissons, cela s’apparenterait à du phishing « spear » turbocompressé, où les tentatives sont ciblées contre des individus spécifiques disposant d’informations à leur sujet notamment pour rendre l’arnaque plus efficace. Par exemple, le logiciel d’intelligence artificielle pourrait se faire passer pour le patron de quelqu’un et demander que de l’argent soit versé sur un compte dans une variante de phishing connue sous le nom de fraude au PDG.

Ingénierie sociale profonde

L’ingénierie sociale est une pratique du piratage informatique qui cible les faiblesses de la psychologie et du comportement humains pour contourner les mesures de sécurité technologiques strictes. Par exemple, un pirate informatique peut téléphoner à la secrétaire d’une personne importante se faisant passer pour un travailleur de l’assainissement, lui demandant où ses déchets sont actuellement jetés. Ensuite, le criminel se rend à cet endroit pour rechercher des documents abandonnés ou d’autres indices qui peuvent être reconstitués pour créer des exploits.

Les systèmes d’apprentissage en profondeur capables de reproduire des visages et des voix (connus sous le nom de deepfakes) ont évolué au point de pouvoir être utilisés en temps réel. Il existe des services comme Podcastle’s Revoice et Voicebot AI où vous pouvez soumettre des échantillons de votre propre voix, puis avoir une synthèse vocale qui vous ressemble. En principe, une telle technologie pourrait être utilisée pour cloner la voix de n’importe qui. Ensuite, tout ce que vous auriez à faire est de téléphoner ou d’appeler par vidéo quelqu’un qui se fait passer pour qui vous voulez, les personnalités publiques étant la cible la plus facile de toutes.

Craquage de code plus intelligent et découverte automatisée des vulnérabilités

Il faut des heures et des heures aux humains pour parcourir les lignes de code à la recherche de vulnérabilités, soit pour les corriger, soit pour les exploiter. Nous avons maintenant vu que les modèles d’apprentissage automatique tels que ChatGPT peuvent à la fois écrire du code et reconnaître les vulnérabilités dans le code soumis, ce qui ouvre la possibilité que l’IA puisse écrire des logiciels malveillants plus tôt que tard.

Logiciels malveillants qui apprennent et s’adaptent grâce à l’apprentissage automatique

La principale force de l’apprentissage automatique est qu’il peut prendre d’énormes quantités de données et en extraire des règles et des informations utiles. Il est raisonnable de s’attendre à ce que les futurs logiciels malveillants profitent de ce concept général pour s’adapter rapidement aux contre-mesures.

Cela peut conduire à une situation où les systèmes malveillants et anti-malware deviennent effectivement des systèmes d’apprentissage automatique en guerre qui se conduisent rapidement à des niveaux de sophistication plus élevés.

L’IA générative pour créer de fausses données

Les technologies d’intelligence artificielle peuvent désormais générer des images, des vidéos, du texte et de l’audio apparemment à partir de rien. Ces technologies ont atteint le point où les experts ne peuvent pas dire qu’elles sont fausses (du moins pas en un coup d’œil). Cela signifie que vous pouvez vous attendre à un flot de fausses données sur Internet à l’avenir.

Par exemple, les faux profils de médias sociaux peuvent actuellement être assez faciles à repérer, donc éviter les escroqueries par catfishing ou les simples campagnes de robots pour semer la désinformation n’a pas été si difficile pour un public averti. Cependant, ces nouvelles technologies d’IA pourraient générer de faux profils qui ne peuvent pas être distingués des vrais.

Des « personnes » avec des visages uniques avec des photos générées de toute leur fausse vie, des informations de profil cohérentes uniques et des réseaux d’amis et de famille entiers composés d’autres fausses personnes. Tous ayant des conversations les uns avec les autres, comme de vraies personnes. Avec des réseaux de faux agents en ligne comme ceux-ci, des acteurs malveillants pourraient réaliser diverses escroqueries et campagnes de désinformation.

EN RAPPORT: 5 technologies qui signifient que vous ne pourrez plus jamais croire quoi que ce soit sur Internet

L’IA est-elle à la fois le remède et la maladie ?

Il est inévitable que certaines personnes essaient d’utiliser toute nouvelle technologie à des fins malveillantes. Ce qui rend cette nouvelle génération de technologie d’intelligence artificielle différente, c’est la façon dont elle dépasse rapidement les capacités humaines pour la détecter.

Cela signifie, quelque peu ironiquement, que notre meilleure défense contre ces voies d’attaque améliorées par l’IA sera d’autres technologies d’IA qui combattent le feu par le feu. Cela semblerait ne vous laisser d’autre choix que de les regarder s’en sortir et d’espérer que les « bons » sortent vainqueurs. Néanmoins, vous pouvez faire plusieurs choses pour rester protégé en ligne, éviter les ransomwares et repérer les escroqueries sur des plateformes populaires comme Facebook, Facebook Marketplace, PayPal et LinkedIn.

Source-135