mardi, novembre 19, 2024

Le FBI met en garde contre l’utilisation croissante de deepfakes générés par l’IA dans les programmes de sextorsion

Le FBI a mis en garde lundi contre l’utilisation croissante de l’intelligence artificielle pour générer de fausses vidéos à utiliser dans des programmes de sextorsion qui tentent de harceler des mineurs et des adultes non-consultants ou de les contraindre à payer des rançons ou à se conformer à d’autres demandes.

Le fléau de la sextorsion existe depuis des décennies. Il s’agit d’une connaissance en ligne ou d’un étranger incitant une personne à fournir un paiement, une photo explicite ou à thème sexuel, ou toute autre incitation par la menace de partager avec le public des images compromettantes déjà obtenues. Dans certains cas, les images en possession des escrocs sont réelles et ont été obtenues de quelqu’un que la victime connaît ou d’un compte qui a été piraté. D’autres fois, les escrocs prétendent seulement avoir du matériel explicite sans fournir aucune preuve.

Après avoir convaincu les victimes que leurs images explicites ou compromettantes sont en possession des escrocs, les escrocs exigent une forme de paiement en échange de ne pas envoyer le contenu aux membres de la famille, aux amis ou aux employeurs. Dans le cas où les victimes envoient des images sexuellement explicites en guise de paiement, les escrocs utilisent souvent le nouveau contenu pour maintenir l’arnaque le plus longtemps possible.

Ces derniers mois, le FBI a déclaré dans une alerte publiée lundi, l’utilisation de l’IA pour générer de fausses vidéos qui semblent montrer de vraies personnes engagées dans des activités sexuellement explicites a augmenté.

« Le FBI continue de recevoir des rapports de victimes, y compris des enfants mineurs et des adultes non consentants, dont les photos ou vidéos ont été modifiées en contenu explicite », ont écrit des responsables. « Les photos ou vidéos sont ensuite diffusées publiquement sur les réseaux sociaux ou sur des sites pornographiques dans le but de harceler les victimes ou de réaliser des programmes de sextorsion. »

Ils ont continué à écrire:

Depuis avril 2023, le FBI a observé une augmentation du nombre de victimes de sextorsion signalant l’utilisation de fausses images ou vidéos créées à partir de contenu publié sur leurs sites de médias sociaux ou de publications Web, fournies à l’acteur malveillant sur demande ou capturées lors de chats vidéo. D’après les récents signalements de victimes, les acteurs malveillants ont généralement exigé : 1. Un paiement (par exemple, de l’argent, des cartes-cadeaux) avec des menaces de partager les images ou les vidéos avec des membres de la famille ou des amis sur les réseaux sociaux si les fonds n’étaient pas reçus ; ou 2. La victime envoie de vraies images ou vidéos à thème sexuel.

Les logiciels et les services basés sur le cloud pour créer des vidéos dites deepfake sont abondants en ligne et couvrent toute la gamme des offres open source disponibles gratuitement aux comptes d’abonnement. Avec les progrès de l’IA ces dernières années, la qualité de ces offres s’est considérablement améliorée au point qu’une seule image du visage d’une personne suffit pour créer des vidéos réalistes qui utilisent la ressemblance de la personne dans une fausse vidéo.

La plupart des offres de deepfake incluent au moins ostensiblement des protections conçues pour empêcher les abus de deepfake, par exemple, en utilisant une vérification intégrée conçue pour empêcher le programme de fonctionner sur des « supports inappropriés ». Dans la pratique, ces garde-corps sont souvent faciles à contourner, et il existe des services disponibles dans les marchés souterrains qui ne sont pas assortis de restrictions.

Les escrocs obtiennent souvent les photos des victimes sur les réseaux sociaux ou ailleurs et les utilisent pour créer « des images à thème sexuel qui ressemblent à la réalité à une victime, puis les diffusent sur les réseaux sociaux, les forums publics ou les sites Web pornographiques », des responsables du FBI. averti. « De nombreuses victimes, dont des mineurs, ignorent que leurs images ont été copiées, manipulées et diffusées jusqu’à ce qu’elles soient portées à leur attention par quelqu’un d’autre. Les photos sont ensuite envoyées directement aux victimes par des acteurs malveillants pour sextorsion ou harcèlement, ou jusqu’à ce que il a été auto-découvert sur Internet. Une fois diffusé, les victimes peuvent être confrontées à des défis importants pour empêcher le partage continu du contenu manipulé ou sa suppression d’Internet.

Le FBI a exhorté les gens à prendre des précautions pour empêcher que leurs images ne soient utilisées dans des deepfakes.

« Bien qu’apparemment inoffensives lorsqu’elles sont publiées ou partagées, les images et les vidéos peuvent fournir aux acteurs malveillants une source abondante de contenu à exploiter pour des activités criminelles », ont déclaré des responsables. « Les progrès de la technologie de création de contenu et des images personnelles accessibles en ligne offrent de nouvelles opportunités aux acteurs malveillants pour trouver et cibler les victimes. Cela les rend vulnérables à l’embarras, au harcèlement, à l’extorsion, aux pertes financières ou à la revictimisation continue à long terme. »

Les personnes qui ont reçu des menaces de sextorsion doivent conserver toutes les preuves disponibles, en particulier les captures d’écran, les textes, les enregistrements sur bande, les e-mails qui documentent les noms d’utilisateur, les adresses e-mail, les sites Web ou les noms des plates-formes utilisées pour la communication et les adresses IP. Ils peuvent signaler immédiatement la sextorsion à :

Source-147

- Advertisement -

Latest