Les investisseurs en crypto ont été invités à garder les yeux ouverts sur les escroqueries crypto « deepfake » à venir, la technologie de sosie numérique continuant de progresser, ce qui rend plus difficile pour les téléspectateurs de séparer les faits de la fiction.
David Schwed, directeur de l’exploitation de la société de sécurité blockchain Halborn, a déclaré à Cointelegraph que l’industrie de la cryptographie est plus « sensible » aux deepfakes que jamais, car « le temps est essentiel pour prendre des décisions », ce qui réduit le temps nécessaire pour vérifier la véracité d’une vidéo.
Selon le rédacteur technique d’OpenZeppelin Vlad Estoup, Deepfakes utilise l’intelligence artificielle (IA) d’apprentissage en profondeur pour créer un contenu numérique hautement réaliste en manipulant et en modifiant les médias originaux, tels que l’échange de visages dans les vidéos, les photos et l’audio.
Estoup a noté que les escrocs cryptographiques utilisent souvent la technologie deepfake pour créer de fausses vidéos de personnalités bien connues afin d’exécuter des escroqueries.
Un exemple d’une telle arnaque était une vidéo deepfake de l’ancien PDG de FTX, Sam Bankman-Fried, en novembre 2022, où les escrocs utilisaient d’anciennes images d’interview de Bankman-Fried et un émulateur vocal pour diriger les utilisateurs vers un site Web malveillant promettant de « doubler votre crypto-monnaie ». ”
Au cours du week-end, un compte vérifié se faisant passer pour le fondateur de FTX, SBF, a publié des dizaines de copies de cette vidéo deepfake offrant aux utilisateurs de FTX une « compensation pour la perte » dans une escroquerie de phishing conçue pour vider leurs portefeuilles cryptographiques. pic.twitter.com/3KoAPRJsya
– Jason Koebler (@jason_koebler) 21 novembre 2022
Schwed a déclaré que la nature volatile de la cryptographie fait paniquer les gens et adopte l’approche «mieux vaut prévenir que guérir», ce qui peut les amener à se laisser entraîner dans des escroqueries profondes. Il a noté:
« Si une vidéo de CZ est publiée affirmant que les retraits seront interrompus dans l’heure, allez-vous retirer immédiatement vos fonds ou passer des heures à essayer de déterminer si le message est réel? »
Cependant, Estoup estime que si la technologie deepfake progresse à un rythme rapide, elle n’est pas encore « indiscernable de la réalité ».
Comment repérer un deepfake : surveillez les yeux
Schwed suggère qu’un moyen utile de repérer rapidement un deepfake est de regarder quand le sujet cligne des yeux. Si cela ne semble pas naturel, il y a de fortes chances que ce soit un deepfake.
Cela est dû au fait que les deepfakes sont générés à l’aide de fichiers image provenant d’Internet, où le sujet aura généralement les yeux ouverts, explique Schwed. Ainsi, dans un deepfake, le clignement des yeux du sujet doit être simulé.
Hé @Elon Musk & @TuckerCarlson avez-vous vu, ce que je suppose est #deepfake annonce payante vous présentant tous les deux ? @Youtube comment est-ce autorisé ? Cela devient incontrôlable, ce n’est pas #La liberté d’expression c’est tout droit #fraude: Musk révèle pourquoi il soutient financièrement les Canadiens https://t.co/IgoTbbl4fL pic.twitter.com/PRMfiyG3Pe
— Matt Dupuis (@MatthewDupuis) 4 janvier 2023
Schwed a déclaré que le meilleur identifiant est bien sûr de poser des questions auxquelles seul le vrai individu peut répondre, par exemple : « dans quel restaurant nous sommes-nous rencontrés pour le déjeuner la semaine dernière ? »
Estoup a déclaré qu’il existe également un logiciel d’IA capable de détecter les deepfakes et suggère de rechercher de grandes améliorations technologiques dans ce domaine.
Il a également donné le conseil séculaire de: « Si c’est trop beau pour être vrai, c’est probablement le cas. »
Lié: ‘Beurk !’ Elon Musk met en garde les utilisateurs contre la dernière arnaque crypto deepfake
L’année dernière, le directeur des communications de Binance, Patrick Hillman, a révélé dans un août 2022 Blog poste qu’une arnaque sophistiquée a été perpétrée en utilisant un deepfake de lui.
Hillman a noté que l’équipe a utilisé des interviews de nouvelles et des apparitions télévisées précédentes au fil des ans pour créer le deepfake et « tromper plusieurs membres crypto très intelligents ».
Il n’en a pris conscience que lorsqu’il a commencé à recevoir des messages en ligne le remerciant d’avoir passé du temps à parler aux équipes de projet de la possibilité de lister leurs actifs sur Binance.com.
Plus tôt cette semaine, la société de sécurité blockchain SlowMist a noté qu’il y avait eu 303 incidents de sécurité blockchain en 2022, dont 31,6% causés par le phishing, les tirages de tapis et d’autres escroqueries.