Un Torontois perd ses économies à cause de l’arnaque à la fausse crypto-monnaie de Justin Trudeau

Stephen Henry pensait : « Il faut que ce soit parfait. Sinon, comment pourriez-vous obtenir le Premier ministre ?

Contenu de l’article

Un Torontois dit qu’il a perdu 12 000 $ après avoir été trompé par une arnaque à la cryptomonnaie qui utilisait l’image de Justin Trudeau pour approuver une plateforme d’investissement frauduleuse.

L’arnaque a été propagée via une vidéo YouTube et manipulée avec l’IA et la technologie de clonage vocal pour donner l’impression que Trudeau faisait la promotion d’un échange de cryptomonnaies et d’une plateforme d’investissement visant à « aider les Canadiens à protéger leur avenir financier ».

Publicité 2

Contenu de l’article

Contenu de l’article

« Je me suis dit : « Il faut que ce soit légitime, que ce soit parfait. Sinon, comment pourriez-vous obtenir le Premier ministre ? Alors j’ai pensé : « Ça doit être officiel » », a déclaré Stephen Henry. Télévision connectée.

Henry a initialement investi 250 $, mais a ensuite continué à investir ses économies, estimant que la valeur de ses investissements avait atteint plus de 40 000 $.

Recommandé par l’éditorial

Lorsqu’Henry a tenté en vain de retirer une partie de son argent, il s’est rendu compte qu’il avait été victime d’une arnaque.

«Maintenant, je suis privé de toutes mes chances de réussir ma vie. C’était tout l’argent que j’avais », a-t-il déclaré.

Henry est loin d’être seul. Les escroqueries qui exploitent les images de politiciens et de célébrités pour tromper les individus se sont multipliées parallèlement aux améliorations de la qualité et de l’accessibilité de la technologie des deepfakes.

Taylor Swift, le pape François et le président ukrainien Volodymyr Zelenskyy ne sont que quelques exemples d’individus dont l’image a été récupérée dans le cadre d’escroqueries et de campagnes de désinformation.

Les escroqueries manipulent les technologies d’IA et de clonage vocal pour créer des mentions très convaincantes mais frauduleuses. Les algorithmes d’IA et d’apprentissage automatique peuvent superposer des visages et imiter des voix, notamment en reproduisant des manières et des schémas vocaux.

Même les publicités peu crédibles peuvent être efficaces, en particulier pour ceux qui ne connaissent pas les progrès de la technologie de l’IA.

Les utilisateurs de Facebook ont ​​peut-être récemment repéré une publicité sur la plateforme mettant en vedette un deepfake Justin Trudeau faisant la promotion d’une arnaque à la cryptomonnaie.

La fausse publicité utilise des images d’une interview de CBC, mais Trudeau parle avec un accent australien.

Contenu de l’article

Publicité 3

Contenu de l’article

« La marque des escroqueries est qu’elles doivent être suffisamment réalistes pour attraper quelqu’un, mais aussi suffisamment fausses pour que les personnes qu’elles capturent se laissent vraisemblablement tromper », a déclaré plus tôt le professeur adjoint de l’Université McGill, Aengus Bridgman, au National Post. mois.

Bien que Bridgman ait déclaré que la publicité de Trudeau était mal réalisée, elle servait également un objectif en filtrant les utilisateurs plus expérimentés dans le but d’attirer les personnes les plus susceptibles d’investir de l’argent dans l’arnaque.

« C’est le genre de personne que vous voulez attirer avec ces publicités : quelqu’un qui ne connaît pas le numérique — de la même manière, les personnes âgées au Canada sont la proie des escroqueries téléphoniques et du vol d’identité », a déclaré Bridgman.

Le Cabinet du Premier ministre, par l’intermédiaire de l’attachée de presse Jenna Ghassbeh, a reconnu les défis posés par la technologie des deepfakes et la prolifération de fausses informations ciblant les élus dans une déclaration à CTV.

« La quantité d’informations et de comptes trompeurs, faux et trompeurs ciblant les élus est de plus en plus préoccupante et inacceptable, en particulier à l’ère de la technologie deepfake », a déclaré Ghassbeh.

Publicité 4

Contenu de l’article

Alors que le gouvernement fédéral s’efforce de suivre les progrès de la technologie, il affirme que l’éducation des communautés et la promotion d’un engagement critique envers l’information sont des stratégies clés de protection.

« Les normes sociétales et le discours sur les deepfakes devraient être poussés pour créer un environnement social dans lequel les gens sont non seulement plus sceptiques quant à ce qu’ils voient, mais sont également encouragés à remettre en question les affirmations informationnelles des autres », note le rapport. Service canadien du renseignement de sécurité (SCRS).

Certaines entreprises technologiques et plateformes de médias sociaux utilisent une combinaison d’informations humaines et de méthodes automatisées pour détecter les deepfakes, tandis que l’on s’efforce également de mettre en place des cadres juridiques qui pourraient tenir pour responsables les créateurs et les distributeurs de deepfakes et offrir une protection aux victimes de diffamation.

« Pour modifier les normes sociétales, les leaders d’opinion et les personnes les plus centrales dans les réseaux sociaux sont essentiels », ajoute le SCRS. « Les ressources pédagogiques, notamment la formation à la littératie numérique, sont des outils utiles, surtout si elles s’adressent aux influenceurs. Il a été constaté que les vidéos expliquant les deepfakes politiques réduisent l’incertitude et, ce faisant, peuvent accroître la confiance dans les médias. Mais les normes ne changent vraiment que grâce à une action collective.

Notre site Web est l’endroit idéal pour les dernières nouvelles, les scoops exclusifs, les lectures longues et les commentaires provocateurs. Veuillez ajouter nationalpost.com à vos favoris et vous inscrire à notre newsletter quotidienne, Publié, ici.

Contenu de l’article

Source link-46