Avez-vous déjà ignoré un avocat LinkedIn apparemment aléatoire et avez-vous eu le sentiment étrange que quelque chose dans le profil semblait juste… éteint ? Eh bien, il s’avère que, dans certains cas, ces les commerciaux qui vous harcèlent ne sont peut-être pas du tout des êtres humains. Oui, généré par l’IA faux faux sont venus pour LinkedIn et ils aimeraient se connecter.
C’est selon une récente recherche Renée DiResta de l’Observatoire Internet de Stanford détaillée dans un récent NPR rapport. DiResta, qui s’est fait un nom marcher péniblement à travers des torrents de contenu de désinformation russe à la suite des élections de 2016, a déclaré avoir pris conscience d’un phénomène apparent de fausses images de profil LinkedIn générées par ordinateur après qu’un compte particulièrement étrange ait tenté de se connecter avec elle. L’utilisateur, qui aurait tenté de lancer DiResta sur un logiciel sans importance, a utilisé une image avec d’étranges incongruités qui lui sont apparues aussi étrange pour une photo d’entreprise. Plus particulièrement, DiResta dit qu’elle a remarqué que les yeux des personnages étaient parfaitement alignés au milieu de l’image, un signe révélateur des images générées par l’IA. Regardez toujours les yeux, chers humains.
« Le visage m’a sauté aux yeux comme étant faux », a déclaré DiResta à NPR.
À partir de là, DiResta et son collègue de Stanford Josh Goldstein ont mené une enquête qui a révélé plus de 1 000 comptes LinkedIn en utilisant des images qui, selon eux, semblent avoir été créées par un ordinateur. Bien qu’une grande partie de la conversation publique autour des contrefaçons profondes ait mis en garde contre le potentiel dangereux de la technologie pour la désinformation politique, DiResta a déclaré que les images, dans ce cas, semblent massivement conçues pour fonctionner davantage comme des laquais de la vente et de l’escroquerie. Les entreprises utiliseraient les fausses images pour déjouer le système de LinkedIn, créant des comptes alternatifs pour envoyer les ventes emplacements pour éviter de se heurter aux limites de LinkedIn sur les messages, note NPR.
« Ce n’est pas une histoire de mésinformation ou de désinformation, mais plutôt l’intersection d’un cas d’utilisation commerciale assez banal avec la technologie de l’IA, et des questions d’éthique et d’attentes qui en résultent », a écrit DiResta dans un Tweet. « Quelles sont nos hypothèses lorsque nous rencontrons d’autres personnes sur les réseaux sociaux ? Quelles actions franchissent la ligne de la manipulation ? »
LinkedIn n’a pas immédiatement répondu à la demande de commentaire de Gizmodo, mais a déclaré à NPR qu’il avait enquêté et supprimé les comptes qui enfreignaient ses politiques concernant l’utilisation de fausses images.
« Nos politiques indiquent clairement que chaque profil LinkedIn doit représenter une personne réelle », a déclaré un porte-parole de LinkedIn à NPR. « Nous mettons constamment à jour nos défenses techniques pour mieux identifier les faux profils et les supprimer de notre communauté, comme nous l’avons fait dans ce cas. »
Deepfake Creators : Où est le paysage infernal de la désinformation qui nous avait été promis ?
Experts en désinformation et commentateurs politiques prévenu une sorte de deepfake dystopie pendant des années, mais les résultats dans le monde réel ont, pour l’instant du moins, été moins impressionnants. Internet a été brièvement captivé l’année dernière avec cette fausse vidéo TikTok avec quelqu’un se faisant passer pour Tom Cruise, bien que de nombreux utilisateurs aient pu en repérer tout de suite la non-humanité. Ceci, et d’autres contrefaçons populaires (comme celui-ci soi-disant mettant en vedette Jim Carey dans Le brillant, ou celui-ci représentant un bureau plein de clones de Michael Scott) présentent un contenu clairement satirique et relativement inoffensif qui ne sonne pas tout à fait la, « Danger pour la démocratie” alarme.
D’autres cas récents ont cependant tenté de plonger dans le bourbier politique. Précédent vidéos, par exemple, ont démontré comment des créateurs ont pu manipuler une vidéo de l’ancien président Barack Obama pour prononcer des phrases qu’il n’a jamais prononcées. Puis, plus tôt ce mois-ci, un faux vidéo faisant semblant de montrer au président ukrainien Volodymyr Zelenskyy se rendre a fait son tour sur les réseaux sociaux. Encore une fois, il convient de souligner que celui-ci ressemblait à de la merde. Voir par vous-même.
Les deepfakes, même de tendance politique, sont définitivement là, mais les inquiétudes concernant les images de retard de croissance de la société ne se sont pas encore concrétisées, une déception apparente laissant certains commentateurs post-électoraux américains demander: «Où sont les deepfakes dans cette élection présidentielle ?”
Les humains sont de moins en moins capables de repérer les images Deepfake
Pourtant, il y a une bonne raison de croire que tout cela pourrait changer… éventuellement. Une étude récente publié dans les Actes de l’Académie nationale des sciences, les visages générés par ordinateur (ou « synthétisés ») étaient en fait jugés plus fiables que les portraits de personnes réelles. Pour l’étude, les chercheurs ont rassemblé 400 visages réels et en ont généré 400 autres, extrêmement réalistes. portraits à l’aide de réseaux de neurones. Les chercheurs ont utilisé 128 de ces images et a testé un groupe de participants pour voir s’ils pouvaient faire la différence entre une vraie image et une fausse. Un groupe distinct de répondants a été invité à juger de la fiabilité de leur vision des visages sans laisser entendre que certaines des images n’étaient pas du tout humaines.
Les résultats ne sont pas de bon augure pour Team Human. Lors du premier test, les participants n’ont pu identifier correctement si une image était réelle ou générée par ordinateur que 48,2 % du temps. La fiabilité de l’évaluation du groupe, quant à elle, a donné aux visages de l’IA un score de fiabilité plus élevé (4,82) que les visages humains (4,48).
« L’accès facile à de telles fausses images de haute qualité a entraîné et continuera d’entraîner divers problèmes, notamment des faux profils en ligne plus convaincants et, à mesure que la génération audio et vidéo synthétique continue de s’améliorer, des problèmes d’images intimes non consensuelles, de fraude et de campagnes de désinformation. « , ont écrit les chercheurs. « Nous encourageons donc ceux qui développent ces technologies à se demander si les risques associés sont supérieurs à leurs avantages. »
Ces résultats valent la peine d’être pris au sérieux et soulèvent la possibilité d’une incertitude publique significative autour des deepfakes qui risque d’ouvrir une boîte de pandore de nouvelles questions compliquées autour de l’authenticité, du droit d’auteur, de la désinformation politique et du grand « T ». vérité dans les années et les décennies à venir.
À court terme cependant, les sources les plus importantes de contenu politiquement problématique ne proviendront pas nécessairement de deepfakes très avancés, pilotés par l’IA, mais plutôt de soi-disant «contrefaçons bon marché” qui peut manipuler les médias avec des logiciels beaucoup moins sophistiqués, voire aucun. Des exemples de ceux-ci incluent une vidéo virale de 2019 exposer une Nancy Pelosi soi-disant martelée qui articule ses mots (cette vidéo a en fait été ralentie de 25%) et celle-ci d’un Joe Biden maladroit qui essaie de vendre une assurance automobile aux Américains. Cette affaire était en fait juste un homme mal usurper l’identité la voix du président doublée sur la vidéo réelle. Bien que ceux-ci soient follement moins sexy que certains deepfakes du Bande de pipi Trumpils ont tous deux attiré énormément d’attention en ligne.