D’autres conflits et dirigeants politiques peuvent être moins chanceux et pourraient être plus vulnérables aux perturbations causées par les deepfakes, explique Sam Gregory, qui travaille sur la politique des deepfakes à l’organisation à but non lucratif Witness.
La grande notoriété de Zelensky a aidé l’avertissement deepfake de l’Ukraine il y a deux semaines à gagner une couverture médiatique internationale, et cela a également aidé sa réponse rapide de mercredi à se propager rapidement. Sa notoriété a peut-être également suscité une réponse rapide à la vidéo des sociétés de réseaux sociaux. Le porte-parole de Meta, Aaron Simpson, a refusé de dire comment il avait détecté la vidéo. tout comme Choi de YouTube. La déclaration fournie par Kennedy de Twitter a crédité des « rapports d’enquête externes » non spécifiés.
Toutes les personnes ciblées par les deepfakes ne seront pas en mesure de réagir aussi rapidement que Zelensky ou de trouver leur répudiation si largement reconnue. « L’Ukraine était bien placée pour le faire », dit Gregory. « C’est très différent des autres cas, où même un deepfake mal fait peut créer une incertitude quant à l’authenticité. »
Gregory fait référence à une vidéo qui est apparue au Myanmar l’année dernière, qui semble montrer un ancien ministre du gouvernement détenu en détention disant qu’il a fourni de l’argent et de l’or à l’ancienne dirigeante du pays, Aung San Suu Kyi.
Le gouvernement militaire qui a déplacé Aung San Suu Kyi lors d’un coup d’État a utilisé ces images pour l’accuser de corruption. Mais dans la vidéo, le visage et la voix de l’ancien ministre étaient déformés, ce qui a amené de nombreux journalistes et citoyens à suggérer que le clip était truqué.
L’analyse technique n’a pas résolu le mystère, en partie parce que la vidéo est de mauvaise qualité, et parce que l’ancien ministre et d’autres connaisseurs de la vérité ne parlent pas aussi librement ou à un public aussi large que Zelensky le pouvait mercredi. Alors que les détecteurs automatiques de deepfake pourraient un jour aider à combattre les mauvais acteurs, ils sont toujours en cours.
Les deepfakes sont encore généralement plus utilisés pour la titillation ou le harcèlement que pour la grande tromperie, d’autant plus qu’ils deviennent plus faciles à créer. Un deepfake du président russe Vladimir Poutine a également circulé sur Twitter cette semaine, bien qu’il ait été identifié comme inauthentique dès le départ. Le deepfake Zelensky et les hacks qui l’accompagnent pourraient cependant représenter une nouvelle frontière troublante. La réponse rapide et réussie au clip montre comment, avec quelques ajustements et un meilleur timing, une attaque deepfake pourrait être une arme politique efficace.
« S’il s’agissait d’une vidéo plus professionnelle et avait été publiée au début d’une avancée russe plus réussie sur Kiev, cela aurait pu créer beaucoup de confusion », déclare Samuel Bendett, qui suit la technologie de défense russe au CNA à but non lucratif. Alors que la technologie deepfake continue de devenir plus facile d’accès et plus convaincante, il est peu probable que Zelensky soit le dernier dirigeant politique ciblé par une fausse vidéo.
Plus de grandes histoires WIRED