En ce qui concerne les deepfakes, ce que nous avons vu jusqu’à présent n’est que la pointe de l’iceberg. Dans un avenir proche, nous ne saurons pas si la personne à qui nous parlons lors d’un appel vidéo est réelle ou un imposteur, et les escrocs n’auront aucun mal à créer une chronologie complète de fausses vidéos pour étayer leurs affirmations, ou inciter les gens à croire à la légitimité d’une offre ou d’une campagne.
Ces prédictions déchirantes proviennent d’Eric Horvitz, directeur scientifique de Microsoft, dans un nouveau document de recherche intitulé « À l’horizon : Deepfakes interactifs et compositionnels ».
Les deepfakes sont essentiellement des vidéos « photoshoppées ». En utilisant l’intelligence artificielle (IA) et l’apprentissage automatique (ML), un acteur malveillant est capable de créer une vidéo d’une personne disant des choses qu’elle n’a jamais dites. Maintenant, selon Horvitz, les escrocs sont prêts à passer au niveau supérieur. Les deepfakes interactifs sont exactement ce à quoi vous vous attendez – des vidéos en temps réel avec lesquelles les utilisateurs peuvent interagir, qui sont, en réalité, totalement fausses.
Histoire synthétique
Les deepfakes compositionnels, quant à eux, sont décrits comme des « ensembles de deepfakes » conçus pour s’intégrer au fil du temps avec « des événements mondiaux observés, attendus et conçus pour créer des histoires synthétiques convaincantes ».
« Les histoires synthétiques peuvent être construites manuellement mais pourraient un jour être guidées par des techniques d’explication générative contradictoire (AGE) », ajoute Horvitz.
Il dit également que dans un avenir proche, il sera presque impossible de distinguer les fausses vidéos et les faux contenus des authentiques : « En l’absence d’atténuations, les deepfakes interactifs et compositionnels menacent de nous rapprocher d’un monde post-épistémique, où le fait ne peut être distinguée de la fiction.
Cette absence de mesures d’atténuation découle du fait que les acteurs de la menace peuvent opposer l’intelligence artificielle aux outils d’analyse et développer un contenu deepfake capable de tromper même les systèmes de détection les plus avancés.
« Avec ce processus à la base des deepfakes, ni les techniques de reconnaissance de formes ni les humains ne seront en mesure de reconnaître de manière fiable les deepfakes », note Horvitz.
Donc, la prochaine fois qu’un membre de la famille appelle de l’étranger pour demander de l’argent pour payer le loyer, assurez-vous qu’il ne s’agit pas d’un fraudeur se faisant passer pour (s’ouvre dans un nouvel onglet) vos proches.
Via : VentureBeat (s’ouvre dans un nouvel onglet)