Les deepfakes sont l’un des développements les plus inquiétants en matière d’IA. Ce sont souvent des vidéos extrêmement réalistes de personnes disant et faisant des choses qu’elles n’ont jamais faites. De manière générale, elles sont créées en superposant un visage, généralement celui d’une célébrité, sur celui d’une autre personne pour créer ces vidéos trompeuses.
Ils sont souvent destinés à être drôles, ou du moins sans intention sérieuse. Certains cherchent à créer des films avec des acteurs célèbres (s’ouvre dans un nouvel onglet) sans jamais avoir à quitter la maison. Mais comme vous pouvez l’imaginer, il y a une tonne de porno utilisant des deepfakes (s’ouvre dans un nouvel onglet)qui vont des fantasmes réalisés avec des personnages de jeux vidéo aux images problématiques de personnes réelles.
Mis à part le manque de respect flagrant que cela peut souvent montrer aux images des personnes utilisées, l’une des choses les plus dangereuses à propos des deepfakes est qu’ils sont vraiment bons. J’ai vu des deepfakes dont je n’aurais jamais deviné qu’ils n’étaient pas réels, et c’est particulièrement dangereux lorsque nous avons un Internet qui peut propager la désinformation comme une traînée de poudre.
« Les vidéos Deepfake sont partout maintenant. Vous les avez probablement déjà vus ; des vidéos de célébrités faisant ou disant des choses qu’elles n’ont jamais réellement faites. explique Ilke Demir, chercheur principal chez Intel Labs.
Il s’avère qu’il faut une IA pour attraper une IA, et heureusement, Intel a travaillé sur la chose. La société a travaillé sur des efforts dans le cadre de son travail sur l’IA responsable et a développé ce qu’Intel a surnommé le FakeCatcher. Il s’agit d’une technologie spécialement conçue pour détecter les fausses vidéos comme les deepfakes, et elle pourrait le faire en quelques millisecondes avec un taux de précision de 96 %.
Intel explique que de nombreux autres outils tentant de détecter les deepfakes essaient d’analyser les données brutes des fichiers, tandis que FakeCatcher a été formé avec des techniques d’apprentissage en profondeur pour détecter à quoi ressemble un vrai humain dans les vidéos. Cela signifie qu’il a été formé pour rechercher toutes les petites choses qui rendent les gens réels. Des choses subtiles comme remarquer le flux sanguin dans les pixels d’une vidéo, que les deepfakes n’ont apparemment pas encore maîtrisé. Bien que ce soit peut-être ainsi qu’ils apprendront à maîtriser nos effets sur le sang humain. C’est une phrase effrayante si j’en ai déjà écrit une.
FakeCatcher est configuré pour fonctionner sur une plate-forme Web qui, espérons-le, permettra à quiconque d’avoir accès à la technologie. Sur le back-end, il utilise les processeurs évolutifs Xeon de 3e génération d’Intel combinés à un ensemble de logiciels propriétaires pour effectuer les calculs requis.
Si vous voulez en savoir plus sur FakeCatcher d’Intel, regardez la vidéo en haut de l’article. Demir organisera également un événement Twitter Spaces à 11h30 PST le 16 novembre où elle approfondira la technologie utilisée. C’est si le nouveau propriétaire de Twitter, Elon Musk, ne licencie pas les gens (s’ouvre dans un nouvel onglet) qui font fonctionner Twitter Spaces avant cela.