mardi, décembre 24, 2024

Titre : Escroquerie des grands-parents : l’utilisation frauduleuse de l’IA pour imiter la voix des petits-enfants

L’intelligence artificielle permet désormais de cloner des voix, ce qui soulève des inquiétudes concernant son utilisation dans des escroqueries, comme celle du faux petit-fils. Des chercheurs démontrent le potentiel de cette technologie, qui pourrait devenir plus convaincante avec le temps. Bien qu’aucun cas documenté d’escroquerie par voix IA n’ait été signalé en Allemagne, les experts soulignent les dangers potentiels. Toutefois, cette même technologie pourrait également offrir des solutions pour aider les personnes ayant perdu leur voix.

La voix comme outil de fraude ? Une perspective alarmante. Grâce à l’intelligence artificielle, il est désormais possible de ‘cloner’ des voix en un rien de temps. Les escrocs exploitent cette technologie, notamment dans l’escroquerie du faux petit-fils.

« Nous nous trouvons à l’Institut Hasso-Plattner à Potsdam, et je teste un démonstrateur de doublage vocal », annonce le reporter dans un micro. L’enregistrement ne prend qu’une poignée de secondes.

Ce ‘démonstrateur de doublage vocal’, une imitation vocale alimentée par l’IA, produit des phrases telles que : « Salut maman, tout va bien ? Écoute, je n’ai pas beaucoup de temps, donc je vais faire vite : ton médecin m’a appelé, tu dois encore faire un versement pour le dernier traitement. Le centre de traitement a une facture impayée, ils commencent à être un peu insistants. Nous devons agir rapidement, sinon il y aura des frais de retard. Tu devrais transférer 364 euros. » Cela est dit avec la voix du reporter.

Cette technique est typique de l’escroquerie du faux petit-fils, mais ici, elle est exécutée par une intelligence artificielle. Ce phénomène est connu sous le nom de Deep Fake. Bien que la mélodie des phrases ne soit pas encore tout à fait juste, et que les pauses respiratoires soient parfois trop longues, le montant en euros n’est pas encore prononcé de manière fluide.

Les fraudes liées aux investissements en crypto-monnaies entraînent des pertes mondiales de 70 milliards d’euros.

Les dangers des mots trompeurs

Ce n’était que le premier essai, explique Johanna Reiml, chercheuse en IA à l’Institut Hasso-Plattner pour l’ingénierie numérique à Potsdam. Le programme n’a été actif que pendant environ 30 secondes. Si ce scénario d’escroquerie du faux petit-fils était généré 100 fois avec plus de temps, des versions plus convaincantes pourraient en résulter. Le but est de sensibiliser le public aux capacités actuelles de l’IA, selon la chercheuse.

Des exemples d’escroqueries utilisant l’IA sont déjà nombreux : en été 2022, Franziska Giffey, à l’époque maire de Berlin, s’est retrouvée en visioconférence avec un Vitali Klitschko généré par IA. Le véritable Klitschko est le maire de Kiev. Giffey a réalisé l’escroquerie au cours de la conversation, lorsque le faux Klitschko a posé des questions étranges.

Un autre cas récent implique l’ancienne animatrice de Tagesthemen, Caren Miosga, qui est apparue dans un format de talk-show en train d’embrasser le ministre fédéral de l’Économie, Robert Habeck, des Verts. Cette vidéo sur TikTok était un Deep Fake, bien que l’ensemble ait semblé quelque peu maladroit et facilement identifiable comme une fraude.

Aujourd’hui, une nouvelle loi sur la protection téléphonique entre en vigueur pour réduire les appels frauduleux.

Un phénomène encore rare

Cependant, la puissance de calcul des ordinateurs contemporains ne cesse d’augmenter, rendant l’IA de plus en plus performante. Le ‘démonstrateur de doublage vocal’ de l’Institut Hasso-Plattner pourrait même fonctionner sur un ordinateur portable de jeu haut de gamme, selon Johanna Reiml.

Quelles implications cela a-t-il pour les fraudes ? Le Bureau fédéral de la criminalité signale qu’il n’existe actuellement aucun cas documenté en Allemagne où des criminels auraient utilisé des voix générées par IA pour réaliser des escroqueries de type faux petit-fils. La police de Berlin partage une information similaire, tandis que la police régionale de Brandebourg indique que bien que le phénomène soit connu, il n’y a pas de chiffres concrets.

Escroqueries : trop complexes ?

Tout cela pourrait s’avérer trop compliqué, selon une porte-parole de l’institution ‘Prévention criminelle policière des États et de la fédération’ basée à Stuttgart. Bien qu’il soit peut-être aisé de sélectionner un extrait de conversation d’une personne sur les réseaux sociaux ou sur YouTube et de l’utiliser pour une escroquerie via l’IA.

Cependant, la probabilité que cela se produise réellement est faible : « Les escrocs agissent de manière systématique et cherchent à contacter le plus grand nombre de personnes possible chaque jour pour maximiser leurs gains. Qui prendrait le temps de rechercher des parents plus jeunes sur les réseaux sociaux à ce jour ? »

Les escrocs envoient généralement des courriers et demandent des paiements supplémentaires. Cependant, ces escroqueries restent faciles à détecter.

Une voix IA : une opportunité à saisir

Utiliser des voix générées par IA pour les faire sonner comme des vraies peut aussi avoir des avantages, explique Johanna Reiml de l’Institut Hasso-Plattner.

Par exemple, pour les personnes qui ne peuvent plus parler à cause d’un AVC, l’intelligence artificielle peut les aider à retrouver leur voix. « Cela leur redonne une part de leur personnalité, car ils peuvent à nouveau s’exprimer avec leur propre voix, qui sonne naturellement. »

Ce sujet a été abordé par NDR dans l’émission ‘Markt’ diffusée le 24 juillet 2023 à 20h15.

- Advertisement -

Latest