mardi, décembre 24, 2024

Un septuagénaire californien victime d’une escroquerie de 25 000 dollars grâce à une imitation vocale d’IA de son fils.

Un homme californien, Anthony, a perdu 25 000 dollars à cause d’une escroquerie sophistiquée utilisant des générateurs de voix IA. Convaincu d’entendre son fils, supposé impliqué dans un accident, il a été piégé par des faux avocats exigeant des paiements. Malgré ses efforts pour aider son fils, Anthony a découvert trop tard qu’il avait été trompé. Les autorités soulignent la nécessité de rester vigilant face à ces escroqueries, de plus en plus réalistes grâce à la technologie.

Des générateurs de voix basés sur l’intelligence artificielle sont désormais instrumentalisés dans une escroquerie bien rodée, ayant vu un homme âgé en Californie se faire dérober 25 000 dollars de ses économies. Anthony, qui préfère ne pas divulguer son nom de famille, a reçu un appel de quelqu’un prétendant être son fils, affirmant qu’il avait eu un grave accident impliquant une femme enceinte et qu’il avait besoin d’argent de toute urgence.

Un enchaînement tragique d’appels aboutissant à la perte de 25 000 dollars

L’histoire a débuté lorsque Anthony a été informé que son fils était impliqué dans un accident grave, et qu’il fallait urgemment transporter la femme blessée à l’hôpital. Suite à ce premier appel, un second est arrivé — celui de Michael Roberts, l’avocat de son fils, réclamant 9 200 dollars pour la libération sous caution. Craignant des conséquences graves, Anthony s’est précipité à la banque, prétextant qu’il avait besoin de ces fonds pour un projet d’installation de panneaux solaires, afin de ne pas éveiller de soupçons. De retour chez lui, ABC7 news rapporte que sa fille a tenté de joindre Michael Roberts. Au téléphone, il a été précisé qu’un intermédiaire viendrait chercher l’argent via un Uber. Peu après, un certain Mark Cohen, faisant office d’autre avocat, a annoncé que la femme enceinte avait succombé à ses blessures, augmentant la caution à 25 000 dollars. Le processus a été répété, et c’est à ce moment-là qu’Anthony et sa fille ont pris conscience qu’ils avaient été trompés.

La raison principale de leur vulnérabilité réside dans le fait qu’Anthony a confié aux autorités que la voix au téléphone ressemblait trait pour trait à celle de son fils. Chelsea Saeger, inspectrice à la police de Los Angeles, souligne que ce type d’escroquerie existe depuis longtemps, mais l’incorporation de la technologie vocale AI rend les victimes plus susceptibles de se laisser berner. Les communications semblent si réelles qu’elles induisent en erreur.

« Les escrocs deviennent de plus en plus rusés et sophistiqués. Ils utilisent les réseaux sociaux et la technologie pour tisser des récits qui semblent crédibles, amenant les gens à croire qu’ils sont en contact avec un proche ou un représentant officiel », déclare-t-elle.

Bien qu’Anthony se sente embarrassé par cette situation, il espère sincèrement que d’autres prendront conscience de cette menace afin de ne pas tomber dans le piège d’escroqueries similaires. Il est primordial de rester vigilant face à ces tentatives malveillantes, car les générateurs de voix d’IA continueront de progresser et de brouiller les frontières entre le vrai et le faux. La pression ressentie par Anthony, accentuée par le fait que son fils ne pouvait pas répondre à l’appel, montre l’importance pour les membres de la famille de rester attentifs à de telles manipulations.

Source des nouvelles : ABC7

- Advertisement -

Latest