Les IA telles que ChatGPT et une myriade d’outils de modification de la voix peuvent être utiles et même amusantes, mais des histoires comme celle-ci mettent en évidence les dangers d’une telle technologie. Une mère de l’Arizona était terrifiée à l’idée que sa fille avait été kidnappée et détenue contre rançon.
Tel que rapporté par la société basée en Arizona WKYT (s’ouvre dans un nouvel onglet), Jennifer DeStefano a été victime de plus qu’un simple canular téléphonique. Elle a apparemment reçu un appel de sa fille de 15 ans, qui était hors de la ville lors d’un voyage de ski.
« Maman, j’ai foiré », a-t-il commencé, suivi d’un inconnu disant « Retourne ta tête, allonge-toi. »
Le pire cauchemar de tous les parents, l’homme a poursuivi en affirmant qu’il avait la fille de Jennifer en otage et a proféré plusieurs menaces horribles selon lesquelles, à moins qu’elle ne lui paie 1 million de dollars, elle ne reverrait plus sa fille. Pendant tout ce temps, on l’a entendue « aller, ‘Aide-moi, maman. Aidez-moi, s’il vous plaît. Aidez-moi,’ et hurlant.
Heureusement, après avoir appelé son mari, Jennifer a pu confirmer que sa fille était saine et sauve et ignorait complètement ce qui se passait. Tout cela avait été un tour horrible. Les criminels avaient utilisé l’IA pour imiter exactement la voix de sa fille.
« C’était complètement sa voix. C’était son inflexion. C’était la façon dont elle aurait pleuré », a-t-elle déclaré. « Je n’ai jamais douté une seule seconde que c’était elle. C’est la partie bizarre qui m’a vraiment amené à mon cœur.
Cette situation est horrible, mais malheureusement pas un incident isolé. Même des personnalités de premier plan ont eu des mots mis dans leur bouche. Drake et le week-end ont été pris pour cible lorsqu’un fausse chanson a été libéré dans leurs voix.
Plus impardonnable, le septuple champion du monde de Formule 1 Michael Schumacher, qui a eu un tragique accident de ski en 2014, a semblé accorder une interview exclusive à un magazine allemand plus tôt ce mois-ci, détaillant des détails déchirants sur la vie de famille. Quel scoop, jusqu’à ce qu’il soit révélé tout était faux (s’ouvre dans un nouvel onglet), en utilisant une IA formée pour produire des citations qui lui ressemblaient. La famille de Schumacher poursuit maintenant le magazine en justice.
Comment éviter d’être trompé par l’IA ?
Malheureusement, nous vivons maintenant dans un monde où le simple fait d’accorder aux gens l’accès à notre image et à des extraits de notre voix peut être utilisé contre nous. Les personnalités publiques auront probablement du mal à échapper à de telles escroqueries, mais les citoyens ordinaires peuvent prendre quelques mesures pour se protéger.
Définir les comptes de médias sociaux sur privés est un excellent moyen de s’assurer que seuls les yeux et les oreilles des personnes en qui vous avez confiance voient vos publications. Les vidéos sur Instagram, Facebook, etc. peuvent non seulement révéler à quoi vous ressemblez, mais les escrocs n’ont besoin que de quelques secondes d’audio pour usurper votre voix.
Si vous vous retrouvez à parler en ligne ou au téléphone à quelqu’un dont vous vous méfiez, posez-lui des questions personnelles que le véritable ami ou membre de la famille connaîtrait et n’envoyez jamais d’argent ou ne cliquez sur aucun lien provenant de sources non fiables.