La montée des voix générées par l’IA imitant des célébrités et des politiciens pourrait rendre encore plus difficile pour la Federal Communications Commission (FCC) la lutte contre les appels automatisés et empêcher les gens d’être spammés et arnaqués. C’est pourquoi la présidente de la FCC, Jessica Rosenworcel, souhaite que la commission reconnaisse officiellement les appels utilisant des voix générées par l’IA comme « artificiels », ce qui rendrait illégale l’utilisation de technologies de clonage vocal dans les appels automatisés. En vertu de la Loi sur la protection des consommateurs par téléphone (TCPA) de la FCC, les sollicitations adressées aux résidences qui utilisent une voix artificielle ou un enregistrement sont contraires à la loi. Comme TechCrunch note, la proposition de la FCC facilitera la poursuite et l’accusation des mauvais acteurs.
« Le clonage de voix et d’images générés par l’IA sème déjà la confusion en faisant croire aux consommateurs que les escroqueries et les fraudes sont légitimes », a déclaré Jessica Rosenworcel, présidente de la FCC, dans un communiqué. « Quelle que soit la célébrité ou le politicien que vous privilégiez, ou la relation que vous entretenez avec vos proches lorsqu’ils appellent à l’aide, il est possible que nous soyons tous la cible de ces faux appels. » Si la FCC reconnaît les appels vocaux générés par l’IA comme illégaux en vertu de la loi en vigueur, l’agence peut donner aux bureaux des procureurs généraux des États à travers le pays « de nouveaux outils qu’ils peuvent utiliser pour réprimer… les escroqueries et protéger les consommateurs ».
La proposition de la FCC intervient peu de temps après que certains habitants du New Hampshire ont reçu un appel se faisant passer pour le président Joe Biden, leur disant de ne pas voter aux primaires de leur État. Une société de sécurité a effectué une analyse approfondie de l’appel et a déterminé qu’il avait été créé à l’aide d’outils d’IA par une startup appelée ElevenLabs. La société aurait interdit le compte responsable du message imitant le président, mais l’incident pourrait bien n’être qu’une des nombreuses tentatives visant à perturber les prochaines élections américaines en utilisant du contenu généré par l’IA.