Une vieille arnaque SEO a un nouveau visage généré par l’IA

Au fil des années, Engadget a été la cible d’une arnaque SEO courante, dans laquelle quelqu’un revendique la propriété d’une image et exige une banque de liens vers un site Web particulier. De nombreux autres sites Web vous diraient la même chose, mais désormais, les escrocs rendent leurs faux avis de retrait DMCA et leurs menaces de poursuites judiciaires plus légitimes à l’aide d’outils d’IA facilement accessibles.

Selon un rapport de 404Médias, l’éditeur du site Tedium a reçu la semaine dernière un « avis de violation du droit d’auteur » par courrier électronique d’un cabinet d’avocats appelé Commonwealth Legal. Comme dans des tentatives plus anciennes et similaires visant à duper le destinataire, l’expéditeur a déclaré qu’il tendait la main « en relation avec une image » liée à son client. Dans cette affaire, l’expéditeur a exigé l’ajout d’un « lien visible et cliquable » vers un site Internet appelé « tech4gods » sous la photo prétendument volée.

Puisque Tedium a en fait utilisé une photo provenant d’un fournisseur libre de droits, l’éditeur a examiné la demande, a trouvé le site Web du cabinet d’avocats et, après une inspection plus approfondie, s’est rendu compte que les images de ses avocats étaient générées par l’IA. Comme 404Médias note, les images des avocats avaient des regards vides, ce que l’on voit couramment sur les photos créées par des outils d’IA. Si vous effectuez une recherche d’images inversée sur celles-ci, vous obtiendrez les résultats d’un site Web avec l’URL générée.photos, qui utilise l’intelligence artificielle pour créer « des photos de modèles uniques et sans souci… à partir de zéro ». L’éditeur a également découvert que l’adresse indiquée par le cabinet d’avocats, censée se trouver au quatrième étage d’un immeuble, indique une structure à un étage sur Google Street View. Le propriétaire de tech4gods a déclaré qu’il n’avait rien à voir avec l’arnaque, mais a admis qu’il avait l’habitude d’acheter des backlinks pour son site Web.

Ce n’est là qu’un exemple de la manière dont de mauvais acteurs peuvent utiliser les outils d’IA pour tromper et arnaquer les gens, et nous devons être plus vigilants car des cas comme celui-ci vont probablement continuer à se multiplier. Les moteurs de recherche d’images inversées sont vos amis, mais ils ne sont peut-être pas infaillibles et ne sont pas toujours utiles. Les deepfakes, par exemple, sont devenus un gros problème ces dernières années, car de mauvais acteurs continuent de les utiliser pour créer des vidéos et des fichiers audio convaincants, non seulement pour arnaquer les gens, mais aussi pour diffuser des informations erronées en ligne.

Source-145