Les applications qui utilisent l’IA pour déshabiller les femmes sur des photos sont de plus en plus utilisées

Beaucoup de ces services « nudify » utilisent les réseaux sociaux populaires à des fins de marketing.

Contenu de l’article

Les applications et les sites Web qui utilisent l’intelligence artificielle pour déshabiller les femmes sur des photos gagnent en popularité, selon les chercheurs.

Publicité 2

Contenu de l’article

Rien qu’en septembre, 24 millions de personnes ont visité des sites Web de déshabillage, a constaté la société d’analyse des réseaux sociaux Graphika.

Contenu de l’article

Selon Graphika, bon nombre de ces services de déshabillage ou de « nudification » utilisent les réseaux sociaux populaires à des fins de marketing. Par exemple, depuis le début de cette année, le nombre de liens annonçant des applications de déshabillage a augmenté de plus de 2 400 % sur les réseaux sociaux, y compris sur X et Reddit, selon les chercheurs. Les services utilisent l’IA pour recréer une image afin que la personne soit nue. De nombreux services ne fonctionnent que sur les femmes.

Contenu de l’article

Ces applications font partie d’une tendance inquiétante de développement et de distribution de pornographie non consensuelle en raison des progrès de l’intelligence artificielle – un type de média fabriqué connu sous le nom de deepfake pornographie. Sa prolifération se heurte à de sérieux obstacles juridiques et éthiques, car les images sont souvent extraites des réseaux sociaux et diffusées sans le consentement, le contrôle ou la connaissance du sujet.

Publicité 3

Contenu de l’article

Cette montée en popularité correspond à la sortie de plusieurs modèles de diffusion open source, ou intelligence artificielle, capables de créer des images bien supérieures à celles créées il y a quelques années à peine, a expliqué Graphika. Parce qu’ils sont open source, les modèles utilisés par les développeurs d’applications sont disponibles gratuitement.

Contenu de l’article

« Vous pouvez créer quelque chose qui semble réellement réaliste », a déclaré Santiago Lakatos, analyste chez Graphika, soulignant que les deepfakes précédents étaient souvent flous.

Une image publiée sur X annonçant une application de déshabillage utilisait un langage suggérant que les clients pouvaient créer des images nues, puis les envoyer à la personne dont l’image avait été déshabillée numériquement, incitant au harcèlement. L’une des applications, quant à elle, a payé pour du contenu sponsorisé sur YouTube de Google et apparaît en premier lors d’une recherche avec le mot « nudify ».

Publicité 4

Contenu de l’article

Un porte-parole de Google a déclaré que la société n’autorisait pas les publicités « contenant du contenu sexuellement explicite ».

« Nous avons examiné les publicités en question et supprimons celles qui enfreignent nos politiques », a déclaré la société.

VIDÉO RECOMMANDÉE

Nous nous excusons, mais cette vidéo n’a pas pu se charger.

Un porte-parole de Reddit a déclaré que le site interdisait tout partage non consensuel de faux matériel sexuellement explicite et avait interdit plusieurs domaines à la suite de la recherche. X n’a ​​pas répondu à une demande de commentaire.

Outre l’augmentation du trafic, les services, dont certains facturent 9,99 dollars par mois, affirment sur leurs sites Internet qu’ils attirent beaucoup de clients. « Ils font beaucoup d’affaires », a déclaré Lakatos. Décrivant l’une des applications de déshabillage, il a déclaré : « Si vous les croyez sur parole, leur site Web annonce qu’il compte plus d’un millier d’utilisateurs par jour. »

Publicité 5

Contenu de l’article

La pornographie non consensuelle de personnalités publiques est depuis longtemps un fléau sur Internet, mais les experts en matière de protection de la vie privée s’inquiètent de plus en plus du fait que les progrès de la technologie de l’IA ont rendu les logiciels de deepfake plus faciles et plus efficaces.

« Nous constatons de plus en plus que cela est fait par des gens ordinaires avec des cibles ordinaires », a déclaré Eva Galperin, directrice de la cybersécurité à l’Electronic Frontier Foundation. « Vous le voyez chez les lycéens et les étudiants. »

De nombreuses victimes ne découvrent jamais les images, mais même celles qui le savent peuvent avoir du mal à convaincre les forces de l’ordre d’enquêter ou de trouver des fonds pour engager une action en justice, a déclaré Galperin.

Recommandé par l’éditorial

Publicité 6

Contenu de l’article

Il n’existe actuellement aucune loi fédérale interdisant la création de deepfake pornographie, bien que le gouvernement américain interdise la génération de ce type d’images de mineurs. En novembre, un pédopsychiatre de Caroline du Nord a été condamné à 40 ans de prison pour avoir utilisé des applications de déshabillage sur des photos de ses patients, la première poursuite de ce type en vertu de la loi interdisant la production de matériel d’abus sexuel sur des enfants.

TikTok a bloqué le mot-clé « se déshabiller », un terme de recherche populaire associé aux services, avertissant toute personne recherchant le mot qu’il « peut être associé à un comportement ou à un contenu qui enfreint nos directives », selon l’application. Un représentant de TikTok a refusé de donner plus de détails. En réponse aux questions, Meta Platforms Inc. a également commencé à bloquer les mots clés associés à la recherche d’applications de déshabillage. Un porte-parole a refusé de commenter.

Contenu de l’article

Source link-21