La police est embourbée par un flot de fausses images sexuelles d’enfants basées sur l’IA, selon un rapport

Les forces de l’ordre continuent d’avertir qu’un « flot » de fausses images sexuelles d’enfants générées par l’IA rend plus difficile les enquêtes sur les crimes réels contre des enfants maltraités, a rapporté le New York Times.

L’année dernière, après que des chercheurs ont découvert en ligne des milliers d’images sexuelles d’enfants réalistes mais fausses, tous les procureurs généraux des États-Unis ont rapidement appelé le Congrès à créer un comité pour résoudre le problème. Mais jusqu’à présent, le Congrès a progressé lentement, alors que seuls quelques États ont spécifiquement interdit les images intimes non consensuelles générées par l’IA. Pendant ce temps, les forces de l’ordre continuent de lutter pour trouver comment faire face aux mauvais acteurs qui créent et partagent des images qui, pour l’instant, existent en grande partie dans une zone grise juridique.

« Créer des images sexuellement explicites d’enfants grâce à l’utilisation de l’intelligence artificielle est une forme particulièrement odieuse d’exploitation en ligne », a déclaré au Times Steve Grocki, chef de la section sur l’exploitation des enfants et les obscénités du ministère de la Justice. Des experts ont déclaré au Washington Post en 2023 que les risques de diffusion d’images réalistes mais fausses incluaient la normalisation de l’exploitation sexuelle des enfants, l’attraction d’un plus grand nombre d’enfants et la difficulté pour les forces de l’ordre de trouver de véritables enfants victimes de préjudice.

Par exemple, le FBI a annoncé plus tôt cette année qu’une hôtesse de l’air d’American Airlines, Estes Carter Thompson III, avait été arrêtée « pour avoir prétendument enregistré ou tenté d’enregistrer subrepticement une passagère mineure utilisant les toilettes à bord d’un avion ». Une recherche sur iCloud de Thompson a révélé « quatre cas supplémentaires » où Thompson aurait enregistré d’autres mineurs dans les toilettes, ainsi que « plus de 50 images d’une mineure non accompagnée de 9 ans » dormant sur son siège. Alors que la police tentait d’identifier ces victimes, elle « a également allégué que des centaines d’images de pédopornographie générées par l’IA » avaient été trouvées sur le téléphone de Thompson.

Ce cas troublant semble illustrer comment les images sexuelles d’enfants générées par l’IA peuvent être liées à une activité criminelle réelle, tout en montrant également comment les enquêtes policières pourraient s’enliser en tentant de distinguer les photos de victimes réelles des images d’IA qui pourraient représenter des enfants réels ou faux.

Robin Richards, commandant du groupe de travail sur les crimes sur Internet contre les enfants du département de police de Los Angeles, a confirmé au New York Times qu’en raison de l’IA, « les enquêtes sont bien plus difficiles ».

Et comme les générateurs d’images et les modèles d’IA pouvant être entraînés sur des photos d’enfants sont largement disponibles, « l’utilisation de l’IA pour modifier des photos » d’enfants en ligne « devient de plus en plus courante », Michael Bourke, ancien psychologue en chef du US Marshals Service qui a passé des décennies de soutien aux enquêtes sur les délits sexuels impliquant des enfants – a déclaré au New York Times. Richards a déclaré que les flics ne savaient pas quoi faire lorsqu’ils trouvaient ces documents générés par l’IA.

Actuellement, il n’y a pas beaucoup de cas impliquant des matériels pédophiles générés par l’IA (CSAM), a rapporté le New York Times, mais les experts s’attendent à ce que ce nombre « augmente de façon exponentielle », soulevant « des questions nouvelles et complexes quant à savoir si les lois fédérales et étatiques existantes sont adéquates ». pour poursuivre ces crimes. »

Les plateformes ont du mal à surveiller les images nuisibles de l’IA

Lors d’une audition aujourd’hui de la commission judiciaire du Sénat interrogeant les PDG des grandes entreprises technologiques sur l’exploitation sexuelle des enfants (ESC) sur leurs plateformes, Linda Yaccarino, PDG de X (anciennement Twitter), a averti dans sa déclaration d’ouverture que l’intelligence artificielle rend également plus difficile la surveillance des plateformes. CST. Yaccarino a suggéré que la collaboration de l’industrie est impérative pour anticiper ce problème croissant, tout comme la fourniture de davantage de ressources aux forces de l’ordre.

Cependant, les responsables de l’application des lois américaines ont indiqué que les plateformes rendent également plus difficile la surveillance du CSAM et du CSE en ligne. Les plates-formes qui s’appuient sur l’IA pour détecter les CSAM génèrent des « rapports non viables », bloquant les enquêtes gérées par des équipes chargées de l’application des lois déjà sous-financées, a rapporté The Guardian. Et le New York Times a rapporté que d’autres enquêtes sont contrecarrées par l’ajout d’options de cryptage de bout en bout aux services de messagerie, ce qui « limite considérablement le nombre de crimes que les autorités sont capables de suivre ».

Le rapport du New York Times notait qu’en 2002, la Cour suprême avait invalidé une loi en vigueur depuis 1996 interdisant la pédopornographie « virtuelle » ou « générée par ordinateur ». Le procureur général de Caroline du Sud, Alan Wilson, a déclaré que la technologie d’IA disponible aujourd’hui pourrait mettre à l’épreuve cette décision, en particulier si des mineurs continuent d’être lésés par de fausses images sexuelles d’enfants diffusées en ligne par l’IA. En attendant, les lois fédérales telles que les lois sur l’obscénité peuvent être utilisées pour engager des poursuites, a rapporté le New York Times.

Le Congrès a récemment réintroduit une législation visant à lutter directement contre les images intimes non consensuelles générées par l’IA après qu’un large éventail d’images représentant de la fausse pornographie IA de la pop star Taylor Swift soit devenue virale ce mois-ci. Cela inclut la loi Disrupt Explicit Forged Images and Non-Consensual Edits, qui crée un recours civil fédéral pour toute victime de tout âge identifiable dans des images d’IA les représentant nues ou engagées dans un comportement sexuellement explicite ou des scénarios sexuels.

Il existe également la « Loi sur la prévention des contrefaçons profondes d’images intimes », qui vise à « interdire la divulgation non consensuelle d’images intimes modifiées numériquement ». Cela a été réintroduit cette année après que des adolescents ont généré de fausses images nues de camarades de classe par l’IA et les ont diffusées dans un lycée du New Jersey l’automne dernier. Francesca Mani, l’une des adolescentes victimes du New Jersey, était présente pour aider à annoncer le projet de loi, qui prévoit des peines allant jusqu’à deux ans d’emprisonnement pour le partage d’images préjudiciables.

« Ce qui est arrivé à moi et à mes camarades de classe n’était pas cool, et je ne peux pas simplement hausser les épaules et laisser tomber ça », a déclaré Mani. « Je suis ici, debout et criant pour le changement, luttant pour des lois, afin que personne d’autre ne se sente aussi perdu et impuissant que moi le 20 octobre. »

Source-147