Les procureurs généraux des 50 États exhortent le Congrès à aider à lutter contre le CSAM généré par l’IA

Les procureurs généraux des 50 États ont interdit ensemble et ont envoyé une lettre ouverte au Congrès, demandant des mesures de protection accrues contre les images d’abus sexuels sur enfants améliorées par l’IA, comme l’a initialement rapporté AP. La lettre appelle les législateurs à « créer une commission d’experts pour étudier les moyens et méthodes de l’IA qui peuvent être utilisés spécifiquement pour exploiter les enfants ».

La lettre envoyée aux dirigeants républicains et démocrates de la Chambre et du Sénat exhorte également les politiciens à étendre les restrictions existantes sur les matériels pédopornographiques pour couvrir spécifiquement les images et vidéos générées par l’IA. Cette technologie est extrêmement nouvelle et, en tant que telle, il n’y a encore rien dans les livres qui place explicitement les images générées par l’IA dans la même catégorie que les autres types de matériels d’abus sexuels sur enfants.

« Nous sommes engagés dans une course contre la montre pour protéger les enfants de notre pays des dangers de l’IA », ont écrit les procureurs dans la lettre. « En effet, les murs de la ville ont déjà été brisés. Il est maintenant temps d’agir.

Utiliser des générateurs d’images comme Dall-E et Midjourney pour créer du matériel d’abus sexuel sur des enfants n’est pas encore un problème, car le logiciel a mis en place des garde-fous qui interdisent ce genre de chose. Cependant, ces procureurs se tournent vers l’avenir, lorsque des versions open source du logiciel commenceront à apparaître partout, chacune avec ses propres garde-fous, ou leur absence. Même le PDG d’OpenAI, Sam Altman, a déclaré que les outils d’IA bénéficieraient d’une intervention gouvernementale pour atténuer les risques, bien qu’il n’ait pas mentionné la maltraitance des enfants comme un inconvénient potentiel de la technologie.

Le gouvernement a tendance à avancer lentement en matière de technologie, pour un certain nombre de raisons, car il a fallu plusieurs années au Congrès avant de prendre au sérieux la menace des agresseurs d’enfants en ligne, à l’époque des forums de discussion AOL et autres. À cette fin, rien n’indique dans l’immédiat que le Congrès envisage d’élaborer une législation sur l’IA interdisant absolument aux générateurs de créer ce type d’images fétides. Même la vaste loi de l’Union européenne sur l’intelligence artificielle ne mentionne spécifiquement aucun risque pour les enfants.

Le procureur général de Caroline du Sud, Alan Wilson, a organisé la campagne de rédaction de lettres et a encouragé ses collègues à parcourir les lois des États pour savoir si « les lois suivaient la nouveauté de cette nouvelle technologie ».

Wilson met en garde contre les contenus deepfakes mettant en scène un véritable enfant provenant d’une photographie ou d’une vidéo. Il ne s’agirait pas d’un abus sur enfant au sens conventionnel du terme, dit Wilson, mais cela représenterait un abus et « diffamerait » et « exploiterait » l’enfant à partir de l’image originale. Il poursuit en disant que « nos lois pourraient ne pas tenir compte de la nature virtuelle » de ce genre de situation.

La technologie pourrait également être utilisée pour inventer des enfants fictifs, en les sélectionnant dans une bibliothèque de données, afin de produire du matériel sur les abus sexuels. Wilson affirme que cela créerait une « demande pour une industrie qui exploite les enfants » comme argument contre l’idée selon laquelle cela ne ferait de mal à personne.

Bien que l’idée des abus sexuels sur des enfants soit plutôt nouvelle, l’industrie technologique est parfaitement consciente du contenu pornographique deepfake et prend des mesures pour l’empêcher. En février dernier, Meta, OnlyFans et Pornhub ont commencé à utiliser un outil en ligne appelé Take It Down qui permet aux adolescents de signaler des images et des vidéos explicites d’eux-mêmes sur Internet. Cet outil est utilisé pour les images régulières et le contenu généré par l’IA.

Source-145