La Maison Blanche a publié aujourd’hui un document décrivant les engagements pris par plusieurs entreprises d’IA pour freiner la création et la diffusion d’images d’abus sexuels. Les entreprises participantes ont exposé les mesures qu’elles prennent pour empêcher que leurs plateformes soient utilisées pour générer des images intimes non consensuelles (NCII) d’adultes et du matériel d’abus sexuel sur mineur (CSAM).
Plus précisément, Adobe, Anthropic, Cohere, Common Crawl, Microsoft et OpenAI ont déclaré qu’ils seraient :
Tous les individus mentionnés ci-dessus, à l’exception de Common Crawl, ont également convenu qu’ils seraient :
-
« en intégrant des boucles de rétroaction et des stratégies de tests de stress itératifs dans leurs processus de développement, pour se prémunir contre les modèles d’IA qui génèrent des abus sexuels basés sur des images »
-
Et « supprimer les images nues des ensembles de données d’entraînement de l’IA » lorsque cela est approprié.
Il s’agit d’un engagement volontaire, donc l’annonce d’aujourd’hui ne crée aucune nouvelle mesure concrète ni conséquence en cas de non-respect de ces promesses. Mais il convient néanmoins de saluer un effort de bonne foi pour s’attaquer à ce grave problème. Les absents notables du communiqué de la Maison Blanche d’aujourd’hui sont Apple, Amazon, Google et Meta.
De nombreuses grandes entreprises technologiques et d’intelligence artificielle ont fait des progrès pour permettre aux victimes de NCII de stopper plus facilement la diffusion d’images et de vidéos deepfake indépendamment de cet effort fédéral. StopNCII a mis en place une approche globale pour éliminer ce contenu, tandis que d’autres entreprises déploient des outils propriétaires pour signaler les abus sexuels basés sur des images générées par l’IA sur leurs plateformes.
Si vous pensez avoir été victime d’un partage d’images intimes non consensuel, vous pouvez ouvrir un dossier auprès de StopNCII ; si vous avez moins de 18 ans, vous pouvez déposer un rapport auprès du NCMEC .