Les principales sociétés d’intelligence artificielle, notamment OpenAI, Microsoft, Google, Meta et d’autres, se sont engagées conjointement à empêcher que leurs outils d’IA ne soient utilisés pour exploiter des enfants et générer du matériel pédopornographique (CSAM). L’initiative a été menée par le groupe de sécurité des enfants Thorn et All Tech Is Human, une organisation à but non lucratif axée sur la technologie responsable.
Les engagements des sociétés d’IA, a déclaré Thorn, « créent un précédent sans précédent pour l’industrie et représentent une avancée significative dans les efforts visant à défendre les enfants contre les abus sexuels à mesure que se déploie une fonctionnalité d’IA générative ». L’objectif de cette initiative est d’empêcher la création de matériel sexuellement explicite impliquant des enfants et de le retirer des plateformes de médias sociaux et des moteurs de recherche. Plus de 104 millions de dossiers de matériels présumés d’abus sexuels sur des enfants ont été signalés aux États-Unis rien qu’en 2023, selon Thorn. En l’absence d’action collective, l’IA générative est sur le point d’aggraver ce problème et de submerger les forces de l’ordre qui ont déjà du mal à identifier les véritables victimes.
Mardi, Thorn et All Tech Is Human ont publié un nouveau document intitulé « La sécurité dès la conception pour l’IA générative : prévenir les abus sexuels sur enfants » qui décrit des stratégies et présente des recommandations pour les entreprises qui créent des outils d’IA, des moteurs de recherche, des plateformes de médias sociaux et des sociétés d’hébergement. et les développeurs doivent prendre des mesures pour empêcher que l’IA générative soit utilisée pour nuire aux enfants.
L’une des recommandations, par exemple, demande aux entreprises de choisir avec soin les ensembles de données utilisés pour entraîner les modèles d’IA et d’éviter ceux contenant uniquement des instances de CSAM mais également du contenu sexuel pour adultes en raison de la propension de l’IA générative à combiner les deux concepts. Thorn demande également aux plateformes de médias sociaux et aux moteurs de recherche de supprimer les liens vers des sites Web et des applications qui permettent aux gens de « nudiser » des images d’enfants, créant ainsi en ligne de nouveaux contenus d’abus sexuels sur enfants générés par l’IA. Selon le journal, un flot de CSAM générés par l’IA rendra plus difficile l’identification des véritables victimes d’abus sexuels sur enfants en augmentant le « problème de la botte de foin » – une référence à la quantité de contenu que les forces de l’ordre doivent actuellement examiner.
« Ce projet visait à montrer clairement qu’il n’est pas nécessaire de baisser les bras », a déclaré Rebecca Portnoff, vice-présidente de la science des données de Thorn. le journal Wall Street. « Nous voulons être en mesure de changer le cours de cette technologie de manière à ce que les méfaits existants de cette technologie soient réduits au niveau des genoux. »
Certaines entreprises, a déclaré Portnoff, avaient déjà accepté de séparer les images, la vidéo et l’audio impliquant des enfants des ensembles de données contenant du contenu pour adultes afin d’empêcher leurs modèles de combiner les deux. D’autres ajoutent également des filigranes pour identifier le contenu généré par l’IA, mais la méthode n’est pas infaillible : les filigranes et les métadonnées peuvent être facilement supprimés.