« SLAP IN THE FACE » : Images d’enfants victimes de maltraitance au Canada entraînant des générateurs d’IA

Contenu de l’article

Les photos de victimes canadiennes font partie des milliers d’images illustrant des abus sexuels sur des enfants qu’un groupe de surveillance d’Internet a trouvées dans des bases de données utilisées pour former des générateurs d’images artificielles populaires.

Publicité 2

Contenu de l’article

«C’est une autre gifle pour les victimes», a déclaré Lloyd Richardson, directeur de la technologie au Centre canadien de protection de l’enfance.

Contenu de l’article

Richardson a déclaré que cela montre que l’intelligence artificielle doit être prise en compte alors que le gouvernement fédéral élabore sa législation tant attendue sur les préjudices en ligne.

Un rapport récent de l’Observatoire Internet de Stanford a trouvé plus de 3 200 images d’abus sexuels présumés sur des enfants dans la base de données LAION – le réseau ouvert d’intelligence artificielle à grande échelle à but non lucratif – qui a été utilisé pour former des créateurs d’images d’IA bien connus.

L’observatoire, basé à l’Université de Stanford, a travaillé avec le Centre canadien de protection de l’enfance pour vérifier les résultats grâce à l’outil Projet Arachnid du centre, qui contient un journal d’images connues d’abus sexuels sur des enfants.

Publicité 3

Contenu de l’article

Richardson n’a pas précisé combien, parmi les milliers d’images, représentaient des victimes canadiennes.

Les générateurs d’images IA ont gagné en popularité après leur lancement, mais ils ont suscité de vives inquiétudes et controverses, notamment de la part d’artistes dont les œuvres étaient utilisées sans consentement.

Les générateurs sont formés sur des milliards d’images provenant d’Internet, en utilisant les descriptions textuelles jointes. Les générateurs les plus populaires utilisent LAION.

David Thiel, technologue en chef à l’Observatoire Internet de Stanford, a déclaré que LAION ne contient pas seulement des images d’art, d’architecture et de corgis pour enseigner aux générateurs d’images.

« Ils ont été formés sur une tonne de matériel explicite, ils ont également été formés sur une tonne de photos d’enfants et de personnes d’autres âges, mais ils ont également été formés sur (le matériel d’abus sexuel sur des enfants) lui-même », a-t-il déclaré.

Publicité 4

Contenu de l’article

Thiel, l’auteur du nouveau rapport, a déclaré que les images d’abus sexuels sur des enfants ne représentent qu’une petite partie des 5,8 milliards d’images du réseau LAION, mais qu’elles affectent toujours ce que crée le générateur d’images IA. Cela peut sexualiser l’image d’un enfant ou même faire ressembler certaines images à une victime connue, a-t-il déclaré.

Thiel a déclaré que les impacts négatifs sont incommensurables et se font déjà sentir partout dans le monde. Il a été contacté par des personnes de plusieurs pays préoccupées par les photos nues d’adolescents et d’enfants générées par l’IA.

Une école de Winnipeg a informé les parents plus tôt ce mois-ci que des photos générées par l’IA d’élèves mineures avaient été partagées. Au moins 17 photos prises sur les réseaux sociaux d’étudiants ont été explicitement modifiées à l’aide de l’intelligence artificielle. Les responsables de l’école ont déclaré avoir contacté la police.

Publicité 5

Contenu de l’article

« Il s’agit d’une question étroitement liée », a déclaré Thiel.

LAION a déclaré cette semaine dans une déclaration à l’Associated Press qu’elle avait temporairement supprimé les ensembles de données pour garantir leur sécurité avant de les republier.

Thiel a déclaré que le mal était fait et qu’il était trop tard pour faire marche arrière. Les gens ont déjà téléchargé les ensembles de données contenant des abus sexuels sur des enfants et continueront à les utiliser.

« Il faut vraiment réussir du premier coup. Il ne s’agit pas simplement de « mettre le produit sur le marché et de le réparer plus tard », a-t-il déclaré.

« Nous allons devoir faire face à ce problème pendant des années parce que les gens se sont précipités sur le marché sans prendre les mesures de sécurité. »

Les ensembles de données auraient dû être examinés pour détecter les abus sexuels sur des enfants avant d’être rendus publics, a déclaré Thiel, ajoutant que les images générées par l’IA se sont également révélées racistes et misogynes.

Publicité 6

Contenu de l’article

Richardson a déclaré qu’il n’incombe pas uniquement à l’industrie de traiter les problèmes liés à l’IA.

Le premier ministre Justin Trudeau a promis de présenter une loi sur les méfaits en ligne lors de la campagne électorale fédérale de 2019. Il est destiné à lutter contre les discours de haine, les contenus terroristes et les contenus abusifs sexuels.

Mais l’année dernière, le gouvernement a renvoyé ses plans initiaux à la planche à dessin après avoir fait face à des critiques, notamment concernant les impacts du projet de loi sur la liberté d’expression.

Le groupe d’experts qui a retravaillé le projet de loi a récemment publié une lettre ouverte affirmant que les enfants canadiens sont moins protégés que les enfants des pays où des lois similaires sont déjà en vigueur.

Richardson a déclaré qu’il y avait certainement des mesures qu’Ottawa pourrait prendre.

«Il y a cette idée selon laquelle Internet est quelque chose de très éloigné de la réalité du droit souverain, ce qui est tout simplement absurde», a-t-il déclaré.

« Je pense qu’il y a absolument des choses que nous pourrions faire dans cet espace. »

Contenu de l’article

Source link-19