L’IA formée sur le tableau le plus détestable de 4chan est tout aussi toxique que prévu

Microsoft a appris par inadvertance les risques de créer une IA raciste, mais que se passe-t-il si vous dirigez délibérément l’intelligence vers un forum toxique ? Une personne l’a découvert. Comme Carte mère et Le bord note, YouTuber Yannic Kilcher a formé un modèle de langage d’IA en utilisant trois ans de contenu du conseil politiquement incorrect (/ pol /) de 4chan, un lieu tristement célèbre pour son racisme et d’autres formes de sectarisme. Après avoir implémenté le modèle dans dix bots, Kilcher a lâché l’IA sur le tableau – et cela a sans surprise créé une vague de haine. En l’espace de 24 heures, les bots ont écrit 15 000 messages qui incluaient ou interagissaient fréquemment avec du contenu raciste. Ils représentaient plus de 10 % des publications sur /pol/ ce jour-là, a affirmé Kilcher.

Surnommé GPT-4chan (d’après le GPT-3 d’OpenAI), le modèle a appris non seulement à reprendre les mots utilisés dans les messages / pol /, mais aussi un ton général qui, selon Kilcher, mélangeait « l’offensivité, le nihilisme, la pêche à la traîne et une profonde méfiance ». Le créateur de la vidéo a pris soin d’esquiver les défenses de 4chan contre les proxys et les VPN, et a même utilisé un VPN pour donner l’impression que les publications du bot provenaient des Seychelles.

L’IA a commis quelques erreurs, telles que des messages vides, mais a été suffisamment convaincante pour qu’il ait fallu environ deux jours à de nombreux utilisateurs pour se rendre compte que quelque chose n’allait pas. De nombreux membres du forum n’ont remarqué qu’un seul des bots, selon Kilcher, et le modèle a créé suffisamment de méfiance pour que les gens s’accusent mutuellement d’être des bots quelques jours après que Kilcher les ait désactivés.

Le YouTuber a qualifié l’expérience de « farce », et non de recherche, en conversation avec Le bord. C’est un rappel que l’IA formée n’est aussi bonne que son matériel source. L’inquiétude vient plutôt de la façon dont Kilcher a partagé son travail. Bien qu’il ait évité de fournir le code du bot, il a partagé une version partiellement castrée du modèle avec le référentiel AI Hugging Face. Les visiteurs auraient pu recréer l’IA à des fins sinistres, et Hugging Face a décidé de restreindre l’accès par précaution. Il y avait des préoccupations éthiques claires avec le projet, et Kilcher lui-même a déclaré qu’il devrait se concentrer sur un travail « beaucoup plus positif » à l’avenir.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation.

Source-145