lundi, novembre 25, 2024

L’IA générative devient « MAD » lorsqu’elle est formée sur des données créées par l’IA plus de cinq fois

Une nouvelle étude sur l’IA a révélé une limitation inhérente aux réseaux de la génération actuelle tels que ceux utilisés par ChatGPT et Midjourney. Il semble que les réseaux d’IA entraînés sur les sorties d’IA (comme le texte créé par ChatGPT ou la sortie d’image créée par un modèle de diffusion stable) ont tendance à devenir « MAD » après cinq cycles d’entraînement avec des données générées par l’IA. Comme vous pouvez le voir dans les images ci-dessus, le résultat est des sorties étrangement mutées qui ne reflètent pas la réalité.

MAD – abréviation de Model Autophagy Disorder – est l’acronyme utilisé par les chercheurs de l’Université Rice et Stanford impliqués dans l’étude pour décrire comment les modèles d’IA, et leur qualité de sortie, s’effondrent lorsqu’ils sont formés à plusieurs reprises sur des données générées par l’IA. Comme son nom l’indique, le modèle « se mange » essentiellement, un peu comme l’Ouroboros du mythe. Il perd des informations sur les queues (les extrêmes) de la distribution de données d’origine et commence à produire des résultats plus alignés sur la représentation moyenne des données, un peu comme le serpent dévorant sa propre queue.

Voir plus

Essentiellement, la formation d’un LLM sur ses propres sorties (ou celles d’un autre) crée un effet de convergence sur les données qui composent le LLM lui-même. Cela peut être facilement vu dans le graphique ci-dessus, partagé par les scientifiques et membre de l’équipe de recherche Nicolas Papernot sur Twitter, où des itérations de formation successives sur les données générées par le LLM conduisent le modèle à perdre progressivement (mais dramatiquement) l’accès aux données contenues aux extrémités de la courbe de Bell – les valeurs aberrantes, les éléments les moins communs.

Les données aux bords du spectre (celles qui ont moins de variations et qui sont moins représentées) disparaissent essentiellement. De ce fait, les données qui restent dans le modèle sont désormais moins variées et régressent vers la moyenne. Selon les résultats, il faut environ cinq de ces tours jusqu’à ce que les queues de la distribution d’origine disparaissent – c’est le moment où MAD s’installe.

Voir plus

Source-138

- Advertisement -

Latest