jeudi, décembre 19, 2024

L’IA Chinchilla de DeepMind grille FLAC et PNG avec une compression de données sans perte, bien qu’il ne s’agisse essentiellement que d’un grand modèle de langage.

Si vous pensez que FLAC est l’ami de l’audiophile en matière de fichiers musicaux sans perte, un modèle de langage étendu (LLM) a des nouvelles pour vous, car il revendique désormais également la compression dans le cadre du domaine d’influence croissant de l’IA.

Une étude intitulée « La modélisation du langage est une compression » (via ArsTechnica) discute d’une découverte concernant un LLM de DeepMind appelé Chinchilla 70B et de sa capacité à effectuer une compression de données sans perte meilleure que FLAC pour l’audio et PNG pour les images.

Chinchilla 70B pourrait réduire considérablement la taille des patchs d’images de la base de données ImageNet, les réduisant à seulement 43,4 % de leur taille d’origine sans perdre aucun détail. Cette performance est meilleure que l’algorithme PNG, qui ne pouvait réduire la taille des images qu’à 58,5 %.

De plus, Chinchilla compresse les données audio de LibriSpeech à seulement 16,4 % de leur taille réelle pour les fichiers audio. C’est impressionnant, surtout comparé à la compression FLAC, qui ne pouvait réduire la taille audio qu’à 30,3 %.

Source-69

- Advertisement -

Latest