OpenAI a publié jeudi une version plus petite et plus abordable de son modèle phare de langage à grande échelle qui alimente ChatGPT. Le nouveau modèle, appelé GPT-4o mini, coûtera aux développeurs 60 % de moins pour créer des applications et des services basés sur l’IA par rapport à GPT-3.5 Turbo, le plus petit modèle d’Open jusqu’à aujourd’hui. Mais la grande nouvelle ici est pour les consommateurs. GPT-4o mini remplacera GPT-3.5 Turbo pour les utilisateurs gratuits de ChatGPT à partir d’aujourd’hui, ce qui signifie que votre expérience de base de ChatGPT s’améliorera considérablement.
OpenAI affirme que GPT-4o mini a obtenu un score de 82 % sur un test de référence du secteur appelé MMLU, qui signifie Measuring Massive Multitask Language Understanding, et qui comprend 16 000 questions à choix multiples sur 57 matières académiques. C’est légèrement inférieur à GPT-4o, qui a obtenu un score de 88,7 %, mais supérieur à GPT-3.5 Turbo, qui a obtenu un score de seulement 70 %. Les experts en IA ont mis en garde contre le recours à ce type de test pour mesurer l’intelligence des systèmes d’IA, mais jusqu’à présent, ils constituent le seul moyen de mesurer les performances des grands modèles linguistiques.
Les versions plus petites des modèles phares offrent aux développeurs plus de flexibilité lorsqu’il s’agit de créer des applications basées sur l’IA. Après tout, tout le monde n’a pas besoin ou ne peut pas se permettre d’accéder aux modèles les plus grands et les plus puissants pour chaque cas d’utilisation. En mai, Google a annoncé Gemini 1.5 Flash, son propre modèle léger qui, selon la société, a été optimisé pour la vitesse et l’efficacité. D’autres sociétés d’IA comme Anthropic ont également des versions plus petites de leurs modèles à grande échelle.
GPT-4o mini peut actuellement recevoir et générer du texte et des images, mais le modèle sera éventuellement capable de traiter d’autres types de contenu comme l’audio et la vidéo. Et même si GPT-3.5 Turbo quitte ChatGPT, les développeurs peuvent toujours y accéder via l’API d’OpenAI pour créer des applications et des services avec lui pour le moment, jusqu’à ce qu’il disparaisse également.