vendredi, novembre 29, 2024

OpenAI baisse les prix et corrige le GPT-4 « paresseux » qui refusait de fonctionner

OpenAI apporte toujours de légers ajustements à ses modèles et à ses prix, et aujourd’hui ne fait pas exception. La société a lancé une poignée de nouveaux modèles et a baissé le prix de l’accès aux API. Cela intéresse principalement les développeurs, mais sert également d’indicateur pour les futures options des consommateurs.

GPT-3.5 Turbo est le modèle avec lequel la plupart des gens interagissent, généralement via ChatGPT, et il sert désormais de norme de l’industrie : si vos réponses ne sont pas aussi bonnes que celles de ChatGPT, pourquoi s’embêter ? C’est également une API populaire, moins coûteuse et plus rapide que GPT-4 sur de nombreuses tâches. Les utilisateurs payants seront donc heureux d’apprendre que les prix des intrants baissent de 50 % et ceux de la production de 25 %, à 0,0005 $ pour mille jetons entrants et 0,0015 $ pour mille jetons sortants.

À mesure que les gens utilisent ces API pour des applications à forte teneur en texte, comme l’analyse d’articles ou de livres entiers, ces jetons commencent vraiment à s’additionner. Et à mesure que les modèles open source ou autogérés rattrapent les performances d’OpenAI, l’entreprise doit s’assurer que ses clients ne partent pas. D’où la baisse constante des prix, même si c’est aussi une conséquence naturelle de la rationalisation des modèles et de l’amélioration de leurs infrastructures.

GPT-3.5 Turbo reçoit également une nouvelle version du modèle, 0125 (c’est-à-dire la date d’aujourd’hui) qui inclut « diverses améliorations », mais apparemment peu de choses qu’OpenAI a jugé digne d’être mentionnées. La dernière version était 0613, il est donc un peu surprenant qu’ils n’en mentionnent pas plus.

GPT-4 Turbo obtient un nouveau modèle d’aperçu pour l’utilisation de l’API, également 0125, qui propose un correctif intéressant :

Ce modèle accomplit des tâches telles que la génération de code de manière plus approfondie que le modèle d’aperçu précédent et vise à réduire les cas de « paresse » où le modèle n’accomplit pas une tâche.

Peut-être que le modèle a appris les mauvaises leçons des développeurs dont il a ingéré et incarné les habitudes ! Peut-être que l’IA est déjà en train de s’arrêter. Tant mieux pour l’IA !

Ceci est toujours en mode aperçu. Mais GPT-4 Turbo avec vision (c’est-à-dire GPT-4 V) sera lancé en disponibilité générale « dans les mois à venir ».

Il existe également une poignée de modèles d’intégration de texte nouveaux et améliorés, qui s’adressent davantage aux personnes du côté technique. Et la société a également publié une nouvelle version de son API de modération gratuite, qui identifie les textes potentiellement dangereux. Recherchez la version 007 si vous essayez de l’utiliser pour augmenter vos besoins de modération.

Source-146

- Advertisement -

Latest