OpenAI a annoncé aujourd’hui la disponibilité générale de GPT-4, son dernier modèle de génération de texte, via son API.
À partir de cet après-midi, tous les développeurs d’API OpenAI existants « avec un historique de paiements réussis » peuvent accéder à GPT-4. La société prévoit d’ouvrir l’accès à de nouveaux développeurs d’ici la fin de ce mois, puis de commencer à augmenter les limites de disponibilité après cela « en fonction de la disponibilité du calcul ».
« Des millions de développeurs ont demandé l’accès à l’API GPT-4 depuis mars, et la gamme de produits innovants tirant parti de GPT-4 s’agrandit chaque jour », a écrit OpenAI dans un article de blog. « Nous envisageons un avenir où les modèles basés sur le chat peuvent prendre en charge n’importe quel cas d’utilisation. ”
GPT-4 peut générer du texte (y compris du code) et accepter des entrées d’image et de texte – une amélioration par rapport à GPT-3.5, son prédécesseur, qui n’acceptait que du texte – et fonctionne au « niveau humain » sur divers critères professionnels et académiques. Comme les modèles GPT précédents d’OpenAI, GPT-4 a été formé à l’aide de données accessibles au public, y compris de pages Web publiques, ainsi que de données sous licence OpenAI.
La capacité de compréhension des images n’est pas encore disponible pour tous les clients OpenAI. OpenAI le teste avec un seul partenaire, Be My Eyes, pour commencer. Mais il n’a pas indiqué quand il l’ouvrira à une clientèle plus large.
Il convient de noter que, comme même avec les meilleurs modèles d’IA générative aujourd’hui, GPT-4 n’est pas parfait. Il « hallucine » les faits et fait des erreurs de raisonnement, parfois avec assurance. Et il n’apprend rien de son expérience, échouant sur des problèmes difficiles tels que l’introduction de vulnérabilités de sécurité dans le code qu’il génère.
À l’avenir, OpenAI dit qu’il permettra aux développeurs d’affiner GPT-4 et GPT-3.5 Turbo, l’un de ses autres modèles de génération de texte récents mais moins performants (et l’un des modèles originaux alimentant ChatGPT), avec leur propres données, comme cela a longtemps été possible avec plusieurs autres modèles de génération de texte d’OpenAI. Cette capacité devrait arriver plus tard cette année, selon OpenAI.
Depuis la révélation de GPT-4 en mars, la concurrence de l’IA générative s’est intensifiée. Récemment, Anthropic a élargi la fenêtre contextuelle de Claude – son modèle phare d’IA générant du texte, toujours en avant-première – de 9 000 jetons à 100 000 jetons. (La fenêtre contextuelle fait référence au texte que le modèle prend en compte avant de générer du texte supplémentaire, tandis que les jetons représentent du texte brut – par exemple, le mot « fantastique » serait divisé en jetons « fan », « tas » et « tic ».)
GPT-4 détenait la couronne précédente en termes de fenêtre contextuelle, pesant 32 000 jetons sur le haut de gamme. De manière générale, les modèles avec de petites fenêtres contextuelles ont tendance à « oublier » le contenu des conversations, même très récentes, ce qui les conduit à s’écarter du sujet.
Dans une annonce connexe aujourd’hui, OpenAI a déclaré qu’il rendait ses API DALL-E 2 et Whisper généralement disponibles – DALL-E 2 étant le modèle de génération d’images d’OpenAI et « Whisper » faisant référence au modèle de synthèse vocale de l’entreprise. La compagnie a également a déclaré qu’il prévoyait de déprécier les anciens modèles disponibles via son API pour « optimiser [its] capacité de calcul. (Au cours des derniers mois, en grande partie grâce à la popularité fulgurante de ChatGPT, OpenAI a lutté pour répondre à la demande de ses modèles génératifs.)
À partir du 4 janvier 2024, certains modèles OpenAI plus anciens – en particulier GPT-3 et ses dérivés – ne seront plus disponibles et seront remplacés par de nouveaux modèles « de base GPT-3 » dont on suppose qu’ils sont plus efficaces en termes de calcul. Les développeurs utilisant les anciens modèles devront mettre à jour manuellement leurs intégrations d’ici le 4 janvier, et ceux qui souhaitent continuer à utiliser les anciens modèles affinés au-delà du 4 janvier devront affiner les remplacements sur les nouveaux modèles de base GPT-3.
« Nous fournirons une assistance aux utilisateurs qui ont précédemment affiné les modèles pour rendre cette transition aussi fluide que possible », a écrit OpenAI. « Dans les semaines à venir, nous contacterons les développeurs qui ont récemment utilisé ces anciens modèles et fournirons plus d’informations une fois que les nouveaux modèles d’achèvement seront prêts pour les premiers tests. »