ChatGPT est déjà un outil impressionnant si vous savez comment l’utiliser, mais il recevra bientôt une mise à jour significative avec le lancement de GPT-4.
Actuellement, l’aperçu gratuit de ChatGPT que la plupart des gens utilisent fonctionne sur le modèle GPT-3.5 d’OpenAI. Ce modèle a vu le chatbot devenir très populaire, et même s’il y avait quelques défauts notables, tout successeur allait avoir beaucoup à faire.
Et ce successeur est maintenant là, même si OpenAI ne va pas simplement ouvrir les vannes. OpenAI (s’ouvre dans un nouvel onglet) a annoncé GPT-4 sur son site Web et indique que GPT-4 sera d’abord disponible pour les abonnés et les développeurs ChatGPT Plus utilisant l’API ChatGPT.
Voici tout ce que nous savons jusqu’à présent sur GPT-4 et toutes les nouvelles fonctionnalités qui ont été annoncées.
Qu’est-ce que le GPT-4 ?
GPT est l’abréviation de « Generative Pre-trained Transformer ». Ce réseau de neurones utilise l’apprentissage automatique pour interpréter les données et générer des réponses et c’est surtout le modèle de langage qui se cache derrière le populaire chatbot ChatGPT. GPT-4 est la version la plus récente de ce modèle et est une mise à niveau du modèle GPT-3.5 qui alimente la version gratuite de ChatGPT.
En quoi GPT-4 est-il différent ?
GPT-3 comportait plus de 175 milliards de paramètres que l’IA devait prendre en compte lorsqu’elle répondait à une invite, et répondait toujours en quelques secondes. On s’attend généralement à ce que GPT-4 s’ajoute à ce nombre, ce qui se traduit par une réponse plus précise et ciblée. En fait, OpenAI a confirmé que GPT-4 peut gérer jusqu’à 25 000 mots de texte en entrée et en sortie, soit plus de 8 fois les 3 000 mots que ChatGPT pouvait gérer avec GPT-3.5.
L’autre différence majeure est que GPT-4 apporte une fonctionnalité multimodale au modèle GPT. Cela permet à GPT-4 de gérer non seulement les entrées de texte, mais également les images, même si pour le moment, il ne peut toujours répondre qu’en texte. C’est cette fonctionnalité qui, selon Microsoft lors d’un récent événement AI, pourrait éventuellement permettre à GPT-4 de traiter l’entrée vidéo dans le modèle de chatbot AI.
Ces mises à niveau sont particulièrement pertinentes pour le nouveau Bing avec ChatGPT, ce que Microsoft a confirmé (s’ouvre dans un nouvel onglet) a secrètement utilisé GPT-4. Étant donné que les moteurs de recherche doivent être aussi précis que possible et fournir des résultats dans plusieurs formats, notamment du texte, des images, des vidéos, etc., ces mises à niveau font une énorme différence.
Microsoft a clairement affiché ses ambitions de créer une IA multimodale. En plus de GPT-4, qui a été formé sur les supercalculateurs Microsoft Azure, Microsoft a également travaillé sur le Chat visuelGPT outil qui permet aux utilisateurs de télécharger, éditer et générer des images dans ChatGPT.
Microsoft a également besoin de cette fonctionnalité multimodale pour suivre le rythme de la concurrence. Les systèmes d’intelligence artificielle Meta et Google disposent déjà de cette fonctionnalité (bien qu’elle ne soit pas disponible pour le grand public).
Selon certaines rumeurs, la dernière itération du modèle aurait également amélioré les capacités de conversation et aurait un son plus humain. Certains ont même suggéré que ce serait la première IA à réussir le test de Turing après un tweet crypté du PDG et co-fondateur d’OpenAI, Sam Altman.
Bien qu’OpenAI n’ait pas explicitement confirmé cela, il a déclaré que GPT-4 a terminé dans le 90e centile de l’examen uniforme du barreau et 99e à l’Olympiade de biologie en utilisant ses capacités multimodales. Ces deux éléments sont des améliorations significatives sur ChatGPT, qui a terminé dans le 10e centile pour l’examen du barreau et le 31e centile dans l’Olympiade de biologie.
Que peut faire GPT-4 ?
Lors d’un récent livestream de développeurs pour GPT-4, le président et co-fondateur d’OpenAI, Greg Brockman, a présenté certaines des nouvelles fonctionnalités du modèle de langage mis à jour, y compris les capacités multimodales où il fournit un contexte pour les images et même la création de sites Web.
Dans cette partie de la démo, Brockman a téléchargé une image sur Discord et le bot GPT-4 a pu en fournir une description précise. Cependant, il a également demandé au chatbot d’expliquer pourquoi une image d’un écureuil tenant une caméra était drôle, ce à quoi il a répondu « C’est une situation humoristique parce que les écureuils mangent généralement des noix, et nous ne nous attendons pas à ce qu’ils utilisent une caméra ou agissent comme des humains. « .
Si cela suffisait, la prochaine démo de Brockman était encore plus impressionnante. Dans celui-ci, il a pris une photo du code manuscrit dans un cahier, l’a téléchargé sur GPT-4 et ChatGPT a ensuite pu créer un site Web simple à partir du contenu de l’image.
Une fois que GPT-4 commencera à être testé par les développeurs dans le monde réel, nous verrons probablement la dernière version du modèle de langage poussée à ses limites et utilisée pour des tâches encore plus créatives.
Comment accéder à GPT-4
À l’heure actuelle, il existe plusieurs façons d’accéder au modèle GPT-4, bien qu’elles ne conviennent pas à tout le monde.
Si vous utilisez le nouveau Bing avec ChatGPT, félicitations ! Vous avez secrètement utilisé GPT-4 tout ce temps. Si vous n’avez pas utilisé le nouveau Bing avec ses fonctionnalités d’IA, assurez-vous de consulter notre guide pour vous inscrire sur la liste d’attente afin d’obtenir un accès anticipé. Il semble également que diverses entités, de Duolingo au gouvernement islandais, utilisent l’API GPT-4 pour augmenter leurs produits existants.
Outre le nouveau Bing, OpenAI a déclaré qu’il mettra GPT à la disposition des utilisateurs de ChatGPT Plus et des développeurs utilisant l’API. Donc, si vous utilisez ChatGPT-4, vous devrez payer pour cela – pour le moment.