Les nouveaux plugins de ChatGPT fourniront des statistiques en temps réel

Suite à la sortie du nouveau moteur GPT-4 et de l’API Whisper en mars, OpenAI a annoncé jeudi avoir commencé à introduire des plugins pour ChatGPT. Ceux-ci permettront au chatbot d’interagir avec des API tierces, en adaptant ses réponses aux circonstances spécifiques définies par les développeurs tout en élargissant la gamme d’actions capables du bot.

Supposons que vous souhaitiez développer un chatbot avec lequel les utilisateurs peuvent parler de sport. Avant la dernière mise à jour de GPT-4, le chatbot ne pouvait discuter que des jeux et des scores qui se sont produits dans le passé, en particulier en 2021, date à laquelle les données d’entraînement de GPT-3 ont été rassemblées. Il ne tirerait pas de données en temps réel ni ne serait même conscient que l’année 2022 existait. Avec un plugin chatGPT, vous pourrez intégrer la fonctionnalité ChatGPT à votre pile de code existante où elle pourra tout faire, de la récupération d’appels d’informations en temps réel (résultats sportifs, cours des actions, dernières nouvelles) à l’extraction d’une base de connaissances spécifique des informations comme les documents internes de votre entreprise ou de votre cloud personnel. Il pourra même prendre des mesures au nom de l’utilisateur, comme réserver un vol ou commander des plats à emporter – pensez à un assistant Google installable créé par les gens d’OpenAI.

« Le modèle d’IA agit comme un appelant d’API intelligent. Compte tenu d’une spécification d’API et d’une description en langage naturel du moment d’utilisation de l’API, le modèle appelle de manière proactive l’API pour effectuer des actions », a écrit l’équipe OpenAI. « Par exemple, si un utilisateur demande : « Où dois-je rester à Paris pour quelques nuits ? », le modèle peut choisir d’appeler une API de plug-in de réservation d’hôtel, recevoir la réponse de l’API et générer une réponse destinée à l’utilisateur combinant l’API données et ses capacités en langage naturel. »

La société note également que l’utilisation de plug-ins pour combler le fossé des connaissances entre ce sur quoi le modèle a été formé et ce qui s’est passé depuis devrait aider à réduire la tendance de l’IA à halluciner les faits lorsqu’elle répond à des questions complexes. « Ces références améliorent non seulement l’utilité du modèle, mais permettent également aux utilisateurs d’évaluer la fiabilité des résultats du modèle et de revérifier son exactitude, atténuant potentiellement les risques liés à une dépendance excessive », a écrit l’équipe.

Les capacités et informations supplémentaires fournies au modèle via son plug-in augmentent également considérablement les chances que le modèle renvoie des réponses problématiques. Pour éviter le coup de 100 milliards de dollars que Google a repris Bard, OpenAI aurait soumis ces plug-ins à des tests de résistance approfondis. « Nous avons effectué des exercices d’équipe rouge, à la fois en interne et avec des collaborateurs externes, qui ont révélé un certain nombre de scénarios préoccupants possibles », a écrit l’équipe. Ils prévoient d’utiliser ces résultats pour « éclairer les mesures d’atténuation de la sécurité dès la conception » afin d’améliorer la transparence et d’entraver le plug-in contre les comportements à risque.

Le plug-in lui-même est encore au début de la version alpha avec une disponibilité limitée. OpenAI a accordé un accès anticipé à une poignée d’entreprises partenaires, notamment Expedia, Instacart, KAYAK, OpenTable, Shopify, Slack, Wolfram et Zapier pour une utilisation dans leurs applications existantes. Vous devrez ajouter votre nom à la liste d’attente pour l’essayer par vous-même.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.

Source-145