lundi, décembre 23, 2024

AI21 Labs lance une fonctionnalité anti-hallucination pour les chatbots GPT

AI21 Labs a récemment lancé « Contextual Answers », un moteur de questions-réponses pour les grands modèles de langage (LLM).

Lorsqu’il est connecté à un LLM, le nouveau moteur permet aux utilisateurs de télécharger leurs propres bibliothèques de données afin de limiter les sorties du modèle à des informations spécifiques.

Le lancement de ChatGPT et de produits similaires d’intelligence artificielle (IA) a changé de paradigme pour l’industrie de l’IA, mais un manque de fiabilité rend l’adoption difficile pour de nombreuses entreprises.

Selon les recherches, les employés dépenser près de la moitié de leurs journées de travail à rechercher des informations. Cela représente une énorme opportunité pour les chatbots capables d’effectuer des fonctions de recherche ; cependant, la plupart des chatbots ne sont pas adaptés aux entreprises.

AI21 a développé Contextual Answers pour combler le fossé entre les chatbots conçus pour un usage général et les services de questions-réponses au niveau de l’entreprise en donnant aux utilisateurs la possibilité de canaliser leurs propres bibliothèques de données et de documents.

Selon un article de blog d’AI21, Contextual Answers permet aux utilisateurs d’orienter les réponses de l’IA sans recycler les modèles, atténuant ainsi certains des principaux obstacles à l’adoption :

« La plupart des entreprises ont du mal à adopter [AI]invoquant le coût, la complexité et le manque de spécialisation des modèles dans leurs données organisationnelles, conduisant à des réponses incorrectes, « hallucinées » ou inappropriées au contexte. »

L’un des défis majeurs liés au développement de LLM utiles, tels que ChatGPT d’OpenAI ou Bard de Google, est de leur apprendre à exprimer un manque de confiance.

En règle générale, lorsqu’un utilisateur interroge un chatbot, il génère une réponse même s’il n’y a pas suffisamment d’informations dans son ensemble de données pour fournir des informations factuelles. Dans ces cas, plutôt que de produire une réponse peu fiable telle que « Je ne sais pas », les LLM inventeront souvent des informations sans aucune base factuelle.

Les chercheurs appellent ces résultats des « hallucinations » parce que les machines génèrent des informations qui n’existent apparemment pas dans leurs ensembles de données, comme les humains qui voient des choses qui ne sont pas vraiment là.

Selon A121, les réponses contextuelles devraient atténuer entièrement le problème d’hallucination soit en ne produisant des informations que lorsqu’elles sont pertinentes pour la documentation fournie par l’utilisateur, soit en ne produisant rien du tout.

Dans les secteurs où la précision est plus importante que l’automatisation, comme la finance et le droit, l’apparition des systèmes de transformateurs préformés génératifs (GPT) a eu des résultats variables.

Les experts continuent de recommander la prudence dans la finance lors de l’utilisation des systèmes GPT en raison de leur tendance à halluciner ou à confondre les informations, même lorsqu’ils sont connectés à Internet et capables de se connecter à des sources. Et dans le secteur juridique, un avocat maintenant visages amendes et sanctions après s’être appuyées sur les résultats générés par ChatGPT lors d’une affaire.

En chargeant les systèmes d’IA avec des données pertinentes et en intervenant avant que le système ne puisse halluciner des informations non factuelles, AI21 semble avoir démontré une atténuation du problème des hallucinations.

Cela pourrait entraîner une adoption massive, en particulier dans le domaine des technologies financières, où les institutions financières traditionnelles ont été réticent pour adopter la technologie GPT, et les communautés de crypto-monnaie et de blockchain ont eu un succès mitigé au mieux en employant des chatbots.

En rapport: OpenAI lance des « instructions personnalisées » pour ChatGPT afin que les utilisateurs n’aient pas à se répéter à chaque invite


source site-13

- Advertisement -

Latest