Nous pourrions dire adieu à l’étrangeté de ChatGPT grâce à Nvidia

Nvidia est le géant de la technologie derrière les GPU qui alimentent nos jeux, exécutent nos suites créatives et, ces derniers temps, jouent un rôle crucial dans la formation des modèles d’IA génératifs derrière les chatbots comme ChatGPT. La société a plongé plus profondément dans le monde de l’IA avec l’annonce d’un nouveau logiciel qui pourrait résoudre un gros problème que les chatbots ont – dérailler et être un peu… étrange.

Les « garde-corps NeMo » récemment annoncés (s’ouvre dans un nouvel onglet) est un logiciel conçu pour garantir que les applications intelligentes alimentées par de grands modèles de langage (LLM) comme les chatbots d’IA sont « précises, appropriées, sur le sujet et sécurisées ». Essentiellement, les garde-corps sont là pour éliminer les informations inappropriées ou inexactes générées par le chatbot, l’empêcher d’atteindre l’utilisateur et informer le bot que la sortie spécifique était mauvaise. Ce sera comme une couche supplémentaire de précision et de sécurité – maintenant sans avoir besoin de correction par l’utilisateur.

Le logiciel open-source peut être utilisé par les développeurs d’IA pour définir trois types de limites pour les modèles d’IA : directives d’actualité, de sûreté et de sécurité. Il décomposera les détails de chacun – et pourquoi ce type de logiciel est à la fois une nécessité et un handicap.

Quels sont les garde-corps ?

Les garde-corps thématiques empêcheront le robot IA de plonger dans des sujets dans des domaines qui ne sont pas liés ou nécessaires à l’utilisation ou à la tâche. Dans le communiqué de Nvidia, on nous donne l’exemple d’un bot du service client qui ne répond pas aux questions sur la météo. Si vous parlez de l’histoire des boissons énergisantes, vous ne voudriez pas que ChatGPT commence à vous parler de la bourse. Fondamentalement, tout garder sur le sujet.

Cela serait utile dans d’énormes modèles d’IA comme Bing Chat de Microsoft, qui est connu pour être parfois un peu hors piste, et pourrait certainement nous assurer d’éviter plus de crises de colère et d’inexactitudes.

Le garde-corps de sécurité s’attaquera à la désinformation et aux « hallucinations » – oui, aux hallucinations – et garantira que l’IA répondra avec des informations précises et appropriées. Cela signifie qu’il interdira le langage inapproprié, renforcera les citations de sources crédibles et empêchera l’utilisation de sources fictives ou illégitimes. Ceci est particulièrement utile pour ChatGPT car nous avons vu de nombreux exemples sur Internet de bot créant des citations lorsqu’on le lui demande.

Et pour les garde-fous de sécurité, ceux-ci empêcheront simplement le bot d’atteindre des applications externes qui sont « jugées dangereuses » – en d’autres termes, toute application ou tout logiciel avec lequel il n’a pas reçu l’autorisation explicite et le but d’interagir, comme une application bancaire ou vos fichiers personnels. Cela signifie que vous obtiendrez des informations simplifiées, précises et sûres chaque fois que vous utiliserez le bot.

Police de la morale

Source-130