Nvidia est le géant de la technologie derrière les GPU qui alimentent nos jeux, exécutent nos suites créatives et, ces derniers temps, jouent un rôle crucial dans la formation des modèles d’IA génératifs derrière les chatbots comme ChatGPT. La société a plongé plus profondément dans le monde de l’IA avec l’annonce d’un nouveau logiciel qui pourrait résoudre un gros problème que les chatbots ont – dérailler et être un peu… étrange.
Les « garde-corps NeMo » récemment annoncés (s’ouvre dans un nouvel onglet) est un logiciel conçu pour garantir que les applications intelligentes alimentées par de grands modèles de langage (LLM) comme les chatbots d’IA sont « précises, appropriées, sur le sujet et sécurisées ». Essentiellement, les garde-corps sont là pour éliminer les informations inappropriées ou inexactes générées par le chatbot, l’empêcher d’atteindre l’utilisateur et informer le bot que la sortie spécifique était mauvaise. Ce sera comme une couche supplémentaire de précision et de sécurité – maintenant sans avoir besoin de correction par l’utilisateur.
Le logiciel open-source peut être utilisé par les développeurs d’IA pour définir trois types de limites pour les modèles d’IA : directives d’actualité, de sûreté et de sécurité. Il décomposera les détails de chacun – et pourquoi ce type de logiciel est à la fois une nécessité et un handicap.
Quels sont les garde-corps ?
Les garde-corps thématiques empêcheront le robot IA de plonger dans des sujets dans des domaines qui ne sont pas liés ou nécessaires à l’utilisation ou à la tâche. Dans le communiqué de Nvidia, on nous donne l’exemple d’un bot du service client qui ne répond pas aux questions sur la météo. Si vous parlez de l’histoire des boissons énergisantes, vous ne voudriez pas que ChatGPT commence à vous parler de la bourse. Fondamentalement, tout garder sur le sujet.
Cela serait utile dans d’énormes modèles d’IA comme Bing Chat de Microsoft, qui est connu pour être parfois un peu hors piste, et pourrait certainement nous assurer d’éviter plus de crises de colère et d’inexactitudes.
Le garde-corps de sécurité s’attaquera à la désinformation et aux « hallucinations » – oui, aux hallucinations – et garantira que l’IA répondra avec des informations précises et appropriées. Cela signifie qu’il interdira le langage inapproprié, renforcera les citations de sources crédibles et empêchera l’utilisation de sources fictives ou illégitimes. Ceci est particulièrement utile pour ChatGPT car nous avons vu de nombreux exemples sur Internet de bot créant des citations lorsqu’on le lui demande.
Et pour les garde-fous de sécurité, ceux-ci empêcheront simplement le bot d’atteindre des applications externes qui sont « jugées dangereuses » – en d’autres termes, toute application ou tout logiciel avec lequel il n’a pas reçu l’autorisation explicite et le but d’interagir, comme une application bancaire ou vos fichiers personnels. Cela signifie que vous obtiendrez des informations simplifiées, précises et sûres chaque fois que vous utiliserez le bot.
Police de la morale
Nvidia dit que pratiquement tous les développeurs de logiciels peuvent utiliser NeMo Guardrails car ils sont simples à utiliser et fonctionnent avec une large gamme d’applications compatibles LLM, nous devrions donc, espérons-le, commencer à le voir diffuser dans plus de chatbots dans un proche avenir.
Bien qu’il ne s’agisse pas seulement d’une «mise à jour» intégrale que nous obtenons sur le front de l’IA, il est également incroyablement impressionnant. Un logiciel dédié à la surveillance et à la correction de modèles comme ChatGPT dictés par des directives sévères des développeurs est le meilleur moyen de garder les choses sous contrôle sans se soucier de le faire soi-même.
Cela étant dit, comme il n’y a pas de directives de gouvernance fermes, nous sommes redevables à la moralité et aux priorités des développeurs plutôt que d’être motivés par de véritables préoccupations de bien-être. Nvidia, dans l’état actuel des choses, semble avoir la sécurité et la protection des utilisateurs au cœur du logiciel, mais rien ne garantit que ces priorités ne changeront pas, ou que les développeurs utilisant le logiciel peuvent avoir des directives morales ou des préoccupations différentes.