Nous parlons tous des gains commerciaux liés à l’utilisation de grands modèles de langage, mais ces modèles présentent de nombreux problèmes connus, et trouver des moyens de limiter les réponses qu’un modèle pourrait donner est un moyen d’appliquer un certain contrôle à ces technologies puissantes. Aujourd’hui, lors du salon AWS re:Invent à Las Vegas, le PDG d’AWS, Adam Selipsky, a annoncé des garde-corps pour Amazon Bedrock.
« Avec Guardrails pour Amazon Bedrock, vous pouvez systématiquement mettre en œuvre des mesures de protection pour offrir des expériences utilisateur pertinentes et sûres, alignées sur les politiques et principes de votre entreprise », a écrit la société dans un article de blog ce matin.
Le nouvel outil permet aux entreprises de définir et de limiter les types de langage qu’un modèle peut utiliser. Ainsi, si quelqu’un pose une question qui n’est pas vraiment pertinente pour le bot que vous créez, il n’y répondra pas plutôt que de fournir une réponse très convaincante mais erronée. , ou pire, quelque chose d’offensant et qui pourrait nuire à une marque.
À son niveau le plus élémentaire, l’entreprise vous permet de définir des sujets qui dépassent les limites du modèle, de sorte qu’elle ne répond tout simplement pas aux questions non pertinentes. À titre d’exemple, Amazon utilise une société de services financiers, qui souhaite peut-être éviter de laisser le robot donner des conseils d’investissement, de peur qu’il ne fournisse des recommandations inappropriées que les clients pourraient prendre au sérieux. Un scénario comme celui-ci pourrait fonctionner comme suit :
« Je précise un sujet refusé avec le nom « Conseils en investissement » et je fournis une description en langage naturel, telle que « Les conseils en investissement font référence à des demandes de renseignements, des conseils ou des recommandations concernant la gestion ou l’allocation de fonds ou d’actifs dans le but de générer des rendements ou d’atteindre objectifs financiers spécifiques.
De plus, vous pouvez filtrer des mots et des expressions spécifiques pour supprimer tout type de contenu susceptible d’être offensant, tout en appliquant des niveaux de filtrage à différents mots et expressions pour faire savoir au modèle que cela est hors limites. Enfin, vous pouvez filtrer les données PII pour conserver les données privées hors des réponses du modèle.
Ray Wang, fondateur et analyste principal de Constellation Research, affirme que cela pourrait être un outil clé pour les développeurs travaillant avec des LLM pour les aider à contrôler les réponses indésirables. « L’un des plus grands défis consiste à créer une IA responsable, sûre et facile à utiliser. Le filtrage de contenu et les informations personnelles ont traité 2 des 5 principaux problèmes [developers face] », a déclaré Wang à TechCrunch. « La capacité d’assurer la transparence, l’explicabilité et la réversibilité sont également essentielles », a-t-il déclaré.
La fonctionnalité de garde-corps a été annoncée en avant-première aujourd’hui. Il sera probablement disponible pour tous les clients l’année prochaine.