La nouvelle application de Google vous permet de tester des systèmes d’IA expérimentaux comme LaMDA

Google a lancé aujourd’hui AI Test Kitchen, une application qui permet aux utilisateurs d’essayer des systèmes expérimentaux alimentés par l’IA dans les laboratoires de l’entreprise avant de passer en production. À partir d’aujourd’hui, les personnes intéressées peuvent remplir un formulaire d’inscription alors que AI Test Kitchen commence à se déployer progressivement dans de petits groupes aux États-Unis.

Comme annoncé lors de la conférence des développeurs d’E/S de Google plus tôt cette année, AI Test Kitchen proposera des démos tournantes centrées sur de nouvelles technologies d’IA de pointe, toutes issues de Google. La société souligne qu’il ne s’agit pas de produits finis, mais qu’ils sont plutôt destinés à donner un avant-goût des innovations du géant de la technologie tout en offrant à Google l’opportunité d’étudier comment ils sont utilisés.

La première série de démos d’AI Test Kitchen explore les capacités de la dernière version de LaMDA (Language Model for Dialogue Applications), le modèle de langage de Google qui interroge le Web pour répondre aux questions de manière humaine. Par exemple, vous pouvez nommer un lieu et demander à LaMDA de proposer des chemins à explorer, ou partager un objectif pour que LaMDA le décompose en une liste de sous-tâches.

Google dit qu’il a ajouté « plusieurs couches » de protection à AI Test Kitchen dans le but de minimiser les risques autour de systèmes comme LaMDA, comme les biais et les sorties toxiques. Comme l’illustre le plus récemment BlenderBot 3.0 de Meta, même les chatbots les plus sophistiqués d’aujourd’hui peuvent rapidement dérailler, se plonger dans les théories du complot et le contenu offensant lorsqu’ils sont invités avec certains textes.

Cuisine de test Google AI

Crédits image : Google

Les systèmes d’AI Test Kitchen tenteront de détecter et de filtrer automatiquement les mots ou expressions répréhensibles qui pourraient être sexuellement explicites, haineux ou offensants, violents ou illégaux, ou divulguer des informations personnelles, indique Google. Mais la société prévient que des textes offensants pourraient encore parfois passer.

« Alors que les technologies d’intelligence artificielle continuent de progresser, elles ont le potentiel de débloquer de nouvelles expériences qui prennent en charge des interactions homme-ordinateur plus naturelles », ont écrit Tris Warkentin, chef de produit Google, et Josh Woodward, directeur de la gestion des produits, dans un article de blog. « Nous sommes à un point où la rétroaction externe est la prochaine étape la plus utile pour améliorer LaMDA. Lorsque vous évaluez chaque réponse de LaMDA comme étant agréable, offensante, hors sujet ou fausse, nous utilisons ces données, qui ne sont pas liées à votre compte Google, pour améliorer et développer nos futurs produits. »

AI Test Kitchen fait partie d’une tendance plus large et récente parmi les géants de la technologie à piloter les technologies d’IA avant qu’elles ne soient diffusées dans la nature. Sans aucun doute informés par des snafus comme le chatbot Tay crachant de la toxicité de Microsoft, Google, Meta, OpenAI et d’autres ont de plus en plus choisi de tester les systèmes d’IA parmi de petits groupes pour s’assurer qu’ils se comportent comme prévu – et pour affiner leur comportement si nécessaire.

Par exemple, OpenAI a publié il y a plusieurs années son système de génération de langage, GPT-3, dans une version bêta fermée avant de le rendre largement disponible. GitHub a initialement limité l’accès à Copilot, le système de génération de code qu’il a développé en partenariat avec OpenAI, pour sélectionner les développeurs avant de le lancer en disponibilité générale.

L’approche n’est pas nécessairement née de la bonté du cœur de qui que ce soit – à présent, les acteurs de la haute technologie sont bien conscients de la mauvaise presse que l’IA qui a mal tourné peut attirer. En exposant de nouveaux systèmes d’IA à des groupes externes et en joignant de larges clauses de non-responsabilité, la stratégie semble faire la publicité des capacités des systèmes tout en atténuant les composants les plus problématiques. Reste à savoir si cela suffira à conjurer la controverse – même avant le lancement d’AI Test Kitchen, LaMDA a fait la une des journaux pour toutes les mauvaises raisons – mais une partie influente de la Silicon Valley semble avoir confiance que ce sera le cas.

Source-146