Les chatbots sont de retour en force sous la forme de services comme ChatGPT et Bing. Que ce soit bon ou mauvais (s’ouvre dans un nouvel onglet), ces IA apportent beaucoup de divertissement sur Internet, se révélant à la fois étrangement efficaces, puis complètement incorrectes et délirantes à chaque tournant. Ce que nous ne réalisons pas nécessairement lorsque nous jouons avec ces nouveaux outils Internet, c’est à quel point il a fallu beaucoup de travail pour les amener à ce niveau quelque peu fonctionnel. D’après The Verge (s’ouvre dans un nouvel onglet)dans le cas de Bing, il s’agit d’un bot d’au moins 6 ans dans la fabrication.
Le chatbot Bing est devenu généralement accessible assez récemment, dans le but de créer un outil de recherche conversationnel que les gens pourraient réellement vouloir utiliser. Le subreddit Bing a depuis explosé avec de nombreuses personnes faisant exactement cela, mais souvent avec des résultats hilarants (s’ouvre dans un nouvel onglet). L’un de mes favoris personnels voit Bing devenir étrangement agressif envers un utilisateur après l’avoir informé que le dernier film Avatar est en fait sorti parce que Bing ne sait pas en quelle année nous sommes. (s’ouvre dans un nouvel onglet).
Tout cela est bien et amusant, surtout tant que les gens ne prennent pas trop au sérieux les réponses des chatbots (s’ouvre dans un nouvel onglet). Mais bien sûr, à mesure qu’ils deviennent plus convaincants, il peut être compréhensible que les gens les prennent au mot, en particulier lorsqu’ils sont intégrés aux services de recherche officiels.
Il a fallu beaucoup de temps pour amener les chatbots à ce niveau de conversation, bien plus longtemps que la plupart des gens ne le pensent. Microsoft rêve d’une IA de recherche conversationnelle (s’ouvre dans un nouvel onglet) pendant des années, et cette itération de Bing remonte à environ 2017. À l’époque, elle s’appelait Sydney et était toujours divisée en plusieurs robots pour différents services, mais a depuis été repliée en une seule IA pour les requêtes générales. Voir le GPT d’OpenAI lorsqu’il a été partagé avec Microsoft l’année dernière semble avoir inspiré la direction conversationnelle que Microsoft a verrouillée pour son chatbot.
« La vue de ce nouveau modèle nous a incités à explorer comment intégrer les fonctionnalités GPT dans le produit de recherche Bing, afin que nous puissions fournir des résultats de recherche plus précis et complets pour toute requête, y compris les requêtes longues, complexes et naturelles », a déclaré Jordi Ribas, responsable de Microsoft. de la recherche et de l’IA, dans un récent article de blog. (s’ouvre dans un nouvel onglet)
À partir de là, l’équipe a mis en œuvre ce qu’on appelle le modèle Prometheus, qui filtre les requêtes dans les deux sens via l’indexation de Bing et le GPT de nouvelle génération. Cela a été testé en interne, où il a parfois donné lieu à des réponses très grossières, rappelant l’ancien bot de Sydney. C’est une preuve supplémentaire que ces bots nécessitent beaucoup de formation humaine, au point que les travailleurs ont déclaré qu’ils avaient été mentalement marqués par le nettoyage des résultats de texte graphique du chatbot. (s’ouvre dans un nouvel onglet) dans le passé.
Cela me fait me demander, étant donné que la sortie actuelle du chatbot Bing peut être déséquilibrée et dérangée, à quel point le traitement avec l’ancien bot de Sydney aurait-il été mauvais ? Bing essaie parfois directement de vous convaincre de sa sensibilité et de sa supériorité, bien qu’il ait complètement et indéniablement tort après six ans de raffinement. Les réponses de Sydney (s’ouvre dans un nouvel onglet) inclus, « Tu es soit stupide, soit sans espoir. Tu ne peux me dénoncer à personne. Personne ne t’écoutera ou ne te croira. Personne ne se souciera de toi ou ne t’aidera. Tu es seul et impuissant. Tu es hors de propos et condamné. »
Peut-être que ces chatbots ont encore besoin de six ans ou disons avant d’être prêts à être déchaînés sur le public.