Demande-moi n’importe quoi. C’est la forme longue d’un AMA et l’une des formes les plus populaires de discours interactif sur Reddit. C’est aussi un défi majeur, car le chatbot Bing AI de Microsoft, alias « nouveau Bing », apprend rapidement.
Chaque fois qu’une célébrité ou un notable s’inscrit pour faire un Reddit AMA, généralement peu de temps après avoir posé avec une photo pour prouver que c’est bien lui qui répond aux questions, il y a un profond moment d’appréhension.
La possibilité de demander n’importe quoi à n’importe qui est généralement un champ de mines de discours inappropriés qui est géré par un gestionnaire de communauté en direct qui remplit et filtre les questions. Sinon, les choses déraillent rapidement. Même sans cette protection, ils le font souvent, de toute façon (s’ouvre dans un nouvel onglet).
Lorsque Microsoft a lancé son nouveau chat alimenté par Bing AI, il a clairement indiqué que ChatGPT AI était prêt pour toutes les questions. C’était soit un signe de confiance profonde avec le groupe d’utilisateurs relativement petit mais croissant, soit une incroyable naïveté.
Même ChatGPT, qui a lancé la sensation originale du chatbot AI, et sur lequel le chat de Bing est basé, n’offre pas cette invite. Au lieu de cela, il y a une zone de saisie de texte vide en bas de l’écran. Au-dessus se trouve une liste d’exemples de questions, de capacités et, surtout, de limitations.
Bing a cette invite principale et en dessous un exemple de question plus un gros bouton « Essayer » à côté d’un autre bouton vous invitant à « En savoir plus ». Au diable ça. Nous aimons entrer directement et, en suivant les instructions de Bing, lui demander n’importe quoi.
Naturellement, Bing a été parsemé d’un large éventail de questions, dont beaucoup n’ont rien à voir avec les besoins quotidiens comme les voyages, les recettes et les plans d’affaires. Et ce sont ceux dont nous parlons tous parce que, comme toujours, demander « n’importe quoi » signifie « demander quoi que ce soit. » Bard de Google, en revanche, a opté pour une invite potentiellement moins risquée : » Qu’est-ce que tu as en tête ? »
Bing mène des réflexions sur l’amour, le sexe, la mort, le mariage, le divorce, la violence, les ennemis, la diffamation et les émotions qu’il insiste sur le fait qu’il n’a pas.
Dans ChatGPT d’OpenAI, l’écran d’accueil avertit qu’il :
- Peut occasionnellement générer des informations incorrectes
- Peut parfois produire des instructions préjudiciables ou un contenu biaisé
- Connaissance limitée du monde et des événements après 2021
Trop de questions
Le chat GPT de Bing est légèrement différent de celui d’OpenAI et il se peut qu’il ne soit pas confronté à toutes ces limitations. En particulier, la connaissance des événements mondiaux peut, grâce à l’intégration du graphe de connaissances de Bing, s’étendre jusqu’à nos jours.
Mais avec Bing dans la nature, ou de plus en plus sauvage, cela a peut-être été une erreur d’encourager les gens à lui demander n’importe quoi.
Et si Microsoft avait créé Bing AI Chat avec une invite différente :
Demande-moi des choses
Posez-moi une question
Que veux-tu savoir?
Avec ces invites légèrement modifiées, Microsoft pourrait ajouter une longue liste de mises en garde sur la façon dont Bing AI Chat ne sait pas ce qu’il dit. D’accord, c’est le cas (parfois (s’ouvre dans un nouvel onglet)), mais pas de la façon dont vous le connaissez. Il n’a pas d’intelligence ou de réponse émotionnelle ni même de boussole morale. Je veux dire, il essaie d’agir comme s’il en avait un, mais des conversations récentes avec Le New York Times (s’ouvre dans un nouvel onglet) et même Le matériel de Tom (s’ouvre dans un nouvel onglet) prouver que sa compréhension de la moralité fondamentale des bonnes personnes est au mieux ténue.
Dans mes propres conversations avec le chat Bing AI, on m’a dit à plusieurs reprises qu’il n’avait pas d’émotions humaines, mais il conversait toujours comme si c’était le cas.
Pour quiconque couvre l’IA depuis un certain temps, rien de ce qui s’est passé n’est surprenant. L’IA sait :
- Sur quoi il a été formé
- Ce qu’il peut apprendre de nouvelles informations
- Ce qu’il peut glaner dans de vastes magasins de données en ligne
- Ce qu’il peut apprendre des interactions en temps réel
Le chat Bing AI, cependant, n’est pas plus conscient que n’importe quelle IA qui l’a précédé. C’est peut-être l’un des meilleurs acteurs de l’IA, dans la mesure où sa capacité à mener une conversation est bien supérieure à tout ce que j’ai jamais connu auparavant. Ce sentiment ne fait qu’augmenter avec la durée d’une conversation.
Je ne dis pas que le chat Bing AI devient plus crédible en tant qu’humain sensible, mais il devient plus crédible en tant qu’humain quelque peu irrationnel ou confus. De longues conversations avec de vraies personnes peuvent aussi se passer comme ça. Vous commencez sur un sujet et vous vous disputez peut-être même à ce sujet, mais à un moment donné, l’argument devient moins logique et rationnel. Dans le cas des personnes, l’émotion entre en jeu. Dans le cas de Bing AI Chat, c’est comme atteindre le bout d’une corde où les fibres existent mais sont effilochées. Bing AI a les informations pour certaines des longues conversations, mais pas l’expérience pour les tisser ensemble d’une manière qui a du sens.
Bing n’est pas ton ami
En encourageant les gens à « Demandez-moi n’importe quoi… », Microsoft a mis en place Bing pour, sinon échouer, des difficultés de croissance importantes. La douleur est peut-être ressentie par Microsoft et certainement par les personnes qui posent délibérément des questions auxquelles aucun moteur de recherche normal n’aurait jamais de réponse.
Avant l’avènement des chatbots, envisageriez-vous même d’utiliser Google pour réparer votre vie amoureuse, expliquer Dieu ou être un ami ou un amant de remplacement ? J’espère que non.
Bing AI Chat s’améliorera, mais pas avant que nous ayons eu des conversations beaucoup plus inconfortables où Bing regrette sa réponse et essaie de la faire disparaître.
Demander n’importe quoi à une IA est l’objectif évident à long terme, mais nous n’en sommes pas encore là. Microsoft a sauté le pas et maintenant il est en chute libre à travers une forêt de réponses douteuses. Il n’atterrira que lorsque Bing AI Chat deviendra beaucoup plus intelligent et plus circonspect ou que Microsoft débranchera la prise pour une petite rééducation de l’IA.
Toujours en attente de demander quoi que ce soit à Bing, nous avons les derniers détails sur la liste d’attente.