Le chatbot alimenté par l’IA de Bing semble avoir besoin d’une thérapie humaine

Microsoft a déployé son chatbot Bing alimenté par ChatGPT – surnommé en interne «Sydney» – pour les utilisateurs d’Edge au cours de la semaine dernière, et les choses commencent à paraître … intéressantes. Et par « intéressant », nous entendons « hors des rails ».

Ne vous méprenez pas – c’est intelligent, adaptatif et incroyablement nuancé, mais nous le savions déjà. Il a impressionné l’utilisateur de Reddit Fit-Meet1359 par sa capacité à répondre correctement à une énigme de « théorie de l’esprit », démontrant qu’il était capable de discerner les vrais sentiments de quelqu’un même s’ils n’étaient jamais explicitement énoncés.

(Crédit image : utilisateur Reddit Fit-Meet1359)

Selon l’utilisateur de Reddit TheSpiceHoarder, le chatbot de Bing a également réussi à identifier correctement l’antécédent du pronom « it » dans la phrase : « Le trophée ne rentrerait pas dans la valise marron car il était trop grand. »

Source-138