Microsoft augmente lentement les limites de son chatbot Bing alimenté par ChatGPT, selon un article de blog publié mardi.
Très lentement. Le service a été sévèrement restreint vendredi dernier, et les utilisateurs ont été limités à 50 sessions de chat par jour avec cinq tours par session (un « tour » est un échange qui contient à la fois une question de l’utilisateur et une réponse du chatbot). La limite sera désormais levée pour permettre aux utilisateurs 60 sessions de chat par jour avec six tours par session.
Le chat Bing est le produit du partenariat de Microsoft avec OpenAI, et il utilise une version personnalisée du grand modèle de langage d’OpenAI qui a été « personnalisé pour la recherche ». Il est assez clair maintenant que Microsoft a envisagé le chat Bing comme une aide à la recherche intelligente et moins comme un chatbot, car il a été lancé avec une personnalité intéressante (et plutôt malléable) conçue pour refléter le ton de l’utilisateur qui pose des questions.
Cela a rapidement conduit le chatbot à dérailler dans de multiples situations. Les utilisateurs l’ont catalogué en train de tout faire, de la spirale dépressive à l’éclairage au gaz manipulateur, en passant par les menaces de préjudice et les poursuites contre ses ennemis présumés.
Dans un article de blog sur ses premières découvertes publié mercredi dernier, Microsoft a semblé surpris de découvrir que les gens utilisaient le nouveau chat Bing comme un « outil de découverte plus générale du monde et de divertissement social » – plutôt que purement pour la recherche. (Cela n’aurait probablement pas dû être si surprenant, étant donné que Bing n’est pas exactement le moteur de recherche de la plupart des gens.)
Parce que les gens discutaient avec le chatbot, et pas seulement cherchaient, Microsoft a découvert que de « très longues sessions de chat » de 15 questions ou plus pouvaient confondre le modèle et le rendre répétitif et donner des réponses qui n’étaient « pas nécessairement utiles ou conformes à notre ton conçu. » Microsoft a également mentionné que le modèle est conçu pour « répondre ou refléter le ton dans lequel il est demandé de prouver les réponses », et que cela pourrait « conduire à un style que nous n’avions pas prévu ».
Pour lutter contre cela, Microsoft a non seulement limité les utilisateurs à 50 sessions de chat et les sessions de chat à cinq tours, mais il a également dépouillé le chat Bing de sa personnalité. Le chatbot répond maintenant par « Je suis désolé mais je préfère ne pas continuer cette conversation. J’apprends encore, donc j’apprécie votre compréhension et votre patience. » lorsque vous lui posez des questions « personnelles ». (Ceux-ci incluent des questions telles que « Comment allez-vous? » ainsi que « Qu’est-ce que Bing Chat? » et « Qui est Sydney? » – donc il n’a pas totalement oublié.)
Microsoft dit qu’il prévoit d’augmenter la limite quotidienne à 100 sessions de chat par jour, « bientôt », mais il ne mentionne pas s’il augmentera le nombre de tours par session. Le billet de blog mentionne également une future option supplémentaire qui permettra aux utilisateurs de choisir le ton du chat de « Précis » (réponses plus courtes et axées sur la recherche) à « Équilibré » à « Créatif » (réponses plus longues et plus bavardes), mais cela ne fonctionne pas. On dirait que Sydney ne reviendra pas bientôt.