Microsoft dit qu’il met en place certaines limites de conversation sur son IA Bing quelques jours seulement après que le chatbot a déraillé plusieurs fois pour les utilisateurs. Les chats Bing seront désormais limités à 50 questions par jour et à cinq par session après que le moteur de recherche a été vu en train d’insulter les utilisateurs, de leur mentir et de manipuler émotionnellement les gens.
« Nos données ont montré que la grande majorité des gens trouvent les réponses qu’ils recherchent dans les 5 tours et que seulement environ 1% des conversations de chat ont plus de 50 messages », dit l’équipe Bing dans un article de blog. Si les utilisateurs atteignent la limite de cinq par session, Bing les invitera à démarrer un nouveau sujet pour éviter de longues sessions de discussion en va-et-vient.
Microsoft a averti plus tôt cette semaine que ces sessions de chat plus longues, avec 15 questions ou plus, pourraient rendre Bing « devenu répétitif ou être invité / provoqué à donner des réponses qui ne sont pas nécessairement utiles ou conformes à notre ton conçu ». Essuyer une conversation après seulement cinq questions signifie que « le modèle ne sera pas confus », explique Microsoft.
Microsoft travaille toujours à améliorer le ton de Bing, mais on ne sait pas immédiatement combien de temps dureront ces limites. « Alors que nous continuons à recevoir des commentaires, nous explorerons l’expansion des plafonds sur les sessions de chat », déclare Microsoft, donc cela semble être un plafond limité pour l’instant.
La fonction de chat de Bing continue de voir des améliorations au quotidien, avec des problèmes techniques résolus et des correctifs hebdomadaires plus importants pour améliorer la recherche et les réponses. Microsoft a déclaré plus tôt cette semaine qu’il n’envisageait pas « pleinement » les gens utilisant son interface de chat pour le « divertissement social » ou comme un outil pour une « découverte plus générale du monde ».