Microsoft a lancé la semaine dernière son produit de chat Bing AI pour le navigateur Edge, et il fait l’actualité depuis, mais pas toujours pour les bonnes raisons. Nos premières impressions étaient fortes, car il offrait des routines d’entraînement, des itinéraires de voyage et plus encore sans accroc.
Cependant, les utilisateurs ont commencé à remarquer que le bot de Bing donnait des informations incorrectes, réprimandait les utilisateurs pour avoir perdu son temps et même affichait un comportement « déséquilibré ». Dans une conversation bizarre, il a refusé de donner des listes pour Avatar : la voie de l’eauinsistant sur le fait que le film n’était pas encore sorti car nous étions encore en 2022. Il a ensuite qualifié l’utilisateur de « déraisonnable et têtu » (entre autres) lorsqu’il a essayé de dire à Bing que c’était faux.
Maintenant, Microsoft a publié un article de blog expliquant ce qui s’est passé et comment il résout les problèmes. Pour commencer, la société a admis qu’elle n’envisageait pas que l’IA de Bing soit utilisée pour « la découverte générale du monde et pour le divertissement social ».
Bing subreddit a quelques exemples de nouveaux chats Bing qui deviennent incontrôlables.
Le chat ouvert dans la recherche pourrait s’avérer être une mauvaise idée en ce moment !
Capturé ici pour rappeler qu’il fut un temps où un moteur de recherche majeur montrait cela dans ses résultats. pic.twitter.com/LiE2HJCV2z
— Vlad (@vladquant) 13 février 2023
Ces « sessions de chat longues et prolongées de 15 questions ou plus » peuvent faire dérailler les choses. « Bing peut devenir répétitif ou être incité/provoqué à donner des réponses qui ne sont pas nécessairement utiles ou conformes au ton que nous avons conçu », a déclaré la société. Cela se produit apparemment parce que question après question, le bot peut « oublier » ce à quoi il essayait de répondre en premier lieu. Pour résoudre ce problème, Microsoft peut ajouter un outil qui vous permet de réinitialiser le contexte de recherche ou de recommencer à zéro.
L’autre problème est plus complexe et intéressant : « Le modèle essaie parfois de répondre ou de refléter le ton sur lequel il est demandé de fournir des réponses qui peuvent conduire à un style que nous n’avions pas prévu », a écrit Microsoft. Il faut beaucoup d’incitations pour que cela se produise, mais les ingénieurs pensent qu’ils pourraient être en mesure de résoudre le problème en donnant aux utilisateurs plus de contrôle.
Malgré ces problèmes, les testeurs ont généralement donné à l’IA de Bing de bonnes notes sur les citations et les références pour la recherche, a déclaré Microsoft, bien qu’elle doive s’améliorer avec « des données très opportunes comme les résultats sportifs en direct ». Il cherche également à améliorer les réponses factuelles pour des éléments tels que les rapports financiers en multipliant par quatre les données de base. Enfin, ils « ajouteront une bascule qui vous donne plus de contrôle sur la précision par rapport à la créativité de la réponse pour l’adapter à votre requête ».
L’équipe Bing a remercié les utilisateurs pour les tests effectués à ce jour, affirmant que cela « nous aide à améliorer le produit pour tout le monde ». Dans le même temps, ils ont exprimé leur surprise que les gens passent jusqu’à deux heures dans des sessions de chat. Les utilisateurs seront sans aucun doute tout aussi diligents en essayant de casser de nouvelles mises à jour, nous pourrions donc être dans une course intéressante au cours de la prochaine période.
Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.