Microsoft est déjà en train d’inverser certaines des limites qu’il a imposées aux outils de chat IA de Bing

Microsoft n’a pas tardé à limiter les discussions AI de Bing pour éviter les réponses dérangeantes, mais cela change de cap quelques jours plus tard. La société dit maintenant qu’elle restaurera des chats plus longs et commence par étendre les chats à six tours par session (au lieu de cinq) et 60 chats par jour (au lieu de 50). Le plafond quotidien grimpera bientôt à 100 chats, selon Microsoft, et les recherches régulières ne compteront plus dans ce total. Cela dit, ne vous attendez pas à causer beaucoup de dégâts lorsque de longues conversations reviennent – ​​Microsoft veut les ramener « de manière responsable ».

Le géant de la technologie répond également aux préoccupations selon lesquelles l’IA de Bing pourrait être trop verbeuse avec les réponses. Un test à venir vous permettra de choisir un ton « précis » (c’est-à-dire des réponses plus courtes et plus précises), « créatif » (plus long) ou « équilibré ». Si vous êtes simplement intéressé par les faits, vous n’aurez pas à parcourir autant de texte pour les obtenir.

Il peut y avoir eu des signes de problèmes beaucoup plus tôt. Comme Centrale Windows notes, le chercheur Dr Gary Marcus et le vice-président de Nomic Ben Schmidt ont découvert que les tests publics du chatbot Bing (nom de code « Sidney ») en Inde il y a quatre mois produisaient des résultats tout aussi étranges lors de longues sessions. Nous avons demandé à Microsoft un commentaire, mais il indique dans son dernier article de blog que l’aperçu actuel est destiné à détecter les « cas d’utilisation atypiques » qui ne se manifestent pas avec des tests internes.

Microsoft a précédemment déclaré qu’il n’avait pas complètement anticipé les personnes utilisant les discussions plus longues de Bing AI comme divertissement. Les limites plus lâches sont une tentative de trouver un équilibre entre les « rétroactions » en faveur de ces chats, comme le dit la société, avec des garanties qui empêchent le bot d’aller dans des directions étranges.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.

Source-145