Comme le savent les lecteurs réguliers de TechRadar, les améliorations du chatbot AI fortement promues récemment ajoutées à Bing n’ont pas eu le lancement le plus fluide – et maintenant Microsoft apporte quelques modifications pour améliorer l’expérience utilisateur.
Dans un article de blog (s’ouvre dans un nouvel onglet) (via le bord (s’ouvre dans un nouvel onglet)), Microsoft affirme que les ajustements devraient « aider à concentrer les sessions de chat »: la partie IA de Bing sera limitée à 50 « tours » de chat (une question et une réponse) par jour et à cinq réponses par session de chat.
C’est arrivé : les dirigeants de Microsoft ont déjà déclaré publiquement qu’ils cherchaient des moyens de supprimer certains des comportements étranges qui ont été remarqués par les premiers testeurs du service de bot AI.
Mis à l’épreuve
Ces premiers testeurs ont fait des tests assez durs : ils ont réussi à faire en sorte que le bot, basé sur une version améliorée du moteur ChatGPT d’OpenAI, renvoie des réponses inexactes, se fâche et même remette en question la nature de sa propre existence.
Faire passer votre moteur de recherche par une crise existentielle alors que vous cherchiez simplement une liste des meilleurs téléphones n’est pas idéal. Microsoft affirme que de très longues sessions de chat embrouillent son IA et que la « grande majorité » des requêtes de recherche peut être répondue en 5 réponses.
Le module complémentaire AI pour Bing n’est pas encore disponible pour tout le monde, mais Microsoft affirme qu’il se fraye un chemin dans la liste d’attente. Si vous prévoyez d’essayer la nouvelle fonctionnalité, n’oubliez pas de garder vos interactions brèves et précises.
Analyse : ne croyez pas encore au battage médiatique
Malgré les premiers problèmes, il y a clairement beaucoup de potentiel dans les outils de recherche alimentés par l’IA en développement par Microsoft et Google. Que vous recherchiez des idées pour des jeux de société ou des lieux à visiter, ils sont capables de renvoyer des résultats rapides et informés – et vous n’avez pas à parcourir des pages de liens pour les trouver.
En même temps, il y a clairement encore beaucoup de travail à faire. Les grands modèles de langage (LLM) comme ChatGPT et la version de Microsoft ne « pensent » pas vraiment en tant que tels. Ils sont comme des moteurs de correction automatique suralimentés, prédisant quels mots doivent se succéder pour produire une réponse cohérente et pertinente à ce qui leur est demandé.
En plus de cela, il y a la question de l’approvisionnement – si les gens vont se fier à l’IA pour leur dire quels sont les meilleurs ordinateurs portables et mettre les écrivains humains au chômage, ces robots de discussion n’auront pas les données dont ils ont besoin pour produire leur réponses. Comme les moteurs de recherche traditionnels, ils dépendent toujours beaucoup du contenu créé par de vraies personnes.
Nous avons bien sûr profité de l’occasion pour demander au ChatGPT d’origine pourquoi de longues interactions confondent les LLM : apparemment, cela peut rendre les modèles d’IA « trop concentrés sur les détails spécifiques de la conversation » et l’empêcher de « ne pas généraliser à d’autres contextes ou sujets ». , entraînant un comportement en boucle et des réponses « répétitives ou non pertinentes ».