Le nouveau ChatGPT Bing dit que vous pouvez lui demander n’importe quoi mais c’est une très mauvaise idée

Demande-moi n’importe quoi. C’est la forme longue d’un AMA et l’une des formes les plus populaires de discours interactif sur Reddit. C’est aussi un défi majeur, car le chatbot Bing AI de Microsoft, alias « nouveau Bing », apprend rapidement.

Chaque fois qu’une célébrité ou un notable s’inscrit pour faire un Reddit AMA, généralement peu de temps après avoir posé avec une photo pour prouver que c’est bien lui qui répond aux questions, il y a un profond moment d’appréhension.

La possibilité de demander n’importe quoi à n’importe qui est généralement un champ de mines de discours inappropriés qui est géré par un gestionnaire de communauté en direct qui remplit et filtre les questions. Sinon, les choses déraillent rapidement. Même sans cette protection, ils le font souvent, de toute façon (s’ouvre dans un nouvel onglet).

(Crédit image : futur)

Lorsque Microsoft a lancé son nouveau chat alimenté par Bing AI, il a clairement indiqué que ChatGPT AI était prêt pour toutes les questions. C’était soit un signe de confiance profonde avec le groupe d’utilisateurs relativement petit mais croissant, soit une incroyable naïveté.

Source-130