Si vous visitez l’un de Articles écrits par l’IA de CNET, vous verrez maintenant une note de l’éditeur en haut indiquant : « Nous examinons actuellement cette histoire pour en vérifier l’exactitude. Si nous trouvons des erreurs, nous mettrons à jour et apporterons des corrections. » La publication a ajouté la note après avoir été informée d’erreurs majeures dans au moins l’un des explicatifs financiers écrits à la machine qu’elle avait publiés.
Si vous vous souvenez, Crumpe la rédactrice en chef Connie Guglielmo a récemment admis que la publication avait publié environ 75 articles sur des sujets financiers de base depuis novembre de l’année dernière. Guglielmo a déclaré que le site Web avait décidé de faire une expérience pour voir si l’IA pouvait vraiment être utilisée dans les salles de rédaction et d’autres services basés sur l’information dans les mois et les années à venir. Basé sur du futurisme rapport, il semble que la réponse soit : bien sûr, mais les éléments qu’il génère doivent être soigneusement vérifiés par un éditeur humain.
Futurisme passé au peigne fin l’un des articles que Guglielmo a mis en évidence dans le message, à savoir l’article intitulé « Qu’est-ce que l’intérêt composé ? », et a trouvé une poignée d’erreurs graves. Bien que l’article ait été corrigé depuis, la version originale indiquait que « vous gagnerez 10 300 $ à la fin de la première année » – au lieu de seulement 300 $ – si vous déposez 10 000 $ sur un compte qui rapporte 3 % d’intérêts composés annuellement. L’IA a également commis des erreurs dans l’explication des paiements des taux d’intérêt des prêts et des certificats de dépôt ou des CD.
Vous trouverez une énorme différence de qualité en comparant CNET des articles avec des pièces écrites à la machine les années précédentes, qui se lisent plus comme un tas de faits rassemblés plutôt que comme des histoires cohérentes. Comme Futurisme notes, les erreurs qu’il a trouvées mettent en évidence le plus gros problème avec la génération actuelle de générateurs de texte IA : ils peuvent être capables de répondre d’une manière humaine, mais ils ont encore du mal à éliminer les inexactitudes.
« Les modèles comme ChatGPT ont une tendance notoire à cracher du contenu biaisé, nuisible et factuellement incorrect », Examen technique du MIT a écrit dans un article examinant comment Microsoft pourrait utiliser la technologie ChatGPT d’OpenAI avec Bing. « Ils sont doués pour générer un langage fluide qui se lit comme si un humain l’avait écrit. Mais ils n’ont aucune compréhension réelle de ce qu’ils génèrent, et ils énoncent à la fois des faits et des mensonges avec le même niveau élevé de confiance. » Cela dit, OpenAI a récemment déployé une mise à jour de ChatGPT destinée à « améliorer la précision et la factualité ».
Pour ce qui est de Crumpea déclaré un porte-parole Futurisme dans un communiqué: « Nous examinons activement toutes nos pièces assistées par l’IA pour nous assurer qu’aucune autre inexactitude n’a traversé le processus d’édition, car les humains commettent également des erreurs. Nous continuerons à publier toutes les corrections nécessaires selon CNET politique de correction. »
Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.