L’assistant IA de Meta a déclaré à tort que la récente tentative d’assassinat de l’ancien président Donald Trump n’avait pas eu lieu, une erreur qu’un dirigeant de l’entreprise attribue désormais à la technologie qui alimente son chatbot et d’autres.
Dans un article de blog d’entreprise Dans un article publié mardi, Joel Kaplan, responsable mondial des politiques de Meta, qualifie de « regrettables » les réponses de son IA aux questions sur la fusillade. Il explique que l’IA de Meta a d’abord été programmée pour ne pas répondre aux questions sur la tentative d’assassinat, mais que l’entreprise a supprimé cette restriction après que les gens ont commencé à s’en rendre compte. Il reconnaît également que « dans un petit nombre de cas, l’IA de Meta a continué à fournir des réponses incorrectes, y compris parfois en affirmant que l’événement n’avait pas eu lieu – ce que nous travaillons rapidement à corriger ».
« Ces types de réponses sont appelées hallucinations, un problème que nous observons dans tous les systèmes d’IA générative et qui constitue un défi permanent pour la manière dont l’IA gère les événements en temps réel à l’avenir », poursuit Kaplan, qui dirige les efforts de lobbying de Meta. « Comme tous les systèmes d’IA générative, les modèles peuvent renvoyer des résultats inexacts ou inappropriés, et nous continuerons à résoudre ces problèmes et à améliorer ces fonctionnalités à mesure qu’ils évoluent et que de plus en plus de personnes partagent leurs commentaires. »
Ce n’est pas seulement Meta qui est pris au piège ici : Google mardi a également dû réfuter les allégations que sa fonction de saisie semi-automatique de recherche censurait les résultats concernant la tentative d’assassinat. « Nous y revoilà, une autre tentative de TRUQUER LES ÉLECTIONS !!! » Trump dit dans un post sur Truth Social. « ALLEZ À LA RECHERCHE DE META ET DE GOOGLE. »
Depuis l’apparition de ChatGPT, l’industrie technologique se demande comment limiter la propension de l’IA générative à mentir. Certains acteurs, comme Meta, ont tenté de baser leurs chatbots sur des données de qualité et des résultats de recherche en temps réel pour compenser les hallucinations. Mais comme le montre cet exemple particulier, il est toujours difficile de surmonter ce pour quoi les grands modèles linguistiques sont intrinsèquement conçus : inventer des choses.