Mercredi, le Cambridge Dictionary a annoncé que son mot de l’année 2023 était « halluciner », en raison de la popularité des grands modèles linguistiques (LLM) comme ChatGPT, qui produisent parfois des informations erronées. Le dictionnaire a également publié un site illustré expliquant le terme, disant : « Lorsqu’une intelligence artificielle hallucine, elle produit de fausses informations. »
« L’équipe du Cambridge Dictionary a choisi halluciner comme mot de l’année 2023 car elle a reconnu que ce nouveau sens va au cœur de la raison pour laquelle les gens parlent de l’IA », écrit le dictionnaire. « L’IA générative est un outil puissant, mais avec lequel nous apprenons tous encore à interagir de manière sûre et efficace. Cela signifie être conscient à la fois de ses forces potentielles et de ses faiblesses actuelles. »
Comme nous l’avons déjà évoqué dans divers articles, le terme « hallucination » en relation avec l’IA est né comme un terme artistique dans le domaine de l’apprentissage automatique. Alors que les LLM sont devenus largement utilisés via des applications comme ChatGPT à la fin de l’année dernière, le terme s’est répandu dans l’usage général et a commencé à semer la confusion chez certains, qui y voyaient un anthropomorphisme inutile. La première définition du dictionnaire Cambridge de l’hallucination (pour les humains) est « avoir l’impression de voir, d’entendre, de ressentir ou de sentir quelque chose qui n’existe pas ». Cela implique une perception provenant d’un esprit conscient, et certains s’opposent à cette association.
Comme tous les mots, sa définition emprunte beaucoup au contexte. Lorsque les chercheurs en apprentissage automatique utilisent le terme halluciner (ce qu’ils font encore fréquemment, à en juger par les documents de recherche), ils comprennent généralement les limites d’un LLM (par exemple, que le modèle d’IA n’est pas vivant ou « conscient » selon les normes humaines), mais le Le grand public ne peut pas le faire. Ainsi, dans un article explorant les hallucinations en profondeur plus tôt cette année, nous avons suggéré un terme alternatif, «confabulation», qui décrit peut-être plus précisément le principe créatif de remplissage des lacunes des modèles d’IA au travail sans le bagage de perception. (Et devinez quoi, c’est aussi dans le dictionnaire Cambridge.)
« L’utilisation généralisée du terme ‘halluciner’ pour désigner les erreurs commises par des systèmes comme ChatGPT fournit un instantané fascinant de la façon dont nous pensons et anthropomorphisons l’IA », a déclaré Henry Shevlin, éthicien de l’IA à l’Université de Cambridge, dans un communiqué. . « Au fur et à mesure que cette décennie avance, je m’attends à ce que notre vocabulaire psychologique s’étende encore davantage pour englober les étranges capacités des nouvelles intelligences que nous créons. »
Les hallucinations ont donné lieu à des problèmes juridiques tant pour les particuliers que pour les entreprises au cours de l’année écoulée. En mai, un avocat qui a cité de faux cas fabulés par ChatGPT a eu des ennuis avec un juge et a ensuite été condamné à une amende. En avril, Brian Hood a poursuivi OpenAI pour diffamation lorsque ChatGPT a faussement affirmé que Hood avait été condamné pour un scandale de corruption transnationale. L’affaire a ensuite été réglée à l’amiable.
En vérité, les LLM « hallucinent » tout le temps. Ils rassemblent des associations entre les concepts à partir de ce qu’ils ont appris au cours de la formation (et de leur mise au point ultérieure), et ce n’est pas toujours une inférence précise. Là où il y a des lacunes dans les connaissances, elles généreront la réponse la plus probable. Souvent, cela peut être correct, à condition de données d’entraînement de haute qualité et d’un réglage précis, mais d’autres fois, ce n’est pas le cas.
Jusqu’à présent, il semble qu’OpenAI ait été la seule entreprise technologique à lutter de manière significative contre les hallucinations erronées avec GPT-4, ce qui est l’une des raisons pour lesquelles ce modèle est toujours considéré comme étant en tête. La façon dont ils y sont parvenus fait partie de la sauce secrète d’OpenAI, mais le scientifique en chef d’OpenAI, Illya Sutstkever, a déjà mentionné qu’il pensait que le RLHF pourrait fournir un moyen de réduire les hallucinations à l’avenir. (RLHF, ou apprentissage par renforcement grâce à la rétroaction humaine, est un processus par lequel les humains évaluent les réponses d’un modèle de langage, et ces résultats sont utilisés pour affiner davantage le modèle.)
Wendalyn Nichols, responsable de la publication du Cambridge Dictionary, a déclaré dans un communiqué : « Le fait que les IA puissent « halluciner » nous rappelle que les humains doivent encore faire appel à leur esprit critique pour utiliser ces outils. données pour extraire des informations spécifiques et les consolider. Mais plus vous leur demandez d’être originaux, plus ils risquent de s’égarer.
Ce fut une année record pour les mots IA, selon le dictionnaire. Cambridge affirme avoir ajouté d’autres termes liés à l’IA à son dictionnaire en 2023, notamment « grand modèle de langage », « AGI », « IA générative » et « GPT ».