jeudi, décembre 19, 2024

L’IA envahit les listes des « mots de l’année » à Oxford, Cambridge et Merriam-Webster

Rares sont ceux qui diraient que 2023 sera, du moins dans le monde de la technologie, dominé par l’intelligence artificielle. Les dictionnaires en ont pris note dans leurs listes de « mots de l’année », et notamment tous les mots liés à l’IA qu’ils mettent en avant sont en fait des mots existants qui ont été appropriés et régurgités avec de nouvelles significations. Un peu sur le nez, n’est-ce pas ?

Le mot utilisé par Cambridge est « halluciner », ce qui est bien sûr l’habitude des modèles d’IA génératifs comme ChatGPT d’inventer n’importe quoi, des dates aux personnes entières, plutôt que d’admettre qu’ils ne savent pas. Le problème est que ces systèmes ne savent pas ce qu’ils ne savent pas, car ils ne savent rien du tout.

En tant que modèles complexes de prédiction de mots, tout ce qui compte est qu’ils produisent une phrase qui ressemble à leurs données d’entraînement. Si vous lui demandez des chirurgiens allemands célèbres du XVIIIe siècle et qu’il n’y a pas de correspondance exacte, il hallucinera simplement quelque chose de proche, comme Arman Verdigger de l’hôpital de recherche Einschloss de Tulingen. Vous voyez, je peux le faire aussi ! Tout ce qui compte, c’est que cela semble plausible. Malheureusement, ces hallucinations sont exprimées avec une telle assurance qu’un nombre incalculable d’entre elles ont été acceptées sans aucun doute comme réelles.

Les hallucinations peuvent cependant être utilisées à bon escient : l’imagerie et l’audio génératifs sont entièrement et délibérément « hallucinés » dans le sens où il s’agit d’un méli-mélo de données d’entraînement du modèle, mais pas d’une recréation exacte de celles-ci (bien qu’elles puissent s’en rapprocher énormément). Cela comporte également ses dangers, car les œuvres d’art et les photos de qualité variable générées par l’IA prolifèrent dans de nombreux contextes.

L’acceptation du mot malgré sa limitation initiale à la perception humaine « souligne notre volonté d’attribuer des attributs humains à l’IA », a déclaré Henry Shevlin, éthicien de l’IA à Cambridge. « Au fur et à mesure que cette décennie avance, je m’attends à ce que notre vocabulaire psychologique s’étende encore davantage pour englober les étranges capacités des nouvelles intelligences que nous créons. »

Merriam-Webster a pris l’autre bout du bâton en choisissant « authentique » comme mot de l’année. « Avec l’essor de l’intelligence artificielle – et son impact sur les vidéos deepfake, les contrats des acteurs, l’honnêteté académique et un grand nombre d’autres sujets – la frontière entre « vrai » et « faux » est devenue de plus en plus floue. »

Même si « authentique » n’a pas reçu une toute nouvelle définition, il a néanmoins acquis une connotation nouvelle et importante. Depuis des années, nous nous demandons si quelque chose que nous ou d’autres faisons est authentique ou non. L’authenticité est un paradoxe du consumérisme moderne : elle ne peut être ni achetée ni vendue, et en tant que telle, elle constitue peut-être la qualité la plus précieuse et la plus commercialisable au monde.

Avant, nous devions nous demander si une tendance ou un article représentait les intérêts et les choix authentiques d’une personne ou d’un groupe. Maintenant, nous devons nous demander si, comme le fabuleux doudoune Balenciaga du Pape, une chose est réelle en premier lieu.

« Deepfake » a également figuré sur la liste longue de MW, passant (que ce soit par bonheur ou malheureusement) d’une technologie de niche pour la vengeance pornographique à un terme général pour l’IA générative. Ses antécédents ne sont peut-être pas respectables, mais nous ne pouvons pas choisir ce qui entre dans l’air du temps.

Par exemple, le mot de l’année d’Oxford – qui aurait été bien meilleur pour cet article s’il avait été lié à l’IA, mais malheureusement, le terme IA est relégué au deuxième rang. « Prompt », un mot polyvalent et sous-utilisé, a acquis une autre définition avec sa signification désormais bien connue relative au côté humain de l’IA générative.

Crédits images : Presse universitaire d’Oxford

Lorsque vous demandez à un système d’IA de dresser une liste d’idées d’articles en fonction de la météo actuelle, vous fournissez une « invite », et en effet, le mot est rapidement devenu un verbe, et on « invite » désormais un système.

Bien sûr, ce sont des extensions parfaitement appropriées des définitions existantes de prompt. Nous avons suscité une réponse pendant des siècles. Et en tant que nom, l’utilisation du mot « invite » était à l’origine inversée dans les interfaces informatiques : l’invite de ligne de commande invitait elle-même l’humain à répondre. Nous avons donc ici un renversement intéressant. Qui incite qui – ou quoi ? Que cela ait renforcé ou dilué le mot est une question de goût.

Si vous vous demandez quel est le mot de l’année à Oxford, c’est « rizz », un raccourci ludique pour « charisme » et quelque chose qui manque sans doute totalement à l’IA, comme Tom Holland.

Il était inévitable que la terminologie de l’IA s’infiltre dans le lexique, même si je suis un peu triste que des termes plus cool comme « espace latent » ne soient pas encore d’usage général. La technologie évolue cependant suffisamment vite pour qu’il soit peut-être préférable de s’en tenir à ce qui est bien établi, comme l’indique le jugement exercé par mes pairs, tels que j’aimerais les penser, dans le monde lexicographique. Nous attendons cependant d’autres mots de l’année, alors que les équipes de contenu de dictionnaire les plus audacieuses se demandent si les vecteurs et les intégrations méritent également un coup de pouce.

Source-146

- Advertisement -

Latest