Le grand prétendant

Il y a un bon raison de ne pas faire confiance à ce que les constructions d’IA d’aujourd’hui vous disent, et cela n’a rien à voir avec la nature fondamentale de l’intelligence ou de l’humanité, avec les concepts wittgensteiniens de représentation du langage, ou même la désinformation dans l’ensemble de données. Tout ce qui compte, c’est que ces systèmes ne font pas la distinction entre quelque chose qui est correct et quelque chose qui regards correct. Une fois que vous comprenez que l’IA considère ces choses plus ou moins interchangeables, tout prend beaucoup plus de sens.

Maintenant, je ne veux pas court-circuiter les discussions fascinantes et de grande envergure sur ce qui se passe continuellement dans toutes les formes de médias et de conversations. Tout le monde, des philosophes aux linguistes en passant par les ingénieurs, les hackers, les barmans et les pompiers, se demande et débat sur ce que sont vraiment « l’intelligence » et le « langage », et si quelque chose comme ChatGPT les possède.

Ceci est incroyable! Et j’ai déjà beaucoup appris alors que certaines des personnes les plus intelligentes de cet espace profitent de leur moment au soleil, tandis que de la bouche de filles comparatives viennent de nouvelles perspectives.

Mais en même temps, il y a beaucoup à trier autour d’une bière ou d’un café quand quelqu’un demande « et tous ces trucs GPT, un peu effrayant à quel point l’IA devient intelligente, non? » Par où commencer — avec Aristote, le Turc mécanique, le perceptron ou « L’attention est tout ce dont vous avez besoin » ?

Au cours de l’une de ces discussions, j’ai trouvé une approche simple qui, selon moi, aide les gens à comprendre pourquoi ces systèmes peuvent être à la fois vraiment cool et totalement non fiables, tout en ne soustrayant rien du tout à leur utilité dans certains domaines et aux conversations étonnantes qui se déroulent autour eux. J’ai pensé que je le partagerais au cas où vous trouveriez la perspective utile lorsque vous en parlerez avec d’autres personnes curieuses et sceptiques qui ne veulent néanmoins pas entendre parler de vecteurs ou de matrices.

Il n’y a que trois choses à comprendre, qui conduisent à une conclusion naturelle :

  1. Ces modèles sont créés en leur faisant observer les relations entre les mots et les phrases, etc., dans un énorme ensemble de données de texte, puis en construisant leur propre carte statistique interne de la façon dont tous ces millions et millions de mots et de concepts sont associés et corrélés. Personne n’a dit, c’est un nom, c’est un verbe, c’est une recette, c’est un procédé rhétorique ; mais ce sont des choses qui apparaissent naturellement dans les modes d’utilisation.
  2. Ces modèles n’apprennent pas spécifiquement à répondre aux questions, contrairement aux éditeurs de logiciels familiers comme Google et Apple qui appellent l’IA depuis une décennie. Ceux sont essentiellement des Mad Libs avec les blancs menant aux API : chaque question est soit prise en compte, soit produit une réponse générique. Avec les grands modèles de langage, la question n’est qu’une suite de mots comme les autres.
  3. Ces modèles ont une qualité expressive fondamentale de « confiance » dans leurs réponses. Dans un exemple simple d’IA de reconnaissance de chat, cela irait de 0, ce qui signifie que ce n’est pas un chat, à 100, ce qui signifie que c’est un chat. Vous pouvez lui dire de dire « oui, c’est un chat » s’il a une confiance de 85 ou 90, selon ce qui produit votre métrique de réponse préférée.

Donc, compte tenu de ce que nous savons sur le fonctionnement du modèle, voici la question cruciale : en quoi est-il sûr à propos? Il ne sait pas ce qu’est un chat ou une question, seulement les relations statistiques trouvées entre les nœuds de données dans un ensemble d’apprentissage. Une modification mineure aurait permis au détecteur de chat d’être tout aussi sûr que l’image montrait une vache, le ciel ou une nature morte. Le modèle ne peut pas avoir confiance en sa propre « connaissance », car il n’a aucun moyen d’évaluer réellement le contenu des données sur lesquelles il a été formé.

L’IA exprime à quel point il est sûr que sa réponse semble correct à l’utilisateur.

C’est vrai pour le détecteur de chat, et c’est vrai pour GPT-4 – la différence est une question de longueur et de complexité de la sortie. L’IA ne peut pas faire la distinction entre une bonne et une mauvaise réponse – elle peut seulement faire une prédiction de quelle est la probabilité une série de mots doit être acceptée comme correcte. C’est pourquoi il doit être considéré comme la connerie la plus informée au monde plutôt qu’une autorité sur n’importe quel sujet. Il ne sait même pas qu’il vous raconte des conneries – il a été formé pour produire une réponse qui ressemble statistiquement à une bonne réponseet il dira quoi que ce soit pour améliorer cette ressemblance.

L’IA ne connaît la réponse à aucune question, car elle ne comprend pas la question. Il ne sait pas quelles sont les questions. Il ne « sait » rien ! La réponse suit la question car, en extrapolant à partir de son analyse statistique, cette série de mots est la plus susceptible de suivre la série de mots précédente. Que ces mots se réfèrent à des lieux réels, des personnes, des emplacements, etc. n’est pas important – seulement qu’ils sont comme des vrais.

C’est la même raison pour laquelle l’IA peut produire une peinture de type Monet qui n’est pas un Monet – tout ce qui compte, c’est qu’elle possède toutes les caractéristiques qui amènent les gens à identifier une œuvre d’art comme la sienne. L’IA d’aujourd’hui se rapproche des réponses factuelles comme elle se rapprocherait des « nénuphars ».

Maintenant, je m’empresse d’ajouter que ce n’est pas un concept original ou révolutionnaire – c’est fondamentalement une autre façon d’expliquer le perroquet stochastique ou la pieuvre sous-marine. Ces problèmes ont été identifiés très tôt par des personnes très intelligentes et représentent une excellente raison de lire largement les commentaires sur les questions techniques.

Mais dans le contexte des systèmes de chatbot d’aujourd’hui, je viens de découvrir que les gens comprennent intuitivement cette approche : les modèles ne comprennent pas les faits ou les concepts, mais les relations entre les mots, et ses réponses sont une « impression d’artiste » d’une réponse. Leur but, au fond, c’est de combler le vide de manière convaincantepas correctement. C’est la raison pour laquelle ses réponses ne sont fondamentalement pas fiables.

Bien sûr parfois, même la plupart du temps, sa réponse est correct! Et ce n’est pas un hasard : pour de nombreuses questions, la réponse qui semble la plus correcte est la bonne réponse. C’est ce qui rend ces modèles si puissants et dangereux. Il y a tellement, tellement de choses que vous pouvez extraire d’une étude systématique de millions de mots et de documents. Et contrairement à la recréation exacte des « Nénuphars », il y a une flexibilité dans le langage qui permet à une approximation d’une réponse factuelle d’être également factuelle – mais aussi de faire apparaître une réponse totalement ou partiellement inventée de manière égale ou plus. La seule chose dont l’IA se soucie, c’est que la réponse scanne correctement.

Cela laisse la porte ouverte à des discussions sur la question de savoir s’il s’agit vraiment de connaissances, ce que les modèles « comprennent », s’ils ont atteint une certaine forme d’intelligence, ce qu’est même l’intelligence, etc. Apportez le Wittgenstein!

De plus, cela laisse également ouverte la possibilité d’utiliser ces outils dans des situations où la vérité n’est pas vraiment une préoccupation. Si vous souhaitez générer cinq variantes d’un paragraphe d’ouverture pour contourner le blocage de l’écrivain, une IA peut être indispensable. Si vous voulez inventer une histoire sur deux animaux en voie de disparition, ou écrire un sonnet sur Pokémon, allez-y. Tant qu’il n’est pas crucial que la réponse reflète la réalité, un grand modèle linguistique est un partenaire volontaire et capable – et ce n’est pas une coïncidence, c’est là que les gens semblent s’amuser le plus avec.

Il est très, très difficile de prédire où et quand l’IA se trompe car les modèles sont trop volumineux et opaques. Imaginez un catalogue sur fiches de la taille d’un continent, organisé et mis à jour sur une période de cent ans par des robots, à partir de principes premiers qu’ils ont imaginés à la volée. Vous pensez que vous pouvez simplement entrer et comprendre le système ? Il donne une bonne réponse à une question difficile et une mauvaise réponse à une question facile. Pourquoi? À l’heure actuelle, c’est une question à laquelle ni l’IA ni ses créateurs ne peuvent répondre.

Cela pourrait bien changer à l’avenir, peut-être même dans un avenir proche. Tout va si vite et de façon imprévisible que rien n’est certain. Mais pour le moment, c’est un modèle mental utile à garder à l’esprit : l’IA veut que vous y croyiez et dira n’importe quoi pour améliorer ses chances.

Source-146