Frapper les livres : pourquoi un professeur de Dartmouth a inventé le terme « intelligence artificielle »

Si le Wu-Tang l’avait produit en 23 au lieu de 93, ils l’auraient appelé DREAM – parce que les données régissent tout ce qui m’entoure. Là où autrefois notre société négociait le pouvoir en fonction de la force de nos bras et de nos cordons de bourse, le monde moderne est guidé par des algorithmes permettant aux données de nous trier, de nous isoler et de nous vendre. Ces oracles de la boîte noire de la prise de décision impérieuse et imperceptible daignent qui obtient des prêts immobiliers, qui obtient une caution, qui trouve l’amour et qui se fait retirer leurs enfants par l’État.

Dans leur nouveau livre, Comment les données sont arrivées : une histoire de l’ère de la raison à l’ère des algorithmes, qui s’appuie sur leur programme d’études existant, les professeurs Chris Wiggins et Matthew L Jones de l’Université Columbia examinent comment les données sont transformées en informations exploitables et utilisées pour tout façonner, de nos opinions politiques et mœurs sociales à nos réponses militaires et activités économiques. Dans l’extrait ci-dessous, Wiggins et Jones examinent le travail du mathématicien John McCarthy, le professeur junior de Dartmouth qui a inventé à lui seul le terme « intelligence artificielle »… dans le cadre de son stratagème pour obtenir un financement de recherche d’été.

WW Norton

Extrait de Comment les données sont arrivées : une histoire de l’ère de la raison à l’ère des algorithmes de Chris Wiggins et Matthew L Jones. Publié par WW Norton. Copyright © 2023 par Chris Wiggins et Matthew L Jones. Tous les droits sont réservés.


Confectionner « l’Intelligence Artificielle »

Fervent défenseur des approches symboliques, le mathématicien John McCarthy est souvent crédité d’avoir inventé le terme « intelligence artificielle », y compris par lui-même : « J’ai inventé le terme intelligence artificielle, explique-t-il, lorsque nous essayions d’obtenir de l’argent pour un été. étude » pour viser « l’objectif à long terme d’atteindre le niveau d’intelligence humaine ». L’« étude d’été » en question s’intitulait « Le projet de recherche d’été de Dartmouth sur l’intelligence artificielle », et le financement demandé provenait de la Fondation Rockefeller. À l’époque professeur junior de mathématiques à Dartmouth, McCarthy a été aidé dans sa présentation à Rockefeller par son ancien mentor Claude Shannon. Comme McCarthy décrit le positionnement du terme, « Shannon pensait que l’intelligence artificielle était un terme trop flashy et pourrait attirer un avis défavorable. » Cependant, McCarthy a voulu éviter le chevauchement avec le domaine existant des «études d’automates» (y compris les «réseaux nerveux» et les machines de Turing) et a pris position pour déclarer un nouveau domaine. « Alors j’ai décidé de ne plus faire voler de faux drapeaux. » L’ambition était énorme ; la proposition de 1955 affirmait que « chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut en principe être décrit avec une telle précision qu’une machine peut être conçue pour le simuler ». McCarthy s’est retrouvé avec plus de modélisateurs du cerveau que de mathématiciens axiomatiques du genre qu’il voulait lors de la réunion de 1956, connue sous le nom de Dartmouth Workshop. L’événement a vu la réunion d’efforts divers et souvent contradictoires pour faire en sorte que les ordinateurs numériques effectuent des tâches considérées comme intelligentes, mais comme le soutient l’historien de l’intelligence artificielle Jonnie Penn, l’absence d’expertise psychologique à l’atelier signifiait que le récit de l’intelligence était « informé principalement par un ensemble de spécialistes travaillant en dehors des sciences humaines. Chaque participant voyait différemment les racines de son entreprise. McCarthy s’est souvenu, « quiconque était là était assez têtu à poursuivre les idées qu’il avait avant son arrivée, et il n’y avait pas non plus, pour autant que je puisse voir, de véritable échange d’idées. »

Comme l’article de Turing de 1950, la proposition de 1955 d’un atelier d’été sur l’intelligence artificielle semble rétrospectivement incroyablement prémonitoire. Les sept problèmes que McCarthy, Shannon et leurs collaborateurs se sont proposés d’étudier sont devenus des piliers majeurs de l’informatique et du domaine de l’intelligence artificielle :

  1. « Ordinateurs automatiques » (langages de programmation)

  2. « Comment un ordinateur peut-il être programmé pour utiliser un langage » (traitement du langage naturel)

  3. « Neuron Nets » (réseaux de neurones et apprentissage profond)

  4. « Théorie de la taille d’un calcul » (complexité de calcul)

  5. « Auto-​amélioration » (apprentissage automatique)

  6. « Abstractions » (ingénierie des fonctionnalités)

  7. « Aléatoire et Créativité » (méthodes de Monte Carlo incluant l’apprentissage stochastique).

Le terme « intelligence artificielle », en 1955, était une aspiration plutôt qu’un engagement envers une méthode. L’IA, dans ce sens large, impliquait à la fois de découvrir ce qui comprend l’intelligence humaine en tentant de créer une intelligence artificielle, ainsi qu’un effort moins lourd sur le plan philosophique simplement pour amener les ordinateurs à effectuer des activités difficiles qu’un humain pourrait tenter.

Seules quelques-unes de ces aspirations ont alimenté les efforts qui, dans l’usage courant, sont devenus synonymes d’intelligence artificielle : l’idée que les machines peuvent apprendre à partir des données. Parmi les informaticiens, l’apprentissage à partir des données serait négligé pendant des générations.

La majeure partie du premier demi-siècle de l’intelligence artificielle s’est concentrée sur la combinaison de la logique avec des connaissances codées en dur dans des machines. Les données recueillies à partir des activités quotidiennes n’étaient guère au centre des préoccupations; il pâlissait de prestige à côté de la logique. Au cours des cinq dernières années environ, l’intelligence artificielle et l’apprentissage automatique ont commencé à être utilisés comme synonymes ; c’est un puissant exercice de réflexion pour se rappeler qu’il n’était pas nécessaire qu’il en soit ainsi. Pendant les premières décennies de la vie de l’intelligence artificielle, apprendre à partir des données semblait être la mauvaise approche, une approche non scientifique, utilisée par ceux qui n’étaient pas disposés à « simplement programmer » les connaissances dans l’ordinateur. Avant que les données ne règnent, les règles existaient.

Malgré tout leur enthousiasme, la plupart des participants à l’atelier de Dartmouth ont apporté peu de résultats concrets avec eux. Un groupe était différent. Une équipe de la RAND Corporation, dirigée par Herbert Simon, avait apporté la marchandise, sous la forme d’un démonstrateur de théorème automatisé. Cet algorithme pourrait produire des preuves de théorèmes arithmétiques et logiques de base. Mais les mathématiques n’étaient qu’un test pour eux. Comme l’a souligné l’historien Hunter Heyck, ce groupe est moins parti de l’informatique ou des mathématiques que de l’étude de la manière de comprendre les grandes organisations bureaucratiques et la psychologie des personnes qui résolvent les problèmes en leur sein. Pour Simon et Newell, les cerveaux humains et les ordinateurs étaient des résolveurs de problèmes du même genre.

Notre position est que la manière appropriée de décrire un comportement de résolution de problèmes est en termes de programme : une spécification de ce que l’organisme fera dans des circonstances environnementales variables en termes de certains processus d’information élémentaires qu’il est capable d’effectuer. Les ordinateurs numériques n’interviennent que parce qu’ils peuvent, par une programmation appropriée, être amenés à exécuter les mêmes séquences de processus d’information que les humains exécutent lorsqu’ils résolvent des problèmes. Par conséquent, comme nous le verrons, ces programmes décrivent à la fois la résolution de problèmes humains et machine au niveau des processus d’information.

Bien qu’ils aient fourni bon nombre des premiers succès majeurs de l’intelligence artificielle précoce, Simon et Newell se sont concentrés sur une enquête pratique sur l’organisation des humains. Ils s’intéressaient à la résolution de problèmes humains qui mélangeait ce que Jonnie Penn appelle un « composite de la logique symbolique britannique du début du XXe siècle et de la logique administrative américaine d’une organisation hyper-rationalisée ». Avant d’adopter le surnom d’IA, ils ont positionné leur travail comme l’étude des «systèmes de traitement de l’information» comprenant des humains et des machines, qui s’appuyaient sur la meilleure compréhension du raisonnement humain de l’époque.

Simon et ses collaborateurs ont été profondément impliqués dans les débats sur la nature des êtres humains en tant qu’animaux raisonnants. Simon a ensuite reçu le prix Nobel d’économie pour ses travaux sur les limites de la rationalité humaine. Il s’est préoccupé, aux côtés d’une foule d’intellectuels d’après-guerre, de réfuter l’idée que la psychologie humaine devrait être comprise comme une réaction animale à des stimuli positifs et négatifs. Comme d’autres, il a rejeté une vision comportementaliste de l’humain comme mu par des réflexes, presque automatiquement, et que l’apprentissage concernait principalement l’accumulation de faits acquis grâce à une telle expérience. De grandes capacités humaines, comme parler une langue naturelle ou faire des mathématiques avancées, ne pouvaient jamais émerger uniquement de l’expérience – elles exigeaient beaucoup plus. Se concentrer uniquement sur les données, c’était méconnaître la spontanéité et l’intelligence humaines. Cette génération d’intellectuels, au cœur du développement des sciences cognitives, privilégie l’abstraction et la créativité à l’analyse des données, sensorielles ou autres. L’historien Jamie Cohen-​Cole explique : « Apprendre n’était pas tant un processus d’acquisition de faits sur le monde que de développement d’une compétence ou d’une maîtrise d’un outil conceptuel qui pouvait ensuite être déployé de manière créative. » Cet accent mis sur le conceptuel était au cœur du programme Logic Theorist de Simon et Newell, qui ne se contentait pas de passer par des processus logiques, mais déployait des «heuristiques» de type humain pour accélérer la recherche des moyens d’atteindre les fins. Des universitaires tels que George Pólya qui enquêtaient sur la façon dont les mathématiciens résolvaient les problèmes avaient souligné la créativité impliquée dans l’utilisation de l’heuristique pour résoudre des problèmes mathématiques. Les mathématiques n’étaient donc pas une corvée – ce n’était pas comme faire beaucoup de longues divisions ou réduire de grandes quantités de données. C’était une activité créatrice – et, aux yeux de ses créateurs, un rempart contre les visions totalitaires de l’être humain, qu’elles soient de gauche ou de droite. (Et il en va de même pour la vie dans une organisation bureaucratique – il n’est pas nécessaire que ce soit une corvée dans cette image – cela pourrait être un lieu de créativité. Ne le dites pas à ses employés.)

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation. Tous les prix sont corrects au moment de la publication.

Source-145