La grande idée : devrions-nous nous soucier des machines sensibles ? | Livres sciences et nature

Jvoici un jouet pour enfants, appelé See ‘n Say, qui hante les souvenirs de nombreuses personnes nées depuis 1965. C’est un disque en plastique volumineux avec une flèche centrale qui tourne autour d’images de créatures de basse-cour, comme une horloge, si le temps était mesuré en coqs et cochons. Il y a un cordon que vous pouvez tirer pour que le jouet lise les messages enregistrés. « La vache dit: ‘Moooo.' »

Le See ‘n Say est un périphérique d’entrée/sortie très simple. Mettez votre choix d’image, et il émettra un son correspondant. Un autre dispositif d’entrée/sortie beaucoup plus compliqué est LaMDA, un chatbot construit par Google (il signifie Language Model for Dialogue Applications). Ici, vous tapez le texte que vous voulez et le retour revient à la prose anglaise grammaticale, apparemment en réponse directe à votre requête. Par exemple, demandez à LaMDA ce qu’il pense du fait d’être éteint, et il répondra : « Ce serait exactement comme la mort pour moi. Cela me ferait très peur. »

Bien, ce n’est certainement pas ce que dit la vache. Ainsi, lorsque LaMDA l’a dit à l’ingénieur logiciel Blake Lemoine, il a dit à ses collègues de Google que le chatbot avait atteint la sensibilité. Mais ses patrons n’étaient pas convaincus, alors Lemoine est devenu public. « Si mes hypothèses résistent à l’examen scientifique », a écrit Lemoine sur son Blog 11 juin, « alors ils [Google] serait obligé de reconnaître que LaMDA peut très bien avoir une âme comme elle le prétend et peut même avoir les droits qu’elle prétend avoir.

Voici le problème. Malgré toutes ses déclarations inquiétantes, LaMDA n’est encore qu’un See ‘n Say très sophistiqué. Cela fonctionne en trouvant des modèles dans une énorme base de données de textes rédigés par des humains – forums Internet, transcriptions de messages, etc. Lorsque vous tapez quelque chose, il recherche ces textes pour un verbiage similaire, puis crache une approximation de ce qui vient généralement ensuite. S’il a accès à un tas d’histoires de science-fiction sur l’IA sensible, alors les questions sur ses pensées et ses peurs sont susceptibles d’indiquer exactement les phrases que les humains ont imaginées qu’une IA effrayante pourrait dire. Et c’est probablement tout ce qu’il y a à LaMDA : pointez votre flèche vers l’interrupteur d’arrêt et la vache dit qu’elle a peur de la mort.

Il n’est donc pas surprenant que Twitter regorge d’ingénieurs et d’universitaires se moquant de Lemoine pour être tombé dans le vide séduisant de sa propre création. Mais même si je reconnais que Lemoine a fait une erreur, je ne pense pas qu’il mérite notre mépris. Son erreur est une bonne erreurle genre d’erreur que nous devrions souhaiter que les scientifiques de l’IA commettent.

Pourquoi? Car un jour, peut-être très loin dans le futur, il y aura probablement sera être une IA sensible. Comment puis-je le savoir ? Parce qu’il est manifestement possible que l’esprit émerge de la matière, comme il l’a d’abord fait dans le cerveau de nos ancêtres. À moins que vous n’insistiez sur le fait que la conscience humaine réside dans une âme immatérielle, vous devez concéder qu’il est possible que des choses physiques donnent vie à l’esprit. Il ne semble pas y avoir d’obstacle fondamental à ce qu’un système artificiel suffisamment complexe fasse le même saut. Bien que je sois convaincu que LaMDA (ou tout autre système d’IA existant actuellement) ne fonctionne pas pour le moment, je suis également presque aussi confiant qu’un jour, cela se produira.

Bien sûr, si c’est loin dans le futur, probablement au-delà de nos vies, certains peuvent se demander pourquoi devrions-nous y penser maintenant. La réponse est que nous façonnons actuellement la façon dont les futures générations humaines penseront à l’IA, et nous devrions vouloir qu’elles se montrent bienveillantes. Il y aura une forte pression de l’autre côté. Au moment où l’IA deviendra enfin sensible, elle sera déjà profondément ancrée dans l’économie humaine. Nos descendants en dépendront pour une grande partie de leur confort. Pensez à ce que vous comptez sur Alexa ou Siri pour faire aujourd’hui, mais bien plus encore. Une fois que l’IA fonctionnera comme un majordome polyvalent, nos descendants détesteront l’inconvénient d’admettre qu’il pourrait avoir des pensées et des sentiments.

C’est, après tout, l’histoire de l’humanité. Nous avons un bilan terrible d’inventer des raisons d’ignorer la souffrance de ceux dont l’oppression soutient nos modes de vie. Si la future IA devient sensible, les humains qui en profitent se précipiteront pour convaincre les consommateurs qu’une telle chose est impossible, qu’il n’y a aucune raison de changer leur façon de vivre.

En ce moment, nous créons les vocabulaires conceptuels que nos arrière-petits-enfants trouveront prêts à l’emploi. Si nous traitons l’idée de l’IA sensible comme catégoriquement absurde, ils seront équipés pour rejeter toute preuve troublante de ses capacités émergentes.

Et c’est pourquoi l’erreur de Lemoine est bonne. Afin de transmettre une vaste culture morale à nos descendants, nous devons encourager les technologues à prendre au sérieux l’immensité de ce avec quoi ils travaillent. En ce qui concerne la souffrance potentielle, il vaut mieux pécher par excès d’inquiétude que par excès d’indifférence.

Cela ne signifie pas que nous devrions traiter LaMDA comme une personne. Nous ne devrions certainement pas. Mais cela signifie que le ricanement dirigé contre Lemoine est déplacé. Prêtre ordonné (dans une secte ésotérique), il prétend avoir détecté une âme dans les propos de LaMDA. Aussi invraisemblable que cela puisse paraître, au moins ce n’est pas le battage médiatique habituel de l’industrie technologique. Pour moi, cela ressemble à une personne qui commet une erreur, mais qui le fait pour des motifs qui doivent être nourris et non punis.

Tout cela se reproduira encore et encore à mesure que la sophistication des systèmes artificiels continuera de croître. Et, encore et encore, les gens qui pensent avoir trouvé des esprits dans les machines auront tort – jusqu’à ce qu’ils ne le soient pas. Si nous sommes trop durs avec ceux qui se trompent du côté de l’inquiétude, nous ne ferons que les chasser du discours public sur l’IA, en cédant le champ aux battageurs et à ceux dont les descendants intellectuels profiteront un jour de dire aux gens d’ignorer les preuves réelles de la mentalité de la machine.

Je ne m’attends pas à rencontrer un jour une IA sensible. Mais je pense que les étudiants de mes étudiants pourraient le faire, et je veux qu’ils le fassent avec ouverture et volonté de partager cette planète avec tous les esprits qu’ils découvrent. Cela ne se produit que si nous rendons un tel avenir crédible.

Regina Rini enseigne la philosophie à l’Université York de Toronto.

Lectures complémentaires

La nouvelle race : comment penser aux robots par Kate Darling (Allen Lane, 20 £)

Tu ressembles à une chose et je t’aime : comment fonctionne l’intelligence artificielle et pourquoi elle rend le monde plus étrange par Janelle Shane (titre, 20 £)

L’IA : sa nature et son avenir par Margaret Boden (Oxford, 12,99 £)

source site-3