La grande idée : faut-il s’inquiéter de l’intelligence artificielle ? | Livres

EDepuis que Garry Kasparov a perdu son deuxième match d’échecs contre Deep Blue d’IBM en 1997, l’écriture est sur le mur pour l’humanité. Ou alors certains aiment à le penser. Les progrès de l’intelligence artificielle conduiront – selon certaines estimations, dans quelques décennies seulement – au développement de machines surintelligentes et sensibles. Les films de The Terminator à The Matrix ont décrit cette perspective comme plutôt indésirable. Mais est-ce autre chose qu’un autre « Project Fear » de science-fiction ?

Inscrivez-vous à notre newsletter Inside Saturday pour un aperçu exclusif des coulisses de la réalisation des plus grands articles du magazine, ainsi qu’une liste organisée de nos faits saillants hebdomadaires.

Une certaine confusion est causée par deux utilisations très différentes de l’expression intelligence artificielle. Le premier sens est essentiellement marketing : tout ce que fait un logiciel informatique qui semble intelligent ou utilement réactif – comme Siri – est censé utiliser « l’IA ». Le second sens, auquel le premier emprunte son éclat, pointe vers un avenir qui n’existe pas encore, des machines aux intellects surhumains. C’est ce qu’on appelle parfois AGI, pour Intelligence Artificielle Générale.

Comment pouvons-nous y arriver à partir d’ici, en supposant que nous le voulions? L’IA moderne utilise l’apprentissage automatique (ou l’apprentissage en profondeur) : plutôt que de programmer directement des règles dans la machine, nous lui permettons d’apprendre par elle-même. Ainsi, AlphaZero, l’entité de jeu d’échecs créée par la firme britannique Esprit profond (maintenant partie de Google), a joué des millions de matchs d’entraînement contre lui-même, puis a battu son principal concurrent. Plus récemment, AlphaFold 2 de Deepmind a été salué comme une étape importante dans le domaine biologique du « repliement des protéines », ou de la prédiction des formes exactes des structures moléculaires, qui pourraient aider à concevoir de meilleurs médicaments.

L’apprentissage automatique fonctionne en entraînant la machine sur de grandes quantités de données – des images pour les systèmes de reconnaissance d’images ou des téraoctets de prose extraits d’Internet pour des robots qui génèrent des essais semi-plausibles, tels que GPT2. Mais les ensembles de données ne sont pas simplement des référentiels neutres d’informations ; ils encodent souvent les préjugés humains de manière imprévue. Récemment, l’algorithme du fil d’actualités de Facebook a demandé aux utilisateurs qui avaient vu une vidéo d’actualité mettant en scène des hommes noirs s’ils voulaient «continuez à voir des vidéos sur les primates”. La soi-disant « IA » est déjà utilisée dans plusieurs États américains pour prédire si candidats à la libération conditionnelle récidivera, les critiques affirmant que les données sur lesquelles les algorithmes sont entraînés reflètent un biais historique dans le maintien de l’ordre.

Les systèmes informatisés (comme dans les pilotes automatiques d’avions) peuvent être une aubaine pour les humains, de sorte que les défauts de l' »IA » existante ne sont pas en eux-mêmes des arguments contre le principe de concevoir des systèmes intelligents pour nous aider dans des domaines tels que le diagnostic médical. Le problème sociologique le plus difficile est que l’adoption de jugements basés sur des algorithmes est un moyen tentant de renvoyer la balle, de sorte qu’aucun blâme ne soit imputé aux responsables humains – qu’il s’agisse de juges, de médecins ou d’entrepreneurs technologiques. Les robots prendront-ils tous les emplois ? Ce même cadrage renvoie la balle parce que la vraie question est de savoir si les gestionnaires licencieront tous les humains.

Le problème existentiel, quant à lui, est le suivant : si les ordinateurs finissent par acquérir une sorte d’intelligence consciente de soi au niveau de Dieu – quelque chose qui est explicitement dans l’énoncé de mission de Deepmind, par exemple (« notre objectif à long terme est de résoudre l’intelligence » et de construire un AGI) – seront-ils toujours aussi désireux de rendre service ? Si nous construisons quelque chose d’aussi puissant, nous ferions mieux d’être sûrs qu’il ne se retournera pas contre nous. Pour les personnes sérieusement préoccupées par cela, l’argument est que, puisqu’il s’agit d’un problème potentiellement au niveau de l’extinction, nous devrions consacrer des ressources maintenant à le combattre. Le philosophe Nick Bostrom, qui dirige le Future of Humanity Institute de l’Université d’Oxford, déclare que les humains qui essaient de construire l’IA sont « comme des enfants qui jouent avec une bombe », et que la perspective de la sensibilité des machines est une plus grande menace pour l’humanité que le réchauffement climatique. Son livre Superintelligence de 2014 est séminal. Une véritable IA, suggère-t-il, pourrait fabriquer secrètement du gaz neurotoxique ou des nanobots pour détruire ses fabricants inférieurs à base de viande. Ou il pourrait simplement nous garder dans un zoo planétaire pendant qu’il s’occupe de ses véritables affaires.

L’IA n’aurait pas besoin d’être activement malveillante pour provoquer une catastrophe. Ceci est illustré par le fameux « problème du trombone » de Bostrom. Supposons que vous demandiez à l’IA de fabriquer des trombones. Quoi de plus ennuyeux ? Malheureusement, vous avez oublié de lui dire quand arrêter faire des trombones. Ainsi, il transforme toute la matière sur Terre en trombones, après avoir d’abord désactivé son interrupteur d’arrêt, car se laisser éteindre l’empêcherait de poursuivre son noble objectif de fabriquer des trombones.

C’est un exemple du « problème de contrôle » général, sujet de l’excellent Human Compatible: AI and the Problem of Control du pionnier de l’IA Stuart Russell, qui soutient qu’il est impossible de spécifier complètement un objectif que nous pourrions donner à une machine superintelligente afin d’empêcher des malentendus aussi désastreux. Dans sa Vie 3.0 : Être humain à l’ère de l’intelligence artificielle, le physicien Max Tegmark, co-fondateur du Institut du futur de la vie (c’est cool d’avoir un institut pour l’avenir de quelque chose de nos jours), met l’accent sur le problème de « l’alignement des valeurs » – comment s’assurer que les valeurs de la machine correspondent aux nôtres. Cela aussi pourrait être un problème insoluble, étant donné que des milliers d’années de philosophie morale n’ont pas suffi à l’humanité pour se mettre d’accord sur ce que sont réellement « nos valeurs ».

D’autres observateurs, cependant, restent flegmatiques. Dans Novacene, le scientifique non-conformiste et théoricien de Gaia James Lovelock soutient que les humains devraient simplement être joyeux si nous pouvons inaugurer les machines intelligentes comme la prochaine étape logique de l’évolution, puis nous retirer gracieusement une fois que nous nous sommes rendus obsolètes. Dans ses 12 derniers octets, Jeanette Winterson est d’un optimisme rafraîchissant, supposant que toute future IA sera au moins « démotivée par la cupidité et l’accaparement des terres, la recherche de statut et la violence qui caractérisent Homo sapiens ». Comme l’informaticien Drew McDermott suggéré dans un article d’aussi loin que 1976, peut-être qu’après tout nous avons moins à craindre de l’intelligence artificielle que de la bêtise naturelle.

Lectures complémentaires

Compatible avec les humains : l’IA et le problème du contrôle par Stuart Russell (Pingouin, 10,99 £)

Life 3.0 : Être humain à l’ère de l’intelligence artificielle par Max Tegmark (Pingouin, 10,99 £)

12 octets : comment nous l’avons eure, Où pourrions-nous aller ensuite par Jeannette Winterson (Jonathan Cape, 16,99 £)

source site-3