Illustration par Dilek BaykaraVoiture et chauffeur
Extrait du numéro de septembre 2022 de Voiture et chauffeur.
Début juin, Blake Lemoine, un ingénieur de Google travaillant sur l’intelligence artificielle, a fait la une des journaux en affirmant que le programme de chat Language Model for Dialogue Applications (LaMDA) de l’entreprise était conscient de lui-même. Lemoine a partagé des transcriptions de sa conversation avec LaMDA qui, selon lui, prouvent qu’il a une âme et doit être traité comme un collègue plutôt qu’un outil. Les collègues ingénieurs n’étaient pas convaincus, tout comme moi. J’ai lu les transcriptions; l’IA parle comme un stoner ennuyeux lors d’une soirée universitaire, et je suis sûr que ces gars manquaient de conscience de soi. L’interprétation de Lemoine est tout de même compréhensible. Si quelque chose parle de ses espoirs et de ses rêves, alors dire qu’il n’en a pas semble sans cœur.
Pour le moment, nos voitures ne se soucient pas de savoir si vous êtes gentil avec elles. Même s’il est mal de les laisser sales, de leur permettre d’avoir des coups de porte ou de les faire fonctionner avec un indice d’octane de 87, aucun impact émotionnel n’est prélevé. Vous pouvez payer plus à un mécanicien, mais pas à un thérapeute. Les alertes des produits Honda Sensing et Hyundai/Kia indiquant que la voiture qui précède commence à bouger et les commandes du système de navigation d’une Mercedes lorsque vous manquez trois virages d’affilée ne sont pas des signes que le véhicule devient vexé. Tout sentiment qu’il y a une urgence accrue pour les avertissements clignotants ou un changement de ton est une pure imagination de la part du conducteur. Attribuer des émotions à nos voitures est facile, avec leurs proportions quadrupèdes, leur compagnie stable et leurs visages aux yeux impatients. Mais ils n’ont pas de sentiments, pas même les mignons comme Austin-Healey Sprites.
Comment faire du moteur avec les bonnes manières
Que se passera-t-il quand ils le feront ? Une voiture qui manque de carburant déclarera-t-elle qu’elle a trop faim pour continuer, même lorsque vous êtes en retard en classe et qu’il y a suffisamment d’émanations pour y arriver ? Que se passe-t-il si votre voiture tombe amoureuse de la BMW du voisin ou, pire, entame une querelle avec la Ford de l’autre voisin ? Pouvez-vous vous retrouver avec une voiture effrayante, une qui n’ira pas dans les mauvaises zones ou dans le désert après la tombée de la nuit ? Si oui, pouvez-vous le forcer à partir? Peut-on être cruel avec une voiture ?
« Vous allez jusqu’au bout », déclare Mois Navon, professeur d’éthique technologique à l’Université Ben Gourion du Néguev à Beersheba, en Israël. Navon souligne que les tentatives de création de conscience dans l’IA remontent à des décennies, et malgré les pensées de Lemoine et mes envolées fantaisistes, nous sommes loin d’avoir des ordinateurs avec de vrais sentiments. « Une voiture n’exige pas notre miséricorde si elle ne peut pas ressentir de la douleur et du plaisir », dit-il. Sur le plan éthique, nous n’avons donc pas à nous soucier des sentiments d’une voiture, mais Navon dit que notre comportement envers les objets anthropomorphes peut se refléter plus tard dans notre comportement envers les créatures vivantes. « Un de mes amis vient d’acheter une Alexa », dit-il. « Il m’a demandé s’il devait dire » s’il vous plaît « . J’ai dit: » Ouais, parce que c’est à propos de vous, pas de la machine, de la pratique de demander comme une personne décente. «
Paul Leonardi n’est pas d’accord, non pas avec l’idée de se comporter comme une personne décente, mais avec l’idée de converser avec nos véhicules comme s’ils étaient sensibles. Leonardi est co-auteur de L’état d’esprit numérique, un guide pour comprendre le rôle de l’IA dans les affaires et la technologie. Il pense que traiter une machine comme une personne crée des attentes irréalistes quant à ce qu’elle peut faire. Leonardi craint que si nous parlons à une voiture comme KITT de Knight Rider, nous nous attendons à ce qu’elle soit capable de résoudre les problèmes comme KITT l’a fait pour Michael. « Actuellement, l’IA n’est pas assez sophistiquée pour que vous puissiez dire ‘Qu’est-ce que je fais ?’ et cela pourrait suggérer d’activer le turbo boost », explique Leonardi.
Comprenant mon besoin de tout réduire à la télévision des années 80, il suggère que nous nous entraînions plutôt à parler à notre IA comme Picard de Star Trek, avec « des instructions claires et explicites ». J’ai compris. « Audi, thé, Earl Grey, chaud. » Et juste au cas où Lemoine aurait raison : « S’il vous plaît. »