Frapper les livres : pourquoi nous devons traiter les robots de demain comme des outils

Ne vous laissez pas influencer par les douces tonalités des IA de demain et leurs chants de sirène de la singularité. Peu importe à quel point les intelligences artificielles et les androïdes peuvent ressembler et agir comme des humains, ils ne seront jamais réellement être humains, affirment Paul Leonardi, Duca Family Professor of Technology Management à l’Université de Californie à Santa Barbara, et Tsedal Neeley, Naylor Fitzhugh Professor of Business Administration à la Harvard Business School, dans leur nouveau livre L’état d’esprit numérique : ce qu’il faut vraiment pour prospérer à l’ère des données, des algorithmes et de l’IA – et ne doivent donc pas être traités comme des humains. La paire soutient dans l’extrait ci-dessous que, ce faisant, cela entrave l’interaction avec la technologie de pointe et entrave son développement ultérieur.

Harvard Business Review Presse

Réimprimé avec la permission de Harvard Business Review Press. Extrait de L’ÉTAT D’ESPRIT NUMÉRIQUE : ce qu’il faut vraiment pour prospérer à l’ère des données, des algorithmes et de l’IA de Paul Leonardi et Tsedal Neeley. Droits d’auteur 2022 Harvard Business School Publishing Corporation. Tous les droits sont réservés.


Traitez l’IA comme une machine, même si elle semble agir comme un humain

Nous sommes habitués à interagir avec un ordinateur de manière visuelle : des boutons, des listes déroulantes, des curseurs et d’autres fonctionnalités nous permettent de donner des commandes à l’ordinateur. Cependant, les progrès de l’IA déplacent notre interaction avec les outils numériques vers des interactions plus naturelles et plus humaines. Ce qu’on appelle une interface utilisateur (UI) conversationnelle donne aux gens la possibilité d’agir avec des outils numériques en écrivant ou en parlant, c’est beaucoup plus la façon dont nous interagissons avec d’autres personnes, comme la « conversation » de Burt Swanson avec Amy l’assistante. Lorsque vous dites « Hey Siri », « Hello Alexa » et « OK Google », c’est une interface utilisateur conversationnelle. La croissance des outils contrôlés par des interfaces utilisateur conversationnelles est stupéfiante. Chaque fois que vous appelez un numéro 800 et qu’on vous demande d’épeler votre nom, de répondre « Oui » ou de dire les quatre derniers chiffres de votre numéro de sécurité sociale, vous interagissez avec une IA qui utilise une interface utilisateur conversationnelle. Les bots conversationnels sont devenus omniprésents en partie parce qu’ils ont un bon sens commercial, et en partie parce qu’ils nous permettent d’accéder aux services de manière plus efficace et plus pratique.

Par exemple, si vous avez réservé un voyage en train via Amtrak, vous avez probablement interagi avec un chatbot IA. Son nom est Julie et il répond chaque année à plus de 5 millions de questions de plus de 30 millions de passagers. Vous pouvez réserver un voyage en train avec Julie simplement en disant où vous allez et quand. Julie peut pré-remplir des formulaires sur l’outil de planification d’Amtrak et fournir des conseils tout au long du processus de réservation. Amtrak a vu un retour de 800 % sur son investissement dans Julie. Amtrak économise plus d’un million de dollars en dépenses de service à la clientèle chaque année en utilisant Julie pour répondre aux questions prévisibles de bas niveau. Les réservations ont augmenté de 25 % et les réservations effectuées via Julie génèrent 30 % de revenus supplémentaires par rapport aux réservations effectuées via le site Web, car Julie excelle dans la vente incitative !

L’une des raisons du succès de Julie est qu’Amtrak indique clairement aux utilisateurs que Julie est un agent d’IA, et ils vous expliquent pourquoi ils ont décidé d’utiliser l’IA plutôt que de vous connecter directement avec un humain. Cela signifie que les gens s’y orientent comme une machine, et non par erreur comme un humain. Ils n’en attendent pas trop et ont tendance à poser des questions de manière à obtenir des réponses utiles. La décision d’Amtrak peut sembler contre-intuitive, car de nombreuses entreprises essaient de faire passer leurs chatbots pour de vraies personnes et il semblerait qu’interagir avec une machine comme s’il s’agissait d’un humain devrait être précisément la façon d’obtenir les meilleurs résultats. Un état d’esprit numérique nécessite un changement dans la façon dont nous pensons à notre relation avec les machines. Même s’ils deviennent plus humains, nous devons les considérer comme des machines, nécessitant des instructions explicites et se concentrant sur des tâches étroites.

x.ai, la société qui a créé le planificateur de réunions Amy, vous permet de planifier une réunion au travail ou d’inviter un ami au match de basket de vos enfants en envoyant simplement un e-mail à Amy (ou à son homologue Andrew) avec votre demande comme s’il s’agissait d’un assistant personnel en direct. Pourtant, Dennis Mortensen, PDG de l’entreprise, observe que plus de 90 % des demandes reçues par le service d’assistance de l’entreprise sont liées au fait que les gens essaient d’utiliser le langage naturel avec les bots et ont du mal à obtenir de bons résultats.

C’est peut-être pour cette raison que programmer une simple réunion avec une nouvelle connaissance devenait si ennuyeux pour le professeur Swanson, qui essayait sans cesse d’utiliser des expressions familières et des conventions issues de conversations informelles. En plus de la façon dont il parlait, il a fait de nombreuses hypothèses parfaitement valables sur son interaction avec Amy. Il a supposé qu’Amy pouvait comprendre ses contraintes d’horaire et qu ‘«elle» serait en mesure de discerner quelles étaient ses préférences à partir du contexte de la conversation. Swanson était informel et décontracté – le bot ne comprend pas ça. Il ne comprend pas que lorsque vous demandez du temps à une autre personne, surtout si elle vous rend service, il n’est pas efficace de changer fréquemment ou soudainement la logistique de la réunion. Il s’avère qu’il est plus difficile qu’on ne le pense d’interagir avec désinvolture avec un robot intelligent.

Les chercheurs ont validé l’idée que traiter les machines comme des machines fonctionne mieux que d’essayer d’être humain avec elles. Clifford Nass, professeur à Stanford, et Youngme Moon, professeur à la Harvard Business School, ont mené une série d’études dans lesquelles des personnes ont interagi avec des interfaces informatiques anthropomorphes. (L’anthropomorphisme, ou l’attribution d’attributs humains à des objets inanimés, est un problème majeur dans la recherche sur l’IA.) Ils ont constaté que les individus ont tendance à abuser des catégories sociales humaines, en appliquant des stéréotypes de genre aux ordinateurs et en s’identifiant ethniquement aux agents informatiques. Leurs résultats ont également montré que les gens présentent des comportements sociaux sur-appris tels que la politesse et la réciprocité envers les ordinateurs. Il est important de noter que les gens ont tendance à adopter ces comportements – en traitant les robots et autres agents intelligents comme s’ils étaient des personnes – même lorsqu’ils savent qu’ils interagissent avec des ordinateurs plutôt qu’avec des humains. Il semble que notre impulsion collective à entrer en relation avec les gens se glisse souvent dans notre interaction avec les machines.

Ce problème de confondre les ordinateurs avec les humains est aggravé lors de l’interaction avec des agents artificiels via des interfaces utilisateur conversationnelles. Prenons par exemple une étude que nous avons menée avec deux entreprises qui utilisaient des assistants IA qui fournissaient des réponses aux requêtes commerciales de routine. L’un a utilisé une IA anthropomorphisée qui ressemblait à un humain. L’autre non.

Les travailleurs de l’entreprise qui utilisaient l’agent anthropomorphique se mettaient régulièrement en colère contre l’agent lorsque celui-ci ne renvoyait pas de réponses utiles. Ils disaient régulièrement des choses comme « Il craint ! » ou « Je m’attendrais à ce qu’il fasse mieux » en se référant aux résultats donnés par la machine. Plus important encore, leurs stratégies pour améliorer les relations avec la machine reflétaient les stratégies qu’ils utiliseraient avec d’autres personnes au bureau. Ils posaient leur question plus poliment, ils reformulaient en des mots différents, ou ils essayaient de planifier stratégiquement leurs questions pour le moment où ils pensaient que l’agent serait, selon les termes d’une personne, « pas si occupé ». Aucune de ces stratégies n’a été particulièrement efficace.

En revanche, les travailleurs de l’autre entreprise ont déclaré être beaucoup plus satisfaits de leur expérience. Ils ont tapé les termes de recherche comme s’il s’agissait d’un ordinateur et ont énoncé les choses en détail pour s’assurer qu’une IA, qui ne pouvait pas « lire entre les lignes » et saisir les nuances, tiendrait compte de leurs préférences. Le deuxième groupe a régulièrement fait remarquer à quel point ils étaient surpris lorsque leurs requêtes étaient renvoyées avec des informations utiles ou même surprenantes et ils ont noté tous les problèmes liés aux bogues typiques d’un ordinateur.

Dans un avenir prévisible, les données sont claires : traiter les technologies – peu importe à quel point elles semblent humaines ou intelligentes – comme des technologies est la clé du succès lors de l’interaction avec des machines. Une grande partie du problème est qu’ils définissent les attentes des utilisateurs en ce qu’ils réagiront de manière humaine, et ils nous font supposer qu’ils peuvent déduire nos intentions, alors qu’ils ne peuvent faire ni l’un ni l’autre. Interagir avec succès avec une interface utilisateur conversationnelle nécessite un état d’esprit numérique qui comprend que nous sommes encore loin d’une interaction efficace de type humain avec la technologie. Reconnaître qu’un agent d’IA ne peut pas déduire avec précision vos intentions signifie qu’il est important de préciser chaque étape du processus et d’être clair sur ce que vous voulez accomplir.

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation.

Source-145