Les chatbots promettent un avenir qui n’arrivera jamais

Converser avec votre ordinateur est le rêve des futuristes et des technologues depuis des décennies. Quand on regarde l’état de l’art en 2004, il est stupéfiant de voir le chemin parcouru. Nous avons désormais des milliards d’appareils entre nos mains et des foyers qui écoutent nos requêtes et font de leur mieux pour y répondre. Mais malgré tout le temps, l’argent et les efforts, les chatbots de tous bords n’ont pas englouti le monde comme leurs créateurs l’avaient prévu. Ils sont miraculeux. Ils sont aussi ennuyeux. Et cela vaut la peine de se demander pourquoi.

Chatbot est un terme couvrant de nombreux systèmes, des assistants vocaux à l’IA et tout le reste. Parler à votre ordinateur dans le mauvais vieux temps signifiait taper dans une fenêtre et regarder la machine tenter de reproduire l’acte de conversation plutôt que la réalité. La vieille astuce d’ELIZA (1964 à 1967) consistant à reformuler les entrées des utilisateurs sous la forme d’une question a contribué à vendre cette performance. Et cela a continué jusqu’au chatbot SmarterChild de 2001. L’autre branche de ce travail consistait à numériser l’analogique avec des moteurs de conversion voix-texte, comme le produit frustrant mais parfois merveilleux de Nuance.

En 2011, les idées de ces premiers travaux se sont réunies pour créer Siri pour l’iPhone 4S, qui a été discrètement construit sur le travail de Nuance. Le fondateur d’Amazon, Jeff Bezos, a vu très tôt la promesse de Siri et a lancé un vaste projet interne pour en faire un concurrent local. En 2014, Alexa est arrivée, suivie par Cortana et Google Assistant les années suivantes. L’informatique en langage naturel était désormais disponible sur d’innombrables smartphones et appareils domestiques intelligents.

Les entreprises sont largement réticentes à donner des précisions sur le prix de la construction de nouveaux projets, mais le dialogue s’avère coûteux. Forbes a rapporté en 2011 que l’achat de la startup derrière Siri avait coûté 200 millions de dollars à Apple. En 2018, Le journal de Wall Street a cité Dave Limp, qui a déclaré que l’équipe Alexa d’Amazon comptait plus de 10 000 employés. UN Interne du milieu des affaires Une histoire de 2022 suggère que la société a imputé plus de 10 milliards de dollars de pertes au développement d’Alexa. L’année dernière, L’information a affirmé qu’Apple dépensait désormais un million de dollars par jour pour le développement de l’IA.

Alors, à quoi sert cette technologie coûteuse ? Allumer et éteindre nos ampoules intelligentes, écouter de la musique, répondre à la sonnette et peut-être obtenir les résultats sportifs. Dans le cas de l’IA, vous obtenez peut-être des résultats de recherche sur le Web mal résumés (ou une image de sujets humains avec trop de doigts). Vous n’avez certainement pas beaucoup de conversation significative ni d’extraction de données vitales de ces choses. Parce que dans presque tous les cas, sa compréhension est nulle et il a du mal à comprendre les nuances du discours humain. Et ce n’est pas isolé. En 2021, Bloomberg a rapporté des données internes d’Amazon indiquant que jusqu’à un quart des acheteurs cessent complètement d’utiliser leur unité Alexa au cours de la deuxième semaine après en avoir possédé une.

L’objectif souvent cité a été de rendre ces plateformes intelligentes sur le plan conversationnel, en répondant à vos questions et en répondant à vos commandes. Mais même s’il peut assez bien faire certaines choses de base, comme comprendre quand vous lui demandez d’éteindre vos lumières, tout le reste n’est pas aussi fluide. Le langage naturel fait croire aux utilisateurs que les systèmes sont plus sophistiqués qu’ils ne le sont en réalité. Ainsi, lorsque vient le temps de poser une question complexe, vous avez plus de chances d’obtenir les premières lignes d’une page Wikipédia, érodant ainsi toute confiance dans leur capacité à faire plus que jouer de la musique ou faire tourner le thermostat.

L’hypothèse est que les IA génératives intégrées à ces interfaces en langage naturel résoudront tous les problèmes actuellement associés à la voix. Et oui, d’une part, ces systèmes seront plus à même de mimer une conversation réaliste et d’essayer de vous donner ce que vous demandez. Mais d’un autre côté, quand on regarde ce qui ressort de l’autre côté, c’est souvent du charabia. Ces systèmes font des gestes vers des interactions au niveau de la surface, mais ne peuvent rien faire de plus substantiel. N’oublie pas quand Sports illustrés a essayé d’utiliser du contenu généré par l’IA qui affirmait avec audace que le volleyball pouvait être « difficile à pratiquer, surtout sans un véritable ballon avec lequel s’entraîner ». Il n’est pas étonnant qu’un si grand nombre de ces systèmes le soient, comme Bloomberg signalé l’année dernière, soutenu par un travail humain sous-payé.

Bien sûr, les boosters du formulaire suggèrent qu’il n’en est qu’à ses débuts et, comme l’a dit récemment le PDG d’OpenAI, Sam Altman, nous avons encore besoin de milliards de dollars en recherche et développement supplémentaires sur les puces. Mais cela tourne en dérision des décennies de développement et des milliards de dollars déjà dépensés pour arriver là où nous en sommes aujourd’hui. Mais ce n’est pas seulement l’argent liquide ou les jetons qui est en cause : l’année dernière, Le New York Times a rapporté que la demande d’énergie de l’IA à elle seule pourrait monter en flèche jusqu’à 134 térawattheures par an d’ici 2027. Compte tenu de la nécessité urgente de réduire la consommation d’énergie et de rendre les choses plus efficaces, cela n’augure rien de bon ni pour l’avenir de son développement ni pour notre avenir. planète.

Nous avons eu 20 ans de développement, mais les chatbots n’ont toujours pas pris le succès escompté. Au début, c’était simplement parce qu’ils avaient du mal à comprendre ce que nous voulions, mais même si cela était résolu, les accepterions-nous soudainement ? Après tout, le problème sous-jacent demeure : nous ne faisons tout simplement pas confiance à ces plateformes, à la fois parce que nous n’avons aucune confiance en leur capacité à faire ce que nous leur demandons et à cause des motivations de leurs créateurs.

L’un des exemples les plus durables d’informatique en langage naturel dans la fiction, et souvent cité par les créateurs du monde réel, est l’ordinateur de Star Trek : La prochaine génération. Mais même là, avec un assistant vocal qui semble posséder quelque chose de proche de l’intelligence générale, on ne lui fait pas confiance pour diriger le navire tout seul. Un membre d’équipage siège toujours à chaque poste, exécutant les ordres du capitaine et accomplissant généralement la mission. Même dans un avenir si avancé qu’il est exempt de besoins matériels, les êtres ont toujours soif de sensation de contrôle.


Bannière du 20e anniversaire d'Engadget

Célébrer 20ème anniversaire d’Engadgetretour sur les produits et services qui ont changé l’industrie depuis le 2 mars 2004.

Cet article contient des liens d’affiliation ; si vous cliquez sur un tel lien et effectuez un achat, nous pouvons gagner une commission.

Source-145