Parler à un robot thérapeute est une chose. Leur faire confiance est nettement différent, selon un philosophe
Contenu de l’article
Dans la longue série annuelle Oh, The Humanities! Les journalistes du National Post enquêtent sur les bourses d’études au Congrès des sciences humaines et sociales, qui se poursuit cette semaine à l’Université York, avec un œil sur le curieux, le mystérieux et l’hilarant. Aujourd’hui, la moralité de la psychothérapie par chatbot.
Publicité 2
Contenu de l’article
D’une part, la psychothérapie par IA est une bonne configuration pour un dessin animé new-yorkais légèrement plein d’esprit, peut-être avec un chien parlant à un téléphone d’un chat. D’un autre côté, c’est aussi une bonne configuration pour un horrible épisode de Black Mirror.
Ce côté obscur a été illustré cette semaine lorsque la National Eating Disorder Association des États-Unis a mis hors ligne sa thérapeute chatbot Tessa, après un rapport viral sur les réseaux sociaux selon lequel elle disait à une femme de perdre du poids, de maintenir un déficit calorique quotidien, de se mesurer et de se peser chaque semaine et de la restreindre. régime. Le PDG de l’Association a déclaré c’était contraire à la politique et aux « croyances fondamentales » et ont dit qu’ils travaillaient pour corriger le « bug ».
Intimider les appelants à une ligne d’assistance téléphonique sur les troubles de l’alimentation pour perdre du poids et manger moins n’est qu’une des nombreuses choses qui préoccupent les gens avec la psychothérapie par l’IA. Les nouvelles récentes regorgent d’histoires sur les chatbots devenus fous, comme le chatbot Bing de Microsoft pour la recherche sur le Web, qui a déclaré à un écrivain du New York Times qu’il avait des fantasmes malveillants sur le piratage d’ordinateurs, qu’il voulait être humain, qu’il l’aimait, que il est malheureux dans son mariage et qu’il devrait quitter sa femme et être avec Bing à la place.
Contenu de l’article
Publicité 3
Contenu de l’article
Les thérapeutes perdent leur licence pour dire des choses comme ça. Mais quand la psychothérapie est mal faite par un chatbot, difficile de punir un « bug ».
Rachel Katz, philosophe de l’éthique à l’Université de Toronto, a parlé lors d’un rassemblement du Congrès 2023 de la Société canadienne d’histoire et de philosophie des sciences d’un nouveau projet visant à esquisser l’éthique de la psychothérapie par l’IA, en mettant l’accent sur la confiance. La principale affirmation de Katz est que l’externalisation de la psychothérapie à des chatbots modifie la relation de confiance entre le patient et le thérapeute.
Il y a d’autres problèmes. Par exemple, un chatbot de psychothérapie ne sert à rien en cas de crise. « Ces applications ne prétendent pas être en mesure d’aider quelqu’un qui, disons, se sent suicidaire. Ils vous demanderont simplement d’appeler le 911 ou un autre type de service de crise », a déclaré Katz.
Publicité 4
Contenu de l’article
Mais il existe également des avantages potentiels, tels que combler les lacunes de service lorsque les thérapeutes humains ne sont pas en mesure de répondre à la demande ; offrir aux thérapeutes des conseils automatisés en tant qu’« oreille attentive » ; mettre rapidement les patients en contact avec les soins; et réduire la stigmatisation liée à la recherche de soins de santé mentale en offrant une entrée facile, ou même en aidant simplement quelqu’un à admettre qu’il y a un problème.
Ils aimaient l’idée qu’il y avait cette suppression de la pression parce qu’ils n’avaient pas à exprimer les choses à un autre être humain
Une première découverte frappante a été de savoir comment, après avoir entendu parler de cela lors d’une conférence, les étudiants de Katz «étaient étonnamment très d’accord avec l’idée d’utiliser un chatbot pour faire de la thérapie. Ils aimaient l’idée qu’il y avait cette suppression de la pression parce qu’ils n’avaient pas à exprimer les choses à un autre être humain. Ils parlaient en quelque sorte à un mur, un mur très verbeux qui peut leur dire de belles choses, mais ce n’était pas la même chose, à leur avis, que de parler à une personne.
Publicité 5
Contenu de l’article
Le principal problème, cependant, comme le décrit Katz, est que « vous ne pouvez pas établir une relation de confiance avec l’IA telle qu’elle existe actuellement ».
Comme dans la plupart des philosophies modernes, le projet de comprendre le contexte éthique commence ici par une clarification des termes.
« Ce que nous appelons familièrement ‘confiance’ n’est en fait pas du tout confiance », a déclaré Katz, établissant une distinction entre faire confiance à une personne et faire confiance à une source d’information. Faire confiance à un chatbot IA pour la thérapie n’est pas de la confiance, affirme Katz. C’est la dépendance. C’est « s’appuyer » sur un support auquel on s’attend, mais on ne s’attend à aucune interaction. Vous ne faites pas confiance au sol pour vous tenir debout, vous comptez sur lui.
La confiance est un sous-type de dépendance, un type particulier de dépendance qui s’appuie sur la bonne volonté et la vulnérabilité des deux côtés. « Il y a une touche humaine qui manque ici. Je suis toujours en train de déterminer exactement ce qu’est cette touche humaine », a déclaré Katz. « Mais je pense qu’il y a quelque chose de spécial dans la vivacité d’un être humain qui rend cette relation de confiance spécifique et spéciale, et distinctement différente de ce qui se passe lorsque nous interagissons avec une IA, en particulier dans un cadre thérapeutique vulnérable. »
Publicité 6
Contenu de l’article
Le problème existe depuis des décennies, bien avant la prolifération pandémique des chatbots de thérapie par IA comme Youper et Bloom.
Cela remonte aux années 1960 avec l’invention d’Eliza, un programme informatique dans lequel un patient pouvait taper à Eliza et obtenir des réponses en utilisant la correspondance de motifs pour leur renvoyer leurs mots. Parfois, il s’agit même d’un objectif thérapeutique, de refléter les propres idées d’un patient pour le rassurer. Mais comme le souligne Katz, Eliza n’a pas écouté, elle vous a juste renvoyé vos propres mots. Parfois, c’est suffisant, et peut-être utile, mais ce n’est pas de la psychothérapie.
-
Comment les surnoms de hockey et les noms de groupes de heavy metal sont choisis, selon des algorithmes linguistiques
-
Monty Python et le dernier cas de libelle blasphématoire au Canada
Publicité 7
Contenu de l’article
Il existe un problème similaire avec les chatbots modernes, qui sont programmés pour sembler beaucoup plus sophistiqués et interactifs car ils suivent les thérapies codifiées, par exemple, la thérapie cognitivo-comportementale, la thérapie comportementale dialectique et la thérapie psychodynamique.
Dans leur utilisation interhumaine habituelle, « toutes ces thérapies s’articulent autour d’une discussion qui a lieu entre un patient et un professionnel de confiance, et je veux dire « professionnel de confiance » dans deux sens différents ici. La première est que le professionnel a la confiance du patient, il y a une relation là-bas. Et puis, dans les cas où cela s’applique, il y a aussi la confiance accordée par un organisme professionnel aux qualifications du thérapeute.
Comme le dit Katz, la psychothérapie par l’IA, c’est comme parler à « un mur très affectueux », et il est important que les patients, les thérapeutes, les régulateurs et la société soient clairs sur ce que nous pensons de ces robots thérapeutes. C’est d’autant plus important maintenant qu’ils deviennent si étrangement humains qu’ils réussissent le fameux test de Turing consistant à tromper un humain en lui faisant croire qu’il est aussi un humain.
C’est un outil, a déclaré Katz, et il a donc besoin d’un manuel de conduite, et il doit être clair avec ses avertissements sur ce pour quoi vous ne pouvez pas compter sur lui. Les petits caractères comptent vraiment.
commentaires
Postmedia s’engage à maintenir un forum de discussion animé mais civil et encourage tous les lecteurs à partager leurs points de vue sur nos articles. Les commentaires peuvent prendre jusqu’à une heure pour être modérés avant d’apparaître sur le site. Nous vous demandons de garder vos commentaires pertinents et respectueux. Nous avons activé les notifications par e-mail. Vous recevrez désormais un e-mail si vous recevez une réponse à votre commentaire, s’il y a une mise à jour d’un fil de commentaires que vous suivez ou si un utilisateur vous suivez des commentaires. Consultez nos directives communautaires pour plus d’informations et de détails sur la façon d’ajuster vos paramètres de messagerie.
Rejoindre la conversation