Mai est le mois de la sensibilisation à la santé mentale et bien que prendre soin de notre santé mentale ne soit plus un sujet tabou, cela peut coûter très cher ou nécessiter des mois sur une liste d’attente. L’intelligence artificielle ne battra pas un thérapeute qualifié ou un professionnel de la santé mentale (alors s’il vous plaît parler à quelqu’un (s’ouvre dans un nouvel onglet) si possible) mais les goûts de ChatGPT peuvent être en mesure de fournir un palliatif utile.
ChatGPT vous implorera toujours de rechercher une aide professionnelle et, si vous y êtes invité, propose une liste générique de techniques utiles. C’est similaire à la façon dont une recherche Google fonctionnerait, mais le sens aigu de la conversation du logiciel d’OpenAI pourrait être une véritable aide pour la thérapie par la parole. Des approches spécifiques, telles que la thérapie cognitivo-comportementale (TCC), peuvent également bénéficier d’une infusion d’IA.
Cela ne fonctionnera peut-être pas pour tout le monde, mais même l’illusion d’avoir une conversation sur la santé mentale pourrait permettre aux gens de s’ouvrir et de se faire soigner. Certaines personnes peuvent même préférer le fait que parler à une IA signifie qu’elles n’ont pas à avouer leurs pensées et leurs sentiments à un autre humain.
À tout le moins, cela pourrait être un moyen utile de «faire le plein» entre les séances de thérapie professionnelle.
Utilisations potentielles de l’IA conversationnelle en thérapie
OpenAI n’a pas affirmé que ChatGPT avait des qualifications thérapeutiques, mais peut-être qu’un groupe de santé mentale pourrait utiliser un plugin ChatGPT pour former l’IA sur des pratiques certifiées et offrir des réponses de niveau professionnel.
À l’adolescence, j’ai suivi une thérapie CBT et un aspect important pour moi consistait à modéliser des situations qui me causaient de l’anxiété. L’un de mes plus gros problèmes était d’utiliser les transports en commun, ce que je fais maintenant tous les jours. On me demandait régulièrement d’imaginer la situation qui me rendait anxieux, par exemple : acheter un ticket de bus, puis le mettre en scène avec mon thérapeute. L’IA pourrait exceller dans cette situation, offrant aux patients un moyen de modéliser des situations sociales sans la pression de vrais yeux sur eux.
L’un des processus de pensée négatifs souvent cités dans la TCC est catastrophique – en supposant que le pire résultat possible est inévitable. En pratiquant une tâche telle que l’achat d’un billet de bus, même avec l’IA, les patients pourraient développer la confiance nécessaire pour l’essayer dans la vraie vie, puis contester ce processus de pensée négative avec leurs propres preuves.
Zones d’inquiétude
L’IA peut aider certains, mais elle doit être utilisée avec prudence. Beaucoup peuvent avoir l’impression que le fait d’être traité avec une IA montre qu’ils ne valent même pas le temps de quelqu’un. Ce n’est absolument pas le cas, mais une impression facile à obtenir.
Le traitement de l’IA suscite des inquiétudes, même de la part de ceux qui utilisent actuellement la technologie. Une entreprise, Wysa, possède un chatbot pingouin alimenté par l’IA qui veille au bien-être de ses plus de 5 millions d’utilisateurs. Mais même son fondateur Ramakant Vempati a déclaré à AlJazeera (s’ouvre dans un nouvel onglet): « Nous n’utilisons pas de texte génératif, nous n’utilisons pas de modèles génératifs. Il s’agit d’un dialogue construit, donc le script est pré-écrit et validé grâce à un ensemble de données de sécurité critiques, que nous avons testé pour les réponses des utilisateurs. L’impact potentiel d’une IA ouverte comme ChatGPT sortant du script et encourageant le mauvais point de vue ou donnant de mauvais conseils pourrait être très dangereux.
Bien sûr, en matière d’émotion, une réponse générée par ordinateur ne sera jamais aussi bonne qu’une réponse humaine. L’intelligence artificielle peut être intelligente, mais les gens ont besoin de sentiments de validation et d’empathie pour établir une relation avec un autre humain sous la forme d’un thérapeute. Les professionnels sont formés pour repérer les risques et les signaux d’alarme potentiels qui seraient souvent presque impossibles à faire pour une machine.
Dans l’état actuel des choses, l’IA pourrait être un outil utile pour notre santé mentale, mais seulement si elle est complétée et recommandée par des professionnels. Cela pourrait changer à l’avenir mais, pour l’instant, il n’y a pas de bonne réponse.