La thérapie par chatbot est risquée. Ce n’est pas non plus inutile.

Je n’ai pas trouvé de thérapeute lorsque j’ai d’abord eu l’impression d’en avoir besoin, ni lorsque j’ai finalement trouvé l’énergie de commencer à faire des recherches sur Google pour les thérapeutes qui exercent près de chez moi. Je ne l’ai pas trouvé des mois plus tard, lorsque, après avoir jeté un coup d’œil aux résultats de mon test de dépression, mon médecin a repoussé son prochain rendez-vous, a consulté une liste de thérapeutes et m’a aidé à leur envoyer des e-mails pour leur demander s’ils prenaient de nouveaux patients. Ce n’est qu’un an plus tard que ma recherche de thérapeute a pris fin grâce à un ami qui partait en déménagement et qui m’a donné le nom de la personne qui la traitait. J’ai eu de la chance : mon travail à temps plein comprenait une assurance-santé. J’habitais dans une zone où il y avait beaucoup de professionnels de la santé mentale, et j’avais les moyens de considérer des thérapeutes qui étaient hors réseau. Beaucoup de gens qui essaient d’obtenir des soins de santé mentale le font sans aucun des outils institutionnels, sociaux ou financiers dont je disposais. Ce manque d’accès, alimenté par une crise de santé mentale à l’échelle nationale et par un manque de thérapeutes aux États-Unis – sans parler d’un système de soins de santé qui peut, pour beaucoup, rendre extrêmement difficile de trouver un fournisseur en réseau – est un problème qui nécessite des solutions urgentes. Comme pour tout problème de ce type, il y a des gens qui disent que la solution est la technologie. Entrez en jeu l’IA. Alors que les chatbots génératifs IA se sont déployés auprès d’un large éventail d’utilisateurs, certains ont commencé à utiliser des outils multipurposes tels que ChatGPT comme thérapeutes. Vice a interrogé quelques-uns de ces utilisateurs plus tôt cette année, notant que les rapports anecdotiques de personnes qui louaient leurs expériences avec des chatbots avaient fait le tour des médias sociaux. Un Redditor a même écrit un guide pour « jailbreaker » ChatGPT afin de contourner les contraintes du chatbot en matière de fourniture de conseils en matière de santé mentale. Mais ChatGPT n’a pas été conçu pour être le thérapeute de quiconque. Il n’est pas soumis aux exigences de confidentialité ou de responsabilité qui encadrent la pratique et l’éthique des thérapeutes humains. Si les conséquences d’un chatbot, disons, sont la fabrication d’une source pour un article de recherche, celles-ci ne sont pas aussi graves que les dommages potentiels causés par un chatbot fournissant des conseils médicaux dangereux ou inexacts à quelqu’un atteint d’une grave maladie mentale.

Share the Post: