La thérapie par chatbot est risquée. Elle n’est pas non plus inutile.

Je n’ai pas trouvé de thérapeute lorsque j’ai d’abord ressenti que j’en avais peut-être besoin, ni lorsque j’ai finalement trouvé l’énergie pour commencer à chercher des thérapeutes près de chez moi sur Google. Je n’en ai pas trouvé un mois plus tard, lorsque, après avoir jeté un coup d’œil aux résultats de mon dépistage de la dépression, mon médecin a retardé son prochain rendez-vous, a sorti une liste de thérapeutes et m’a aidé à leur envoyer des courriels pour savoir s’ils acceptaient de nouveaux patients. Il aura fallu un an avant que ma recherche de thérapeute se termine, grâce à une amie qui déménageait et qui m’a donné le nom de la personne qui l’avait traitée. J’ai eu de la chance : mon emploi à plein temps incluait une assurance santé. J’habitais dans une région avec de nombreux professionnels de la santé mentale, et j’avais les moyens de considérer des thérapeutes qui n’étaient pas dans mon réseau. Beaucoup de personnes qui cherchent des soins de santé mentale le font sans aucune ressource institutionnelle, sociale ou financière comme celles dont je disposais. Ce manque d’accès, alimenté par une crise nationale de santé mentale et une pénurie de thérapeutes aux États-Unis – sans parler d’un système de soins de santé qui peut rendre extrêmement difficile de trouver un fournisseur dans le réseau – est un problème qui nécessite des solutions de toute urgence. Comme pour tout problème de ce genre, il y a des gens qui disent que la solution réside dans la technologie. Voici l’IA. Alors que les chatbots d’IA générative sont devenus accessibles à un plus grand nombre d’utilisateurs, certains ont commencé à utiliser des outils polyvalents tels que ChatGPT comme thérapeutes. Vice a interrogé certains de ces utilisateurs plus tôt cette année, notant que des rapports anecdotiques de personnes faisant l’éloge de leurs expériences avec des chatbots s’étaient répandus sur les réseaux sociaux. Un utilisateur de Reddit a même écrit un guide pour « jailbreaker » ChatGPT afin de contourner les limitations du chatbot en matière de conseils en santé mentale. Mais ChatGPT n’est pas conçu pour être le thérapeute de qui que ce soit. Il n’est pas soumis aux exigences de confidentialité ou de responsabilité qui guident l’exercice et l’éthique des thérapeutes humains. Alors qu’il y a des conséquences lorsque qu’un chatbot, par exemple, invente une source pour un document de recherche, ces conséquences ne sont pas aussi graves que les dommages potentiels causés par un chatbot qui fournit des conseils médicaux dangereux ou inexacts à une personne souffrant d’un trouble de santé mentale grave.

Share the Post: