La thérapie par chatbot est risquée. Elle n’est pas non plus inutile.

Je n’ai pas trouvé de thérapeute lorsque j’ai ressenti pour la première fois que j’en aurais peut-être besoin, ni lorsque j’ai enfin trouvé l’énergie pour commencer à chercher sur Google des thérapeutes ayant des cabinets près de chez moi. Je n’en ai pas trouvé des mois plus tard, lorsque, après avoir jeté un coup d’œil aux résultats de mon dépistage de la dépression, mon médecin a reporté son prochain rendez-vous, a sorti une liste de thérapeutes et m’a aidé à leur envoyer des courriels pour leur demander s’ils acceptaient de nouveaux patients. Il a fallu un an avant que ma recherche de thérapeute se termine grâce à une amie qui déménageait et qui m’a donné le nom de la personne qui la traitait. J’ai eu de la chance : mon travail à temps plein incluait une assurance maladie. J’habitais dans une région avec de nombreux professionnels de la santé mentale, et j’avais les moyens de considérer des thérapeutes qui n’étaient pas dans mon réseau. Beaucoup de personnes cherchant des soins de santé mentale le font sans avoir aucune ressource institutionnelle, sociale ou financière comme moi. Ce manque d’accès, alimenté par une crise nationale de la santé mentale et une pénurie de thérapeutes aux États-Unis – sans parler d’un système de soins de santé qui rend extrêmement difficile pour beaucoup de trouver un fournisseur dans leur réseau – est un problème qui nécessite des solutions urgentes. Comme pour tout problème de ce genre, il y a des gens qui disent que la solution réside dans la technologie. Voici l’IA. Alors que les chatbots d’IA générative sont devenus accessibles à un plus large éventail d’utilisateurs, certains ont commencé à utiliser des outils polyvalents disponibles comme ChatGPT en tant que thérapeutes. Vice a parlé à certains de ces utilisateurs plus tôt cette année, notant que des témoignages de personnes faisant l’éloge de leurs expériences avec des chatbots s’étaient répandus sur les réseaux sociaux. Un Redditor a même rédigé un guide pour « déverrouiller » ChatGPT afin de contourner les garde-fous du chatbot contre la fourniture de conseils en santé mentale. Mais ChatGPT n’est pas conçu pour être le thérapeute de qui que ce soit. Il n’est pas soumis aux exigences de confidentialité et de responsabilité qui guident la pratique et l’éthique des thérapeutes humains. Alors qu’il y a des conséquences lorsque qu’un chatbot, par exemple, invente une source pour un article de recherche, ces conséquences ne sont pas aussi graves que les préjudices potentiels causés par un chatbot qui fournit des conseils médicaux dangereux ou inexacts à une personne atteinte d’un problème de santé mentale grave.

Share the Post: