La thérapie par chatbot comporte des risques. Elle n’est pas non plus inutile.

Je n’ai pas trouvé de thérapeute lorsque j’ai ressenti pour la première fois que j’en avais peut-être besoin, ni lorsque j’ai enfin trouvé l’énergie pour commencer à chercher des thérapeutes ayant des bureaux près de chez moi. Je n’en ai pas trouvé des mois plus tard, lorsque, après avoir jeté un coup d’œil aux résultats de mon dépistage de la dépression, mon médecin a retardé son prochain rendez-vous, a dressé une liste de thérapeutes et m’a aidé à leur envoyer des courriels pour savoir s’ils acceptaient de nouveaux patients. Il a fallu un an avant que ma recherche d’un thérapeute ne se termine grâce à une amie qui déménageait et qui m’a donné le nom de la personne qui la traitait. J’ai eu de la chance : mon travail à plein temps incluait une assurance santé. J’habitais dans une région avec de nombreux professionnels de la santé mentale, et j’avais les moyens de considérer des thérapeutes qui étaient en dehors du réseau. Beaucoup de personnes qui cherchent des soins en santé mentale le font sans aucune ressource institutionnelle, sociale ou financière que j’avais. Ce manque d’accès, alimenté par une crise nationale de santé mentale et une pénurie de thérapeutes aux États-Unis, sans parler d’un système de soins de santé qui peut, pour beaucoup, rendre extrêmement difficile la recherche d’un fournisseur réseau, est un problème qui nécessite des solutions de toute urgence. Comme pour tout problème de ce genre, il y a des gens qui disent que la solution est la technologie. Entrez l’IA. À mesure que les chatbots AI génératifs sont devenus accessibles à un plus large éventail d’utilisateurs, certains ont commencé à utiliser des outils polyvalents disponibles tels que ChatGPT comme thérapeutes. Vice a interrogé certains de ces utilisateurs plus tôt cette année, soulignant que des rapports anecdotiques de personnes faisant l’éloge de leurs expériences avec des chatbots s’étaient répandus via les médias sociaux. Un utilisateur de Reddit a même rédigé un guide pour « jailbreaker » ChatGPT afin de contourner les contrôles du chatbot visant à empêcher la fourniture de conseils en santé mentale. Mais ChatGPT n’est pas conçu pour être le thérapeute de quelqu’un. Il n’est pas soumis aux exigences de confidentialité ou de responsabilité qui guident la pratique et l’éthique des thérapeutes humains. Alors qu’il y a des conséquences lorsque un chatbot, par exemple, invente une source pour un travail de recherche, ces conséquences sont bien moins graves que les dommages potentiels causés par un chatbot fournissant des conseils médicaux dangereux ou inexactes à une personne atteinte d’une grave maladie mentale.

Share the Post: