« La thérapie par chatbot est risquée. Ce n’est pas inutile non plus. »

Je n’ai pas trouvé de thérapeute lorsque j’ai ressenti pour la première fois que j’en avais peut-être besoin, ni lorsque j’ai enfin trouvé l’énergie de commencer à rechercher sur Google les thérapeutes ayant des cabinets près de chez moi. Je n’en ai pas trouvé un des mois plus tard lorsque, après avoir jeté un coup d’œil aux résultats de mon dépistage de la dépression, mon médecin a retardé son prochain rendez-vous, a dressé une liste de thérapeutes et m’a aidé à leur envoyer des emails pour demander s’ils acceptaient de nouveaux patients. Il s’est écoulé un an avant que ma recherche de thérapeute ne prenne fin grâce à une amie qui déménageait et qui m’a donné le nom de la personne qui la traitait. J’ai eu de la chance : mon travail à plein temps comprenait une assurance santé. Je vivais dans une région avec de nombreux professionnels de la santé mentale, et j’avais les moyens de considérer des thérapeutes qui n’étaient pas en réseau. De nombreuses personnes essayant d’obtenir des soins de santé mentale le font sans aucune des ressources institutionnelles, sociales ou financières dont je disposais. Ce manque d’accès, alimenté par une crise nationale de la santé mentale et une pénurie de thérapeutes aux États-Unis – sans oublier un système de soins de santé qui peut, pour beaucoup, rendre extrêmement difficile de trouver un prestataire en réseau – est un problème qui nécessite de toute urgence des solutions. Comme pour tout problème de ce type, il y a des gens qui disent que la solution réside dans la technologie. Entrez l’IA. Alors que des chatbots IA génératifs ont été mis à la disposition d’un plus large éventail d’utilisateurs, certains ont commencé à utiliser des outils polyvalents comme ChatGPT en tant que thérapeutes. Vice a interviewé certains de ces utilisateurs plus tôt cette année, notant que des témoignages de personnes louant leurs expériences avec les chatbots s’étaient répandus sur les réseaux sociaux. Un utilisateur de Reddit a même rédigé un guide pour « débrider » ChatGPT afin de contourner les garde-fous du chatbot contre la fourniture de conseils en santé mentale. Cependant, ChatGPT n’est pas conçu pour être le thérapeute de quiconque. Il n’est pas soumis aux exigences de confidentialité ou de responsabilité qui guident la pratique et l’éthique des thérapeutes humains. Alors qu’il y a des conséquences lorsque, par exemple, un chatbot invente une source pour un travail de recherche, ces conséquences ne sont pas aussi graves que les dommages potentiels causés par un chatbot fournissant des conseils médicaux dangereux ou inexacts à une personne souffrant d’une condition de santé mentale sérieuse.

Share the Post: