« La thérapie par chatbot est risquée. Ce n’est pas non plus inutile. »

Je n’ai pas trouvé de thérapeute quand j’ai ressenti pour la première fois que j’en aurais peut-être besoin, ni quand j’ai finalement trouvé l’énergie pour commencer à chercher sur Google les thérapeutes ayant des cabinets près de chez moi. Je n’en ai pas trouvé un des mois plus tard quand, après avoir jeté un coup d’œil aux résultats de mon dépistage de la dépression, mon médecin a reporté son prochain rendez-vous, a sorti une liste de thérapeutes et m’a aidé à leur envoyer des e-mails en demandant s’ils acceptaient de nouveaux patients. Il s’est écoulé un an avant que ma recherche de thérapeute se termine, grâce à une amie qui déménageait et qui m’a donné le nom de la personne qui la soignait. J’ai eu de la chance : mon emploi à temps plein comprenait une assurance santé. Je vivais dans une région avec de nombreux professionnels de la santé mentale, et j’avais les moyens de considérer des thérapeutes qui n’étaient pas en réseau. Beaucoup de personnes qui tentent d’obtenir des soins de santé mentale le font sans aucune des ressources institutionnelles, sociales ou financières dont je disposais. Ce manque d’accès, alimenté par une crise nationale de la santé mentale et une pénurie de thérapeutes aux États-Unis – sans parler d’un système de santé qui, pour beaucoup, rend extrêmement difficile de trouver un prestataire en réseau – est un problème qui nécessite des solutions de manière urgente. Comme pour tout problème de ce genre, il y a des gens qui disent que la solution est la technologie. Entrez en scène l’intelligence artificielle (IA). Alors que les chatbots IA génératifs ont été déployés pour un plus large éventail d’utilisateurs, certains ont commencé à utiliser des outils polyvalents facilement accessibles comme ChatGPT en tant que thérapeutes. Vice a interviewé certains de ces utilisateurs plus tôt cette année, notant que des témoignages de personnes louant leurs expériences avec les chatbots s’étaient répandus sur les réseaux sociaux. Un redditeur a même écrit un guide pour « jailbreaker » ChatGPT afin de contourner les garde-fous du chatbot contre la fourniture de conseils en santé mentale. Mais ChatGPT n’est pas conçu pour être le thérapeute de quiconque. Il n’est pas lié par les exigences en matière de confidentialité ou de responsabilité qui guident la pratique et l’éthique des thérapeutes humains. Alors qu’il y a des conséquences lorsque, par exemple, un chatbot fabrique une source pour un article de recherche, ces conséquences ne sont pas aussi graves que les dommages potentiellement causés par un chatbot fournissant des conseils médicaux dangereux ou inexactes à une personne souffrant d’une grave affection de santé mentale.

Share the Post: