La thérapie par chatbot est risquée. Ce n’est pas inutile non plus.

Je n’ai pas trouvé un thérapeute lorsque j’ai ressenti pour la première fois que j’en avais peut-être besoin, ni lorsque j’ai enfin trouvé l’énergie pour commencer à rechercher sur Google les thérapeutes avec des cabinets près de chez moi. Je n’en ai pas trouvé un mois plus tard lorsque, après avoir jeté un coup d’œil aux résultats de mon dépistage de dépression, mon médecin a retardé son prochain rendez-vous, a sorti une liste de thérapeutes, et m’a aidé à envoyer des e-mails à chacun d’eux en demandant s’ils acceptaient de nouveaux patients. Ce n’est que plus d’un an après que ma recherche de thérapeute s’est terminée grâce à une amie qui déménageait et m’a donné le nom de la personne qui la traitait. J’ai eu de la chance : mon travail à temps plein comprenait une assurance santé. Je vivais dans une région avec de nombreux professionnels de la santé mentale, et j’avais les moyens de considérer des thérapeutes qui n’étaient pas dans mon réseau. Beaucoup de personnes qui tentent d’obtenir des soins de santé mentale le font sans aucune des ressources institutionnelles, sociales, ou financières dont je disposais. Ce manque d’accès, alimenté par une crise nationale de la santé mentale et une pénurie de thérapeutes aux États-Unis – sans oublier un système de santé qui, pour beaucoup, rend extrêmement difficile la recherche d’un fournisseur dans son réseau – est un problème qui nécessite de toute urgence des solutions. Comme pour tout problème de ce genre, il y a des gens qui disent que la solution est la technologie. Entrez l’IA. Alors que les chatbots d’IA générative se sont déployés pour un large éventail d’utilisateurs, certains ont commencé à utiliser des outils polyvalents facilement disponibles comme ChatGPT en tant que thérapeutes. Vice a interrogé certains de ces utilisateurs plus tôt cette année, notant que des rapports anecdotiques de personnes louant leurs expériences avec les chatbots s’étaient répandus sur les réseaux sociaux. Un utilisateur de Reddit a même écrit un guide pour « jailbreaker » ChatGPT afin de contourner les barrières du chatbot contre la fourniture de conseils en santé mentale. Mais ChatGPT n’est pas conçu pour être le thérapeute de qui que ce soit. Il n’est pas soumis aux exigences en matière de confidentialité ou de responsabilité qui guident la pratique et l’éthique des thérapeutes humains. Alors qu’il y a des conséquences lorsque, par exemple, un chatbot invente une source pour un document de recherche, ces conséquences ne sont pas aussi graves que les dommages potentiels causés par un chatbot fournissant des conseils médicaux dangereux ou inexacts à une personne souffrant d’une grave condition de santé mentale.

Share the Post: