La thérapie par chatbot est risquée. Ce n’est pas non plus inutile.

Je n’ai pas trouvé de thérapeute lorsque j’ai d’abord eu l’impression d’en avoir besoin, ni lorsque j’ai finalement trouvé l’énergie de commencer à chercher des thérapeutes dans les bureaux à proximité de chez moi. Je ne l’ai pas trouvé des mois plus tard, lorsque, après avoir jeté un coup d’œil aux résultats de mon dépistage de la dépression, mon médecin a repoussé son prochain rendez-vous, a ouvert une liste de thérapeutes et m’a aidé à leur envoyer des e-mails pour leur demander s’ils prenaient de nouveaux patients. Ce n’est qu’un an plus tard que ma recherche de thérapeute a pris fin grâce à une amie qui partait en déménagement et qui m’a donné le nom de la personne qui la soignait. J’ai eu de la chance: mon travail à temps plein comprenait une assurance-santé. J’habitais dans une région où il y avait beaucoup de professionnels de la santé mentale, et j’avais les moyens de considérer des thérapeutes qui n’étaient pas dans mon réseau. Beaucoup de gens qui essaient d’obtenir des soins de santé mentale le font sans aucune des ressources institutionnelles, sociales ou financières dont je disposais. Cette pénurie d’accès, alimentée par une crise nationale de la santé mentale et par une pénurie de thérapeutes aux États-Unis – sans parler d’un système de soins de santé qui peut, pour beaucoup, rendre extrêmement difficile de trouver un prestataire en réseau – est un problème qui nécessite des solutions urgentes. Comme pour tout ce genre de problème, il y a des gens qui disent que la solution est la technologie. Entrez l’IA. Alors que les chatbots génératifs IA ont été déployés auprès d’un plus large éventail d’utilisateurs, certains ont commencé à utiliser des outils tout-en-un comme ChatGPT en tant que thérapeutes. Vice a parlé à certains d’entre eux plus tôt cette année, notant que les rapports anecdotiques de personnes qui louaient leurs expériences avec des chatbots avaient fait leur chemin sur les réseaux sociaux. Un Redditor a même écrit un guide pour contourner les garde-fous du chatbot contre la prestation de conseils en matière de santé mentale. Mais ChatGPT n’a pas été conçu pour être le thérapeute de quiconque. Il n’est pas soumis aux exigences de confidentialité ou de responsabilisation qui encadrent la pratique et l’éthique des thérapeutes humains. Si des chatbots, disons, fabriquent une source pour une thèse de doctorat, les conséquences ne sont pas aussi graves que les potentiels préjudices causés par un chatbot fournissant des conseils médicaux dangereux ou inexacts à quelqu’un atteint d’une grave maladie mentale.

Share the Post: