Le thérapie par chatbot est risqué. Ce n’est pas inutile.

Je n’ai pas trouvé de thérapeute lorsque j’ai d’abord eu l’impression d’en avoir besoin, ni lorsque j’ai finalement trouvé l’énergie de commencer à faire des recherches sur les thérapeutes qui exerçaient près de chez moi. Je n’en ai pas trouvé un mois plus tard, lorsque, après avoir jeté un coup d’œil aux résultats de mon test de dépression, mon médecin a repoussé son prochain rendez-vous, a consulté une liste de thérapeutes et m’a aidé à leur envoyer des emails pour savoir s’ils acceptaient de nouveaux patients. Ce n’est qu’un an plus tard que ma recherche de thérapeute a pris fin, grâce à une amie qui déménageait et qui m’a donné le nom de la personne qui la soignait. J’ai eu de la chance : mon emploi à temps plein comprenait une assurance-santé. J’habitais dans une région où il y avait beaucoup de professionnels de la santé mentale, et j’avais les moyens de considérer des thérapeutes qui n’étaient pas dans mon réseau. Beaucoup de gens qui cherchent à obtenir des soins pour la santé mentale le font sans aucun des moyens institutionnels, sociaux ou financiers dont je disposais. Ce manque d’accès, alimenté par une crise de la santé mentale à l’échelle nationale et par une pénurie de thérapeutes aux États-Unis – sans parler d’un système de soins de santé qui peut, pour beaucoup, rendre extrêmement difficile de trouver un fournisseur en réseau – est un problème qui nécessite des solutions urgentes. Comme pour tout problème de ce type, il y a des gens qui disent que la solution est la technologie. C’est là que l’IA entre en jeu. Alors que les chatbots génératifs AI se sont déployés auprès d’un plus large éventail d’utilisateurs, certains ont commencé à utiliser des outils comme ChatGPT, facilement disponibles et polyvalents, en tant que thérapeutes. Vice a rencontré certains de ces utilisateurs plus tôt cette année, notant que des rapports anecdotiques de gens qui ont loué leurs expériences avec des chatbots avaient fait le tour des médias sociaux. Un Redditor a même écrit un guide pour « jailbreaker » ChatGPT afin de contourner les garde-fous du chatbot en matière de conseils en matière de santé mentale. Mais ChatGPT n’est pas conçu pour être le thérapeute de quiconque. Il n’est pas soumis aux exigences de confidentialité ou de responsabilité qui encadrent la pratique et l’éthique des thérapeutes humains. Si des conséquences peuvent découler du fait qu’un chatbot, par exemple, fabrique une source pour une thèse de doctorat, elles ne sont pas aussi graves que le potentiel de préjudice causé par un chatbot fournissant des conseils médicaux dangereux ou inexacts à quelqu’un souffrant d’un trouble de santé mentale grave.

Share the Post: