L’utilisation de chatbots en thérapie est risquée. Ce n’est pas inutile pour autant.

Je n’ai pas trouvé de thérapeute lorsque j’ai d’abord pensé en avoir besoin, ni lorsque j’ai finalement eu l’énergie de commencer à chercher des thérapeutes sur Google avec des bureaux à proximité. Je ne l’ai pas trouvé des mois plus tard, lorsque, après avoir jeté un coup d’œil aux résultats de mon test de dépression, mon médecin a reporté son prochain rendez-vous, a ouvert une liste de thérapeutes et m’a aidé à leur envoyer des e-mails pour leur demander s’ils acceptaient de nouveaux patients. Ce n’est qu’un an plus tard que ma recherche de thérapeute a pris fin grâce à une amie qui déménageait et qui m’a donné le nom de la personne qui la soignait. J’ai eu de la chance : mon travail à temps plein comprenait une assurance maladie. J’habitais une région avec de nombreux professionnels de la santé mentale et j’avais les moyens de considérer des thérapeutes qui n’étaient pas dans mon réseau. Beaucoup de gens qui essaient d’obtenir des soins de santé mentale le font sans aucun des moyens institutionnels, sociaux ou financiers dont je disposais. Ce manque d’accès, alimenté par une crise de santé mentale nationale et une pénurie de thérapeutes aux États-Unis – sans parler d’un système de soins de santé qui peut, pour beaucoup, rendre extrêmement difficile de trouver un fournisseur en réseau – est un problème qui nécessite des solutions urgentes. Comme pour tout problème de ce type, il y a des gens qui disent que la solution est la technologie. Entrez l’IA. Alors que les chatbots génératifs IA se sont généralisés auprès d’un plus large éventail d’utilisateurs, certains ont commencé à utiliser des outils tout-en-un comme ChatGPT en tant que thérapeutes. Vice a parlé à certains d’entre eux plus tôt cette année, notant que des rapports anecdotiques de gens qui ont félicité leurs expériences avec des chatbots avaient fait leur chemin sur les réseaux sociaux. Un Redditor a même écrit un guide pour « débloquer » ChatGPT afin de contourner les garde-fous du chatbot en fournissant des conseils de santé mentale. Mais ChatGPT n’a pas été conçu pour être le thérapeute de quiconque. Il n’est pas soumis aux exigences de confidentialité ou de responsabilité qui encadrent la pratique et l’éthique des thérapeutes humains. Si les conséquences d’un chatbot, disons, fabriquent une source pour une thèse de doctorat, celles-ci ne sont pas aussi graves que le potentiel de préjudice causé par un chatbot fournissant des conseils médicaux dangereux ou inexacts à quelqu’un atteint d’une grave maladie mentale.

Share the Post: