La thérapie par chatbot est risquée. Ce n’est pas inutile non plus.

Je n’ai pas trouvé de thérapeute lorsque j’ai d’abord pensé en avoir besoin, ni lorsque j’ai finalement trouvé l’énergie de commencer à chercher des thérapeutes par Google dans ma région. Je n’en ai pas trouvé plusieurs mois plus tard, lorsque, après avoir jeté un coup d’œil aux résultats de mon test de dépression, mon médecin a reporté son prochain rendez-vous, a consulté une liste de thérapeutes et m’a aidé à leur envoyer des emails pour savoir s’ils prenaient de nouveaux patients. Ce n’est qu’un an plus tard que ma recherche de thérapeute a pris fin grâce à une amie qui déménageait et qui m’a donné le nom de la personne qui la soignait. J’ai eu de la chance : mon travail à temps plein était couvert par une assurance-maladie. J’habitais dans une région où il y avait beaucoup de professionnels de la santé mentale, et j’avais les moyens de considérer des thérapeutes qui étaient hors réseau. Beaucoup de gens qui essaient d’obtenir des soins de santé mentale le font sans aucune des ressources institutionnelles, sociales ou financières dont je disposais. Ce manque d’accès, alimenté par une crise de la santé mentale à l’échelle nationale et par un manque de thérapeutes aux États-Unis – sans parler d’un système de soins de santé qui peut, pour beaucoup, rendre extrêmement difficile la recherche d’un fournisseur en réseau – est un problème qui nécessite des solutions urgentes. Comme pour tout problème de ce type, il y a des gens qui disent que la solution est la technologie. Entrez l’IA. Alors que les chatbots génératifs IA se sont généralisés auprès d’un plus large éventail d’utilisateurs, certains ont commencé à utiliser des outils facilement disponibles et polyvalents comme ChatGPT en tant que thérapeutes. Vice a interrogé certains d’entre eux plus tôt cette année, notant que des rapports anecdotiques de personnes qui louaient leurs expériences avec les chatbots avaient fait le tour des réseaux sociaux. Un Redditor a même écrit un guide pour « débloquer » ChatGPT afin de contourner les limites du chatbot en matière de conseils en matière de santé mentale. Mais ChatGPT n’a pas été conçu pour être le thérapeute de quiconque. Il n’est pas soumis aux exigences de confidentialité ou de responsabilité qui régissent les pratiques et l’éthique des thérapeutes humains. Si les conséquences d’un chatbot, par exemple, sont la fabrication d’une source pour une thèse de recherche, celles-ci ne sont pas aussi graves que les potentiels dommages causés par un chatbot fournissant des conseils médicaux dangereux ou inexacts à quelqu’un souffrant d’une grave maladie mentale.

Share the Post: