La thérapie par chatbot est risquée. Elle n’est pas non plus inutile.

Je n’ai pas trouvé de thérapeute lorsque j’ai ressenti pour la première fois que j’en avais peut-être besoin, ni lorsque j’ai finalement trouvé l’énergie pour commencer à chercher sur Google les thérapeutes ayant des cabinets près de chez moi. Je n’en ai pas trouvé des mois plus tard lorsque, après avoir jeté un coup d’œil aux résultats de mon dépistage de la dépression, mon médecin a retardé son prochain rendez-vous, a consulté une liste de thérapeutes et m’a aidé à leur envoyer des courriels pour leur demander s’ils acceptaient de nouveaux patients. Il s’est écoulé un an avant que ma recherche de thérapeute ne se termine grâce à une amie qui déménageait et qui m’a donné le nom de la personne qui la traitait. J’ai eu de la chance : mon emploi à temps plein comprenait une assurance santé. Je vivais dans une région avec de nombreux professionnels de la santé mentale et j’avais les moyens de considérer des thérapeutes qui ne faisaient pas partie de mon réseau. De nombreuses personnes qui cherchent des soins de santé mentale le font sans avoir accès aux ressources institutionnelles, sociales ou financières dont je disposais. Ce manque d’accès, alimenté par une crise nationale de la santé mentale et une pénurie de thérapeutes aux États-Unis, sans parler d’un système de santé qui rend extrêmement difficile pour beaucoup de trouver un fournisseur dans leur réseau, est un problème qui nécessite des solutions urgentes. Comme pour tout problème de ce type, il y a des personnes qui affirment que la solution réside dans la technologie. Voici l’IA. Alors que les chatbots d’IA générative sont de plus en plus utilisés par un public plus large, certains ont commencé à utiliser des outils facilement accessibles et polyvalents comme ChatGPT en tant que thérapeutes. Vice a parlé à certains de ces utilisateurs plus tôt cette année, notant que les témoignages anecdotiques de personnes faisant l’éloge de leur expérience avec les chatbots s’étaient répandus sur les réseaux sociaux. Un utilisateur de Reddit a même rédigé un guide pour « déverrouiller » ChatGPT afin de contourner les dispositifs de sécurité du chatbot contre la fourniture de conseils en santé mentale. Mais ChatGPT n’est pas conçu pour être le thérapeute de quiconque. Il n’est pas soumis aux exigences de confidentialité ou de responsabilité qui guident la pratique et l’éthique des thérapeutes humains. Bien qu’il y ait des conséquences lorsque qu’un chatbot, par exemple, fabrique une source pour un article de recherche, ces conséquences ne sont pas aussi graves que les dommages potentiels causés par un chatbot fournissant des conseils médicaux dangereux ou inexacts à une personne atteinte d’une grave affection de santé mentale.

Share the Post: