La thérapie par chatbot est risquée. Ce n’est cependant pas inutile.

Je n’ai pas trouvé de thérapeute lorsque j’ai ressenti pour la première fois que j’en avais besoin, ni lorsque j’ai enfin trouvé l’énergie pour commencer à chercher sur Google les thérapeutes ayant des cabinets près de chez moi. Je n’en ai pas trouvé des mois plus tard lorsque, après avoir jeté un coup d’œil aux résultats de mon évaluation de la dépression, mon médecin a retardé son prochain rendez-vous, a dressé une liste de thérapeutes et m’a aidé à leur envoyer des courriels pour savoir s’ils acceptaient de nouveaux patients. C’est un an plus tard que ma recherche de thérapeute s’est terminée grâce à une amie qui déménageait et qui m’a donné le nom de la personne qui la traitait. J’ai eu de la chance : mon travail à temps plein incluait une assurance santé. J’habitais dans une région avec de nombreux professionnels de la santé mentale et j’avais les moyens de considérer des thérapeutes qui n’étaient pas dans mon réseau. Beaucoup de gens qui cherchent des soins de santé mentale le font sans disposer des ressources institutionnelles, sociales ou financières dont je disposais. Ce manque d’accès, alimenté par une crise nationale de santé mentale et une pénurie de thérapeutes aux États-Unis, sans mentionner un système de soins de santé qui peut rendre extrêmement difficile pour beaucoup de trouver un fournisseur dans leur réseau, est un problème qui nécessite des solutions urgentes. Comme pour tout problème de ce genre, il y a des gens qui affirment que la solution réside dans la technologie. L’intelligence artificielle entre en jeu. Alors que les chatbots d’IA générateurs sont de plus en plus utilisés par un public plus large, certains ont commencé à utiliser des outils polyvalents disponibles comme ChatGPT en tant que thérapeutes. Vice a parlé à certains de ces utilisateurs plus tôt cette année, notant que des rapports anecdotiques de personnes louant leurs expériences avec des chatbots se sont répandus sur les réseaux sociaux. Un utilisateur de Reddit a même rédigé un guide pour « débrider » ChatGPT afin de contourner les garde-fous du chatbot contre la fourniture de conseils de santé mentale. Mais ChatGPT n’est pas conçu pour devenir le thérapeute de quelqu’un. Il n’est pas soumis aux exigences de confidentialité ou de responsabilité qui guident la pratique et l’éthique des thérapeutes humains. Alors qu’il y a des conséquences lorsque qu’un chatbot, par exemple, invente une source pour un document de recherche, ces conséquences ne sont pas aussi graves que les préjudices potentiels causés par un chatbot fournissant des conseils médicaux dangereux ou inexacts à une personne souffrant d’un trouble mental grave.

Share the Post: