Je n’ai pas trouvé de thérapeute lorsque j’ai ressenti pour la première fois que j’en avais peut-être besoin, ni lorsque j’ai enfin trouvé l’énergie pour commencer à chercher des thérapeutes avec des bureaux près de chez moi. Je n’en ai pas trouvé plusieurs mois plus tard lorsque, après avoir jeté un coup d’œil aux résultats de mon dépistage de la dépression, ma médecin a repoussé son prochain rendez-vous, a consulté une liste de thérapeutes et m’a aidé à leur envoyer des courriels pour leur demander s’ils acceptaient de nouveaux patients. Il a fallu un an avant que ma recherche de thérapeute ne se termine grâce à une amie qui déménageait et qui m’a donné le nom de la personne qui la traitait. J’ai eu de la chance : Mon travail à temps plein comprenait une assurance maladie. J’habitais dans une région avec de nombreux professionnels de la santé mentale et j’avais les moyens de considérer des thérapeutes qui n’étaient pas dans mon réseau. De nombreuses personnes qui essayent d’obtenir des soins de santé mentale le font sans aucune des ressources institutionnelles, sociales ou financières dont je disposais. Ce manque d’accès, alimenté par une crise nationale de la santé mentale et une pénurie de thérapeutes aux États-Unis – sans parler d’un système de soins de santé qui peut rendre extrêmement difficile pour beaucoup de trouver un prestataire dans leur réseau – est un problème qui nécessite des solutions de manière urgente. Comme pour tout problème de ce genre, il y a des personnes qui affirment que la solution réside dans la technologie. Voici l’IA. En tant que les chatbots d’IA générative se sont développés pour un éventail plus large d’utilisateurs, certains ont commencé à utiliser des outils polyvalents disponibles comme ChatGPT en tant que thérapeutes. Vice a parlé à certains de ces utilisateurs plus tôt cette année, notant que des rapports anecdotiques de personnes qui louaient leurs expériences avec les chatbots s’étaient répandus sur les réseaux sociaux. Un utilisateur de Reddit a même rédigé un guide pour « déverrouiller » ChatGPT afin de contourner les règles de sécurité du chatbot contre la fourniture de conseils en matière de santé mentale. Mais ChatGPT n’est pas conçu pour être le thérapeute de qui que ce soit. Il n’est pas soumis aux exigences de confidentialité ou de responsabilité qui guident la pratique et l’éthique des thérapeutes humains. Alors qu’il y a des conséquences lorsque qu’un chatbot fabrique, par exemple, une source pour un article de recherche, ces conséquences ne sont pas aussi graves que les dommages potentiels causés par un chatbot qui fournit des conseils médicaux dangereux ou inexacts à une personne souffrant d’une affection mentale grave.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du