Je n’ai pas trouvé de thérapeute quand j’ai d’abord senti que j’en aurais peut-être besoin, ni lorsque j’ai enfin trouvé l’énergie pour commencer à chercher sur Google les thérapeutes ayant des bureaux près de chez moi. Je n’en ai pas trouvé des mois plus tard quand, après avoir jeté un coup d’œil aux résultats de mon dépistage de la dépression, mon médecin a retardé son prochain rendez-vous, a sorti une liste de thérapeutes et m’a aidé à leur envoyer des e-mails en leur demandant s’ils prenaient de nouveaux patients. Il s’est écoulé un an avant que ma recherche de thérapeute ne s’achève grâce à une amie qui déménageait et m’a donné le nom de la personne qui la traitait. J’ai eu de la chance : mon emploi à temps plein comprenait une assurance santé. Je vivais dans une région avec de nombreux professionnels de la santé mentale, et j’avais les moyens de considérer des thérapeutes qui n’étaient pas en réseau. Beaucoup de personnes qui cherchent des soins de santé mentale le font sans aucune des ressources institutionnelles, sociales ou financières dont je disposais. Ce manque d’accès, alimenté par une crise nationale de la santé mentale et une pénurie de thérapeutes aux États-Unis, sans oublier un système de santé qui peut rendre extrêmement difficile pour beaucoup de trouver un fournisseur en réseau, est un problème qui nécessite de toute urgence des solutions. Comme pour tout problème de ce genre, il y a des gens qui disent que la solution est la technologie. Entrez l’IA. Alors que des chatbots AI génératifs ont été déployés auprès d’un plus large éventail d’utilisateurs, certains ont commencé à utiliser des outils polyvalents facilement disponibles comme ChatGPT en tant que thérapeutes. Vice a interrogé certains de ces utilisateurs plus tôt cette année, notant que des rapports anecdotiques de personnes faisant l’éloge de leurs expériences avec des chatbots se répandaient sur les réseaux sociaux. Un redditeur a même écrit un guide pour « jailbreaker » ChatGPT afin de contourner les protections du chatbot contre la fourniture de conseils en santé mentale. Mais ChatGPT n’est pas conçu pour être le thérapeute de qui que ce soit. Il n’est pas lié aux exigences de confidentialité ou de responsabilité qui guident la pratique et l’éthique des thérapeutes humains. Alors qu’il y a des conséquences lorsque par exemple, un chatbot invente une source pour un travail de recherche, ces conséquences ne sont pas aussi graves que les dommages potentiels causés par un chatbot fournissant des conseils médicaux dangereux ou inexact à une personne souffrant d’une grave condition de santé mentale.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du