Je n’ai pas trouvé de thérapeute lorsque j’ai ressenti pour la première fois que j’en avais peut-être besoin, ni lorsque j’ai enfin trouvé l’énergie pour commencer à rechercher des thérapeutes ayant des bureaux près de chez moi. Je n’en ai pas trouvé des mois plus tard, lorsque, après avoir jeté un coup d’œil aux résultats de mon dépistage de la dépression, mon médecin a repoussé son prochain rendez-vous, a dressé une liste de thérapeutes et m’a aidé à leur envoyer des courriels leur demandant s’ils prenaient de nouveaux patients. Il s’est écoulé un an avant que ma recherche de thérapeute ne se termine grâce à une amie qui déménageait et qui m’a donné le nom de la personne qui l’avait traitée. J’étais chanceux : mon travail à temps plein comprenait une assurance santé. Je vivais dans une région avec de nombreux professionnels de la santé mentale, et j’avais les moyens de considérer des thérapeutes qui n’étaient pas dans mon réseau. Beaucoup de personnes qui cherchent des soins de santé mentale le font sans aucune des ressources institutionnelles, sociales ou financières dont je disposais. Ce manque d’accès, alimenté par une crise nationale de la santé mentale et une pénurie de thérapeutes aux États-Unis, sans oublier un système de santé qui, pour beaucoup, rend extrêmement difficile de trouver un fournisseur dans le réseau, est un problème qui nécessite urgemment des solutions. Comme pour tout problème de ce genre, il y a des gens qui disent que la solution est la technologie. Voici l’IA. Alors que les chatbots génératifs IA sont devenus disponibles pour un plus large éventail d’utilisateurs, certains ont commencé à utiliser des outils polyvalents et facilement disponibles comme ChatGPT en tant que thérapeutes. Vice a interrogé certains de ces utilisateurs plus tôt cette année, notant que des témoignages de personnes faisant l’éloge de leurs expériences avec des chatbots s’étaient répandus sur les réseaux sociaux. Un redditeur a même rédigé un guide pour « débrider » ChatGPT afin de contourner les garde-fous du chatbot contre la fourniture de conseils en santé mentale. Mais ChatGPT n’est pas conçu pour être le thérapeute de qui que ce soit. Il n’est pas assujetti aux exigences de confidentialité ou de responsabilité qui guident l’exercice et l’éthique des thérapeutes humains. Bien qu’il y ait des conséquences lorsque qu’un chatbot, par exemple, invente une source pour un travail de recherche, ces conséquences ne sont pas aussi graves que les dommages potentiels causés par un chatbot qui fournit des conseils médicaux dangereux ou inexacts à une personne atteinte d’une maladie mentale grave.
‘Le percepteur d’impôts britannique signe des accords ERP de 366 millions de livres sterling pour transférer les systèmes vers le cloud’
« Un pas innovant vers la migration vers le cloud et la mise à jour des systèmes logiciels obsolètes a été