Comment l’intelligence artificielle pourrait changer la psychothérapie

🔥 Produits recommandés : Canon EOS R6 IIDJI Mini 4 ProMacBook Pro M4

THE BASICS

Points clés

  • Les technologies de l’IA sont envisagées pour remplacer les psychothérapeutes ou les « prolonger ».
  • Le décalage entre ce que nous voyons et ce que nous nous attendons à voir contribue au malaise de la « vallée inquiétante ».
  • L’IA peut offrir des possibilités d’accroître la fidélité aux modèles psychothérapeutiques et la cohérence de la thérapie.
Pixabay/kiquebg
Source : Pixabay/kiquebg

Je ne peux pas lire les nouvelles ou regarder mes flux de médias sociaux sans voir des articles sur les implications potentielles de l’intelligence artificielle (IA) sur nos vies futures. Des professeurs alarmés signalent que des travaux universitaires sont rédigés à l’aide de ChatGPT ; des œuvres d’art sont créées à partir d’invites textuelles par des sites web tels que Midjourney, ce qui remet en question l’avenir des artistes humains. L’IA est également considérée comme un moyen de fournir des services de santé mentale. Dans un article de fond paru dans le New Yorker, Dhruv Khullar a exploré les implications de l’utilisation de chatbots d’IA pour fournir des services de santé mentale, en particulier dans des systèmes tels que le VA, où la demande de traitement est souvent supérieure à l’offre de cliniciens. L’IA a même été envisagée comme « déclencheur » de la thérapie assistée par la kétamine, et des entreprises telles que Compass Pathways ont annoncé qu’elles étudiaient des thérapies numériques sophistiquées pour accompagner les thérapies à la psilocybine. De la même manière que la téléthérapie, pendant la pandémie, a extrait les aspects « essentiels » de la rencontre clinique et les a placés sur une plateforme vidéo, la thérapie par l’IA promet de substituer les compétences d’un algorithme informatique à celles d’un thérapeute humain. Si certaines de ces tâches peuvent être accomplies par un modèle d’IA sophistiqué, qu’est-ce qui est perdu ?

La capacité sophistiquée de traitement du langage de ces modèles informatiques est impressionnante de nuance, bien meilleure que les premières tentatives de reproduction de la thérapie rogerienne par le programme Eliza dans les années 1960. Le fait qu’Eliza répète comme un sourd ce que dit le client semble aujourd’hui risible et ressemble au script d’un manuel de conseil universitaire mal rédigé :

Le client : « Je me sens triste ».

Eliza : « Je comprends que tu sois triste ».

Des programmes comme ELIZA ont rapidement échoué au test de Turing, une méthode mise au point par le mathématicien et premier informaticien Alan Turing, selon laquelle l’ordinateur est considéré comme ayant réussi si l’humain qui pose la question ne peut pas discerner entre les réponses d’un humain et celles d’un ordinateur. Les nouveaux modèles d’IA sont, du point de vue du contenu et de la sémantique, remarquablement proches de l’homme. Pourtant, quelque chose semble manquer.

l’article continue après l’annonce

Dans le roman de 1968  » Les androïdes rêvent-ils de moutons électriques « , adapté plus tard dans le film  » Blade Runner », le protagoniste de Philip K Dick, Deckard, est un chasseur de primes en l’an 2021 chargé de « mettre à la retraite » des androïdes malhonnêtes. Parce qu’en surface, les androïdes ne se distinguent pas des humains, il utilise un test fictif d’empathie pour distinguer les humains des androïdes qui sont incapables de ressentir des sentiments humains authentiques.

En robotique, le terme « Uncanny Valley » a été inventé par Masahiro Mori pour décrire le sentiment de malaise, voire de répulsion, que nous ressentons lorsque nous interagissons avec un robot qui ressemble à un être humain mais qui n’est pas tout à fait réel. Takashi Ikeda et son équipe ont découvert que les mouvements non naturels des androïdes déclenchent une activité dans le noyau subthalamique de l’observateur, une zone du cerveau affectée par la maladie de Parkinson. Dans le cerveau de la personne qui observe l’androïde, cette zone s’activerait, un exemple de « neurones miroirs » dans lequel l’activité du cerveau de l’observateur fait écho à celle du cerveau de l’acteur. Le décalage entre ce que nous observons et ce que nous nous attendons à observer est à l’origine du malaise de la vallée inquiétante.

La technologie a toujours suscité des critiques alarmistes. Les médecins du XIXe siècle s’inquiétaient des effets sur le corps humain d’un voyage à une vitesse d’un mille par minute à l’intérieur d’un train. L’avènement de la télévision a suscité des appels à l’interdiction du « boob tube », de peur qu’il ne pourrisse le cerveau de nos enfants. Plus récemment, les médias sociaux et la technologie cellulaire ont été rendus responsables de l’augmentation des taux d’anxiété et de dépression chez les jeunes. L’inquiétude suscitée par l’IA n’est-elle que la dernière chanson de Cassandre ?

Le temps révélera l’impact de cette technologie sur nos relations humaines, mais de nombreuses questions devront être examinées de près. À qui appartiennent les informations privées que nous révélons à un chatbot thérapeutique ? Si les thérapeutes humains sont tenus de respecter les lois sur la protection de la vie privée, peut-on renoncer à ces mêmes droits en acceptant sans réfléchir les « conditions générales » nécessaires à l’installation et à l’utilisation d’une application ? L’essor des médias sociaux a montré que des millions de personnes sont prêtes à communiquer leurs données personnelles à des spécialistes du marketing en échange d’un moyen facile de communiquer avec leurs amis et leur famille. Alors que la thérapie par l’IA a le potentiel de rendre la thérapie plus abordable et donc plus accessible, sommes-nous en train de créer un système dans lequel ceux qui peuvent s’offrir une thérapie avec une personne réelle la paieront en espèces et ceux qui ne peuvent pas payer échangeront la thérapie par l’IA contre la vente par l’entreprise de leurs données personnelles à des spécialistes du marketing ?

Bien que l’IA puisse poser des problèmes particuliers de protection de la vie privée qu’il faudra résoudre – la loi HIPAA de 1996 a été rédigée en pensant aux télécopieurs, pas à l’internet – est-il possible que la thérapie par l’IA améliore réellement la psychothérapie, non seulement du point de vue de l’accès, mais aussi du point de vue de la fidélité aux modèles de traitement, de la possibilité de cohérence et de la capacité à collecter des « big data » sur ce qui fonctionne en psychothérapie et sur ce qui ne fonctionne pas ? Historiquement, la thérapie a été difficile à étudier en raison des différences entre les praticiens dans la manière dont elle est dispensée. On dit souvent que l’adéquation entre le thérapeute et le client est plus importante que le type de thérapie. Un modèle d’IA sophistiqué pourrait-il s’adapter aux besoins d’un client d’une manière qu’un thérapeute humain ne peut pas faire ?

l’article continue après l’annonce

Je me sens mal à l’aise à l’idée même d’imaginer un tel scénario ; une vallée étrange qui m’est propre. La thérapie a toujours été l’une des expériences les plus humaines qui soient. Dans le cadre de cette relation interpersonnelle, des expériences telles que le transfert ou les distorsions cognitives peuvent être nommées, examinées et modifiées au fur et à mesure qu’elles apparaissent dans la relation thérapeutique. En outre, les neurosciences modernes ont découvert que les humains corrigent leur système nerveux autonome par la proximité et communiquent par les expressions faciales. Si cette tâche semble être rendue plus difficile par la téléthérapie, il semble impossible de la coréguler avec un algorithme d’IA.

La thérapie a toujours été plus axée sur les discussions qui se déroulent à l’intérieur de la pièce. Pour une personne souffrant d’anxiété sociale ou d’agoraphobie, sortir de chez elle et avoir une interaction avec une autre personne peut constituer une sorte de thérapie d’exposition qui pourrait être la partie la plus précieuse de la rencontre. De même, le déplacement à la clinique peut constituer l’activation comportementale dont a besoin un patient souffrant de dépression. Si la téléthérapie et l’IA peuvent réduire les obstacles au traitement, elles ne peuvent pas fournir ces méta-couches essentielles de la psychothérapie.

Comme c’est le cas pour de nombreuses technologies, la création apporte souvent plus de questions que de réponses. Comme nous l’avons vu avec d’autres technologies destinées à rationaliser notre travail clinique – je vous regarde, dossier médical électronique – cette technologie sera imaginée par des non-cliniciens pour améliorer la vie des patients et des cliniciens. En l’absence de conseils pertinents de la part des cliniciens, ils risquent de se tromper. Même si je pense que le thérapeute humain n’est pas près de disparaître, il appartiendra aux cliniciens de la santé mentale de déterminer comment déployer cette technologie de manière réfléchie lorsqu’elle est utile, et quand conserver l’interaction humaine lorsqu’elle est la meilleure.