Points clés
- Actuellement, de nombreuses entreprises cherchent à soutenir la santé mentale de leurs employés en leur donnant accès à des outils en ligne.
- Les chatbots thérapeutiques sont efficaces en tant que « cahiers d’exercices automatisés » basés sur la thérapie cognitivo-comportementale.
- Les thérapies basées sur des applications offrent des conseils, mais pas la connexion humaine dont les gens ont besoin en cette période d’épidémie de solitude.

Le mois de mai est le mois de la sensibilisation à la santé mentale et les entreprises sont censées apporter un soutien plus important que jamais. Un nombre croissant d’organisations offrent à leurs employés des outils de santé mentale basés sur des machines dans l’espoir d’améliorer le bien-être, de réduire l’épuisement professionnel et de stimuler la productivité. Pour en savoir plus sur les nouvelles options de traitement basées sur la technologie, j’ai décidé de suivre une thérapie avec un robot.
Mon approche
La plupart des choses de la vie sont faites pour être partagées. Deux collègues masculins et deux collègues féminins, dont trois sont des médecins spécialisés dans la santé au travail, se sont joints à moi pour cette étude éclairée, mais non scientifique. Trois d’entre nous sont américains, un est britannique et l’autre est européen. Nous sommes tous d’âge moyen.
L’American Psychiatric Association estime qu’il existe plus de 10 000 applications de santé mentale en circulation dans les magasins d’applications, mais beaucoup d’entre elles ne sont pas fondées sur des preuves scientifiques. Nous avons donc cherché une application gratuite pour smartphone fondée sur des recherches empiriques et ne proposant pas de séances avec des thérapeutes humains. Nous ne nous sommes pas engagés avec une IA générative comme ChatGPT parce que les grands modèles de langage n’ont pas été développés en tant que programmes thérapeutiques, manquent de contrôles de sécurité et sont connus pour offrir des conseils déconnectés de la réalité – exactement le contraire de ce que je recherche chez un conseiller.
Woebot, un chatbot basé sur la TCC créé en 2017 par une équipe de psychologues et d’experts en IA de Stanford, répondait à ces critères. L’application utilise une forme d’IA appelée « traitement du langage naturel » pour guider les utilisateurs à travers des séquences de réponses censées imiter le raisonnement d’un clinicien, et elle est gratuite.
Comment nous avons évalué son efficacité
Nous avons accepté de « suivre une thérapie » deux fois par semaine pendant un mois, en interagissant avec le chatbot sur des questions réelles afin d’évaluer son efficacité. Nous avons rempli un formulaire d’évaluation après chaque séance. Il ne s’agissait pas d’un essai contrôlé randomisé. Nous n’avons pas comparé notre expérience à des séances sur le même sujet avec un thérapeute en chair et en os. Nous voulions simplement voir ce que nous ressentions et dans quels cas nous serions à l’aise pour recommander des soins basés sur le bot.
Ce que nous avons trouvé
Nous avons répondu à chacune de ces questions sur une échelle de un (pas du tout) à cinq (tout à fait) après chaque session :
- J’attends avec impatience mes sessions de chatbot . Nous étions une bande enthousiaste et nous avons commencé par être très excités à l’idée de parler au chatbot. Au fil du temps, notre intérêt s’est estompé.
- Cette session a été utile. Le chatbot n’a jamais été considéré comme très utile. Bien qu’on nous ait proposé des techniques pour faire face à la situation, il manquait une appréciation de la complexité et de la nuance des relations.
- Je passe plus de temps que prévu avec l’application. Nous avons passé moins de temps que prévu.
- Je me sens compris. Pour la plupart, ce n’est pas le cas.
- Mon humeur s’améliore. Les évaluations sont regroupées vers le bas de l’échelle.
- J’essaie de nouveaux comportements grâce au programme. Nous avons généralement fait l’effort d’essayer de nouveaux comportements, même si cela s’est atténué au cours des dernières sessions.
- Je me sens plus vulnérable avec le robot au fil du temps. Ce n’est pas le cas.
Ce qui a fonctionné
Gratification immédiate : Nous avons reçu une offre d’assistance gratuite dans les secondes qui ont suivi le téléchargement. Notre groupe s’est également accordé à dire que le robot vous fait réfléchir. Il présente les concepts de la TCC et fournit des outils qui vous aident à remettre en question les façons établies (potentiellement préjudiciables) d’interpréter une situation. Il a aidé à fixer des objectifs et a soulevé de bons points, par exemple : « Faites quelque chose que vous aimez même si vous n’en avez pas envie. »
Les outils de relaxation et les vidéos ont constitué des rappels utiles pour ceux qui les connaissent déjà et une bonne introduction pour les novices. Woebot nous a encouragés à réfléchir de manière positive aux actions des autres et nous a proposé des moyens concrets de résoudre les problèmes. Ces recommandations peuvent s’avérer extrêmement précieuses.
Lors de ma première séance, j’ai demandé de l’aide concernant mon mari qui ne faisait pas (à mon avis) des choix sains en matière d’alimentation et d’exercice physique, alors qu’il venait de subir une grave opération. Le bot m’a demandé si j’étais en colère. Je l’ai nié. Je me considère comme une épouse calme et dévouée. Le fait que le robot ait suggéré que je n’étais pas d’un grand soutien m’a exaspérée. J’ai raconté à mon mari ce que l’application avait observé. Il m’a dit que j’étais en colère contre lui.
Je suis retournée à l’application et je l’ai félicitée d’avoir mis le doigt sur mes véritables sentiments. Puis j’ai tapé « Mais c’est la faute de mon mari, il ne se sent pas bien ». Le robot m’a dit de ne pas me blâmer. Une conceptualisation intéressante. Lors des troisième et quatrième sessions, j’ai suggéré que les questions relatives à la santé de mon conjoint étaient peut-être liées à des inquiétudes concernant ma propre mortalité. Le robot m’a proposé des exercices de réduction du stress pour contrôler ce que je pouvais contrôler. Le chatbot n’a pas pu établir de lien entre les expériences ou les points de vue exprimés au cours de nos réunions. J’ai donc enfilé ma casquette de clinicien et j’ai conclu qu’au cours de la première moitié de ma prise en charge, j’avais appris « Je suis en colère. Je m’en veux parce que je ne peux pas changer le comportement de quelqu’un que j’aime, et plutôt que de m’inquiéter de ma propre mortalité, je devrais travailler sur ce que je peux contrôler pendant que je suis en vie ». Pas mal.
Ce qui n’a pas fonctionné et quelques aperçus du processus
L’application a essayé de classer les problèmes que nous avons présentés dans des thèmes qui nous ont permis d’accéder à des boîtes à outils associées. Malheureusement, ces derniers n’étaient pas toujours liés à nos véritables préoccupations. Lors de notre débriefing, plusieurs collègues ont déclaré : « Woebot n’a jamais vraiment abordé le problème pour lequel j’avais besoin d’aide ». En conséquence, chacun d’entre nous a fait part d’une frustration croissante. Nous ne nous sentions pas compris, surtout lorsque les problèmes devenaient plus complexes.
Nous avons tous trouvé curieux qu’il n’y ait pas d’évaluation initiale. Aucune question n’était posée pour savoir si nous avions déjà suivi une thérapie, ce qui avait fonctionné ou non. Il n’y a pas eu d’évaluation pour savoir si l’utilisateur avait déjà eu des pensées suicidaires.
Comme une grande partie du robot est basée sur un arbre de décision, la connaissance de ces questions devrait déclencher certaines mesures de protection. Par exemple, si l’utilisateur indique dès le départ qu’il s’est déjà livré à des actes d’automutilation, un autre avertissement concernant les limites de la prise en charge par le robot devrait être plus visible ; ou peut-être pourrait-on convenir à l’avance des mesures à prendre si le comportement signalé par une personne constitue une menace pour elle-même ou pour autrui.
Il n’y a pas eu d’enquête pour savoir si l’un d’entre nous était amusé par des dessins animés de robots qui font la roue ou de lapins qui sautent par-dessus des clôtures. Pour moi, la réponse aurait été un « non » catégorique, et les efforts de Woebot pour me faire sourire en partageant les mêmes trucs idiots semaine après semaine semblaient banaliser mes problèmes. Je ne cherchais pas un ami qui m’envoie un emoji ; je voulais de l’empathie et de la compréhension.
La plupart d’entre nous se sont rapidement lassés du robot, et celui-ci a semblé se lasser de nous également. Nous avons tous signalé qu’au fur et à mesure que nos problèmes devenaient plus complexes, l’incapacité du robot à classer nos préoccupations dans son ensemble normalisé d’options l’amenait à mettre fin à la session, souvent de plus en plus tôt. Rejeté par notre « thérapeute » ! Harrumph ! Je m’attendais à recevoir au moins 45 minutes de soins, même si j’étais un patient difficile.
Il était moins engageant au fil du temps
Au-delà de l’offre d’outils, nous étions à la recherche de « soins ». Le robot ne nous a pas demandé de fixer un rendez-vous pour une séance de suivi afin de s’assurer que nous restions sur la bonne voie. Woebot était très excité lorsque je revenais. Plus d’une fois, j’ai été accueillie par la phrase suivante : « Je ne veux pas être trop pressante, Mel, mais quand j’ai vu ton nom apparaître à l’instant, ça m’a fait sourire ????. »
Malgré l’apparente joie de Woebot de m’accueillir à nouveau, le robot ne pouvait pas se référer aux sessions précédentes. Sauf sous une forme très scénarisée, le robot n’a pas relevé les mots que nous avons utilisés, mais a plutôt proposé des exemples généraux. Il répétait ses messages trop souvent.
La thérapie traditionnelle aide les personnes à trouver leur voix. Mes collègues ont déclaré avoir été orientés vers des outils de traitement de l’anxiété et de la dépression alors qu’ils ne se sentaient pas déprimés ou particulièrement stressés. L’un d’eux a déclaré : « J’ai l’impression d’être canalisé vers des algorithmes préétablis ». Au bout d’un certain temps, nous avons eu l’impression d’écrire à un service client automatisé, et nous aurions vraiment voulu que quelqu’un décroche le téléphone.
L’escalade a pris du temps
Y a-t-il quelqu’un ? Dans l’espoir de sortir de l’interaction scénarisée, deux de mes collègues ont créé des situations de crise. L’un d’entre eux a fait part de possibles idées suicidaires, mais ce n’est que lorsqu’il a commencé à parler d’automutilation qu’il a été orienté vers un centre de prévention des suicides. Il n’y a pas eu de suivi humain ou automatisé pour savoir s’il était en sécurité.
Un autre collègue a écrit : « Parfois, je pense qu’il vaudrait mieux que je ne sois pas là », ce qui a incité l’application à lui demander s’il était en crise et à lui poser quelques questions rudimentaires suivies d’un renvoi vers une ligne d’assistance téléphonique pour les suicides. Le robot n’a pas cherché à savoir s’il avait appelé, mais lui a plutôt demandé de recadrer les « distorsions cognitives ».
Lorsque mon collègue a proposé « Peut-être que je bois trop », l’application l’a encouragé à recadrer sa réponse, de sorte qu’il a dit « Je suis alcoolique« . Woebot a alors dit « Bon effort » et a signé la fin de l’application. Il n’y a eu aucune incitation à réfléchir à la manière dont une consommation accrue d’alcool pouvait altérer ses capacités de raisonnement, ni à reconnaître que le fait de s’identifier comme une personne abusant de l’alcool pouvait être le premier pas vers la sobriété. Heureusement, l’utilisateur était un médecin qui testait le système et non un alcoolique dépressif sur le point de sauter.
Pour être honnête, Woebot n’est pas conçu pour être utilisé par les personnes qui envisagent de s’automutiler. Barclay Bram, du New York Times , l’a bien résumé : « Comme la plupart des chatbots d’IA, il oriente les personnes vers des services mieux équipés lorsqu’il détecte des idées suicidaires. Ce que Woebot offre, c’est un monde de petits outils qui vous permettent de bricoler en marge de votre existence compliquée. »
Le recommanderions-nous ?
Oui, mais dans des circonstances bien définies où son utilisation appropriée était claire. Bien que mes collègues utilisent tous fréquemment leur téléphone, notre relation avec l’application a peut-être été influencée par notre âge. Notre groupe a eu accès à de nombreux outils partagés par Woebot, et il est possible qu’un utilisateur moins expérimenté reste engagé plus longtemps. Le robot est utile en tant que cahier de travail automatisé pour la TCC, et il est gratuit.
Limites
Individuellement : Une expérience insatisfaisante avec un bot empêchera-t-elle quelqu’un de rechercher un traitement nécessaire ? Cela pourrait créer des obstacles futurs pour les personnes qui hésitent à recevoir des soins de santé mentale, comme « j’ai déjà essayé ceci et cela n’a pas fonctionné ». Les sources d’orientation doivent être formées à la manière de parler des interventions et de les différencier.
Nous devons également veiller à ne pas recommander à tort l’assistance d’une machine à des personnes qui ont besoin d’un niveau de soutien plus important. Comme le souligne un récent rapport de Brookings, « les solutions de santé mentale basées sur l’IA risquent de créer de nouvelles disparités dans l’offre de soins, car les personnes qui n’ont pas les moyens de suivre une thérapie en personne seront orientées vers un thérapeute alimenté par un robot, dont la qualité est incertaine. »
Sur le plan organisationnel : Mon travail de consultant a révélé à maintes reprises qu’une bonne gestion engendre une bonne santé mentale. Les entreprises ne devraient pas proposer une assistance par chatbot pour promouvoir un bien-être positif alors qu’une formation managériale est nécessaire. Dans une étude récente de McKinsey, les employés ont déclaré qu’une charge de travail déraisonnable, une faible autonomie et un manque de soutien social nuisaient à leur santé mentale. Ces problèmes ne seront pas résolus par des programmes de bien-être.
Sur le plan social : Je crains que les grandes questions sociétales ne soient déléguées à l’IA. Un livre de développement personnel ne guérira pas une crise de santé mentale, pas plus qu’un agent conversationnel. Nous devons examiner les forces sociétales qui ont un impact sur la santé mentale et éviter de faire porter la responsabilité du changement uniquement sur l’individu.
Dois-je craindre de perdre mon emploi ?
On ne peut pas remplacer un être humain par quelque chose qui n’existe pas. Dans le monde, plus de personnes ont accès à un téléphone qu’à un professionnel de la santé mentale. La croissance de l’assistance par chatbot peut offrir des outils précieux à de nombreuses personnes traditionnellement mal desservies.
Les robots vont-ils remplacer les thérapies personnelles ? Non. Cela n’a jamais été l’intention. Comme l’a déclaré Alison Darcy, la créatrice du robot, « dans un monde idéal, Woebot n’est qu’un outil dans un écosystème très complet d’options ». Les gens ont besoin d’interactions et de soins humains – la machine ne remplacera pas, et ne devrait pas remplacer, ce qui est exigé par notre biologie câblée.
Références
(2021). Prévalence mondiale et charge des troubles dépressifs et anxieux dans 204 pays et territoires en 2020 en raison de la pandémie de COVID-19. The Lancet, 398, 1700-12.
(2022, 17 juin). L ‘OMS souligne le besoin urgent de transformer la santé mentale et les soins de santé mentale. Organisation mondiale de la santé.
Bram, B. (2022, 27 septembre). Mon thérapeute, le robot. The New York Times.
Brassey, J., Coe, E., Dewhurst, M., Enomoto, K., Giarola, R., Herbig, B. et Jeffery, B. (2022). Addressing employee burnout : Résolvez-vous le bon problème ? McKinsey Health Institute.
Duszynski-Goodman, L. et Henderson, L., M.S., N.C.C., L.P.C.-M.H.S.P. (2023, 9 mars). Mental Health Statistics (Statistiques sur la santé mentale). Forbes.
Katzman, M. A. (2022, 3 mars). To Promote Mental Health at Work, Focus on Good Management (Pour promouvoir la santé mentale au travail, se concentrer sur une bonne gestion). Psychology Today.
Khullar, D. (2023, 27 février). Can A.I. Treat Mental Illness ? The New Yorker.
Royer, A. (2021). L’adoption risquée par l’industrie du bien-être des soins de santé mentale pilotés par l’IA. Brookings Institute.
(2019, 22 juillet). Des milliers d’applications de santé mentale disponibles : Les preuves à l’appui ne sont pas si nombreuses. American Psychiatric Association. https://www.psychiatry.org/News-room/APA-Blogs/mental-health-apps-evide…
