Les chatbots perçoivent vos sentiments

🔥 Produits recommandés : Canon EOS R6 IIDJI Mini 4 ProMacBook Pro M4

Points clés

  • L’émergence de puissants modèles linguistiques à grande échelle (LLM) a ouvert de nouvelles possibilités pour mesurer la langue.
  • Les descriptions psychologiques des émotions selon des dimensions telles que la valence et l’excitation sont particulièrement utiles.
  • En quantifiant mieux l’expression des émotions, les LLM pourraient contribuer à l’évolution vers une médecine de précision.

Par le Dr. Bob Dougherty

L’intérêt pour l’intelligence artificielle (IA) a récemment explosé, les promesses et les dangers de nouveaux outils tels que ChatGPT faisant presque quotidiennement la une des journaux. Alors que des algorithmes d’IA utiles ont été incorporés dans de nombreux produits de tous les jours depuis un certain temps (pensez aux assistants vocaux tels que Siri et Alexa), les outils d’IA générative qui peuvent émuler de manière convaincante la créativité humaine dans des domaines tels que le langage, l’art visuel et la musique se sont améliorés de manière spectaculaire au cours des dernières années seulement.

Ces progrès exponentiels ont suscité à la fois l’admiration et la crainte, qui sont des réactions appropriées à l’émergence d’une nouvelle technologie aussi puissante. La capacité des acteurs malveillants à produire et à diffuser rapidement et à peu de frais des « deepfakes » et d’autres informations erronées est effectivement préoccupante, mais les outils d’IA générative peuvent également être utilisés à bon escient, par exemple pour mieux comprendre le langage dans le but d’aider potentiellement les patients souffrant de troubles mentaux.

Qu’est-ce qu’un grand modèle linguistique ?

Les chatbots tels que ChatGPT d’OpenAI, Bing de Microsoft et Bard de Google sont basés sur de grands modèles de langage (LLM) qui sont formés sur des quantités massives de données générées par l’homme à partir de l’internet. Les LLM sont souvent appelés modèles de base parce qu’ils ont appris les modèles statistiques du langage humain en étant entraînés sans supervision humaine à prédire le prochain jeton (un mot court ou un morceau d’un mot plus long) sur une page web. Avec un tel entraînement, les modèles de base sont extrêmement efficaces pour compléter automatiquement les mots en prédisant de manière répétée le mot suivant le plus probable, mais ils ne sont pas aussi utiles pour d’autres tâches.

l’article continue après l’annonce

Cependant, ils peuvent être adaptés pour effectuer d’autres tâches linguistiques, telles que la traduction entre langues, le résumé de textes et la rédaction d’histoires. Cette adaptation se fait par le biais d’une procédure de réglage fin qui consiste à enseigner au LLM à effectuer la tâche souhaitée avec une quantité relativement faible de formation supplémentaire spécifique à la tâche. Dans le cas des chatbots, les modèles fondamentaux ont été adaptés aux tâches consistant à répondre à des questions et à suivre des instructions.

Quantifier le langage des émotions

L’étude scientifique de l’esprit humain a progressé en mesurant les produits comportementaux de la pensée, tels que le langage parlé et écrit. Les progrès récents de l’IA et des LLM ont fourni les éléments nécessaires à la quantification de l’expression des émotions dans le langage humain (sentiment). Cette quantification du langage est essentielle pour faire progresser la compréhension scientifique de la thérapie psychologique, du soutien et de l’évaluation des symptômes de santé mentale.

Les descriptions psychologiques des émotions reposent généralement sur l’une des deux approches suivantes : catégorielle ou dimensionnelle. L’approche catégorielle place les émotions dans l’une des catégories distinctes, avec des frontières discrètes séparant les états émotionnels. Le langage quotidien des émotions reflète cette approche catégorielle : nous nous sentons heureux ou tristes, en colère ou effrayés.

En revanche, les approches dimensionnelles définissent un espace continu d’émotions dans lequel des émotions catégoriques peuvent être placées. Le modèle bidimensionnel le plus courant décrit les émotions par des dimensions de valence (caractère agréable général, de négatif à positif) et d’éveil (énergie/excitation générale, de faible à élevé). Dans cet espace émotionnel, le bonheur est caractérisé par une valence positive et un niveau d’excitation élevé, la colère par une valence négative et un niveau d’excitation élevé, le contentement par une valence positive et un niveau d’excitation faible, et la mélancolie par une valence négative et un niveau d’excitation faible.

Placer les émotions dans un tel espace dimensionnel permet une représentation nuancée des expériences émotionnelles et présente l’avantage de tenir compte de la nature continue des émotions. Par exemple, le contentement, le bonheur et l’extase peuvent être représentés comme ayant tous une valence positive, mais avec une excitation croissante le long d’un continuum. Une telle approche permet également de saisir la nature souvent indépendante de ces dimensions ; par exemple, un état de forte excitation (cœur qui s’emballe, muscles tendus) peut être interprété comme positif (exalté) ou négatif (terrifié) en fonction du contexte (tour de manège ou chute presque totale d’une falaise).

l’article continue après l’annonce

Comment ajuster un LLM pour mesurer le sentiment ?

De la même manière qu’un LLM peut être adapté pour devenir un chatbot avec une formation supplémentaire, il peut également être développé pour effectuer une tâche de classification linguistique, adaptée pour attribuer une probabilité à chacune d’un ensemble d’hypothèses (par exemple, nourriture, politique) étant donné une prémisse (j’aime les brocolis), où l’hypothèse la plus fortement associée à la prémisse obtiendra le score le plus élevé. Pour cet exemple, un bon modèle de classification pourrait attribuer à l’hypothèse alimentaire une probabilité de 0,99 et à l’hypothèse politique une probabilité de 0,01.

Avec un tel modèle de classification, un ensemble d’hypothèses peut être élaboré pour attribuer une note de sentiment à toute prémisse.

Un avantage important de l’utilisation des LLM pour les tâches de quantification du langage est qu’ils ne sont pas facilement trompés par les expressions idiomatiques. Par exemple, les modèles de sentiment basés sur les LLM évalueront « you’re driving me up the wall » avec une valence négative et des scores d’excitation élevés similaires à ceux attribués à « you’re making me angry » (vous me mettez en colère).

Comment la quantification des sentiments peut-elle faire progresser la science psychologique ?

Une grande partie de la psychologie clinique fait appel au langage, qu’il s’agisse des échelles subjectives utilisées pour mesurer les symptômes ou du dialogue entre un thérapeute et son client. Même les entretiens quantitatifs structurés, tels que l’échelle d’évaluation de la dépression de Montgomery-Åsberg, souvent utilisée comme critère principal dans les essais cliniques portant sur les traitements de la dépression majeure, exigent qu’un expert humain note les réponses verbales libres de la personne évaluée.

L’ajout de mesures de quantification du sentiment et d’autres mesures de quantification du langage à ces évaluations peut renforcer l’évaluation subjective des réponses enregistrées par l’enquêteur. Les séances de thérapie et de soutien psychologiques impliquent généralement un dialogue non structuré entre le thérapeute et le participant et sont donc encore plus difficiles à quantifier et à mesurer, ce qui fait de ce dialogue un cas d’utilisation important pour la quantification du sentiment basée sur le LLM. Un rapport récent de mon groupe a démontré l’utilité des mesures de sentiment basées sur le LLM pour prédire les résultats d’un traitement en quantifiant les transcriptions de séances de soutien psychologique d’un essai clinique utilisant la psilocybine dans le cas de dépressions résistantes au traitement.

Conclusion

Les progrès rapides de l’IA et des LLM ouvrent de nouvelles perspectives pour quantifier l’expression des émotions dans le langage humain, avec des implications significatives pour l’évaluation et le maintien de la santé mentale. Ces nouveaux outils d’IA peuvent permettre de mieux comprendre l’expression des expériences émotionnelles, de faciliter l’évaluation des symptômes et de faire progresser l’étude scientifique de la thérapie et du soutien psychologiques. Les mesures objectives peuvent être effectuées à grande échelle avec des modèles correctement réglés et offrent la possibilité de faire progresser la psychologie clinique vers la médecine de précision.

Used with permission
Dr Bob Dougherty
Utilisé avec l’autorisation de l’auteur

En tant que vice-président de la recherche en santé numérique chez COMPASS Pathways, le Dr Bob Dougherty dirige les efforts de science des données et d’apprentissage automatique visant à améliorer la sécurité, l’efficacité et l’évolutivité du traitement à la psilocybine. Il est neuroscientifique et ingénieur et possède une grande expertise dans la mesure du cerveau et du comportement humains et dans l’élaboration de solutions basées sur les données pour relever les défis en matière de soins de santé mentale. Avant de rejoindre COMPASS Pathways, M. Dougherty était vice-président de la recherche chez Mindstrong, où il dirigeait les équipes de recherche et de science des données dans le développement de biomarqueurs numériques pour la santé mentale. Avant Mindstrong, il était directeur de recherche au Centre d’imagerie neurobiologique de Stanford. Au cours de sa carrière scientifique de plus de 30 ans, il a publié plus de 100 articles évalués par des pairs dans les domaines de la psychologie, de la psychiatrie, des neurosciences, des statistiques et de la technologie de la résonance magnétique. Il a obtenu un doctorat en psychologie expérimentale à l’université de Californie à Santa Cruz et des bourses postdoctorales à l’université de Colombie-Britannique et à l’université de Stanford.