🔥 Produits recommandés : Canon EOS R6 II • DJI Mini 4 Pro • MacBook Pro M4
Points clés
- L’intelligence artificielle reste très différente de l’intelligence humaine.
- Les enfants humains (mais pas l’IA) développent progressivement des idées de bien et de mal, la morale apparaissant par étapes.
- Les enfants humains (mais pas les IA) apprennent dans le contexte de parents et d’enseignants qui guident leur développement moral.
- À mesure que nous créons des machines plus proches de l’homme, nous devons former l’IA de niveau supérieur à l’éthique.

Malgré tout le battage médiatique autour de l’intelligence artificielle (IA), l’intelligence de ces robots intelligents reste très différente du QI humain. L’IA peut traiter des gigaoctets de données tout en simulant un discours conversationnel, mais les robots sont encore loin de présenter la complexité, les nuances et les intelligences multiples de l’esprit humain.
Les robots d’IA peuvent jouer aux échecs, mais ne peuvent pas vraiment exprimer ce qu’ils ressentent lorsqu’ils gagnent ou perdent. Les conversations simulées avec des phrases et une grammaire basées sur des algorithmes ne donnent pas aux robots de conversation la capacité de compréhension ou d’empathie humaine. C’est peut-être la raison pour laquelle certaines personnes craignent l’ IA ou, du moins, ne semblent pas savoir si l’IA nous sauvera ou nous détruira.
Les êtres humains se développent par étapes, guidés par d’autres.
Pour inculquer des valeurs et une morale à l’IA, les programmeurs pourraient essayer d’imiter la façon dont les enfants apprennent et développent des notions de bien et de mal. La pensée des enfants semble émerger par étapes, avec parfois des sauts mentaux et des poussées de croissance remarquables. Il faut des années aux enfants pour développer une pensée, une intelligence émotionnelle, une théorie de l’esprit et une métacognition semblables à celles des adultes.
Plus important encore, les humains apprennent dans le contexte de parents, d’enseignants, de pairs et d’autres personnes qui adaptent leurs comportements d’aide au niveau et à la capacité de chaque enfant (échafaudage). Devrions-nous attendre de l’IA qu’elle pense comme un humain ou qu’elle fasse un jour preuve d’empathie si elle n’est pas programmée pour apprendre progressivement, par étapes, avec l’aide d’un être humain ? Peut-on s’attendre à ce que l’IA apprenne des valeurs, fasse preuve d’empathie ou développe une moralité, à moins que les robots ne soient soigneusement guidés par d’autres personnes pour réfléchir au « bien et au mal » comme le font les enfants humains ?
En outre, les êtres humains possèdent une curiosité naturelle unique. Les enfants aspirent continuellement à en savoir plus et s’efforcent d’explorer et de comprendre le monde et eux-mêmes. Il ne suffit donc pas de programmer les machines pour qu’elles apprennent. Nous devons également doter l’IA d’une curiosité innée – pas seulement une soif de données, mais quelque chose de plus proche de la volonté biologique d’un enfant humain de comprendre, d’organiser et de s’adapter. Les programmeurs travaillent déjà avec des modèles d’apprentissage profond pour améliorer continuellement l’IA grâce à des algorithmes inspirés de la neurocognition humaine(1).
Si les machines d’IA doivent un jour posséder une éthique, une empathie, une conscience ou des valeurs morales, elles doivent devenir elles-mêmes des êtres moraux performants. D’où viennent l’empathie, la gentillesse et la compassion ? Sont-elles innées ? Il est plus probable que vous ayez acquis vos valeurs et votre morale par l’expérience de la vie. Peut-être les IA doivent-elles parvenir à un raisonnement moral plus élevé par le biais d’une expérience et d’une orientation progressives, un peu à la manière des humains ?
Pour créer une IA éthique, les machines apprenantes doivent se développer progressivement par étapes, les adultes et les éthiciens guidant l’IA de la même manière qu’un parent ou un enseignant guide l’évolution morale d’un enfant. Cela prend du temps. La prochaine génération d’IA nécessitera une formation allant au-delà de la linguistique et de la synthèse de données. Nous devons apprendre à l’IA à aller au-delà des règles des mots et de la syntaxe, de manière à ce que la prochaine génération d’IA apprenne ce qu’est le bien et le mal. Peut-être en commençant par les lois de la robotique d’Asimov : « Un robot (ou une IA) ne doit pas nuire à l’humanité ou, par son inaction, permettre à l’humanité de nuire »(2) Pouvons-nous peut-être développer une IA capable de penser par elle-même, au-delà de l’obéissance aux règles ?
Peut-on programmer une IA « post-conventionnelle » ? Le voudrions-nous ?
Au fur et à mesure qu’ils grandissent, les êtres humains développent un raisonnement moral « adulte » de plus haut niveau. Le psychologue Lawrence Kohlberg a qualifié le niveau le plus élevé de pensée « post-conventionnelle »(3). L’idée est que le raisonnement moral avancé peut aller au-delà de l’adhésion aux lois locales (conventions) pour découvrir des principes éthiques universels à respecter.
La question est la suivante : Voulons-nous que les IA deviennent des penseurs sensibles, post-conventionnels et indépendants, capables d’aller au-delà des règles ? C’est une idée effrayante. Alors que nous nous efforçons de créer des machines de plus en plus complexes et proches de l’être humain, nous devons réfléchir à la manière dont les futurs programmeurs créeront l’IA de niveau supérieur, dotée d’une intelligence émotionnelle, d’empathie, d’une pensée et d’un comportement éthiques.
Références
(1) Un guide des algorithmes d’apprentissage automatique et de leurs applications https://www.sas.com/en_gb/insights/articles/analytics/machine-learning-…
(2) Asimov, Isaac (1950). « Runaround ». in I, Robot (The Isaac Asimov Collection). New York City : Doubleday. ISBN 978-0-385-42304-5.
(3) Kohlberg, Lawrence, 1927-1987. (1981). La philosophie du développement moral : les étapes morales et l’idée de justice. San Francisco : Harper & Row
Kohlberg, L. (1976). Moral stages and moralization : The cognitive-developmental approach. Dans T. Lickona (Ed.), Moral development and behavior. New York : Holt, Rinehart, & Winston.
Voir aussi : Walrath, R. (2011). La théorie du développement moral de Kohlberg. In : Goldstein, S., Naglieri, J.A. (eds) Encyclopedia of Child Behavior and Development. Springer, Boston, MA. https://doi.org/10.1007/978-0-387-79061-9_1595