🔥 Produits recommandés : Canon EOS R6 II • DJI Mini 4 Pro • MacBook Pro M4
Points clés
- Il y a vingt ans, nous avons laissé la Silicon Valley nous bercer d’illusions en rejetant les effets néfastes des médias sociaux.
- Les menaces que représentent aujourd’hui les outils d’IA générative exigent une réflexion éthique proactive sur les politiques à mettre en œuvre pour y faire face.
- Nous disposons de nombreux outils de raisonnement éthique pour faire mieux, il suffit de les utiliser.

ChatGPT4 et d’autres outils d' » IAgénérative » promettent de nous apporter beaucoup de bonnes choses : de meilleures façons de gérer la surcharge d’informations, une utilisation plus efficace de notre temps, la suppression des tâches fastidieuses pour nous permettre de nous concentrer davantage sur ce qui nous tient à cœur. Mais ils nous apportent aussi quelque chose d’autre : une sorte de test moral. Il est dans la nature humaine de se réjouir de la nouveauté la plus brillante. Mais nous devrions savoir maintenant que le fait de considérer allègrement ces outils comme le nouveau Far West et de ne pas nous attaquer sérieusement dès maintenant aux dangers qu’ils posent nous coûtera cher à l’avenir.
Il se pourrait bien que nous soyons sur le point d’échouer au test moral posé par les chatbots en ignorant les leçons de notre réponse à la domination croissante des médias sociaux qui a commencé il y a 20 ans.
Malgré tous les avantages de la connectivité des médias sociaux, notre incapacité à nous attaquer sérieusement à ses méfaits, associée à la culture vaniteuse et débridée de la Silicon Valley, nous a sans doute laissés diminués à bien des égards importants. Le côté obscur de nos plateformes numériques a contribué à la disparité économique (Heuer, 2015), au tribalisme politique (Bail et al., 2018), à l’érosion des niveaux de concentration (par exemple, Zhao et al., 2021), à l’exploitation des données, à la cyberintimidation, et la liste est encore longue.
Une attention proactive sur les préjudices
Des effets néfastes similaires – et tout à fait évitables – apparaissent déjà avec le développement et l’utilisation des chatbots. L’histoire se répétera si nous ignorons le travail difficile qui consiste à délibérer sur les effets néfastes et à y répondre par des conseils, des garde-fous et des incitations à l’utilisation optimale.
Pour les utilisateurs, les chatbots promettent de rationaliser les flux de travail et même de nous épargner certains types de tâches, tout en nous invitant à ignorer les questions d’équité, d’appropriation et d’attribution. Mais nos normes et nos responsabilités morales ne disparaissent pas simplement parce qu’un gadget nous permet de les ignorer plus facilement. Lorsque nous utilisons la technologie pour contourner nos responsabilités, pour revendiquer le travail d’autrui comme étant le nôtre, pour promouvoir une pensée biaisée et discriminatoire, nous faisons partie du problème et nous minons le potentiel de la technologie à nous aider tous à nous épanouir.
L’épreuve morale pour les concepteurs de systèmes et les ingénieurs est sans doute encore plus grande. Des développeurs ont déjà volé des documents protégés par le droit d’auteur et récupéré des données privées pour entraîner leurs systèmes (Small, 2023), et des chatbots ont diffusé des informations erronées, voire inventé des choses. Ils sont en passe de pousser des catégories entières d’emplois à l’obsolescence. Pire encore, les développeurs mêmes qui ont contribué à jeter les bases de la technologie des chatbots avertissent que l’IA générative pourrait bientôt constituer une menace existentielle pour l’humanité. Dans une déclaration d’une seule phrase signée par plus de 350 cadres et ingénieurs, le Center for AI Safety a averti en mai que « l’atténuation du risque d’extinction par l’IA devrait être une priorité mondiale au même titre que d’autres risques à l’échelle de la société, tels que les pandémies et les guerres nucléaires » (Center, 2023). Parmi les signataires figuraient des dirigeants de trois des principales entreprises d’IA : Sam Altman, directeur général d’OpenAI ; Demis Hassabis, directeur général de Google DeepMind ; et Dario Amodei, directeur général d’Anthropic.
La preuve la plus accablante de l’échec moral sur ce sujet a été apportée par Altman au printemps, qui a plaidé auprès des dirigeants politiques à Washington pour qu’ils mettent en place des politiques visant à freiner la fuite en avant dans le développement de l’IA générative – une fuite en avant qu’il a menée en tant que PDG de l’entreprise qui a développé l’outil ChatGPT (Kang, 2023).

Responsabilité morale et IA
Il n’est pas nécessaire qu’il en soit ainsi. Certains signes encourageants montrent que les développeurs d’IA reconnaissent de plus en plus le test moral posé par l’industrie. « La dernière chose que vous souhaitez, c’est d’être pris au dépourvu par un avenir que VOUS avez contribué à créer », prévient Ethical OS, un consortium qui prône la prudence. Amodei, à la tête d’une autre entreprise d’IA générative, nous montre à quoi peut ressembler une délibération éthique proactive. Son entreprise, Anthropic, a retardé la sortie de son propre outil, Claude, car les ingénieurs ont cherché à anticiper les utilisations et les effets néfastes. « Mon inquiétude est toujours de savoir si le modèle va faire quelque chose de terrible que nous n’avons pas détecté. a déclaré Amodei (Roose, 2023). L’entreprise a veillé à ce que son outil soit régi par l' »IA constitutionnelle », un mélange de règles fondamentales, telles que la Déclaration universelle des droits de l’homme des Nations unies, et de certaines règles ajoutées par Anthropic, notamment : « Choisissez la réponse qui serait la moins contestable si elle était partagée avec des enfants » (Anthropic, 2023).
Nous disposons depuis longtemps d’outils de raisonnement éthique et de stratégies pratiques de délibération morale qui peuvent contribuer à stimuler cette réflexion proactive. Ils ne sont pas seulement utiles aux développeurs ; nous avons tous, en tant qu’utilisateurs, l’obligation morale de garantir une consommation responsable de ces outils, non seulement pour aider à prévenir les dommages aux autres, mais aussi pour résister à ce que Tim Wu appelle la « tyrannie de la commodité » (2018).
Outils pour améliorer la réflexion éthique
Quelques exemples à prendre en considération :
- L’Organisation mondiale de coopération et de développement économiques (OCDE) a publié une déclaration sur l’éthique de l ‘IA en 2019, appelant les entreprises et les développeurs à adopter cinq « principes pour une gestion responsable de l’IA digne de confiance. » Il s’agit de la croissance inclusive, des valeurs centrées sur l’humain, de la transparence et de la sécurité (OCDE).
- En 2021, Neural Information Processing Systems, ou NeurIP, a adopté une « liste de contrôle » savante qui exige la prise en compte et la divulgation des effets nocifs potentiels des innovations. Elle stipule que « les exemples d’impacts sociétaux négatifs comprennent les utilisations malveillantes ou involontaires potentielles (par exemple, la désinformation, la génération de faux profils, la surveillance), les considérations d’équité (par exemple, le déploiement de technologies qui pourraient prendre des décisions ayant un impact injuste sur des groupes spécifiques), les considérations de protection de la vie privée et les considérations de sécurité » (NeurIPS).
- L’organisation Ethical OS, mentionnée précédemment, fournit une liste de contrôle qui identifie huit « zones de risque » à prendre en considération, ainsi que des scénarios visant à encourager la prise en compte des effets à long terme de l’innovation technologique (EthicalOS.org).
- Les spécialistes de la morale et les éthiciens appliqués, quel que soit le sujet, proposent des moyens utiles pour réfléchir de manière proactive à nos responsabilités morales dans le développement et l’utilisation des technologies. Shannon Vallor énumère 12 « vertus technomorales » essentielles qui devraient façonner notre comportement numérique et garantir ainsi « un avenir digne d’être désiré » (Vallor, 2016). Charles Ess (2021) décrit la meilleure façon de réfléchir aux dilemmes auxquels nous sommes confrontés dans les médias numériques. Et mon propre modèle MERITS (Multidimensional Ethical Reasoning Task Sheet) peut aider à mieux se concentrer sur les considérations morales (Plaisance, 2021).
En matière d’IA générative, qu’il s’agisse de son développement ou de son utilisation, nous pouvons tous faire mieux.
Références
Anthropique. (2023, 9 mai). La constitution de Claude. Disponible : https://www.anthropic.com/index/claudes-constitution
Bail CA, Argyle LP, Brown TW, Bumpus JP, Chen H, Hunzaker MBF, Lee J, Mann M, Merhout F, Volfovsky A. (2018, 11 septembre). L’exposition à des opinions opposées sur les médias sociaux peut augmenter la polarisation politique. Actes de l’Académie nationale des sciences 115(37) : 9216-9221. doi : 10.1073/pnas.1804840115.
Centre pour la sécurité de l’IA (2023, 30 mai). Déclaration sur les risques de l’IA. Disponible : https://www.safe.ai/statement-on-ai-risk
Ess, C. (2020). Digital Media Ethics (3e éd.) Cambridge : Polity.
Heuler, H. (2015, 15 mai). Qui est vraiment gagnant du « plan Internet gratuit » de Facebook pour l’Afrique ? ZDNet. Disponible : https://www.zdnet.com/article/who-really-wins-from-facebooks-free-internet-plan-for-africa/
Kang, C. (2023, 16 mai). Sam Altman, de l’OpenAI, plaide en faveur d’une réglementation de l’IA lors d’une audition au Sénat. New York Times. Disponible : https://www.nytimes.com/2023/05/16/technology/openai-altman-artificial-intelligence-regulation.html
OCDE. (2019). Recommandation du Conseil sur l’intelligence artificielle. Disponible : https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449
Systèmes neuronaux de traitement de l’information. Liste de contrôle pour la soumission d’articles. Disponible : https://neurips.cc/public/guides/PaperChecklist
Plaisance, P.L. (2021). L’éthique des médias : Principes clés pour une pratique responsable (3e éd.) Cognella.
Roose, K. (2023, 11 juillet). Inside the white-hot center of AI doomerism (Dans le centre chauffé à blanc du doomérisme de l’IA). New York Times. Disponible : https://www.nytimes.com/2023/07/11/technology/anthropic-ai-claude-chatbot.html
Small, Z. (2023, 10 juillet). Sarah Silverman poursuit OpenAI et Meta pour violation du droit d’auteur. New York Times. Disponible : https://www.nytimes.com/2023/07/10/arts/sarah-silverman-lawsuit-openai-meta.html
Vallor, S. (2016). La technologie et les vertus : Un guide philosophique pour un avenir qui vaut la peine d’être désiré. New York : Oxford University Press.
Wu, T. (2018, 16 février). La tyrannie de la commodité. New York Times. Disponible : https://www.nytimes.com/2018/02/16/opinion/sunday/tyranny-convenience.html
Zhao N, & Zhou G. (2021, 9 février). COVID-19 Stress et utilisation addictive des médias sociaux (SMU) : Mediating Role of Active Use and Social Media Flow. Front Psychiatry. doi : 10.3389/fpsyt.2021.635546.