Explication de nos exigences extrêmes en matière de sécurité pour les voitures auto-conduites

Points clés

  • Les biais cognitifs peuvent conduire à des exigences irréalistes en matière de sécurité des voitures autonomes.
  • La plupart des gens exigent des niveaux de sécurité plus élevés qu’un conducteur humain avant d’accepter un trajet avec une voiture auto-conduite.
  • Nous avons tendance à nous considérer comme des conducteurs plus sûrs que nous ne le sommes en réalité.
  • Plus nous nous considérons comme des conducteurs sûrs, plus nous exigeons de sécurité de la part des voitures autonomes.
Cottonbro/Pexels
Source : Cottonbro/Pexels

Les voitures autonomes promettent d’égayer nos vies de multiples façons. Les Américains passent en moyenne près d’une heure par jour à faire la navette entre leur domicile et leur lieu de travail. Si les voitures autonomes ne réduiront pas ce temps, elles nous permettront de l’utiliser de manière plus productive ou plus amusante.

Les voitures autonomes peuvent également faciliter la vie des personnes incapables de conduire seules en raison de leur âge ou d’un handicap.

Enfin, la recherche a montré que l’introduction de voitures auto-conduites, une fois qu’elles seront au moins 10 % plus sûres que le conducteur moyen, épargnerait des centaines de milliers de vies sur les 1,25 million de vies perdues dans les accidents de la route chaque année.

Malgré l’avantage d’autoriser les voitures autonomes à circuler sur les routes dès qu’elles seront un peu plus sûres que le conducteur humain moyen, le public est très réticent à l’idée d’introduire des voitures autonomes, à moins qu’elles ne soient extrêmement sûres par rapport au conducteur humain moyen (par exemple, 90 % plus sûres que le conducteur humain moyen). Une nouvelle étude révèle que deux sophismes cognitifs jouent un rôle important dans l’explication de cette réticence à l’égard des voitures autonomes.

Deux erreurs cognitives

Dans une étude publiée dans le numéro de mai 2021 de la revue Transportation Research, le psychologue Azim Shariff et ses collègues ont entrepris d’examiner dans quelle mesure deux biais cognitifs bien connus, à savoir le biais de supériorité illusoire et l’aversion pour les algorithmes, qui entraînent un raisonnement fallacieux, expliquent la réticence du public à accepter un trajet dans une voiture auto-conduite, à moins qu’elle ne soit extrêmement sûre.

l’article continue après l’annonce

Le biais de supériorité illusoire – ou ce que l’on appelle également l’effet « mieux que la moyenne » – estla tendance à se percevoir comme un conducteur nettement meilleur que le conducteur moyen.

Les chercheurs ont prédit qu’étant donné que la plupart d’entre nous ont tendance à se considérer comme des conducteurs meilleurs que la moyenne, la plupart d’entre nous s’estimeront désavantagés s’ils acceptent de monter dans une voiture autonome qui n’est qu’un peu plus sûre que le conducteur moyen.

L’aversion pour les algorithmes est une opposition excessive à l’utilisation d’algorithmes, même lorsque ceux-ci sont égaux ou légèrement supérieurs aux humains.

L’aversion pour les algorithmes a déjà été démontrée en ce qui concerne les diagnostics médicaux. Par exemple, lorsqu’ils ont le choix de recevoir un diagnostic médical d’un médecin humain ou d’un ordinateur, la plupart des gens préfèrent recevoir le diagnostic de l’humain, même s’il a été démontré que l’ordinateur était plus précis que l’humain.

Shariff et al. prévoient que l’aversion pour les algorithmes est un autre facteur expliquant la réticence des gens à conduire une voiture autonome. Plus précisément, ils ont prédit que les gens seront moins disposés à monter à bord d’une voiture autonome qu’à bord d’un chauffeur de taxi humain ayant les mêmes antécédents en matière de sécurité.

Méthodologie

Pour déterminer dans quelle mesure l’effet de supériorité (ou illusion de supériorité) et l’aversion pour les algorithmes affectent la résistance du public à l’adoption des voitures autonomes, les chercheurs ont mené trois expériences.

Dans les deux premières expériences, il a été demandé aux participants d’indiquer le niveau minimum de sécurité (sur une échelle mobile) qu’ils exigeraient pour accepter un trajet avec une société de covoiturage (comme Uber ou Lyft). La moitié des participants ont été informés que le trajet était effectué par une voiture autopilotée, tandis que l’autre moitié a été informée que le trajet était effectué par un conducteur humain.

Les participants ont en outre été invités à évaluer leur propre sécurité en tant que conducteur par rapport aux autres conducteurs américains.

Les deux premières expériences ont défini la sécurité de différentes manières. Dans l’expérience 1, la sécurité était définie en termes de pourcentage d’accidents éliminés (par exemple, 10 % signifie que le taux d’accidents est inférieur de 10 % à celui du conducteur moyen).

l’article continue après l’annonce

Dans l’expérience 2, la sécurité a été définie en termes de rang centile parmi les conducteurs américains (par exemple, si le conducteur humain moyen a une chance sur 600 de mourir dans un accident de voiture au cours de sa vie, 10 % de sécurité en plus signifie que vous avez une chance sur 660 de mourir dans un accident de voiture au cours de votre vie).

Dans l’expérience 3, les participants ont été divisés en deux groupes. Le premier groupe s’est vu poser les mêmes questions que les participants à la deuxième étude. Le second groupe a été invité à évaluer sa propre sécurité en tant que conducteur par rapport à d’autres conducteurs américains, mais a été informé de l’existence du biais de supériorité illusoire.

Comme dans les expériences 1 et 2, les chercheurs ont demandé à la moitié des participants quel était le seuil de sécurité dont ils avaient besoin pour rouler avec une voiture autopilotée et à l’autre moitié quel était le seuil de sécurité dont ils avaient besoin pour rouler avec un conducteur humain.

Résultats

Les résultats ont révélé que les préjugés psychologiques de supériorité illusoire et d’aversion pour les algorithmes jouent un rôle important dans l’explication de la résistance du public à l’adoption des voitures autonomes, à moins qu’elles ne soient extrêmement sûres.

Les deux premières expériences ont montré que, indépendamment du sexe, de l’âge et du niveau d’éducation, la majorité des participants pensaient que si tout le monde conduisait comme eux, 66 % des accidents (expérience 1) ou 76 % des accidents (expérience 2) seraient éliminés. La majorité des personnes interrogées considèrent donc que leur propre capacité de conduite est nettement supérieure à la moyenne, comme le prévoit le biais de supériorité illusoire.

Les personnes interrogées ayant une meilleure estimation de leur propre capacité de conduite ont exigé des seuils de sécurité plus élevés de la part des voitures autopilotées, ce qui confirme la prédiction selon laquelle plus les personnes se perçoivent comme étant au-dessus de la moyenne, plus le seuil de sécurité qu’elles exigent d’une voiture autopilotée est élevé.

Les résultats ont en outre révélé que les gens étaient moins disposés à monter à bord d’une voiture autonome qu’à bord d’un chauffeur de taxi humain ayant les mêmes antécédents en matière de sécurité (pour 50 %, 75 % et 90 %).

L’expérience 3 a montré qu’en alertant les gens sur l’omniprésence du biais de supériorité illusoire, ils réduisaient de 12 % en moyenne leur évaluation de leur propre sécurité en tant que conducteurs.

Le fait d’avertir les participants de la susceptibilité générale des gens au biais de supériorité illusoire a en outre abaissé les seuils de sécurité pour la conduite avec d’autres êtres humains. En revanche, le fait de disposer de cette information n’a pas eu d’incidence sur le niveau de sécurité qu’ils exigeaient des voitures autopilotées.

Implications pratiques

L’étude montre ainsi que les voitures auto-conduites devraient être nettement plus sûres que le conducteur moyen (plus de 10 %) pour être adoptées à grande échelle.

Comme le soulignent Shariff et al., ce résultat est préoccupant. Si nous attendons que les voitures auto-conduites soient 90 % plus sûres que le conducteur moyen plutôt que 10 % plus sûres avant de les adopter, beaucoup plus de personnes perdront la vie dans des accidents de la route. De plus, le temps nécessaire pour obtenir une augmentation de 90 % de la sécurité sera beaucoup plus long que si nous adoptions les voitures autonomes lorsqu’elles sont 10 % plus sûres et que nous utilisions les données pour améliorer la sécurité.

Références

Azim Shariff, Jean-François Bonnefon, Iyad Rahwan (2021). Jusqu’à quel point la sécurité est-elle suffisante ? Psychological mechanisms underlying extreme safety demands for self-driving cars. Transportation Research Part C : Emerging Technologies, 126, https://doi.org/10.1016/j.trc.2021.103069.