L’intelligence artificielle peut-elle détecter les personnes dangereuses ?

Points clés

  • L’IA peut être un élément de l’évaluation des risques de violence, en combinaison avec le jugement humain.
  • La perception humaine fait appel à l’intuition et à l’instinct.
  • L’IA peut identifier et analyser les méthodes de détection des dangers.

Vivez-vous à côté d’un meurtrier à la hache ? Ne vous attendez pas à ce que l’IA le sache.

Image by tigerlily713 from Pixabay
Image par tigerlily713 de Pixabay

Le pouvoir de la perception

Lorsqu’il s’agit d’évaluer la personnalité et le caractère, l’IA ne peut pas reproduire la perception personnelle. Interagir avec un étranger, une connaissance ou un voisin reclus implique un mélange d’intuition et d’instinct. L’IA peut trier des statistiques, faire des recherches et des calculs à la vitesse de l’éclair, mais il lui manque un sixième sens. Dans un contexte social, l’IA ne peut pas cultiver l’alchimie ou créer des liens en établissant une relation. Elle est excellente pour exécuter des tâches et extraire des données, mais elle manque d’instinct humain et de perspicacité, qui sont souvent essentiels dans le travail d’évaluation des menaces.

Mais l’IA peut-elle contribuer à l’analyse de l’évaluation des risques ? Absolument. Elle peut notamment aider l’évaluateur des menaces à faire des prévisions proactives.

L’IA peut suggérer des méthodes de détection des dangers

À titre d’illustration, j’ai demandé à Chat GPT comment l’IA peut aider à détecter les personnes dangereuses. Parmi les réponses qu’il a données, il y avait les catégories suivantes, que je paraphrase ci-dessous :

l’article continue après l’annonce

Reconnaissance faciale: Analyse des traits du visage et comparaison avec des bases de données connues d’individus intéressants, y compris l’utilisation de cette technologie dans les espaces publics et les zones de haute sécurité pour identifier les individus ayant un passé criminel ou figurant sur des listes de surveillance.

Vidéosurveillance: Analyse de séquences en direct ou enregistrées en temps réel, détection de comportements suspects, identification d’armes ou d’autres comportements potentiellement dangereux.

Traitement du langage naturel: L’IA peut analyser des textes, écrits ou parlés, afin d’identifier des menaces potentielles ou des indicateurs potentiels de comportements dangereux. Particulièrement pertinent à l’ère de l’internet moderne, cela pourrait inclure la surveillance des plateformes de médias sociaux pour détecter les signes de violence ou d’extrémisme.

Analyse comportementale: Utilisation d’algorithmes d’IA pour reconnaître des modèles de comportement potentiellement dangereux afin d’identifier les comportements anormaux ou les écarts par rapport aux « normes attendues ». Ce type d’analyse peut être utile dans les lieux publics tels que les aéroports ou sur le lieu de travail.

Intégration et analyse des données: Agrégation et analyse de données provenant de sources multiples, telles que les bases de données des casiers judiciaires, l’historique des déplacements et l’activité des médias sociaux.

Chat GPT a intégré dans sa réponse une clause de non-responsabilité bien fondée, reconnaissant notamment que si l’IA peut être un outil précieux pour détecter des menaces potentielles, « le jugement et l’intervention humains devraient toujours être impliqués dans la prise de décisions finales basées sur les résultats générés par les systèmes d’IA ».

Nous sommes d’accord. Par conséquent, si l’IA doit être utilisée comme outil d’investigation pour l’évaluation des risques, la clé est de savoir ce qu’il faut déléguer et ce qu’il faut faire soi-même.

Utilisation de l’IA dans l’évaluation des risques de violence

Benjamin L. Spivak et Stephane M. Shepherd (2021) ont étudié l’utilisation de l’IA dans l’évaluation du risque de violence[i]. Ils adoptent une définition de l’IA comme étant un algorithme capable de « réaliser une fonction que l’on croyait auparavant exclusive à l’intelligence humaine ». Ils notent que l’interprétation de l’IA de cette manière limitée peut constituer simplement un nouveau terme pour une pratique établie de longue date.

l’article continue après l’annonce

En abordant la question de la transparence, Spivak et Shepherd décrivent les facteurs qui soutiennent les jugements humains sur le risque comme « opaques », notant que l’évaluation du risque par un clinicien sera probablement influencée par des processus qui échappent à la conscience ou qui impliquent des processus qui défient toute explication adéquate. Dans le même ordre d’idées, ils notent que même si un clinicien peut expliquer le choix de la classification de l’évaluation du risque, on peut se demander si l’explication reflète fidèlement le processus par lequel la classification a été obtenue.

Spivak et Shepherd expliquent que, contrairement à l’utilisation de notre cerveau, les évaluations des risques basées sur l’IA sont fondées sur les mathématiques, ce qui permet d’explorer si la classification des risques serait différente si le sujet avait un âge différent ou s’il n’avait pas de casier judiciaire. Ils expliquent que ces réponses ne seront pas fiables lorsque le jugement sur l’évaluation du risque fait appel à l’appréciation humaine.

En combinant la recherche et le bon sens, les professionnels de l’évaluation des menaces peuvent utiliser l’IA de manière proactive, en association avec le pouvoir humain de la perception, dans le cadre de la prévention ciblée de la violence.

Références

[i] Spivak, Benjamin L., et Stephane M. Shepherd. 2021. « Éthique, intelligence artificielle et évaluation des risques ». Journal of the American Academy of Psychiatry and the Law 49 (3) : 335-37. https://search-ebscohost-com.libproxy.sdsu.edu/login.aspx?direct=true&db=psyh&AN=2021-92340-006&site=ehost-live&scope=site.