Intelligence artificielle & Innovation responsable

Interpol et Unicri indiquent que ce rapport présente différents emplois de l’IA par les forces de sécurité, mais qu’il ne saurait être analysé comme un soutien à celles-ci. La version complète du rapport (en langue anglaise) est disponible sur le site d’Interpol et d’UNICRI.

Le rapport s’ouvre sur une double constatation : d’une part l’I.A. peut être un atout en matière de sécurité et peut constituer un outil puissant, mais d’autre part il s’agit d’une épée à double-tranchant, en mesure d’altérer la nature même de la sécurité intérieure.

En introduction, le rapport rappelle que l’I.A. est une technologie qui évolue rapidement et dont nous ne mesurerons les pleines capacités que d’ici 10 à 15 ans. Toutefois, alors que les criminels sont des early-adopter, le rapport constate une inertie des forces de sécurité intérieure vis-à-vis de l’évolution technologique et de l’I.A., il recommande donc une collaboration entre les différents acteurs pour une standardisation des systèmes afin de faciliter le développement technologique et les coopérations entre secteurs.

Horizon Scanning

Le rapport d’Interpol-Unicri identifie ensuite 4 domaines d’application de l’intelligence artificielle qui contibue activement au maintien de la sécurité intérieure :

Traitement automatique audio :
- Définition : il s’agit de la manipulation des caractéristiques d’un signal audio dans le but d’en séparer les sources, de créer de nouvelle sonorité, de compresser, stocker ou transmettre des données.
- Application : cela permet, par exemple, d’établir des profils d’individu en fonction de la voix tant physique (poids, taille, âge, structure du visage, etc.) que psychologique (personnalité, trouble psychologique, etc.) mais également un profil de l’environnement de l’enregistrement (matériaux des murs, fluctuation des réseaux électriques, etc.).
- Limites : la qualité d’enregistrement (bruits environnants, saturation des micros, etc.), de la multiplicité des voix ou de leur manipulation et des technologies deepfake.

Traitement automatique visuel :
- Définition : il s’agit d’imiter la perception visuelle des êtres humains en dotant une machine de la capacité d’extraire une information depuis une image, de l’analyser et de la classifier.
- Application : en matière de vidéoprotection, le traitement automatique visuel peut concerner la détection et la reconnaissance d’objets (armes à feu), l’identification des individus (reconnaissance faciale ou de carrure physique). Cette technologie rend également possible le suivi automatisé des objets ou individus identifiés ou la détection de comportement anormal.
- Limites : au niveau technique, les difficultés majeures sont la qualité de l’image et l’orientation de l’objet ou de l’individu (de face, de profil, etc.), mais également les conditions de captation de l’image (de nuit, port de lunettes, des bijoux, etc.).

Optimisation de ressources:
- Définition : toutes les technologies d’I.A. permettant de soutenir le concept de sécurité intelligente en apportant un soutien à la planification stratégique et la prise de décision, et en renforçant l’efficience de l’action policière en améliorant la disponibilité des effectifs, véhicules et équipement tout en réduisant le temps de réponse et d’intervention.
- Technologies employées : capteurs intelligents, internet des objets, nouveaux moyens de télécommunication (5G, Wifi 6) et la réalité augmentée.
- Limites :  le point majeur d’attention est la capacité de l’humain à apprendre aux systèmes de recommandation les paramètres essentiels (délai, capacité de déploiement, indice de performance des ressources, données relatives à l’environnement comme la météo ou le trafic routier, etc.) mais également il doit rester décisionnaire et être en mesure d’évaluer la performance de ces systèmes.

Traitement automatique du langage naturel :
- Définition : il s’agit de la capacité d’une machine d’extraire et d’analyser des données à partir du langage humain comme un texte ou un email.
cette technologie permettra d’analyser et classer les éléments d’un dossier d’enquête, mais également de faciliter les investigations en analysant les données de discussion en ligne, d’email, d’image. Une autre application possible est la détection du langage qui permettrait ensuite de réaliser des traductions automatiques en temps réel facilitant la retranscription d’audition.

Pour une Intelligence artificielle responsable

Le rapport d’Interpol-Unicri souligne que les forces de l’ordre doivent travailler en garantissant que la construction et l’emploi de l’Intelligence Artificielle en matière de sécurité intérieure soit dotée d’une raison d’ÊTRE : équitable, transparente, responsable et explicable (FATE – fairness, accoutability, transparency and explainability). Au-delà de ces 4 prérequis, deux autres conditions à l’emploi de l’IA sont régulièrement invoquées : la sécurité et la robustesse des modèles.

Afin de pouvoir employer l’I.A. en matière de sécurité, Interpol et Unicri offrent deux recommandations : d’une part, généraliser des vérification d’intégrité des systèmes, tant interne que par des tiers de confiance, et d’autre part, de rendre les systèmes interopérables.

Concrètement, le rapport d’Interpol et d’Unicri souligne 3 défis que l’I.A. devra relever pour être appliquée au domaine de la sécurité intérieure :

- La conformité à la loi : l’I.A. devra nécessairement respecter la loi, et notamment celles relatives à la protection des données, afin de prévenir une atteinte aux droits fondamentaux. L’équilibre sera donc à trouver entre une protection suffisante des droits individuels en matière de données et l’objectif de sécurité publique, alors même que ni le RGPD, ni la directive police-justice de l’Union Européenne ne s’intéresse explicitement à l’I.A.

- L’acceptation de la société : alors que 59% de la population est en faveur d’un contrôle d’identité basé seulement sur un algorithme, et qu’une explication de 150 mots est capable d’influencer 28% des répondants, il apparait nécessaire que les Etats et forces de l’ordre prennent conscience de l’enjeu que représente l’acceptation sociale de l’I.A. Des politiques d’information et de communication seront essentielles pour réaliser des analyses de risques concernant le déploiement des algorithmes.

- Des obligations éthiques : au sein de l’U.E., de nombreux travaux sont menés sur l’I.A. comme un Livre Blanc, ou une déclaration de coopération sur l’I.A. de 24 pays-membres. Pour l’U.E. l’I.A. doit adopter 4 principes éthiques (le respect de l’autonomie humaine, la prévention des dommages, la responsabilité et l’explicabilité) et 8 conditions de développement et d’emploi (supervision humaine, robustesse technique, considération des données et de la vie privée, transparence, diversité, non-discrimination, bien-être sociétal et environnemental et responsabilité).

Le rapport Interpol-Unicri conclu sur plusieurs cas d’utilisation de l’Intelligence Artificielle par les forces de l’ordre de différents pays comme : la vidéoprotection en Norvège, le traitement automatique d’image dans un environnement sécurisé « Data Airlock » en Australie, des systèmes de recommandations et d’aide à l’enquête en Allemagne ou encore la gestion de grands évènements au Japon.

Actualités


Inf'ONSTS - Janvier 2021

  L'Observatoire vous présente...

Inf'ONSTS - Décembre 2020

  L'Observatoire vous présente...