Livre blanc de l'U.E sur l'I.A.

Le 19 février 2020, la Commission Européenne publiait un Livre Blanc sur l’Intelligence Artificielle intitulé « Une approche européenne axée sur l’excellence et la confiance ». Quelles en sont les idées principales?

L’Union Européenne et l’I.A.

L’objectif de l’Union Européenne est de garantir une intelligence artificielle digne de confiance, sûre et respectueuse des règles et valeurs européennes telles que la dignité humaine et la protection de la vie privée.

Pour atteindre cet objectif, le livre blanc souligne que l’Europe peut devenir un acteur mondial de premier plan en matière d’innovation dans l’économie fondée sur les données et dans ses applications à condition d’adopter une approche européenne commune et en harmonisant les initiatives étatiques, susceptibles de nuire à la sécurité juridique, de fragmenter le marché intérieur et d’empêcher l’apparition d’une industrie européenne dynamique.

La mise en place un écosystème d’intelligence artificielle qui bénéficiera à tous (citoyens, entreprises et services d’intérêt public) et dans tous les domaines (santé, transports, cybersécurité, etc.) se réalisera autour de deux piliers : un cadre de politique publique commun et des partenariats entre les secteurs privés et publics ; un cadre réglementaire européen pour l’I.A. protégeant les droits fondamentaux, suscitant la confiance chez les citoyenset garantissant la sécurité juridique aux entreprises et organismes du secteur public.

Les enjeux technologiques pour l’U.E.

Aujourd’hui l’Union Européenne dispose d’une solide infrastructure en matière de calcul, d’un volume de données publiques et industrielles important, d’avancées technologiques en matière d’informatique neuromorphique ou d’informatique quantique… Mais les investissements en matière d’I.A. en Europe sont deux fois moins importants qu’en Asie et quatre fois moins importants qu’en Amérique du Nord.

Le livre blanc identifie des enjeux de souveraineté technologique pour l’Europe comme : les processeursspécialisés pour l’I.A., les objets connectés et plus largement le edge computing… mais également l’explicabilité des résultats de l’Intelligence Artificielle.

La création d’un écosystème d’I.A. d’excellence

Le livre blanc souhaite que l’Europe mette en place un écosystème d’excellence pour l’I.A qui reposera sur : la coopération entre les états-membres et la synergie entre les instituts de recherche ; l’éducation numérique pour accroire la sensibilisation à l’I.A. ; des partenariats entre les secteurs publics et privés ; l’accès aux données et aux infrastructures de calcul.

Cet écosystème d’excellence aurait pour objectifs :

  • une I.A. considérant le bien-être sociétale et environnemental, du changement climatique.
  • d’attirer entre 2020 et 2030 plus de 20Mds € d’investissement par an ;
  • la mise en place d’un centre européen de la recherche, de l’innovation et de l’expertise en I.A. de niveau mondial ;
  • d’attirer les meilleurs professeurs et chercheurs et de proposer des masters renommé en I.A.
  • préparer les citoyens à des décisions influencées par l’I.A. ;
  • de soutenir les PME et les services publics dans la transition vers l’I.A. ;
  • de renforcer les pôles d’innovation numérique.

La création d’un écosystème d’I.A. de confiance

Le Livre Blanc souligne les risques liés à la conception de l’I.A. (biais, explicabilité, etc.) ou à l’emploi de l’I.A. (surveillance de masse, retracer et désanonymiser des données, etc.) notamment en matière d’atteintes aux droits fondamentaux (respect au droit de la vie privée, non-discrimination, etc.), de responsabilités juridiques et de sécurité technologique.

Reconnaissant que les technologies de l’I.A. demeurent opaques, complexes, imprévisibles et partiellement autonomes, le livre blanc n’écarte pas des risques pour la sécurité des utilisateurs et propose un cadre juridique amélioré.

Le nouveau cadre juridique proposé par la Commission Européenne s’appliquerait aux produits et aux services qui dépendent de l’I.A avec une approche fondée sur les risques pour ne pas être excessivement normatif et repose ainsi sur une dichotomie entre les applications d’I.A. « à haut risque » et les autres.

Pour être considérée à « haut risque », une application d’I.A. doit être cumulativement :

  • employée dans un secteur où, compte tenu des caractéristiques et des activités normalement menées, des risques importants sont à prévoir. Il s’agirait d’une liste précise de secteur où les risques sont réputés les plus probables (ie. soins de santé, transport, énergie, etc.).
  • l’emploi de l’I.A. est tel que des risques importants sont susceptibles d’apparaitre. Il s’agirait de prendre en compte ici un niveau de risque en considérant ses conséquences pour la partie concernée (blessure, décès, dommage matériel, etc.).

Par exception, des utilisations de l’I.A. serait considérées comme « à haut risque », indépendamment du secteur concerné, au seul regard de leur finalité (ie. égalité en matière d’emploi, droits des travailleurs, droits des consommateurs, identification biométrique, technologies de surveillance, etc.).

Ces applications d’I.A. « à hauts risques » seraient ainsi soumises à des obligations juridiques renforcées à tous les niveaux :

  • pour les données d’entrainement (ensemble de données suffisament large, couvrant tous les scénarios pertinents nécessaire, absence de discrimination, protection de la vie privée, etc.) ;
  • pour la conservation des dossiers et des données  afin de reconstituer l’historique des actions ou décisions potentiellement problématiques prises par le système d’i.A. et de les vérifier (archivage des données, méthodes, procédures et techniques de programmation employées) ;
  • pour une information claire de l’utilisateur notamment sur les capacités et limites du système d’I.A. ;
  • pour une robustesse et précision des systèmes d’I.A. tout au long de leur cycle de vie avec des contrôles régulier en cas d’apprentissage automatique et d’évolution de l’algorithme, notamment pour permettre la reproductibilité des  résultats, gérer les erreurs ou incohérences et résister aux manipulations de données.
  • pour un contrôle humain essentiel et effectif et devra être présent, soit pour valider le résultat de l’I.A, soit pour le réexaminer, avec la capacité de désactiver le système d’I.A.

L'ensemble de ces obligations n’ont pas vocation à s’appliquer à tous les acteurs impliqués dans la mise en œuvre d’un système d’I.A., mais aux acteurs les mieux placés pour éliminer tout risque potentiel.

Enfin, pour les applications d’I.A. qui ne sont pas « à haut risque », le Livre Blanc recommande la mise en œuvre d’un « Label » non obligatoire afin de rassurer quant à l’utilisation de l’intelligence artificielle.

Le livre blanc est disponible au téléchargement librement, en langue française et anglaise, sur le site de la commission européenne.

Actualités


Inf'ONSTS - Janvier 2021

  L'Observatoire vous présente...

Inf'ONSTS - Décembre 2020

  L'Observatoire vous présente...