Intelligence Artificielle, de l’opportunité à la réglementation | Eleven

Intelligence Artificielle, de l’opportunité à la réglementation27 avril 2021

Data science

Le 21 avril 2021, la Commission Européenne propose un texte de réglementation de l’Intelligence Artificielle sur le territoire de l’Union Européenne. Ce texte, encore en attente d’approbation par le Parlement et le Conseil de l’UE devrait être validé dans l’année.

L’Intelligence artificielle au cœur des débats

Début 2018, le rapport dit « Villani » posait les premières bases de la stratégie française sur l’Intelligence Artificielle (IA). Ses objectifs : créer un réseau d’instituts dédiés à l’IA, mettre en place un supercalculateur dédié ou encore augmenter l’attractivité des carrières dans la recherche pour éviter la fuite vers les géants américains. Fin 2018, le plan IA français était officiellement annoncé, suivant les grandes lignes du rapport Villani : 1,5 milliard d’euros « d’argent public consacré sur l’ensemble du quinquennat pour développer l’intelligence artificielle » par différents moyens (supercalculateurs, financements de thèses, financement de start-up spécialisées, etc.). A la même période, l’Allemagne annonce également son plan dédié à l’IA, 3 milliards d’euros pour se propulser parmi les premières nations sur Terre, espérant même outrepasser les hégémonies états-uniennes et chinoises. La course à l’IA est lancée en Europe, et les autres pays européens emboiteront le pas à la France et l’Allemagne, annonçant des plans dédiés dans les années qui suivront.

En 2020, il n’est alors pas surprenant de voir la Commission Européenne s’emparer du sujet dans la foulée en publiant son livre blanc sur l’IA. Elle fixe ses propres objectifs autour de 4 piliers :

  • Créer des conditions favorables au développement de l’IA
  • Faire de l’UE une zone attractive pour l’innovation
  • Construire des leaders stratégiques dans les différents secteurs d’activités
  • Assurer une utilisation de l’IA au service des citoyens

Cependant, et comme l’on pouvait s’y attendre, après la période euphorique des investissements vient la nécessité de réglementation de l’intelligence artificielle, accélérée notamment par les différents accidents de véhicules autonomes mettant en cause des systèmes d’IA.

Une proposition de la Commission pour encadrer l’Intelligence Artificielle

La Commission Européenne propose donc le 21 avril 2021 le premier cadre juridique autour de l’IA. Ce nouveau règlement vise à garantir aux citoyens européens qu’ils peuvent avoir confiance en l’IA, en anticipant l’ensemble des risques induits par l’utilisation de systèmes automatisés. Sont notamment visés l’usage de la reconnaissance faciale – et des moyens d’identification biométrique – et les systèmes touchant à des enjeux à fort impact comme l’éducation ou la démocratie.

Par ailleurs, la Commission Européenne entend garantir une homogénéité des règles sur l’ensemble du territoire des pays membres, afin d’éviter un fractionnement du marché. Ces règles, sous couvert d’approbation par le Conseil de l’UE et le Parlement Européen, seront applicables à l’ensemble des acteurs économiques, toute nationalité confondue et sur tout le territoire de l’Union Européenne. Leur mise en application sera assurée par l’intermédiaire d’autorités nationales désignées par chaque pays membres et chargées d’assurer l’implémentation de cette nouvelle réglementation. Enfin, le Conseil Européen sur l’IA centralisera l’ensemble des informations remontées par les autorités nationales.

Le non respect de cette nouvelle règlementation pourra donner lieu à une amende plafonnée :

  • Jusqu’à 30M€ ou 6% du chiffre d’affaires mondial annuel (selon le seuil le plus élevé) pour pratiques interdites ou non respect de la réglementation sur la donnée
  • Jusqu’à 20M€ ou 4% du chiffre d’affaires mondial total (selon le seuil le plus élevé) pour non respect de tout autre principe de la réglementation
  • Jusqu’à 10M€ ou 2% du chiffre d’affaires mondial total (selon le seuil le plus élevé) pour notification incorrecte, incomplète ou trompeuse aux autorités compétentes

En pratique, un grand spectre de systèmes concernés

La définition de l’IA donnée par la Commission Européenne est très large, permettant de couvrir juridiquement un grand spectre de systèmes :

  • Les approches d’apprentissage machine, supervisées, non-supervisées et l’apprentissage par renforcement, utilisant une grande variété de méthodes incluant l’apprentissage profond
  •  Les approches fondées sur la logiques et les connaissances, notamment la représentation des connaissances, la programmation inductive, les bases de connaissances, les moteurs d’inférences et déductifs, le raisonnement symbolique et les systèmes experts
  • Les approches statistiques, les estimations bayésiennes, les méthodes de recherche et d’optimisation

Ces systèmes ont ensuite été classés selon des niveaux de risque :

  • Risque inacceptable : menaces évidente pour les citoyens, notation sociale par les pouvoirs publics, etc. Ces systèmes seront purement et simplement interdits sur le territoire européen.
  • Risque élevé : infrastructure critique, formation, examens, emploi, recrutements, services publics et privés essentiels (notamment les systèmes d’obtention de prêts), la gestion des frontières, la justice ou encore la démocratie. Ces systèmes seront largement encadrés.
  • Risque limité : systèmes d’IA dialogueurs (chatbot), image/vidéo/contenu générés par de l’IA. Ces systèmes seront soumis à la règle de la transparence pour ne pas tromper l’utilisateur sur l’origine du contenu.
  • Risque minimal : univers du jeu-vidéo, filtres anti-spam, etc. Ces systèmes, représentant selon la Commission plus de 90% des cas, ne verront aucun changement suite à cette nouvelle réglementation à venir.
Intelligence artificielle et réglementation par les systèmes à risques

Une exception à cette définition par risques est faite pour les systèmes d’identification biométrique (reconnaissance faciale notamment). La raison principale évoquée par la Commission Européenne est le trop grand risque de biais statistiques de ces algorithmes pouvant donner lieux à de graves faux-positifs, notamment pour des motifs de genre, d’origine ethnique ou encore d’âge.

Ces derniers seront simplement interdits sur le territoire européen, sauf trois cas d’usages spécifiques :

  • La recherche de victime d’un crime et la recherche d’enfants portés disparus
  • La réponse à une menace imminente d’une attaque terroriste
  • La détection et l’identification d’auteurs d’infractions graves

Des évolutions à prévoir

Quatre axes majeurs d’évolution sont à prévoir pour les systèmes à risques.

1. Evaluation des risques

Les systèmes à risques devront avoir une politique formalisée d’évaluation des risques d’erreur. Cette politique devra être itérative et donc évoluer au cours du cycle de vie du système. Trois éléments clés seront à mettre en place :

  • La définition en amont de métriques permettant de quantifier les erreurs attendues du système
  • L’estimation des risques pouvant être induits en cas d’erreur du système
  • L’évaluation des autres risques éventuels pouvant être détectés après la mise en production du système

2. La validation des jeux de données

Les jeux de données utilisés pour l’apprentissage devront respecter certains critères, notamment : « être pertinents, représentatifs, sans erreurs et complets. Avoir les propriétés statistiques adéquates, incluant, le cas échéant, tous les profils ou groupes de personnes auprès desquels le système est destiné à être utilisé« 1.

Si ce principe de validation des jeux de données est appréciable, il faut rappeler que les jeux de données seront toujours un peu biaisés, souvent partiellement incomplets et n’auront que très rarement les parfaites propriétés statistiques. L’application de cette règle reposera donc probablement plus sur la bonne foi que sur des critères formels et absolu. Pour autant, il est fondamental de travailler à débiaiser au maximum ces algorithmes, comme déjà évoqué auparavant dans notre article : Les algorithmes peuvent-ils être racistes.

3. Transparence, interprétabilité et humain

Le troisième enjeu de réglementation mis en avant par la Commission Européenne tourne autour de la transparence des modèles et de leur interprétabilité. En pratique, les systèmes à risques devront être compréhensibles par l’utilisateur humain et éviter le principe « boite noire » ne permettant que d’obtenir un résultat sans accès au raisonnement ayant mené à la solution. Les milieux financiers se sont par exemple déjà bien approprié ce sujet pour les modèles d’attribution d’un crédit notamment.

Avec ce principe de transparence vient également le principe de la mise à contribution des humains au cœur du processus de l’IA. En effet, les opérationnels doivent non seulement être capables d’utiliser les systèmes d’IA, mais également de comprendre leurs résultats et de les remettre en question. Ce principe de responsabilisation et de montée en compétences des métiers nous tient particulièrement à cœur chez eleven et est fondamental pour une bonne adoption de l’IA comme un moyen et non comme un fin en soi. Pour lire plus avant sur le sujet: Interprétabilité des modèles de Machine Learning.

Des bonnes pratiques à généraliser

En réalité, cette nouvelle réglementation était plutôt attendue et ne changera probablement pas grand chose au quotidien des fournisseurs de systèmes d’IA, mais permettra de fixer des bases communes pour une IA plus encadrée. Une bonne partie des systèmes à risques ayant déjà en tête l’importance de ces principes, aucun changement drastique de direction pour les industries concernées ne devrait s’opérer.

Cependant, il est intéressant de voir ces bonnes pratiques se formaliser et se généraliser peu à peu à tous les systèmes en production. C’est d’ailleurs ce que suggère la Commission Européenne, par l’instigation des « Codes volontaires de conduite » consistant à appliquer ces principes d’analyse de risques, d’évaluation des biais et de respect de la transparence pour tous les systèmes.

De notre côté, ce sont des principes fondamentaux que nous continuerons donc d’appliquer au quotidien avec nos clients et que vous pouvez retrouver ici.

 

Morand Studer, Simon Georges-Kot, Jean Sauvignon

 

Notes et références

  1. Traduction libre, source : New rules for Artificial Intelligence – Q&As (europa.eu)

Sur le même sujet

nous suivre

Tous droits réservés Eleven Strategy ©2021