L’AI Act Européen : Vers une IA responsable et régulée
04 novembre 2024
Le cadre de l'AI Act européen impose des règles strictes pour une IA responsable, avec des niveaux de risque et des exigences de conformité progressive…
Data science
Le 21 avril 2021, la Commission Européenne propose un texte de réglementation de l’Intelligence Artificielle sur le territoire de l’Union Européenne. Ce texte, encore en attente d’approbation par le Parlement et le Conseil de l’UE devrait être validé dans l’année.
Début 2018, le rapport dit « Villani » posait les premières bases de la stratégie française sur l’Intelligence Artificielle (IA). Ses objectifs : créer un réseau d’instituts dédiés à l’IA, mettre en place un supercalculateur dédié ou encore augmenter l’attractivité des carrières dans la recherche pour éviter la fuite vers les géants américains. Fin 2018, le plan IA français était officiellement annoncé, suivant les grandes lignes du rapport Villani : 1,5 milliard d’euros « d’argent public consacré sur l’ensemble du quinquennat pour développer l’intelligence artificielle » par différents moyens (supercalculateurs, financements de thèses, financement de start-up spécialisées, etc.). A la même période, l’Allemagne annonce également son plan dédié à l’IA, 3 milliards d’euros pour se propulser parmi les premières nations sur Terre, espérant même outrepasser les hégémonies états-uniennes et chinoises. La course à l’IA est lancée en Europe, et les autres pays européens emboiteront le pas à la France et l’Allemagne, annonçant des plans dédiés dans les années qui suivront.
En 2020, il n’est alors pas surprenant de voir la Commission Européenne s’emparer du sujet dans la foulée en publiant son livre blanc sur l’IA. Elle fixe ses propres objectifs autour de 4 piliers :
Cependant, et comme l’on pouvait s’y attendre, après la période euphorique des investissements vient la nécessité de réglementation de l’intelligence artificielle, accélérée notamment par les différents accidents de véhicules autonomes mettant en cause des systèmes d’IA.
La Commission Européenne propose donc le 21 avril 2021 le premier cadre juridique autour de l’IA. Ce nouveau règlement vise à garantir aux citoyens européens qu’ils peuvent avoir confiance en l’IA, en anticipant l’ensemble des risques induits par l’utilisation de systèmes automatisés. Sont notamment visés l’usage de la reconnaissance faciale – et des moyens d’identification biométrique – et les systèmes touchant à des enjeux à fort impact comme l’éducation ou la démocratie.
Par ailleurs, la Commission Européenne entend garantir une homogénéité des règles sur l’ensemble du territoire des pays membres, afin d’éviter un fractionnement du marché. Ces règles, sous couvert d’approbation par le Conseil de l’UE et le Parlement Européen, seront applicables à l’ensemble des acteurs économiques, toute nationalité confondue et sur tout le territoire de l’Union Européenne. Leur mise en application sera assurée par l’intermédiaire d’autorités nationales désignées par chaque pays membres et chargées d’assurer l’implémentation de cette nouvelle réglementation. Enfin, le Conseil Européen sur l’IA centralisera l’ensemble des informations remontées par les autorités nationales.
Le non respect de cette nouvelle règlementation pourra donner lieu à une amende plafonnée :
La définition de l’IA donnée par la Commission Européenne est très large, permettant de couvrir juridiquement un grand spectre de systèmes :
Ces systèmes ont ensuite été classés selon des niveaux de risque :
Une exception à cette définition par risques est faite pour les systèmes d’identification biométrique (reconnaissance faciale notamment). La raison principale évoquée par la Commission Européenne est le trop grand risque de biais statistiques de ces algorithmes pouvant donner lieux à de graves faux-positifs, notamment pour des motifs de genre, d’origine ethnique ou encore d’âge.
Ces derniers seront simplement interdits sur le territoire européen, sauf trois cas d’usages spécifiques :
Quatre axes majeurs d’évolution sont à prévoir pour les systèmes à risques.
1. Evaluation des risques
Les systèmes à risques devront avoir une politique formalisée d’évaluation des risques d’erreur. Cette politique devra être itérative et donc évoluer au cours du cycle de vie du système. Trois éléments clés seront à mettre en place :
2. La validation des jeux de données
Les jeux de données utilisés pour l’apprentissage devront respecter certains critères, notamment : « être pertinents, représentatifs, sans erreurs et complets. Avoir les propriétés statistiques adéquates, incluant, le cas échéant, tous les profils ou groupes de personnes auprès desquels le système est destiné à être utilisé« 1.
Si ce principe de validation des jeux de données est appréciable, il faut rappeler que les jeux de données seront toujours un peu biaisés, souvent partiellement incomplets et n’auront que très rarement les parfaites propriétés statistiques. L’application de cette règle reposera donc probablement plus sur la bonne foi que sur des critères formels et absolu. Pour autant, il est fondamental de travailler à débiaiser au maximum ces algorithmes, comme déjà évoqué auparavant dans notre article : Les algorithmes peuvent-ils être racistes.
3. Transparence, interprétabilité et humain
Le troisième enjeu de réglementation mis en avant par la Commission Européenne tourne autour de la transparence des modèles et de leur interprétabilité. En pratique, les systèmes à risques devront être compréhensibles par l’utilisateur humain et éviter le principe « boite noire » ne permettant que d’obtenir un résultat sans accès au raisonnement ayant mené à la solution. Les milieux financiers se sont par exemple déjà bien approprié ce sujet pour les modèles d’attribution d’un crédit notamment.
Avec ce principe de transparence vient également le principe de la mise à contribution des humains au cœur du processus de l’IA. En effet, les opérationnels doivent non seulement être capables d’utiliser les systèmes d’IA, mais également de comprendre leurs résultats et de les remettre en question. Ce principe de responsabilisation et de montée en compétences des métiers nous tient particulièrement à cœur chez eleven et est fondamental pour une bonne adoption de l’IA comme un moyen et non comme un fin en soi. Pour lire plus avant sur le sujet: Interprétabilité des modèles de Machine Learning.
En réalité, cette nouvelle réglementation était plutôt attendue et ne changera probablement pas grand chose au quotidien des fournisseurs de systèmes d’IA, mais permettra de fixer des bases communes pour une IA plus encadrée. Une bonne partie des systèmes à risques ayant déjà en tête l’importance de ces principes, aucun changement drastique de direction pour les industries concernées ne devrait s’opérer.
Cependant, il est intéressant de voir ces bonnes pratiques se formaliser et se généraliser peu à peu à tous les systèmes en production. C’est d’ailleurs ce que suggère la Commission Européenne, par l’instigation des « Codes volontaires de conduite » consistant à appliquer ces principes d’analyse de risques, d’évaluation des biais et de respect de la transparence pour tous les systèmes.
De notre côté, ce sont des principes fondamentaux que nous continuerons donc d’appliquer au quotidien avec nos clients et que vous pouvez retrouver ici.
Morand Studer, Simon Georges-Kot, Jean Sauvignon
Notes et références
Partager
Sur le même sujet