Interprétabilité des modèles de Machine Learning

 In Articles

Le développement de modèles de Machine Learning traitant de grandes quantités de données permet d’améliorer grandement la performance des prédictions. Néanmoins, ces modèles soulèvent de nombreuses questions quant à leur interprétabilité ce qui peut engendrer un rejet de la part des métiers ou des clients les utilisant. Les Data Scientists qui souhaitent déployer ces modèles doivent donc proposer une approche rigoureuse permettant d’améliorer la compréhension des résultats. Améliorer la compréhension des modèles de Machine Learning est donc essentiel pour que ces derniers puissent s’implémenter avec succès au sein des entreprises.

Le 17 janvier 1991 commence l’Opération Tempête du Désert qui oppose une coalition de 35 Etats, menée par les Etats-Unis, à l’Irak. Après des premiers raids aériens réussis, la coalition décide de lancer l’assaut terrestre. A la stupeur générale, les chars américains, au moment d’ouvrir le feu, pointent leurs canons vers leurs alliés et commencent à les pilonner faisant par la même éclater la coalition.

Il est nécessaire d’avoir une bonne compréhension des modèles de Machine Learning

Cet épisode de politique fiction trouve son origine dans les conséquences qu’auraient pu avoir une mauvaise interprétabilité des modèles de Machine Learning. En effet, au cours des années 1990, l’armée américaine avait testé une technologie de détection automatique des chars ennemis reposant sur des algorithmes d’apprentissage de reconnaissance d’image. Or, au sein de l’échantillon, le facteur le plus discriminant pour détecter la présence d’un char ennemi était la couleur du ciel : les photos montrant un paysage comprenant un char ennemi avaient été prises par beau temps alors que celles sans avaient été prises par mauvais temps. Une fois les modèles de détection ainsi calibrés, il suffisait d’un simple orage pour faire vaciller toute une coalition… Cet exemple met en exergue la nécessité d’avoir une bonne compréhension des modèles de Machine Learning afin de pouvoir les utiliser correctement.

Cela est d’autant plus vrai que nous vivons dans une époque où les algorithmes prennent une place de plus en plus croissante dans notre vie quotidienne : attribution d’un crédit, site de rencontre, choix de nos trajets, etc. Cette multiplication des algorithmes soulève néanmoins de nombreuses questions : comment ont-ils été construits ? comment fonctionnent-ils ? comment expliquer leurs décisions ? Les réponses à ces questions constituent un champ de recherche relativement récent mais en pleine expansion dans le monde scientifique. Ces questions doivent être prises au sérieux par les entreprises désirant se doter de tels outils au risque de voir se dégrader la relation avec ses clients et l’adhésion des métiers vis-à-vis des projets accès sur les données.

Pour illustrer nos propos, prenons comme exemple les algorithmes utilisées par les banques pour déterminer la capacité d’emprunt de chacun. Plaçons-nous dans la peau d’un jeune actif que nous appellerons Charles et qui est à la recherche de son premier investissement immobilier. Charles se rend à la banque pour connaître les conditions d’emprunt et transmets un éventail assez large de ses données personnelles (âge, salaire, situation matrimoniale, etc.).

A sa plus grande surprise, son conseiller bancaire lui annonce qu’il est inéligible à la souscription d’un crédit. Le nouveau logiciel d’attribution de crédit reposant sur le Machine Learning et permettant d’attribuer « en quelques clics seulement et avec une précision inégalée un crédit à vos clients » a été implanté récemment et est censé utiliser les dernières techniques de pointe en matière d’Intelligence Artificielle. Cependant, la performance de l’algorithme a été préférée à son interprétabilité ce qui laisse le conseiller bancaire dans l’embarras avec ce nouveau logiciel puisqu’il ne peut expliquer à Charles les facteurs qui ont discriminé son dossier.

Comment concilier performance et interprétabilité ?

Cet exemple illustre le compromis auquel fait face tout projet de développement en lien avec le Machine Learning : où se situe le curseur idéal entre performance et interprétabilité ? La modélisation est, en effet, généralement caractérisée par une relation inversement proportionnelle entre performance et interprétabilité.

Ainsi l’univers des modèles de Machine Learning peut être scindé entre d’une part les modèles interprétables par nature (les régressions multilinéaires, les arbres de décision, etc.) et les modèles dits « boites noires » (forêts aléatoires, réseaux de neurones, etc.) comme le résume l’illustration ci-dessous :

Le succès d’un projet de Machine Learning au sein d’une entreprise repose sur les cinq règles d’or suivantes :

  1.  Le modèle doit résoudre un problème clairement identifié correspondant à un besoin métier ;
  2. Le modèle doit capturer au mieux la réalité sans présenter de biais de surapprentissage et en étant généralisable ;
  3. Le modèle doit pouvoir être expliqué et vulgarisé auprès des métiers afin de recueillir l’adhésion de ces derniers ;
  4. Le modèle doit être adapté aux exigences du client final ; et
  5. Le modèle doit répondre aux exigences du régulateur.

Améliorer l’interprétabilité des modèles de Machine Learning est un des principaux leviers à disposition des équipes de Data Scientists pour remplir les critères de réussite de développement d’un projet. Cela permet en effet de sortir de la dualité Interprétabilité vs Performance qui pourrait jouer en défaveur des modèles potentiellement plus performants.

Notre exemple précédent illustre bien la nécessité d’avoir une bonne compréhension des modèles de Machine Learning : le conseiller bancaire est dans l’incapacité d’expliquer le résultat du modèle au client, lequel se retrouve dans l’incompréhension de la décision de la banque ce qui conduit à une détérioration de la relation de confiance préexistante entre la banque et son client.

Comprendre et expliquer les modèles sont donc un des enjeux majeurs dans les projets reposant sur le Machine Learning. Quelle est la démarche à suivre pour y arriver ? Quelles sont les solutions existantes ? Pour répondre à ces questions, deux catégories de techniques émergent : l’interprétabilité globale et l’interprétabilité locale.

L’interprétabilité globale cherche à identifier les variables les plus importantes du modèle notamment via une analyse minutieuse de la contribution de chaque variable sur les données de sortie du modèle. Quelles est leur contribution sur les performances du modèle ? Quelle est la relation entre chaque variable et la sortie du modèle ? Cela doit être également complété par un regard critique sur le sens économique du comportement des principales variables. L’interprétabilité globale doit permettre à terme (1) d’améliorer la compréhension du modèle par les experts métiers et donc (2) de mieux s’approprier les résultats.

Une méthode couramment utilisée pour l’interprétabilité globale est celle dite des Partial Dependency Plot qui consiste à figer l’ensemble des variables à l’exception de celle que l’on souhaite analyser. Grâce à des nombreuses simulations, on peut ainsi évaluer le comportement de cette variable dans le modèle. Il suffit ensuite d’appliquer cette méthodologie à toutes les variables du modèle pour pouvoir connaître l’impact de chaque variable et sur la sortie.

Réduire l’écart entre la data science et les métiers

Dans notre exemple, l’interprétabilité globale permet à la banque de comprendre finement les critères et les variables que le modèle utilise pour estimer le risque de crédit associé à tel ou tel type de profil. Cette maîtrise des risques et des modèles est aujourd’hui essentielle pour les banques européennes notamment vis-à-vis du régulateur qui est de plus en plus exigeant dans le calcul des risques bancaires.[1]

De son côté, l’interprétabilité locale cherche à décrypter le comportement du modèle à l’échelle d’un individu en identifiant l’impact et la contribution local de chaque variable. Cette méthode doit permettre d’améliorer la communication et la justification des résultats de l’algorithme à l’utilisateur final.

Une des méthodes couramment utilisées pour l’interprétabilité locale est celle dite de Shapley Value qui va mettre en exergue la contribution de chaque variable sur l’écart entre la prédiction et la moyenne des prédictions. Dans l’exemple de Charles, cela permet de mettre en évidence les points forts et les points faibles de son dossier.  Ainsi, le conseiller bancaire pourrait expliquer que l’âge, le salaire et le niveau d’épargne sont les variables qui ont contribué le plus, et à quelle hauteur, à la décision finale prise pour son dossier.

Les projets liés au Big Data dans les entreprises sont souvent porteurs d’amélioration et d’automatisation de la chaîne opérationnelle ou de fluidification du parcours client à travers une expérience simplifiée et unifiée. Néanmoins, ne pas tenir compte des attentes métiers, clients et du régulateur en amont des développements des projets peut mener à l’échec des projets surtout quand ces derniers reposent sur des « boites noires ». C’est pourquoi, l’interprétabilité des modèles offre une opportunité incontournable de réduire l’écart entre la data science et les métiers. A cet égard, consacrer une partie de ses efforts à l’utilisation des méthodes d’interprétabilité pourrait permettre, à terme, de faire accepter les modèles plus performants. L’interprétabilité est donc un des facteurs clés du succès de l’implémentation d’algorithme de décisions au sein des entreprises.

Morand STUDER, Pietro TURATI et Clément TEQUI

[1] Basel III: Finalising post-crisis reforms, Bank for international Settlements, December 2017