Méthode d’explicabilité : Integrated gradients

01 décembre 2020

Méthode d’explicabilité : Integrated gradients

Retrouvez toutes nos autres videos sur notre chaîne YouTube

 

Si vous avez aimé notre précédent article, rédigé par Aurélia, sur l’explicabilité des modèles, vous serez certainement intéressé par ce nouvel article qui présente en particulier une nouvelle approche méthodologique pour améliorer l’interprétation de modèles de Deep Learning, souvent très opaques. Il s’agit de la méthode des « Integrated gradients », qui a été introduite en 2017.

En effet, les algorithmes d’apprentissage automatique sont de plus en plus vus comme des “Black Box” non compréhensibles par les humains, ce qui pose un problème de confiance et de transparence vis à vis des décisions prises par les machines. C’est ainsi que la nécessité de pouvoir expliquer des décisions prises par ces algorithmes devient de plus en plus importante et affecte plusieurs domaines.

À titre d’exemple, dans le domaine médical on aimerait savoir sur quoi est basé la décision d’un modèle qui détecte la présence d’une maladie asymptomatique chez un patient. Un autre exemple type se trouve dans les sociétés proposant des services d’abonnements à leurs clients. En général, ces entreprises utilisent des algorithmes qui prévoient la résiliation des contrats. Dans ce cadre, l’objectif de l’explicabilité sera de savoir sur quoi l’algorithme s’est basé pour détecter une potentielle résiliation de contrat, ce qui permettra par la suite de mieux adapter l’offre d’abonnement à la demande.

 

1. Opacité et transparence

 

Les algorithmes de Machine Learning peuvent être divisés en deux parties différentes : Les algorithmes transparents et les algorithmes opaques.

Les algorithmes transparents sont ceux qui sont explicables de nature. La régression linéaire ou logistique, l’arbre de décision, l’algorithme des k plus proches voisins (k-NN), le modèle additif généralisé ainsi que le modèle bayésien sont des algorithmes transparents et compréhensibles de nature.

Par contre, les forêts aléatoires, les SVM et toute la famille des réseaux de neurones profonds (incluant les réseaux de neurones convolutionnels et les réseaux de neurones récurrents) sont des algorithmes opaques qui nécessite une méthode d’explicabilité afin de rendre leurs décisions compréhensibles par les humains.

 

2. Méthodes d’Explicabilité

 

Plusieurs méthodes d’explicabilité ont vu le jour durant ces dernières années, chacune d’entre elles ayant ses propres avantages et inconvénients. On peut principalement les diviser en deux grandes catégories [1]: les méthodes agnostiques et les méthodes spécifiques.

 

2.1. Méthodes Agnostiques

Les méthodes agnostiques désignent celles qui peuvent s’appliquer à tous les types de modèles. Les méthodes agnostiques les plus populaires sont LIME [2] et SHAP [3].  La méthode LIME consiste à transformer le modèle complexe en un modèle linéaire simple au voisinage d’un point de donnée. L’avantage de cette méthode est sa simplicité et sa rapidité d’exécution. Son inconvénient est l’instabilité des explications et la définition du « bon voisinage ».

La méthode SHAP est basée sur le calcul des valeurs de Shapley. En plus de sa simplicité d’interprétation, son réel avantage est qu’elle repose sur une théorie mathématique assez solide. Son inconvénient est que le calcul des valeurs de Shapley est très complexe pour des problèmes réels, juste une approximation de ces valeurs est possible. Un autre inconvénient est le fait qu’elle ne prend pas en compte la corrélation entre les features du modèle. En revanche, de nouvelles variantes [4] permettent de résoudre ce problème en se basant sur la théorie des copules.

 

2.2. Méthodes Spécifiques

À l’opposé des méthodes agnostiques, les méthodes spécifiques sont des méthodes conçues pour un type de modèle bien précis. À titre d’exemple, « DeConvNets », « Guided back-propagation »,  « Deeplift » et « Integrated Gradients » (IG) sont des méthodes spécifiques pour l’explicabilité des réseaux de neurones. Par la suite, on explicitera la méthode IG ainsi que ses applications dans différents types de réseaux de neurones.

 

3. Integrated Gradients (IG)

 

Integrated Gradients [5] est une nouvelle méthode d’explicabilité basée sur le calcul des gradients et conçue pour toute la famille des réseaux de neurones (réseaux profonds, réseaux convolutionnels, réseaux récurrents et réseaux à base de transformeurs).

 

3.1. Formulation

Soit F:\mathbb{R}^n\rightarrow[0,1] une fonction représentant un réseau de neurones, x\in\mathbb{R}^n une donnée d’entrée et x\prime\in\mathbb{R}^n une donnée de référence. On considère le segment reliant x à x\prime, et on calcule le gradient en tout point de ce segment. La méthode IG consiste tout simplement à sommer ces gradients. Ainsi, IG dans la ième dimension, est donné par la formule suivante :

(1)   \begin{equation*} {IG}_i(x)=(x_i-x\prime_i)\frac{\int_{\alpha=0}^{1}{dF(x\prime+\alpha(x-x\prime))}}{{dx}_i}d\alpha \end{equation*}

L’avantage que IG a sur les autres méthodes existantes est qu’elle satisfait les deux axiomes de la sensibilité et de l’invariance d’implémentation qu’on détaille dans le paragraphe suivant.

 

3.2. Axiomes

3.2.1. Axiome de la sensibilité

Une méthode d’explicabilité satisfait la sensibilité si pour toute donnée d’entrée et de référence qui ne diffèrent qu’au niveau d’une seule feature, cette méthode donne une attribution non nulle à cette feature chaque fois que les prédictions respectives associées à la donnée d’entrée et à la référence sont différents.

En d’autres termes, si x représente une donnée d’entrée, x\prime une donnée de référence, F une fonction de réseau de neurone et A_F(x,x\prime)=(a_{1,}a_{2,}...,a_n) une méthode d’attribution où a_i mesure la contribution de x_i dans la prédiction F(x), alors :

\forall x,x\prime\in\mathbb{R}^n,\forall i\in{1,2,...,n};x-x\prime=u_i si F(x)\neq F(x\prime) alors a_i\neq0

u_i=(0…0 (k) 0…0)

                            ↑
                    ième position

k étant un réel non nul.

Notons que les méthodes d’attributions comme « LIME », « DeConvNets » et « Guided back-propagation » ne satisfont pas l’axiome de la sensibilité.

3.2.2. Axiome de l’invariance d’implémentation

Deux réseaux de neurones sont dits fonctionnellement équivalents si leurs sorties sont les mêmes pour toute donnée d’entrée, même si leurs architectures sont différentes. Une méthode d’attribution satisfait l’axiome de l’invariance d’implémentation si les attributions sont identiques pour deux réseaux fonctionnellement équivalents.

À noter que les méthodes d’attributions DeepLift et LRP utilisées pour les réseaux de neurones convolutionnels violent l’axiome de l’invariance d’implémentation.

 

3.3. Applications

3.3.1. Reconnaissance d’objet

L’application de la méthode IG sur une tâche de reconnaissance d’objet [5] en utilisant un réseau de neurones d’architecture GoogleNet entrainé sur le dataset ImageNet donne le résultat suivant :

Méthode d’explicabilité : Integrated gradients

La comparaison avec la méthode du gradient montre une nette différence au niveau de l’explicabilité.

3.3.2. Question-Réponse appliquée à l’image

La méthode d’IG a aussi été appliquée à la tâche « Visual Question-Answering ». Cette dernière consiste à poser une question sur une image donnée, et à obtenir la réponse à partir du modèle prédictif. Le modèle utilisé est celui développé dans [2]. Il traite la tâche de « Question-Answering » comme une tâche de classification où les classes sont les 3000 réponses les plus fréquentes dans le dataset d’entrainement. L’exemple suivant illustre l’application de l’IG sur ce modèle. Les couleurs rouges représentent une attribution positive, les couleurs bleues représentent une attribution négative et les couleurs grises une attribution proche de zéro.

Méthode d’explicabilité : Integrated gradients

  Question : how symmetrical are the

  white bricks on either side of the

  building

  Prediction: very

  Ground truth: very

 

3.3.3. Analyse de Sentiment

La méthode IG peut aussi être appliquée à des architectures basées sur des transformeurs comme BERT. L’exemple suivant [7] illustre son application sur une tâche d’analyse du sentiment utilisant le modèle BERT. La couleur rouge suggère une attribution négative tandis que la bleue dénote une attribution positive.

 

“This was not a bad movie” ;  Prédiction : Positive

 

Conclusion

 

Dans cet article, on a présenté une méthode d’explication des modèles de deep learning qui s’appelle « Integrated Gradients ». L’avantage de cette méthode, par rapport à ses concurrentes, est qu’elle satisfait les deux axiomes de la sensibilité et de l’invariance d’implémentation.

De nouvelles variantes basées sur le calcul du gradient sont récemment sorties comme le smoothGrad [8] qui améliore la sensibilité du gradient (en moyennant sur plusieurs valeurs du gradient) ou encore, la méthode Generalised Integrated Gradients (GIG) [9] qui généralise l’utilisation de l’IG à d’autres types d’algorithmes de Machine Learning.

Fadi Abi Abdallah

Références

 

[1] A. Arieta, Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges Toward Responsible AI, Info. Fusion, vol. 58, 2020, Pages 82–115.

[2] M.T. Ribeiro, S. Singh and C.E. Guestrin, « Why Should I Trust You? »: Explaining the Predictions of Any Classifier, Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, August 2016, Pages 1135–1144

[3] S.M. Lundberg and S. Lee, A unified approach to interpreting model predictions, Proceedings of the 31st International Conference on Neural Information Processing Systems, December 2017, Pages 4768–4777

[4] K. Aas, M. Jullum and A. Loland, Explaining individual predictions when features are dependent: More accurate approximations to Shapley values, arXiv:1903.10464v3, February 2020

[5] M. Sundararajan, A. Taly and Q. Yan, Axiomatic attribution for deep networks, Proceedings of the 34th International Conference on Machine Learning – Volume 70, August 2017, Pages 3319–3328

[6] P.K. Mudrakarta, A. Taly, M. Sundararajan and K. Dhamdhere, Did the Model Understand the Question?, Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics – Volume 1, July 2018, Pages 1896–1906

[7] https://towardsdatascience.com/how-does-bert-reason-54feb363211

[8] D. Smilkov, N. Thorat, B. Kim, F. Viégas and M. Wattenberg, SmoothGrad: removing noise by adding noise, ICML Workshop on Visualization for Deep Learning, 2017

[9] John Merrill, Geoff Ward, Sean Kamkar, Jay Budzik, and Douglas Merrill. Generalized integrated gradients: A practical method for explaining diverse ensembles. arXiv preprint arXiv:1909.01869, 2019.

 

Nous respectons
votre vie privée

En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites.