Pour une intelligence artificielle, mais interprétable
La première Masterclasse AI For Finance 2020 a été co-organisée avec notre partenaire NetApp, à La Place Fintech s’est focalisée sur deux des principaux sujets d’application de l’intelligence artificielle (IA) dans la finance : le credit scoring et la lutte contre la fraude. Avec une exigence commune : la possibilité d’expliquer les résultats de l’IA. Et des perspectives qui laissent rêveur.
L’évaluation de la probabilité qu’un emprunteur ne rembourse pas son prêt, le credit scoring, est aujourd’hui généralement automatisée : la décision humaine d’analystes crédit est réservée à des prêts importants. Les modèles de régression linéaire et logistique que l’on utilise le plus souvent représentent souvent mal le monde réel mais leurs décisions sont parfaitement explicables. A l’inverse, l’intelligence artificielle (IA) permet de rester plus fidèle à la réalité mais on l’accuse régulièrement d’être une « boîte noire ».
Or, cette « explicabilité » devient de plus en plus importante. Près d’un utilisateur d’IA sur deux se sent victime de problèmes éthiques, expliquent Xavier Burtschell, principal à Capgemini Invent, et le data scientist Abdessamad Hammouche. Les initiatives publiques se multiplient, du projet de loi américain sur la « Algorithmic accountability » au rapport de la Cnil française sur le sujet et au framework pour une IA éthique de la Commission européenne. La recherche sur le sujet s’est considérablement renforcée ces dernières années et des solutions commencent à se faire jour.
En matière de credit scoring, les méthodes d’apprentissage ensembliste comme XGBoost (eXtreme Gradient Boosting) ou les forêts d’arbres décisionnels (forêts aléatoires) promettent des algorithmes explicables. Il se créera ainsi, prévoit Capgemini Invent, des interfaces qui permettront à l’utilisateur de rendre compte au client final des raisons de la décision de crédit. Au lieu d’un « Non » sec, on pourra arguer plus finement sur la capacité de remboursement.
Deux bibliothèques Python, Lime and Shap, proposent par ailleurs des approches très différentes à l’interprétabilité des modèles.
- Vues950