L’un des défis principaux de la recherche en apprentissage actuellement est la définition d’IA de confiance, concept qui recouvre de nombreuses dimensions parmi lesquelles on peut citer: l’IA interprétable (eXplainable AI), l’IA équitable (fairness), l’IA responsable.
Cette UE traite de ces questions et aborde, en particulier, les points suivants :
- définitions d’explications, critères d’interprétabilité
- interprétabilité par design : apprentissage interprétable de modèles interprétables
- interprétabilité post-hoc : LIME, SHAP, génération d’exemples contrefactuels
- approches logiques d’interprétabilité : abduction, causalité, logiques graduelles
- aspects éthiques, éthique computationnelle
Informations sur cette UE:
- Intervenants: Marie-Jeanne Lesot, Christophe Marsala, Jean-Noël Vittaut, Gauvain Bourgne
- Responsable: Marie-Jeanne Lesot (contact)