L'explicabilité en intelligence artificielle désigne la capacité à comprendre, interpréter et justifier le fonctionnement et les décisions d'un modèle d'IA, en particulier les modèles complexes comme le deep learning.
L'explicabilité (IA) correspond à l'ensemble des méthodes et pratiques visant à rendre compréhensible le fonctionnement d'un modèle d'intelligence artificielle et les raisons de ses prédictions. Cette notion est cruciale car de nombreux modèles, notamment les réseaux de neurones profonds, sont perçus comme des « boîtes noires » difficiles à interpréter. L'explicabilité peut être **globale** (comprendre les règles générales apprises par le modèle) ou **locale** (expliquer une prédiction spécifique). Des techniques comme LIME (Local Interpretable Model-agnostic Explanations), SHAP (SHapley Additive exPlanations), ou les cartes de chaleur en vision par ordinateur sont utilisées pour rendre les modèles plus transparents. Au-delà de l'aspect technique, l'explicabilité répond à des enjeux éthiques, juridiques et sociétaux : garantir la confiance, assurer la conformité réglementaire (RGPD – droit à l'explication), et faciliter l'acceptabilité des systèmes d'IA. Toutefois, il existe un compromis entre performance et explicabilité : les modèles les plus puissants sont souvent les plus opaques.
Découvrez tous nos termes et concepts dans le lexique complet