L'auditabilité en intelligence artificielle désigne la capacité d'un système à être contrôlé, vérifié et évalué de manière indépendante, afin de garantir sa conformité, sa sécurité et sa fiabilité.
L'auditabilité (IA) est une caractéristique clé de gouvernance et de régulation des systèmes d'intelligence artificielle. Elle permet à des auditeurs internes ou externes d'examiner le fonctionnement d'un modèle, ses données d'entraînement, ses processus de décision et ses performances. L'objectif est de vérifier la conformité aux normes éthiques, légales et techniques. L'auditabilité implique une documentation complète des jeux de données, des choix algorithmiques, des métriques de performance et des mécanismes de gestion des risques. Elle se distingue de la transparence et de l'explicabilité par son orientation vers un contrôle formel et systématique. Dans le cadre du RGPD et du futur AI Act, les systèmes d'IA à haut risque devront démontrer leur auditabilité pour obtenir une certification. Les défis incluent la protection des secrets industriels, la standardisation des pratiques d'audit et la gestion de la complexité technique des modèles avancés comme le deep learning.
Découvrez tous nos termes et concepts dans le lexique complet