En intelligence artificielle, une boîte noire désigne un modèle dont le fonctionnement interne est opaque ou difficile à interpréter, même pour ses concepteurs.
La notion de « boîte noire » en intelligence artificielle renvoie à un modèle ou un système dont les mécanismes internes de décision sont complexes, opaques ou peu compréhensibles. C'est particulièrement le cas des réseaux de neurones profonds et de certains algorithmes d'apprentissage automatique, qui apprennent des représentations non linéaires difficiles à expliquer. Bien que très performants, ces modèles posent des problèmes en matière de transparence, d'explicabilité et de confiance. Les utilisateurs, les régulateurs et parfois même les développeurs ne peuvent pas toujours savoir pourquoi une décision a été prise. Cela soulève des enjeux éthiques, juridiques et pratiques : comment contester une décision automatisée ? comment vérifier l'absence de biais ? comment garantir la conformité au RGPD et à l'AI Act ? Pour pallier cet effet « boîte noire », des méthodes d'explicabilité et d'interprétabilité sont développées, mais elles restent limitées par rapport à la complexité de certains modèles.
Découvrez tous nos termes et concepts dans le lexique complet