Gouvernance, Éthique & Régulation

Boîte noire (IA)

En intelligence artificielle, une boîte noire désigne un modèle dont le fonctionnement interne est opaque ou difficile à interpréter, même pour ses concepteurs.

Définition officielle

La notion de « boîte noire » en intelligence artificielle renvoie à un modèle ou un système dont les mécanismes internes de décision sont complexes, opaques ou peu compréhensibles. C'est particulièrement le cas des réseaux de neurones profonds et de certains algorithmes d'apprentissage automatique, qui apprennent des représentations non linéaires difficiles à expliquer. Bien que très performants, ces modèles posent des problèmes en matière de transparence, d'explicabilité et de confiance. Les utilisateurs, les régulateurs et parfois même les développeurs ne peuvent pas toujours savoir pourquoi une décision a été prise. Cela soulève des enjeux éthiques, juridiques et pratiques : comment contester une décision automatisée ? comment vérifier l'absence de biais ? comment garantir la conformité au RGPD et à l'AI Act ? Pour pallier cet effet « boîte noire », des méthodes d'explicabilité et d'interprétabilité sont développées, mais elles restent limitées par rapport à la complexité de certains modèles.

Catégorie

Gouvernance, Éthique & Régulation

Synonymes

modèle boîte noire, black box AI, opacité algorithmique

Avantages

  • Permet d'obtenir des performances très élevées dans des tâches complexes
  • Peut découvrir des corrélations subtiles que les humains ne verraient pas

Limites

  • Manque de transparence et de confiance pour les utilisateurs
  • Risque de biais cachés et de discriminations
  • Difficultés de conformité réglementaire (RGPD, AI Act)

Envie d'approfondir vos connaissances en IA ?

Découvrez tous nos termes et concepts dans le lexique complet