La transparence en intelligence artificielle désigne l'ensemble des pratiques visant à rendre les systèmes d'IA compréhensibles, accessibles et vérifiables par les utilisateurs, les régulateurs et les développeurs.
La transparence (IA) est un principe fondamental de gouvernance qui consiste à fournir des informations claires sur le fonctionnement, les objectifs, les limites et les impacts d'un système d'intelligence artificielle. Elle englobe la documentation des jeux de données, la description des modèles, la traçabilité des processus et la communication des critères de décision. Contrairement à l'explicabilité, qui cherche à expliquer une prédiction ou un modèle, la transparence concerne l'accès à l'information globale sur le cycle de vie de l'IA. Elle vise à garantir la confiance, à prévenir les risques d'abus et à permettre un contrôle externe, notamment par les régulateurs et les auditeurs. Dans le cadre du RGPD et du futur AI Act européen, la transparence est une obligation légale pour les systèmes à haut risque. Cependant, elle se heurte à des limites : protection du secret industriel, complexité technique des modèles et risques de surcharge d'informations.
Découvrez tous nos termes et concepts dans le lexique complet