Un biais en intelligence artificielle correspond à une distorsion systématique dans les données, les modèles ou les résultats, pouvant mener à des décisions injustes ou discriminatoires.
Le biais (IA) désigne toute forme de déviation par rapport à une représentation neutre ou équitable dans un système d'intelligence artificielle. Les sources de biais sont multiples : biais de données (sous‑représentation, stéréotypes culturels), biais de conception (choix des variables, critères d'évaluation), biais d'interprétation (mauvaise compréhension des résultats). Ces biais se propagent et peuvent amplifier des discriminations, par exemple dans le recrutement automatisé, la justice prédictive ou la reconnaissance faciale. Identifier, mesurer et corriger les biais est devenu une exigence réglementaire et éthique. Les solutions incluent la diversification des données, l'équilibrage des échantillons, l'usage de métriques d'équité et la mise en place de procédures d'audit. Le biais est au cœur des débats sur l'IA de confiance et l'éthique algorithmique.
Découvrez tous nos termes et concepts dans le lexique complet