La vulnérabilité en intelligence artificielle désigne les faiblesses d'un modèle ou d'un système qui peuvent être exploitées par des erreurs, des biais ou des attaques intentionnelles.
La vulnérabilité (IA) correspond à l'ensemble des failles et fragilités présentes dans un modèle d'intelligence artificielle ou dans son environnement. Ces vulnérabilités peuvent découler de plusieurs facteurs : qualité insuffisante des données (biais, déséquilibres), conception du modèle (surapprentissage, manque de robustesse), défauts techniques dans l'implémentation, ou exposition à des attaques adversariales et à l'empoisonnement de données. Elles menacent la fiabilité, la sécurité et l'équité des systèmes d'IA, en particulier lorsqu'ils sont déployés dans des contextes critiques comme la santé, la finance, la cybersécurité ou le transport autonome. L'identification et la correction des vulnérabilités reposent sur des audits réguliers, des tests de robustesse, et l'application de normes de cybersécurité et de gouvernance des données. Le futur AI Act européen impose d'ailleurs une gestion proactive des vulnérabilités pour les systèmes à haut risque.
Découvrez tous nos termes et concepts dans le lexique complet