Sécurité & Attaques

Poisoning (IA)

Le poisoning (empoisonnement de données) est une attaque consistant à introduire volontairement des données corrompues ou manipulées dans un jeu d'entraînement afin de biaiser un modèle d'IA.

Définition officielle

Le poisoning, ou attaque par empoisonnement de données, est une méthode d'attaque visant les systèmes d'apprentissage automatique. L'attaquant modifie ou insère des exemples malveillants dans le jeu d'entraînement afin de dégrader les performances du modèle ou de provoquer un comportement spécifique. On distingue : les attaques de type *availability poisoning* (réduire la précision globale), *targeted poisoning* (forcer une erreur ciblée sur certains inputs), et *backdoor poisoning* (introduire une porte dérobée qui se déclenche lorsqu'une condition précise est rencontrée). Ces attaques exploitent la dépendance des modèles aux données et représentent une menace sérieuse pour les systèmes en production, notamment ceux qui apprennent en continu. Elles sont particulièrement dangereuses dans des domaines critiques : santé, finance, cybersécurité, transport autonome.

Catégorie

Sécurité & Attaques

Synonymes

data poisoning, empoisonnement de données, attaque par corruption de données

Avantages

  • Pour la recherche, permet de tester la robustesse des modèles aux manipulations malveillantes
  • Aide à concevoir des systèmes d'IA plus résilients et sécurisés

Limites

  • Peut gravement compromettre des modèles déployés en production
  • Difficile à détecter car souvent basé sur de petites modifications invisibles
  • Représente un risque majeur pour les systèmes sensibles (santé, transport, défense)

Envie d'approfondir vos connaissances en IA ?

Découvrez tous nos termes et concepts dans le lexique complet