Apprentissage

Apprentissage continu

Capacité d'un système d'intelligence artificielle à apprendre de nouvelles données et tâches au fil du temps, sans oublier ce qui a déjà été acquis. Indispensable pour des environnements changeants et des modèles en production.

Définition officielle

L'apprentissage continu (continual learning, ou lifelong learning) désigne les techniques permettant à un modèle d'IA de s'adapter en permanence à de nouvelles données, classes ou tâches après son déploiement, tout en préservant ses connaissances antérieures. Un défi central est l'« oubli catastrophique » : lors d'un nouvel entraînement, le modèle peut dégrader fortement ses performances sur les anciennes tâches. Pour l'atténuer, plusieurs familles de méthodes existent : fondées sur les **régularisations** (ex. EWC/Elastic Weight Consolidation) qui pénalisent la modification de paramètres importants ; fondées **mémoire/replay** (rejeu d'exemples représentatifs, génératifs ou échantillons en mémoire) ; fondées **architectures dynamiques** (ajout de neurones/couches spécialisées par tâche). L'apprentissage continu est crucial pour des systèmes soumis à des données en dérive (drift), des contextes non stationnaires ou multi‑domaines. Il se combine souvent avec le transfert, le fédéré et le monitoring MLOps pour assurer robustesse, traçabilité et performances durables.

Catégorie

Apprentissage

Synonymes

continual learning, lifelong learning, apprentissage en continu

Avantages

  • Adaptation en production à la dérive des données (concept drift)
  • Réduction des coûts de ré‑entraînement complet
  • Meilleure personnalisation par utilisateur ou site

Limites

  • Risque d'oubli catastrophique des anciennes tâches
  • Complexité d'ingénierie (replay, mémoire, gestion des versions)
  • Contraintes de conformité (traçabilité, validation continue)

Envie d'approfondir vos connaissances en IA ?

Découvrez tous nos termes et concepts dans le lexique complet