Capacité d'un système d'intelligence artificielle à apprendre de nouvelles données et tâches au fil du temps, sans oublier ce qui a déjà été acquis. Indispensable pour des environnements changeants et des modèles en production.
L'apprentissage continu (continual learning, ou lifelong learning) désigne les techniques permettant à un modèle d'IA de s'adapter en permanence à de nouvelles données, classes ou tâches après son déploiement, tout en préservant ses connaissances antérieures. Un défi central est l'« oubli catastrophique » : lors d'un nouvel entraînement, le modèle peut dégrader fortement ses performances sur les anciennes tâches. Pour l'atténuer, plusieurs familles de méthodes existent : fondées sur les **régularisations** (ex. EWC/Elastic Weight Consolidation) qui pénalisent la modification de paramètres importants ; fondées **mémoire/replay** (rejeu d'exemples représentatifs, génératifs ou échantillons en mémoire) ; fondées **architectures dynamiques** (ajout de neurones/couches spécialisées par tâche). L'apprentissage continu est crucial pour des systèmes soumis à des données en dérive (drift), des contextes non stationnaires ou multi‑domaines. Il se combine souvent avec le transfert, le fédéré et le monitoring MLOps pour assurer robustesse, traçabilité et performances durables.
Découvrez tous nos termes et concepts dans le lexique complet