Apprentissage

Apprentissage par transfert

Technique d'apprentissage automatique qui réutilise les connaissances acquises par un modèle sur une tâche pour en améliorer l'efficacité sur une autre tâche, souvent avec peu de données disponibles.

Définition officielle

L'apprentissage par transfert (transfer learning) est une approche qui consiste à exploiter un modèle déjà entraîné sur une tâche source (souvent avec un grand volume de données) pour l'adapter à une tâche cible où les données sont limitées. Le principe est que certaines représentations apprises (formes, structures, relations linguistiques) sont réutilisables dans différents contextes. En pratique, on prend un modèle pré‑entraîné, par exemple ResNet (vision) ou BERT (langage), et on le spécialise par fine‑tuning sur de nouvelles données. Cette approche réduit considérablement les besoins en données et en temps d'entraînement, et permet aux petites organisations d'utiliser des architectures puissantes. L'apprentissage par transfert est très répandu en vision par ordinateur, NLP et biomédecine. Il reste toutefois sensible à la différence entre domaine source et domaine cible : un transfert inadéquat peut dégrader les performances (phénomène de negative transfer).

Catégorie

Apprentissage

Synonymes

transfer learning, apprentissage transféré

Avantages

  • Réduction du besoin en données annotées
  • Gain de temps et de ressources d'entraînement
  • Accès facilité à des modèles puissants pour PME et recherche

Limites

  • Negative transfer si les domaines sont trop différents
  • Risque de biais hérités du modèle source
  • Dépendance aux grands acteurs fournissant les modèles pré‑entraînés

Envie d'approfondir vos connaissances en IA ?

Découvrez tous nos termes et concepts dans le lexique complet