En cliquant sur "Accepter ", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser son utilisation et de contribuer à nos efforts de marketing. Consultez notre politique de confidentialité pour plus d'informations.
Glossaire
Transfer Learning
Définition iA

Transfer Learning

L’apprentissage par transfert est une approche de l’intelligence artificielle où un modèle déjà entraîné sur une tâche donnée est réutilisé comme point de départ pour une nouvelle tâche. L’idée est de transférer les connaissances acquises (poids, représentations, caractéristiques) plutôt que de repartir de zéro.

Exemple concret
Un réseau entraîné sur ImageNet (14 millions d’images classées en 1 000 catégories) peut être adapté à la classification médicale (radiographies pulmonaires) avec beaucoup moins de données étiquetées.

Avantages

  • Gain de temps : réduit considérablement la durée d’entraînement.
  • Efficacité en ressources : nécessite moins de données et de puissance de calcul.
  • Meilleures performances dans des contextes où les données sont limitées.

Limites

  • Risque de mauvais transfert si les tâches sont trop différentes (ex. images de chats → imagerie satellite).
  • Nécessite parfois un réajustement fin (fine-tuning) coûteux.

Applications

En outre, l’apprentissage par transfert s’inscrit dans une tendance plus large de mutualisation des connaissances en intelligence artificielle. Plutôt que de considérer chaque projet comme une entité isolée, cette approche met en évidence la valeur cumulative des modèles existants et la possibilité de bâtir des solutions plus rapidement grâce à une « mémoire » partagée entre tâches.

Cela a des implications fortes pour l’innovation : de petites équipes de recherche ou de jeunes entreprises peuvent exploiter des modèles pré-entraînés par de grands acteurs technologiques, réduisant ainsi la barrière à l’entrée. Sur le plan pratique, cela facilite également la reproductibilité des expériences, car de nombreux modèles de base (transformers, réseaux convolutifs, etc.) sont disponibles en open source.

Toutefois, cette démocratisation soulève aussi des questions éthiques et stratégiques : si tout le monde part des mêmes modèles de fondation, le risque est de voir se reproduire les mêmes biais dans les applications dérivées. C’est pourquoi de plus en plus d’efforts sont consacrés à la création de modèles de base plus diversifiés, mieux documentés et entraînés sur des données de meilleure qualité.

Références