En cliquant sur "Accepter ", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser son utilisation et de contribuer à nos efforts de marketing. Consultez notre politique de confidentialité pour plus d'informations.
Glossaire
Epoch
Définition iA

Epoch

En apprentissage automatique, une epoch correspond à un cycle complet durant lequel l’ensemble des données d’entraînement est utilisé une fois pour ajuster les paramètres d’un modèle. Autrement dit, chaque exemple du dataset a été présenté au modèle une fois.

Contexte et importance
Une seule epoch est rarement suffisante pour permettre au modèle de capturer les motifs sous-jacents des données. C’est pourquoi l’entraînement implique souvent plusieurs epochs successives. Le choix du nombre d’epochs est crucial : trop peu peut conduire à du sous-apprentissage (underfitting), tandis qu’un nombre trop élevé peut générer du surapprentissage (overfitting).

Exemple concret
Si l’on dispose d’un dataset de 50'000 images et que la taille du lot (batch size) est fixée à 500, une epoch correspond à 100 itérations (car 50 000 ÷ 500 = 100).

Applications

Une époque correspond à un cycle complet d’apprentissage, durant lequel le modèle a “vu” l’ensemble des données d’entraînement. Ce terme peut sembler simple, mais il est au cœur de la dynamique d’optimisation : chaque époque rapproche (ou éloigne) le modèle de sa capacité de généralisation.

En pratique, le nombre d’époques est un hyperparamètre critique. Trop peu : le modèle reste sous-entraîné. Trop : il finit par surapprendre et perdre en robustesse. Pour trouver le bon équilibre, on combine souvent validation croisée, suivi de la courbe de perte et techniques comme l’arrêt anticipé (early stopping).

Il faut aussi rappeler que le coût d’une époque dépend de la taille du dataset et de la puissance matérielle disponible. Avec des ensembles massifs (images médicales, données financières en continu), une seule époque peut déjà représenter des heures, voire des jours de calcul.

Références

  • Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.
  • Géron, A. (2019). Hands-On Machine Learning with Scikit-Learn, Keras & TensorFlow. O’Reilly.