En cliquant sur "Accepter ", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser son utilisation et de contribuer à nos efforts de marketing. Consultez notre politique de confidentialité pour plus d'informations.
Glossaire
Learning Rate
Définition iA

Learning Rate

Le taux d’apprentissage (learning rate) est l’un des paramètres les plus décisifs dans l’entraînement d’un modèle d’intelligence artificielle. Il détermine la taille des pas que l’algorithme franchit pour ajuster ses poids après avoir observé une erreur.

Une analogie simple

Imaginez que vous descendiez une montagne dans le brouillard pour rejoindre la vallée (le minimum de la fonction de perte). Si vos pas sont trop grands (taux d’apprentissage trop élevé), vous risquez de dépasser le chemin et de tomber dans le vide. S’ils sont trop petits (taux trop faible), vous avancez si lentement que vous risquez de ne jamais atteindre la vallée.

En pratique

  • Un taux trop élevé → l’algorithme diverge, les erreurs fluctuent sans jamais se stabiliser.
  • Un taux trop faible → l’entraînement progresse, mais extrêmement lentement, parfois bloqué dans un minimum local.

Les chercheurs utilisent souvent des stratégies dynamiques comme le learning rate schedule (réduction progressive au fil de l’entraînement) ou l’optimisation adaptative (ex. Adam, RMSProp) pour équilibrer vitesse et stabilité.

Le taux d’apprentissage (learning rate) est au cœur de l’optimisation : il contrôle la vitesse d’adaptation du modèle. S’il est trop élevé, le modèle “sautille” autour du minimum sans jamais s’y stabiliser ; s’il est trop faible, il risque de stagner pendant des centaines d’itérations.

Dans la pratique, les chercheurs utilisent souvent des programmes de variation dynamique du taux d’apprentissage. Par exemple, commencer avec une valeur relativement haute pour accélérer l’exploration, puis la réduire progressivement afin d’affiner la convergence. C’est le principe du learning rate scheduling.

Ce paramètre est aussi étroitement lié aux ressources disponibles. Un taux plus élevé peut réduire le temps d’entraînement, mais augmente le risque de gaspiller du calcul si le modèle diverge. C’est pourquoi la recherche d’un bon taux d’apprentissage est à la fois un enjeu scientifique et économique.

📚 Références

  • Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning.