En cliquant sur "Accepter ", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser son utilisation et de contribuer à nos efforts de marketing. Consultez notre politique de confidentialité pour plus d'informations.
Glossaire
Dropout
Définition iA

Dropout

Le Dropout est une méthode de régularisation largement employée en apprentissage profond (deep learning). Elle consiste à désactiver aléatoirement un pourcentage de neurones ou connexions durant la phase d’entraînement, ce qui contraint le modèle à ne pas trop s’appuyer sur des caractéristiques spécifiques, et améliore ainsi sa capacité de généralisation.

Fonctionnement :

  • Lors de l’entraînement, on applique un masque binaire aléatoire qui interdit à certains neurones de participer aux calculs (propagation et rétropropagation).
  • Lors de l’inférence (ou prédiction), tous les neurones sont activés, mais leurs sorties sont pondérées en fonction du taux de dropout employé durant l’entraînement.

Avantages et cas d’usage :

  • Réduit le surapprentissage (overfitting) en empêchant le modèle de mémoriser les données d’entraînement.
  • Très utile dans les architectures telles que les réseaux de neurones convolutionnels (vision) ou les modèles de langage (NLP).
  • Complète efficacement d'autres techniques comme la régularisation par pénalisation (L2) ou la batch normalization.

Liens internes pertinents (FR) :

Ressources additionnelles (Blog, etc.) :