Dropout
Dropout es una técnica de regularización utilizada en el entrenamiento de redes neuronales. Consiste en desactivar aleatoriamente un porcentaje de neuronas o conexiones en cada iteración, con el objetivo de evitar el sobreajuste (overfitting). Esto obliga al modelo a no depender demasiado de ciertas neuronas específicas y fomenta el aprendizaje de representaciones más robustas y generalizables.
¿Cómo funciona?
Durante la fase de entrenamiento, se aplica una máscara binaria que “apaga” neuronas seleccionadas aleatoriamente, impidiendo que participen en la propagación y actualización de pesos. En la fase de inferencia, todas las neuronas se activan, pero sus salidas se ajustan según la tasa de dropout.
Ventajas y aplicaciones :
El Dropout ayuda a mejorar la generalización en redes convolucionales para visión por computadora y a estabilizar el entrenamiento de modelos de procesamiento del lenguaje natural. También evita que modelos pequeños memoricen en exceso los datos de entrenamiento.
Enlaces internos útiles :
https://www.innovatiana.com/es/glossary/overfitting