Al hacer clic en "Aceptar", usted acepta que se almacenen cookies en su dispositivo para mejorar la navegación del sitio, analizar su uso y contribuir a nuestros esfuerzos de marketing. Consulte nuestra política de privacidad para más información.  pour plus d'informations.
Glosario
Epoch
Definición de IA

Epoch

En aprendizaje automático, una época es un ciclo completo en el que el modelo utiliza todo el conjunto de datos de entrenamiento una vez para ajustar sus parámetros. Es la unidad básica que mide el progreso del entrenamiento.

Contexto y relevancia
Normalmente se necesitan múltiples épocas para que el modelo aprenda patrones significativos. Si el número de épocas es demasiado bajo, se produce subajuste (underfitting); si es demasiado alto, el modelo puede caer en sobreajuste (overfitting).

Ejemplo
Si un conjunto de datos contiene 20'000 ejemplos y el tamaño del lote (batch size) es de 200, una época equivale a 100 iteraciones.

Aplicaciones

En términos sencillos, una época equivale a un recorrido completo por el dataset. Es como si el modelo repasara un libro de principio a fin: al terminar, tiene una primera idea, pero para afianzar el conocimiento necesita varias lecturas.

Durante las primeras épocas, el modelo aprende los patrones más evidentes; en épocas posteriores, afina detalles y relaciones más sutiles. Por eso, es habitual que los investigadores controlen no solo la precisión, sino también la evolución de las métricas a lo largo de las épocas.

Un aspecto práctico es que no siempre interesa completar todas las épocas previstas: técnicas como early stopping permiten detener el entrenamiento en el punto justo donde el modelo generaliza mejor. Así, se evita gastar recursos de cómputo innecesarios y se reduce el riesgo de sobreajuste.

Referencias

  • Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.
  • Jurafsky, D., & Martin, J. (2023). Speech and Language Processing. Pearson.