Al hacer clic en "Aceptar", usted acepta que se almacenen cookies en su dispositivo para mejorar la navegación del sitio, analizar su uso y contribuir a nuestros esfuerzos de marketing. Consulte nuestra política de privacidad para más información.  pour plus d'informations.
Glosario
Underfitting
Definición de IA

Underfitting

El subajuste (underfitting) ocurre cuando un modelo de aprendizaje automático es demasiado simple para captar los patrones subyacentes en los datos. A diferencia del sobreajuste (overfitting), donde el modelo memoriza demasiado y no generaliza bien, el subajuste refleja una incapacidad de aprender incluso las tendencias básicas. Esto provoca un rendimiento deficiente tanto en los datos de entrenamiento como en los de prueba.

Causas principales

  • Modelo demasiado simple: por ejemplo, usar una regresión lineal en un problema con relaciones claramente no lineales.
  • Entrenamiento insuficiente: pocas iteraciones o épocas impiden que el modelo ajuste sus parámetros correctamente.
  • Regularización excesiva: técnicas como L1, L2 o dropout aplicadas de manera demasiado estricta pueden limitar la capacidad de aprendizaje.
  • Mala representación de características: la ausencia de variables relevantes o datos incompletos reduce el poder predictivo del modelo.

Ejemplos prácticos

  • Un modelo de predicción de la demanda que solo considera las ventas de la semana anterior, ignorando estacionalidad o promociones.
  • Un sistema de reconocimiento de voz entrenado con pocos parámetros que falla al distinguir palabras básicas.
  • Un clasificador de imágenes que no diferencia gatos de perros porque sus filtros son demasiado simples.

Consecuencias

  • Baja precisión en todos los conjuntos: tanto en entrenamiento como en validación.
  • Predicciones débiles: resultados demasiado generales que no captan señales relevantes.
  • Impacto empresarial: en contextos como la detección de fraudes o la medicina, el subajuste puede significar no identificar anomalías críticas.

Cómo evitarlo

  • Aumentar la complejidad del modelo (árboles de decisión, redes neuronales profundas).
  • Entrenar durante más tiempo o ajustar la tasa de aprendizaje.
  • Reducir la regularización si es demasiado fuerte.
  • Incorporar más variables relevantes mediante feature engineering.
  • Recoger más datos o mejorar su calidad.

Relación con el sobreajuste
El subajuste y el sobreajuste representan los dos extremos del compromiso entre sesgo y varianza. El objetivo es encontrar un equilibrio que permita al modelo aprender lo suficiente sin volverse demasiado rígido o demasiado específico.

📚 Referencias

  • Bishop, C. M. (2006). Pattern Recognition and Machine Learning. Springer.
  • Hastie, T., Tibshirani, R., Friedman, J. (2009). The Elements of Statistical Learning.