Al hacer clic en "Aceptar", usted acepta que se almacenen cookies en su dispositivo para mejorar la navegación del sitio, analizar su uso y contribuir a nuestros esfuerzos de marketing. Consulte nuestra política de privacidad para más información.  pour plus d'informations.
Glosario
Overfitting
Definición de IA

Overfitting

El sobreajuste (o overfitting) ocurre cuando un modelo de IA se ajusta demasiado a los datos de entrenamiento, incluyendo ruido y detalles irrelevantes, lo que limita su capacidad de generalizar a nuevos datos.

Contexto
Es más frecuente en modelos muy complejos frente a conjuntos de datos pequeños o poco representativos. El modelo “memoriza” ejemplos en lugar de aprender patrones útiles. Es un desafío central en el aprendizaje automático y la validación de modelos.

Ejemplos prácticos

  • Visión artificial: un modelo que reconoce la marca de una cámara en lugar del objeto.
  • NLP: un chatbot que repite frases del dataset en vez de generar respuestas naturales.
  • Marketing: un modelo que funciona solo para un grupo de clientes específico.

Cómo prevenirlo

El sobreajuste puede entenderse como cuando un estudiante se aprende de memoria las respuestas de un examen de práctica pero no entiende realmente la materia. En las pruebas internas obtiene un 10, pero frente a nuevas preguntas fracasa estrepitosamente. Ese es el riesgo de entrenar modelos demasiado potentes con datos limitados.

Una manera práctica de identificar el problema es usando validación cruzada, que reparte los datos en distintos subconjuntos y permite comprobar si el modelo mantiene un rendimiento estable. También se suelen emplear técnicas como early stopping, que consiste en detener el entrenamiento justo antes de que el modelo comience a “memorizar” en exceso.

En campos sensibles como la medicina o las finanzas, el sobreajuste no solo reduce la precisión, sino que puede generar riesgos graves: diagnósticos incorrectos, decisiones financieras costosas o recomendaciones sesgadas. Por eso, en la práctica, se suele combinar la técnica con el sentido común: más datos, modelos más simples y una vigilancia constante de las métricas.

📚 Referencias

  • Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning.
  • Hastie, T., Tibshirani, R., Friedman, J. (2009). The Elements of Statistical Learning.