Al hacer clic en "Aceptar", usted acepta que se almacenen cookies en su dispositivo para mejorar la navegación del sitio, analizar su uso y contribuir a nuestros esfuerzos de marketing. Consulte nuestra política de privacidad para más información.  pour plus d'informations.
Glosario
Hiperparámetros
Definición de IA

Hiperparámetros

Los hiperparámetros son valores que se establecen antes del entrenamiento de un modelo de inteligencia artificial y que determinan cómo aprende dicho modelo. A diferencia de los parámetros internos (pesos y sesgos), que se ajustan automáticamente durante el aprendizaje, los hiperparámetros se fijan manualmente o se optimizan con algoritmos de búsqueda.

Ejemplos de hiperparámetros

  • Tasa de aprendizaje: controla la magnitud de los ajustes en cada iteración.
  • Tamaño de lote (batch size): número de muestras procesadas en cada paso.
  • Número de capas y neuronas en una red.
  • Factores de regularización como L1, L2 o dropout.

Contexto
La elección de hiperparámetros adecuados es determinante para lograr un buen rendimiento. Configuraciones incorrectas pueden producir subajuste o sobreajuste. Para optimizar, se emplean técnicas como la búsqueda en cuadrícula (grid search), la búsqueda aleatoria o la optimización bayesiana.

Ventajas y limitaciones

  • ✅ Permiten ajustar la complejidad y la capacidad de generalización del modelo.
  • ❌ Su búsqueda puede requerir muchos recursos computacionales.
  • ❌ No existe un conjunto único de valores óptimos: dependen de los datos y la tarea.

Los hiperparámetros son como los “controles de ajuste fino” de un modelo de IA. Aunque no se aprenden directamente de los datos, determinan cómo se entrenará la red y qué tan bien podrá generalizar. Entre ellos, el tamaño del batch y la tasa de aprendizaje suelen ser los más influyentes, pues afectan de forma directa la estabilidad y velocidad del entrenamiento.

En la práctica, el ajuste de hiperparámetros implica explorar un espacio enorme de combinaciones posibles. Por eso, además de la búsqueda en cuadrícula o aleatoria, cada vez se emplean más técnicas avanzadas como la optimización bayesiana o incluso algoritmos evolutivos que imitan procesos de selección natural.

Un aspecto clave es que el tuning no debe limitarse a la métrica de validación: también importa la eficiencia energética, el coste computacional y la reproducibilidad. En entornos industriales, encontrar un equilibrio entre rendimiento y coste es tan importante como lograr la mayor precisión.

📚 Referencias

  • Goodfellow, I., Bengio, Y., Courville, A. (2016). Deep Learning.