Al hacer clic en "Aceptar", usted acepta que se almacenen cookies en su dispositivo para mejorar la navegación del sitio, analizar su uso y contribuir a nuestros esfuerzos de marketing. Consulte nuestra política de privacidad para más información.  pour plus d'informations.
Glosario
Normalization
Definición de IA

Normalization

Definición
La normalización es una técnica de preprocesamiento que consiste en llevar las variables a una escala común, típicamente entre 0 y 1. Esto evita que las variables con valores numéricamente grandes dominen el aprendizaje del modelo.

Contexto
La normalización es esencial en algoritmos que dependen de distancias o gradientes. Es diferente de la estandarización, que transforma los datos para que tengan media cero y varianza unitaria. En flujos de datos modernos, suele aplicarse automáticamente en pipelines de preparación.

Ejemplos prácticos

  • Visión artificial: escalar píxeles de imágenes.
  • Marketing digital: normalizar métricas como clics e ingresos.
  • Industria: combinar sensores con diferentes unidades de medida.

Ventajas y limitaciones

  • ✅ Mejora la velocidad y estabilidad del entrenamiento.
  • ✅ Evita problemas numéricos en cálculos de gradiente.
  • ❌ Puede ser irrelevante para algoritmos basados en árboles.
  • ❌ Una normalización inapropiada puede deteriorar los resultados.

La normalización busca poner todas las variables en igualdad de condiciones, evitando que una con valores grandes eclipse a las demás en el entrenamiento. De esta forma, un algoritmo que calcula distancias o pesos no se ve sesgado por magnitudes arbitrarias.

Es una técnica fundamental para modelos sensibles a la escala, como redes neuronales, k–vecinos más cercanos o máquinas de soporte vectorial. Conviene diferenciarla de la estandarización, que no acota los valores entre 0 y 1, sino que los centra en cero y ajusta su varianza a la unidad.

Los métodos más comunes incluyen el escalado min–max y variantes robustas pensadas para datos con outliers. En cambio, en algoritmos basados en árboles, la normalización suele ser innecesaria, ya que la lógica de división no depende de escalas numéricas. Aplicada en el contexto adecuado, esta técnica es una herramienta simple pero decisiva para mejorar la estabilidad, acelerar el entrenamiento y favorecer la generalización.

📚 Referencias

  • Hastie, T., Tibshirani, R., Friedman, J. (2009). The Elements of Statistical Learning.