Al hacer clic en "Aceptar", usted acepta que se almacenen cookies en su dispositivo para mejorar la navegación del sitio, analizar su uso y contribuir a nuestros esfuerzos de marketing. Consulte nuestra política de privacidad para más información.  pour plus d'informations.
Glosario
Uncertainty Quantification
Definición de IA

Uncertainty Quantification

La cuantificación de la incertidumbre (o UQ) es un campo que busca estimar y representar el grado de duda en las predicciones de un modelo de IA. En lugar de entregar un único valor, el sistema puede proporcionar intervalos, distribuciones de probabilidad o métricas de confianza que reflejan cuán segura es la predicción.

Contexto

En inteligencia artificial moderna, especialmente en redes neuronales profundas, los modelos tienden a comportarse como un "black box”. Esta opacidad genera desconfianza, sobre todo en sectores donde una predicción equivocada puede implicar riesgos graves: salud, transporte, finanzas. UQ es, por tanto, un mecanismo clave para gestionar el riesgo y ganar legitimidad social.

Ejemplos de uso

  • Salud: un sistema de diagnóstico por imágenes que indica la probabilidad y la incertidumbre de que una lesión sea maligna.
  • Vehículos autónomos: reconocimiento de señales de tráfico con alertas en situaciones de baja confianza.
  • Seguros y banca: cálculo probabilístico de impago o fraude.

Retos actuales

Implementar técnicas como los modelos bayesianos, el Monte Carlo Dropout o los ensembles puede incrementar la complejidad y el costo computacional. Otro reto es cómo transmitir la incertidumbre al usuario final: si no se hace de forma clara, puede confundir en lugar de ayudar.

La cuantificación de la incertidumbre no es solo un ejercicio técnico, sino también un instrumento de transparencia y responsabilidad. En un mundo donde los algoritmos influyen en diagnósticos médicos, concesión de créditos o decisiones de movilidad, mostrar el grado de confianza de un modelo ayuda a reducir la llamada “opacidad algorítmica”.

Existen dos grandes tipos de incertidumbre: la aleatoria (imposible de eliminar, ya que está en la propia naturaleza de los datos) y la epistémica (derivada de la ignorancia del modelo, que sí puede reducirse con más datos o mejor entrenamiento). Esta distinción es fundamental para orientar las acciones posteriores.

Las técnicas actuales incluyen desde redes bayesianas aproximadas hasta ensembles de modelos y métodos recientes como la predicción conforme, que ofrecen intervalos de confianza robustos. Sin embargo, el desafío final sigue siendo cómo transmitir la incertidumbre al usuario final: un médico, un conductor o un analista de riesgos necesitan información clara, visual y práctica, no un tecnicismo estadístico incomprensible.

Referencias

  • Gal, Y. (2016). Uncertainty in Deep Learning. University of Cambridge, PhD Thesis.