Al hacer clic en "Aceptar", usted acepta que se almacenen cookies en su dispositivo para mejorar la navegación del sitio, analizar su uso y contribuir a nuestros esfuerzos de marketing. Consulte nuestra política de privacidad para más información.  pour plus d'informations.
Glosario
Weight
Definición de IA

Weight

En inteligencia artificial, especialmente en las redes neuronales artificiales, un peso (weight) es un parámetro numérico que define la importancia de la conexión entre dos neuronas.

Cada entrada de un nodo se multiplica por un peso. Luego, la suma de estas entradas ponderadas pasa por una función de activación, lo que permite al modelo dar más o menos relevancia a ciertas características.

Ejemplo sencillo

En un sistema de reconocimiento de imágenes, un peso puede indicar cuánto contribuye una característica visual (como un borde, un color o una textura) a la identificación de un objeto.

  • Un peso alto = la característica es muy importante.
  • Un peso cercano a cero = poca influencia.
  • Un peso negativo = influencia en dirección contraria.

Rol en el aprendizaje

El entrenamiento de una red neuronal consiste en ajustar los pesos para minimizar los errores de predicción. Esto se logra mediante la técnica de retropropagación (backpropagation) y algoritmos de optimización como el descenso de gradiente.

Los pesos no son simples números: constituyen la base del aprendizaje en inteligencia artificial. Gracias a ellos, la red puede dar mayor protagonismo a ciertos rasgos de los datos y descartar otros que son irrelevantes. Este mecanismo es lo que convierte a una red neuronal en un sistema adaptativo capaz de “extraer conocimiento” a partir de ejemplos.

Durante el entrenamiento, los pesos se ajustan miles de veces mediante un proceso iterativo. Al principio suelen asignarse valores aleatorios, pero poco a poco, a través del descenso de gradiente y la retropropagación, se organizan hasta formar una representación coherente del problema. Es este ajuste lo que permite, por ejemplo, que una red reconozca gatos aunque nunca haya visto exactamente la misma foto antes.

En arquitecturas modernas como los transformers, los pesos adquieren un papel aún más sofisticado: los llamados pesos de atención deciden qué fragmentos de información son más relevantes en cada paso de procesamiento. Esto ha sido fundamental en el éxito de modelos de lenguaje como GPT o BERT.

Además, existe todo un campo dedicado a interpretar y optimizar los pesos. Desde la visualización de filtros en CNNs hasta la poda de conexiones innecesarias, entender cómo se distribuye esta “carga de importancia” es crucial tanto para mejorar la precisión como para reducir el coste computacional. Así, los pesos no solo reflejan lo que el modelo ha aprendido, sino también su capacidad de ser más eficiente y transparente.

👉 En conclusión: Los pesos son el núcleo del conocimiento de una red neuronal; representan lo que el modelo ha aprendido a partir de los datos.