En cliquant sur "Accepter ", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser son utilisation et de contribuer à nos efforts de marketing. Consultez notre politique de confidentialité pour plus d'informations.
Knowledge

Glosario de IA: 40 definiciones para no perderse en el mundo de la inteligencia artificial

Escrito por
Nanobaly
Publicado el
2024-10-24
Tiempo de lectura
0
min

La inteligencia artificial (IA) se ha convertido en un pilar esencial de las tecnologías modernas y afecta a campos tan diversos como la salud, las finanzas o incluso la educación.

Sin embargo, comprender las sutilezas de la IA puede resultar complejo, especialmente debido a la jerga técnica que a menudo se asocia a esta disciplina.

💡 Este glosario ofrece una recopilación de 40 términos clave, con el objetivo de aclarar los conceptos esenciales de la IA y facilitar su comprensión a los profesionales y novatos en este campo.

Agentes conversacionales (Chatbots)

Los chatbots son programas informáticos que utilizan inteligencia artificial para simular una conversación con los usuarios.

Pueden responder automáticamente a las preguntas, proporcionar información o completar tareas sencillas mediante la interacción mediante texto o voz, que se utilizan con frecuencia en sitios web y aplicaciones.

Algoritmo

Un algoritmo es una serie de instrucciones o pasos específicos que sigue un programa de computadora para resolver un problema o realizar una tarea específica.

En la IA, los algoritmos permiten a las máquinas tomar decisiones, aprender o procesar datos de forma automática y eficiente.

Anotación de datos

La anotación de datos consiste en agregar etiquetas o descripciones específicas a los datos sin procesar (imágenes, texto, vídeos, etc.) para que los algoritmos de IA los entiendan.

Esto permite entrenar los modelos de aprendizaje automático para reconocer objetos, acciones o conceptos en estos datos.

Aprendizaje automático (Aprendizaje automático)

El aprendizaje automático es una rama de la inteligencia artificial en la que las máquinas aprenden de los datos sin programarse explícitamente.

Identifican patrones, hacen predicciones y mejoran su rendimiento a lo largo del tiempo mediante algoritmos, como el reconocimiento de imágenes o la traducción automática.

Aprendizaje multitarea (Aprendizaje multitarea)

El aprendizaje multitarea es un método en el que un modelo de inteligencia artificial se entrena simultáneamente en varias tareas relacionadas.

Esto permite que el modelo aprenda de manera más eficaz al compartir conocimientos entre las tareas, lo que mejora su rendimiento general en toda la gama de problemas a resolver.

Aprendizaje por refuerzo

El aprendizaje por refuerzo es una técnica de IA en la que un agente aprende a tomar decisiones interactuando con su entorno.

Recibe recompensas o castigos en función de sus acciones y ajusta su comportamiento para maximizar las recompensas a largo plazo, como en los videojuegos o la robótica.

Aprendizaje supervisado

El aprendizaje supervisado es un método de IA en el que se entrena a un modelo basándose en ejemplos etiquetados.

Cada dato de entrenamiento está asociado a una respuesta correcta, lo que permite que el modelo aprenda a predecir resultados similares para datos nuevos que no se ven, como reconocer objetos en imágenes o clasificar correos electrónicos.

Aprendizaje sin supervisión

Aprendizaje no supervisado es un método de IA en el que un modelo se entrena con datos sin etiquetas ni respuestas predefinidas.

Debe descubrir patrones o estructuras ocultas por sí misma, como agrupar objetos similares (agrupamiento) o detectar anomalías, sin supervisión humana directa.

Sesgo algorítmico

El sesgo algorítmico se produce cuando un algoritmo toma decisiones injustas o inequitativas debido a sesgos en los datos utilizados para entrenarlo.

Esto puede conducir a resultados discriminatorios o desigualdades, que afectan a grupos o situaciones específicos de personas, como en el reclutamiento o el reconocimiento facial.

Big Data

Los macrodatos se refieren a conjuntos de datos grandes y complejos que, a menudo, son demasiado grandes o variados para procesarse con métodos tradicionales.

Estos datos provienen de una variedad de fuentes (redes sociales, sensores, etc.) y requieren técnicas avanzadas, como la inteligencia artificial y el aprendizaje automático, para analizarlos y extraer información útil.

Clasificación

La clasificación es una técnica de aprendizaje automático en la que se entrena a un modelo para asignar categorías o etiquetas predefinidas a datos nuevos.

Por ejemplo, categorizar los correos electrónicos como «spam» o «no spam» o reconocer objetos en imágenes, como gatos o perros.

Agrupación (Agrupación)

La agrupación en clústeres es un método de aprendizaje no supervisado que consiste en agrupar datos similares en conjuntos denominados «clústeres».

A diferencia de la clasificación, no hay etiquetas predefinidas. El modelo descubre similitudes en los datos para crear estos grupos, que se utilizan para el análisis del mercado o la segmentación de clientes, por ejemplo.

Pérdida de entropía cruzada

La pérdida de entropía cruzada es una función de pérdida que se utiliza para evaluar el rendimiento de un modelo de clasificación. Mide la diferencia entre las predicciones del modelo y las etiquetas verdaderas.

Cuanto más incorrecta sea la predicción, mayor será la pérdida. Su objetivo es minimizar esta diferencia para mejorar las predicciones.

Validación cruzada

La validación cruzada es una técnica para evaluar modelos de aprendizaje automático. Consiste en dividir un conjunto de datos en varios subconjuntos (o «pliegues»).

El modelo se entrena en algunos subconjuntos y se prueba en otros. Esto permite estimar el rendimiento del modelo de forma más fiable al reducir la sobreaprendizaje.

Curva ROC y AUC

La curva ROC (característica operativa del receptor) evalúa el rendimiento de un modelo de clasificación trazando la tasa de verdaderos positivos frente a la tasa de falsos positivos.

El AUC (área bajo la curva) mide el área bajo esta curva. Cuanto más cerca esté el AUC de 1, mejor será la capacidad del modelo para distinguir entre clases.

Conjunto de datos

Un dataset (conjunto de datos) es una recopilación de datos organizada que se utiliza para entrenar, probar o validar modelos de inteligencia artificial.

Puede contener texto, imágenes, vídeos u otro tipo de información, normalmente etiquetada, para permitir que los algoritmos aprendizaje automático para reconocer patrones y hacer predicciones.

Logo


¿Y si te ayudamos a crear conjuntos de datos para tus modelos de inteligencia artificial?
🚀 Nuestro equipo de Data Labelers y Data Trainers puede ayudarte a construir conjuntos de datos grandes y de calidad. No dudes en contactarnos.

Entrenamiento modelo (Entrenamiento modelo)

El entrenamiento de modelos es el proceso de usar un conjunto de datos para enseñar a un modelo de inteligencia artificial o aprendizaje automático a realizar una tarea específica, como la clasificación o la predicción.

El modelo ajusta sus parámetros en función de los ejemplos proporcionados, a fin de mejorar su precisión en los nuevos datos.

Ingeniería de funciones

La ingeniería de características es el proceso de seleccionar, transformar o crear nuevas características (o «características») a partir de datos sin procesar, con el fin de mejorar el rendimiento de un modelo de aprendizaje automático.

Estas características permiten representar mejor los datos y facilitan que el modelo identifique patrones o haga predicciones.

Función de pérdida (Función de pérdida)

La función de pérdida es una herramienta que se utiliza en el aprendizaje automático para medir la diferencia entre las predicciones del modelo y los valores reales. Evalúa la precisión del modelo.

Cuanto menor sea la pérdida, más cerca estarán las predicciones del modelo de los resultados esperados. El modelo aprende minimizando esta pérdida.

Falsa alarma (Falso positivo)

Se produce una falsa alarma (o falso positivo) cuando un modelo predice incorrectamente la presencia de una condición o clase cuando está ausente.

Por ejemplo, un sistema de detección de spam clasificaría el correo electrónico legítimo como spam. Este es un error común en los modelos de clasificación.

Generación de lenguaje natural (NLG)

La generación de lenguaje natural (NLG) es un subcampo de la inteligencia artificial que consiste en producir automáticamente textos o discursos comprensibles en lenguaje humano.

Permite que una máquina transforme datos sin procesar en oraciones o párrafos naturales, como en resúmenes automatizados o asistentes virtuales.

Hiperparámetros

Los hiperparámetros son parámetros que se definen antes de entrenar un modelo de inteligencia artificial y que influyen en su aprendizaje.

A diferencia de los parámetros aprendidos por el modelo, los hiperparámetros, como la tasa de aprendizaje o el tamaño de las capas neuronales, se fijan manualmente y se ajustan para optimizar el rendimiento del modelo.

Inteligencia artificial generativa

La inteligencia artificial generativa es una rama de la IA que crea contenido nuevo (imágenes, textos, música, etc.) a partir de modelos entrenados con datos existentes.

Utilizando algoritmos como las GAN (Generative Adversary Networks), permite generar obras originales imitando los patrones que se encuentran en los datos de entrenamiento.

Modelo predictivo

Un modelo predictivo es un algoritmo de inteligencia artificial diseñado para anticipar resultados futuros basándose en datos históricos.

Analiza las tendencias pasadas para hacer predicciones sobre nuevos datos, que se utilizan en diversos campos, como las finanzas, la salud o el marketing, para predecir comportamientos o eventos.

Optimización de gradientes

La optimización de gradiente es una técnica utilizada para ajustar los parámetros de un modelo de IA para minimizar la función de pérdida.

Consiste en calcular la pendiente (gradiente) de la función de pérdida y en modificar los parámetros en la dirección que reduce esta pendiente, mejorando así el rendimiento del modelo.

Precisión (Precisión)

Precisión (Precisión) es una medida del rendimiento de un modelo de clasificación. Representa el porcentaje de predicciones correctas entre todas las predicciones realizadas.

Es la relación entre las predicciones precisas (verdaderos positivos y verdaderos negativos) y el número total de predicciones. Cuanto mayor sea la precisión, mejor será el modelo.

Recordatorio (Recordar)

El recordatorio (Recordar) es una medida del rendimiento de un modelo de clasificación. Indica la capacidad del modelo para identificar correctamente todas las ocurrencias positivas de una clase.

Es la relación entre los elementos positivos reales y el total de los elementos realmente positivos. Un alto nivel de memoria significa pocos falsos negativos.

Reconocimiento de imágenes

El reconocimiento de imágenes es una técnica de inteligencia artificial en la que un modelo analiza imágenes para identificar objetos, personas, lugares o acciones.

Utilizado en campos como la seguridad, la salud o la industria automotriz, permite a las máquinas «ver» visualmente y comprender el contenido de una imagen con fines de clasificación o detección.

Reconocimiento de voz

La reconocimiento de voz es una tecnología de inteligencia artificial que permite convertir la voz en texto. Analiza los sonidos de una voz humana, identifica las palabras pronunciadas y las transcribe.

Utilizado en asistentes de voz, aplicaciones móviles o sistemas de control por voz, facilita las interacciones hombre-máquina.

Regresión

La regresión es una técnica de aprendizaje automático que se utiliza para predecir valores continuos a partir de datos.

A diferencia de la clasificación, que asigna categorías, la regresión estima valores numéricos, como el precio de una vivienda o las ventas futuras. Establece relaciones entre las variables de entrada y las de salida para hacer pronósticos.

Red neuronal artificial

Una red neuronal artificial es un modelo de inteligencia artificial inspirado en el funcionamiento del cerebro humano. Está compuesta por «neuronas» interconectadas, organizadas en capas, que procesan la información.

Utilizado para tareas complejas como el reconocimiento de imágenes o el procesamiento del lenguaje, aprende ajustando las conexiones entre las neuronas para mejorar su rendimiento.


Redes generativas de adversarios (GAN)

Las GAN (Generative Adversary Networks) son una arquitectura de inteligencia artificial compuesta por dos redes: un generador que crea datos y un discriminador que evalúa su autenticidad.

Las dos cadenas compiten para mejorar el desempeño de la otra. Las GAN se utilizan para generar imágenes, vídeos y otros contenidos realistas.

Redes neuronales profundas (Aprendizaje profundo)

Les redes neuronales El aprendizaje profundo, o aprendizaje profundo, son modelos de IA compuestos por múltiples capas de neuronas interconectadas.

Cada capa extrae progresivamente características complejas de los datos sin procesar, lo que permite resolver problemas complejos como el reconocimiento de imágenes, procesamiento del lenguaje natural o traducción automática.

Subaprendizaje (Insuficiente)

Subaprendizaje (Insuficiente) se produce cuando un modelo de IA es demasiado simple para capturar los patrones subyacentes en los datos.

El resultado es un rendimiento deficiente tanto en los datos de entrenamiento como en los nuevos datos. El modelo no aprende lo suficiente y hace predicciones incorrectas.

Aprendizaje excesivo (Sobreajuste)

Aprendizaje excesivo (Sobreajuste) se produce cuando un modelo de IA es demasiado complejo y se adapta con demasiada precisión a los datos de entrenamiento, incluso capturando ruido o anomalías.

Si bien funciona bien con estos datos, no logra generalizar a nuevos datos, lo que los hace menos confiables para las predicciones futuras.

Tokenización

La tokenización es un proceso de procesamiento del lenguaje natural que consiste en dividir el texto en unidades más pequeñas llamadas «fichas» (palabras, frases o caracteres).

Cada token representa una unidad distinta que la IA puede procesar. Este paso es fundamental para permitir que los modelos analicen y comprendan el texto.

Procesamiento del lenguaje natural (PNL)

Procesamiento del lenguaje natural (PNL) es un campo de la inteligencia artificial que permite a las máquinas entender, analizar y generar el lenguaje humano.

Se usa en aplicaciones como asistentes de voz, traducción automática o análisis de texto, lo que permite a las computadoras interactuar con el lenguaje de una manera natural y fluida.

Transformadores

Los transformadores son una arquitectura modelo de aprendizaje profundo que se utiliza principalmente en el procesamiento del lenguaje natural (PNL).

Capturan las relaciones entre los diferentes elementos de una secuencia (palabras, oraciones) en paralelo, en lugar de secuencialmente como los modelos tradicionales. Los transformadores son la base de modelos exitosos como el GPT y el BERT.

Ajuste de modelos

El ajuste del modelo consiste en ajustar los hiperparámetros de un modelo de inteligencia artificial para optimizar su rendimiento.

Este proceso implica probar diferentes combinaciones de hiperparámetros (como la velocidad de aprendizaje o la profundidad de capa) para encontrar las que ofrecen los mejores resultados en un conjunto de datos determinado.

Visión por computador

La visión por computador es una rama de la inteligencia artificial que permite a las máquinas entender e interpretar imágenes y vídeos.

Al analizar visualmente los datos, los sistemas de visión artificial pueden reconocer objetos, detectar rostros, analizar movimientos o incluso automatizar tareas como la inspección de calidad o la conducción autónoma.

😊 Esperamos que este glosario le haya resultado útil para desmitificar algunos de los conceptos clave de la inteligencia artificial. Si quieres saber más sobre la IA, sus aplicaciones o cómo la creación de conjuntos de datos de alta calidad puede contribuir al éxito de tus proyectos, no dudes en contactar a Innovatiana. Nuestro equipo de expertos está a su disposición para apoyarlo en todas sus iniciativas relacionadas con la inteligencia artificial y la gestión de datos.