Al hacer clic en "Aceptar", usted acepta que se almacenen cookies en su dispositivo para mejorar la navegación del sitio, analizar su uso y contribuir a nuestros esfuerzos de marketing. Consulte nuestra política de privacidad para más información.  pour plus d'informations.
Glosario
Tokenización
Definición de IA

Tokenización

La tokenización es un proceso de procesamiento del lenguaje natural que implica dividir el texto en unidades más pequeñas llamadas «fichas» (palabras, frases o caracteres). Cada token representa una unidad distinta que la IA puede procesar. Este paso es fundamental para permitir que los modelos analicen y comprendan el texto.