En cliquant sur "Accepter ", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser son utilisation et de contribuer à nos efforts de marketing. Consultez notre politique de confidentialité pour plus d'informations.
Glossary
Tokenization
AI DEFINITION

Tokenization

Tokenization is a natural language processing process that involves dividing text into smaller units called “tokens” (words, phrases, or characters). Each token represents a distinct unit that the AI can process. This step is critical to allow models to analyze and understand the text.