En cliquant sur "Accepter ", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser son utilisation et de contribuer à nos efforts de marketing. Consultez notre politique de confidentialité pour plus d'informations.
Technique de compression des modèles d’IA consistant à réduire la précision des paramètres (par exemple, passer de 32 bits à 8 bits) pour diminuer la taille du modèle et accélérer l’inférence, souvent utilisée dans des applications embarquées.