En cliquant sur "Accepter ", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser son utilisation et de contribuer à nos efforts de marketing. Consultez notre politique de confidentialité pour plus d'informations.
A technique for compressing AI models that involves reducing the precision of parameters (for example, going from 32 bits to 8 bits) to decrease model size and speed up inference, often used in embedded applications.