En cliquant sur "Accepter ", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser son utilisation et de contribuer à nos efforts de marketing. Consultez notre politique de confidentialité pour plus d'informations.
Glossaire
Quantization
Définition iA

Quantization

La quantification est une technique d’optimisation des modèles d’IA qui consiste à réduire la précision numérique des paramètres (poids et activations). Typiquement, un modèle utilisant des flottants 32 bits (FP32) est converti en représentations plus compactes, comme du 16 bits (FP16) ou du 8 bits entiers (INT8). L’objectif est de réduire la taille du modèle et d’accélérer l’inférence, en particulier sur des dispositifs contraints (smartphones, IoT, puces embarquées).

Contexte
La quantification s’inscrit dans les approches de compression et d’optimisation de modèles, aux côtés du pruning ou de la distillation de connaissances. Elle est devenue incontournable avec le déploiement massif de l’IA sur des terminaux mobiles et embarqués, où la consommation mémoire et énergétique est critique.

Exemples d’utilisation

Avantages et limites

  • ✅ Réduction de la taille mémoire et du temps d’inférence.
  • ✅ Moindre consommation énergétique.
  • ❌ Peut dégrader légèrement la précision du modèle.
  • ❌ Requiert parfois un calibrage complexe pour minimiser les pertes.

La quantification ne se limite pas à un simple changement de format numérique. Selon l’approche adoptée, elle peut être post-entraînement (appliquée une fois le modèle entraîné) ou aware training (le modèle est entraîné dès le départ en tenant compte des contraintes de quantification). La seconde méthode, plus coûteuse, produit généralement des modèles plus robustes et mieux calibrés.

Un autre point important est la quantification hétérogène : toutes les couches d’un réseau n’ont pas la même tolérance à la perte de précision. Par exemple, les premières couches convolutionnelles sont souvent plus sensibles et conservent un format FP16, tandis que les couches profondes peuvent descendre en INT8 sans impact majeur.

La recherche actuelle explore aussi des formats encore plus extrêmes, comme INT4 ou même la binarisation des poids (Binary Neural Networks). Ces variantes permettent des gains de performance spectaculaires, mais au prix de pertes de précision qui ne sont pas encore acceptables pour toutes les applications.

Enfin, la quantification soulève des enjeux industriels : dans le déploiement de modèles d’IA embarqués (voitures autonomes, objets connectés), elle constitue une étape clé pour rendre la technologie réellement utilisable hors des centres de données.

📚 Références

  • Jacob, B. et al. (2018). Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference. CVPR.
  • Han, S. et al. (2016). Deep Compression.