En cliquant sur "Accepter ", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser son utilisation et de contribuer à nos efforts de marketing. Consultez notre politique de confidentialité pour plus d'informations.
Glossaire
Knowledge Distillation
Définition iA

Knowledge Distillation

Processus dans lequel un modèle d’IA plus petit (étudiant) est entraîné pour reproduire les prédictions d’un modèle plus grand et plus complexe (professeur), permettant de réduire la taille et les besoins en calcul tout en maintenant les performances.