En cliquant sur "Accepter ", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser son utilisation et de contribuer à nos efforts de marketing. Consultez notre politique de confidentialité pour plus d'informations.
Glossaire
Accuracy
Définition iA

Accuracy

La précision est un indicateur simple mais essentiel en apprentissage automatique. Elle mesure la proportion de prédictions correctes réalisées par un modèle par rapport au nombre total de prédictions.

Points forts
La précision est intuitive : un modèle avec 92 % de précision a correctement classé 92 cas sur 100. Elle constitue souvent la première métrique utilisée pour comparer plusieurs modèles.

Limites
Cependant, elle peut être trompeuse lorsque les classes sont déséquilibrées. Dans un jeu de données médical où 99 % des patients sont sains, un modèle qui prédit toujours “sain” atteindra 99 % de précision, mais sera incapable de détecter les malades. C’est pourquoi on complète généralement la précision par d’autres indicateurs comme le rappel (recall), la précision au sens strict (precision) et le score F1.

Exemples d’usage

L’accuracy (ou taux de précision globale) est souvent le premier indicateur auquel on pense lorsqu’on évalue un modèle d’apprentissage automatique. Sa force est sa clarté : un pourcentage facile à comprendre et à communiquer. Mais cette simplicité cache aussi ses limites. Dans les ensembles de données déséquilibrés, il peut donner une illusion de performance. Ainsi, un modèle qui “joue la majorité” peut obtenir un score élevé tout en étant totalement inutile.

Pour mieux interpréter l’accuracy, il est important de la croiser avec d’autres métriques. La précision, le rappel, ou encore le F1-score permettent de comprendre si le modèle détecte correctement les classes minoritaires ou sensibles. C’est particulièrement crucial dans les domaines où l’erreur a un coût élevé, comme la santé, la cybersécurité ou la justice.

Enfin, l’accuracy ne dit rien sur la qualité de la calibration des probabilités. Un modèle peut être globalement “souvent correct” mais donner des prédictions trop confiantes ou trop hésitantes. C’est pourquoi les chercheurs et ingénieurs examinent souvent la courbe ROC, l’AUC ou la calibration pour compléter l’évaluation.

📚 Références

  • Bishop, C. M. (2006). Pattern Recognition and Machine Learning. Springer.
  • LeCun, Y., Bengio, Y., Hinton, G. (2015). Deep Learning. Nature.