Multi-class-classification
La classification multi-classes est un problème central en apprentissage supervisé où un algorithme doit attribuer une observation à l’une des nombreuses catégories possibles. Contrairement à la classification binaire (oui/non, spam/non spam, par exemple), la version multi-classes gère des scénarios beaucoup plus riches : reconnaître des chiffres manuscrits (0 à 9), identifier des maladies à partir d’images médicales, ou encore catégoriser des articles d’actualité selon leur thématique.
L’un des exemples emblématiques est la base de données MNIST, utilisée pour entraîner des réseaux de neurones à reconnaître les chiffres de 0 à 9. Plus récemment, ImageNet a permis des avancées spectaculaires en vision par ordinateur, en posant un problème de classification à plus de mille catégories d’images.
Plusieurs stratégies existent pour aborder ce type de problème. La plus classique consiste à transformer la classification multi-classes en une série de classifications binaires : un modèle par classe (One-vs-All) ou une combinaison de modèles en duel (One-vs-One). Les réseaux neuronaux modernes, eux, traitent directement toutes les classes en parallèle grâce à une fonction softmax, qui convertit les sorties en probabilités normalisées.
Les défis sont multiples : certaines classes peuvent être déséquilibrées (par exemple, très peu de cas d’une maladie rare), et d’autres peuvent être proches visuellement ou conceptuellement, ce qui conduit à des erreurs, des confusions. De plus, plus le nombre de classes augmente, plus le modèle doit être expressif et disposer de données représentatives.
La classification multi-classes reste aujourd’hui une composante essentielle de nombreux systèmes intelligents, des assistants vocaux capables de reconnaître des dizaines d’intentions, aux véhicules autonomes qui doivent identifier en temps réel de nombreux objets (piétons, feux tricolores, panneaux, autres voitures).
🔗 Références :
- Goodfellow et al., Deep Learning (MIT Press, 2016)