En cliquant sur "Accepter ", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser son utilisation et de contribuer à nos efforts de marketing. Consultez notre politique de confidentialité pour plus d'informations.
Glossaire
Model Drift
Définition iA

Model Drift

En intelligence artificielle, le model drift (ou dérive de modèle) désigne la perte progressive de performance d’un algorithme au fil du temps. Ce phénomène apparaît lorsque les données ou le contexte dans lequel le modèle a été entraîné évoluent, de sorte que les prédictions deviennent moins fiables.

Un exemple concret : un modèle de détection de fraudes bancaires entraîné en 2020 peut perdre de son efficacité en 2025, car les comportements des fraudeurs, les moyens de paiement et les habitudes des clients ont changé.

La dérive peut prendre plusieurs formes :

  • Data drift : modification statistique des données d’entrée (ex. nouveaux mots-clés dans les requêtes en ligne).
  • Concept drift : évolution de la relation entre les variables d’entrée et la variable cible (ex. critères qui définissent un client “à risque”).

Face à ce risque, les entreprises mettent en place des systèmes de surveillance continue, avec des métriques dédiées (AUC, précision, rappel). Des pipelines de retraining automatisés permettent de réentraîner les modèles dès que les performances chutent sous un seuil critique.

La dérive de modèle peut prendre différentes formes : la dérive des données (changement de la distribution des variables d’entrée) et la dérive de concept (modification de la relation entre entrées et sorties). La première peut être détectée grâce à des tests statistiques simples, tandis que la seconde exige une surveillance fine des performances et parfois même une redéfinition du problème métier.

Les approches modernes reposent sur des pipelines MLOps intégrant surveillance en temps réel, tests de robustesse et réentraînement planifié. Mais ces mécanismes doivent rester prudents : une mise à jour mal contrôlée peut dégrader le modèle ou introduire de nouveaux biais. C’est pourquoi on combine souvent l’automatisation avec des étapes de validation humaine.

La gestion de la dérive est aussi une question d’organisation. Elle implique des investissements dans l’infrastructure de données, une coordination entre équipes data et métiers, ainsi qu’une culture d’amélioration continue. Dans les secteurs régulés, documenter et expliquer les mécanismes de détection de la dérive devient une exigence de conformité.

🔗 Références :

  • Gama et al., A Survey on Concept Drift Adaptation (ACM Computing Surveys, 2014)