En cliquant sur "Accepter ", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser son utilisation et de contribuer à nos efforts de marketing. Consultez notre politique de confidentialité pour plus d'informations.
Glossaire
Neural Architecture Search (NAS)
Définition iA

Neural Architecture Search (NAS)

La recherche d’architecture neuronale (Neural Architecture Search – NAS) est une méthode qui vise à automatiser la conception des réseaux de neurones. Traditionnellement, le choix de l’architecture (nombre de couches, type de connexions, hyperparamètres) reposait sur l’intuition et l’expérience des chercheurs. Avec le NAS, ces décisions sont déléguées à des algorithmes capables d’explorer d’immenses espaces de modèles.

👉 Trois grandes approches sont utilisées :

  • Apprentissage par renforcement, où un agent apprend quelles architectures fonctionnent le mieux.
  • Algorithmes évolutionnaires, inspirés de la sélection naturelle.
  • Méthodes différentielles (comme DARTS), qui transforment le problème en un espace continu optimisable.

Le NAS permet ainsi de concevoir des modèles compétitifs pour la vision par ordinateur, la reconnaissance vocale ou le traitement du langage, et de les adapter à des contraintes matérielles (smartphones, systèmes embarqués).

Mais attention : le coût en calcul peut être colossal, même si de nouvelles méthodes plus économes se démocratisent.

La recherche d’architecture neuronale (NAS) illustre la volonté d’industrialiser la conception des réseaux de neurones. Elle automatise un processus jusque-là largement artisanal, en s’appuyant sur des algorithmes capables d’explorer des milliers de combinaisons en parallèle.

Historiquement critiqué pour son coût computationnel exorbitant, le NAS a évolué vers des approches plus efficaces. Des méthodes comme DARTS (Differentiable Architecture Search) permettent d’approximer le problème comme un espace continu optimisable par descente de gradient, réduisant ainsi le temps de calcul de plusieurs ordres de grandeur.

Un enjeu clé réside dans l’interprétabilité. Les architectures générées automatiquement peuvent atteindre des performances remarquables, mais leur complexité rend parfois difficile la compréhension des choix structurels. Cette « boîte noire » pose des questions sur la confiance et la gouvernance des modèles déployés, notamment dans des domaines sensibles comme la santé.