Variational Autoencoder (VAE)
Un Variational Autoencoder (VAE) est un type particulier d’autoencodeur qui combine apprentissage automatique et méthodes probabilistes pour générer de nouvelles données. Contrairement à l’autoencodeur classique, qui apprend uniquement une représentation compacte des données, le VAE apprend une distribution latente. Cela lui permet non seulement de reconstruire des exemples existants, mais aussi d’en générer de nouveaux, proches mais originaux.
Contexte et origine
Introduit par Kingma et Welling en 2013, le VAE est une extension de l’autoencodeur destinée à résoudre une limite : la difficulté d’utiliser l’espace latent appris pour la génération. En imposant une distribution probabiliste (souvent une gaussienne), le VAE rend cet espace continu et exploitable pour l’échantillonnage, ce qui en fait un modèle de référence dans le domaine de l’IA générative.
Applications pratiques
Les VAE sont utilisés dans des contextes variés :
- Vision par ordinateur : génération d’images réalistes, complétion d’images manquantes.
- Audio : synthèse de voix ou de musique en apprenant des représentations latentes sonores.
- Médecine : génération de données médicales simulées pour entraîner des modèles sans exposer de données sensibles.
- Recherche scientifique : compression et visualisation de données complexes comme celles issues de la génomique.
Enjeux et limites
Malgré leur puissance, les VAE présentent certaines limites. Les images générées peuvent parfois manquer de netteté par rapport aux GANs (Generative Adversarial Networks). En revanche, leur avantage réside dans la structure probabiliste qui permet de mieux contrôler la génération et d’intégrer une véritable compréhension des distributions de données.