Przejdź do zawartości

Autoenkoder wariacyjny

Z Wikipedii, wolnej encyklopedii
Podstawowy schemat autoenkodera wariacyjnego. Model otrzymuje jako dane wejściowe. Koder kompresuje go do przestrzeni utajonej. Dekoder otrzymuje jako dane wejściowe informacje pobrane z przestrzeni ukrytej i generuje , podobne do .

Autoenkoder wariacyjny (ang. variational autoencoder, VAE) – architektura sztucznej sieci neuronowej będąca ewolucją architektury autoenkodera, operująca na wnioskowaniu bayesowskim[1].

Pomimo faktu, że VAE został zaprojektowany do uczenia nienadzorowanego[2][3], jego skuteczność została udowodniona w uczeniu półnadzorowanym[4] i nadzorowanym[5].

Przypisy

[edytuj | edytuj kod]
  1. Diederik P. Kingma, Max Welling, Auto-Encoding Variational Bayes, „arXiv”, 2022, DOI10.48550/arXiv.1312.6114, arXiv:1312.6114 [dostęp 2025-04-16].
  2. Nat Dilokthanakul i inni, Deep Unsupervised Clustering with Gaussian Mixture Variational Autoencoders, „arXiv”, 2017, DOI10.48550/arXiv.1611.02648, arXiv:1611.02648 [dostęp 2025-04-16].
  3. Wei-Ning Hsu, Yu Zhang, James Glass, Unsupervised domain adaptation for robust speech recognition via variational autoencoder-based data augmentation, 2017 IEEE Automatic Speech Recognition and Understanding Workshop (ASRU), grudzień 2017, s. 16–23, DOI10.1109/ASRU.2017.8268911 [dostęp 2025-04-16].
  4. M. Ehsan Abbasnejad, Anthony Dick, Anton van den Hengel, Infinite Variational Autoencoder for Semi-Supervised Learning [online], 2017, s. 5888–5897 [dostęp 2025-04-16].
  5. Hirokazu Kameoka i inni, Supervised Determined Source Separation with Multichannel Variational Autoencoder, „Neural Computation”, 31 (9), 2019, s. 1891–1914, DOI10.1162/neco_a_01217, ISSN 0899-7667 [dostęp 2025-04-16].

Linki zewnętrzne

[edytuj | edytuj kod]