Przejdź do zawartości

Rekurencyjna sieć neuronowa

Z Wikipedii, wolnej encyklopedii

Rekurencyjna sieć neuronowa (ang. recurrent neural network, RNN) – klasa sieci neuronowych, w której sygnał otrzymany na wyjściu sieci trafia powtórnie na jej wejście (taki obieg sygnału zwany jest sprzężeniem zwrotnym)[1].

Różne rodzaje sprężenia zwrotnego: niebezpośrednie , w bok i bezpośrednie

Jednorazowe pobudzenie struktury ze sprzężeniem zwrotnym może generować całą sekwencję nowych zjawisk i sygnałów, ponieważ sygnały z wyjścia sieci trafiają ponownie na jej wejścia, generując nowe sygnały aż do ustabilizowania się sygnałów wyjściowych[1].

Takiemu przebiegowi sygnałów wyjściowych wszystkich neuronów, powstającemu w sieci spontanicznie i nie poddającemu się żadnej kontroli, towarzyszą często oscylacje, gwałtowne narastanie sygnałów (wręcz do nieskończoności) lub ich gradientowe znikanie aż do całkowitego wyzerowania całej sieci. Szczególnie skomplikowane są procesy powstawania i rozwoju chaosu, z którymi w takiej sieci też często miewamy do czynienia[1][2]. Rozwiązaniem tego problemu jest długa pamięć krótkotrwała (LSTM)[3].

Przypisy

[edytuj | edytuj kod]
  1. a b c Ryszard Tadeusiewicz, Maciej Szaleniec: Leksykon sieci neuronowych. s. 87. ISBN 978-83-63270-10-0.
  2. Nicolas Zucchet, Antonio Orvieto, Recurrent neural networks: vanishing and exploding gradients are not the end of the story, arXiv, 5 listopada 2024, DOI10.48550/arXiv.2405.21064 [dostęp 2025-04-08].
  3. James Crooks, Long Short-Term Memory Networks: Overcoming Vanishing Gradient Problem in Recurrent Neural Networks [online] [dostęp 2025-04-08] (ang.).

Linki zewnętrzne

[edytuj | edytuj kod]