Hierarchiczna pamięć

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj

Hierarchiczna pamięć (HTM) – model uczenia maszyn opracowany przez Jeff Hawkinsa i Dileep George’a z firmy Numenta, Inc. który odzwierciedla strukturalne i algorytmiczne właściwości kory nowej (neocortex). Model ten używa podejścia podobnego do sieci bayesowskich. Model HTM jest oparty na teorii przewidywania opartego na pamięci – teorii działania mózgu opisanej przez Jeff Hawkinsa w jego książce Istota Inteligencji. Sieci HTM są uważane za bionaśladowcze modele wnioskowania o przyczynach.

Model ten jest podobny do pracy Tomaso Poggio i Davida Mumforda.

Opis sieci HTM[edytuj]

Ta część jest podsumowaniem dokumentacji Numenty[1].

Sieci neuronowe[edytuj]

Podczas gdy sieci neuronowe ignorują strukturę (hierarchie) i skupiają się na emulacji neuronów, sieci HTM skupiają się na budowie hierarchicznej a ignorują emulację neuronów.

Implementacja[edytuj]

Idea HTM została użyta w naukowym wydaniu oprogramowania nazwanego „Numenta Platform for Intelligent Computing” (NuPIC). Aktualnie to oprogramowanie jest dostępne do ściągnięcia za darmo.

Ta implementacja jest napisana w C++ i Pythonie.

Podobne modele[edytuj]

Przypisy

Bibliografia[edytuj]

Linki zewnętrzne[edytuj]

Oficjalne[edytuj]

Inne[edytuj]