Hierarchiczna pamięć

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj

Hierarchiczna pamięć (HTM) jest to model uczenia maszyn opracowany przez Jeff Hawkinsa i Dileep George’a z firmy Numenta, Inc. który odzwierciedla strukturalne i algorytmiczne właściwości kory nowej (neocortex). Model ten używa podejścia podobnego do sieci Bayesowskich. Model HTM jest oparty na teorii przewidywania opartego na pamięci – teorii działania mózgu opisanej przez Jeff Hawkinsa w jego książce Istota Inteligencji. Sieci HTM są uważane za bionaśladowcze modele wnioskowania o przyczynach.

Model ten jest podobny do pracy Tomaso Poggio i Davida Mumforda.

Opis sieci HTM[edytuj | edytuj kod]

Ta część jest podsumowaniem dokumentacji Numenty .[1]

Porównanie HTM i Kory mózgowej[edytuj | edytuj kod]

Podobieństwo do innych modeli[edytuj | edytuj kod]

Sieci Bayesowskie[edytuj | edytuj kod]

Sieci Neuronowe[edytuj | edytuj kod]

Podczas gdy sieci neuronowe ignorują strukturę (hierarchie) i skupiają się na emulacji neuronów, sieci HTM skupiają się na budowie hierarchicznej a ignorują emulację neuronów.

Implementacja[edytuj | edytuj kod]

Idea HTM została użyta w naukowym wydaniu oprogramowania nazwanego "Numenta Platform for Intelligent Computing" (NuPIC). Aktualnie to oprogramowanie jest dostępne do ściągnięcia za darmo.

Ta implementacja jest napisana w C++ i Pythonie.

Zobacz też[edytuj | edytuj kod]

Podobne modele[edytuj | edytuj kod]

Przypisy

Bibliografia[edytuj | edytuj kod]

Linki zewnętrzne[edytuj | edytuj kod]

Oficjalne[edytuj | edytuj kod]

Inne[edytuj | edytuj kod]