Entropia metryczna

Z Wikipedii, wolnej encyklopedii

Entropia metrycznaentropia (teoria informacji) znormalizowana przez długość wiadomości. Pozwala zmierzyć losowość informacji, ponieważ entropia Shannona wzrasta liniowo ze wzrostem długości wiadomości. Normalizacja przez długość wiadomości daje tę samą informację, ale jest niezależna od długości wiadomości.

Wzór na entropię metryczną:

gdzie:

– długość wiadomości,
– prawdopodobieństwo zajścia zdarzenia
– liczba wszystkich zdarzeń danej przestrzeni.

W przypadku kodowania ciągu znaków jest to prawdopodobieństwo wystąpienia -tego znaku.

Entropia metryczna spada do zera przy jednolitym ciągu znaków w wiadomości i rośnie monotonicznie wraz ze wzrostem różnorodności wiadomości osiągając wartość 1 dla wiadomości maksymalnie zróżnicowanej.


Linki zewnętrzne[edytuj | edytuj kod]

  • kalkulator entropii – jak obliczyć i interpretować entropię metryczną dowolnej wiadomości