Entropia krzyżowa

Z Wikipedii, wolnej encyklopedii

Entropia krzyżowa – wartość używana w teorii informacji[1]. Wykorzystywana do oceny nietrafności rozkładu względem drugiego rozkładu hipotetycznie prawdziwego[2].

Definicja[edytuj | edytuj kod]

Wzór na entropię krzyżową dyskretnej zmiennej losowej o zbiorze wartości i zdefiniowanych na nich rozkładach prawdopodobieństw i [1]:

Interpretując entropię krzyżową jako miarę nietrafności, za przyjmuje się rozkład traktowany jako prawdziwy, a za rozkład oceniany[2].

Własności[edytuj | edytuj kod]

Ponieważ[2]

entropię krzyżową można interpretować jako sumę entropii dla rzeczywistego rozkładu prawdopodobieństa oraz miary dywergencji Kullbacka-Leiblera między i [2]:

Traktując entropię krzyżową jako nietrafność względem można traktować ją jako sumę nietrafności związanej z niepewnością i nietrafności związanej z błędem względem [2].

Przypisy[edytuj | edytuj kod]

  1. a b I.J. Good, Some terminology and notation in information theory, „Proceedings of the IEE - Part C: Monographs”, 103 (3), 1956, s. 200–204, DOI10.1049/pi-c.1956.0024.
  2. a b c d e D.F. Kerridge, Inaccuracy and Inference, „Journal of the Royal Statistical Society. Series B (Methodological)”, 37 (1), 1961, s. 184–194, DOI10.2307/2983856, JSTOR2983856.