Łańcuch Markowa

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj
Przykład procesu Markowa

Proces Markowaciąg zdarzeń, w którym prawdopodobieństwo każdego zdarzenia zależy jedynie od wyniku poprzedniego. W ujęciu matematycznym, procesy Markowa to takie procesy stochastyczne, które spełniają własność Markowa.

Łańcuchy Markowa to procesy Markowa z czasem dyskretnym.

Łańcuch Markowa jest ciągiem X1, X2, X3, ... zmiennych losowych. Dziedzinę tych zmiennych nazywamy przestrzenią stanów, a realizacje Xn to stany w czasie n. Jeśli rozkład warunkowy Xn+1 jest funkcją wyłącznie zmiennej Xn:

 P(X_{n+1}\leqslant y|X_0, X_1, X_2, \ldots, X_n) = P(X_{n+1}\leqslant y|X_n)

to mówimy, że proces stochastyczny posiada własność Markowa.

Przedstawiona definicja zakłada czas dyskretny. Istnieją procesy Markowa z czasem ciągłym, jednak nie są one przedstawione w tym artykule.

Procesy Markowa zawdzięczają swoją nazwę ich twórcy Andriejowi Markowowi, który po raz pierwszy opisał problem w 1906 roku. Uogólnienie na przeliczalnie nieskończone przestrzenie stanów zostało opracowane przez Kołmogorowa w 1936. Łańcuchy Markowa mają związek z ruchami Browna oraz hipotezą ergodyczną, dwoma ważnymi w fizyce tematami, ale powstały jako uogólnienie prawa wielkich liczb na zdarzenia zależne.

Własności łańcuchów Markowa[edytuj | edytuj kod]

Rozkład początkowy[edytuj | edytuj kod]

Rozkładem początkowym nazywamy rozkład (dyskretny) zmiennej X0.

Macierz przejść[edytuj | edytuj kod]

Definicja[edytuj | edytuj kod]

Jeśli łańcuch Markowa jest jednorodny, rozkład prawdopodobieństw przejść między poszczególnymi stanami może być przedstawiony jako macierz, zwaną macierzą prawdopodobieństw przejścia. Jest to macierz stochastyczna, oznaczamy zwykle literą P, gdzie wyraz (i, j) wyraża się wzorem

p_{i,j} = P(X_{n+1}=j\mid X_n=i).

Z jednorodności wynika, że rzeczywiście pi,j nie zależy od n. Przykładowo element p1,3 oznacza prawdopodobieństwo przejścia ze stanu pierwszego do stanu trzeciego.

Równania Chapmana-Kołmogorowa[edytuj | edytuj kod]

Prawdopodobieństwem przejścia ze stanu i do stanu j w n krokach nazywa się prawdopodobieństwo warunkowe

p_{i,j}^{(n)} = P(X_{m+n}=j| X_m = i).

Dla prawdopodobieństw przejść spełnione są następujace równanie, nazywane równaniami Chapmana-Kołmogorowa:

p_{i,j}^{(n + m)} = \sum_{k \in E} p_{i,k}^{(n)}p_{k,j}^{(m)}.

Intuicyjne jest jasne, że aby dojść do stanu j można po drodze przejść przez dowolny inny stan skomunikowany z j i i. Stosując zapis macierzowy, równania Chapmana-Kołmogorowa można zapisać w postaci:

 \mathbf{P}^{m+n} = \mathbf{P}^{m}\mathbf{P}^{n} ,

gdzie przez Pn jest macierzą przejść w n krokach.

Klasyfikacja stanów[edytuj | edytuj kod]

Mówi się, że

  • stan i jest osiągalny ze stanu j, jeśli pj,i >0;
  • stany i i j są skomunikowane, jeśli są wzajemnie osiągalne. Oznaczenie: i  ↔  j.

Można wykazać, że relacja skomunikowania jest relacją równoważności. Zatem zbiór możliwych stanów można podzielić na klasy abstrakcji względem tej relacji. Każda z klas tworzy zbiór stanów wzajemnie skomunikowanych.

Stany chwilowe i rekurencyjne[edytuj | edytuj kod]

Niech fi oznacza prawdopodobieństwo tego, że startując ze stanu i łańcuch kiedykolwiek do niego powróci.

  • Jeśli fi = 1 to stan i nazywany jest rekurencyjnym.
  • Jeśli fi < 1 to stan i nazywany jest chwilowym.

Każdy stan jest albo chwilowy albo rekurencyjny. Stan i jest rekurencyjny wtedy i tylko wtedy, gdy

\sum_{n=1}^{\infty} p_{i,i}^{(n)}  = \infty.

Rozkład stacjonarny[edytuj | edytuj kod]

Rozkład prawdopodobieństw na przestrzeni stanów S nazywany jest stacjonarnym wtedy i tylko wtedy, gdy spełniony jest warunek

\pi_{j} = \sum_{i \in S} \pi_i p_{ij},

tj.

 \pi\mathbf{P} = \pi,

gdzie π jest takim wektorem wierszowym, że

\sum_i \pi_i = 1 \quad \forall \pi_i \ge 0 .

Jeśli rozkład początkowy \mathbf{x_0} jest stacjonarny, to każdy kolejny rozkład \mathbf{x_n} również jest stacjonarny.

Może nie istnieć żaden, istnieć jeden lub więcej niż jeden rozkład stacjonarny dla danego procesu.

Zobacz też[edytuj | edytuj kod]

Bibliografia[edytuj | edytuj kod]

  • Maria Podgórska i in.: Łańcuchy Markowa w teorii i zastosowaniach. Warszawa: Szkoła Główna Handlowa, Oficyna Wydawnicza, 2002.
  • Anzelm Iwanik, Jolanta Katarzyna Misiewicz: Wykłady z procesów stochastycznych z zadaniami. Cz. 1, Procesy Markowa. Zielona Góra: Oficyna Wydawnicza Uniwersytetu Zielonogórskiego, 2009.

Linki zewnętrzne[edytuj | edytuj kod]