Analiza algorytmów

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj

Analiza algorytmu to sposób określenia zasobów, które są potrzebne w celu wykonania algorytmu: ilości czasu i miejsca w pamięci, szerokości pasma lub liczby układów logicznych.

W analizie algorytmu czas działania algorytmu spełnia ważną rolę, ponieważ niektóre proste problemy mogą powodować niezwykle długie obliczenia.

W analizie tej rozważa się przypadek najdłuższego czasu działania dla każdych danych wejściowych określonego rozmiaru oraz przypadek średniego czasu oczekiwania na działania danego algorytmu przy założeniu, iż wszystkie dane wejściowe określonego rozmiaru są jednakowo prawdopodobne.

Od czego zależy czas wykonywania[edytuj | edytuj kod]

  1. od danych wejściowych (ciąg posortowany jest łatwiejszy do posortowania);
  2. od wielkości strumienia wejściowego (ciąg krótszy jest łatwiejszy do posortowania);

Zwykle szukamy górnych granic czasu działania, żeby mieć gwarancję nieprzekroczenia go.

Rodzaje analizy[edytuj | edytuj kod]

  1. Najgorszy przypadek (zwykle):  T(n)= maksymalny czas działania algorytmu na danych wielkości n;
  2. Średni przypadek (czasami): Oczekiwany czas działania przy każdych danych (wymaga założeń co do statystycznego rozłożenia danych);
  3. Najlepszy przypadek (fałszywa analiza): Pokazuje, że nawet wolny algorytm pracuje szybko dla pewnych danych.

Notacja asymptotyczna[edytuj | edytuj kod]

 Osobny artykuł: asymptotyczne tempo wzrostu.
  • ignoruje stałe zależne od komputera (dzięki temu analiza jest uniwersalna, uzyskujemy te same wyniki niezależnie od maszyny);
  • zwraca uwagę na wzrost funkcji  T(n) \to \infty

Notacja O (górna granica)[edytuj | edytuj kod]

 O(g(n))= \{ f(n): istnieją stałe  c>0, n_{0}>0 takie, że  0 \leqslant f(n) \leqslant cg(n) dla wszystkich  n \geqslant n_{0} \}

Przykład:  2n^{2}=O(n^{3}), gdzie     (c=1, n_{0}=2)
Zwróć uwagę, że  n^{2} , n^{3} to funkcje, nie wartości. Ponadto równość jest "w jedną stronę"!
(Dokładniej operując na zbiorach powinno się pisać  2n^{2} \in O(n^{3}) , więc, np. O(n^{2}) jest zbiorem funkcji i we wzorach traktuje się ten zbiór jako anonimową funkcję  h(n) \in O(n^{2} ).

Notacja  \Omega (ograniczenie dolne)[edytuj | edytuj kod]

 \Omega (g(n))= \{ f(n): istnieją stałe  c>0, n_{0}>0 takie, że  0 \leqslant cg(n) \leqslant f(n) dla wszystkich  n \geqslant n_{0} \}
Przykład:
 \sqrt n = \Omega (lg n), gdzie  c=1, n_{0}=16

Notacja  \Theta (tight bounds)[edytuj | edytuj kod]

 \Theta (g(n))= \{ f(n): istnieją dodatnie stałe  c_{1}, c_{2}, n_{0}  takie, że  0 \leqslant c_{1} g(n) \leqslant f(n) \leqslant c_{2} g(n) dla wszystkich  n \geqslant n_{0} \}
Lub inaczej:
 \Theta (g(n))= O(g(n)) \cap \Omega (g(n))
Przykład:
 5n^{2} -3n= \Theta (n^{2})

Notacja o (małe O)[edytuj | edytuj kod]

Notacje O i  \Omega są jak  \leqslant i  \geqslant .
Notacje o i  \omega sa jak  < i  > .

 o(g(n))= \{ f(n): dla każdej dodatniej stałej  c>0 istnieje stała  n_{0}>0 taka, że  0 \leqslant f(n) < cg(n) dla wszystkich  n \geqslant n_{0} \}
Przykład:
 2n^{2} = o(n^{3}) i  (n_{0}= {2 \over c})

Notacja  \omega [edytuj | edytuj kod]

(patrz: Notacja o)
 \omega (g(n))= \{ f(n): dla każdej dodatniej stałej  c>0 istnieje stała  n_{0}>0 taka, że  0 \leqslant cg(n) < f(n) dla wszystkich  n \geqslant n_{0} \}
Przykład:
 \sqrt n =\omega (lg n) , gdzie  (n_{0} = 1+1/c)

Zobacz też[edytuj | edytuj kod]