Metoda gradientu prostego

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj

Metoda gradientu prostegoalgorytm numeryczny mający na celu znalezienie minimum lokalnego zadanej funkcji celu.

Jest to jedna z prostszych metod optymalizacji. Przykładami innych metod są metoda najszybszego spadku, czy metoda Newtona.

Algorytm[edytuj]

Ilustracja działania metody gradientu prostego. Widoczne są pierwsze 4 kroki algorytmu dla dwuwymiarowej funkcji celu.

Zadanie[edytuj]

Metoda gradientu prostego jest iteracyjnym algorytmem wyszukiwania minimum zadanej funkcji celu :

gdzie .

Założenia dla metody są następujące:

Opis[edytuj]

Na samym początku algorytmu wybierany jest punkt startowy . W punkcie tym obliczany jest kierunek poszukiwań . Punkt w następnym kroku obliczany jest według wzoru:

jeśli obliczony punkt nie spełni warunku stopu algorytmu, całe postępowanie jest powtarzane.

Kierunkiem poszukiwań w metodzie gradientu prostego jest antygradient funkcji celu .

Współczynnik jest współczynnikiem długości kolejnych kroków. W wielu przypadkach przyjmuje się stałe niewielkie wartości:

Jeśli jest funkcją kwadratową o dodatnio określonym hesjanie to można przyjąć:

gdzie jest największą wartością własną macierzy .

Współczynnik może również dynamicznie zmieniać się podczas procesu szukania minimum. Kolejne kroki w algorytmie powinny być wybierane tak aby:

Jeżeli warunek ten nie jest w danym kroku spełniony, to należy powtórzyć krok z mniejszą wartością .

Algorytm ogólnie można zapisać:

  1. Wybierz punkt startowy
  2. Sprawdź kryterium stopu, jeśli jest spełniony to STOP.
  3. Jeżeli to zmniejsz wartość i powtórz punkt 2 dla kroku -ego.
  4. Powtórz punkt 2 dla następnego kroku

Kryterium stopu[edytuj]

W celu określenia, czy punkt w danym kroku dostatecznie dobrze przybliża minimum funkcji celu w metodzie gradientu prostego, można użyć następujących kryteriów stopu (dla zadanej precyzji oraz normy ):

  • (test stacjonarności).

Zbieżność[edytuj]

Metoda gradientu prostego jest metodą o zbieżności liniowej. Oznacza to, iż przy spełnieniu założeń metody, odległości pomiędzy kolejnymi przybliżeniami a minimum funkcji maleją liniowo:

Przykład[edytuj]

Na poniższych rysunkach zilustrowane zostały kolejne kroki metody gradientu prostego dla funkcji:

Metoda gradientu prostego.Metoda gradientu prostego.

Zobacz też[edytuj]

Bibliografia[edytuj]

  1. Fortuna Z., Macukow B., Wąsowski J.: Metody Numeryczne, Wydawnictwa Naukowo-Techniczne, 2006.
  2. Stachurski A., Wierzbicki A.: Podstawy optymalizacji, Oficyna Wydawnicza PW, 1999.

Linki zewnętrzne[edytuj]