Nierówność Höldera

Z Wikipedii, wolnej encyklopedii

Nierówność Höldera – fundamentalna nierówność wiążąca przestrzenie Lp. Nazwana nazwiskiem matematyka Otto Höldera, została najpierw sformułowana przez L. J. Rogersa (1888) i ponownie odkryta przez Höldera (1889).

Nierówność Höldera jest używana do wykazania uogólnionej nierówności trójkąta w przestrzeni Lp, nierówności Minkowskiego oraz do ustalenia warunku dualności dla przestrzeni i jeśli oraz

Nierówność Höldera[edytuj | edytuj kod]

Niech będzie przestrzenią z miarą oraz niech będą wykładnikami sprzężonymi, tzn.

Jeżeli oraz to oraz

Równość zachodzi wtedy i tylko wtedy, gdy funkcje i liniowo zależne.

Najważniejsze przypadki szczególne[edytuj | edytuj kod]

  • Gdy to nierówność Höldera znana jest pod nazwą nierówności Schwarza (lub Cauchy’ego-Schwarza, a w przypadku całkowym – Buniakowskiego-Schwarza)[1].
  • W przestrzeni euklidesowej (lub ) nierówność Höldera przyjmuje postać:
  • Dla elementów
  • Niech będzie przestrzenią z miarą. Najogólniejszą wersją nierówności Höldera (której powyższe są szczególnymi przypadkami) jest nierówność
W szczególności, gdy jest miarą probabilistyczną (tj. jest przestrzenią probabilistyczną), nierówność tę można zapisać w postaci
gdzie symbol oznacza wartość oczekiwaną.

Uogólnienie[edytuj | edytuj kod]

Metodą indukcji matematycznej można pokazać następujące uogólnienie:

Niech będą takie, że:

Załóżmy, że Wtedy oraz

Zobacz też[edytuj | edytuj kod]

Przypisy[edytuj | edytuj kod]

  1. nierówność Höldera, [w:] Encyklopedia PWN [dostęp 2021-10-03].

Literatura[edytuj | edytuj kod]