Nierówność Höldera

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj

Nierówność Höldera – fundamentalna nierówność wiążąca przestrzenie Lp. Nazwana nazwiskiem matematyka Otto Höldera, została najpierw sformułowana przez L. J. Rogersa (1888) i ponownie odkryta przez Höldera (1889).

Nierówność Höldera jest używana do wykazania uogólnionej nierówności trójkąta w przestrzeni Lp, nierówności Minkowskiego oraz do ustalenia warunku dualności dla przestrzeni i jeśli oraz .

Nierówność Höldera[edytuj]

Niech (Ω, μ) będzie przestrzenią z miarą oraz niech 1 ≤ pq ≤ ∞ będą wykładnikami sprzężonymi, tzn.

Jeżeli fLp(Ω, μ) oraz gLq(Ω, μ), to fgL1(Ω, μ) oraz

Równość zachodzi wtedy i tylko wtedy, gdy funkcje f i gliniowo zależne.

Najważniejsze przypadki szczególne[edytuj]

  • W przestrzeni euklidesowej (lub ) nierówność Höldera przyjmuje postać:
  • Dla elementów xp, yq:
  • Niech (Ω, μ) będzie przestrzenią z miarą. Najogólniejszą wersją nierówności Höldera (której powyższe są szczególnymi przypadkami) jest nierówność
W szczególności, gdy μ = P jest miarą probabilistyczną (tj. (Ω, P) jest przestrzenią probabilistyczną), nierówność tę można zapisać w postaci
gdzie symbol E oznacza wartość oczekiwaną.

Uogólnienie[edytuj]

Metodą indukcji matematycznej można pokazać następujące uogólnienie:

Niech będą takie, że:

Załóżmy, że . Wtedy oraz

Literatura[edytuj]

Zobacz też[edytuj]