Współczynnik korelacji rang Spearmana

Z Wikipedii, wolnej encyklopedii
Skocz do: nawigacja, szukaj
Animacja wyjaśnia własności korelacji rangowej. Na osiach odłożone są wartości porównywanych zmiennych. Punkty symbolizują obserwacje w próbie. Współczynnik korelacji rang Spearmana jest obliczany w dwóch etapach[1]: najpierw wykonywane jest rangowanie, czyli zastąpienie każdej zaobserwowanej wartości przez jej numer w zbiorze posortowanym rosnąco. Rangowanie pokazane jest tu w formie animacji, aby umożliwić śledzenie losów każdej z obserwacji; naprawdę żadne stadia pośrednie nie występują. Następnie obliczany jest zwykły współczynnik korelacji liniowej Pearsona[2]. Jest on wprawdzie wrażliwy na obserwacje odstające, jednak rangowanie zbliża je do pozostałych, dzięki czemu niweluje się ich zakłócający wpływ na wynik[3][4]. Dla pokazanych tu danych, przed rangowaniem współczynnik korelacji jest nieistotny statystycznie \scriptstyle (r=0,01561, \alpha=0,8775). Ten sam współczynnik dla rang wykazuje już istotną zależność pomiędzy zmiennymi \scriptstyle (r=0,41702, \alpha<0,0001). Monotoniczna nieliniowa zależność przekształca się przy rangowaniu w liniową[5], w wyniku czego współczynnik korelacji liniowej Pearsona, zastosowany do rang, mierzy siłę zależności nieliniowej.

Korelacja rang Spearmana (lub: korelacja rangowa Spearmana, rho Spearmana) – w statystyce jedna z nieparametrycznych miar monotonicznej zależności statystycznej między zmiennymi losowymi.

Pierwotny pomysł korelowania rang był już znany wcześniej i pochodził od Bineta i Henriego[6], jednak współczynnik ten został solidnie opisany i rozpropagowany dopiero w 1904 roku[7] przez angielskiego psychologa Charlesa Spearmana. Zauważył on, że w wielu badaniach nie da się zastosować klasycznego współczynnika korelacji lub daje on nieistotne wyniki ze względu na nadmiar obserwacji odstających[8].

Spearman zdefiniował swój współczynnik jako zwykły współczynnik korelacji Pearsona, liczony dla rang zmiennych (stąd nazwa współczynnik korelacji rang)[8]. Obecnie stosowanych jest kilka jego wersji, nieznacznie różniących się od siebie. Ich wartości są identyczne w przypadku, gdy obserwacje każdej zmiennej w próbie nie powtarzają się. Jeśli jednak nie jest to prawdą, to współczynnik korelacji dla rang opisuje jedynie wzór (2) i jego odmiany[9]. Mimo to często używany jest też prostszy wzór (7)[10].

Zastosowanie i interpretacja[edytuj | edytuj kod]

Korelacja rangowa przyjmuje zawsze wartości z przedziału [-1,+1].\; Ich interpretacja jest podobna do klasycznego współczynnika korelacji Pearsona[11], z jednym zastrzeżeniem: w odróżnieniu od współczynnika Pearsona, który mierzy liniową zależność między zmiennymi, a wszelkie inne związki traktuje jak zaburzone zależności liniowe, korelacja rangowa pokazuje dowolną monotoniczną zależność (także nieliniową)[12].

Model korelacji rangowej zawiera szerszą klasę zależności niż model klasycznego współczynnika korelacji, nie obejmuje jednak wszystkich możliwych zależności. Na przykład zależność okresowa, spotykana często w analizie szeregów czasowych, gdzie nosi nazwę sezonowości, nie jest wykrywana ani przez korelację Pearsona, ani Spearmana[12].

Jako metoda rangowa, rho Spearmana jest w niewielkim tylko stopniu wrażliwe na obserwacje odstające[3][4], dzięki czemu szczególną użyteczność znajduje w analizie danych niskiej jakości[13].

Współczynnik korelacji Spearmana zależy wyłącznie od uporządkowania zaobserwowanych wartości. Może zatem być stosowany do dowolnych zmiennych, których wartości można uporządkować rosnąco, takich jak np. wykształcenie. Klasyczny współczynnik korelacji nie ma sensownej interpretacji dla zmiennych na skali porządkowej, gdyż uzależniony jest od różnic między wartościami zmiennych, które dla cech porządkowych nie są określone[14].

Współczynnik korelacji Spearmana oraz testy jego istotności mogą być stosowane przy dowolnym rozkładzie porównywanych zmiennych[13].

Korelacja rang Spearmana może być też opisana jako nachylenie (współczynnik kierunkowy) prostej najlepiej dopasowanej (w sensie najmniejszych kwadratów) do zbioru par rang[12]. Istnieją inne, bardziej egzotyczne interpretacje[15], nie mają jednak znaczenia praktycznego.

Zależność między zmiennymi losowymi (niezależnie od tego, jakim wskaźnikiem jest mierzona) nie musi oznaczać związku przyczynowo-skutkowego[16].

Korelacja rang Spearmana zmiennych losowych[edytuj | edytuj kod]

Ta wersja ma znaczenie w statystyce teoretycznej. Wartości dowolnych miar statystycznych wyliczanych z próby wygodnie jest uważać za estymatory (przybliżenia) miar liczonych na podstawie rozkładu zmiennej losowej z którego próba była losowana. W przypadku miar korelacji, dla zmiennych X\; i Y\; będzie to dwuwymiarowy rozkład wektora (X,Y).\;

Korelacja rang Spearmana zmiennych losowych X\; i Y\; wyrażona jest wzorem[17][18]

\rho_S=\operatorname{corr}\big( \tilde{\operatorname{F}}_X(X), \tilde{\operatorname{F}}_Y(Y)\big),
(1)

gdzie:

\operatorname{corr} to współczynnik korelacji Pearsona[19],
\tilde{\operatorname{F}}_\zeta(u)=\frac{F_\zeta(u)+F_\zeta(u^-)}{2},
\operatorname{F}_\zeta(u) dystrybuanta zmiennej \zeta\; w punkcie u,\;
\operatorname{F}_\zeta(u^-) to lewostronna granica \operatorname{F}_\zeta(u) w punkcie u.\;

Dla ciągłych zmiennych losowych zachodzi \tilde{\operatorname{F}}_\zeta(u)=\operatorname{F}_\zeta(u) i wzór ten sprowadza się do[20]

\rho_S=\operatorname{corr}\big( \operatorname{F}_X(X),\operatorname{F}_Y(Y)\big) =12\operatorname{cov}\big( \operatorname{F}_X(X),\operatorname{F}_Y(Y)\big),
(1a)

gdzie

\operatorname{F}_X(X),\operatorname{F}_Y(Y) to dystrybuanty porównywanych zmiennych.
\operatorname{cov} to kowariancja,

Korelacja rang Spearmana z próby[edytuj | edytuj kod]

W praktyce współczynnik korelacji rang oblicza się dla próby statystycznej. Używane do tego wzory można uważać za estymatory (przybliżenia) korelacji rang danej wzorem (1) lub korelacji rang istniejącej w populacji statystycznej[21]. Przybliżenia nie są jednak tym samym, co wartość przybliżana. Ich wyniki będą zatem dla odróżnienia oznaczane przez r_S,\; podobnie jak w literaturze.

Współczynnik obliczany jest w następujący sposób[22]:

1. Dla każdej porównywanej zmiennej dokonywane jest niezależnie rangowanie, czyli:
1a. Zaobserwowane wartości danej zmiennej porządkowane są rosnąco.
1b. Każdej wartości x_i\; przypisywana jest ranga \operatorname{R}x_i równa pozycji danej wartości w rosnącym porządku (najmniejsza uzyskuje rangę 1, kolejna 2 itd.)
1c. W przypadku gdy dana wartość występuje wielokrotnie, każde z wystąpień ma przypisaną tę samą rangę równą średniej arytmetycznej pozycji w rosnącym porządku (tzw. ranga wiązana lub powiązana, ang. tied rank). Tym samym mogą występować rangi ułamkowe, np. ranga 1,5.
2. Po powrocie do pierwotnego porządku wartości w zmiennych obliczana jest korelacja rangowa z jednego ze wzorów omówionych poniżej ((2), (2a), (2b), (2c), (6), (6a), (6b), (7)). Istnieją różne wzory, gdyż poszczególne estymatory korelacji rang mają różne właściwości. Jeśli nie ma rang wiązanych, wszystkie one dają ten sam wynik. Jeśli występują rangi wiązane, to wzór (2) i jego odmiany są zgodne z pierwotną koncepcją Spearmana. Pomimo to często[23][24][25][26][27][28] używany jest wzór (7), jak twierdzi część autorów, nieprawidłowo[29].

Wzory uwzględniające rangi wiązane[edytuj | edytuj kod]

Oryginalna propozycja Spearmana[edytuj | edytuj kod]

W oryginalnym ujęciu Spearmana, jego korelacja rang jest współczynnikiem korelacji Pearsona liczonym dla rang zmiennych zamiast ich surowych wartości[8][30], co jest bezpośrednim przełożeniem wzoru (1) na język rang[31].

r_S=\operatorname{corr}(\operatorname{R}X,\operatorname{R}Y)
(2)

gdzie:

\operatorname{corr} to klasyczny współczynnik korelacji,
\operatorname{R}X to rangi zmiennej X\; w próbie,
\operatorname{R}Y to rangi zmiennej Y\; w próbie.

Wzór ten można uważać za próbkowy odpowiednik wzoru (1)[21]. Rozpisanie wzoru na korelację Pearsona prowadzi do

r_S=\frac{\operatorname{cov}(\operatorname{R}X,\operatorname{R}Y)} {\sqrt{\operatorname{var}(\operatorname{R}X)\operatorname{var}(\operatorname{R}Y)}}=

=\frac{\operatorname{E}(\operatorname{R}X\cdot\operatorname{R}Y) -\operatorname{E}(\operatorname{R}X)\cdot\operatorname{E}(\operatorname{R}Y)} {\sqrt{\operatorname{E}(\operatorname{R}X)^2-\operatorname{E}^2(\operatorname{R}X)}\cdot \sqrt{\operatorname{E}(\operatorname{R}Y)^2-\operatorname{E}^2(\operatorname{R}Y)}}
(2a)
Wersja oparta na różnicy rang

Ten sam estymator można też zapisać w innej, równoważnej wersji jako[30][32]:

r_S=\frac{\frac{1}{6}(n^3-n)-\left( \sum\limits_{i=1}^n d_i^2 \right) -T_X-T_Y}\sqrt{\frac{1}{6}(n^3-n)-2T_X)(\frac{1}{6}(n^3-n)-2T_Y)},
(2b)

gdzie:

d_i=\operatorname{R}x_i-\operatorname{R}y_i,
(3)
T_X=\frac{1}{12}\sum_j (t_j^3-t_j),
(4)
T_Y=\frac{1}{12}\sum_k (u_k^3-u_k),
(5)
t_j\; jest liczbą obserwacji w próbie posiadających tę samą j-tą wartość rangi zmiennej X,\;
u_k\; jest liczbą obserwacji w próbie posiadających tę samą k-tą wartość rangi zmiennej Y,\;
sumowanie przebiega po wszystkich wartościach rang – wystarczy zsumować rangi wiązane, bo dla pozostałych t_j^3-t_j=1^3-1=0 (analogicznie u_k\;); gdy w danej zmiennej nie ma rang wiązanych, T_X\; lub T_Y\; jest równe zeru.
Wersja dla tablicy dwudzielczej

Rozkład porządkowych zmiennych losowych w próbie można przedstawić w formie tablicy dwudzielczej (tablicy kontyngencji), w której kolumny odpowiadają uszeregowanym wartościom jednej zmiennej (oznaczonej przez X\;), wiersze uszeregowanym wartościom drugiej zmiennej (oznaczonej przez Y\;), a w komórkach tablicy znajdują się liczności n_{ij}.\;

Wzór (2) przyjmuje wtedy postać[33]:

r_S=\frac{\sum\limits_{i=1}^m \sum\limits_{j=1}^k (F_{i+}-\tfrac{n}{2})(F_{+j}-\tfrac{n}{2})n_{ij}}\sqrt{\sum\limits_{i=1}^m (F_{i+}-\tfrac{n}{2})^2 n_{i+} \cdot \sum\limits_{j=1}^k (F_{+j}-\tfrac{n}{2})^2 n_{+j}},
(2c)

gdzie:

i, j\; to odpowiednio indeksy wierszy oraz kolumn,
m, k\; to odpowiednio liczba wierszy oraz kolumn,
F_{k+}=\left( \sum\limits_{i=1}^k n_{i+}\right) -\tfrac{1}{2}n_{k+},
F_{+k}=\left( \sum\limits_{j=1}^k n_{+j}\right) -\tfrac{1}{2}n_{+k},
n_{i+}\; to suma i-tego wiersza,
n_{+j}\; to suma j-tej kolumny,
n\; to suma całej tabeli.

Dziś estymator (2) jest standardowym wzorem używanym np. przez pakiety statystyczne SAS[34] oraz SPSS[35], a także w uwzględniających rangi wiązane pracach naukowych z dziedziny statystyki[36]. W podręcznikach statystyki oraz w pracach naukowych z innych dziedzin nadal jednak popularny jest podany dalej wzór (7), ze względu na stopień komplikacji wzorów (2a) lub (2b), utrudniający ręczne obliczenia, mimo że w obliczeniach wykonywanych na komputerze wzór (2) jest nawet prostszy w zastosowaniu[37].

Niekiedy estymator (2)/(2a)/(2b)/(2c) nazywany jest "skorygowaną korelacją rangową".

Poprawka do wzoru na r_s\; w przypadku rang wiązanych wynikająca z zastosowania wzorów (2)/(2a)/(2b)/(2c) jest obszernie dyskutowana w monografii Kendalla. Lehmann wykazuje asymptotyczną zbieżność do rozkładu normalnego, w przypadku, gdy liczba rang wiązanych jest ograniczona.

Wzór dla rang wiązanych powstałych przez agregację[edytuj | edytuj kod]

Powtarzające się wartości zmiennych, a tym samym rangi wiązane, mogą powstawać na dwa sposoby w zależności od natury badanego zjawiska:

  1. jako odzwierciedlenie prawdziwych powtarzających się wartości w populacji – przykładem może być zastosowanie korelacji rangowej do obliczania zależności dwóch zmiennych na skali porządkowej, takich jak wykształcenie: dwie osoby mogą mieć to samo wykształcenie, powstanie wówczas ranga wiązana;
  2. jako efekt pogrupowania (agregacji) wartości zmiennych w kilka rozłącznych przedziałów, a następnie przypisania jednej wartości (centroid) do każdej z nich – taka sytuacja ma miejsce np. gdy opracowywane są wyniki ankiet, w których badanych poproszono o przedziałowe określenie jakiejś wielkości, takiej jak dochód. Rangi wiązane powstają wówczas w sposób sztuczny.

Podczas agregacji tracona jest informacja o zróżnicowaniu obserwacji wewnątrz każdego przedziału, co sprawia, że zmienne, które przed agregacją nie miały identycznych rang, po agregacji mogą już mieć taki sam porządek. Agregacja jest zwykle zabiegiem wymuszonym warunkami badania, którego wpływ na wyniki powinien być jak najmniejszy. Przydatny byłby więc estymator, szacujący korelację rangową zmiennych przed agregacją na podstawie danych po agregacji. Taki estymator osiągałby wartości \pm 1 tylko przy próbie bez rang wiązanych.

Kendall proponuje aby w przypadku rang wiązanych powstałych sztucznie stosować w mianowniku wariancje takie, jak gdyby rang wiązanych nie było (gdyż tak jest w hipotetycznej nieskończonej populacji, dla której korelacja rangowa jest estymowana). Uzyskany w ten sposób estymator jest wartością oczekiwaną współczynnika korelacji rang obliczonego dla tych samych zmiennych przed agregacją (przy założeniu, że każda kombinacja rang prowadząca po agregacji do obserwowanej próby jest jednakowo prawdopodobna)[38].

Postać ogólna

W ogólnym przypadku, po uwzględnieniu rang wiązanych, wariancja rang wynosi:

\operatorname{var}(\operatorname{R}X)=\frac{n(n+1)}{12}-\frac{T_X}{n-1},

gdzie współczynnik T_X\; jest zdefiniowany tak jak wcześniej, wzorem (4).

W przypadku braku rang wiązanych, T_X=T_Y=0,\; wariancje są zależne tylko od n,\; w szczególności nie zależą od rozkładu zmiennych przed rangowaniem[1]:

\operatorname{var}(\operatorname{R}X)=\operatorname{var}(\operatorname{R}Y) =\frac{n(n+1)}{12}.

Niezależnie od tego, czy pojawiły się rangi wiązane, czy nie, średnia rang jest zależna jedynie od liczności próby[39]:

\operatorname{E}(\operatorname{R}X)=\operatorname{E}(\operatorname{R}Y)=\frac{n+1}{2}.

Podstawiając powyższe równania do wzoru (2a), uzyskuje się[1]:

r_S=\frac{3\sum\limits_{i=1}^n\big( (2\operatorname{R}x_i-n-1)(2\operatorname{R}y_i-n-1)\big) }{n(n^2-1)}=
=\frac{12}{n(n^2-1)}\sum\limits_{i=1}^n \operatorname{R}x_i\operatorname{R}y_i-\frac{3(n+1)}{n-1}.
(6)
Wersja oparta na różnicy rang

Ten estymator można zapisać w równoważnej postaci jako[30]:

r_S=1-\frac{6\left( \sum\limits_{i=1}^n d_i^2+T_X+T_Y\right) }{n^3-n},
(6a)

gdzie d_i, T_X, T_Y\; są zdefiniowane, jak wyżej, wzorami (3), (4), (5).

Wersja dla tablicy dwudzielczej

Dla tablic dwudzielczych estymator (6) przyjmuje postać[40]

r_S=3\sum\limits_{i=1}^m \sum\limits_{j=1}^k (U_{i-1}+U_i-1)(V_{j-1}+V_j-1)\frac{n_{ij}}{n},
(6b)

gdzie:

U_i=\frac{n_{1+}+\dots+n_{i+}}{n},
V_j=\frac{n_{+1}+\dots+n_{+j}}{n},
n_{i+}\; to suma i-tego wiersza,
n_{+j}\; to suma j-tej kolumny,
n\; to suma całej tabeli.

Istnieje jeszcze inny estymator dla tablic dwudzielczych, zaproponowany przez Stuarta[41][33].

Wzór nieuwzględniający rang wiązanych[edytuj | edytuj kod]

Często stosowanym estymatorem jest[42]:

 r_S = 1- {\frac {6 \sum\limits_{i=1}^n d_i^2}{n(n^2 - 1)}},
(7)

gdzie (tak jak wcześniej)

d_i=\operatorname{R}x_i-\operatorname{R}y_i

to różnica między rangami zmiennych X\; i Y\; dla obserwacji i\;.

W przypadku gdy nie ma rang wiązanych (połączonych), czyli wartości nie powtarzają się w obrębie próby dla żadnej ze zmiennych z osobna, wzór (7) daje te same wyniki, co każdy z podanych wcześniej estymatorów (2)[39] i (6). Jeśli choć jedna ranga jest wiązana, każdy z nich daje inny wynik.

Wzór (7) jest używany ze względu na prostotę obliczeń[14] istotną dla kalkulacji wykonywanych bez pomocy komputera i do dziś jest popularny w podręcznikach. Estymator ten ma jednak nieoczekiwane właściwości w przypadku wystąpienia rang wiązanych, np.

  • nie jest wówczas prawdą, iż r_S(X,-Y)=-r_S(X,Y),\;
  • nie jest wtedy zgodny z pierwotną definicją korelacji rang Spearmana jako zwykłego współczynnika korelacji liczonego dla rang[9],
  • dla zmiennych dyskretnych, minimalną wartością jego granicy, przy rozmiarze próby dążącym do nieskończoności, jest[41]
\frac{2}{(\min(m_X,m_Y))^2}-1,
(8)
gdzie:
m_X\; to liczba różnych wartości przyjmowanych przez zmienną X\;
m_Y\; to liczba różnych wartości zmiennej Y.\;

Część autorów uważa, że można ten estymator stosować tylko przy braku rang wiązanych, w przeciwnym wypadku jego stosowanie jest błędem[44][45][14]. Inni autorzy stosują go także wówczas[23][24][25][26][27]. Niektórzy uważają, że wzór można stosować, jeśli rang wiązanych jest nie więcej niż jedna czwarta ogółu i nie występują rangi wiązane z więcej niż dwóch obserwacji[28][46]. Pakiety statystyczne SAS[34] oraz SPSS[35] używają podanego wcześniej bardziej ogólnego wzoru (2).

Niekiedy wzór (7) nazywany jest "nieskorygowaną korelacją rangową" w odróżnieniu od "skorygowanej korelacji rangowej" (2). Jest to związane z postacią wzoru (2b), który przypomina wzór (7) z dodaną "korektą na rangi wiązane".

Właściwości[edytuj | edytuj kod]

  • Współczynnik jest unormowany[14][39]:
-1\leqslant r_S(X,Y)\leqslant +1;
  • Im bardziej wartości oddalone są od zera, tym większa siła związku między zmiennymi;
  • Gdy każda zmienna jest ściśle rosnącą funkcją drugiej (np. x_i=y_i^3), występuje idealna zgodność rang i ich korelacja przyjmuje wartość +1[14][39];
    • W szczególności wartość ta jest przyjmowana, gdy zmienna jest korelowana sama ze sobą:
r_S(X,X)=+1;\;
  • Gdy każda zmienna jest ściśle malejącą funkcją drugiej zmiennej, występuje maksymalna niezgodność rang i ich korelacja przyjmuje wartość -1[14][39];
    • W szczególności wartość ta jest przyjmowana, gdy zmienna X\; korelowana jest z -X\;:
r_S(X,-X)=-1;\;
(9)
  • Dla niezależnych zmiennych losowych wartością oczekiwaną estymatorów jest 0, a rozkład każdego z nich nie zależy od rozkładu zmiennych przed rangowaniem[1];
  • Zachodzi symetria ze względu na zamianę zmiennych:
r_S(X,Y)=r_S(Y,X);\;
  • Zachodzi symetria ze względu na zmianę znaku zmiennej:
r_S(X,Y)=-r_S(X,-Y)=-r_S(-X,Y).\;
(10)

W przypadku wystąpienia rang wiązanych część z tych właściwości nie jest spełniona dla niektórych estymatorów. Dla estymatora (7) nie są prawdziwe własności (9) i (10), a estymator (6)/(6a)/(6b) nie osiąga wartości \pm 1.

Matematyczne własności rho Spearmana mają związek z tożsamością Czebyszewa oraz nierównością o ciągach jednomonotonicznych.

Przykład[edytuj | edytuj kod]

numery obserwacji i\; 1 2 3 4 5
wartości x_i\; 1,1 1,57 0,51 1,1 1,1
wartości y_i\; 1,2 1 2,3 1 18
rangi[47] \operatorname{R}x_i 3 5 1 3 3
rangi[47] \operatorname{R}y_i 3 1,5 4 1,5 5
kwadraty różnic rang d_i^2\; 0 12,25 9 2,25 4

We wzorach (7), (2b) i (6a) wykonywane są pośrednie obliczenia:

\sum\limits_{i=1}^n d_i^2=(3-3)^2+(5-1,5)^2+(1-4)^2+(3-1,5)^2+(3-5)^2=27,5.

W (2b) i (6a) także:

T_X=\frac{1}{12}(3^3-3)=2

(jest jedna ranga wiązana, mają ją trzy obserwacje),

T_Y=\frac{1}{12}(2^3-2)=0,5

(jest jedna ranga wiązana, mają ją dwie obserwacje).

Po podstawieniu do wzorów otrzymuje się:

estymator wynik
(2), (2a), (2b), (2c) \scriptstyle{r_S\approx -0,5735\;}
(6), (6a), (6b) \scriptstyle{r_S=-0,5\;}
(7) \scriptstyle{r_S=-0,375\;}

Testowanie istotności statystycznej[edytuj | edytuj kod]

Aby przetestować istotność statystyczną korelacji rangowej, wykorzystuje się fakt, iż przy założeniu hipotezy zerowej o niezależności zmiennych losowych X\; i Y\; oraz niezależności od siebie par (x_i,y_i)\;[48] rozkład statystyki

t=r_S\sqrt\frac{n-2}{1-r_S^2}

korelacji rangowej dąży wraz ze wzrostem liczebności próby do rozkładu Studenta o n-2\; stopniach swobody, gdzie n\; jest licznością próby[49]. Po obliczeniu tej statystyki korzysta się z tablic rozkładu Studenta lub komputera w celu obliczenia poziomu istotności \alpha.\;

Rozkład ten jest wyprowadzany przy założeniu braku rang wiązanych, jednak Kendall twierdzi, że w przypadku istnienia rang wiązanych poprawka do testu nie jest konieczna[49].

Inni autorzy z kolei zalecają stosowanie poprawki na ciągłość (przez dodanie lub odjęcie \tfrac{6}{n^3-n})[50].

Dla liczebności próby dążącej do nieskończoności, rozkład rho Spearmana dąży do rozkładu normalnego[51] o wartości oczekiwanej równej prawdziwej wartości \rho_S w populacji i wariancji[52] \tfrac{1}{n-1}, stąd używana jest też inna statystyka[53]:

z=r_S\sqrt{n-1},

której rozkład przy założeniu hipotezy zerowej dąży wraz ze wzrostem liczności próby do standardowego rozkładu normalnego \operatorname{N}(0,1).

Część autorów[54] sugeruje znowu stosowanie poprawki na ciągłość, która jednak nie daje znaczącego wzrostu dokładności przybliżenia.

Rozkład rho Spearmana dla 5-elementowej próby z dwóch niezależnych zmiennych losowych[55]

Postulowano również stosowanie średniej arytmetycznej statystyki opartej na rozkładzie t\; i normalnym[56]. Dla małych prób wszystkie te wzory są niedokładne (statystyka oparta na rozkładzie t\; jest zazwyczaj nieco lepsza niż statystyka z\;), ale można sprawdzić komputerowo wszystkie permutacje rang lub skorzystać z tablic. Często stosuje się przy tym inną statystykę (nazywaną czasem Hotellinga-Pabst): \sum_{i=1}^n d_i^2. Należy przy tym zauważyć, że między tymi statystykami zachodzi związek liniowy, a więc ich stosowanie prowadzi do identycznych wyników. Dokładne tablice rozkładu dla wielkości populacji do 25 można znaleźć w pracy[57].

Hipotezą alternatywną może być albo:

H_1\colon \rho_S\ne 0\;

(co prowadzi do dwustronnego obszaru krytycznego) albo

H_1\colon \rho_S>0\; lub H_1\colon \rho_S<0\;

(co prowadzi do jednostronnego obszaru krytycznego).

Dla omawianego powyżej przykładu, dwustronnego obszaru krytycznego i wyliczeń według trzech estymatorów otrzymuje się następujące wartości:

estymator r_S\; t\; z\; \alpha\; (przybliżenie rozkładem Studenta) \alpha\; (przybliżenie rozkładem normalnym) \alpha\; (wartość dokładna)
(2), (2a), (2b), (2c) \scriptstyle{-0,5735\;} \scriptstyle{-1,2127\;} \scriptstyle{-1,2824\;} \scriptstyle{0,312\;} \scriptstyle{0,0998\;} \scriptstyle{0,35\;}
(6), (6a), (6b) \scriptstyle{-0,5\;} \scriptstyle{-1,0000\;} \scriptstyle{-1,118\;} \scriptstyle{0,391\;} \scriptstyle{0,1318\;} \scriptstyle{0,45\;}
(7) \scriptstyle{-0,375\;} \scriptstyle{-0,7006\;} \scriptstyle{-0,8385\;} \scriptstyle{0,534\;} \scriptstyle{0,2009\;} \scriptstyle{0,5167\;}

W tabeli podano wartość \alpha wyliczoną za pomocą przybliżenia rozkładem Studenta, z rozkładu normalnego i wreszcie dokładnie – z tablic. Dla tak małej próby przybliżenie rozkładem Studenta daje różnice rzędu 0,05, co może mieć znaczenie przy określaniu istotności statystycznej. Przybliżenie rozkładem normalnym jest w tym wypadku mniej dokładne. Dla małych prób konieczne jest więc stosowanie tablic lub symulacji komputerowych. Przy liczebności próby dążącej do nieskończoności różnica zmniejsza się i coraz bardziej uzasadnione jest stosowanie rozkładu Studenta, ewentualnie rozkładu normalnego, co jednak z reguły da nieco większy od Studenta błąd wyznaczania istotności.

Znacznie dokładniejsze wyniki przynosi stosowanie przybliżenia opartego na krzywych Pearsona II typu, metodzie opisanej przez Oldsa[58][59]. Najdokładniejsze wyniki przynosi przybliżenie oparte na skorygowanym przy pomocy szeregu Edgewortha rozkładzie normalnym[60] Implementację tego przybliżenia jako funkcję w programie Mathematica można znaleźć w pracy[57]. Tam też dokonano porównania różnych metod aproksymacji statystyki Spearmana.

Istnieją też stabelaryzowane rozkłady korelacji rangowej dla innych założeń, np. \rho=0,4. Odpowiednie tabele podaje praca Fritza i Henze'a[61].

Związki z innymi współczynnikami i metodami statystycznymi[edytuj | edytuj kod]

Współczynnik korelacji Pearsona[edytuj | edytuj kod]

Współczynniki te określają innego rodzaju zależność między zmiennymi (Pearson – zależność liniową, Spearman – dowolną monotoniczną), czasem jednak korelacja rang jest używana jako odporna wersja klasycznego współczynnika korelacji Pearsona[14]. W takiej roli widział ją zresztą sam Spearman[62].

Jest to uzasadnione w przypadku zakładanej liniowej zależności między zmiennymi w warunkach zanieczyszczenia próby obserwacjami odstającymi. Korelacja rangowa jest bowiem znacznie bardziej odporna na obserwacje odstające, które potrafią skrajnie zaburzyć wynik zwykłego współczynnika korelacji Pearsona[3][4]. Wartości tych dwóch współczynników nie są jednak wtedy równe – korelacja rangowa daje na ogół (nie zawsze) wyniki nieco bliższe zeru.

W szczególności dla dwuwymiarowego rozkładu normalnego zachodzi[63]:

\rho_S=\tfrac{6\arcsin(\rho/2)}{\pi},
\rho=2\sin\tfrac{\pi\rho_S}{6},

gdzie:

\rho_S\; – współczynnik korelacji Spearmana pomiędzy zmiennymi (wzór (1)),
\rho\; – współczynnik korelacji Pearsona pomiędzy zmiennymi.

Zależność ta jest ścisła przy braku rang wiązanych i nieskończonej populacji. Dla skończonej próby zależność między estymatorami Spearmana r_S\; i Pearsona r\; różni się od tego wyidealizowanego przypadku. Wartość oczekiwana wynosi wtedy dla każdego z podanych estymatorów[64]:

\operatorname{E}(r_S)=\tfrac{6}{\pi}\left( \tfrac{n-1}{n+1}\arcsin \tfrac{1}{2}\rho+\tfrac{1}{n+1}\arcsin \rho\right) .

Współczynnik korelacji rang Spearmana jest więc estymatorem obciążonym (także asymptotycznie) i niezgodnym współczynnika korelacji Pearsona[64]. (Naturalnie na tej samej zasadzie współczynnik korelacji Pearsona będzie obciążonym, niezgodnym i nieefektywnym estymatorem korelacji rangowej Spearmana).

Rho Spearmana jest też przy założeniu rozkładu dwuwymiarowego normalnego mniej efektywne niż współczynnik korelacji Pearsona liczony klasycznym wzorem, bez rangowania. Dla dwuwymiarowego rozkładu normalnego błąd standardowy korelacji Pearsona liczonej za pomocą wzoru:

r=2\sin\tfrac{\pi r_S(X,Y)}{6},\;
(11)

(gdzie r_S\; to dowolny z estymatorów rho Spearmana), jest ok. 1,88 raza większy od błędu korelacji liczonej za pomocą klasycznego wzoru bez rangowania[65]:

r=\tfrac{\operatorname{cov}(X,Y)} {\sqrt{\operatorname{var}X\operatorname{var}Y}}

Jednak, gdy obserwacje nie spełniają założenia o normalności rozkładu, szczególnie gdy pojawiają się obserwacje odstające, wzór (11) często daje lepsze oszacowanie korelacji liniowej. Jeszcze dokładniejszy jest współczynnik tau Kendalla[64].

Współczynnik korelacji Pearsona nie zakłada żadnej postaci rozkładu porównywanych zmiennych, jednak wzory na jego istotność statystyczną zakładają już dwuwymiarowy rozkład normalny. W wielu przypadkach warunek ten nie jest spełniony i nie da się łatwo sprawdzić, czy wyniki korelacji Pearsona są przejawem rzeczywistej zależności[66]. Istotność współczynnika korelacji rangowej daje się zawsze określić, gdyż rozkład rang nie zależy od rozkładu porównywanych zmiennych, o ile nie ma rang wiązanych, a nawet wtedy testy istotności nie są znacząco zaburzone[49].

Inne miary korelacji rangowej[edytuj | edytuj kod]

Information icon.svg Osobny artykuł: Korelacja rangowa.

Korelacja rangowa to szersze pojęcie niż korelacja rang Spearmana. Korelacja to ogólnie w statystyce zależność zmiennych losowych. Miary tej zależności wyliczane na bazie rang zwane są miarami korelacji rangowej.

Wymienione poniżej miary nie są jednak uznawane za estymatory korelacji rang Spearmana – są odrębnymi współczynnikami o odrębnej interpretacji. Istnieją też inne, nie wymienione tutaj, współczynniki korelacji rangowej.

Miara Spearmana

Miara Spearmana (ang. Spearman's footrule[67]) to współczynnik zaproponowany w tej samej pracy, co rho Spearmana[68], liczony podobnie jak we wzorze (7), jednak z wartością bezwzględną w miejsce kwadratu i z wynikającą z tego inną normalizacją:

 R = 1- {\frac {3 \sum\limits_{i=1}^n |d_i|}{n^2 - 1}}

Jak pokazał Pearson[69], współczynnik ten nie ma dobrych właściwości statystycznych, w szczególności choć osiąga +1, nie osiąga nigdy wartości -1, z wyjątkiem przypadku n=2[70].

Tau Kendalla

Inną miarą korelacji rangowej dwóch zmiennych jest tzw. tau Kendalla. Między tymi wartościami zachodzą nierówności[71][20]:

\tfrac{3}{2}\tau-\tfrac{1}{2}\leqslant r_S\leqslant \tfrac{1}{2}+\tau-\tfrac{1}{2}\tau^2\ \operatorname{dla}\ \tau\geqslant 0,
\tfrac{1}{2}\tau^2+\tau-\tfrac{1}{2}\leqslant r_S\leqslant \tfrac{3}{2}\tau+\tfrac{1}{2}\ \operatorname{dla}\ \tau\leqslant 0.

Podawane jest też[72] grubsze oszacowanie:

-1\leqslant 3\tau-2r_S\leqslant 1.

Można też pokazać, że jeśli przedstawić łączny rozkład dwuwymiarowy zmiennych X\; i Y\; w postaci unormowanej do jedności macierzy prawdopodobieństwa m\times k o elementach [p_{ij}],\; wówczas obydwie te wielkości dają się przedstawić za pomocą średnich ważonych z minorów stopnia drugiego[73]. W tym ujęciu rho Spearmana jest ważonym współczynnikiem tau Kendalla.

r_S=\sum_{i=1}^{m-1}\sum_{q=i+1}^{m}\sum_{j=1}^{k-1}\sum_{r=j+1}^{k} w_{ijqr}\begin{vmatrix}
p_{ij} & p_{ir}\\
p_{qj} & p_{qr}
\end{vmatrix},
\tau=\sum_{i=1}^{m-1}\sum_{q=i+1}^{m}\sum_{j=1}^{k-1}\sum_{r=j+1}^{k} 2\begin{vmatrix}
p_{ij} & p_{ir}\\
p_{qj} & p_{qr}
\end{vmatrix},

gdzie:

w_{ijqr}=12\left( \operatorname{Sc}_{row}(q)-\operatorname{Sc}_{row}(i)\right)  \left( \operatorname{Sc}_{col}(r)-\operatorname{Sc}_{col}(j)\right),
\operatorname{Sc}_{row}(i)=\left( \sum_{a=1}^{i-1}\sum_{b=1}^{k}p_{ab}\right) +\frac{1}{2}\sum_{b=1}^{k}p_{ib},
\operatorname{Sc}_{col}(j)=\left( \sum_{a=1}^{m}\sum_{b=1}^{j-1}p_{ab}\right) +\frac{1}{2}\sum_{a=1}^{m}p_{aj}.

Kendall i Stuart pokazali[74], że dla niezależnych zmiennych korelacja między tau i rho wynosi co najmniej 0,98 i dąży do 1 dla n\to\infty. (Wspólny rozkład tau Kendalla i rho Spearmana w swojej monografii podaje Kendall.) Nie oznacza to jednak, że ich wyniki są proporcjonalne dla zmiennych zależnych, a dla takich właśnie na ogół liczy się korelację.

Uogólnienia rho Spearmana[edytuj | edytuj kod]

Chi kwadrat Friedmana

Rho Spearmana jest znormalizowaną i przeskalowaną do przedziału [-1,1] miarą chi kwadrat Friedmana dla dwóch zmiennych. Jeśli wartość chi kwadrat Friedmana wynosi X,\; to[75]

r_S=\frac{X}{n-1}-1.
L Page'a

Kolejnym uogólnieniem rho Spearmana na przypadek wielu zmiennych jest test L Page'a. Korelację rangową można stosować jako metodę sprawdzania, czy zmienna X\; ma ten sam porządek rang co zmienna Y.\; Test L Page'a podaje z jakim prawdopodobieństwem ciąg zmiennych X_1, X_2, \dots, X_k ma pewne zadane ustawienie. Jego wynik można też podać w formie współczynnika z zakresu [-1,1], który dla k=1 sprowadza się do korelacji rang Spearmana[76].

Analiza odpowiedniości oparta na rho Spearmana[edytuj | edytuj kod]

Klasyczna analiza odpowiedniości (inna nazwa: analiza korespondencji) jest metodą statystyczną, która wszystkim możliwym wartościom dwóch zmiennych nominalnych przyporządkowuje takie liczby (tzw. skory), aby przy pewnych założeniach maksymalizować współczynnik korelacji Pearsona między tymi zmiennymi.

Istnieje odpowiednik klasycznej analizy odpowiedniości, zwany gradacyjną analizą odpowiedniości (ang. Grade Correspondence Analysis; GCA), który maksymalizuje rho Spearmana[77] lub tau Kendalla[78].

Krytyka[edytuj | edytuj kod]

Te same własności rho Spearmana, które zwolennicy metod rangowych uważają za zalety, przeciwnicy mają za wady. Sam Spearman, który traktował swój współczynnik wyłącznie jako odporne na obserwacje odstające przybliżenie korelacji Pearsona, uważał za wadę fakt, że mierzy ona także zależność nieliniową[62].

Twórca klasycznego współczynnika korelacji, Karl Pearson, krytykował niezależność od rozkładu korelacji rang:

Żadne dwie korelacje rangowe nie są w najmniejszym stopniu rzetelne czy porównywalne, dopóki nie założymy, że rozkłady są tego samego typu (…) wynikającego z hipotezy rozkładu normalnego (…) Dr Spearman zasugerował, że szeregi rang powinny być typem korelowanym, lecz nie uznał tej korelacji rangowej za odskocznię (…) umożliwiającą osiągnięcie prawdziwej korelacji.

— Prof. Karl Pearson, Further Methods in Correlation[79]

Przy okazji tej krytyki pierwszy raz w historii użyto określenia „korelacja rangowa”[80].

Historia[edytuj | edytuj kod]

Pomysł korelowania rang był już znany przed Spearmanem i pochodził od Bineta i Henriego[81]. Redakcja czasopisma Biometrika w przypisie pracy Studenta zaznaczyła, że „ich wywód był bardzo niejasny i chyba nie zauważyli, że korelacja zmiennych różni się od korelacji rang[82].

Współczynnik został solidnie opisany, zbadany i rozpropagowany dopiero w 1904 roku przez angielskiego psychologa Charlesa Spearmana[8][7]. Praca Spearmana była opisem różnych metod korelacji dla psychologów, m.in. korelacji Pearsona dla rang (choć Spearman nie zapisał swojej metody w postaci wzoru). Autor zauważył też, że w wielu badaniach nie da się zastosować klasycznego współczynnika korelacji Pearsona lub daje on nieistotne wyniki ze względu na nadmiar obserwacji odstających, natomiast problemy te znikają po rangowaniu[8]. Nadal traktował jednak korelację rang jedynie jako poszerzenie możliwości współczynnika korelacji Pearsona, choć znał różnice między nimi.

Koncepcja rang wiązanych nie była jeszcze znana w początkach XX wieku – została ona wprowadzona później przez Pearsona[9]. Wówczas znany był już wzór (7), wyprowadzony naturalnie przy założeniu braku rang wiązanych. Student (William Sealy Gosset) w pracy z 1921 roku zauważył, że wzór (7) nie zgadza się z definicją Spearmana w przypadku rang wiązanych (sprowadzającą się wówczas do wzoru (2)) i podał wzór (2b), wyprowadził też wzór na wariancję korelacji rangowej.

W 1948 roku Maurice Kendall napisał monografię Rank Correlation Methods, w której szczegółowo zbadał właściwości rho Spearmana i związki z własnym współczynnikiem tau Kendalla.

Nacisk Spearmana na budowę stabilnych metod statystycznych, niezależnych od konkretnych parametrów rozkładu, został uogólniony w filozofii nauki do tzw. zasady Spearmana (ang. Spearman's Principle)[83]:

Załóżmy, że wybieramy między dwoma modelami, z których obydwa pasują do posiadanych danych. Załóżmy, że dane te doprowadziły nas do przypuszczenia, że pewne odpowiedzialne za nie zjawiska podporządkowują się pewnym zależnościom. Załóżmy, że obydwa rywalizujące ze sobą modele odzwierciedlają te zależności. Zasada Spearmana mówi, że jeżeli pierwszy z modeli generuje te zależności bez względu na wartości przyporządkowywane do jego „wolnych parametrów”, a drugi tylko dla konkretnych wartości swoich wolnych parametrów, przy czym nie ma innych przesłanek wyboru, to powinniśmy przedkładać pierwszy model nad drugi.

— Marc Lange, Spearman's Principle[83]

Podejście to dało początek całej nowej dziedzinie statystyki, zwanej statystyką odpornościową (ang. robust statistics[84]), zajmującej się budową metod statystycznych odpornych na obserwacje odstające.

Oznaczenia[edytuj | edytuj kod]

W literaturze spotyka się różne oznaczenia korelacji rang Spearmana:

\rho\;

  • Kendall (wzór (7))
  • Yule, Kendall (także wzór (2b))

\rho_a\;

\rho_b\;

r_S\;

  • Koronacki, Mielniczuk
  • Jokiel, Kostrubiec[23]
  • Norcliffe[28]
  • Jóźwiak, Podgórski dla korelacji z próby
  • Krysicki et al.[39]

\rho_g\;

  • Kendall dla korelacji między zmiennymi losowymi

\rho_S\;

  • Jóźwiak, Podgórski dla korelacji między zmiennymi losowymi

\rho^*\;

  • Kowalczyk, Pleszczyńska, Ruland

R_{xy}\;

  • Maksimowicz-Ajchel[25]
  • Hammerl, Sambor[85]

R_{rr}\;

r^\prime\;

Zobacz też[edytuj | edytuj kod]

Przypisy

  1. 1,0 1,1 1,2 1,3 Koronacki, Mielniczuk, str. 473
  2. Jest to procedura zgodna z definicjami (1), (2), (2a), (2b), (2c). Estymatory (6), (6a), (7) sprowadzają się do niej przy braku powtarzających się wartości w każdej ze zmiennych. Dowód jest w monografii Kendalla.
  3. 3,0 3,1 3,2 Odsuwając dowolną obserwację coraz bardziej od średniej, zwiększa się nieograniczenie jej wpływ na współczynnik korelacji Pearsona, gdyż ma ona coraz większy udział w kowariancji w jego liczniku oraz odchyleniach standardowych w mianowniku. Wpływ obserwacji odstających na korelację rangową jest już jednak ograniczony, gdyż ranga tej obserwacji po osiągnięciu wartości 1 lub \scriptstyle n przestaje się zmieniać, a wraz z nią wynik.
  4. 4,0 4,1 4,2 S.J. Devlin, R. Gnanadesikan, J.R. Kettering. Robust estimation and outlier detection with correlation coefficients. „Biometrika”. 62, s. 531-545, 1975. 
  5. Wyprowadzenie dla ścisłej zależności rosnącej: niech \scriptstyle \overline{\overline{S}} oznacza liczbę elementów w zbiorze \scriptstyle S\;. \scriptstyle (x_i\leqslant x_j\Leftrightarrow y_i\leqslant y_j), stąd \scriptstyle \operatorname{R}x_j=\overline{\overline {\{x_i\colon x_i\leqslant x_j\}}}=\overline{\overline{\{y_i\colon y_i\leqslant y_j\}}}=\operatorname{R}y_j
  6. Zobacz sekcję Historia.
  7. 7,0 7,1 Niekiedy (np. w podręczniku Jóźwiak i Podgórskiego) podawana jest błędnie data 1906, gdy praca ta została przedrukowana przez British Journal of Psychology
  8. 8,0 8,1 8,2 8,3 8,4 Spearman, str. 73
  9. 9,0 9,1 9,2 Zob. praca Studenta w bibliografii
  10. Zobacz sekcję Wzór nieuwzględniający rang wiązanych
  11. Zobacz sekcję Właściwości.
  12. 12,0 12,1 12,2 Stanley Lieberson. Limitations in the Application of Non-Parametric Coefficients of Correlation. „American Sociological Review”. Vol. 29, No. 5 (Oct., 1964). s. 744-746. 
  13. 13,0 13,1 Spearman, str. 80
  14. 14,0 14,1 14,2 14,3 14,4 14,5 14,6 Jóźwiak, Podgórski, str. 352
  15. Na przykład istnieje interpretacja geometryczna tego współczynnika jako euklidesowej odległości wierzchołków odpowiednio skonstruowanego n-1-wymiarowego wielościanu o \scriptstyle n! wierzchołkach i równej długości krawędzi zanurzonego w przestrzeni \scriptstyle n-wymiarowej. Robert S. Schulman. A Geometric Model of Rank Correlation. „The American Statistician”. Vol. 33, No. 2 (May, 1979). s. 77-80. 
  16. Więcej na ten temat w artykule zależność zmiennych losowych
  17. Kendall, str. 108-109
  18. Pleszczyńska, Kowalczyk, Ruland, str. 237, 66
  19. Współczynnik korelacji obliczany jest dla zmiennych losowych. Dystrybuanta nie jest zmienną losową, ale już złożenie \scriptstyle F_\zeta(\zeta) zmienną losową jest, gdyż jest funkcją przyporządkowującą liczby rzeczywiste zdarzeniom losowym. Podobnie \scriptstyle \tilde{\operatorname{F}}_\zeta(\zeta). Użycie \scriptstyle \tilde{\operatorname{F}}_\zeta(\zeta) zamiast \scriptstyle F_\zeta(\zeta) jest niezbędne, aby oddać sposób wyliczania rang wiązanych dla zmiennych dyskretnych. Zob. Kendall, str. 108-109
  20. 20,0 20,1 Pravin K. Trivedi, David M. Zimmer. Copula Modeling: An Introduction for Practitioners. „Foundations and Trends in Econometrics”. Volume 1 Issue 1 DOI:10.1561/0800000005. 
  21. 21,0 21,1 Kendall, str. 109-110
  22. Yule, Kendall, str. 276
  23. 23,0 23,1 23,2 B. Jokiel, B. Kostrubiec: Statystyka z elementami matematyki dla geografów. Warszawa: Państwowe Wydawnictwo Naukowe, 1981, s. 264-5.
  24. 24,0 24,1 I. Jażdżewska: Statystyka dla geografów. Łódź: Wydawnictwo Uniwersytetu Łódzkiego, 2003, s. 165-6.
  25. 25,0 25,1 25,2 A. Maksimowicz-Ajchel: Wstęp do statystyki. Warszawa: Wydawnictwa Uniwersytetu Warszawskiego, 2007, s. 174.
  26. 26,0 26,1 A. Luszniewicz, T. Słaby: Statystyka z pakietem komputerowym STATISTICA PL. Teoria i zastosowania. Warszawa: Wydawnictwo C.H. Beck, 2001, s. 332-5.
  27. 27,0 27,1 S. Gregory: Metody statystyki w geografii. Warszawa: Państwowe Wydawnictwo Naukowe, 1976., s. 234-8.
  28. 28,0 28,1 28,2 G.B. Norcliffe: Statystyka dla geografów. Warszawa: Państwowe Wydawnictwo Naukowe, 1986, s. 116-117.
  29. Zobacz dyskusję w sekcji Wzór nieuwzględniający rang wiązanych tego artykułu.
  30. 30,0 30,1 30,2 Kendall, str. 29
  31. choć za czasów Spearmana wzór (1) nie był jeszcze znany.
  32. Yule, Kendall, str. 277
  33. 33,0 33,1 33,2 Alan Agresti. The Effect of Category Choice on Some Ordinal Measures of Association. „Journal of the American Statistical Association”. Vol. 71, No. 353, (Mar., 1976). s. 49-51. 
  34. 34,0 34,1 Co łatwo sprawdzić przeliczając przykład z tego artykułu.
  35. 35,0 35,1 Na podstawie przykładu umieszczonego przez Jóźwiak, Podgórskiego na str. 355-356.
  36. Jeremy M. G. Taylor. Kendall's and Spearman's Correlation Coefficients in the Presence of a Blocking Variable. „Biometrics”. Vol. 43, No. 2, (Jun., 1987). s. 411. 
  37. Np. w pakiecie Microsoft Excel dostępna jest funkcja WSPÓŁCZYNNIK.KORELACJI obliczająca korelację Pearsona. Wystarczy zastosować ją do porangowanego zbioru zamiast implementować samodzielnie wzór (7).
  38. Kendall, str. 32
  39. 39,0 39,1 39,2 39,3 39,4 39,5 Krysicki, str. 230-231
  40. Pleszczyńska, Kowalczyk, Ruland, str. 238. Oznaczenia zmieniono w celu uniknięcia kolizji ze wzorami (4) i (5)
  41. 41,0 41,1 Alan Stuart. Calculation of Spearman's Rho for Ordered Two-Way Classification. „American Statistician”. 17 (Oct. 1963). s. 23-4. 
  42. Kendall, str. 8
  43. Gdy zmienne są dyskretne, to dla dostatecznie dużej próby zawsze będą istniały rangi wiązane (bo różnych wartości zmiennych będzie mniej niż obserwacji). Wówczas granica estymatora (7) dla rozmiaru próby dążącego do nieskończoności będzie nie mniejsza niż dana wzorem (8). Tymczasem estymowana korelacja (1) może przyjąć nawet wartość \rho=-1, co dowodzi asymptotycznego obciążenia i niezgodności tego estymatora.
  44. Jerome L. Myers: Research Design and Statistical Analysis. Arnold D. Well. Wyd. 2. Lawrence Erlbaum, 2003, s. 508. ISBN 0805840370.
  45. Yule, Kendall, str. 277. Cytat: „Czasami można napotkać w zastosowaniach także inne wzory. Na przykład wzór (7) [w oryginale 11.16] stosuje się czasem bez zmian do rang połączonych. Jest to z pewnością błędem.”
  46. S. Siegel: Nonparametric Statistics for the Behavioural Sciences. New York: 1956, s. 206-210.
  47. 47,0 47,1 Przykład rangowania znajduje się w artykule ranga
  48. To założenie jest konieczne, co pokazuje przykład dwóch procesów błądzenia losowego. Procesy mogą być niezależne od siebie, ale kolejne obserwacje są od siebie zależne, co sprawia, że nie każda para rang jest jednakowo prawdopodobna. Przykłady oraz omówienie: Sallie Keller-McNulty, Mark McNulty. The Independent Pairs Assumption in Hypothesis Tests Based on Rank Correlation Coefficients. „The American Statistician”. Vol. 41, No. 1 (Feb., 1987). s. 40-41. 
  49. 49,0 49,1 49,2 Kendall, str. 48
  50. E. J. G. Pitman. Significance tests which may be applied to samples form any populations.II. the correlation coefficient test. „Journal of the Royal Statistical Society Supplement”. No. 4 (1937). s. 225-232. 
  51. H. Hotelling, M. R. Pabst. Rank correlation and tests of significance involving no assumption of normality. „Annals of Mathematical Statistics”. No. 7 (1936). s. 29-43. 
  52. Istnieją dokładniejsze oszacowania wariancji rho w próbie, np. w pracy
    F. N. David, C. L. Mallows. The Variance of Spearman's Rho in Normal Samples. „Biometrika”. Vol. 48, No. 1/2 (Jun., 1961). s. 19-28. 
    podano następujące oszacowanie:
    \scriptstyle{\operatorname{var}(r_s)=\frac{1}{n-1}+\frac{36}{\pi^2 n(n-1)(n+1)^2}}\scriptstyle{[n^3(-0,42863279\rho_S^2+0,08354697\rho_S^4+0,04257246\rho_S^6\;} \scriptstyle{+0,01687474\rho_S^8+0,00664071\rho_S^{10}+0,00270655\rho_S^{12})\;} \scriptstyle{+n^2(0,15513010\rho_S^2-0,057362293\rho_S^4-0,18443407\rho_S^6\;} \scriptstyle{-0,02271732\rho_S^8+0,00757524\rho_S^{10}+0,01429883\rho_S^{12})\;} \scriptstyle{+n(0,36837259\rho_S^2+0,44738882\rho_S^4-0,08427574\rho_S^6\;} \scriptstyle{-0,27929901\rho_S^8-0,19943375\rho_S^{10}-0,13861060\rho_S^{12})\;} \scriptstyle{+(0,07179677\rho_S^2+0,06467162\rho_S^4+0,21015257\rho_S^6\;} \scriptstyle{+0,28589798\rho_S^8+0,31704425\rho_S^{10}+0,07923733\rho_S^{12})]\;}
  53. Jóźwiak, Podgórski, str. 353
  54. E. G. Olds. the 5% significance levels for sums of squers of rank differences and a correction. „Annals of Mathematical Statistics”. No. 20 (1949). s. 117-118. 
  55. dane do wykresu z pracy: M. G. Kendall, Sheila F. H. Kendall, B. Babington Smith. The Distribution of Spearman's Coefficient of Rank Correlation in a Universe in which all Rankings Occur an Equal Number of Times. „Biometrika”. s. 255 (tab. I). 
  56. R. L. Iman, W. J. L. Conover. Approximation of the critical region of Spearman's rho with and without ties. „Communications in Statistics Simulation an Computation B7”. No. 3 (1978). s. 269-283. 
  57. 57,0 57,1 W. Maciak. Exact null distribution for n≤25 and probability approximations for Spearman's score in an absence of ties. „Journal of Nonparametric statistics”. Vol 21 No. 1 (January 2009). s. 113-133. |DOI: 10.1080/10485250802401038
  58. Jest to funkcja postaci y=y_0(1-\tfrac{x^2}{a^2})^m, gdzie parametry y_0, a^2 i m zależą od liczebności rozkładu. Krzywa ta daje przybliżenie funkcji rozkładu prawdopodobieństwa; ponieważ do celów testów statystycznych przydatna jest dystrybuanta rozkładu Spearmana, konieczne jest obliczenie wartości prawdopodobieństwa dla wszystkich wartości większych (lub mniejszych) od interesującej nas wartości.
  59. E. G. Olds. Distributions of sums of squares of rank differences for small number of individuals. „Annals of Mathematical Statistics”. No. 9 (1938). s. 133-148. 
  60. S. T. David, M. G. Kendall, A. Stuart. Some questions of distributionin the theory of rank correlation. „Biometrika”. Vol. 38 (1951). s. 131-140. 
  61. H. Fritz, H. Henze. The Exact Noncentral Distributions of Spearman's r and Other Related Correlation Coefficients. „Journal of the American Statistical Association”. Vol. 74, No. 366 (Jun., 1979). s. 459-464. 
  62. 62,0 62,1 Spearman, str. 81
  63. Kowalczyk, Pleszczyńska, Ruland, str. 239
  64. 64,0 64,1 64,2 P.A.P. Moran. Rank Correlation and Product-Moment Correlation. „Biometrika”. Vol. 35, No. 1/2, (May, 1948), pp. 203-206. 
  65. Kendall, rozdział 9
  66. Można to zrobić żmudną obliczeniowo metodą bootstrapu.
  67. Polskie tłumaczenie nazwy: słownik International Statistical Institute.
  68. Spearman, str. 87
  69. K. Pearson: Mathematical contribution to the theory of evolution. XVI On further methods of determining correlation. Cambridge University Press, 1907, seria: Drapers' Co. Res. Mem., Biometric Series IV.
  70. Paul W. Mielke, Kenneth J. Berr: Permutation Methods: A Distance Function Approach. Springer, 2001, s. 140. ISBN 0387988823. [1]
  71. J. Durbin, A. S. Stuart. Inversions and rank correlations. „Journal of Royal Statistical Society Series”. B 2, s. 303-309, 1951. 
  72. H.E. Daniels: Rank correlation and population models. J R Statist Soc B (1950), 171-181.
  73. Kowalczyk Link...
  74. M. G. Kendall, A. Stuart: The Advanced Theory of Statistics. Wyd. 3. T. 2. New York: Hafner, 1973.
  75. Bob Wheeler: R documentation: Spearman's rho (ang.). [dostęp 18 maja 2008].
  76. Peter Bibby: Nonparametric Tests of Trend (ang.).
  77. A. Ciok, T. Kowalczyk, E. Pleszczyńska, W. Szczesny. Algorithms of grade correspondence-cluster analysis. „The Collected Papers of Theoretical and Applied Computer Science”. Vol. 6, No. 1-4, 3-20, 1995. 
  78. T. Kowalczyk, M. Niewiadomska-Bugaj. Grade Correspondence Analysis Based on Kendall's tau. „Data Science Classification and Related Methods. VI Conference of the International Federation of Classification Societes, Rome, July 21-24, Institutio Nazionale de Statistica, Roma”, s. 182-185, 1998. 
  79. Karl Pearson. Further Methods in Correlation. „Drapers' Company Res. Mem. (Biometric Ser.)”. IV. (1907). s. 25. . Oryginalny cytat: No two rank correlations are in the least reliable or comparable unless we assume that the frequency distributions are of the same general character (…) provided by the hypothesis of normal distribution. (…) Dr. Spearman has suggested that rank in a series should be the character correlated, but he has not taken this rank correlation as merely the stepping stone (…) to reach the true correlation.
  80. Jeff Miller: Earliest Known Uses of Some of the Words of Mathematics (ang.). [dostęp 27 maja 2008]. [zarchiwizowane z tego adresu (1999-10-03)].
  81. A. Binet, V. Henri: La Fatigue Intellectuelle. Paris: 1898, s. 232.,
    A. Binet, V. Henri: L'Année Psychologique. T. IV. Paris: 1898, s. 155.,
    podane za pracą Studenta wymienioną w bibliografii
  82. Oryg. Their process is very obscure and they also do not appear to have realised that the correlation of variates is not that of ranks.
  83. 83,0 83,1 Marc Lange. Spearman's Principle. „Brit. J. Phil. Sci.”. 46 (1995). s. 503-521.  Oryginalny cytat: Suppose that we are deciding between two models that both fit the particular data we have on hand. Suppose that these data have already led us to believe that the phenomena responsible for them conform to certain 'constraints'. Suppose that each of the two competing models yields these constraints. Spearman's Principle says that if one model generates these constraints no matter what values are assigned to that model's 'free parameters', whereas the other model yields these constraints only for particular values of its free parameters, then, other things being equal, we should prefer the first model to the second.
  84. Pierwsze użycie terminu robust nastąpiło w 1953 roku, choć już Spearman zdawał sobie sprawę z odporności swojego współczynnika na obserwacje odstające.
  85. R. Hammerl, J. Sambor: Statystyka dla językoznawców. Warszawa: Wydawnictwo Uniwersytetu Warszawskiego, 1990.
  86. Jacek Piechota: Statystyka nieparametryczna. Modele i zadania.. Warszawa: WPHU "Opta", 1996. ISBN 83-87253-00-6.
  87. Wolfram Mathworld: Spearman Rank Correlation Coefficient (ang.). [dostęp 27 maja 2008].

Bibliografia[edytuj | edytuj kod]

  1. Janina Jóźwiak, Jarosław Podgórski: Statystyka od podstaw. Wyd. VI zmienione. Warszawa: Polskie Wydawnictwo Ekonomiczne, 2006. ISBN 83-208-1615-7.
  2. Maurice G. Kendall: Rank Correlation Methods. Londyn: Charles Griffin & Company Limited, 1948.
  3. Jacek Koronacki, Jan Mielniczuk: Statystyka dla studentów kierunków technicznych i przyrodniczych. Warszawa: WNT, 2006. ISBN 83-204-3242-1.
  4. Teresa Kowalczyk: Link between grade measures of dependence and of separability of pairs of conditional distributions. Statistics and Probability Letters 46 (2000), 371-379.
  5. Teresa Kowalczyk, Elżbieta Pleszczyńska, Fred Ruland, (red.): Grade Models and Methods for Data Analysis with Applications for the Analysis of Data Populations. Berlin Heidelberg New York: Springer Verlag, 2004, seria: Studies in Fuzziness and Soft Computing vol. 151. ISBN 9783540211204.
  6. W. Krysicki, J. Bartos, W. Dyczka, K. Królikowska, M. Wasilewski: Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach, część 2. Statystyka matematyczna. Warszawa: PWN, 2006, s. 230-231. ISBN 83-01-14292-8.
  7. E. L. Lehmann: Nonparametrics:Statistical methods based on ranks. San Francisco: 1975.
  8. Charles Spearman. The proof and measurement of association between two things. „Americal Journal of Psychology”. 15 (1904). s. 72–101. 
  9. Student. An Experimental Determination of the Probable Error of Dr Spearman's Correlation Coefficients. „Biometrika”. Vol. 13, No. 2/3 (Jul., 1921). s. 263-282. 
  10. George Udny Yule, Maurice G. Kendall: Wstęp do teorii statystyki. PWN, 1966.

Linki zewnętrzne[edytuj | edytuj kod]

  1. Spearman Rank Correlation – Free Statistics Software (Calculator) (ang.). [dostęp 15 lipca 2008]. – internetowy kalkulator obliczający korelację rangową według wzorów (7) i (2).
  2. Barcelona Field Studies Centre S.L.: Spearman's Rank Correlation Coefficient (ang.). [dostęp 15 lipca 2008]. – ciekawy przykład zastosowania korelacji rangowej do badania zależności cen w Barcelonie od położenia sklepu w mieście