Wariancja – klasyczna miara zmienności. Intuicyjnie utożsamiana ze zróżnicowaniem zbiorowości; jest średnią arytmetyczną kwadratów odchyleń (różnic) poszczególnych wartości cechy od wartości oczekiwanej.
Wariancja zmiennej losowej
oznaczana jako
lub
zdefiniowana jest wzorem:
![{\displaystyle \operatorname {Var} [X]=E[(X-\mu )^{2}],}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ae5255040d053a96647b76569e496a1dafa2a0f0)
gdzie:
jest wartością oczekiwaną zmiennej losowej podanej w nawiasach kwadratowych,
jest wartością oczekiwaną zmiennej 
Innym, często prostszym, sposobem wyznaczania wariancji jest wzór:
![{\displaystyle D^{2}(X)=E(X^{2})-[E(X)]^{2}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9ab81f73567e5a94ca0596c592f1a2ad15f800c3)
Wariancja jest momentem centralnym drugiego rzędu zmiennej losowej.
Jeżeli ponadto
oraz
jest σ-ciałem zdarzeń, to wariancją warunkową nazywamy:

Wariancję dla szeregu szczegółowego wyznacza się ze wzoru:

a dla szeregu rozdzielczego:

Wariancja próby losowej o wartościach
gdzie
jest następująca:

Wariancję dla populacji można estymować za pomocą n-elementowej próby losowej. Estymator największej wiarygodności:

jest zgodnym, lecz obciążonym estymatorem wariancji (jest nieobciążony asymptotycznie). Innymi słowy, gdybyśmy z populacji losowali próbkę wielokrotnie i obliczali jego wyniki, to ich średnia nie byłaby równa wariancji w całej populacji. Dlatego też częściej używa się również zgodnego, lecz nieobciążonego estymatora:

W przypadku, gdy znamy dokładną wartość oczekiwaną
w populacji, wówczas estymator

jest już nieobciążony i zgodny.
Dla zmiennych losowych
i dowolnych stałych
zachodzą następujące własności:
1.
Dowód. Korzystając z własności wartości oczekiwanej (wartość oczekiwana stałej jest równa tej stałej), mamy:
![{\displaystyle D^{2}(c)=E[(c-Ec)^{2}]=E[0^{2}]=E[0]=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ab4c15ecc1a314e38cb6f5126924d225b52a3fee)
2.
Dowód. Korzystamy z własności wartości oczekiwanej mówiącej o tym, że jeżeli zmienna losowa jest dodatnio określona prawie wszędzie to jej wartość oczekiwana jest dodatnia. Ponieważ zmienna losowa
jest dodatnio określona, mamy:
![{\displaystyle D^{2}(X)=E[(X-EX)^{2}]\geqslant 0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/48d930705229d26d19ae2293353a1beda7eb68d5)
3.
Dowód. Korzystając z definicji wariancji, a następnie z liniowości wartości oczekiwanej mamy:
![{\displaystyle D^{2}(a\cdot X)=E[(aX-E(aX))^{2}]=E[(aX-aEX)^{2}]=E[(a(X-EX))^{2}]=E[a^{2}(X-EX)^{2}]=a^{2}E[(X-EX)^{2}]=a^{2}\cdot D^{2}(X).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/49e4550820c000785e145acefed4822880f423d2)
4.
Dowód. Korzystamy z własności wartości oczekiwanej mówiącej o tym, że
dla
stałej i z liniowości:
![{\displaystyle D^{2}(X+b)=E[(X+b-E(X+b))^{2}]=E[(X+b-EX-Eb)^{2}]=E[(X+b-EX-b)^{2}]=E[(X-EX)^{2}]=D^{2}(X).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/52d51331b177f86e82ac692e6f259a93ca273f9b)
5.
w ogólnym przypadku; (gdzie
to kowariancja)
Dowód. Sprawdzone zostanie tylko twierdzenie dla sumy, twierdzenie dla różnicy rozwiązuje się analogicznie. Czyli mamy:
![{\displaystyle D^{2}(X+Y)=E[(X+Y-E(X+Y))^{2}]=E[(X+Y-EX-EY)^{2}]=E[((X-EX)+(Y-EY))^{2}]=}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7961b94b757c7e818964dce741a703f68ad2c2aa)
![{\displaystyle =E[(X-EX)^{2}+2(X-EX)(Y-EY)+(Y-EY)^{2}]=\dots }](https://wikimedia.org/api/rest_v1/media/math/render/svg/081cab646652e0094bed3edc86cae80d991e7db6)
Korzystając z liniowości wartości oczekiwanej i definicji kowariancji, mamy:
![{\displaystyle \dots =E[(X-EX)^{2}]+2E[(X-EX)(Y-EY)]+E[(Y-EY)^{2}]=D^{2}(X)+D^{2}(Y)+2\operatorname {Cov} (X,Y).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9b1ffcd293a6548f298b82ad6851b8108d191647)
Z powyższego twierdzenia łatwo wysnuć wniosek, że jeżeli zmienne
i
są niezależne liniowo, zachodzi:

Pierwiastek kwadratowy z wariancji definiujemy jako odchylenie standardowe.
Pierwiastek z estymatora nieobciążonego wariancji jest często używany jako estymator odchylenia standardowego, jednak jest wówczas obciążony (zobacz odchylenie standardowe).
- W. Krysicki, J. Bartos, W. Dyczka, K. Królikowska, M. Wasilewski: Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach, część 2. Statystyka matematyczna. Warszawa: PWN, 2006, s. 48. ISBN 83-01-14292-8.
- Jacek Jakubowski, Rafał Sztencel: Wstęp do teorii prawdopodobieństwa. Warszawa: Script, 2004, s. 84. ISBN 83-89716-01-1.