Wariancja


Wariancja w encyklopedii

Z Wikipedii, wolnej encyklopedii Przejdź do nawigacji Przejdź do wyszukiwania

Wariancja – klasyczna miara zmienności. Intuicyjnie utożsamiana ze zróżnicowaniem zbiorowości; jest średnią arytmetyczną kwadratów odchyleń (różnic) poszczególnych wartości cechy od wartości oczekiwanej.

Wariancja zmiennej losowej X , {\displaystyle X,} oznaczana jako Var X {\displaystyle \operatorname {Var} [X]} lub D 2 ( X ) , {\displaystyle D^{2}(X),} zdefiniowana jest wzorem:

Var X = E ( X μ ) 2 , {\displaystyle \operatorname {Var} [X]=E[(X-\mu )^{2}],}

gdzie:

E {\displaystyle E[\dots ]} jest wartością oczekiwaną zmiennej losowej podanej w nawiasach kwadratowych, μ {\displaystyle \mu } jest wartością oczekiwaną zmiennej X . {\displaystyle X.}

Innym, często prostszym, sposobem wyznaczania wariancji jest wzór:

D 2 ( X ) = E ( X 2 ) E ( X ) 2 . {\displaystyle D^{2}(X)=E(X^{2})-[E(X)]^{2}.}

Wariancja jest momentem centralnym drugiego rzędu zmiennej losowej.

Jeżeli ponadto E X 2 {\displaystyle \mathbb {E} X^{2}\leqslant \infty } oraz G {\displaystyle {\mathcal {G}}} jest σ-ciałem zdarzeń, to wariancją warunkową nazywamy:

Var ( X | G ) := E ( ( X E ( X | G ) ) 2 |   G ) . {\displaystyle \operatorname {Var} (X|{\mathcal {G}}):=\mathbb {E} {\Big (}{\big (}X-{\mathcal {E}}(X|{\mathcal {G}}){\big )}^{2}{\Big |}\ {\mathcal {G}}{\Big )}.}

Spis treści

Estymatory | edytuj kod

Wariancję dla szeregu szczegółowego wyznacza się ze wzoru:

s 2 = 1 n i = 1 n ( x i m ) 2 , {\displaystyle s^{2}={\frac {1}{n}}\sum _{i=1}^{n}(x_{i}-m)^{2},}

a dla szeregu rozdzielczego:

s 2 = 1 n i = 1 k n i ( x i m ) 2 . {\displaystyle s^{2}={\frac {1}{n}}\sum _{i=1}^{k}n_{i}\cdot (x_{i}-m)^{2}.}

Wariancja próby losowej o wartościach x i , {\displaystyle x_{i},} gdzie i = 1 , 2 , 3 , , {\displaystyle i=1,2,3,\dots ,} jest następująca:

σ 2 = lim n 1 n i = 1 n ( x i x ¯ ) 2 . {\displaystyle \sigma ^{2}=\lim _{n\to \infty }{\frac {1}{n}}\sum _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}.}

Wariancję dla populacji można estymować za pomocą n-elementowej próby losowej. Estymator największej wiarygodności:

s 2 = 1 n i = 1 n ( x i x ¯ ) 2 {\displaystyle s^{2}={\frac {1}{n}}\sum _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}}

jest zgodnym, lecz obciążonym estymatorem wariancji (jest nieobciążony asymptotycznie). Innymi słowy, gdybyśmy z populacji losowali próbkę wielokrotnie i obliczali jego wyniki, to ich średnia nie byłaby równa wariancji w całej populacji. Dlatego też częściej używa się również zgodnego, lecz nieobciążonego estymatora:

s 2 = 1 n 1 i = 1 n ( x i x ¯ ) 2 . {\displaystyle s^{2}={\frac {1}{n-1}}\sum _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}.}

W przypadku, gdy znamy dokładną wartość oczekiwaną μ {\displaystyle \mu } w populacji, wówczas estymator

s 2 = 1 n i = 1 n ( x i μ ) 2 {\displaystyle s^{2}={\frac {1}{n}}\sum _{i=1}^{n}\left(x_{i}-\mu \right)^{2}}

jest już nieobciążony i zgodny.

Własności wariancji | edytuj kod

Dla zmiennych losowych X , {\displaystyle X,} Y {\displaystyle Y} i dowolnych stałych a ,   b ,   c {\displaystyle a,\ b,\ c} zachodzą następujące własności:

1. D 2 ( c ) = 0 {\displaystyle D^{2}(c)=0}

Dowód. Korzystając z własności wartości oczekiwanej (wartość oczekiwana stałej jest równa tej stałej), mamy:

D 2 ( c ) = E ( c E c ) 2 = E 0 2 = E 0 = 0. {\displaystyle D^{2}(c)=E[(c-Ec)^{2}]=E[0^{2}]=E[0]=0.}

2. D 2 ( X ) 0 {\displaystyle D^{2}(X)\geqslant 0}

Dowód. Korzystamy z własności wartości oczekiwanej mówiącej o tym, że jeżeli zmienna losowa jest dodatnio określona prawie wszędzie to jej wartość oczekiwana jest dodatnia. Ponieważ zmienna losowa ( X E X ) 2 {\displaystyle (X-EX)^{2}} jest dodatnio określona, mamy:

D 2 ( X ) = E ( X E X ) 2 0. {\displaystyle D^{2}(X)=E[(X-EX)^{2}]\geqslant 0.}

3. D 2 ( a X ) = a 2 D 2 ( X ) {\displaystyle D^{2}(a\cdot X)=a^{2}\cdot D^{2}(X)}

Dowód. Korzystając z definicji wariancji, a następnie z liniowości wartości oczekiwanej mamy:

D 2 ( a X ) = E ( a X E ( a X ) ) 2 = E ( a X a E X ) 2 = E ( a ( X E X ) ) 2 = E a 2 ( X E X ) 2 = a 2 E ( X E X ) 2 = a 2 D 2 ( X ) . {\displaystyle D^{2}(a\cdot X)=E[(aX-E(aX))^{2}]=E[(aX-aEX)^{2}]=E[(a(X-EX))^{2}]=E[a^{2}(X-EX)^{2}]=a^{2}E[(X-EX)^{2}]=a^{2}\cdot D^{2}(X).}

4. D 2 ( X + b ) = D 2 ( X ) {\displaystyle D^{2}(X+b)=D^{2}(X)}

Dowód. Korzystamy z własności wartości oczekiwanej mówiącej o tym, że E c = c {\displaystyle Ec=c} dla c {\displaystyle c} stałej i z liniowości:

D 2 ( X + b ) = E ( X + b E ( X + b ) ) 2 = E ( X + b E X E b ) 2 = E ( X + b E X b ) 2 = E ( X E X ) 2 = D 2 ( X ) . {\displaystyle D^{2}(X+b)=E[(X+b-E(X+b))^{2}]=E[(X+b-EX-Eb)^{2}]=E[(X+b-EX-b)^{2}]=E[(X-EX)^{2}]=D^{2}(X).}

5. D 2 ( X ± Y ) = D 2 ( X ) + D 2 ( Y ) ± 2 Cov ( X , Y ) {\displaystyle D^{2}(X\pm Y)=D^{2}(X)+D^{2}(Y)\pm 2\operatorname {Cov} (X,Y)} w ogólnym przypadku; (gdzie Cov ( X , Y ) {\displaystyle \operatorname {Cov} (X,Y)} to kowariancja)

Dowód. Sprawdzone zostanie tylko twierdzenie dla sumy, twierdzenie dla różnicy rozwiązuje się analogicznie. Czyli mamy:

D 2 ( X + Y ) = E ( X + Y E ( X + Y ) ) 2 = E ( X + Y E X E Y ) 2 = E ( ( X E X ) + ( Y E Y ) ) 2 = {\displaystyle D^{2}(X+Y)=E[(X+Y-E(X+Y))^{2}]=E[(X+Y-EX-EY)^{2}]=E[((X-EX)+(Y-EY))^{2}]=} = E ( X E X ) 2 + 2 ( X E X ) ( Y E Y ) + ( Y E Y ) 2 = {\displaystyle =E[(X-EX)^{2}+2(X-EX)(Y-EY)+(Y-EY)^{2}]=\dots }

Korzystając z liniowości wartości oczekiwanej i definicji kowariancji, mamy:

= E ( X E X ) 2 + 2 E ( X E X ) ( Y E Y ) + E ( Y E Y ) 2 = D 2 ( X ) + D 2 ( Y ) + 2 Cov ( X , Y ) . {\displaystyle \dots =E[(X-EX)^{2}]+2E[(X-EX)(Y-EY)]+E[(Y-EY)^{2}]=D^{2}(X)+D^{2}(Y)+2\operatorname {Cov} (X,Y).}

Z powyższego twierdzenia łatwo wysnuć wniosek, że jeżeli zmienne X {\displaystyle X} i Y {\displaystyle Y} są niezależne liniowo, zachodzi:

D 2 ( X ± Y ) = D 2 ( X ) + D 2 ( Y ) . {\displaystyle D^{2}(X\pm Y)=D^{2}(X)+D^{2}(Y).}

Pierwiastek kwadratowy z wariancji definiujemy jako odchylenie standardowe.

Pierwiastek z estymatora nieobciążonego wariancji jest często używany jako estymator odchylenia standardowego, jednak jest wówczas obciążony (zobacz odchylenie standardowe).

Zobacz też | edytuj kod

Bibliografia | edytuj kod

  • W. Krysicki, J. Bartos, W. Dyczka, K. Królikowska, M. Wasilewski: Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach, część 2. Statystyka matematyczna. Warszawa: PWN, 2006, s. 48. ISBN 83-01-14292-8.
  • Jacek Jakubowski, Rafał Sztencel: Wstęp do teorii prawdopodobieństwa. Warszawa: Script, 2004, s. 84. ISBN 83-89716-01-1.
Kontrola autorytatywna (type of statistic):
Na podstawie artykułu: "Wariancja" pochodzącego z Wikipedii
OryginałEdytujHistoria i autorzy