Az eltolási tétel egy számolási szabályt mond ki a szórásnégyzet és a szórás számítására.
Legyenek
x
1
,
…
,
x
n
{\displaystyle x_{1},\dotsc ,x_{n}}
valós számok, és számtani közepüket jelölje
x
¯
{\displaystyle {\overline {x}}}
. Ekkor
∑
i
=
1
n
(
x
i
−
x
¯
)
2
=
(
∑
i
=
1
n
x
i
2
)
−
n
x
¯
2
=
(
∑
i
=
1
n
x
i
2
)
−
1
n
(
∑
i
=
1
n
x
i
)
2
{\displaystyle \sum _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}=\left(\sum _{i=1}^{n}x_{i}^{2}\right)-n{\overline {x}}^{2}=\left(\sum _{i=1}^{n}x_{i}^{2}\right)-{\frac {1}{n}}\left(\sum _{i=1}^{n}x_{i}\right)^{2}}
.
Ez segíti a tapasztalati szórásnégyzet kiszámítását, különösen egyenként érkező adatok esetén. Ekkor nem kell letárolni az összes
x
i
{\displaystyle x_{i}}
-t (tár), és nem kell végigfutni az összes tagon (számítási idő). Azonban korlátos számítási pontosság esetén a kivonás miatt vészes kiegyszerűsödés jöhet létre, különösen, ha
x
¯
2
{\displaystyle {\overline {x}}^{2}}
sokkal nagyobb, mint a szórásnégyzet. Ekkor segíthet a következő
x
~
≈
x
¯
{\displaystyle {\tilde {x}}\approx {\overline {x}}}
becslés:[ 1]
∑
i
=
1
n
(
x
i
−
x
¯
)
2
=
∑
i
=
1
n
(
x
i
−
x
~
)
2
−
1
n
(
∑
i
=
1
n
(
x
i
−
x
~
)
)
2
{\displaystyle \sum _{i=1}^{n}\left(x_{i}-{\overline {x}}\right)^{2}=\sum _{i=1}^{n}(x_{i}-{\tilde {x}})^{2}-{\frac {1}{n}}\left(\sum _{i=1}^{n}(x_{i}-{\tilde {x}})\right)^{2}}
.
A szakirodalom numerikusan stabilabb számítási módokat is ismer.[ 1]
A minőségbiztosítás keretében kávécsomagokat mérlegelnek. Az első négy csomag súlya grammban:
505
,
500
,
495
,
505
{\displaystyle 505,500,495,505}
Az átlagos súly:
x
¯
=
505
+
500
+
495
+
505
4
=
501
,
25
{\displaystyle {\overline {x}}={\frac {505+500+495+505}{4}}=501{,}25}
A négyzetes eltérések összege:
Q
=
(
505
−
501
,
25
)
2
+
(
500
−
501
,
25
)
2
+
(
495
−
501
,
25
)
2
+
(
505
−
501
,
25
)
2
=
14,062
5
+
1,562
5
+
39,062
5
+
14,062
5
=
68
,
75
.
{\displaystyle {\begin{aligned}Q&=(505-501{,}25)^{2}+(500-501{,}25)^{2}+(495-501{,}25)^{2}+(505-501{,}25)^{2}\\&=14{,}0625+1{,}5625+39{,}0625+14{,}0625\\&=68{,}75\,.\end{aligned}}}
További számítások a tétel alkalmazásához:
q
1
=
∑
i
=
1
n
x
i
=
505
+
500
+
495
+
505
=
2.005
{\displaystyle q_{1}=\sum _{i=1}^{n}x_{i}=505+500+495+505=2.005}
q
2
=
∑
i
=
1
n
x
i
2
=
255.025
+
250.000
+
245.025
+
255.025
=
1.005.075
{\displaystyle q_{2}=\sum _{i=1}^{n}x_{i}^{2}=255.025+250.000+245.025+255.025=1.005.075}
Q
=
q
2
−
1
4
q
1
2
=
68
,
75
{\displaystyle Q=q_{2}-{\frac {1}{4}}q_{1}^{2}=68{,}75}
Ezzel például a (korrigált) tapasztalati szórásnégyzet :
s
2
=
1
4
−
1
68
,
75
≈
22
,
9
.
{\displaystyle s^{2}={\frac {1}{4-1}}68{,}75\approx 22{,}9\,.}
mivel
s
2
=
1
n
−
1
Q
,
{\displaystyle s^{2}={\frac {1}{n-1}}Q\,,}
Ha érkezik még egy csomag, akkor az eltolási tétel szerint a
q
1
{\displaystyle q_{1}}
és
q
2
{\displaystyle q_{2}}
összegeket kell továbbszámolni. Az ötödik csomag súlya 510 gramm. Ekkor
q
1
új
=
q
1
+
510
=
2.005
+
510
=
2.515
,
{\displaystyle q_{1}^{\text{új}}=q_{1}+510=2.005+510=2.515\,,}
q
2
új
=
q
2
+
510
2
=
1.005.075
+
260.100
=
1.265.175
,
{\displaystyle q_{2}^{\text{új}}=q_{2}+510^{2}=1.005.075+260.100=1.265.175\,,}
végül
Q
új
=
q
2
új
−
1
5
(
q
1
új
)
2
=
130
.
{\displaystyle Q^{\text{új}}=q_{2}^{\text{új}}-{\frac {1}{5}}\left(q_{1}^{\text{új}}\right)^{2}=130\,.}
Ezzel az új tapasztalati szórásnégyzet
s
új
2
=
1
5
−
1
Q
új
=
130
/
4
=
32
,
5
.
{\displaystyle s_{\text{új}}^{2}={\frac {1}{5-1}}Q^{\text{új}}=130/4=32{,}5\,.}
Két valószínűségi változó,
x
{\displaystyle x}
és
y
{\displaystyle y}
a minta különböző tulajdonságait méri, kovarianciájuk
s
x
y
:=
∑
i
=
1
n
(
x
i
−
x
¯
)
(
y
i
−
y
¯
)
.
{\displaystyle s_{xy}:=\sum _{i=1}^{n}(x_{i}-{\overline {x}})(y_{i}-{\overline {y}})\ .}
Eltolási tétellel
s
x
y
=
∑
i
=
1
n
(
x
i
y
i
)
−
n
x
¯
y
¯
.
{\displaystyle s_{xy}=\sum _{i=1}^{n}(x_{i}y_{i})-n{\overline {x}}{\overline {y}}\ .}
A korrigált tapasztalati kovariancia a minta átlagos kovariaciája
s
x
y
∗
=
1
n
−
1
s
x
y
.
{\displaystyle s_{xy}^{*}={\frac {1}{n-1}}s_{xy}\ .}
Egy valószínűségi változó szórásnégyzete
Var
(
X
)
=
E
(
(
X
−
E
(
X
)
)
2
)
{\displaystyle \operatorname {Var} (X)=\operatorname {E} ((X-\operatorname {E} (X))^{2})}
az eltolási tétellel[ 2]
Var
(
X
)
=
E
(
X
2
)
−
(
E
(
X
)
)
2
,
{\displaystyle \operatorname {Var} (X)=\operatorname {E} (X^{2})-(\operatorname {E} (X))^{2}\ ,}
ami König-Huygens-tételként ismert.
A várható érték linearitásával
E
(
(
X
−
E
(
X
)
)
2
)
=
E
(
X
2
−
2
X
E
(
X
)
+
E
(
X
)
2
)
=
E
(
X
2
)
−
E
(
2
X
E
(
X
)
)
+
E
(
E
(
X
)
2
)
=
E
(
X
2
)
−
2
E
(
X
)
E
(
X
)
+
E
(
X
)
2
=
E
(
X
2
)
−
E
(
X
)
2
.
{\displaystyle {\begin{aligned}\operatorname {E} {\bigl (}(X-\operatorname {E} (X))^{2}{\bigr )}&=\operatorname {E} {\bigl (}X^{2}-2X\operatorname {E} (X)+\operatorname {E} (X)^{2}{\bigr )}\\&=\operatorname {E} (X^{2})-\operatorname {E} {\bigl (}2X\operatorname {E} (X){\bigr )}+\operatorname {E} {\bigl (}\operatorname {E} (X)^{2}{\bigr )}\\&=\operatorname {E} (X^{2})-2\operatorname {E} (X)\operatorname {E} (X)+\operatorname {E} (X)^{2}\\&=\operatorname {E} (X^{2})-\operatorname {E} (X)^{2}.\end{aligned}}}
Az eltolási tétel általánosabb ábrázolása:
Var
(
X
)
=
E
(
(
X
−
c
)
2
)
−
(
E
(
X
)
−
c
)
2
,
c
∈
R
{\displaystyle \operatorname {Var} (X)=\operatorname {E} \left((X-c)^{2}\right)-\left(\operatorname {E} (X)-c\right)^{2},\quad c\in \mathbb {R} }
.
Ha
X
{\displaystyle X}
diszkrét valószínűségi változó az
x
i
,
i
=
1
,
…
,
n
{\displaystyle x_{i},\,i=1,\dots ,n}
lehetséges kimenetekkel, és a hozzájuk tartozó
P
(
X
=
x
j
)
=
p
j
{\displaystyle \operatorname {P} (X=x_{j})=p_{j}}
valószínűségekkel, akkor
Var
(
X
)
=
E
(
(
X
−
E
(
X
)
)
2
)
=
∑
j
p
j
(
x
j
−
∑
i
p
i
x
i
)
2
=
∑
i
p
i
x
i
2
−
(
∑
i
p
i
x
i
)
2
.
{\displaystyle \operatorname {Var} (X)=\operatorname {E} ((X-\operatorname {E} (X))^{2})=\sum _{j}p_{j}\left(x_{j}-\sum _{i}p_{i}x_{i}\right)^{2}=\sum _{i}p_{i}x_{i}^{2}-\left(\sum _{i}p_{i}x_{i}\right)^{2}\ .}
Speciálisan, ha
p
i
=
1
n
{\displaystyle p_{i}={\frac {1}{n}}}
, akkor
E
(
X
)
=
x
¯
=
1
n
∑
i
x
i
{\displaystyle \operatorname {E} (X)={\overline {x}}={\frac {1}{n}}\sum _{i}x_{i}}
, és a fenti képlettel
1
n
∑
i
(
x
i
−
x
¯
)
2
=
1
n
∑
i
x
i
2
−
x
¯
2
.
{\displaystyle {\frac {1}{n}}\sum _{i}\left(x_{i}-{\overline {x}}\right)^{2}={\frac {1}{n}}\sum _{i}x_{i}^{2}-{\overline {x}}^{2}.}
Ha
X
{\displaystyle X}
abszolút folytonos valószínűségi változó, és sűrűségfüggvénye
f
{\displaystyle f}
, akkor
Var
(
X
)
=
E
(
(
X
−
E
(
X
)
)
2
)
=
∫
−
∞
∞
(
x
−
E
(
X
)
)
2
f
(
x
)
d
x
.
{\displaystyle \operatorname {Var} (X)=\operatorname {E} ((X-\operatorname {E} (X))^{2})=\int _{-\infty }^{\infty }(x-\operatorname {E} (X))^{2}\,f(x)\,\mathrm {d} x\ .}
Az eltolási tétellel
Var
(
X
)
=
E
(
(
X
−
E
(
X
)
)
2
)
=
∫
−
∞
∞
x
2
f
(
x
)
d
x
−
E
(
X
)
2
.
{\displaystyle \operatorname {Var} (X)=\operatorname {E} ((X-\operatorname {E} (X))^{2})=\int _{-\infty }^{\infty }x^{2}f(x)\,\mathrm {d} x-\operatorname {E} (X)^{2}\ .}
Két valószínűségi változó,
X
{\displaystyle X}
és
Y
{\displaystyle Y}
kovarianciája
Cov
(
X
,
Y
)
=
E
(
(
X
−
E
(
X
)
)
⋅
(
Y
−
E
(
Y
)
)
)
{\displaystyle \operatorname {Cov} (X,Y)=\operatorname {E} ((X-\operatorname {E} (X))\cdot (Y-\operatorname {E} (Y)))}
Az eltolási tétellel
Cov
(
X
,
Y
)
=
E
(
X
Y
)
−
E
(
X
)
E
(
Y
)
{\displaystyle \operatorname {Cov} (X,Y)=\operatorname {E} (XY)-\operatorname {E} (X)\operatorname {E} (Y)}
Diszkrét esetben
Cov
(
X
,
Y
)
=
∑
j
∑
k
(
x
j
−
E
(
X
)
)
(
y
k
−
E
(
Y
)
)
⋅
f
(
x
j
,
y
k
)
{\displaystyle \operatorname {Cov} (X,Y)=\sum _{j}\sum _{k}(x_{j}-\operatorname {E} (X))(y_{k}-\operatorname {E} (Y))\cdot f(x_{j},y_{k})}
illetve
Cov
(
X
,
Y
)
=
∑
j
∑
k
x
j
y
k
f
(
x
j
,
y
k
)
−
E
(
X
)
⋅
E
(
Y
)
,
{\displaystyle \operatorname {Cov} (X,Y)=\sum _{j}\sum _{k}x_{j}\,y_{k}\,f(x_{j},y_{k})-\operatorname {E} (X)\cdot \operatorname {E} (Y)\ ,}
ahol
f
(
x
j
,
y
k
)
{\displaystyle f(x_{j},y_{k})}
a közös valószínűségi tömegfüggvény , az
X
=
x
j
{\displaystyle X=x_{j}}
és
Y
=
y
k
{\displaystyle Y=y_{k}}
valószínűségi tömegfüggvényekkel.
Folytonos esetben legyen
f
(
x
,
y
)
{\displaystyle f(x,y)}
X
{\displaystyle X}
és
Y
{\displaystyle Y}
közös sűrűségfüggvénye az
x
{\displaystyle x}
,
y
{\displaystyle y}
helyen. Ekkor a kovariancia
Cov
(
X
,
Y
)
=
∫
−
∞
∞
∫
−
∞
∞
(
x
−
E
(
X
)
)
(
y
−
E
(
Y
)
)
⋅
f
(
x
,
y
)
d
y
d
x
{\displaystyle \operatorname {Cov} (X,Y)=\int _{-\infty }^{\infty }\int _{-\infty }^{\infty }(x-\operatorname {E} (X))(y-\operatorname {E} (Y))\cdot f(x,y)\,\mathrm {d} y\,\mathrm {d} x}
illetve
Cov
(
X
,
Y
)
=
∫
−
∞
∞
∫
−
∞
∞
x
y
f
(
x
,
y
)
d
y
d
x
−
E
(
X
)
⋅
E
(
Y
)
{\displaystyle \operatorname {Cov} (X,Y)=\int _{-\infty }^{\infty }\int _{-\infty }^{\infty }xy\,f(x,y)\,\mathrm {d} y\,\mathrm {d} x-\operatorname {E} (X)\cdot \operatorname {E} (Y)\,}