A valószínűségszámításban a first-order second-moment eljárás , másként mean value first-order second-moment módszer egy közelítő módszer egy függvény momentumainak számítására, ahol a bemenő mennyiségek véletlenek. Az angol elnevezés arra utal, hogy a valószínűségi változók elsőrendű Taylor-sorát és első két momentumát használja.
A célfüggvényt a (tapasztalati) várható értékek
μ
{\displaystyle \mu }
vektora körüli Taylor-sorba fejtjük:
g
(
x
)
=
g
(
μ
)
+
∑
i
=
1
n
∂
g
(
μ
)
∂
x
i
(
x
i
−
μ
i
)
+
1
2
∑
i
=
1
n
∑
j
=
1
n
∂
2
g
(
μ
)
∂
x
i
∂
x
j
(
x
i
−
μ
i
)
(
x
j
−
μ
j
)
+
⋯
{\displaystyle g(x)=g(\mu )+\sum _{i=1}^{n}{\frac {\partial g(\mu )}{\partial x_{i}}}(x_{i}-\mu _{i})+{\frac {1}{2}}\sum _{i=1}^{n}\sum _{j=1}^{n}{\frac {\partial ^{2}g(\mu )}{\partial x_{i}\,\partial x_{j}}}(x_{i}-\mu _{i})(x_{j}-\mu _{j})+\cdots }
Ezt a várható érték és a szórásnégyzet approximációjához is felhasználjuk.
g
{\displaystyle g}
várható értéke a kövertkező integrállal határozható meg:
μ
g
=
E
[
g
(
x
)
]
=
∫
−
∞
∞
g
(
x
)
f
X
(
x
)
d
x
{\displaystyle \mu _{g}=E[g(x)]=\int _{-\infty }^{\infty }g(x)f_{X}(x)\,dx}
A Taylor-sor behelyettesítésével
μ
g
≈
∫
−
∞
∞
[
g
(
μ
)
+
∑
i
=
1
n
∂
g
(
μ
)
∂
x
i
]
f
X
(
x
)
d
x
=
∫
−
∞
∞
g
(
μ
)
f
X
(
x
)
d
x
+
∫
−
∞
∞
∑
i
=
1
n
∂
g
(
μ
)
∂
x
i
(
x
i
−
μ
i
)
f
X
(
x
)
d
x
=
g
(
μ
)
∫
−
∞
∞
f
X
(
x
)
d
x
⏟
1
+
∑
i
=
1
n
∂
g
(
μ
)
∂
x
i
∫
−
∞
∞
(
x
i
−
μ
i
)
f
X
(
x
)
d
x
⏟
0
=
g
(
μ
)
.
{\displaystyle {\begin{aligned}\mu _{g}&\approx \int _{-\infty }^{\infty }\left[g(\mu )+\sum _{i=1}^{n}{\frac {\partial g(\mu )}{\partial x_{i}}}\right]f_{X}(x)\,dx\\&=\int _{-\infty }^{\infty }g(\mu )f_{X}(x)\,dx+\int _{-\infty }^{\infty }\sum _{i=1}^{n}{\frac {\partial g(\mu )}{\partial x_{i}}}(x_{i}-\mu _{i})f_{X}(x)\,dx\\&=g(\mu )\underbrace {\int _{-\infty }^{\infty }f_{X}(x)\,dx} _{1}+\sum _{i=1}^{n}{\frac {\partial g(\mu )}{\partial x_{i}}}\underbrace {\int _{-\infty }^{\infty }(x_{i}-\mu _{i})f_{X}(x)\,dx} _{0}\\&=g(\mu ).\end{aligned}}}
A
g
{\displaystyle g}
célfüggvény szórásnégyzete :
σ
g
2
=
E
(
[
g
(
x
)
−
μ
g
]
2
)
=
∫
−
∞
∞
[
g
(
x
)
−
μ
g
]
2
f
X
(
x
)
d
x
.
{\displaystyle \sigma _{g}^{2}=E([g(x)-\mu _{g}]^{2})=\int _{-\infty }^{\infty }[g(x)-\mu _{g}]^{2}f_{X}(x)\,dx.}
Az eltolási tétellel :
σ
g
2
=
E
(
[
g
(
x
)
−
μ
g
]
2
)
=
E
(
g
(
x
)
2
)
−
μ
g
2
=
∫
−
∞
∞
g
(
x
)
2
f
X
(
x
)
d
x
−
μ
g
2
{\displaystyle \sigma _{g}^{2}=E([g(x)-\mu _{g}]^{2})=E(g(x)^{2})-\mu _{g}^{2}=\int _{-\infty }^{\infty }g(x)^{2}f_{X}(x)\,dx-\mu _{g}^{2}}
A Taylor-sor helyettesítésével:
σ
g
2
≈
∫
−
∞
∞
[
g
(
μ
)
+
∑
i
=
1
n
∂
g
(
μ
)
∂
x
i
(
x
i
−
μ
i
)
]
2
f
X
(
x
)
d
x
−
μ
g
2
=
∫
−
∞
∞
{
g
(
μ
)
2
+
2
g
(
μ
)
∑
i
=
1
n
∂
g
(
μ
)
∂
x
i
(
x
i
−
μ
i
)
+
[
∑
i
=
1
n
∂
g
(
μ
)
∂
x
i
(
x
i
−
μ
i
)
]
2
}
f
X
(
x
)
d
x
−
μ
g
2
=
∫
−
∞
∞
g
(
μ
)
2
f
X
(
x
)
d
x
+
∫
−
∞
∞
2
g
(
μ
)
∑
i
=
1
n
∂
g
(
μ
)
∂
x
i
(
x
i
−
μ
i
)
f
X
(
x
)
d
x
+
∫
−
∞
∞
[
∑
i
=
1
n
∂
g
(
μ
)
∂
x
i
(
x
i
−
μ
i
)
]
2
f
X
(
x
)
d
x
−
μ
g
2
=
g
(
μ
)
2
∫
−
∞
∞
f
X
(
x
)
d
x
⏟
1
+
2
g
(
μ
)
∑
i
=
1
n
∂
g
(
μ
)
∂
x
i
∫
−
∞
∞
(
x
i
−
μ
i
)
f
X
(
x
)
d
x
⏟
0
+
∫
−
∞
∞
[
∑
i
=
1
n
∑
j
=
1
n
∂
g
(
μ
)
∂
x
i
∂
g
(
μ
)
∂
x
j
(
x
i
−
μ
i
)
(
x
j
−
μ
j
)
]
f
X
(
x
)
d
x
−
μ
g
2
=
g
(
μ
)
2
⏟
≈
μ
g
2
+
∑
i
=
1
n
∑
j
=
1
n
∂
g
(
μ
)
∂
x
i
∂
g
(
μ
)
∂
x
j
∫
−
∞
∞
(
x
i
−
μ
i
)
(
x
j
−
μ
j
)
f
(
x
)
d
x
⏟
cov
(
X
i
,
X
j
)
−
μ
g
2
≈
∑
i
=
1
n
∑
j
=
1
n
∂
g
(
μ
)
∂
x
i
∂
g
(
μ
)
∂
x
j
cov
(
X
i
,
X
j
)
.
{\displaystyle {\begin{aligned}\sigma _{g}^{2}&\approx \int _{-\infty }^{\infty }\left[g(\mu )+\sum _{i=1}^{n}{\frac {\partial g(\mu )}{\partial x_{i}}}(x_{i}-\mu _{i})\right]^{2}f_{X}(x)\,dx-\mu _{g}^{2}\\&=\int _{-\infty }^{\infty }\left\{g(\mu )^{2}+2g(\mu )\sum _{i=1}^{n}{\frac {\partial g(\mu )}{\partial x_{i}}}(x_{i}-\mu _{i})+\left[\sum _{i=1}^{n}{\frac {\partial g(\mu )}{\partial x_{i}}}(x_{i}-\mu _{i})\right]^{2}\right\}f_{X}(x)\,dx-\mu _{g}^{2}\\&=\int _{-\infty }^{\infty }g(\mu )^{2}f_{X}(x)\,dx+\int _{-\infty }^{\infty }2\,g(\mu )\sum _{i=1}^{n}{\frac {\partial g(\mu )}{\partial x_{i}}}(x_{i}-\mu _{i})f_{X}(x)\,dx\\&{}\quad {}+\int _{-\infty }^{\infty }\left[\sum _{i=1}^{n}{\frac {\partial g(\mu )}{\partial x_{i}}}(x_{i}-\mu _{i})\right]^{2}f_{X}(x)\,dx-\mu _{g}^{2}\\&=g(\mu )^{2}\underbrace {\int _{-\infty }^{\infty }f_{X}(x)\,dx} _{1}+2g(\mu )\sum _{i=1}^{n}{\frac {\partial g(\mu )}{\partial x_{i}}}\underbrace {\int _{-\infty }^{\infty }(x_{i}-\mu _{i})f_{X}(x)\,dx} _{0}\\&{}\quad {}+\int _{-\infty }^{\infty }\left[\sum _{i=1}^{n}\sum _{j=1}^{n}{\frac {\partial g(\mu )}{\partial x_{i}}}{\frac {\partial g(\mu )}{\partial x_{j}}}(x_{i}-\mu _{i})(x_{j}-\mu _{j})\right]f_{X}(x)\,dx-\mu _{g}^{2}\\&=\underbrace {g(\mu )^{2}} _{\approx \,\mu _{g}^{2}}+\sum _{i=1}^{n}\sum _{j=1}^{n}{\frac {\partial g(\mu )}{\partial x_{i}}}{\frac {\partial g(\mu )}{\partial x_{j}}}\underbrace {\int _{-\infty }^{\infty }(x_{i}-\mu _{i})(x_{j}-\mu _{j})f(x)\,dx} _{\operatorname {cov} (X_{i},X_{j})}-\mu _{g}^{2}\\&\approx \sum _{i=1}^{n}\sum _{j=1}^{n}{\frac {\partial g(\mu )}{\partial x_{i}}}{\frac {\partial g(\mu )}{\partial x_{j}}}\operatorname {cov} (X_{i},X_{j}).\end{aligned}}}
Az egyszerűség kedvéért a magasabb rendű approximációhoz a következő jelöléseket vezetik be:
g
μ
=
g
(
μ
)
,
g
,
i
=
∂
g
(
μ
)
∂
x
i
,
g
,
i
j
=
∂
g
2
(
μ
)
∂
x
i
∂
x
j
,
μ
i
,
j
=
E
[
(
x
i
−
μ
i
)
j
]
{\displaystyle g_{\mu }=g(\mu ),\quad g_{,i}={\frac {\partial g(\mu )}{\partial x_{i}}},\quad g_{,ij}={\frac {\partial g^{2}(\mu )}{\partial x_{i}\,\partial x_{j}}},\quad \mu _{i,j}=E[(x_{i}-\mu _{i})^{j}]}
Továbbá feltételezik, hogy
X
{\displaystyle X}
értékei függetlenek egymástól.
A másodfokú tag figyelembe vételével a várható érték közelítése:
μ
g
≈
g
μ
+
1
2
∑
i
=
1
n
g
,
i
i
μ
i
,
2
{\displaystyle \mu _{g}\approx g_{\mu }+{\frac {1}{2}}\sum _{i=1}^{n}g_{,ii}\;\mu _{i,2}}
A szórásnégyzeté:
σ
g
2
≈
g
μ
2
+
∑
i
=
1
n
g
,
i
2
μ
i
,
2
+
1
4
∑
i
=
1
n
g
,
i
i
2
μ
i
,
4
+
g
μ
∑
i
=
1
n
g
,
i
i
μ
i
,
2
+
∑
i
=
1
n
g
,
i
g
,
i
i
μ
i
,
3
+
1
2
∑
i
=
1
n
∑
j
=
i
+
1
n
g
,
i
i
g
,
j
j
μ
i
,
2
μ
j
,
2
+
∑
i
=
1
n
∑
j
=
i
+
1
n
g
,
i
j
2
μ
i
,
2
μ
j
,
2
−
μ
g
2
{\displaystyle {\begin{aligned}\sigma _{g}^{2}&\approx g_{\mu }^{2}+\sum _{i=1}^{n}g_{,i}^{2}\,\mu _{i,2}+{\frac {1}{4}}\sum _{i=1}^{n}g_{,ii}^{2}\,\mu _{i,4}+g_{\mu }\sum _{i=1}^{n}g_{,ii}\,\mu _{i,2}+\sum _{i=1}^{n}g_{,i}\,g_{,ii}\,\mu _{i,3}\\&{}\quad {}+{\frac {1}{2}}\sum _{i=1}^{n}\sum _{j=i+1}^{n}g_{,ii}\,g_{,jj}\,\mu _{i,2}\,\mu _{j,2}+\sum _{i=1}^{n}\sum _{j=i+1}^{n}g_{,ij}^{2}\,\mu _{i,2}\,\mu _{j,2}-\mu _{g}^{2}\end{aligned}}}
g
{\displaystyle g}
ferdesége a
μ
g
,
3
{\displaystyle \mu _{g,3}}
harmadik centrális momentumból számítható. Csak a lineáris tagok figyelembe vételével, de a magasabb momentumokra a közelítés:
μ
g
,
3
≈
∑
i
=
1
n
g
,
i
3
μ
i
,
3
{\displaystyle \mu _{g,3}\approx \sum _{i=1}^{n}g_{,i}^{3}\;\mu _{i,3}}
A másodrendű közelítés megtalálható itt: B. Kriegesmann, "Probabilistic Design of Thin-Walled Fiber Composite Structures", Mitteilungen des Instituts für Statik und Dynamik der Leibniz Universität Hannover 15/2012[ 1] Ekkor az algoritmus elnevezése second-order third-moment eljárás.[ 2] A szórásnégyzet másodrendű közelítésének teljes approximációja negyedfokig veszi figyelembe a tagokat, a harmadik centrális momentumé és ferdeségé pedig hatodfokig.[ 1]
↑ a b B. Kriegesmann, "Probabilistic Design of Thin-Walled Fiber Composite Structures", Mitteilungen des Instituts für Statik und Dynamik der Leibniz Universität Hannover 15/2012, ISSN 1862-4650 , Gottfried Wilhelm Leibniz Universität Hannover, Hannover, Germany, 2012, PDF; 10,2MB [halott link ] .
↑ Y. J. Hong, J. Xing, and J. B. Wang, "A Second-Order Third-Moment Method for Calculating the Reliability of Fatigue", Int. J. Press. Vessels Pip., 76 (8), pp 567–570, 1999.
Ez a szócikk részben vagy egészben a First-order second-moment Methode című német Wikipédia-szócikk fordításán alapul. Az eredeti cikk szerkesztőit annak laptörténete sorolja fel. Ez a jelzés csupán a megfogalmazás eredetét és a szerzői jogokat jelzi, nem szolgál a cikkben szereplő információk forrásmegjelöléseként.