Z Wikipedii, wolnej encyklopedii
Aproksymacja średniokwadratowa – aproksymacja , której celem jest minimalizacja błędu na przedziale
[
a
,
b
]
.
{\displaystyle [a,b].}
Istotność błędu w poszczególnych punktach mierzy się za pomocą funkcji wagowej
w
(
x
)
.
{\displaystyle w(x).}
Jeśli funkcję
f
(
x
)
{\displaystyle f(x)}
próbuje się przybliżać za pomocą
φ
(
x
)
,
{\displaystyle \varphi (x),}
to minimalizuje się błąd:
E
=
∫
a
b
w
(
x
)
[
φ
(
x
)
−
f
(
x
)
]
2
d
x
.
{\displaystyle E=\int \limits _{a}^{b}w(x)[\varphi (x)-f(x)]^{2}\;dx.}
(a)
Ze względów praktycznych stosuje się inną definicję błędu, umożliwiającą prostszą jego minimalizację
R
=
∑
i
=
0
n
[
φ
(
x
i
)
−
f
(
x
i
)
]
2
{\displaystyle R=\sum _{i=0}^{n}[\varphi (x_{i})-f(x_{i})]^{2}}
(b)
zwłaszcza wtedy, gdy przyjmie się dodatkowo
φ
(
x
)
=
a
0
+
a
1
x
+
a
2
x
2
+
.
.
.
+
a
m
x
m
=
∑
i
=
0
m
a
i
x
i
,
m
<
n
.
{\displaystyle \varphi (x)=a_{0}+a_{1}x+a_{2}x^{2}+\,...\,+a_{m}x^{m}=\sum _{i=0}^{m}a_{i}x^{i},\quad m<n.}
(c)
Warunek stacjonarności funkcji
R
(
a
0
,
a
1
,
.
.
.
a
m
)
{\displaystyle R(a_{0},\,a_{1},\,...\,a_{m})}
przybiera postać
∂
R
∂
a
k
=
∂
∂
a
k
{
∑
i
=
0
n
[
φ
(
x
i
)
−
f
(
x
i
)
]
2
}
=
2
∑
i
=
0
n
[
φ
(
x
i
)
−
f
(
x
i
)
]
∂
∂
a
k
φ
(
x
i
)
=
∑
i
=
0
n
[
φ
(
x
i
)
−
f
(
x
i
)
]
x
i
k
=
∑
i
=
0
n
{
[
x
i
k
x
i
k
+
1
.
.
.
x
i
k
+
m
]
a
−
f
i
x
i
k
}
=
0
,
k
=
0
,
1
,
.
.
.
m
,
{\displaystyle {\begin{aligned}{\tfrac {\partial R}{\partial a_{k}}}&={\tfrac {\partial }{\partial a_{k}}}\left\{\sum _{i=0}^{n}[\varphi (x_{i})-f(x_{i})]^{2}\right\}\\&=2\sum _{i=0}^{n}[\varphi (x_{i})-f(x_{i})]{\tfrac {\partial }{\partial a_{k}}}\varphi (x_{i})\\&=\sum _{i=0}^{n}[\varphi (x_{i})-f(x_{i})]x_{i}^{k}\\&=\sum _{i=0}^{n}\left\{[x_{i}^{k}\;\;x_{i}^{k+1}\;\;...\;\;x_{i}^{k+m}]\mathbf {a} -f_{i}x_{i}^{k}\right\}\\&=0,\qquad k=0,\,1,\,...\,m,\end{aligned}}}
(d)
gdzie
a
=
(
a
0
,
a
1
,
.
.
.
a
m
)
T
.
{\displaystyle \mathbf {a} =(a_{0},\,a_{1},\,...\,a_{m})^{T}.}