Schätzung der Varianz der Grundgesamtheit

Dieser Artikel bezieht sich auf die Grundgesamtheit. Siehe auch Schätzung der Varianz einer Schätzfunktion.

Zur Schätzung der Varianz der Grundgesamtheit wird oft die Maximum-Likelihood-Schätzung benutzt. Die Maximum-Likelihood-Schätzung liefert als Schätzer der unbekannten Varianz der Grundgesamtheit die unkorrigierte Stichprobenvarianz, die allerdings nur asymptotisch erwartungstreu ist. Einen erwartungstreuen Schätzer, die korrigierte Stichprobenvarianz, erhält man, indem man die unkorrigierte Stichprobenvarianz mit dem Korrekturfaktor 1 / ( n 1 ) {\displaystyle 1/(n-1)} multipliziert.

Varianzschätzung einer normalverteilten Grundgesamtheit

Maximum-Likelihood-Schätzung

Hauptartikel: Maximum-Likelihood-Methode

Seien X 1 , , X n {\displaystyle X_{1},\ldots ,X_{n}} unabhängig und identisch verteilte Zufallsvariablen aus einer normalverteilten Grundgesamtheit X i N ( μ , σ 2 ) , i = 1 , n {\displaystyle X_{i}\sim {\mathcal {N}}(\mu ,\sigma ^{2}),\;i=1,\ldots n} mit dem unbekannten Erwartungswert μ {\displaystyle \mu } und der unbekannten Varianz der Grundgesamtheit σ 2 {\displaystyle \sigma ^{2}} . Seien die Realisierungen der Zufallsvariablen x 1 , , x n {\displaystyle x_{1},\ldots ,x_{n}} , dann ist die Likelihood-Funktion (auch Plausibilitätsfunktion genannt) einer Stichprobe mit Umfang n {\displaystyle n}

L ( x 1 , , x n μ , σ 2 ) = i = 1 n 1 2 π σ 2 exp ( ( x i μ ) 2 2 σ 2 ) = ( 1 2 π σ 2 ) n / 2 exp ( 1 2 σ 2 i = 1 n ( x i μ ) 2 ) {\displaystyle L(x_{1},\ldots ,x_{n}\mid \mu ,\sigma ^{2})=\prod _{i=1}^{n}{\frac {1}{\sqrt {2\pi \sigma ^{2}}}}\exp \left(-{\frac {(x_{i}-\mu )^{2}}{2\sigma ^{2}}}\right)=\left({\frac {1}{2\pi \sigma ^{2}}}\right)^{n/2}\exp \left(-{\frac {1}{2\sigma ^{2}}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}\right)}

und die log-Likelihood-Funktion

log ( L ( x 1 , , x n μ , σ 2 ) ) = n 2 log ( 2 π σ 2 ) 1 2 σ 2 i = 1 n ( x i μ ) 2 {\displaystyle \log(L(x_{1},\ldots ,x_{n}\mid \mu ,\sigma ^{2}))=-{\frac {n}{2}}\log(2\pi \sigma ^{2})-{\frac {1}{2\sigma ^{2}}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}} .

Um einen Schätzer σ ^ 2 {\displaystyle {\hat {\sigma }}^{2}} für σ 2 {\displaystyle \sigma ^{2}} finden, wird die log-Likelihood-Funktion nach σ 2 {\displaystyle \sigma ^{2}} abgeleitet

log ( L ( x 1 , , x n μ , σ 2 ) ) σ 2 = n 2 σ 2 + 1 2 σ 4 i = 1 n ( x i μ ) 2 {\displaystyle {\frac {\partial \log(L(x_{1},\ldots ,x_{n}\mid \mu ,\sigma ^{2}))}{\partial \sigma ^{2}}}=-{\frac {n}{2\sigma ^{2}}}+{\frac {1}{2\sigma ^{4}}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}}

und gleich Null gesetzt um ein Maximum zu finden

0 = n 2 σ ^ 2 + 1 2 σ ^ 4 i = 1 n ( x i μ ) 2 σ ^ 2 = 1 n i = 1 n ( x i μ ) 2 {\displaystyle 0=-{\frac {n}{2{\hat {\sigma }}^{2}}}+{\frac {1}{2{\hat {\sigma }}^{4}}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}\quad \Longrightarrow \quad {\hat {\sigma }}^{2}={\frac {1}{n}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}}

(für eine Herleitung der Varianz der Grundgesamtheit in Matrixnotation, siehe Klassisches lineares Modell). Die zweite Ableitung ergibt sich als

2 log ( L ( x 1 , , x n μ , σ 2 ) ) σ 2 σ 2 = 1 σ 4 ( n 2 i = 1 n ( x i μ ) 2 σ 2 ) {\displaystyle {\frac {\partial ^{2}\log(L(x_{1},\ldots ,x_{n}\mid \mu ,\sigma ^{2}))}{\partial \sigma ^{2}\partial \sigma ^{2}}}={\frac {1}{\sigma ^{4}}}\left({\frac {n}{2}}-{\frac {\sum _{i=1}^{n}(x_{i}-\mu )^{2}}{\sigma ^{2}}}\right)} [1]

und an der Stelle σ 2 = σ ^ 2 {\displaystyle \sigma ^{2}={\hat {\sigma }}^{2}} :

1 σ ^ 4 ( n 2 i = 1 n ( x i μ ) 2 σ ^ 2 ) = 1 σ ^ 4 ( n 2 n σ ^ 2 σ ^ 2 ) = n 2 σ ^ 4 < 0 {\displaystyle {\frac {1}{{\hat {\sigma }}^{4}}}\left({\frac {n}{2}}-{\frac {\sum _{i=1}^{n}(x_{i}-\mu )^{2}}{{\hat {\sigma }}^{2}}}\right)={\frac {1}{{\hat {\sigma }}^{4}}}\left({\frac {n}{2}}-{\frac {n{\hat {\sigma }}^{2}}{{\hat {\sigma }}^{2}}}\right)=-{\frac {n}{2{\hat {\sigma }}^{4}}}<0} ,

d. h., es handelt sich um ein Maximum, wenn σ ^ 2 > 0 {\displaystyle {\hat {\sigma }}^{2}>0} .

Einzelnachweise

  1. Jürgen Hedderich, Lothar Sachs: Angewandte Statistik: Methodensammlung mit R., S. 332.