Satz von Slutsky

Der Satz von Slutsky bzw. das Slutsky-Theorem, entwickelt von Jewgeni Sluzki (E. Slutsky), ist ein mathematischer Satz aus dem Gebiet der Wahrscheinlichkeitstheorie, der die Konvergenz von Zufallsvariablen betrifft. Der Satz von Slutsky spielt in der Anwendung eine wichtige Rolle, da die Parameter einer Verteilung in der Praxis selten bekannt sind und daher geschätzt werden müssen. Der Satz von Slutsky ermöglicht es, die unbekannten Verteilungsparameter durch geschätzte Größen zu ersetzen, die in Wahrscheinlichkeit gegen den wahren Parameter konvergieren.[1]

Theorem

Falls die Folge von Zufallsvariablen X n {\displaystyle X_{n}\;} für n {\displaystyle n} gegen unendlich gegen die Zufallsvariable X {\displaystyle X\;} in Verteilung konvergiert und die Folgen von Zufallsvariablen A n {\displaystyle A_{n}\;} und B n {\displaystyle B_{n}\;} gegen die Werte a {\displaystyle a} bzw. b {\displaystyle b} in Wahrscheinlichkeit konvergieren, dann konvergiert die Funktion A n + B n X n {\displaystyle A_{n}+B_{n}X_{n}\;} in Verteilung gegen a + b X {\displaystyle a+bX\;} . Kurz:

A n + B n X n   D   a + b X {\displaystyle A_{n}+B_{n}X_{n}\ {\stackrel {\mathcal {D}}{\rightarrow }}\ a+bX}

Beweisskizze

Der Satz von Slutsky folgt in dieser Form aus drei Beobachtungen:

  • Konvergenz in Wahrscheinlichkeit impliziert Konvergenz in Verteilung.
  • Wenn X n D X {\displaystyle X_{n}\xrightarrow {\mathcal {D}} X} und A n P a {\displaystyle A_{n}\xrightarrow {\mathbb {P} } a} bzw. B n P b {\displaystyle B_{n}\xrightarrow {\mathbb {P} } b} , so konvergiert der Zufallsvektor ( X n , A n , B n ) {\displaystyle (X_{n},A_{n},B_{n})} in Verteilung gegen ( X , a , b ) {\displaystyle (X,a,b)} .
  • Nun wendet man den Satz von der stetigen Abbildung auf g ( x , y , z ) = y + z x {\displaystyle g(x,y,z)=y+zx} an.

Beispiel

Seien X 1 , . . . , X n Poi ( ϑ ) {\displaystyle X_{1},...,X_{n}\sim \operatorname {Poi} (\vartheta )} unabhängige, identisch Poisson-verteilte Zufallsvariablen, wobei ϑ > 0 {\displaystyle \vartheta >0} . Man möchte nun z. B. ein Konfidenzintervall für ϑ {\displaystyle \vartheta } zum Konfidenzniveau γ = 1 α {\displaystyle \gamma =1-\alpha } herleiten. Dabei wird der Satz von Slutsky helfen. Es gilt zunächst n X ¯ n ϑ ϑ D N ( 0 , 1 ) {\displaystyle {\sqrt {n}}{\frac {{\overline {X}}_{n}-\vartheta }{\sqrt {\vartheta }}}\xrightarrow {\mathcal {D}} {\mathcal {N}}(0,1)} nach dem zentralen Grenzwertsatz. Also weiter:

lim n P ϑ ( z α / 2 n X ¯ n ϑ ϑ z 1 α / 2 ) = 1 α {\displaystyle \lim \limits _{n\to \infty }\mathbb {P} _{\vartheta }\left(z_{\alpha /2}\leq {\sqrt {n}}{\frac {{\overline {X}}_{n}-\vartheta }{\sqrt {\vartheta }}}\leq z_{1-\alpha /2}\right)=1-\alpha }

Möchte man nun z α / 2 n X ¯ n ϑ ϑ z 1 α / 2 {\displaystyle z_{\alpha /2}\leq {\sqrt {n}}{\frac {{\overline {X}}_{n}-\vartheta }{\sqrt {\vartheta }}}\leq z_{1-\alpha /2}} nach ϑ {\displaystyle \vartheta } auflösen, hat man folgendes Problem: Dass der unbekannte Parameter ϑ {\displaystyle \vartheta } hier sowohl im Zähler, als auch im Nenner vorkommt, was zu einer quadratischen Gleichung führt. Man kann dies aber umgehen, indem man ϑ {\displaystyle \vartheta } durch den Schätzer X ¯ n {\displaystyle {\overline {X}}_{n}} ersetzt. Nach dem starken Gesetz der großen Zahlen gilt ϑ / X ¯ n f. s. 1 {\displaystyle {\sqrt {\vartheta /{\overline {X}}_{n}}}\xrightarrow {\text{f. s.}} 1} . Nun gilt mit dem Satz von Slutsky, dass:

n X ¯ n ϑ X ¯ n = n X ¯ n ϑ ϑ ϑ X ¯ n D N ( 0 , 1 ) . {\displaystyle {\sqrt {n}}{\frac {{\overline {X}}_{n}-\vartheta }{\sqrt {{\overline {X}}_{n}}}}={\sqrt {n}}{\frac {{\overline {X}}_{n}-\vartheta }{\sqrt {\vartheta }}}{\sqrt {\frac {\vartheta }{{\overline {X}}_{n}}}}\xrightarrow {\mathcal {D}} {\mathcal {N}}(0,1).}

Es ergibt sich folglich als asymptotisches Konfidenzintervall für ϑ {\displaystyle \vartheta } : [ X ¯ n z 1 α / 2 n X ¯ n , X ¯ n + z 1 α / 2 n X ¯ n ] {\displaystyle \left[{\overline {X}}_{n}-{\frac {z_{1-\alpha /2}}{\sqrt {n}}}{\sqrt {{\overline {X}}_{n}}},{\overline {X}}_{n}+{\frac {z_{1-\alpha /2}}{\sqrt {n}}}{\sqrt {{\overline {X}}_{n}}}\right]} .

Literatur

  • Erich L. Lehmann: Elements of large sample theory. Springer, New York 1999, ISBN 0-387-98595-6, S. 70. 
  • Harald Cramér: Mathematical Methods of Statistics. Princeton University Press, Princeton 1946, S. 254. 
  • Skript zur Wahrscheinlichkeitstheorie (englisch) enthält das Slutsky-Theorem und seinen Beweis. (PDF; 329 kB) Archiviert vom Original (nicht mehr online verfügbar) am 20. Juli 2004; abgerufen am 23. Juni 2015. 
  • Slutsky-Theorem

Einzelnachweise

  1. Michael Messer, Gaby Schneider: Statistik: Theorie und Praxis im Dialog. Hrsg.: Springer Spektrum. 2019, ISBN 978-3-662-59338-7, S. 19.