Erneuerungstheorie

Die Erneuerungstheorie (engl. renewal theory) ist ein Spezialgebiet der Wahrscheinlichkeitstheorie und befasst sich mit Prozessen, die sich nach jedem Erreichen des Ausgangszustandes wieder so verhalten wie beim Start des Experiments.

Motivation

Ein motivierendes Beispiel ist die regelmäßige Erneuerung der für den Betrieb einer Leuchte verwendeten Glühlampe, die nach jedem Ausfall zu ersetzen ist. Die Lebensdauer einer Glühlampe wird durch eine Zufallsvariable beschrieben, deren Verteilung für alle in Frage kommenden Glühlampen gleich ist, also eine bekannte, charakteristische Eigenschaft darstellt. Ferner wird angenommen, dass diese Lebensdauern voneinander unabhängig sind. Es ist nun von Interesse, wie häufig die Glühlampe durchschnittlich auszuwechseln ist; das heißt, man fragt, wie viele Erneuerungen bis zu einer vorgegebenen Betriebszeit vorzunehmen sind.

Sehr ähnliche Aufgabenstellungen erhält man für allgemeinere Wartungsarbeiten oder für Bedienzeiten von Kunden, die nach einer vorgegebenen Verteilung an einer Abfertigungsstelle erscheinen und dort eine Warteschlange bilden. Hier liefert die Erneuerungstheorie Hinweise für optimale Wartungsintervalle oder optimale Personalvorhaltung an Servicestellen. Versteht man das Eintreten eines Wartungsfalls als Schadensfall, so wird sofort verständlich, dass die Erneuerungstheorie auch in der Versicherungsmathematik von Bedeutung ist.

Definition

Bei jeder Erneuerungszeit S n {\displaystyle S_{n}} springt N {\displaystyle N} um mindestens eine Einheit.

Ein Erneuerungsprozess wird durch eine Folge ( T n ) n N {\displaystyle (T_{n})_{n\in \mathbb {N} }} von unabhängigen, identisch verteilten nicht-negativen Zufallsgrößen mit P ( T n = 0 ) < 1 {\displaystyle P(T_{n}=0)<1} gegeben, wobei P {\displaystyle P} die Wahrscheinlichkeit auf dem zugrunde liegenden Wahrscheinlichkeitsraum sei.

S n := T 1 + + T n {\displaystyle S_{n}:=T_{1}+\ldots +T_{n}}

heißt n {\displaystyle n} -te Erneuerungszeit, wobei zusätzlich S 0 {\displaystyle S_{0}} die konstante Funktion 0 sei. Die Folge ( S n ) n N {\displaystyle (S_{n})_{n\in \mathbb {N} }} heißt Erneuerungsfolge, ein Intervall ( S n 1 , S n ] {\displaystyle (S_{n-1},S_{n}]} heißt Erneuerungszyklus und hat definitionsgemäß die Länge T n {\displaystyle T_{n}} , die man daher auch Zykluszeit nennt. Schließlich setzt man für t [ 0 , ) {\displaystyle t\in [0,\infty )}

N ( t ) := | { n N | S n t } | {\displaystyle N(t):=|\{n\in \mathbb {N} |\,S_{n}\leq t\}|} ,

die Anzahl aller n {\displaystyle n} , für die die n {\displaystyle n} -te Erneuerungszeit den Zeitpunkt t {\displaystyle t} noch nicht überschritten hat. Der so definierte stochastische Prozess ( N ( t ) ) t [ 0 , ) {\displaystyle (N(t))_{t\in [0,\infty )}} heißt der Erneuerungsprozess.

Bemerkungen

Interpretation der Definition

Diese Definitionen werden anhand obigen Glühlampenbeispiels sofort verständlich. T n {\displaystyle T_{n}} modelliert die Betriebsdauer der n {\displaystyle n} -ten Glühlampe, S n {\displaystyle S_{n}} ist die durch n {\displaystyle n} Glühlampen hintereinander erbrachte Gesamtleuchtdauer, N ( t ) {\displaystyle N(t)} schließlich ist die Anzahl der bis zum Zeitpunkt t {\displaystyle t} erforderlichen Glühlampenwechsel. Die Bedingung P ( T n = 0 ) < 1 {\displaystyle P(T_{n}=0)<1} stellt sicher, dass eine neu eingesetzte Glühlampe nicht mit Sicherheit sofort wieder ausfällt; nur dann ist die zeitliche Betrachtung regelmäßiger Erneuerungen sinnvoll. Ähnliche Interpretationen für Wartungsarbeiten, Serviceleistungen oder Schadensfälle sind naheliegend.

Verzögerter Erneuerungsprozess

Eine häufig verwendete Variante ist der sogenannte verzögerte Erneuerungsprozess, bei dem die Verteilung von T 1 {\displaystyle T_{1}} von der gemeinsamen Verteilung der übrigen T n , n 2 {\displaystyle T_{n},n\geq 2} , abweichen darf. Dies wird erforderlich, wenn man die Ausgangssituation nicht kennt und daher über T 1 {\displaystyle T_{1}} eine andere Annahme treffen muss, oder wenn, etwa im Falle von Wartungsarbeiten, die Originalbauteile andere sind als die regelmäßig auszutauschenden Ersatzteile. Der eigentliche Erneuerungsprozess beginnt also erst nach T 1 {\displaystyle T_{1}} , was die Bezeichnung als verzögerten Erneuerungsprozess erklärt.

Auszahlungsprozess

In der Regel sind mit dem Eintreten einer jeden Erneuerungszeit Auszahlungen, die im Kostenfall auch negativ sein können, verbunden. Daher betrachtet man zu den in obiger Definition gegebenen Daten noch eine Folge ( R n ) n N {\displaystyle (R_{n})_{n\in \mathbb {N} }} unabhängiger und identisch verteilter Zufallsvariablen, die für die Auszahlungen zum n-ten Erneuerungszeitpunkt S n {\displaystyle S_{n}} stehen. Die Gesamtauszahlung bis zum Zeitpunkt t {\displaystyle t} ist dann

R ( t ) := n = 1 N ( t ) R n {\displaystyle R(t):=\sum _{n=1}^{N(t)}R_{n}} .

Der stochastische Prozess R ( t ) t [ 0 , ) {\displaystyle R(t)_{t\in [0,\infty )}} heißt der zum Erneuerungsprozess gehörige Auszahlungsprozess.

In vielen Anwendungen geht es darum, die mit diesem Auszahlungsprozess verknüpften Daten zu optimieren. In einer hier nicht näher betrachteten Variante kann R n {\displaystyle R_{n}} durch eine sich während des n {\displaystyle n} -ten Erneuerungszyklus entwickelnde Funktion ersetzt werden, so dass obiges R n {\displaystyle R_{n}} die während des Zyklus kumulierte Auszahlung ist. Dadurch können die zu den Erneuerungszeiten auftretenden Sprünge vermieden werden.

Grundlagen

Es liege ein wie oben beschriebener Erneuerungsprozess vor, F {\displaystyle F} sei die Verteilungsfunktion der Zykluszeiten T n {\displaystyle T_{n}} . Die durchschnittliche Zykluszeit μ = E ( T n ) {\displaystyle \mu =E(T_{n})} ist positiv, da sonst T n {\displaystyle T_{n}} fast sicher 0 wäre, was der Voraussetzung P ( T n = 0 ) < 1 {\displaystyle P(T_{n}=0)<1} widerspräche. Für den Erwartungswert des Erneuerungsprozesses gilt

m ( t ) := E ( N ( t ) ) = n = 1 P ( S n t ) = n = 1 F n {\displaystyle m(t):=E(N(t))=\sum _{n=1}^{\infty }P(S_{n}\leq t)=\sum _{n=1}^{\infty }F^{*n}} ,

wobei F n {\displaystyle F^{*n}} die n-fache Faltung mit sich sei. Man nennt m {\displaystyle m} in naheliegender Weise die Mittelwertsfunktion des Erneuerungsprozesses. Unter Verwendung der Bedingung P ( T n = 0 ) < 1 {\displaystyle P(T_{n}=0)<1} kann man zeigen, dass m ( t ) {\displaystyle m(t)} endlich und daher N ( t ) {\displaystyle N(t)} fast überall endlich ist. Daraus ergibt sich weiter das für einen sinnvollen Erneuerungsprozess erwartete Grenzwertverhalten

S n {\displaystyle S_{n}\to \infty } fast sicher für n {\displaystyle n\to \infty }
N ( t ) {\displaystyle N(t)\to \infty } fast sicher für t {\displaystyle t\to \infty } .

Über das Wachstum von N ( t ) {\displaystyle N(t)} kann man eine viel genauere Aussage treffen:

N ( t ) t 1 μ {\displaystyle {\frac {N(t)}{t}}\to {\frac {1}{\mu }}} fast sicher für t {\displaystyle t\to \infty } .

Diese Aussage gilt auch unter dem Erwartungswert, das heißt

m ( t ) t 1 μ {\displaystyle {\frac {m(t)}{t}}\to {\frac {1}{\mu }}} fast sicher für t {\displaystyle t\to \infty } ,

was auch als einfaches Erneuerungstheorem bekannt ist. Dies bestätigt die Intuition, dass die langfristig erwartete Anzahl der Erneuerungen pro Zeit mit dem Kehrwert der zu erwartenden Dauer zwischen zwei Erneuerungen übereinstimmt. Entsprechende Resultate hat man für den zugehörigen Auszahlungsprozess:

R ( t ) t E ( R 1 ) μ {\displaystyle {\frac {R(t)}{t}}\to {\frac {E(R_{1})}{\mu }}} fast sicher für t {\displaystyle t\to \infty } ,

das heißt im langfristigen Mittel ist die Auszahlung pro Zeit gleich der mittleren Auszahlung eines Erneuerungszyklus geteilt durch die mittlere Zykluslänge.

Der Poissonprozess als Erneuerungsprozess

Der einfachste Fall liegt vor, wenn die T n {\displaystyle T_{n}} exponentialverteilt mit einem Parameter λ {\displaystyle \lambda } sind. Dann ist ( N ( t ) ) t [ 0 , ) {\displaystyle (N(t))_{t\in [0,\infty )}} ein Poissonprozess zum Parameter λ {\displaystyle \lambda } , d. h. N ( t ) {\displaystyle N(t)} ist Poisson-verteilt zum Parameter λ t {\displaystyle \lambda t} . In diesem Fall ist daher m ( t ) = E ( N ( t ) ) = λ t {\displaystyle m(t)=E(N(t))=\lambda t} und das Erneuerungstheorem wird trivial, denn für die mittlere Zykluszeit gilt μ = 1 λ {\displaystyle \textstyle \mu ={\frac {1}{\lambda }}} , da dies der Erwartungswert einer Exponentialverteilung ist.

Anwendung

Zur Veranschaulichung der oben eingeführten Begriffe betrachten wir folgende Strategie für das Auswechseln von Glühlampen, deren zufällige Lebensdauern durch unabhängige und identisch verteilte Zufallsvariable X n {\displaystyle X_{n}} mit Verteilungsfunktion F {\displaystyle F} gegeben seien. Wir wechseln spätestens nach einer noch zu bestimmenden Zeit T {\displaystyle T} , was zu Kosten in Höhe von a {\displaystyle a} führt, und nur dann früher, wenn die Glühlampe tatsächlich ausfällt, was neben a {\displaystyle a} zusätzliche Kosten in Höhe von b {\displaystyle b} verursacht. Der Erneuerungszyklus hat daher die zufällige Länge

T n = min ( X n , T ) {\displaystyle T_{n}=\min(X_{n},T)} .

Zum n {\displaystyle n} -ten Erneuerungszeitpunkt hat man dann Kosten R n {\displaystyle R_{n}} mit Erwartungswert

E ( R n ) = E ( R 1 ) = a P ( X n > T ) + ( a + b ) P ( X n T ) = a ( 1 F ( T ) ) + ( a + b ) F ( T ) = a + b F ( T ) {\displaystyle E(R_{n})=E(R_{1})=aP(X_{n}>T)+(a+b)P(X_{n}\leq T)=a(1-F(T))+(a+b)F(T)=a+bF(T)} .

Die durchschnittliche Zykluszeit ist

μ = E ( T n ) = 0 P ( T n > t ) d t = 0 T P ( X n > t ) d t = 0 T ( 1 F ( t ) ) d t {\displaystyle \mu =E(T_{n})=\int _{0}^{\infty }P(T_{n}>t)\,\mathrm {d} t=\int _{0}^{T}P(X_{n}>t)\,\mathrm {d} t=\int _{0}^{T}(1-F(t))\,\mathrm {d} t} .

Langfristig entstehen daher Kosten pro Zeit in Höhe von

lim t R ( t ) t = E ( R 1 ) μ = a + b F ( T ) 0 T ( 1 F ( t ) ) d t {\displaystyle \lim _{t\to \infty }{\frac {R(t)}{t}}={\frac {E(R_{1})}{\mu }}={\frac {a+bF(T)}{\int _{0}^{T}(1-F(t))\,\mathrm {d} t}}} .

Zur Bestimmung des optimalen Wechselintervalls T {\displaystyle T} bei bekannten Kosten a {\displaystyle a} und b {\displaystyle b} sowie bekannter Verteilungsfunktion F {\displaystyle F} muss man die Minimalstelle dieses Ausdrucks in Abhängigkeit von T {\displaystyle T} bestimmen. Das ist besonders einfach, wenn F {\displaystyle F} eine stetige Dichte hat, denn dann sind F {\displaystyle F} und das Integral als Funktion der oberen Grenze differenzierbar, das heißt, es können die Optimierungsmethoden der Analysis verwendet werden.

Siehe auch

Literatur

  • Ming Liao: Applied Stochastic Processes, CRC Press 2013, ISBN 1-4665-8933-7, Kapitel 3: Renewal Processes