Stochastische Signaltheorie/Markovketten: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
(33 dazwischenliegende Versionen von 5 Benutzern werden nicht angezeigt)
Zeile 6: Zeile 6:
 
}}
 
}}
 
==Betrachtetes Szenario==
 
==Betrachtetes Szenario==
Wir betrachten nun abschließend den Fall, dass man ein Experiment fortlaufend durchführt und zu jedem diskreten Zeitpunkt $ν =$ 1, 2, 3, .. ein Ereignis $E_ν$ eintritt. Hierbei soll gelten:
+
<br>
$$E_\nu \in G = \{ E_{\rm 1}, E_{\rm 2}, \hspace{0.1cm}...\hspace{0.1cm}, E_\mu , \hspace{0.1cm}...\hspace{0.1cm}, E_M \}.$$
+
Wir betrachten nun den Fall,&nbsp; dass man ein Zufallsexperiment fortlaufend durchführt und dass zu jedem diskreten Zeitpunkt&nbsp; $(ν = 1, 2, 3, \text{...})$&nbsp; ein neues  Ereignis&nbsp; $E_ν$&nbsp; eintritt.&nbsp; Hierbei soll gelten:
 +
[[Datei:P_ID442__Sto_T_1_4_S1_neu.png |right|frame|Mögliche Ereignisse und Ereignisfolge]]
 +
:$$E_\nu \in G = \{ E_{\rm 1}, E_{\rm 2}, \hspace{0.1cm}\text{...}\hspace{0.1cm}, E_\mu , \hspace{0.1cm}\text{...}\hspace{0.1cm}, E_M \}.$$
  
Diese mathematisch nicht ganz saubere Nomenklatur bedeutet (siehe nachfolgende Grafik):  
+
Diese mathematisch nicht ganz saubere Nomenklatur bedeutet&nbsp; (siehe Grafik):  
*Die $M$ möglichen Ereignisse werden mit dem Laufindex $μ$ durchnummeriert.   
+
*Die&nbsp; $M$&nbsp; möglichen Ereignisse werden mit dem Laufindex&nbsp; $μ$&nbsp; durchnummeriert.   
*Der Index $ν$ benennt die diskreten Zeitpunkte, zu denen Entscheidungen gefällt werden.
+
*Der Index&nbsp; $ν$&nbsp; benennt die diskreten Zeitpunkte,&nbsp; zu denen Ereignisse auftreten.
  
  
[[Datei:P_ID442__Sto_T_1_4_S1_neu.png | Mögliche Ereignisse und Ereignisfolge]]
+
Zur einfacheren Darstellung beschränken wir uns im Folgenden auf den Fall&nbsp; $M = 2$&nbsp;  mit der Grundmenge&nbsp; $G = \{ A, \ B \}$.&nbsp; Weiter soll gelten:  
 +
*Die Wahrscheinlichkeit des Ereignisses&nbsp; $E_ν$&nbsp; kann durchaus von allen vorherigen Ereignissen abhängen – also von den Ereignissen&nbsp; $E_{ν\hspace{0.05cm}-1},\ E_{ν\hspace{0.05cm}-2},\ E_{ν\hspace{0.05cm}-3},$&nbsp; usw.
 +
*Diese Aussage bedeutet auch,&nbsp; dass wir in diesem Kapitel eine&nbsp; '''Ereignisfolge mit inneren statistischen Bindungen'''&nbsp; betrachten.
  
  
Zur einfacheren Darstellung beschränken wir uns im Folgenden auf den Fall $M =$ 2 mit der Grundmenge $G$ = { $A, B$}. Wir berücksichtigen, dass die Wahrscheinlichkeit des Ereignisses $E_ν$ durchaus von allen vorherigen Ereignissen – also von $E_{ν–1}, E_{ν–2}, E_{ν–3}$, . . . – abhängen kann. Das bedeutet auch, dass wir eine Ereignisfolge mit inneren statistischen Bindungen betrachten.  
+
Dieses Szenario ist ein Sonderfall eines zeit- und wertdiskreten Zufallsprozesses, der im Kapitel&nbsp; [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Zufallsprozesse|Zufallsprozesse]]&nbsp;  noch ausführlich behandelt wird.
  
 +
{{GraueBox|TEXT= 
 +
$\text{Beispiel 1:}$&nbsp;
 +
Aus einem Kartenstapel mit&nbsp; $32$&nbsp; Karten&nbsp; (darunter vier Asse)&nbsp; werden nacheinander Karten gezogen.&nbsp; Mit den Ereignissen
 +
*$A\text{ :}=$&nbsp; „die gezogene Karte ist ein Ass”,&nbsp; und
 +
 +
*$B = \overline{A}:=$&nbsp; „die gezogene Karte ist kein Ass”&nbsp; lauten die Wahrscheinlichkeiten zum Zeitpunkt&nbsp; $ν = 1$:
 +
:$${\rm Pr} (A_{\rm 1})  ={4}/{32}= {1}/{8}, \hspace{0.5cm}{\rm Pr} (B_{\rm 1}) = {28}/{32}= {7}/{8}.$$
  
Dieses Szenario ist ein Sonderfall eines zeit- und wertdiskreten Zufallsprozesses. Solche Prozesse werden in Kapitel 4.4   noch ausführlich behandelt.
+
Die Wahrscheinlichkeit&nbsp; ${\rm Pr} (A_{\rm 2})$,&nbsp; dass als zweite Karte&nbsp; $(ν = 2)$&nbsp; ein Ass gezogen wird,&nbsp; hängt nun davon ab,
 +
*ob zum Zeitpunkt&nbsp; $ν = 1$&nbsp; ein Ass gezogen wurde &nbsp;  ⇒ &nbsp; ${\rm Pr} (A_{\rm 2})  = 3/31 < 1/8$,&nbsp;    oder
 +
*ob zum Zeitpunkt&nbsp; $ν = 1$&nbsp; kein Ass gezogen wurde &nbsp; ⇒ &nbsp; ${\rm Pr} (A_{\rm 2})  = 4/31 > 1/8$.  
  
{{Beispiel}}
 
Aus einem Kartenstapel mit 32 Karten (darunter 4 Asse) werden nacheinander Karten gezogen. Mit den Ereignissen $A =$ „die gezogene Karte ist ein Ass” und $B =$ „die gezogene Karte ist kein Ass” lauten die Wahrscheinlichkeiten zum Zeitpunkt $ν =$ 1:
 
$${\rm Pr} (A_{\rm 1})  = \frac{4}{32}= \frac{1}{8}; \hspace{0.5cm}{\rm Pr} (B_{\rm 1}) = \frac{28}{32}= \frac{7}{8}.$$
 
  
Die Wahrscheinlichkeit Pr( $A_2$), dass zur Zeit $ν =$ 2 ein Ass gezogen wird, hängt nun davon ab,
+
Auch die Wahrscheinlichkeiten&nbsp; ${\rm Pr} (A_{\nu})$&nbsp; zu späteren Zeitpunkten&nbsp; $ν$ &nbsp; hängen stets vom Eintreffen bzw. Nichteintreffen aller vorherigen Ereignisse&nbsp; $E_1, \hspace{0.1cm}\text{...}\hspace{0.1cm} ,E_{ν\hspace{0.05cm}–1}$&nbsp; ab.}}
*ob zum Zeitpunkt =$ 1 ein Ass gezogen wurde    ⇒  Pr( $A_2$) = 3/31 < 1/8,   oder
 
*ob zum Zeitpunkt $ν =$ 1 kein Ass gezogen wurde  ⇒  Pr( $A_2$) = 4/31 > 1/8.  
 
  
 +
==Allgemeine Definition einer Markovkette==
 +
<br>
 +
In Sonderfällen, die allerdings sehr häufig vorkommen, kann das oben beschriebene Szenario durch eine Markovkette beschrieben werden.
 +
 +
{{BlaueBox|TEXT= 
 +
$\text{Definition:}$&nbsp;
 +
Eine&nbsp; '''Markovkette&nbsp; $k$-ter Ordnung'''&nbsp; (englisch:&nbsp; "Markov Chain")&nbsp; dient als Modell für zeit- und wertdiskrete Vorgänge, bei denen die Ereigniswahrscheinlichkeiten zum Zeitpunkt&nbsp; $ν$&nbsp;
 +
#&nbsp;  von den vorherigen Ereignissen&nbsp; $E_{ν\hspace{0.05cm}–1}, \hspace{0.1cm}\text{...}\hspace{0.1cm}, E_{ν\hspace{0.05cm}–k}$&nbsp; abhängen,&nbsp; und
 +
#&nbsp;durch&nbsp; $M^{k+1}$&nbsp; bedingte Wahrscheinlichkeiten ausgedrückt werden können.}}
 +
 +
Das Schaubild verdeutlicht diesen Sachverhalt am Beispiel&nbsp; $k = 2$.
 +
[[Datei:P_ID444__Sto_T_1_4_S2a_neu.png |right|frame| Markovkette zweiter Ordnung]]
 +
 +
Für&nbsp; $M = 2$&nbsp; gibt es deshalb&nbsp; $2^{k+1}$&nbsp; solche bedingten Wahrscheinlichkeiten.&nbsp;
 +
:$${\rm Pr} ( E_\nu  \hspace {0.05cm}\vert  \hspace {0.05cm}E_{\nu {\rm -1 } },\hspace {0.15cm}\text{...}\hspace {0.15cm}, E_{\nu { -k } }).$$
 +
 +
Mit&nbsp; $E_{\nu }\in \{ A, B \}, \hspace {0.1cm}\text{...}\hspace {0.15cm}, E_{\nu { -k } } \in \{ A, B \}$&nbsp; lauten diese:
 +
*${\rm Pr} ( A_\nu  \hspace {0.05cm}\vert  \hspace {0.05cm}A_{\nu {\rm -1 } }, A_{\nu { -2 } })$, &nbsp; &nbsp; ${\rm Pr} ( B_\nu  \hspace {0.05cm}\vert  \hspace {0.05cm}A_{\nu {\rm -1 } }, A_{\nu { -2 } })$, &nbsp;
  
Auch die Wahrscheinlichkeiten Pr( $A_ν$) zu späteren Zeitpunkten $ν$ hängen stets vom Eintreffen bzw. Nichteintreffen aller vorherigen Ereignisse $E_1 ... E_{ν–1}$ ab.
+
*${\rm Pr} ( A_\nu  \hspace {0.05cm}\vert  \hspace {0.05cm}A_{\nu {\rm -1 } },B_{\nu { -2 } })$, &nbsp; &nbsp; ${\rm Pr} ( B_\nu  \hspace {0.05cm}\vert  \hspace {0.05cm}A_{\nu {\rm -1 } }, B_{\nu { -2 } })$, &nbsp;
{{end}}
 
  
==Allgemeine Definition einer Markovkette==
+
*${\rm Pr} ( A_\nu  \hspace {0.05cm}\vert  \hspace {0.05cm}B_{\nu {\rm -1 } }, A_{\nu { -2 } })$, &nbsp; &nbsp; ${\rm Pr} ( B_\nu  \hspace {0.05cm}\vert  \hspace {0.05cm}B_{\nu {\rm -1 } }, A_{\nu { -2 } })$, &nbsp;
In Sonderfällen, die allerdings sehr häufig vorkommen, kann das oben beschriebene Szenario durch eine Markovkette beschrieben werden.
 
  
{{Definition}}
+
*${\rm Pr} ( A_\nu  \hspace {0.05cm}\vert  \hspace {0.05cm}B_{\nu {\rm -1 } }, B_{\nu { -2 } })$, &nbsp; &nbsp; ${\rm Pr} ( B_\nu \hspace {0.05cm}\vert  \hspace {0.05cm}B_{\nu {\rm -1 } }, B_{\nu { -2 } })$.
Eine Markovkette $k$-ter Ordnung (englisch: ''Markov Chain'') dient als Modell für zeit- und wertdiskrete Vorgänge, bei denen die Ereigniswahrscheinlichkeiten zur Zeit $ν$ von den vorherigen Ereignissen $E_{ν–1}, ... , E_{ν–k}$ abhängen und durch $M^{k+1}$ bedingte Wahrscheinlichkeiten ausgedrückt werden können. Für $M =$ 2 gibt es deshalb $2^{k+1}$ solcher Wahrscheinlichkeiten:
 
$${\rm Pr} ( E_\nu  \hspace {0.05cm}| \hspace {0.05cm}E_{\nu {\rm -1 }},\hspace {0.1cm} ...\hspace {0.1cm}, E_{\nu { -k }}) \hspace {0.5cm} {\rm mit}\hspace {0.5cm} E_{\nu }\in \{ A, B \}, \hspace {0.1cm}...\hspace {0.1cm}, E_{\nu { -k }} \in \{ A, B \}.$$
 
{{end}}
 
  
  
Das nachfolgende Bild verdeutlicht diesen Sachverhalt am Beispiel $k =$ 2.
+
{{GraueBox|TEXT= 
 +
$\text{Beispiel 2:}$&nbsp; Natürliche Sprachen sind oft durch Markovketten beschreibbar, wobei allerdings die Ordnung&nbsp; $k$&nbsp; gegen Unendlich strebt.&nbsp; In diesem Beispiel werden Texte allerdings lediglich durch Markovketten zweiter Ordnung angenähert.
  
[[Datei:P_ID444__Sto_T_1_4_S2a_neu.png | Markovkette zweiter Ordnung]]
+
[[Datei:P_ID506__Sto_T_1_4_S2b_neu.png |right|frame| Synthetisch erzeugte Texte (deutsch und englisch)]]
  
 +
Die Grafik zeigt beispielhaft zwei synthetisch erzeugte Texte:
 +
*Der linke Text wurde ausgehend von einer deutschen Buchvorlage mit Bindungen bis zu zweiter Ordnung synthetisch erzeugt.
 +
*Beim rechten Text wurde eine englische Vorlage verwendet.
  
{{Beispiel}}
 
Natürliche Sprachen sind oft durch Markovketten beschreibbar, wobei allerdings die Ordnung $k$ gegen Unendlich strebt. Nähert man einen Text durch eine Markovkette 2. Ordnung an, so ergibt sich zwar kein sinnvoller Inhalt, aber die Struktur der Sprache ist erkennbar.
 
  
Das untere Bild zeigt links einen Text, der ausgehend von einer deutschen Buchvorlage mit Bindungen bis zu zweiter Ordnung synthetisch erzeugt wurde. Beim rechten Text wurde eine englische Vorlage verwendet. Man erkennt trotz der Beschränkung $k =$ 2 viele (kurze) deutsche bzw. englische Wörter und auch, dass deutsche Wörter im Mittel länger sind als englische.
+
Man erkennt trotz der Beschränkung auf&nbsp; $k = 2$&nbsp;  viele (kurze) deutsche bzw. englische Wörter und auch,&nbsp; &nbsp;  dass deutsche Wörter im Mittel länger sind als englische.&nbsp;
  
[[Datei:P_ID506__Sto_T_1_4_S2b_neu.png | Synthetisch erzeugte Textdatei (deutsch und englisch)]]
+
Es ergibt sich zwar kein sinnvoller Inhalt,&nbsp; aber die Struktur der jeweiligen Sprache ist durchaus erkennbar. }}
{{end}}
 
  
 
==Markovkette erster Ordnung==
 
==Markovkette erster Ordnung==
Im Folgenden beschränken wir uns stets auf den Sonderfall $k =$ 1.
+
<br>
 +
Im Folgenden beschränken wir uns stets auf den Sonderfall&nbsp; $k =1$ .
  
{{Definition}}
+
{{BlaueBox|TEXT= 
Bei einer  Markovkette erster Ordnung (englisch: ''First Order Markov Chain'') werden lediglich die statistische Bindung zum letzten Ereignis berücksichtigt, die in der Praxis meist auch am stärksten ist.  
+
$\text{Definition:}$&nbsp;
 +
*Bei einer&nbsp; '''Markovkette erster Ordnung'''&nbsp; (englisch:&nbsp; "First Order Markov Chain")&nbsp; wird lediglich die statistische Bindung zum letzten Ereignis berücksichtigt,&nbsp; die in der Praxis meist auch am stärksten ist.  
  
Eine binäre Markovkette  ⇒  Grundmenge $G$ = { $A, B$ } weist folgende Wahrscheinlichkeiten auf:
+
*Eine binäre Markovkette erster Ordnung &nbsp; ⇒  &nbsp; Grundmenge&nbsp; $G = \{ A, \ B \}$&nbsp; weist zum Zeitpunkt&nbsp; $\nu$ &nbsp; folgende Ereigniswahrscheinlichkeiten auf:
$${\rm Pr}(A_\nu) = {\rm Pr}(A_\nu \hspace{0.05cm} | \hspace{0.05cm}A_{\nu - 1}) \cdot {\rm Pr}(A_{\nu - 1}) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(A_\nu \hspace{0.05cm} | \hspace{0.05cm}B_{\nu - 1}) \cdot {\rm Pr}(B_{\nu - 1}) ,$$
+
:$${\rm Pr}(A_\nu) = {\rm Pr}(A_\nu \hspace{0.05cm} \vert \hspace{0.05cm}A_{\nu - 1}) \cdot {\rm Pr}(A_{\nu - 1}) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(A_\nu \hspace{0.05cm} \vert \hspace{0.05cm}B_{\nu - 1}) \cdot {\rm Pr}(B_{\nu - 1}) ,$$
$${\rm Pr}(B_\nu) = {\rm Pr}(B_\nu \hspace{0.05cm} | \hspace{0.05cm}A_{\nu - 1}) \cdot {\rm Pr}(A_{\nu - 1}) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(B_\nu \hspace{0.05cm} | \hspace{0.05cm}B_{\nu - 1}) \cdot {\rm Pr}(B_{\nu - 1}) .$$
+
:$${\rm Pr}(B_\nu) = {\rm Pr}(B_\nu \hspace{0.05cm} \vert \hspace{0.05cm}A_{\nu - 1}) \cdot {\rm Pr}(A_{\nu - 1}) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(B_\nu \hspace{0.05cm} \vert \hspace{0.05cm}B_{\nu - 1}) \cdot {\rm Pr}(B_{\nu - 1}) .$$}}
{{end}}
 
  
  
Hierzu ist anzumerken:  
+
Zu diesen Gleichungen ist anzumerken:  
*Pr( $A_ν$) steht als Abkürzung für die Wahrscheinlichkeit, dass $E_ν = A$ ist.
+
*${\rm Pr}(A_\nu)$&nbsp; steht als Abkürzung für die Wahrscheinlichkeit,&nbsp; dass zur Zeit&nbsp; $ν$ &nbsp; das Ereignis&nbsp; $E_ν = A = \overline{B}$&nbsp; auftritt,&nbsp; und es gilt: 
*Zu jedem beliebigen Zeitpunkt $ν$ gilt: Pr( $B_ν$) = 1 Pr( $A_ν$).  
+
:$${\rm Pr}(B_\nu) = 1 - {\rm Pr}(A_\nu).$$   
*Es gibt zu jedem Zeitpunkt vier Übergangswahrscheinlichkeiten Pr( $E_ν | E_{ν–1}$), von denen jedoch nur zwei unabhängig sind, denn es gilt:
+
*Zu jedem Zeitpunkt gibt es vier Übergangswahrscheinlichkeiten&nbsp; ${\rm Pr}(E_ν\hspace{0.05cm} |\hspace{0.05cm} E_{ν–1})$,&nbsp; von denen jedoch nur zwei unabhängig sind,&nbsp; denn es gilt:
$${\rm Pr}(B_\nu \hspace{0.05cm} | \hspace{0.05cm}A_{\nu - 1}) = 1 - {\rm Pr}(A_\nu \hspace{0.05cm} | \hspace{0.05cm}A_{\nu - 1}), \hspace{0.5cm}{\rm Pr}(A_\nu \hspace{0.05cm} | \hspace{0.05cm}B_{\nu - 1}) = 1 - {\rm Pr}(B_\nu \hspace{0.05cm} | \hspace{0.05cm}B_{\nu - 1}).$$
+
:$${\rm Pr}(B_\nu \hspace{0.05cm} | \hspace{0.05cm}A_{\nu - 1}) = 1 - {\rm Pr}(A_\nu \hspace{0.05cm} | \hspace{0.05cm}A_{\nu - 1}), \hspace{0.5cm}{\rm Pr}(A_\nu \hspace{0.05cm} | \hspace{0.05cm}B_{\nu - 1}) = 1 - {\rm Pr}(B_\nu \hspace{0.05cm} | \hspace{0.05cm}B_{\nu - 1}).$$
*Durch Verallgemeinerung dieser letzten Aussage gelangt man zu dem Ergebnis, dass es bei einer Markovkette mit $M$ Ereignissen zu jedem Zeitpunkt $ν$ genau $M · (M – 1)$ voneinander unabhängige Übergangswahrscheinlichkeiten gibt.
+
*Durch Verallgemeinerung dieser letzten Aussage gelangt man zu dem Ergebnis,&nbsp; dass es bei einer Markovkette mit&nbsp; $M$ Ereignissen&nbsp; zu jedem Zeitpunkt&nbsp; $ν$ &nbsp; genau&nbsp; $M · (M – 1)$&nbsp; voneinander unabhängige Übergangswahrscheinlichkeiten gibt.
  
  
{{Beispiel}}
+
{{GraueBox|TEXT= 
Mit den vorgegebenen Übergangswahrscheinlichkeiten Pr( $A_ν | A_{ν–1}$) = 0.2 und Pr( $B_ν | B_{ν–1}$) = 0.4 sind auch die beiden anderen Übergangswahrscheinlichkeiten festgelegt: Pr( $B_ν | A_{ν–1}$) = 0.8 und Pr( $A_ν | B_{ν–1}$) = 0.6.
+
$\text{Beispiel 3:}$&nbsp; Mit den vorgegebenen Übergangswahrscheinlichkeiten  
{{end}}
+
:$${\rm Pr}(A_ν\hspace{0.05cm}\vert\hspace{0.05cm} A_{ν–1}) = 0.2 \hspace{0.3cm}\text{und}\hspace{0.3cm}  {\rm Pr}(B_ν\hspace{0.05cm} \vert\hspace{0.05cm} B_{ν–1}) = 0.4$$
 +
sind auch die beiden anderen Übergangswahrscheinlichkeiten eindeutig festgelegt:  
 +
:$${\rm Pr}(B_ν\hspace{0.05cm} \vert\hspace{0.05cm} A_{ν–1}) = 1- 0.2 = 0.8 \hspace{0.3cm}\text{und}\hspace{0.3cm}
 +
{\rm Pr}(A_ν\hspace{0.05cm} \vert\hspace{0.05cm} B_{ν–1}) = 1- 0.4 = 0.6.$$}}
  
 
==Homogene Markovketten==
 
==Homogene Markovketten==
Eine Anwendbarkeit der Markovketten auf praktische Probleme ist meist nicht gegeben, wenn nicht weitere einschränkende Voraussetzungen getroffen werden.
+
<br>
{{Definition}}
+
Eine Anwendbarkeit der Markovketten auf praktische Probleme ist meist nur bei weiteren einschränkenden Voraussetzungen gegeben.
Sind alle Übergangswahrscheinlichkeiten unabhängig vom betrachteten Zeitpunkt $ν$, so bezeichnet man die Markovkette als homogen (englisch: ''homogeneous''). Im Fall $M =$ 2 verwenden wir hierfür folgende Abkürzungen:
+
 
$${\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}A) = {\rm Pr}(A_\nu \hspace{0.05cm} | \hspace{0.05cm}A_{\nu - 1}) , \hspace{0.5cm} {\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B) = {\rm Pr}(A_\nu \hspace{0.05cm} | \hspace{0.05cm}B_{\nu - 1}) ,$$
+
{{BlaueBox|TEXT= 
$${\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) = {\rm Pr}(B_\nu \hspace{0.05cm} | \hspace{0.05cm}A_{\nu - 1}) , \hspace{0.5cm} {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}B) = {\rm Pr}(B_\nu \hspace{0.05cm} | \hspace{0.05cm}B_{\nu - 1}) .$$
+
$\text{Definition:}$&nbsp;
{{end}}
+
*Sind alle Übergangswahrscheinlichkeiten unabhängig vom betrachteten Zeitpunkt&nbsp; $ν$,&nbsp; so ist die Markovkette&nbsp; '''homogen'''&nbsp; (englisch:&nbsp; "homogeneous").  
 +
 
 +
*Im Fall&nbsp; $M = 2$&nbsp; verwenden wir hierfür folgende Abkürzungen:
 +
:$${\rm Pr}(A \hspace{0.05cm} \vert \hspace{0.05cm}A) = {\rm Pr}(A_\nu \hspace{0.05cm}\vert \hspace{0.05cm}A_{\nu - 1}) , \hspace{0.5cm} {\rm Pr}(A \hspace{0.05cm} \vert\hspace{0.05cm}B) = {\rm Pr}(A_\nu \hspace{0.05cm} \vert \hspace{0.05cm}B_{\nu - 1}) ,$$
 +
:$${\rm Pr}(B \hspace{0.05cm} \vert\hspace{0.05cm}A) = {\rm Pr}(B_\nu \hspace{0.05cm} \vert \hspace{0.05cm}A_{\nu - 1}) , \hspace{0.5cm} {\rm Pr}(B \hspace{0.05cm} \vert \hspace{0.05cm}B) = {\rm Pr}(B_\nu \hspace{0.05cm} \vert \hspace{0.05cm}B_{\nu - 1}) .$$}}
  
  
Damit lauten die beiden Ereigniswahrscheinlichkeiten einer binären homogenen Markovkette, die im Gegensatz zu den bedingten Übergangswahrscheinlichkeiten absolute Wahrscheinlichkeiten darstellen:
+
Damit lauten die Ereigniswahrscheinlichkeiten einer binären homogenen Markovkette, die absolute Wahrscheinlichkeiten darstellen im Gegensatz zu den bedingten Übergangswahrscheinlichkeiten :
$${\rm Pr}(A_\nu) = {\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}A) \cdot {\rm Pr}(A_{\nu - 1}) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B) \cdot {\rm Pr}(B_{\nu - 1}) ,$$
+
[[Datei:P_ID1444__Sto_T_1_4_S4_neu.png|right|frame| Homogene Markovkette erster Ordnung]]
$${\rm Pr}(B_\nu) = {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) \cdot {\rm Pr}(A_{\nu - 1}) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}B) \cdot {\rm Pr}(B_{\nu - 1}) .$$
+
:$${\rm Pr}(A_\nu) = {\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}A) \cdot {\rm Pr}(A_{\nu - 1}) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B) \cdot {\rm Pr}(B_{\nu - 1}) ,$$
Diesen Zusammenhang kann man auch aus dem nachfolgend dargestellten Markovdiagramm ablesen. Die Summe der abgehenden Pfeile eines Ereignisses ( $A_ν$ bzw. $B_ν$) ergibt sich stets zu 1.
+
:$${\rm Pr}(B_\nu) = {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) \cdot {\rm Pr}(A_{\nu - 1}) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}B) \cdot {\rm Pr}(B_{\nu - 1}) .$$
  
[[Datei:P_ID1444__Sto_T_1_4_S4_neu.png | Homogene Markovkette erster Ordnung]]
+
Auch aus dem Markovdiagramm kann man ablesen:
 +
*Die Summe der&nbsp; '''abgehenden Pfeile'''&nbsp; eines Ereignisses ist stets Eins:
 +
:$${\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}A)  + {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) =1,$$
 +
:$${\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B)  + {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}B) =1.$$
  
Sie können das „Einschwingverhalten” der Ereigniswahrscheinlichkeiten einer solchen binären Markovkette mit dem folgenden Interaktionsmodul berechnen und anzeigen lassen:
+
*Für die Summen der&nbsp; '''ankommenden Pfeile'''&nbsp; gilt diese Einschränkung nicht:
 +
:$$  0 < {\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}A)  + {\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B)< 2,$$
 +
:$$0 < {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A)  + {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}B)< 2.$$
  
 +
Sie können das „Einschwingverhalten” der Ereigniswahrscheinlichkeiten einer solchen binären Markovkette mit dem interaktiven SWF&ndash;Applet&nbsp;  [[Applets:Markovketten|Ereigniswahrscheinlichkeiten einer Markovkette erster Ordnung]]&nbsp; berechnen und anzeigen lassen.
 +
 
==Stationäre Wahrscheinlichkeiten==
 
==Stationäre Wahrscheinlichkeiten==
Wichtige Eigenschaften von Zufallsprozessen sind  Stationarität  und Ergodizität  (Näheres hierzu im Kapitel 4.4). Hier werden diese Begriffe vorausgreifend auf Markovketten angewandt.
+
<br>
 +
Wichtige Eigenschaften von Zufallsprozessen sind&nbsp; [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Station.C3.A4re_Zufallsprozesse|Stationarität]]&nbsp; und&nbsp; [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Ergodische_Zufallsprozesse|Ergodizität]].&nbsp; Obwohl diese Begriffe erst im vierten Hauptkapitel&nbsp; &bdquo;Zufallsgrößen mit statistischen Bindungen&rdquo;&nbsp;  definiert werden,&nbsp; wenden wir sie hier bereits vorausgreifend auf Markovketten an.
  
{{Definition}}
+
{{BlaueBox|TEXT= 
Sind bei einer Markovkette neben den Übergangswahrscheinlichkeiten auch alle Ereigniswahrscheinlichkeiten unabhängig vom Zeitpunkt $ν$, so bezeichnet man sie als stationär (englisch: ''stationary''). Man verzichtet dann auf den Index $ν$ und schreibt im binären Fall:
+
$\text{Definition:}$&nbsp;
$${\rm Pr}(A_\nu ) = {\rm Pr}(A )  \hspace{0.5 cm} {\rm bzw.} \hspace{0.5 cm} {\rm Pr}(B_\nu ) = {\rm Pr}(B).$$
+
*Sind bei einer Markovkette neben den Übergangswahrscheinlichkeiten auch alle Ereigniswahrscheinlichkeiten unabhängig von der Zeit&nbsp; $ν$, &nbsp; so bezeichnet man die Markovkette als&nbsp; '''stationär'''&nbsp; (englisch:&nbsp; "stationary").&nbsp; Man verzichtet dann auf den Index&nbsp; $ν$ &nbsp; und schreibt im binären Fall:
Diese Größen nennt man auch die ergodischen Wahrscheinlichkeiten der Markovkette.
+
:$${\rm Pr}(A_\nu ) = {\rm Pr}(A )  \hspace{0.5 cm} {\rm bzw.} \hspace{0.5 cm} {\rm Pr}(B_\nu ) = {\rm Pr}(B).$$
{{end}}
+
*Diese Größen nennt man auch die&nbsp; '''ergodischen Wahrscheinlichkeiten'''&nbsp; der Markovkette.}}
  
  
 
Stationäre Markovketten weisen die nachfolgend genannten Besonderheiten auf:  
 
Stationäre Markovketten weisen die nachfolgend genannten Besonderheiten auf:  
*Zur Berechnung der ergodischen Wahrscheinlichkeiten einer binären Markovkette ( $M =$ 2) kann man folgende Gleichungen verwenden:
+
*Zur Berechnung der ergodischen Wahrscheinlichkeiten einer binären Markovkette&nbsp; $(M =2)$&nbsp; kann man folgende Gleichungen verwenden:
$${\rm Pr}(A) = {\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}A) \cdot {\rm Pr}(A) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B) \cdot {\rm Pr}(B) ,$$
+
:$${\rm Pr}(A) = {\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}A) \cdot {\rm Pr}(A) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B) \cdot {\rm Pr}(B) ,$$
$${\rm Pr}(B) = {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) \cdot {\rm Pr}(A) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}B) \cdot {\rm Pr}(B) .$$
+
:$${\rm Pr}(B) = {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) \cdot {\rm Pr}(A) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}B) \cdot {\rm Pr}(B) .$$
*Da diese Gleichungen linear voneinander abhängen, darf man nur eine davon benutzen. Als zweite Bestimmungsgleichung kann man beispielsweise Pr( $A$) + Pr( $B$) = 1 verwenden.
+
*Da diese Gleichungen linear voneinander abhängen,&nbsp; darf man nur eine hiervon benutzen.&nbsp; Als zweite Bestimmungsgleichung kann man beispielsweise verwenden:
*Aus diesen Gleichungen ergeben sich die ergodischen Wahrscheinlichkeiten zu
+
:$${\rm Pr}(A) {\rm Pr}(B)  = 1.$$
$${\rm Pr}(A) = \frac {{\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B) }{{\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B)  + {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) }\hspace{0.1cm}, \hspace{0.5cm}{\rm Pr}(B) = \frac {{\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) }{{\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B)  + {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) }.$$
 
  
 +
*Die ergodischen Wahrscheinlichkeiten ergeben sich daraus zu
 +
:$${\rm Pr}(A) = \frac {{\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B) }{{\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B)  + {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) }\hspace{0.1cm}, $$
 +
:$${\rm Pr}(B) = \frac {{\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) }{{\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B)  + {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) }.$$
  
Bei einer stationären Markovkette treten sehr lange nach Einschalten der Kette ( $ν → ∞$) stets die ergodischen Wahrscheinlichkeiten auf, unabhängig von den Startbedingungen Pr( $A_0$) und Pr( $B_0$).
+
{{GraueBox|TEXT= 
 +
$\text{Beispiel 4:}$&nbsp; Wir betrachten eine binäre Markovkette mit den Ereignissen&nbsp; $A$&nbsp; und $B$&nbsp; und den Übergangswahrscheinlichkeiten&nbsp; ${\rm Pr}(A \hspace{0.05cm} \vert\hspace{0.05cm}A) = 0.4$&nbsp; und&nbsp;  ${\rm Pr}(B \hspace{0.05cm} \vert \hspace{0.05cm}B) = 0.8$.
 +
[[Datei:P_ID642__Sto_T_1_4_S5_neu.png |right|frame| Zum Einschwingen der Ereigniswahrscheinlichkeiten]]
 +
 +
*Weiterhin setzen wir voraus,&nbsp; dass jede Realisierung dieser Kette zum Startzeitpunkt&nbsp; $ν = 0$ &nbsp; mit dem Ereignis&nbsp; $A$&nbsp; beginnt.
 +
*Man erhält dann die nachfolgend aufgelisteten Ereigniswahrscheinlichkeiten&nbsp; (mit drei Nachkommastellen):
  
{{Beispiel}}
 
Wir betrachten eine binäre Markovkette mit den beiden Ereignissen $A$ und $B$ und den Übergangswahrscheinlichkeiten Pr( $A | A$) = 0.4 und Pr( $B | B$) = 0.8. Weiterhin setzen wir voraus, dass jede Realisierung dieser Kette zum Startzeitpunkt $ν$ = 0 mit dem Ereignis $A$ beginnt. Man erhält dann die nachfolgend aufgelisteten Ereigniswahrscheinlichkeiten:
 
  
[[Datei:P_ID642__Sto_T_1_4_S5_neu.png | Zum Einschwingen der Ereigniswahrscheinlichkeiten]]
+
Es handelt sich hier im strengen Sinne um eine nichtstationäre Markovkette,&nbsp; die jedoch schon nach kurzer Zeit (nahezu) eingeschwungen ist:  
 +
*Zu späteren Zeiten&nbsp; $(ν > 5)$&nbsp; werden die Ereigniswahrscheinlichkeiten&nbsp; ${\rm Pr}(A_ν) \approx 1/4$&nbsp; und&nbsp; ${\rm Pr}(B_ν) \approx 3/4$&nbsp; nicht mehr gravierend verändert.  
 +
*Aus der Angabe&nbsp; ${\rm Pr}(A_{ν=5}) = 0.250$&nbsp; und&nbsp;  ${\rm Pr}(B_{ν=5}) = 0.750$&nbsp;  sollte allerdings  nicht geschlossen werden,&nbsp; dass die Markovkette zum Zeitpunkt&nbsp; $ν = 5$&nbsp;  schon vollkommen eingeschwungen ist.
 +
*Die exakten Werte sind nämlich&nbsp; ${\rm Pr}(A_{ν=5}) = 0.25024$&nbsp; und&nbsp; ${\rm Pr}(B_{ν=5}) = 0.74976$.}}
  
  
Es handelt sich hier im strengen Sinne um eine nichtstationäre Markovkette, die jedoch bereits nach sehr kurzer Zeit (nahezu) eingeschwungen ist. Zu späteren Zeitpunkten ( $ν >$ 5) werden die Ereigniswahrscheinlichkeiten Pr( $A_ν$) 1/4 und Pr( $B_ν$) ≈ 3/4 nicht mehr gravierend verändert.  
+
{{BlaueBox|TEXT= 
 +
$\text{Fazit:}$&nbsp; Bei einer stationären Markovkette treten sehr lange nach Einschalten der Kette&nbsp; $(ν → ∞)$&nbsp; mit guter Näherung stets die ergodischen Wahrscheinlichkeiten auf, unabhängig von den Startbedingungen&nbsp; ${\rm Pr}(A_0)$&nbsp; und&nbsp; ${\rm Pr}(B_0) = 1 - {\rm Pr}(A_0)$.
 +
}}
  
''Anmerkung:'' Aus der Angabe Pr( $A_ν=5$) = 0.250 bzw. Pr( $B_ν=5$) = 0.750 sollte nicht geschlossen werden, dass die Markovkette zum Zeitpunkt $ν$ = 5 schon vollkommen eingeschwungen ist. Die exakten Werte sind Pr( $A_ν=5$) = 0.25024 und Pr( $B_ν=5$) = 0.74976.
+
==Matrix-Vektordarstellung==
{{end}}
+
<br>
 
+
Homogene Markovketten können mit Vektoren und Matrizen sehr kompakt dargestellt werden.&nbsp; Dies empfiehlt sich insbesondere bei mehr als zwei Ereignissen:  
==Matrix-Vektordarstellung (1)==
+
:$$E_\nu \in G = \{ E_{\rm 1}, E_{\rm 2}, \hspace{0.1cm}\text{...}\hspace{0.1cm}, E_\mu , \hspace{0.1cm}\text{...}\hspace{0.1cm}, E_M \}.$$
Homogene Markovketten können mit Vektoren und Matrizen sehr kompakt dargestellt werden. Dies empfiehlt sich insbesondere, wenn mehr als zwei Ereignisse betrachtet werden:  
 
$$E_\nu \in G = \{ E_{\rm 1}, E_{\rm 2}, \hspace{0.1cm}...\hspace{0.1cm}, E_\mu , \hspace{0.1cm}...\hspace{0.1cm}, E_M \}.$$
 
 
Für die Matrix-Vektorendarstellung verwenden wir folgende Nomenklatur:  
 
Für die Matrix-Vektorendarstellung verwenden wir folgende Nomenklatur:  
*Die $M$ Wahrscheinlichkeiten zum Zeitpunkt $ν$ fasst man zu einem Spaltenvektor zusammen:
+
*Die&nbsp; $M$&nbsp; Wahrscheinlichkeiten zum Zeitpunkt&nbsp; $ν$&nbsp; fassen wir in einem Spaltenvektor zusammen:
$${\mathbf{p}^{(\nu)}} = \left[ \begin{array}{c} {p_{\rm 1}}^{(\nu)} \\ \multicolumn{1}{c} \dotfill \\ {p_{M}}^{(\nu)} \end{array} \right] \hspace{0.5cm}{\rm mit} \hspace{0.5cm} {p_{\mu}}^{(\nu)} = {\rm Pr}(E_\nu = E_\mu ).$$
+
:$${\mathbf{p}^{(\nu)}} = \left[ \begin{array}{c} {p_{\rm 1}}^{(\nu)} \\ \dots \\ {p_{M}}^{(\nu)} \end{array} \right] \hspace{0.5cm}{\rm mit} \hspace{0.5cm} {p_{\mu}}^{(\nu)} = {\rm Pr}(E_\nu = E_\mu ).$$
*Die Übergangswahrscheinlichkeiten werden durch eine $M$ x $M$-Matrix ausgedrückt:  
+
*Die Übergangswahrscheinlichkeiten werden durch eine&nbsp; $M \times M$-Matrix ausgedrückt:  
$${\mathbf{P}} =\left( p_{ij} \right) = \left[ \begin{array}{cccc} p_{11} & p_{12} & \cdots & p_{1M} \\ p_{21} & p_{22}& \cdots & p_{2M} \\ \multicolumn{4}{c} \dotfill \\ p_{M1} & p_{M2} & \cdots & p_{MM}  \end{array} \right] \hspace{0.5cm}{\rm mit} \hspace{0.5cm} {p_{ij}} = {\rm Pr}(E_{\nu +1 } = E_j \hspace{0.05cm}| \hspace{0.05cm} E_{\nu } = E_i).$$
+
:$${\mathbf{P}} =\left( p_{ij} \right) = \left[ \begin{array}{cccc} p_{11} & p_{12} & \cdots & p_{1M} \\ p_{21} & p_{22}& \cdots & p_{2M} \\ \dots & \dots & \dots & \dots \\ p_{M1} & p_{M2} & \cdots & p_{MM}  \end{array} \right] \hspace{0.5cm}{\rm mit} \hspace{0.5cm} {p_{ij}} = {\rm Pr}(E_{\nu +1 } = E_j \hspace{0.05cm}| \hspace{0.05cm} E_{\nu } = E_i).$$
 
 
  
 +
Die nebenstehende Abbildung verdeutlicht diese Nomenklatur am Beispiel&nbsp; $M = 2$.&nbsp; Der neue Ereigniswahrscheinlichkeitsvektor nach einem Schritt lautet:
 +
[[Datei:P_ID448__Sto_T_1_4_S6_neu.png  |frame|Zur Bezeichnung der Übergangswahrscheinlichkeiten |right]]
 +
:$${\mathbf{p}^{(\nu + 1)}} = {\mathbf{P}}^{\rm T} \cdot {\mathbf{p}^{(\nu )}} .$$
  
[[Datei:P_ID448__Sto_T_1_4_S6_neu.png |Zur Bezeichnung der Übergangswahrscheinlichkeiten |links]]
+
${\mathbf{P}^{\rm T}}$&nbsp; bezeichnet hierbei die zu&nbsp; $\mathbf{P}$&nbsp; "transponierte Matrix".&nbsp; Nach&nbsp; $n$&nbsp; Schritten ergibt sich somit
Die nebenstehende Abbildung verdeutlicht diese Nomenklatur am Beispiel $M =$ 2.
+
:$${\mathbf{p}^{(\nu +{\it n})}} = \left( {\mathbf{P}}^{\rm T} \right)^n \cdot {\mathbf{p}^{(\nu )}} .$$
  
 +
Im Grenzübergang&nbsp; $(n → ∞)$&nbsp; erreicht man dann stets die Stationarität der Markovkette:
 +
:$$\lim_{n \to\infty}\hspace{0.1cm}{\mathbf{p}^{(\nu + n)}} = \lim_{n \to\infty} \left( {\mathbf{P}}^{\rm T} \right)^n \cdot {\mathbf{p}^{(\nu )}}  = {\mathbf{p}}_{\rm erg}= \left[ \begin{array}{c} {p_{\rm 1}} \\ \dots \\ {p_{M}} \end{array} \right] .$$
  
 +
{{BlaueBox|TEXT= 
 +
$\text{Definition:}$&nbsp;
 +
*Multipliziert man die Übergangsmatrix&nbsp; ${\mathbf{P} }$&nbsp; unendlich oft mit sich selbst und benennt das Ergebnis mit&nbsp; ${\mathbf{P} }_{\rm erg}$, so besteht diese Matrix aus&nbsp; $M$&nbsp; gleichen Zeilen:
 +
:$${\mathbf{P} }_{\rm erg} = \lim_{n \to\infty}  {\mathbf{P} }^n = \left[ \begin{array}{cccc} p_{1} & p_{2} & \cdots & p_{M} \\ p_{1} & p_{2}& \cdots & p_{M} \\ \dots & \dots & \dots & \dots \\ p_{1} & p_{2} & \cdots & p_{M}  \end{array} \right] .$$
 +
*Die Wahrscheinlichkeiten&nbsp; $p_1, \hspace{0.15cm}\text{...}\hspace{0.1cm},\hspace{0.05cm} p_M$&nbsp; in jeder dieser Zeilen bezeichnet man als die&nbsp; '''ergodischen Wahrscheinlichkeiten'''. }}
  
  
 +
[[Datei:P_ID1445__Sto_T_1_4_S6c_neu.png | right|frame|Markovdiagramm mit drei Ereignissen]]
 +
{{GraueBox|TEXT= 
 +
$\text{Beispiel 5:}$&nbsp; Wir betrachten beispelhaft eine Markovkette mit den Ereignissen&nbsp; $E_1,\ E_2$&nbsp; und&nbsp; $E_3$ &nbsp; &rArr; &nbsp; $M=3$.&nbsp; Die Grafik zeigt
 +
*links das Markovdiagramm,
 +
*rechts oben die Übergangsmatrix&nbsp; $\mathbf{P}$ und
 +
*darunter deren Potenzen&nbsp; $\mathbf{P}^2$&nbsp; und&nbsp; $\mathbf{P}^3$.
  
  
 +
Im Markovdiagramm sind alle Übergangswahrscheinlichkeiten mit dem Zahlenwert&nbsp; $1/2$&nbsp; blau eingezeichnet;&nbsp; grün kennzeichnet die Wahrscheinlichkeit&nbsp; $1/4$.
 +
*Beim Start&nbsp; $(ν =0)$&nbsp; seien alle Ereignisse gleichwahrscheinlich.&nbsp; Für&nbsp; $ν = 1$&nbsp; gilt dann:
 +
:$${\mathbf{p}^{(1)} } = {\mathbf{P} }^{\rm T} \cdot {\mathbf{p}^{(0 )} }= \left[ \begin{array}{ccc} 1/2 & 1/2&  1/2 \\ 1/4 & 0 & 1/2  \\ 1/4& 1/2& 0  \end{array} \right] \left[ \begin{array}{c} 1/3 \\ 1/3  \\ 1/3  \end{array} \right] = \left[ \begin{array}{c} 1/2 \\ 1/4  \\ 1/4  \end{array} \right] .$$
 +
:Hieraus ist zu ersehen,&nbsp; dass man von der Matrix&nbsp;  $\mathbf{P}$&nbsp; durch den Austausch der Zeilen und Spalten zur transponierten Matrix&nbsp; ${\mathbf{P}^{\rm T} }$&nbsp; kommt.
 +
*Zum Zeitpunkt&nbsp; $ν =2$&nbsp; (und auch zu allen späteren Zeiten)&nbsp; ergeben sich die gleichen Wahrscheinlichkeiten:
 +
:$${\mathbf{p}^{(2)} } = {\mathbf{P} }^{\rm T} \cdot {\mathbf{p}^{(1 )} }= \left[ \begin{array}{ccc} 1/2 & 1/2&  1/2 \\ 1/4 & 0 & 1/2  \\ 1/4& 1/2& 0  \end{array} \right] \left[ \begin{array}{c} 1/2 \\ 1/4  \\ 1/4  \end{array} \right] = \left[ \begin{array}{c} 1/2 \\ 1/4  \\ 1/4  \end{array} \right] .$$
 +
:Das bedeutet:&nbsp; Die ergodischen Wahrscheinlichkeiten der drei Ereignisse sind&nbsp;  $1/2$&nbsp; $($für&nbsp; $E_1)$,&nbsp; $1/4$&nbsp; $($für&nbsp; $E_2)$,&nbsp; und $1/4$&nbsp; $($für&nbsp; $E_3)$.
 +
*Dieses Ergebnis hätte man auch direkt aus der ergodischen Matrix ablesen können:
 +
:$${\mathbf{P} }_{\rm erg} = \lim_{n \to\infty}  {\mathbf{P} }^n = \left[ \begin{array}{ccc} 1/2 & 1/4 & 1/4 \\ 1/2 & 1/4 & 1/4  \\ 1/2 & 1/4 & 1/4  \end{array} \right] .$$
  
Der neue Ereigniswahrscheinlichkeitsvektor nach einem Schritt lautet:
+
*Diese ergibt sich durch fortlaufende Multiplikation der Übergangsmatrix mit sich selbst.&nbsp; Im obigen Bild sind die Potenzen&nbsp;  $\mathbf{P}^2$&nbsp; und&nbsp; $\mathbf{P}^3$&nbsp; angegeben, die sich der Matrix&nbsp; $\mathbf{P}_{\rm erg}$&nbsp; annähern.}}
$${\mathbf{p}^{(\nu + 1)}} = {\mathbf{P}}^{\rm T} \cdot {\mathbf{p}^{(\nu )}} .$$
 
  
${\mathbf{P}^{\rm T}}$ bezeichnet hierbei die ''transponierte'' Matrix zu '''P'''. Nach $n$ Schritten ergibt sich somit
+
==Aufgaben zum Kapitel==
$${\mathbf{p}^{(\nu +{\it n})}} = \left( {\mathbf{P}}^{\rm T} \right)^n \cdot {\mathbf{p}^{(\nu )}} .$$
 
  
Im Grenzübergang ( $n → ∞$) erreicht man dann stets die Stationarität der Markovkette:
+
[[Aufgaben:1.6_Übergangswahrscheinlichkeiten|Aufgabe 1.6: Übergangswahrscheinlichkeiten]]
$$\lim_{n \to\infty}\hspace{0.1cm}{\mathbf{p}^{(\nu + n)}} = \lim_{n \to\infty} \left( {\mathbf{P}}^{\rm T} \right)^n \cdot {\mathbf{p}^{(\nu )}}  = {\mathbf{p}}_{\rm erg}= \left[ \begin{array}{c} {p_{\rm 1}} \\ \multicolumn{1}{c} \dotfill \\ {p_{M}} \end{array} \right] .$$
 
  
Die Wahrscheinlichkeiten $p_1, ... , p_M$ werden als die ergodischen Wahrscheinlichkeiten bezeichnet. Multipliziert man die Übergangsmatrix unendlich oft mit sich selbst und benennt das Ergebnis mit ${\mathbf{P}}_{\rm erg}$, so besteht die resultierende Matrix aus $M$ gleichen Spalten:
+
[[Aufgaben:1.6Z_Ergodische_Wahrscheinlichkeiten|Aufgabe 1.6Z: Ergodische Wahrscheinlichkeiten]]
$${\mathbf{P}}_{\rm erg} = \lim_{n \to\infty}  {\mathbf{P}}^n = \left[ \begin{array}{cccc} p_{1} & p_{2} & \cdots & p_{M} \\ p_{1} & p_{2}& \cdots & p_{M} \\ \multicolumn{4}{c} \dotfill \\ p_{1} & p_{2} & \cdots & p_{M}  \end{array} \right] .$$
 
  
 +
[[Aufgaben:1.7 Ternäre Markovkette|Aufgabe 1.7: Ternäre Markovkette]]
  
 +
[[Aufgaben:1.7Z_BARBARA-Generator|Aufgabe 1.7Z: BARBARA-Generator]]
  
  
 
{{Display}}
 
{{Display}}

Aktuelle Version vom 1. Dezember 2021, 16:26 Uhr

Betrachtetes Szenario


Wir betrachten nun den Fall,  dass man ein Zufallsexperiment fortlaufend durchführt und dass zu jedem diskreten Zeitpunkt  $(ν = 1, 2, 3, \text{...})$  ein neues Ereignis  $E_ν$  eintritt.  Hierbei soll gelten:

Mögliche Ereignisse und Ereignisfolge
$$E_\nu \in G = \{ E_{\rm 1}, E_{\rm 2}, \hspace{0.1cm}\text{...}\hspace{0.1cm}, E_\mu , \hspace{0.1cm}\text{...}\hspace{0.1cm}, E_M \}.$$

Diese mathematisch nicht ganz saubere Nomenklatur bedeutet  (siehe Grafik):

  • Die  $M$  möglichen Ereignisse werden mit dem Laufindex  $μ$  durchnummeriert.
  • Der Index  $ν$  benennt die diskreten Zeitpunkte,  zu denen Ereignisse auftreten.


Zur einfacheren Darstellung beschränken wir uns im Folgenden auf den Fall  $M = 2$  mit der Grundmenge  $G = \{ A, \ B \}$.  Weiter soll gelten:

  • Die Wahrscheinlichkeit des Ereignisses  $E_ν$  kann durchaus von allen vorherigen Ereignissen abhängen – also von den Ereignissen  $E_{ν\hspace{0.05cm}-1},\ E_{ν\hspace{0.05cm}-2},\ E_{ν\hspace{0.05cm}-3},$  usw.
  • Diese Aussage bedeutet auch,  dass wir in diesem Kapitel eine  Ereignisfolge mit inneren statistischen Bindungen  betrachten.


Dieses Szenario ist ein Sonderfall eines zeit- und wertdiskreten Zufallsprozesses, der im Kapitel  Zufallsprozesse   noch ausführlich behandelt wird.

$\text{Beispiel 1:}$  Aus einem Kartenstapel mit  $32$  Karten  (darunter vier Asse)  werden nacheinander Karten gezogen.  Mit den Ereignissen

  • $A\text{ :}=$  „die gezogene Karte ist ein Ass”,  und
  • $B = \overline{A}:=$  „die gezogene Karte ist kein Ass”  lauten die Wahrscheinlichkeiten zum Zeitpunkt  $ν = 1$:
$${\rm Pr} (A_{\rm 1}) ={4}/{32}= {1}/{8}, \hspace{0.5cm}{\rm Pr} (B_{\rm 1}) = {28}/{32}= {7}/{8}.$$

Die Wahrscheinlichkeit  ${\rm Pr} (A_{\rm 2})$,  dass als zweite Karte  $(ν = 2)$  ein Ass gezogen wird,  hängt nun davon ab,

  • ob zum Zeitpunkt  $ν = 1$  ein Ass gezogen wurde   ⇒   ${\rm Pr} (A_{\rm 2}) = 3/31 < 1/8$,  oder
  • ob zum Zeitpunkt  $ν = 1$  kein Ass gezogen wurde   ⇒   ${\rm Pr} (A_{\rm 2}) = 4/31 > 1/8$.


Auch die Wahrscheinlichkeiten  ${\rm Pr} (A_{\nu})$  zu späteren Zeitpunkten  $ν$   hängen stets vom Eintreffen bzw. Nichteintreffen aller vorherigen Ereignisse  $E_1, \hspace{0.1cm}\text{...}\hspace{0.1cm} ,E_{ν\hspace{0.05cm}–1}$  ab.

Allgemeine Definition einer Markovkette


In Sonderfällen, die allerdings sehr häufig vorkommen, kann das oben beschriebene Szenario durch eine Markovkette beschrieben werden.

$\text{Definition:}$  Eine  Markovkette  $k$-ter Ordnung  (englisch:  "Markov Chain")  dient als Modell für zeit- und wertdiskrete Vorgänge, bei denen die Ereigniswahrscheinlichkeiten zum Zeitpunkt  $ν$ 

  1.   von den vorherigen Ereignissen  $E_{ν\hspace{0.05cm}–1}, \hspace{0.1cm}\text{...}\hspace{0.1cm}, E_{ν\hspace{0.05cm}–k}$  abhängen,  und
  2.  durch  $M^{k+1}$  bedingte Wahrscheinlichkeiten ausgedrückt werden können.

Das Schaubild verdeutlicht diesen Sachverhalt am Beispiel  $k = 2$.

Markovkette zweiter Ordnung

Für  $M = 2$  gibt es deshalb  $2^{k+1}$  solche bedingten Wahrscheinlichkeiten. 

$${\rm Pr} ( E_\nu \hspace {0.05cm}\vert \hspace {0.05cm}E_{\nu {\rm -1 } },\hspace {0.15cm}\text{...}\hspace {0.15cm}, E_{\nu { -k } }).$$

Mit  $E_{\nu }\in \{ A, B \}, \hspace {0.1cm}\text{...}\hspace {0.15cm}, E_{\nu { -k } } \in \{ A, B \}$  lauten diese:

  • ${\rm Pr} ( A_\nu \hspace {0.05cm}\vert \hspace {0.05cm}A_{\nu {\rm -1 } }, A_{\nu { -2 } })$,     ${\rm Pr} ( B_\nu \hspace {0.05cm}\vert \hspace {0.05cm}A_{\nu {\rm -1 } }, A_{\nu { -2 } })$,  
  • ${\rm Pr} ( A_\nu \hspace {0.05cm}\vert \hspace {0.05cm}A_{\nu {\rm -1 } },B_{\nu { -2 } })$,     ${\rm Pr} ( B_\nu \hspace {0.05cm}\vert \hspace {0.05cm}A_{\nu {\rm -1 } }, B_{\nu { -2 } })$,  
  • ${\rm Pr} ( A_\nu \hspace {0.05cm}\vert \hspace {0.05cm}B_{\nu {\rm -1 } }, A_{\nu { -2 } })$,     ${\rm Pr} ( B_\nu \hspace {0.05cm}\vert \hspace {0.05cm}B_{\nu {\rm -1 } }, A_{\nu { -2 } })$,  
  • ${\rm Pr} ( A_\nu \hspace {0.05cm}\vert \hspace {0.05cm}B_{\nu {\rm -1 } }, B_{\nu { -2 } })$,     ${\rm Pr} ( B_\nu \hspace {0.05cm}\vert \hspace {0.05cm}B_{\nu {\rm -1 } }, B_{\nu { -2 } })$.


$\text{Beispiel 2:}$  Natürliche Sprachen sind oft durch Markovketten beschreibbar, wobei allerdings die Ordnung  $k$  gegen Unendlich strebt.  In diesem Beispiel werden Texte allerdings lediglich durch Markovketten zweiter Ordnung angenähert.

Synthetisch erzeugte Texte (deutsch und englisch)

Die Grafik zeigt beispielhaft zwei synthetisch erzeugte Texte:

  • Der linke Text wurde ausgehend von einer deutschen Buchvorlage mit Bindungen bis zu zweiter Ordnung synthetisch erzeugt.
  • Beim rechten Text wurde eine englische Vorlage verwendet.


Man erkennt trotz der Beschränkung auf  $k = 2$  viele (kurze) deutsche bzw. englische Wörter und auch,    dass deutsche Wörter im Mittel länger sind als englische. 

Es ergibt sich zwar kein sinnvoller Inhalt,  aber die Struktur der jeweiligen Sprache ist durchaus erkennbar.

Markovkette erster Ordnung


Im Folgenden beschränken wir uns stets auf den Sonderfall  $k =1$ .

$\text{Definition:}$ 

  • Bei einer  Markovkette erster Ordnung  (englisch:  "First Order Markov Chain")  wird lediglich die statistische Bindung zum letzten Ereignis berücksichtigt,  die in der Praxis meist auch am stärksten ist.
  • Eine binäre Markovkette erster Ordnung   ⇒   Grundmenge  $G = \{ A, \ B \}$  weist zum Zeitpunkt  $\nu$   folgende Ereigniswahrscheinlichkeiten auf:
$${\rm Pr}(A_\nu) = {\rm Pr}(A_\nu \hspace{0.05cm} \vert \hspace{0.05cm}A_{\nu - 1}) \cdot {\rm Pr}(A_{\nu - 1}) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(A_\nu \hspace{0.05cm} \vert \hspace{0.05cm}B_{\nu - 1}) \cdot {\rm Pr}(B_{\nu - 1}) ,$$
$${\rm Pr}(B_\nu) = {\rm Pr}(B_\nu \hspace{0.05cm} \vert \hspace{0.05cm}A_{\nu - 1}) \cdot {\rm Pr}(A_{\nu - 1}) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(B_\nu \hspace{0.05cm} \vert \hspace{0.05cm}B_{\nu - 1}) \cdot {\rm Pr}(B_{\nu - 1}) .$$


Zu diesen Gleichungen ist anzumerken:

  • ${\rm Pr}(A_\nu)$  steht als Abkürzung für die Wahrscheinlichkeit,  dass zur Zeit  $ν$   das Ereignis  $E_ν = A = \overline{B}$  auftritt,  und es gilt:
$${\rm Pr}(B_\nu) = 1 - {\rm Pr}(A_\nu).$$
  • Zu jedem Zeitpunkt gibt es vier Übergangswahrscheinlichkeiten  ${\rm Pr}(E_ν\hspace{0.05cm} |\hspace{0.05cm} E_{ν–1})$,  von denen jedoch nur zwei unabhängig sind,  denn es gilt:
$${\rm Pr}(B_\nu \hspace{0.05cm} | \hspace{0.05cm}A_{\nu - 1}) = 1 - {\rm Pr}(A_\nu \hspace{0.05cm} | \hspace{0.05cm}A_{\nu - 1}), \hspace{0.5cm}{\rm Pr}(A_\nu \hspace{0.05cm} | \hspace{0.05cm}B_{\nu - 1}) = 1 - {\rm Pr}(B_\nu \hspace{0.05cm} | \hspace{0.05cm}B_{\nu - 1}).$$
  • Durch Verallgemeinerung dieser letzten Aussage gelangt man zu dem Ergebnis,  dass es bei einer Markovkette mit  $M$ Ereignissen  zu jedem Zeitpunkt  $ν$   genau  $M · (M – 1)$  voneinander unabhängige Übergangswahrscheinlichkeiten gibt.


$\text{Beispiel 3:}$  Mit den vorgegebenen Übergangswahrscheinlichkeiten

$${\rm Pr}(A_ν\hspace{0.05cm}\vert\hspace{0.05cm} A_{ν–1}) = 0.2 \hspace{0.3cm}\text{und}\hspace{0.3cm} {\rm Pr}(B_ν\hspace{0.05cm} \vert\hspace{0.05cm} B_{ν–1}) = 0.4$$

sind auch die beiden anderen Übergangswahrscheinlichkeiten eindeutig festgelegt:

$${\rm Pr}(B_ν\hspace{0.05cm} \vert\hspace{0.05cm} A_{ν–1}) = 1- 0.2 = 0.8 \hspace{0.3cm}\text{und}\hspace{0.3cm} {\rm Pr}(A_ν\hspace{0.05cm} \vert\hspace{0.05cm} B_{ν–1}) = 1- 0.4 = 0.6.$$

Homogene Markovketten


Eine Anwendbarkeit der Markovketten auf praktische Probleme ist meist nur bei weiteren einschränkenden Voraussetzungen gegeben.

$\text{Definition:}$ 

  • Sind alle Übergangswahrscheinlichkeiten unabhängig vom betrachteten Zeitpunkt  $ν$,  so ist die Markovkette  homogen  (englisch:  "homogeneous").
  • Im Fall  $M = 2$  verwenden wir hierfür folgende Abkürzungen:
$${\rm Pr}(A \hspace{0.05cm} \vert \hspace{0.05cm}A) = {\rm Pr}(A_\nu \hspace{0.05cm}\vert \hspace{0.05cm}A_{\nu - 1}) , \hspace{0.5cm} {\rm Pr}(A \hspace{0.05cm} \vert\hspace{0.05cm}B) = {\rm Pr}(A_\nu \hspace{0.05cm} \vert \hspace{0.05cm}B_{\nu - 1}) ,$$
$${\rm Pr}(B \hspace{0.05cm} \vert\hspace{0.05cm}A) = {\rm Pr}(B_\nu \hspace{0.05cm} \vert \hspace{0.05cm}A_{\nu - 1}) , \hspace{0.5cm} {\rm Pr}(B \hspace{0.05cm} \vert \hspace{0.05cm}B) = {\rm Pr}(B_\nu \hspace{0.05cm} \vert \hspace{0.05cm}B_{\nu - 1}) .$$


Damit lauten die Ereigniswahrscheinlichkeiten einer binären homogenen Markovkette, die absolute Wahrscheinlichkeiten darstellen im Gegensatz zu den bedingten Übergangswahrscheinlichkeiten :

Homogene Markovkette erster Ordnung
$${\rm Pr}(A_\nu) = {\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}A) \cdot {\rm Pr}(A_{\nu - 1}) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B) \cdot {\rm Pr}(B_{\nu - 1}) ,$$
$${\rm Pr}(B_\nu) = {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) \cdot {\rm Pr}(A_{\nu - 1}) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}B) \cdot {\rm Pr}(B_{\nu - 1}) .$$

Auch aus dem Markovdiagramm kann man ablesen:

  • Die Summe der  abgehenden Pfeile  eines Ereignisses ist stets Eins:
$${\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}A) + {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) =1,$$
$${\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B) + {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}B) =1.$$
  • Für die Summen der  ankommenden Pfeile  gilt diese Einschränkung nicht:
$$ 0 < {\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}A) + {\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B)< 2,$$
$$0 < {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) + {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}B)< 2.$$

Sie können das „Einschwingverhalten” der Ereigniswahrscheinlichkeiten einer solchen binären Markovkette mit dem interaktiven SWF–Applet  Ereigniswahrscheinlichkeiten einer Markovkette erster Ordnung  berechnen und anzeigen lassen.

Stationäre Wahrscheinlichkeiten


Wichtige Eigenschaften von Zufallsprozessen sind  Stationarität  und  Ergodizität.  Obwohl diese Begriffe erst im vierten Hauptkapitel  „Zufallsgrößen mit statistischen Bindungen”  definiert werden,  wenden wir sie hier bereits vorausgreifend auf Markovketten an.

$\text{Definition:}$ 

  • Sind bei einer Markovkette neben den Übergangswahrscheinlichkeiten auch alle Ereigniswahrscheinlichkeiten unabhängig von der Zeit  $ν$,   so bezeichnet man die Markovkette als  stationär  (englisch:  "stationary").  Man verzichtet dann auf den Index  $ν$   und schreibt im binären Fall:
$${\rm Pr}(A_\nu ) = {\rm Pr}(A ) \hspace{0.5 cm} {\rm bzw.} \hspace{0.5 cm} {\rm Pr}(B_\nu ) = {\rm Pr}(B).$$
  • Diese Größen nennt man auch die  ergodischen Wahrscheinlichkeiten  der Markovkette.


Stationäre Markovketten weisen die nachfolgend genannten Besonderheiten auf:

  • Zur Berechnung der ergodischen Wahrscheinlichkeiten einer binären Markovkette  $(M =2)$  kann man folgende Gleichungen verwenden:
$${\rm Pr}(A) = {\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}A) \cdot {\rm Pr}(A) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B) \cdot {\rm Pr}(B) ,$$
$${\rm Pr}(B) = {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) \cdot {\rm Pr}(A) \hspace{0.1cm} + \hspace{0.1cm} {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}B) \cdot {\rm Pr}(B) .$$
  • Da diese Gleichungen linear voneinander abhängen,  darf man nur eine hiervon benutzen.  Als zweite Bestimmungsgleichung kann man beispielsweise verwenden:
$${\rm Pr}(A) + {\rm Pr}(B) = 1.$$
  • Die ergodischen Wahrscheinlichkeiten ergeben sich daraus zu
$${\rm Pr}(A) = \frac {{\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B) }{{\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B) + {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) }\hspace{0.1cm}, $$
$${\rm Pr}(B) = \frac {{\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) }{{\rm Pr}(A \hspace{0.05cm} | \hspace{0.05cm}B) + {\rm Pr}(B \hspace{0.05cm} | \hspace{0.05cm}A) }.$$

$\text{Beispiel 4:}$  Wir betrachten eine binäre Markovkette mit den Ereignissen  $A$  und $B$  und den Übergangswahrscheinlichkeiten  ${\rm Pr}(A \hspace{0.05cm} \vert\hspace{0.05cm}A) = 0.4$  und  ${\rm Pr}(B \hspace{0.05cm} \vert \hspace{0.05cm}B) = 0.8$.

Zum Einschwingen der Ereigniswahrscheinlichkeiten
  • Weiterhin setzen wir voraus,  dass jede Realisierung dieser Kette zum Startzeitpunkt  $ν = 0$   mit dem Ereignis  $A$  beginnt.
  • Man erhält dann die nachfolgend aufgelisteten Ereigniswahrscheinlichkeiten  (mit drei Nachkommastellen):


Es handelt sich hier im strengen Sinne um eine nichtstationäre Markovkette,  die jedoch schon nach kurzer Zeit (nahezu) eingeschwungen ist:

  • Zu späteren Zeiten  $(ν > 5)$  werden die Ereigniswahrscheinlichkeiten  ${\rm Pr}(A_ν) \approx 1/4$  und  ${\rm Pr}(B_ν) \approx 3/4$  nicht mehr gravierend verändert.
  • Aus der Angabe  ${\rm Pr}(A_{ν=5}) = 0.250$  und  ${\rm Pr}(B_{ν=5}) = 0.750$  sollte allerdings nicht geschlossen werden,  dass die Markovkette zum Zeitpunkt  $ν = 5$  schon vollkommen eingeschwungen ist.
  • Die exakten Werte sind nämlich  ${\rm Pr}(A_{ν=5}) = 0.25024$  und  ${\rm Pr}(B_{ν=5}) = 0.74976$.


$\text{Fazit:}$  Bei einer stationären Markovkette treten sehr lange nach Einschalten der Kette  $(ν → ∞)$  mit guter Näherung stets die ergodischen Wahrscheinlichkeiten auf, unabhängig von den Startbedingungen  ${\rm Pr}(A_0)$  und  ${\rm Pr}(B_0) = 1 - {\rm Pr}(A_0)$.

Matrix-Vektordarstellung


Homogene Markovketten können mit Vektoren und Matrizen sehr kompakt dargestellt werden.  Dies empfiehlt sich insbesondere bei mehr als zwei Ereignissen:

$$E_\nu \in G = \{ E_{\rm 1}, E_{\rm 2}, \hspace{0.1cm}\text{...}\hspace{0.1cm}, E_\mu , \hspace{0.1cm}\text{...}\hspace{0.1cm}, E_M \}.$$

Für die Matrix-Vektorendarstellung verwenden wir folgende Nomenklatur:

  • Die  $M$  Wahrscheinlichkeiten zum Zeitpunkt  $ν$  fassen wir in einem Spaltenvektor zusammen:
$${\mathbf{p}^{(\nu)}} = \left[ \begin{array}{c} {p_{\rm 1}}^{(\nu)} \\ \dots \\ {p_{M}}^{(\nu)} \end{array} \right] \hspace{0.5cm}{\rm mit} \hspace{0.5cm} {p_{\mu}}^{(\nu)} = {\rm Pr}(E_\nu = E_\mu ).$$
  • Die Übergangswahrscheinlichkeiten werden durch eine  $M \times M$-Matrix ausgedrückt:
$${\mathbf{P}} =\left( p_{ij} \right) = \left[ \begin{array}{cccc} p_{11} & p_{12} & \cdots & p_{1M} \\ p_{21} & p_{22}& \cdots & p_{2M} \\ \dots & \dots & \dots & \dots \\ p_{M1} & p_{M2} & \cdots & p_{MM} \end{array} \right] \hspace{0.5cm}{\rm mit} \hspace{0.5cm} {p_{ij}} = {\rm Pr}(E_{\nu +1 } = E_j \hspace{0.05cm}| \hspace{0.05cm} E_{\nu } = E_i).$$

Die nebenstehende Abbildung verdeutlicht diese Nomenklatur am Beispiel  $M = 2$.  Der neue Ereigniswahrscheinlichkeitsvektor nach einem Schritt lautet:

Zur Bezeichnung der Übergangswahrscheinlichkeiten
$${\mathbf{p}^{(\nu + 1)}} = {\mathbf{P}}^{\rm T} \cdot {\mathbf{p}^{(\nu )}} .$$

${\mathbf{P}^{\rm T}}$  bezeichnet hierbei die zu  $\mathbf{P}$  "transponierte Matrix".  Nach  $n$  Schritten ergibt sich somit

$${\mathbf{p}^{(\nu +{\it n})}} = \left( {\mathbf{P}}^{\rm T} \right)^n \cdot {\mathbf{p}^{(\nu )}} .$$

Im Grenzübergang  $(n → ∞)$  erreicht man dann stets die Stationarität der Markovkette:

$$\lim_{n \to\infty}\hspace{0.1cm}{\mathbf{p}^{(\nu + n)}} = \lim_{n \to\infty} \left( {\mathbf{P}}^{\rm T} \right)^n \cdot {\mathbf{p}^{(\nu )}} = {\mathbf{p}}_{\rm erg}= \left[ \begin{array}{c} {p_{\rm 1}} \\ \dots \\ {p_{M}} \end{array} \right] .$$

$\text{Definition:}$ 

  • Multipliziert man die Übergangsmatrix  ${\mathbf{P} }$  unendlich oft mit sich selbst und benennt das Ergebnis mit  ${\mathbf{P} }_{\rm erg}$, so besteht diese Matrix aus  $M$  gleichen Zeilen:
$${\mathbf{P} }_{\rm erg} = \lim_{n \to\infty} {\mathbf{P} }^n = \left[ \begin{array}{cccc} p_{1} & p_{2} & \cdots & p_{M} \\ p_{1} & p_{2}& \cdots & p_{M} \\ \dots & \dots & \dots & \dots \\ p_{1} & p_{2} & \cdots & p_{M} \end{array} \right] .$$
  • Die Wahrscheinlichkeiten  $p_1, \hspace{0.15cm}\text{...}\hspace{0.1cm},\hspace{0.05cm} p_M$  in jeder dieser Zeilen bezeichnet man als die  ergodischen Wahrscheinlichkeiten.


Markovdiagramm mit drei Ereignissen

$\text{Beispiel 5:}$  Wir betrachten beispelhaft eine Markovkette mit den Ereignissen  $E_1,\ E_2$  und  $E_3$   ⇒   $M=3$.  Die Grafik zeigt

  • links das Markovdiagramm,
  • rechts oben die Übergangsmatrix  $\mathbf{P}$ und
  • darunter deren Potenzen  $\mathbf{P}^2$  und  $\mathbf{P}^3$.


Im Markovdiagramm sind alle Übergangswahrscheinlichkeiten mit dem Zahlenwert  $1/2$  blau eingezeichnet;  grün kennzeichnet die Wahrscheinlichkeit  $1/4$.

  • Beim Start  $(ν =0)$  seien alle Ereignisse gleichwahrscheinlich.  Für  $ν = 1$  gilt dann:
$${\mathbf{p}^{(1)} } = {\mathbf{P} }^{\rm T} \cdot {\mathbf{p}^{(0 )} }= \left[ \begin{array}{ccc} 1/2 & 1/2& 1/2 \\ 1/4 & 0 & 1/2 \\ 1/4& 1/2& 0 \end{array} \right] \left[ \begin{array}{c} 1/3 \\ 1/3 \\ 1/3 \end{array} \right] = \left[ \begin{array}{c} 1/2 \\ 1/4 \\ 1/4 \end{array} \right] .$$
Hieraus ist zu ersehen,  dass man von der Matrix  $\mathbf{P}$  durch den Austausch der Zeilen und Spalten zur transponierten Matrix  ${\mathbf{P}^{\rm T} }$  kommt.
  • Zum Zeitpunkt  $ν =2$  (und auch zu allen späteren Zeiten)  ergeben sich die gleichen Wahrscheinlichkeiten:
$${\mathbf{p}^{(2)} } = {\mathbf{P} }^{\rm T} \cdot {\mathbf{p}^{(1 )} }= \left[ \begin{array}{ccc} 1/2 & 1/2& 1/2 \\ 1/4 & 0 & 1/2 \\ 1/4& 1/2& 0 \end{array} \right] \left[ \begin{array}{c} 1/2 \\ 1/4 \\ 1/4 \end{array} \right] = \left[ \begin{array}{c} 1/2 \\ 1/4 \\ 1/4 \end{array} \right] .$$
Das bedeutet:  Die ergodischen Wahrscheinlichkeiten der drei Ereignisse sind  $1/2$  $($für  $E_1)$,  $1/4$  $($für  $E_2)$,  und $1/4$  $($für  $E_3)$.
  • Dieses Ergebnis hätte man auch direkt aus der ergodischen Matrix ablesen können:
$${\mathbf{P} }_{\rm erg} = \lim_{n \to\infty} {\mathbf{P} }^n = \left[ \begin{array}{ccc} 1/2 & 1/4 & 1/4 \\ 1/2 & 1/4 & 1/4 \\ 1/2 & 1/4 & 1/4 \end{array} \right] .$$
  • Diese ergibt sich durch fortlaufende Multiplikation der Übergangsmatrix mit sich selbst.  Im obigen Bild sind die Potenzen  $\mathbf{P}^2$  und  $\mathbf{P}^3$  angegeben, die sich der Matrix  $\mathbf{P}_{\rm erg}$  annähern.

Aufgaben zum Kapitel

Aufgabe 1.6: Übergangswahrscheinlichkeiten

Aufgabe 1.6Z: Ergodische Wahrscheinlichkeiten

Aufgabe 1.7: Ternäre Markovkette

Aufgabe 1.7Z: BARBARA-Generator