Stochastische Signaltheorie/Zweidimensionale Zufallsgrößen: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
(7 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 8: Zeile 8:
 
== # ÜBERBLICK ZUM VIERTEN HAUPTKAPITEL # ==
 
== # ÜBERBLICK ZUM VIERTEN HAUPTKAPITEL # ==
 
<br>
 
<br>
Nun werden Zufallsgrößen mit statistischen Bindungen behandelt und anhand typischer Beispiele verdeutlicht.&nbsp; Nach der allgemeinen Beschreibung zweidimensionaler Zufallsgrößen wenden wir uns der Autokorrelationsfunktion&nbsp; (AKF),&nbsp; der Kreuzkorrelationsfunktion&nbsp; (KKF)&nbsp; und den zugehörigen Spektralfunktionen&nbsp; (LDS, KLDS)&nbsp; zu.
+
Nun werden Zufallsgrößen mit statistischen Bindungen behandelt und anhand typischer Beispiele verdeutlicht.&nbsp;  
 +
 
 +
Nach der allgemeinen Beschreibung zweidimensionaler Zufallsgrößen wenden wir uns folgenden Beschreibungsgrößen zu:
 +
 
 +
#der Autokorrelationsfunktion&nbsp; (AKF),&nbsp;  
 +
#der Kreuzkorrelationsfunktion&nbsp; (KKF),&nbsp;  
 +
#den zugehörigen Spektralfunktionen&nbsp; (Leistungsdichtespektrum, Kreuzleistungsdichtespektrum).
 +
 
  
 
Im Einzelnen werden behandelt:
 
Im Einzelnen werden behandelt:
  
*die statistische Beschreibung von ''2D–Zufallsgrößen''&nbsp; mit Hilfe der (Verbund–)WDF,
+
*die statistische Beschreibung von&nbsp; &raquo;2D–Zufallsgrößen&laquo;&nbsp; mit Hilfe der Verbund–WDF,
*der Unterschied zwischen ''statistischer Abhängigkeit''&nbsp; und ''Korrelation'',
+
*der Unterschied zwischen&nbsp; &raquo;statistischer Abhängigkeit&laquo;&nbsp; und&nbsp; &raquo;Korrelation&laquo;,
*die Klassifizierungsmerkmale ''Stationarität''&nbsp; und ''Ergodizität''&nbsp; stochastischer Prozesse,
+
*die Klassifizierungsmerkmale&nbsp; &raquo;Stationarität&laquo;&nbsp; und&nbsp; &raquo;Ergodizität&laquo;&nbsp; stochastischer Prozesse,
* die Definitionen von ''Autokorrelationsfunktion''&nbsp; (AKF) und ''Leistungsdichtespektrum''&nbsp; (LDS),
+
* die Definitionen von&nbsp; &raquo;Autokorrelationsfunktion&laquo;&nbsp; $\rm (AKF)$&nbsp; und&nbsp; &raquo;Leistungsdichtespektrum&laquo;&nbsp; $\rm (LDS)$,
*die Definitionen von ''Kreuzkorrelationsfunktion''&nbsp; und ''Kreuzleistungsdichtespektrum'', und
+
*die Definitionen von&nbsp; &raquo;Kreuzkorrelationsfunktion&laquo;&nbsp; und&nbsp; &raquo;Kreuzleistungsdichtespektrum&laquo;,  
 
*die numerische Ermittlung all dieser Größen im zwei– und mehrdimensionalen Fall.
 
*die numerische Ermittlung all dieser Größen im zwei– und mehrdimensionalen Fall.
  
Zeile 36: Zeile 43:
 
==Eigenschaften und Beispiele==
 
==Eigenschaften und Beispiele==
 
<br>
 
<br>
Als Überleitung zu den&nbsp; [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)|Korrelationsfunktionen]]&nbsp; betrachten wir nun zwei Zufallsgrößen&nbsp; $x$&nbsp; und&nbsp; $y$,&nbsp; zwischen denen statistische Abhängigkeiten bestehen.&nbsp; Jede der beiden Zufallsgrößen kann für sich alleine beschrieben werden mit den eingeführten Kenngrößen  
+
Als Überleitung zu den&nbsp; [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)|Korrelationsfunktionen]]&nbsp; betrachten wir nun zwei Zufallsgrößen&nbsp; $x$&nbsp; und&nbsp; $y$,&nbsp; zwischen denen statistische Abhängigkeiten bestehen.&nbsp;  
 +
 
 +
Jede der beiden Zufallsgrößen kann für sich alleine beschrieben werden mit den eingeführten Kenngrößen  
 
*entsprechend dem zweiten Hauptkapitel &nbsp; &rArr; &nbsp;[[Stochastische_Signaltheorie/Vom_Zufallsexperiment_zur_Zufallsgröße#.23_.C3.9CBERBLICK_ZUM_ZWEITEN_HAUPTKAPITEL_.23|Diskrete Zufallsgrößen]] &nbsp;   
 
*entsprechend dem zweiten Hauptkapitel &nbsp; &rArr; &nbsp;[[Stochastische_Signaltheorie/Vom_Zufallsexperiment_zur_Zufallsgröße#.23_.C3.9CBERBLICK_ZUM_ZWEITEN_HAUPTKAPITEL_.23|Diskrete Zufallsgrößen]] &nbsp;   
 
*bzw. dem dritten Hauptkapitel &nbsp; &rArr; &nbsp;  [[Stochastische_Signaltheorie/Wahrscheinlichkeitsdichtefunktion#.23_.C3.9CBERBLICK_ZUM_DRITTEN_HAUPTKAPITEL_.23|Kontinuierliche Zufallsgrößen]].   
 
*bzw. dem dritten Hauptkapitel &nbsp; &rArr; &nbsp;  [[Stochastische_Signaltheorie/Wahrscheinlichkeitsdichtefunktion#.23_.C3.9CBERBLICK_ZUM_DRITTEN_HAUPTKAPITEL_.23|Kontinuierliche Zufallsgrößen]].   
Zeile 42: Zeile 51:
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Zur Beschreibung der Wechselbeziehungen zwischen zwei Größen&nbsp; $x$ &nbsp;und&nbsp; $y$&nbsp; ist es zweckmäßig, die beiden Komponenten zu einer&nbsp; '''zweidimensionalen Zufallsgröße'''&nbsp; $(x, y)$ &nbsp;zusammenzufassen.  
+
$\text{Definition:}$&nbsp; Zur Beschreibung der Wechselbeziehungen zwischen zwei Größen&nbsp; $x$ &nbsp;und&nbsp; $y$&nbsp; ist es zweckmäßig,&nbsp; die beiden Komponenten zu einer&nbsp; '''zweidimensionalen Zufallsgröße'''&nbsp; $(x, y)$ &nbsp;zusammenzufassen.  
 
*Die Einzelkomponenten können Signale sein wie der Real&ndash; und Imaginärteil eines phasenmodulierten Signals.  
 
*Die Einzelkomponenten können Signale sein wie der Real&ndash; und Imaginärteil eines phasenmodulierten Signals.  
*Aber es gibt auch in anderen Bereichen eine Vielzahl von 2D&ndash;Zufallsgrößen, wie das folgende Beispiel zeigen soll.}}  
+
*Aber es gibt auch in anderen Bereichen eine Vielzahl von 2D&ndash;Zufallsgrößen,&nbsp; wie das folgende Beispiel zeigen soll.}}  
  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 1:}$&nbsp; Das linke Diagramm stammt von dem Zufallsexperiment&nbsp; &bdquo;Werfen mit zwei Würfeln&rdquo;.&nbsp; Nach rechts aufgetragen ist die Augenzahl des ersten Würfels&nbsp; $(W_1)$,&nbsp; nach oben die Summe&nbsp; $S$&nbsp; beider Würfel.&nbsp; Die beiden Komponenten sind hier jeweils diskrete Zufallsgrößen, zwischen denen statistische Bindungen bestehen:  
+
$\text{Beispiel 1:}$&nbsp; Das linke Diagramm stammt von dem Zufallsexperiment&nbsp; &bdquo;Werfen mit zwei Würfeln&rdquo;.&nbsp; Nach rechts aufgetragen ist die Augenzahl des ersten Würfels&nbsp; $(W_1)$,&nbsp; nach oben die Summe&nbsp; $S$&nbsp; beider Würfel.&nbsp; Die beiden Komponenten sind hier jeweils diskrete Zufallsgrößen,&nbsp; zwischen denen statistische Bindungen bestehen:  
*Ist&nbsp; $W_1 = 1$, so kann&nbsp; $S$&nbsp; nur Werte zwischen&nbsp; $2$&nbsp; und&nbsp; $7$&nbsp; annehmen und zwar mit jeweils gleicher Warscheinlichkeit.
 
*Dagegen sind bei&nbsp; $W_1 = 6$&nbsp; für&nbsp; $S$&nbsp; alle Werte zwischen&nbsp; $7$&nbsp; und&nbsp; $12$&nbsp; möglich, ebenfalls mit gleicher Warscheinlichkeit.
 
 
 
 
[[Datei: P_ID162__Sto_T_4_1_S1_neu.png |frame| Zwei Beispiele statistisch abhängiger Zufallsgrößen]]
 
[[Datei: P_ID162__Sto_T_4_1_S1_neu.png |frame| Zwei Beispiele statistisch abhängiger Zufallsgrößen]]
  
 +
*Ist&nbsp; $W_1 = 1$,&nbsp; so kann&nbsp; $S$&nbsp; nur Werte zwischen&nbsp; $2$&nbsp; und&nbsp; $7$&nbsp; annehmen und zwar mit jeweils gleicher Warscheinlichkeit.
 +
*Dagegen sind bei&nbsp; $W_1 = 6$&nbsp; für&nbsp; $S$&nbsp; alle Werte zwischen&nbsp; $7$&nbsp; und&nbsp; $12$&nbsp; möglich,&nbsp; ebenfalls mit gleicher Warscheinlichkeit.
  
  
In der rechten Grafik sind die Maximaltemperaturen der&nbsp; $31$ Tage im Mai 2002 von München (nach oben) und der Zugspitze (nach rechts) gegenübergestellt. Beide Zufallsgrößen sind wertkontinuierlich:  
+
In der rechten Grafik sind die Maximaltemperaturen der&nbsp; $31$ Tage im Mai 2002 von München (nach oben) und der Zugspitze (nach rechts) gegenübergestellt.&nbsp; Beide Zufallsgrößen sind wertkontinuierlich:  
*Obwohl die Messpunkte etwa&nbsp; $\text{100 km}$&nbsp; auseinander liegen und es auf der Zugspitze aufgrund der unterschiedlichen Höhenlagen &nbsp;$($knapp&nbsp; $3000$&nbsp; gegenüber&nbsp; $520$&nbsp; Meter$)$&nbsp; im Mittel um etwa&nbsp; $20$&nbsp; Grad kälter ist als in München, erkennt man doch eine gewisse statistische Abhängigkeit zwischen den beiden Zufallsgrößen&nbsp; ${\it Θ}_{\rm M}$&nbsp; und&nbsp; ${\it Θ}_{\rm Z}$.  
+
*Obwohl die Messpunkte etwa&nbsp; $\text{100 km}$&nbsp; auseinander liegen und es auf der Zugspitze aufgrund der unterschiedlichen Höhenlagen &nbsp;$($knapp&nbsp; $3000$&nbsp; gegenüber&nbsp; $520$&nbsp; Meter$)$&nbsp; im Mittel um etwa&nbsp; $20$&nbsp; Grad kälter ist als in München,&nbsp; erkennt man doch eine gewisse statistische Abhängigkeit zwischen den beiden Zufallsgrößen&nbsp; ${\it Θ}_{\rm M}$&nbsp; und&nbsp; ${\it Θ}_{\rm Z}$.  
*Ist es in München warm, dann sind auch auf der Zugspitze eher angenehme Temperaturen zu erwarten.&nbsp; Der Zusammenhang ist aber nicht deterministisch:&nbsp; Der kälteste Tag im Mai 2002 war in München ein anderer als der kälteste Tag auf der Zugspitze. }}
+
*Ist es in München warm,&nbsp; dann sind auch auf der Zugspitze eher angenehme Temperaturen zu erwarten.&nbsp; Der Zusammenhang ist aber nicht deterministisch:&nbsp; Der kälteste Tag im Mai 2002 war in München ein anderer als der kälteste Tag auf der Zugspitze. }}
  
 
==Verbundwahrscheinlichkeitsdichtefunktion==
 
==Verbundwahrscheinlichkeitsdichtefunktion==
 
<br>
 
<br>
Wir beschränken uns hier meist auf kontinuierliche Zufallsgrößen. Manchmal wird jedoch auch auf die Besonderheiten zweidimensionaler diskreter Zufallsgrößen genauer eingegangen.  
+
Wir beschränken uns hier meist auf kontinuierliche Zufallsgrößen.&nbsp;
 +
*Manchmal wird jedoch auch auf die Besonderheiten zweidimensionaler diskreter Zufallsgrößen genauer eingegangen.&nbsp;
 +
*Die meisten der vorher für eindimensionale Zufallsgrößen definierten Kenngrößen kann man problemlos auf zweidimensionale Größen erweitern.  
  
Die meisten der vorher für eindimensionale Zufallsgrößen definierten Kenngrößen kann man problemlos auf zweidimensionale Größen erweitern.
 
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
 
$\text{Definition:}$&nbsp;  
 
$\text{Definition:}$&nbsp;  
Die Wahrscheinlichkeitsdichtefunktion der zweidimensionalen Zufallsgröße an der Stelle $(x_\mu, y_\mu)$, die man auch als '''Verbundwahrscheinlichkeitsdichtefunktion''' bezeichnet, ist eine Erweiterung der eindimensionalen WDF ($∩$ kennzeichnet die logische UND-Verknüpfung):  
+
Die Wahrscheinlichkeitsdichtefunktion der zweidimensionalen Zufallsgröße an der Stelle&nbsp; $(x_\mu, y_\mu)$ &nbsp; &rArr; &nbsp; '''Verbundwahrscheinlichkeitsdichtefunktion'''&nbsp;  ist eine Erweiterung der eindimensionalen WDF&nbsp; $(∩$&nbsp; kennzeichnet die logische UND-Verknüpfung$)$:  
 
:$$f_{xy}(x_\mu, \hspace{0.1cm}y_\mu) =  \lim_{\left.{\Delta x\rightarrow 0 \atop {\Delta y\rightarrow 0} }\right.}\frac{ {\rm Pr}\big [ (x_\mu - {\rm \Delta} x/{\rm 2} \le x  \le x_\mu  + {\rm \Delta} x/{\rm 2}) \cap (y_\mu - {\rm \Delta} y/{\rm 2} \le y \le y_\mu +{\rm \Delta}y/{\rm 2}) \big]  }{ {\rm \Delta} \ x\cdot{\rm \Delta} y}.$$
 
:$$f_{xy}(x_\mu, \hspace{0.1cm}y_\mu) =  \lim_{\left.{\Delta x\rightarrow 0 \atop {\Delta y\rightarrow 0} }\right.}\frac{ {\rm Pr}\big [ (x_\mu - {\rm \Delta} x/{\rm 2} \le x  \le x_\mu  + {\rm \Delta} x/{\rm 2}) \cap (y_\mu - {\rm \Delta} y/{\rm 2} \le y \le y_\mu +{\rm \Delta}y/{\rm 2}) \big]  }{ {\rm \Delta} \ x\cdot{\rm \Delta} y}.$$
 
$\rm Hinweis$:
 
$\rm Hinweis$:
 
*Ist die 2D&ndash;Zufallsgröße diskret, so muss die Definition geringfügig modifiziert werden:  
 
*Ist die 2D&ndash;Zufallsgröße diskret, so muss die Definition geringfügig modifiziert werden:  
*Bei den jeweils unteren Bereichsgrenzen ist gemäß der Seite  [[Stochastische_Signaltheorie/Verteilungsfunktion#Verteilungsfunktion_bei_diskreten_Zufallsgr.C3.B6.C3.9Fen|Verteilungsfunktion bei diskreten Zufallsgrößen]]  das „≤”–Zeichen durch das „<”–Zeichen zu ersetzen.}}
+
*Bei den unteren Bereichsgrenzen ist dann gemäß der Seite&nbsp; [[Stochastische_Signaltheorie/Verteilungsfunktion#Verteilungsfunktion_bei_diskreten_Zufallsgr.C3.B6.C3.9Fen|Verteilungsfunktion bei diskreten Zufallsgrößen]]&nbsp; das „≤”–Zeichen durch das „<”–Zeichen zu ersetzen.}}
  
  
Anhand dieser (Verbund)–WDF $f_{xy}(x, y)$ werden auch statistische Abhängigkeiten innerhalb der zweidimensionalen Zufallsgröße $(x, y)$ vollständig erfasst im Gegensatz zu den beiden eindimensionalen Dichtefunktionen &nbsp; ⇒ &nbsp; '''Randwahrscheinlichkeitsdichtefunktionen''':  
+
Anhand dieser (Verbund)–WDF&nbsp; $f_{xy}(x, y)$&nbsp; werden auch statistische Abhängigkeiten innerhalb der zweidimensionalen Zufallsgröße&nbsp; $(x, y)$&nbsp; vollständig erfasst im Gegensatz zu den beiden eindimensionalen Dichtefunktionen &nbsp; ⇒ &nbsp; '''Randwahrscheinlichkeitsdichtefunktionen''':  
 
:$$f_{x}(x) = \int _{-\infty}^{+\infty} f_{xy}(x,y) \,\,{\rm d}y  ,$$
 
:$$f_{x}(x) = \int _{-\infty}^{+\infty} f_{xy}(x,y) \,\,{\rm d}y  ,$$
 
:$$f_{y}(y) = \int_{-\infty}^{+\infty} f_{xy}(x,y) \,\,{\rm d}x  .$$
 
:$$f_{y}(y) = \int_{-\infty}^{+\infty} f_{xy}(x,y) \,\,{\rm d}x  .$$
  
Diese beiden Randdichtefunktionen $f_x(x)$ und $f_y(y)$  
+
Diese beiden Randdichtefunktionen&nbsp; $f_x(x)$&nbsp; und&nbsp; $f_y(y)$  
*liefern lediglich statistische Aussagen über die Einzelkomponenten $x$ bzw. $y$,  
+
*liefern lediglich statistische Aussagen über die Einzelkomponenten&nbsp; $x$&nbsp; bzw.&nbsp; $y$,  
 
*nicht jedoch über die Bindungen zwischen diesen.  
 
*nicht jedoch über die Bindungen zwischen diesen.  
  
Zeile 87: Zeile 96:
 
<br>
 
<br>
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Die '''2D-Verteilungsfunktion''' ist ebenso wie die 2D-WDF lediglich eine sinnvolle Erweiterung der [[Stochastische_Signaltheorie/Verteilungsfunktion_(VTF)#VTF_bei_kontinuierlichen_Zufallsgr.C3.B6.C3.9Fen_.281.29|eindimensionalen Verteilungsfunktion]]  (VTF):  
+
$\text{Definition:}$&nbsp; Die&nbsp; '''2D-Verteilungsfunktion'''&nbsp; ist ebenso wie die 2D-WDF lediglich eine sinnvolle Erweiterung der&nbsp; [[Stochastische_Signaltheorie/Verteilungsfunktion_(VTF)#VTF_bei_kontinuierlichen_Zufallsgr.C3.B6.C3.9Fen_.281.29|eindimensionalen Verteilungsfunktion]]&nbsp; (VTF):  
 
:$$F_{xy}(r_{x},r_{y}) = {\rm Pr}\big [(x \le r_{x}) \cap (y \le r_{y}) \big ]  .$$}}
 
:$$F_{xy}(r_{x},r_{y}) = {\rm Pr}\big [(x \le r_{x}) \cap (y \le r_{y}) \big ]  .$$}}
  
  
Es ergeben sich folgende Gemeinsamkeiten und Unterschiede zwischen der 1D-VTF und der 2D-VTF:
+
Es ergeben sich folgende Gemeinsamkeiten und Unterschiede zwischen der&nbsp; "1D-VTF"&nbsp; und der&nbsp; "2D-VTF":
*Der Funktionalzusammenhang zwischen zweidimensionaler WDF und zweidimensionaler VTF ist wie im eindimensionalen Fall durch die Integration gegeben, aber nun in zwei Dimensionen. Bei kontinuierlichen Zufallsgrößen gilt:  
+
*Der Funktionalzusammenhang zwischen zweidimensionaler WDF und zweidimensionaler VTF ist wie im eindimensionalen Fall durch die Integration gegeben,&nbsp; aber nun in zwei Dimensionen.&nbsp; Bei kontinuierlichen Zufallsgrößen gilt:  
 
:$$F_{xy}(r_{x},r_{y})=\int_{-\infty}^{r_{y}} \int_{-\infty}^{r_{x}} f_{xy}(x,y) \,\,{\rm d}x \,\, {\rm d}y  .$$
 
:$$F_{xy}(r_{x},r_{y})=\int_{-\infty}^{r_{y}} \int_{-\infty}^{r_{x}} f_{xy}(x,y) \,\,{\rm d}x \,\, {\rm d}y  .$$
*Umgekehrt lässt sich die Wahrscheinlichkeitsdichtefunktion aus der Verteilungsfunktion durch partielle Differentiation nach $r_{x}$ und $r_{y}$ angeben:
+
*Umgekehrt lässt sich die Wahrscheinlichkeitsdichtefunktion aus der Verteilungsfunktion durch partielle Differentiation nach&nbsp; $r_{x}$&nbsp; und&nbsp; $r_{y}$&nbsp; angeben:
 
:$$f_{xy}(x,y)=\frac{{\rm d}^{\rm 2} F_{xy}(r_{x},r_{y})}{{\rm d} r_{x} \,\, {\rm d} r_{y}}\Bigg|_{\left.{r_{x}=x \atop {r_{y}=y}}\right.}.$$
 
:$$f_{xy}(x,y)=\frac{{\rm d}^{\rm 2} F_{xy}(r_{x},r_{y})}{{\rm d} r_{x} \,\, {\rm d} r_{y}}\Bigg|_{\left.{r_{x}=x \atop {r_{y}=y}}\right.}.$$
*Bezüglich der Verteilungsfunktion $F_{xy}(r_{x}, r_{y})$ gelten folgende Grenzwerte:
+
*Bezüglich der Verteilungsfunktion&nbsp; $F_{xy}(r_{x}, r_{y})$&nbsp; gelten folgende Grenzwerte:
 
:$$F_{xy}(-\infty,-\infty) = 0,$$
 
:$$F_{xy}(-\infty,-\infty) = 0,$$
 
:$$F_{xy}(r_{\rm x},+\infty)=F_{x}(r_{x} ),$$
 
:$$F_{xy}(r_{\rm x},+\infty)=F_{x}(r_{x} ),$$
 
:$$F_{xy}(+\infty,r_{y})=F_{y}(r_{y} ) ,$$
 
:$$F_{xy}(+\infty,r_{y})=F_{y}(r_{y} ) ,$$
:$$F_{xy}+\infty,+\infty) = 1.$$  
+
:$$F_{xy} (+\infty,+\infty) = 1.$$  
*Im Grenzfall (unendlich große $r_{x}$ und $r_{y}$) ergibt sich demnach für die 2D-VTF der Wert $1$. Daraus erhält man die '''Normierungsbedingung''' für die 2D-Wahrscheinlichkeitsdichtefunktion:  
+
*Im Grenzfall&nbsp; $($unendlich große&nbsp; $r_{x}$&nbsp; und&nbsp; $r_{y})$&nbsp; ergibt sich demnach für die 2D-VTF der Wert&nbsp; $1$.&nbsp; Daraus erhält man die&nbsp; '''Normierungsbedingung'''&nbsp; für die 2D-WDF:  
 
:$$\int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} f_{xy}(x,y) \,\,{\rm d}x \,\,{\rm d}y=1  .  $$
 
:$$\int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} f_{xy}(x,y) \,\,{\rm d}x \,\,{\rm d}y=1  .  $$
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
 
$\text{Fazit:}$&nbsp; Beachten Sie den signifikanten Unterschied zwischen eindimensionalen und zweidimensionalen Zufallsgrößen:  
 
$\text{Fazit:}$&nbsp; Beachten Sie den signifikanten Unterschied zwischen eindimensionalen und zweidimensionalen Zufallsgrößen:  
*Bei eindimensionalen Zufallsgrößen ergibt die Fläche unter der WDF stets den Wert $1$.  
+
*Bei eindimensionalen Zufallsgrößen ergibt die Fläche unter der WDF stets den Wert&nbsp; $1$.  
*Bei zweidimensionalen Zufallsgrößen ist das WDF-Volumen immer gleich $1$.}}  
+
*Bei zweidimensionalen Zufallsgrößen ist das WDF-Volumen immer gleich&nbsp; $1$.}}  
  
 
==WDF und VTF bei statistisch unabhängigen Komponenten==
 
==WDF und VTF bei statistisch unabhängigen Komponenten==
 
<br>
 
<br>
Bei statistisch unabhängigen Komponenten $x$ und $y$ gilt für die Verbundwahrscheinlichkeit nach den elementaren Gesetzmäßigkeiten der Statistik, falls $x$ und $y$ wertkontinuierlich sind:  
+
Bei statistisch unabhängigen Komponenten&nbsp; $x$&nbsp; und&nbsp; $y$&nbsp; gilt für die Verbundwahrscheinlichkeit nach den elementaren Gesetzmäßigkeiten der Statistik, falls&nbsp; $x$&nbsp; und&nbsp; $y$&nbsp; wertkontinuierlich sind:  
 
:$${\rm Pr} \big[(x_{\rm 1}\le x \le x_{\rm 2}) \cap( y_{\rm 1}\le y\le y_{\rm 2})\big] ={\rm Pr} (x_{\rm 1}\le x \le x_{\rm 2}) \cdot {\rm Pr}(y_{\rm 1}\le y\le y_{\rm 2}) .$$
 
:$${\rm Pr} \big[(x_{\rm 1}\le x \le x_{\rm 2}) \cap( y_{\rm 1}\le y\le y_{\rm 2})\big] ={\rm Pr} (x_{\rm 1}\le x \le x_{\rm 2}) \cdot {\rm Pr}(y_{\rm 1}\le y\le y_{\rm 2}) .$$
 
Hierfür kann bei unabhängigen Komponenten auch geschrieben werden:  
 
Hierfür kann bei unabhängigen Komponenten auch geschrieben werden:  
Zeile 117: Zeile 126:
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Daraus folgt, dass bei '''statistischer Unabhängigkeit''' folgende Bedingung bezüglich der 2D&ndash;WDF erfüllt sein muss:  
+
$\text{Definition:}$&nbsp; Daraus folgt,&nbsp; dass bei&nbsp; '''statistischer Unabhängigkeit'''&nbsp; folgende Bedingung bezüglich der 2D&ndash;Wahrscheinlichkeitsdichtefunktion erfüllt sein muss:  
 
:$$f_{xy}(x,y)=f_{x}(x) \cdot f_y(y) .$$}}
 
:$$f_{xy}(x,y)=f_{x}(x) \cdot f_y(y) .$$}}
  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 2:}$&nbsp; In der Grafik sind die Momentanwerte einer zweidimensionalen Zufallsgröße als Punkte in der $(x, y)$-Ebene eingetragen.  
+
$\text{Beispiel 2:}$&nbsp; In der Grafik sind die Momentanwerte einer zweidimensionalen Zufallsgröße als Punkte in der&nbsp; $(x, y)$&ndash;Ebene eingetragen.  
*Bereiche mit vielen Punkten, die dementsprechend dunkel wirken, kennzeichnen große Werte der WDF $f_{xy}(x, y)$.  
+
*Bereiche mit vielen Punkten, die dementsprechend dunkel wirken, kennzeichnen große Werte der 2D&ndash;WDF&nbsp; $f_{xy}(x, y)$.  
*Dagegen besitzt die Zufallsgröße $(x, y)$ in eher hellen Bereichen nur verhältnismäßig wenig Anteile.  
+
*Dagegen besitzt die Zufallsgröße&nbsp; $(x, y)$&nbsp; in eher hellen Bereichen nur verhältnismäßig wenig Anteile.  
  
 +
[[Datei:P_ID153__Sto_T_4_1_S4_nochmals_neu.png |frame| Statistisch unabhängige Komponenten: &nbsp;$f_{xy}(x,y)$, $f_{x}(x)$&nbsp; und&nbsp;$f_{y}(y)$]]
  
[[Datei:P_ID153__Sto_T_4_1_S4_nochmals_neu.png |frame| Statistisch unabhängige Komponenten: &nbsp; $f_{xy}(x,y)$, $f_{x}(x)$, $f_{y}(y)$]]
+
<br>Die Grafik kann wie folgt interpretiert werden:
 
+
*Die Randwahrscheinlichkeitsdichten&nbsp; $f_{x}(x)$&nbsp; und&nbsp; $f_{y}(y)$&nbsp; lassen bereits erkennen,&nbsp; dass sowohl&nbsp; $x$&nbsp; als auch&nbsp; $y$&nbsp; gaußähnlich und mittelwertfrei sind,&nbsp; und dass die Zufallsgröße&nbsp; $x$&nbsp; eine größere Streuung als&nbsp; $y$&nbsp; aufweist.  
Die Grafik kann wie folgt interpretiert werden:
+
*$f_{x}(x)$&nbsp; und&nbsp; $f_{y}(y)$&nbsp; liefern jedoch keine Informationen darüber, ob bei der Zufallsgröße&nbsp; $(x, y)$&nbsp; statistische Bindungen bestehen oder nicht.  
*Die Randwahrscheinlichkeitsdichten $f_{x}(x)$ und $f_{y}(y)$ lassen bereits erkennen, dass sowohl $x$ als auch $y$ gaußähnlich und mittelwertfrei sind, und dass die Zufallsgröße $x$ eine größere Streuung als $y$ aufweist.  
+
*Anhand der 2D-WDF&nbsp; $f_{xy}(x,y)$&nbsp; erkennt man aber,&nbsp; dass es hier zwischen den beiden Komponenten&nbsp; $x$&nbsp; und&nbsp; $y$&nbsp; keine statistischen Bindungen gibt.  
*$f_{x}(x)$ und $f_{y}(y)$ liefern jedoch keine Informationen darüber, ob bei der Zufallsgröße $(x, y)$ statistische Bindungen bestehen oder nicht.  
+
*Bei statistischer Unabhängigkeit liefert jeder Schnitt durch&nbsp; $f_{xy}(x, y)$&nbsp; parallel zur&nbsp; $y$-Achse eine Funktion,&nbsp; die formgleich mit der Rand&ndash;WDF&nbsp; $f_{y}(y)$&nbsp; ist.&nbsp; Ebenso sind alle Schnitte parallel zur&nbsp; $x$-Achse formgleich mit&nbsp; $f_{x}(x)$.  
*Anhand der 2D-WDF $f_{xy}(x,y)$ erkennt man aber, dass es hier zwischen den beiden Komponenten $x$ und $y$ keine statistischen Bindungen gibt.  
+
*Diese Tatsache ist gleichbedeutend mit der Aussage,&nbsp; dass in diesem Beispiel&nbsp; $f_{xy}(x, y)$&nbsp; als Produkt der beiden Randwahrscheinlichkeitsdichten dargestellt werden kann: &nbsp;  
*Bei statistischer Unabhängigkeit liefert jeder Schnitt durch $f_{xy}(x, y)$ parallel zur $y$-Achse eine Funktion, die formgleich mit der Rand&ndash;WDF $f_{y}(y)$ ist.  
+
:$$f_{xy}(x,y)=f_{x}(x) \cdot f_y(y) .$$}}
*Ebenso sind alle Schnitte parallel zur $x$-Achse formgleich mit $f_{x}(x)$.  
 
<br clear=all>
 
Diese Tatsache ist gleichbedeutend mit der Aussage, dass in diesem Beispiel die 2D-WDF $f_{xy}(x, y)$ als Produkt der beiden Randwahrscheinlichkeitsdichten dargestellt werden kann: &nbsp; $f_{xy}(x,y)=f_{x}(x) \cdot f_y(y) .$}}
 
  
 
==WDF und VTF bei statistisch abhängigen Komponenten==
 
==WDF und VTF bei statistisch abhängigen Komponenten==
 
<br>
 
<br>
Bestehen statistische Bindungen zwischen den Komponenten $x$ und $y$, so liefern unterschiedliche Schnitte parallel zur $x$&ndash; bzw. $y$&ndash;Achse jeweils unterschiedliche, nicht formgleiche Funktionen.  
+
Bestehen statistische Bindungen zwischen&nbsp; $x$&nbsp; und&nbsp; $y$, so liefern unterschiedliche Schnitte parallel zur&nbsp; $x$&ndash; bzw.&nbsp; $y$&ndash;Achse jeweils unterschiedliche, nicht formgleiche Funktionen.&nbsp; In diesem Fall lässt sich die Verbund&ndash;WDF natürlich auch nicht als Produkt der beiden (eindimensionalen) Randwahrscheinlichkeitsdichten beschreiben.
  
In diesem Fall lässt sich die Verbund&ndash;WDF natürlich auch nicht als Produkt der beiden (eindimensionalen) Randwahrscheinlichkeitsdichten beschreiben.
+
[[Datei:P_ID156__Sto_T_4_1_S5_neu.png |right|frame|Statistisch abhängige Komponenten: &nbsp;$f_{xy}(x,y)$, $f_{x}(x)$,&nbsp; $f_{y}(y)$ ]]
 
 
[[Datei:P_ID156__Sto_T_4_1_S5_neu.png |right|frame|Statistisch abhängige Komponenten: &nbsp; $f_{xy}(x,y)$, $f_{x}(x)$, $f_{y}(y)$ ]]
 
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 3:}$&nbsp; Die Grafik zeigt die Momentanwerte einer zweidimensionalen Zufallsgröße in der $(x,  y)$&ndash;Ebene, wobei nun im Gegensatz zum $\text{Beispiel 2}$ zwischen $x$ und $y$ statistische Bindungen bestehen.  
+
$\text{Beispiel 3:}$&nbsp; Die Grafik zeigt die Momentanwerte einer zweidimensionalen Zufallsgröße in der&nbsp; $(x,  y)$&ndash;Ebene, wobei nun im Gegensatz zum&nbsp; $\text{Beispiel 2}$&nbsp; zwischen&nbsp; $x$&nbsp; und&nbsp; $y$&nbsp; statistische Bindungen bestehen.  
*Die 2D&ndash;Zufallsgröße nimmt im blau eingezeichneten Parallelogramm alle Werte mit gleicher Wahrscheinlichkeit an.  
+
*Die 2D&ndash;Zufallsgröße nimmt im blau eingezeichneten Parallelogramm alle 2D&ndash;Werte mit gleicher Wahrscheinlichkeit an.  
*Außerhalb sind keine Werte möglich.  
+
*Außerhalb des Parallelogramms sind keine Werte möglich.  
  
  
 
Man erkennt aus dieser Darstellung:
 
Man erkennt aus dieser Darstellung:
*Die Integration über $f_{xy}(x, y)$ parallel zu der $x$&ndash;Achse führt zur dreieckförmigen Randdichte $f_{y}(y)$, die Integration parallel zur $y$&ndash;Achse zur trapezförmigen WDF $f_{x}(x)$.  
+
#Die Integration über $f_{xy}(x, y)$&nbsp; parallel zur&nbsp; $x$&ndash;Achse führt zur dreieckförmigen Randdichte $f_{y}(y)$,&nbsp; die Integration parallel zur&nbsp; $y$&ndash;Achse zur trapezförmigen WDF $f_{x}(x)$.  
*Aus der 2D-WDF $f_{xy}(x, y)$ ist bereits zu erahnen, dass für jeden $x$&ndash;Wert im statistischen Mittel ein anderer $y$&ndash;Wert zu erwarten ist.  
+
#Aus der 2D-WDF $f_{xy}(x, y)$&nbsp; ist bereits zu erahnen,&nbsp; dass für jeden&nbsp; $x$&ndash;Wert im statistischen Mittel ein anderer&nbsp; $y$&ndash;Wert zu erwarten ist.  
*Das bedeutet aber, dass hier die Komponenten $x$ und $y$ statistisch voneinander abhängen. }}
+
#Das bedeutet,&nbsp; dass hier die Komponenten&nbsp; $x$&nbsp; und&nbsp; $y$&nbsp; statistisch voneinander abhängen. }}
  
 
==Erwartungswerte zweidimensionaler Zufallsgrößen==
 
==Erwartungswerte zweidimensionaler Zufallsgrößen==
 
<br>
 
<br>
Ein Sonderfall der statistischen Abhängigkeit ist die ''Korrelation''.  
+
Ein Sonderfall der statistischen Abhängigkeit ist die&nbsp; "Korrelation".  
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Unter '''Korrelation''' versteht man eine ''lineare Abhängigkeit''&nbsp; zwischen den Einzelkomponenten $x$ und $y$.  
+
$\text{Definition:}$&nbsp; Unter&nbsp; '''Korrelation'''&nbsp; versteht man eine&nbsp; "lineare Abhängigkeit"&nbsp; zwischen den Einzelkomponenten&nbsp; $x$&nbsp; und&nbsp; $y$.  
 
*Korrelierte Zufallsgrößen sind damit stets auch statistisch abhängig.  
 
*Korrelierte Zufallsgrößen sind damit stets auch statistisch abhängig.  
 
*Aber nicht jede statistische Abhängigkeit bedeutet gleichzeitig eine Korrelation.}}  
 
*Aber nicht jede statistische Abhängigkeit bedeutet gleichzeitig eine Korrelation.}}  
  
  
Zur quantitativen Erfassung der Korrelation verwendet man verschiedene Erwartungswerte der 2D-Zufallsgröße $(x, y)$.  
+
Zur quantitativen Erfassung der Korrelation verwendet man verschiedene Erwartungswerte der 2D-Zufallsgröße&nbsp; $(x, y)$.  
  
 
Diese sind analog  definiert zum eindimensionalen Fall   
 
Diese sind analog  definiert zum eindimensionalen Fall   
*gemäß [[Stochastische_Signaltheorie/Momente_einer_diskreten_Zufallsgröße|Kapitel 2]] (bei wertdiskreten Zufallsgrößen)  
+
*gemäß&nbsp; [[Stochastische_Signaltheorie/Momente_einer_diskreten_Zufallsgröße|Kapitel 2]]&nbsp; (bei wertdiskreten Zufallsgrößen)  
*bzw. [[Stochastische_Signaltheorie/Erwartungswerte_und_Momente|Kapitel 3]] (bei wertkontinuierlichen Zufallsgrößen):
+
*bzw.&nbsp; [[Stochastische_Signaltheorie/Erwartungswerte_und_Momente|Kapitel 3]]&nbsp; (bei wertkontinuierlichen Zufallsgrößen):
 
   
 
   
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Für die (nichtzentrierten) '''Momente''' gilt die Beziehung:  
+
$\text{Definition:}$&nbsp; Für die (nichtzentrierten)&nbsp; '''Momente'''&nbsp; gilt die Beziehung:  
 
:$$m_{kl}={\rm E}\big[x^k\cdot y^l\big]=\int_{-\infty}^{+\infty}\hspace{0.2cm}\int_{-\infty}^{+\infty} x\hspace{0.05cm}^{k} \cdot y\hspace{0.05cm}^{l} \cdot f_{xy}(x,y) \, {\rm d}x\, {\rm d}y.$$
 
:$$m_{kl}={\rm E}\big[x^k\cdot y^l\big]=\int_{-\infty}^{+\infty}\hspace{0.2cm}\int_{-\infty}^{+\infty} x\hspace{0.05cm}^{k} \cdot y\hspace{0.05cm}^{l} \cdot f_{xy}(x,y) \, {\rm d}x\, {\rm d}y.$$
Die beiden linearen Mittelwerte sind somit $m_x = m_{10}$ und $m_y = m_{01}.$ }}  
+
Die beiden linearen Mittelwerte sind somit &nbsp; $m_x = m_{10}$&nbsp; und &nbsp; $m_y = m_{01}.$ }}  
  
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Die auf $m_x$ bzw. $m_y$ bezogenen '''Zentralmomente''' lauten:  
+
$\text{Definition:}$&nbsp; Die auf&nbsp; $m_x$&nbsp; bzw.&nbsp; $m_y$&nbsp; bezogenen&nbsp; '''Zentralmomente'''&nbsp; lauten:  
 
:$$\mu_{kl} = {\rm E}\big[(x-m_{x})\hspace{0.05cm}^k \cdot (y-m_{y})\hspace{0.05cm}^l\big] .$$
 
:$$\mu_{kl} = {\rm E}\big[(x-m_{x})\hspace{0.05cm}^k \cdot (y-m_{y})\hspace{0.05cm}^l\big] .$$
In dieser allgemein gültigen Definitionsgleichung sind die Varianzen $σ_x^2$ und $σ_y^2$ der zwei Einzelkomponenten durch $\mu_{20}$ bzw. $\mu_{02}$ mit enthalten. }}
+
In dieser allgemein gültigen Definitionsgleichung sind die Varianzen&nbsp; $σ_x^2$&nbsp; und&nbsp; $σ_y^2$&nbsp; der zwei Einzelkomponenten durch&nbsp; $\mu_{20}$&nbsp; bzw.&nbsp; $\mu_{02}$&nbsp; mit enthalten. }}
  
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Besondere Bedeutung besitzt die  '''Kovarianz''' $(k = l = 1)$, die ein Maß für die ''lineare statistische Abhängigkeit'' zwischen den Zufallsgrößen $x$ und $y$ ist:
+
$\text{Definition:}$&nbsp; Besondere Bedeutung besitzt die&nbsp; '''Kovarianz'''&nbsp; $(k = l = 1)$,&nbsp; die ein Maß für die lineare statistische Abhängigkeit zwischen den Zufallsgrößen&nbsp; $x$&nbsp; und&nbsp; $y$&nbsp; ist:
:$$\mu_{11} = {\rm E}\big[(x-m_{x})\cdot(y-m_{y})\big] = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} (x-m_{x}) (y-m_{y})\cdot f_{xy}(x,y) \,{\rm d}x \,  {\rm d}y .$$}}  
+
:$$\mu_{11} = {\rm E}\big[(x-m_{x})\cdot(y-m_{y})\big] = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} (x-m_{x}) \cdot (y-m_{y})\cdot f_{xy}(x,y) \,{\rm d}x \,  {\rm d}y .$$
 +
Im Folgenden bezeichnen wir die Kovarianz&nbsp; $\mu_{11}$&nbsp; teilweise auch mit&nbsp; $\mu_{xy}$,&nbsp; falls sich die Kovarianz auf die Zufallsgrößen&nbsp; $x$&nbsp; und&nbsp; $y$&nbsp; bezieht.}}  
  
  
Im Folgenden bezeichnen wir die Kovarianz $\mu_{11}$ teilweise auch mit $\mu_{xy}$, falls sich die Kovarianz auf die Zufallsgrößen $x$ und $y$ bezieht. Die Kovarianz hängt wie folgt mit dem nichtzentrierten Moment $m_{11} = m_{xy} = {\rm E}\big[x · y\big]$ zusammen:  
+
''Anmerkungen:''
 +
*Die Kovarianz&nbsp; $\mu_{11}=\mu_{xy}$&nbsp; hängt wie folgt mit dem nichtzentrierten Moment&nbsp; $m_{11} = m_{xy} = {\rm E}\big[x · y\big]$ zusammen:  
 
:$$\mu_{xy} = m_{xy} -m_{x }\cdot m_{y}.$$
 
:$$\mu_{xy} = m_{xy} -m_{x }\cdot m_{y}.$$
 +
*Diese Gleichung ist für numerische Auswertungen enorm vorteilhaft,&nbsp; da&nbsp; $m_{xy}$,&nbsp; $m_x$&nbsp; und&nbsp; $m_y$&nbsp; aus den Folgen&nbsp; $〈x_v〉$&nbsp; und&nbsp; $〈y_v〉$&nbsp; in einem einzigen Durchlauf gefunden werden können.
 +
*Würde man dagegen die Kovarianz&nbsp; $\mu_{xy}$&nbsp; entsprechend der oberen Definitionsgleichung berechnen,&nbsp; so müsste man in einem ersten Durchlauf die Mittelwerte&nbsp; $m_x$&nbsp; und&nbsp; $m_y$&nbsp; ermitteln und könnte dann erst in einem zweiten Durchlauf den Erwartungswert&nbsp; ${\rm E}\big[(x - m_x) · (y - m_y)\big]$&nbsp; berechnen.
  
''Anmerkung:''
+
*Diese Gleichung ist für die numerische Auswertung enorm vorteilhaft, da $m_{xy}$, $m_x$ und $m_y$ aus den Folgen $〈x_v〉$ und $〈y_v〉$ in einem Durchlauf gefunden werden können.
 
*Würde man dagegen die Kovarianz $\mu_{xy}$ entsprechend der oberen Definitionsgleichung berechnen, so müsste man in einem ersten Durchlauf die Mittelwerte $m_x$ und $m_y$ ermitteln und dann in einem zweiten Durchlauf den Erwartungswert ${\rm E}\big[(x - m_x) · (y - m_y)\big]$.
 
 
 
 
 
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 4:}$&nbsp; In den beiden ersten Zeilen der folgenden Tabelle sind die jeweils ersten Elemente zweier Zufallsfolgen $〈x_ν〉$ und $〈y_ν〉$ eingetragen. In der letzten Zeile sind die jeweiligen Produkte $x_ν · y_ν$ angegeben.  
+
$\text{Beispiel 4:}$&nbsp; In den beiden ersten Zeilen der Tabelle sind die jeweils ersten Elemente zweier Zufallsfolgen&nbsp; $〈x_ν〉$&nbsp; und&nbsp; $〈y_ν〉$&nbsp; eingetragen.&nbsp; In der letzten Zeile sind die jeweiligen Produkte&nbsp; $x_ν · y_ν$&nbsp; angegeben.  
 
+
[[Datei:P_ID628__Sto_T_4_1_S6Neu.png |right|frame| Beispielhafte 2D-Erwartungswerte]]  
[[Datei:P_ID628__Sto_T_4_1_S6Neu.png |center|frame| Beispielhafte 2D-Erwartungswerte]]  
+
*Durch Mittelung über jeweils zehn Folgenelemente erhält man&nbsp;
 
+
:$$m_x =0.5,\ \ m_y = 1, \ \ m_{xy} = 0.69.$$
Die Tabelle zeigt folgenden Sachverhalt: 
+
*Daraus ergibt sich direkt der Wert für die Kovarianz:
*Durch Mittelung über die jeweils zehn Folgenelemente erhält man $m_x =0.5$, $m_y = 1$ und $m_{xy} = 0.69$.
+
:$$\mu_{xy} = 0.69 - 0.5 · 1 = 0.19.$$
*Daraus ergibt sich die Kovarianz zu $\mu_{xy} = 0.69 - 0.5 · 1 = 0.19.$  
+
<br clear=all>
*Ohne Kenntnis der Gleichung $\mu_{xy} = m_{xy} - m_x · m_y$ hätte man zunächst im ersten Durchlauf die Mittelwerte $m_x$ und $m_y$ ermitteln müssen, um im zweiten Durchlauf die Kovarianz $\mu_{xy}$ als Erwartungswert des Produkts der mittelwertfreien Größen bestimmen zu können.}}
+
Ohne Kenntnis der Gleichung&nbsp; $\mu_{xy} = m_{xy} - m_x · m_y$&nbsp; hätte man zunächst im ersten Durchlauf die Mittelwerte&nbsp; $m_x$&nbsp; und&nbsp; $m_y$&nbsp; ermitteln müssen, <br>um dann in einem zweiten Durchlauf die Kovarianz&nbsp; $\mu_{xy}$&nbsp; als Erwartungswert des Produkts der mittelwertfreien Größen bestimmen zu können.}}
  
 
==Korrelationskoeffizient==
 
==Korrelationskoeffizient==
 
<br>
 
<br>
Bei statististischer Unabhängigkeit der beiden Komponenten $x$ und $y$ ist die Kovarianz $\mu_{xy} \equiv 0$. Dieser Fall wurde bereits im $\text{Beispiel 2}$ auf der Seite [[Stochastische_Signaltheorie/Zweidimensionale_Zufallsgrößen#WDF_und_VTF_bei_statistisch_unabh.C3.A4ngigen_Komponenten|WDF und VTF bei statistisch unabhängigen Komponenten]] betrachtet.
+
Bei statististischer Unabhängigkeit der beiden Komponenten&nbsp; $x$&nbsp; und&nbsp; $y$&nbsp; ist die Kovarianz&nbsp; $\mu_{xy} \equiv 0$.&nbsp; Dieser Fall wurde bereits im&nbsp; $\text{Beispiel 2}$&nbsp; auf der Seite&nbsp; [[Stochastische_Signaltheorie/Zweidimensionale_Zufallsgrößen#WDF_und_VTF_bei_statistisch_unabh.C3.A4ngigen_Komponenten|WDF und VTF bei statistisch unabhängigen Komponenten]]&nbsp; betrachtet.
  
*Das Ergebnis $\mu_{xy} = 0$ ist aber auch bei statistisch abhängigen Komponenten $x$ und $y$ möglich, nämlich dann, wenn diese unkorreliert, also   ''linear unabhängig'' sind.  
+
*Das Ergebnis&nbsp; $\mu_{xy} = 0$&nbsp; ist aber auch bei statistisch abhängigen Komponenten&nbsp; $x$&nbsp; und&nbsp; $y$&nbsp; möglich,&nbsp; nämlich dann,&nbsp; wenn diese unkorreliert, also linear unabhängig sind.  
*Die  statistische Abhängigkeit ist dann nicht von erster, sondern von höherer Ordnung, zum Beispiel entsprechend der Gleichung $y=x^2.$
+
*Die  statistische Abhängigkeit ist dann nicht von erster,&nbsp; sondern von höherer Ordnung,&nbsp; zum Beispiel entsprechend der Gleichung&nbsp; $y=x^2.$
  
  
Man spricht von &bdquo;vollständiger Korrelation&rdquo;, wenn die (deterministische) Abhängigkeit zwischen $x$ und  $y$  durch die Gleichung $y = K · x$ ausgedrückt wird. Dann ergibt sich  für die Kovarianz:
+
Man spricht von&nbsp; '''vollständiger Korrelation''', wenn die (deterministische) Abhängigkeit zwischen&nbsp; $x$&nbsp; und&nbsp; $y$&nbsp; durch die Gleichung&nbsp; $y = K · x$&nbsp; ausgedrückt wird. Dann ergibt sich  für die Kovarianz:
* $\mu_{xy} = σ_x · σ_y$ bei positivem Wert von $K$,  
+
* $\mu_{xy} = σ_x · σ_y$&nbsp; bei positivem&nbsp; $K$&ndash;Wert,  
* $\mu_{xy} = - σ_x · σ_y$ bei negativem $K$&ndash;Wert.   
+
* $\mu_{xy} = - σ_x · σ_y$&nbsp; bei negativem&nbsp; $K$&ndash;Wert.   
  
  
Zeile 224: Zeile 229:
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Der '''Korrelationskoeffizient''' ist der Quoient aus Kovarianz $\mu_{xy}$ und dem Produkt der Effektivwerte $σ_x$ und $σ_y$ der beiden Komponenten:  
+
$\text{Definition:}$&nbsp; Der&nbsp; '''Korrelationskoeffizient'''&nbsp; ist der Quotient aus der Kovarianz&nbsp; $\mu_{xy}$&nbsp; und dem Produkt der Effektivwerte&nbsp; $σ_x$&nbsp; und&nbsp; $σ_y$&nbsp; der beiden Komponenten:  
 
:$$\rho_{xy}=\frac{\mu_{xy} }{\sigma_x \cdot \sigma_y}.$$}}
 
:$$\rho_{xy}=\frac{\mu_{xy} }{\sigma_x \cdot \sigma_y}.$$}}
  
  
Der Korrelationskoeffizient $\rho_{xy}$ weist folgende Eigenschaften auf:  
+
Der Korrelationskoeffizient&nbsp; $\rho_{xy}$&nbsp; weist folgende Eigenschaften auf:  
*Aufgrund der Normierung gilt stets  $-1 \le  ρ_{xy}  ≤ +1$.  
+
*Aufgrund der Normierung gilt stets&nbsp; $-1 \le  ρ_{xy}  ≤ +1$.  
*Sind die beiden Zufallsgrößen $x$ und $y$ unkorreliert, so ist $ρ_{xy} = 0$.  
+
*Sind die beiden Zufallsgrößen&nbsp; $x$&nbsp; und&nbsp; $y$&nbsp; unkorreliert,&nbsp; so ist&nbsp; $ρ_{xy} = 0$.  
*Bei strenger linearer Abhängigkeit zwischen $x$ und $y$ ist $ρ_{xy}= ±1$ &nbsp; &rArr; &nbsp; vollständige Korrelation.
+
*Bei strenger linearer Abhängigkeit zwischen&nbsp; $x$&nbsp; und&nbsp; $y$&nbsp; ist&nbsp; $ρ_{xy}= ±1$ &nbsp; &rArr; &nbsp; vollständige Korrelation.
*Ein positiver Korrelationskoeffizient bedeutet, dass bei größerem $x$–Wert im statistischen Mittel auch $y$&nbsp; größer ist als bei kleinerem $x$.  
+
*Ein positiver Korrelationskoeffizient bedeutet,&nbsp;  dass bei größerem&nbsp; $x$–Wert im statistischen Mittel auch&nbsp; $y$&nbsp; größer ist als bei kleinerem&nbsp; $x$.  
*Dagegen drückt ein negativer Korrelationskoeffizient aus, dass $y$&nbsp; mit steigendem $x$ im Mittel kleiner wird.   
+
*Dagegen drückt ein negativer Korrelationskoeffizient aus,&nbsp; dass&nbsp; $y$&nbsp; mit steigendem&nbsp; $x$&nbsp; im Mittel kleiner wird.   
  
  
[[Datei:P_ID232__Sto_T_4_1_S7a_neu.png |right|frame| Gaußsche 2D-WDF mit Korrelation]]
+
{{GraueBox|TEXT=
{{GraueBox|TEXT= 
+
[[Datei:P_ID232__Sto_T_4_1_S7a_neu.png |right|frame| Gaußsche 2D-WDF mit Korrelation]]  
 
$\text{Beispiel 5:}$&nbsp;  Es gelten folgende Voraussetzungen:
 
$\text{Beispiel 5:}$&nbsp;  Es gelten folgende Voraussetzungen:
*Die betrachteten Komponenten $x$ und $y$ besitzen jeweils eine gaußförmige WDF.
+
*Die betrachteten Komponenten&nbsp; $x$&nbsp; und&nbsp; $y$&nbsp; besitzen jeweils eine gaußförmige WDF.
*Die beiden Streuungen sind unterschiedlich $(σ_y < σ_x)$.  
+
*Die beiden Streuungen sind unterschiedlich&nbsp; $(σ_y < σ_x)$.  
*Der Korrelationskoeffizient beträgt $ρ_{xy} = 0.8$.  
+
*Der Korrelationskoeffizient beträgt&nbsp; $ρ_{xy} = 0.8$.  
  
  
Im Unterschied zum [[Stochastische_Signaltheorie/Zweidimensionale_Zufallsgrößen#WDF_und_VTF_bei_statistisch_unabh.C3.A4ngigen_Komponenten| Beispiel 2]] mit statistisch unabhängigen Komponenten &nbsp; &rArr; &nbsp; $ρ_{xy} = 0$ (trotz $σ_y < σ_x$) erkennt man, dass hier bei größerem $x$–Wert im statistischen Mittel auch $y$ größer ist als bei kleinerem $x$.}}
+
Im Unterschied zum&nbsp; [[Stochastische_Signaltheorie/Zweidimensionale_Zufallsgrößen#WDF_und_VTF_bei_statistisch_unabh.C3.A4ngigen_Komponenten| Beispiel 2]]&nbsp; mit statistisch unabhängigen Komponenten &nbsp; &rArr; &nbsp; $ρ_{xy} = 0$&nbsp; $($trotz&nbsp; $σ_y < σ_x)$&nbsp; erkennt man, dass hier bei größerem&nbsp; $x$–Wert im statistischen Mittel auch&nbsp; $y$&nbsp; größer ist als bei kleinerem&nbsp; $x$.}}
  
  
==Korrelationsgerade==
+
==Regressionsgerade==
 
<br>
 
<br>
 
+
{{BlaueBox|TEXT=
 
[[Datei: P_ID1089__Sto_T_4_1_S7b_neu.png  |frame| Gaußsche 2D-WDF mit Korrelationsgerade]]
 
[[Datei: P_ID1089__Sto_T_4_1_S7b_neu.png  |frame| Gaußsche 2D-WDF mit Korrelationsgerade]]
{{BlaueBox|TEXT= 
+
 
$\text{Definition:}$&nbsp; Als '''Korrelationsgerade''' bezeichnet man  die Gerade $y = K(x)$  in der $(x, y)$&ndash;Ebene durch den „Mittelpunkt” $(m_x, m_y)$. Manchmal wird diese Gerade auch  ''Regressionsgerade'' genannt.
+
$\text{Definition:}$&nbsp; Als&nbsp; '''Regressionsgerade'''&nbsp; bezeichnet man  die Gerade&nbsp; $y = K(x)$&nbsp; in der&nbsp; $(x, y)$&ndash;Ebene durch den „Mittelpunkt”&nbsp; $(m_x, m_y)$.&nbsp; Manchmal wird diese Gerade auch&nbsp;   "Korrelationsgerade"&nbsp; genannt.
  
Die Korrelationsgerade besitzt folgende Eigenschaften:   
+
Die Regressionsgerade besitzt folgende Eigenschaften:   
  
*Die mittlere quadratische Abweichung von dieser Geraden – in $y$&ndash;Richtung betrachtet und über alle $N$ Punkte gemittelt – ist minimal:  
+
*Die mittlere quadratische Abweichung von dieser Geraden – in&nbsp; $y$&ndash;Richtung betrachtet und über alle&nbsp; $N$&nbsp; Punkte gemittelt – ist minimal:  
 
:$$\overline{\varepsilon_y^{\rm 2} }=\frac{\rm 1}{N} \cdot \sum_{\nu=\rm 1}^{N}\; \;\big [y_\nu - K(x_{\nu})\big ]^{\rm 2}={\rm Minimum}.$$
 
:$$\overline{\varepsilon_y^{\rm 2} }=\frac{\rm 1}{N} \cdot \sum_{\nu=\rm 1}^{N}\; \;\big [y_\nu - K(x_{\nu})\big ]^{\rm 2}={\rm Minimum}.$$
*Die Korrelationsgerade kann als eine Art „statistische Symmetrieachse“ interpretiert werden. Die Geradengleichung lautet:  
+
*Die Korrelationsgerade kann als eine Art&nbsp; „statistische Symmetrieachse“&nbsp; interpretiert werden. Die Geradengleichung lautet:  
:$$y=K(x)=\frac{\sigma_y}{\sigma_x}\cdot\rho_{xy}\cdot(x - m_x)+m_y.$$}}
+
:$$y=K(x)=\frac{\sigma_y}{\sigma_x}\cdot\rho_{xy}\cdot(x - m_x)+m_y.$$
 
+
*Der Winkel, den die Regressionsgerade zur&nbsp; $x$&ndash;Achse einnimmt, beträgt:
 +
:$$\theta_{y\hspace{0.05cm}\rightarrow \hspace{0.05cm}x}={\rm arctan}\ (\frac{\sigma_{y} }{\sigma_{x} }\cdot \rho_{xy}).$$}}
  
Der Winkel, den die Korrelationsgerade zur $x$&ndash;Achse einnimmt, beträgt:
 
:$$\theta_{y\hspace{0.05cm}\rightarrow \hspace{0.05cm}x}={\rm arctan}(\frac{\sigma_{y} }{\sigma_{x} }\cdot \rho_{xy}).$$
 
  
Durch diese Nomenklatur soll deutlich gemacht werden, dass es sich hier um die Regression von $y$ auf $x$ handelt.  
+
Durch diese Nomenklatur soll deutlich gemacht werden,&nbsp; dass es sich hier um die Regression von&nbsp; $y$&nbsp; auf&nbsp; $x$&nbsp; handelt.  
  
*Die Regression in Gegenrichtung – also von $x$ auf $y$ – bedeutet dagegen die Minimierung der mittleren quadratischen Abweichung in $x$–Richtung.  
+
*Die Regression in Gegenrichtung – also von&nbsp; $x$&nbsp; auf&nbsp; $y$ – bedeutet dagegen die Minimierung der mittleren quadratischen Abweichung in&nbsp; $x$–Richtung.  
  
*Das interaktive Applet  [[Applets:Korrelationskoeffizient_%26_Regressionsgerade|Korrelationskoeffizient und Regressionsgerade]] verdeutlicht, dass sich im Allgemeinen (falls $σ_y \ne σ_x$) für die Regression von $x$ auf $y$  ein anderer Winkel und damit auch eine andere Regressionsgerade ergeben wird:  
+
*Das interaktive Applet&nbsp; [[Applets:Korrelation_und_Regressionsgerade]]&nbsp; verdeutlicht, dass sich im Allgemeinen&nbsp; $($falls&nbsp; $σ_y \ne σ_x)$&nbsp; für die Regression von&nbsp; $x$&nbsp; auf&nbsp; $y$&nbsp; ein anderer Winkel und damit auch eine andere Regressionsgerade ergeben wird:  
:$$\theta_{x\hspace{0.05cm}\rightarrow \hspace{0.05cm} y}={\rm arctan}(\frac{\sigma_{x}}{\sigma_{y}}\cdot \rho_{xy}).$$
+
:$$\theta_{x\hspace{0.05cm}\rightarrow \hspace{0.05cm} y}={\rm arctan}\ (\frac{\sigma_{x}}{\sigma_{y}}\cdot \rho_{xy}).$$
  
  

Aktuelle Version vom 24. Januar 2022, 14:01 Uhr

# ÜBERBLICK ZUM VIERTEN HAUPTKAPITEL #


Nun werden Zufallsgrößen mit statistischen Bindungen behandelt und anhand typischer Beispiele verdeutlicht. 

Nach der allgemeinen Beschreibung zweidimensionaler Zufallsgrößen wenden wir uns folgenden Beschreibungsgrößen zu:

  1. der Autokorrelationsfunktion  (AKF), 
  2. der Kreuzkorrelationsfunktion  (KKF), 
  3. den zugehörigen Spektralfunktionen  (Leistungsdichtespektrum, Kreuzleistungsdichtespektrum).


Im Einzelnen werden behandelt:

  • die statistische Beschreibung von  »2D–Zufallsgrößen«  mit Hilfe der Verbund–WDF,
  • der Unterschied zwischen  »statistischer Abhängigkeit«  und  »Korrelation«,
  • die Klassifizierungsmerkmale  »Stationarität«  und  »Ergodizität«  stochastischer Prozesse,
  • die Definitionen von  »Autokorrelationsfunktion«  $\rm (AKF)$  und  »Leistungsdichtespektrum«  $\rm (LDS)$,
  • die Definitionen von  »Kreuzkorrelationsfunktion«  und  »Kreuzleistungsdichtespektrum«,
  • die numerische Ermittlung all dieser Größen im zwei– und mehrdimensionalen Fall.


Weitere Informationen zum Thema „Zweidimensionale Zufallsgrößen” sowie Aufgaben, Simulationen und Programmierübungen finden Sie im

  • Kapitel 5:   Zweidimensionale Zufallsgrößen (Programm „zwd”)
  • Kapitel 9:   Stochastische Prozesse (Programm „sto”)


des Praktikums „Simulationsmethoden in der Nachrichtentechnik”.  Diese (ehemalige) LNT-Lehrveranstaltung an der TU München basiert auf


Eigenschaften und Beispiele


Als Überleitung zu den  Korrelationsfunktionen  betrachten wir nun zwei Zufallsgrößen  $x$  und  $y$,  zwischen denen statistische Abhängigkeiten bestehen. 

Jede der beiden Zufallsgrößen kann für sich alleine beschrieben werden mit den eingeführten Kenngrößen


$\text{Definition:}$  Zur Beschreibung der Wechselbeziehungen zwischen zwei Größen  $x$  und  $y$  ist es zweckmäßig,  die beiden Komponenten zu einer  zweidimensionalen Zufallsgröße  $(x, y)$  zusammenzufassen.

  • Die Einzelkomponenten können Signale sein wie der Real– und Imaginärteil eines phasenmodulierten Signals.
  • Aber es gibt auch in anderen Bereichen eine Vielzahl von 2D–Zufallsgrößen,  wie das folgende Beispiel zeigen soll.


$\text{Beispiel 1:}$  Das linke Diagramm stammt von dem Zufallsexperiment  „Werfen mit zwei Würfeln”.  Nach rechts aufgetragen ist die Augenzahl des ersten Würfels  $(W_1)$,  nach oben die Summe  $S$  beider Würfel.  Die beiden Komponenten sind hier jeweils diskrete Zufallsgrößen,  zwischen denen statistische Bindungen bestehen:

Zwei Beispiele statistisch abhängiger Zufallsgrößen
  • Ist  $W_1 = 1$,  so kann  $S$  nur Werte zwischen  $2$  und  $7$  annehmen und zwar mit jeweils gleicher Warscheinlichkeit.
  • Dagegen sind bei  $W_1 = 6$  für  $S$  alle Werte zwischen  $7$  und  $12$  möglich,  ebenfalls mit gleicher Warscheinlichkeit.


In der rechten Grafik sind die Maximaltemperaturen der  $31$ Tage im Mai 2002 von München (nach oben) und der Zugspitze (nach rechts) gegenübergestellt.  Beide Zufallsgrößen sind wertkontinuierlich:

  • Obwohl die Messpunkte etwa  $\text{100 km}$  auseinander liegen und es auf der Zugspitze aufgrund der unterschiedlichen Höhenlagen  $($knapp  $3000$  gegenüber  $520$  Meter$)$  im Mittel um etwa  $20$  Grad kälter ist als in München,  erkennt man doch eine gewisse statistische Abhängigkeit zwischen den beiden Zufallsgrößen  ${\it Θ}_{\rm M}$  und  ${\it Θ}_{\rm Z}$.
  • Ist es in München warm,  dann sind auch auf der Zugspitze eher angenehme Temperaturen zu erwarten.  Der Zusammenhang ist aber nicht deterministisch:  Der kälteste Tag im Mai 2002 war in München ein anderer als der kälteste Tag auf der Zugspitze.

Verbundwahrscheinlichkeitsdichtefunktion


Wir beschränken uns hier meist auf kontinuierliche Zufallsgrößen. 

  • Manchmal wird jedoch auch auf die Besonderheiten zweidimensionaler diskreter Zufallsgrößen genauer eingegangen. 
  • Die meisten der vorher für eindimensionale Zufallsgrößen definierten Kenngrößen kann man problemlos auf zweidimensionale Größen erweitern.


$\text{Definition:}$  Die Wahrscheinlichkeitsdichtefunktion der zweidimensionalen Zufallsgröße an der Stelle  $(x_\mu, y_\mu)$   ⇒   Verbundwahrscheinlichkeitsdichtefunktion  ist eine Erweiterung der eindimensionalen WDF  $(∩$  kennzeichnet die logische UND-Verknüpfung$)$:

$$f_{xy}(x_\mu, \hspace{0.1cm}y_\mu) = \lim_{\left.{\Delta x\rightarrow 0 \atop {\Delta y\rightarrow 0} }\right.}\frac{ {\rm Pr}\big [ (x_\mu - {\rm \Delta} x/{\rm 2} \le x \le x_\mu + {\rm \Delta} x/{\rm 2}) \cap (y_\mu - {\rm \Delta} y/{\rm 2} \le y \le y_\mu +{\rm \Delta}y/{\rm 2}) \big] }{ {\rm \Delta} \ x\cdot{\rm \Delta} y}.$$

$\rm Hinweis$:

  • Ist die 2D–Zufallsgröße diskret, so muss die Definition geringfügig modifiziert werden:
  • Bei den unteren Bereichsgrenzen ist dann gemäß der Seite  Verteilungsfunktion bei diskreten Zufallsgrößen  das „≤”–Zeichen durch das „<”–Zeichen zu ersetzen.


Anhand dieser (Verbund)–WDF  $f_{xy}(x, y)$  werden auch statistische Abhängigkeiten innerhalb der zweidimensionalen Zufallsgröße  $(x, y)$  vollständig erfasst im Gegensatz zu den beiden eindimensionalen Dichtefunktionen   ⇒   Randwahrscheinlichkeitsdichtefunktionen:

$$f_{x}(x) = \int _{-\infty}^{+\infty} f_{xy}(x,y) \,\,{\rm d}y ,$$
$$f_{y}(y) = \int_{-\infty}^{+\infty} f_{xy}(x,y) \,\,{\rm d}x .$$

Diese beiden Randdichtefunktionen  $f_x(x)$  und  $f_y(y)$

  • liefern lediglich statistische Aussagen über die Einzelkomponenten  $x$  bzw.  $y$,
  • nicht jedoch über die Bindungen zwischen diesen.


Zweidimensionale Verteilungsfunktion


$\text{Definition:}$  Die  2D-Verteilungsfunktion  ist ebenso wie die 2D-WDF lediglich eine sinnvolle Erweiterung der  eindimensionalen Verteilungsfunktion  (VTF):

$$F_{xy}(r_{x},r_{y}) = {\rm Pr}\big [(x \le r_{x}) \cap (y \le r_{y}) \big ] .$$


Es ergeben sich folgende Gemeinsamkeiten und Unterschiede zwischen der  "1D-VTF"  und der  "2D-VTF":

  • Der Funktionalzusammenhang zwischen zweidimensionaler WDF und zweidimensionaler VTF ist wie im eindimensionalen Fall durch die Integration gegeben,  aber nun in zwei Dimensionen.  Bei kontinuierlichen Zufallsgrößen gilt:
$$F_{xy}(r_{x},r_{y})=\int_{-\infty}^{r_{y}} \int_{-\infty}^{r_{x}} f_{xy}(x,y) \,\,{\rm d}x \,\, {\rm d}y .$$
  • Umgekehrt lässt sich die Wahrscheinlichkeitsdichtefunktion aus der Verteilungsfunktion durch partielle Differentiation nach  $r_{x}$  und  $r_{y}$  angeben:
$$f_{xy}(x,y)=\frac{{\rm d}^{\rm 2} F_{xy}(r_{x},r_{y})}{{\rm d} r_{x} \,\, {\rm d} r_{y}}\Bigg|_{\left.{r_{x}=x \atop {r_{y}=y}}\right.}.$$
  • Bezüglich der Verteilungsfunktion  $F_{xy}(r_{x}, r_{y})$  gelten folgende Grenzwerte:
$$F_{xy}(-\infty,-\infty) = 0,$$
$$F_{xy}(r_{\rm x},+\infty)=F_{x}(r_{x} ),$$
$$F_{xy}(+\infty,r_{y})=F_{y}(r_{y} ) ,$$
$$F_{xy} (+\infty,+\infty) = 1.$$
  • Im Grenzfall  $($unendlich große  $r_{x}$  und  $r_{y})$  ergibt sich demnach für die 2D-VTF der Wert  $1$.  Daraus erhält man die  Normierungsbedingung  für die 2D-WDF:
$$\int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} f_{xy}(x,y) \,\,{\rm d}x \,\,{\rm d}y=1 . $$

$\text{Fazit:}$  Beachten Sie den signifikanten Unterschied zwischen eindimensionalen und zweidimensionalen Zufallsgrößen:

  • Bei eindimensionalen Zufallsgrößen ergibt die Fläche unter der WDF stets den Wert  $1$.
  • Bei zweidimensionalen Zufallsgrößen ist das WDF-Volumen immer gleich  $1$.

WDF und VTF bei statistisch unabhängigen Komponenten


Bei statistisch unabhängigen Komponenten  $x$  und  $y$  gilt für die Verbundwahrscheinlichkeit nach den elementaren Gesetzmäßigkeiten der Statistik, falls  $x$  und  $y$  wertkontinuierlich sind:

$${\rm Pr} \big[(x_{\rm 1}\le x \le x_{\rm 2}) \cap( y_{\rm 1}\le y\le y_{\rm 2})\big] ={\rm Pr} (x_{\rm 1}\le x \le x_{\rm 2}) \cdot {\rm Pr}(y_{\rm 1}\le y\le y_{\rm 2}) .$$

Hierfür kann bei unabhängigen Komponenten auch geschrieben werden:

$${\rm Pr} \big[(x_{\rm 1}\le x \le x_{\rm 2}) \cap(y_{\rm 1}\le y\le y_{\rm 2})\big] =\int _{x_{\rm 1}}^{x_{\rm 2}}f_{x}(x) \,{\rm d}x\cdot \int_{y_{\rm 1}}^{y_{\rm 2}} f_{y}(y) \, {\rm d}y.$$

$\text{Definition:}$  Daraus folgt,  dass bei  statistischer Unabhängigkeit  folgende Bedingung bezüglich der 2D–Wahrscheinlichkeitsdichtefunktion erfüllt sein muss:

$$f_{xy}(x,y)=f_{x}(x) \cdot f_y(y) .$$


$\text{Beispiel 2:}$  In der Grafik sind die Momentanwerte einer zweidimensionalen Zufallsgröße als Punkte in der  $(x, y)$–Ebene eingetragen.

  • Bereiche mit vielen Punkten, die dementsprechend dunkel wirken, kennzeichnen große Werte der 2D–WDF  $f_{xy}(x, y)$.
  • Dagegen besitzt die Zufallsgröße  $(x, y)$  in eher hellen Bereichen nur verhältnismäßig wenig Anteile.
Statistisch unabhängige Komponenten:  $f_{xy}(x,y)$, $f_{x}(x)$  und $f_{y}(y)$


Die Grafik kann wie folgt interpretiert werden:

  • Die Randwahrscheinlichkeitsdichten  $f_{x}(x)$  und  $f_{y}(y)$  lassen bereits erkennen,  dass sowohl  $x$  als auch  $y$  gaußähnlich und mittelwertfrei sind,  und dass die Zufallsgröße  $x$  eine größere Streuung als  $y$  aufweist.
  • $f_{x}(x)$  und  $f_{y}(y)$  liefern jedoch keine Informationen darüber, ob bei der Zufallsgröße  $(x, y)$  statistische Bindungen bestehen oder nicht.
  • Anhand der 2D-WDF  $f_{xy}(x,y)$  erkennt man aber,  dass es hier zwischen den beiden Komponenten  $x$  und  $y$  keine statistischen Bindungen gibt.
  • Bei statistischer Unabhängigkeit liefert jeder Schnitt durch  $f_{xy}(x, y)$  parallel zur  $y$-Achse eine Funktion,  die formgleich mit der Rand–WDF  $f_{y}(y)$  ist.  Ebenso sind alle Schnitte parallel zur  $x$-Achse formgleich mit  $f_{x}(x)$.
  • Diese Tatsache ist gleichbedeutend mit der Aussage,  dass in diesem Beispiel  $f_{xy}(x, y)$  als Produkt der beiden Randwahrscheinlichkeitsdichten dargestellt werden kann:  
$$f_{xy}(x,y)=f_{x}(x) \cdot f_y(y) .$$

WDF und VTF bei statistisch abhängigen Komponenten


Bestehen statistische Bindungen zwischen  $x$  und  $y$, so liefern unterschiedliche Schnitte parallel zur  $x$– bzw.  $y$–Achse jeweils unterschiedliche, nicht formgleiche Funktionen.  In diesem Fall lässt sich die Verbund–WDF natürlich auch nicht als Produkt der beiden (eindimensionalen) Randwahrscheinlichkeitsdichten beschreiben.

Statistisch abhängige Komponenten:  $f_{xy}(x,y)$, $f_{x}(x)$,  $f_{y}(y)$

$\text{Beispiel 3:}$  Die Grafik zeigt die Momentanwerte einer zweidimensionalen Zufallsgröße in der  $(x, y)$–Ebene, wobei nun im Gegensatz zum  $\text{Beispiel 2}$  zwischen  $x$  und  $y$  statistische Bindungen bestehen.

  • Die 2D–Zufallsgröße nimmt im blau eingezeichneten Parallelogramm alle 2D–Werte mit gleicher Wahrscheinlichkeit an.
  • Außerhalb des Parallelogramms sind keine Werte möglich.


Man erkennt aus dieser Darstellung:

  1. Die Integration über $f_{xy}(x, y)$  parallel zur  $x$–Achse führt zur dreieckförmigen Randdichte $f_{y}(y)$,  die Integration parallel zur  $y$–Achse zur trapezförmigen WDF $f_{x}(x)$.
  2. Aus der 2D-WDF $f_{xy}(x, y)$  ist bereits zu erahnen,  dass für jeden  $x$–Wert im statistischen Mittel ein anderer  $y$–Wert zu erwarten ist.
  3. Das bedeutet,  dass hier die Komponenten  $x$  und  $y$  statistisch voneinander abhängen.

Erwartungswerte zweidimensionaler Zufallsgrößen


Ein Sonderfall der statistischen Abhängigkeit ist die  "Korrelation".

$\text{Definition:}$  Unter  Korrelation  versteht man eine  "lineare Abhängigkeit"  zwischen den Einzelkomponenten  $x$  und  $y$.

  • Korrelierte Zufallsgrößen sind damit stets auch statistisch abhängig.
  • Aber nicht jede statistische Abhängigkeit bedeutet gleichzeitig eine Korrelation.


Zur quantitativen Erfassung der Korrelation verwendet man verschiedene Erwartungswerte der 2D-Zufallsgröße  $(x, y)$.

Diese sind analog definiert zum eindimensionalen Fall

  • gemäß  Kapitel 2  (bei wertdiskreten Zufallsgrößen)
  • bzw.  Kapitel 3  (bei wertkontinuierlichen Zufallsgrößen):


$\text{Definition:}$  Für die (nichtzentrierten)  Momente  gilt die Beziehung:

$$m_{kl}={\rm E}\big[x^k\cdot y^l\big]=\int_{-\infty}^{+\infty}\hspace{0.2cm}\int_{-\infty}^{+\infty} x\hspace{0.05cm}^{k} \cdot y\hspace{0.05cm}^{l} \cdot f_{xy}(x,y) \, {\rm d}x\, {\rm d}y.$$

Die beiden linearen Mittelwerte sind somit   $m_x = m_{10}$  und   $m_y = m_{01}.$


$\text{Definition:}$  Die auf  $m_x$  bzw.  $m_y$  bezogenen  Zentralmomente  lauten:

$$\mu_{kl} = {\rm E}\big[(x-m_{x})\hspace{0.05cm}^k \cdot (y-m_{y})\hspace{0.05cm}^l\big] .$$

In dieser allgemein gültigen Definitionsgleichung sind die Varianzen  $σ_x^2$  und  $σ_y^2$  der zwei Einzelkomponenten durch  $\mu_{20}$  bzw.  $\mu_{02}$  mit enthalten.


$\text{Definition:}$  Besondere Bedeutung besitzt die  Kovarianz  $(k = l = 1)$,  die ein Maß für die lineare statistische Abhängigkeit zwischen den Zufallsgrößen  $x$  und  $y$  ist:

$$\mu_{11} = {\rm E}\big[(x-m_{x})\cdot(y-m_{y})\big] = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} (x-m_{x}) \cdot (y-m_{y})\cdot f_{xy}(x,y) \,{\rm d}x \, {\rm d}y .$$

Im Folgenden bezeichnen wir die Kovarianz  $\mu_{11}$  teilweise auch mit  $\mu_{xy}$,  falls sich die Kovarianz auf die Zufallsgrößen  $x$  und  $y$  bezieht.


Anmerkungen:

  • Die Kovarianz  $\mu_{11}=\mu_{xy}$  hängt wie folgt mit dem nichtzentrierten Moment  $m_{11} = m_{xy} = {\rm E}\big[x · y\big]$ zusammen:
$$\mu_{xy} = m_{xy} -m_{x }\cdot m_{y}.$$
  • Diese Gleichung ist für numerische Auswertungen enorm vorteilhaft,  da  $m_{xy}$,  $m_x$  und  $m_y$  aus den Folgen  $〈x_v〉$  und  $〈y_v〉$  in einem einzigen Durchlauf gefunden werden können.
  • Würde man dagegen die Kovarianz  $\mu_{xy}$  entsprechend der oberen Definitionsgleichung berechnen,  so müsste man in einem ersten Durchlauf die Mittelwerte  $m_x$  und  $m_y$  ermitteln und könnte dann erst in einem zweiten Durchlauf den Erwartungswert  ${\rm E}\big[(x - m_x) · (y - m_y)\big]$  berechnen.


$\text{Beispiel 4:}$  In den beiden ersten Zeilen der Tabelle sind die jeweils ersten Elemente zweier Zufallsfolgen  $〈x_ν〉$  und  $〈y_ν〉$  eingetragen.  In der letzten Zeile sind die jeweiligen Produkte  $x_ν · y_ν$  angegeben.

Beispielhafte 2D-Erwartungswerte
  • Durch Mittelung über jeweils zehn Folgenelemente erhält man 
$$m_x =0.5,\ \ m_y = 1, \ \ m_{xy} = 0.69.$$
  • Daraus ergibt sich direkt der Wert für die Kovarianz:
$$\mu_{xy} = 0.69 - 0.5 · 1 = 0.19.$$


Ohne Kenntnis der Gleichung  $\mu_{xy} = m_{xy} - m_x · m_y$  hätte man zunächst im ersten Durchlauf die Mittelwerte  $m_x$  und  $m_y$  ermitteln müssen,
um dann in einem zweiten Durchlauf die Kovarianz  $\mu_{xy}$  als Erwartungswert des Produkts der mittelwertfreien Größen bestimmen zu können.

Korrelationskoeffizient


Bei statististischer Unabhängigkeit der beiden Komponenten  $x$  und  $y$  ist die Kovarianz  $\mu_{xy} \equiv 0$.  Dieser Fall wurde bereits im  $\text{Beispiel 2}$  auf der Seite  WDF und VTF bei statistisch unabhängigen Komponenten  betrachtet.

  • Das Ergebnis  $\mu_{xy} = 0$  ist aber auch bei statistisch abhängigen Komponenten  $x$  und  $y$  möglich,  nämlich dann,  wenn diese unkorreliert, also linear unabhängig sind.
  • Die statistische Abhängigkeit ist dann nicht von erster,  sondern von höherer Ordnung,  zum Beispiel entsprechend der Gleichung  $y=x^2.$


Man spricht von  vollständiger Korrelation, wenn die (deterministische) Abhängigkeit zwischen  $x$  und  $y$  durch die Gleichung  $y = K · x$  ausgedrückt wird. Dann ergibt sich für die Kovarianz:

  • $\mu_{xy} = σ_x · σ_y$  bei positivem  $K$–Wert,
  • $\mu_{xy} = - σ_x · σ_y$  bei negativem  $K$–Wert.


Deshalb verwendet man häufig als Beschreibungsgröße anstelle der Kovarianz den so genannten Korrelationskoeffizienten.

$\text{Definition:}$  Der  Korrelationskoeffizient  ist der Quotient aus der Kovarianz  $\mu_{xy}$  und dem Produkt der Effektivwerte  $σ_x$  und  $σ_y$  der beiden Komponenten:

$$\rho_{xy}=\frac{\mu_{xy} }{\sigma_x \cdot \sigma_y}.$$


Der Korrelationskoeffizient  $\rho_{xy}$  weist folgende Eigenschaften auf:

  • Aufgrund der Normierung gilt stets  $-1 \le ρ_{xy} ≤ +1$.
  • Sind die beiden Zufallsgrößen  $x$  und  $y$  unkorreliert,  so ist  $ρ_{xy} = 0$.
  • Bei strenger linearer Abhängigkeit zwischen  $x$  und  $y$  ist  $ρ_{xy}= ±1$   ⇒   vollständige Korrelation.
  • Ein positiver Korrelationskoeffizient bedeutet,  dass bei größerem  $x$–Wert im statistischen Mittel auch  $y$  größer ist als bei kleinerem  $x$.
  • Dagegen drückt ein negativer Korrelationskoeffizient aus,  dass  $y$  mit steigendem  $x$  im Mittel kleiner wird.


Gaußsche 2D-WDF mit Korrelation

$\text{Beispiel 5:}$  Es gelten folgende Voraussetzungen:

  • Die betrachteten Komponenten  $x$  und  $y$  besitzen jeweils eine gaußförmige WDF.
  • Die beiden Streuungen sind unterschiedlich  $(σ_y < σ_x)$.
  • Der Korrelationskoeffizient beträgt  $ρ_{xy} = 0.8$.


Im Unterschied zum  Beispiel 2  mit statistisch unabhängigen Komponenten   ⇒   $ρ_{xy} = 0$  $($trotz  $σ_y < σ_x)$  erkennt man, dass hier bei größerem  $x$–Wert im statistischen Mittel auch  $y$  größer ist als bei kleinerem  $x$.


Regressionsgerade


Gaußsche 2D-WDF mit Korrelationsgerade

$\text{Definition:}$  Als  Regressionsgerade  bezeichnet man die Gerade  $y = K(x)$  in der  $(x, y)$–Ebene durch den „Mittelpunkt”  $(m_x, m_y)$.  Manchmal wird diese Gerade auch  "Korrelationsgerade"  genannt.

Die Regressionsgerade besitzt folgende Eigenschaften:

  • Die mittlere quadratische Abweichung von dieser Geraden – in  $y$–Richtung betrachtet und über alle  $N$  Punkte gemittelt – ist minimal:
$$\overline{\varepsilon_y^{\rm 2} }=\frac{\rm 1}{N} \cdot \sum_{\nu=\rm 1}^{N}\; \;\big [y_\nu - K(x_{\nu})\big ]^{\rm 2}={\rm Minimum}.$$
  • Die Korrelationsgerade kann als eine Art  „statistische Symmetrieachse“  interpretiert werden. Die Geradengleichung lautet:
$$y=K(x)=\frac{\sigma_y}{\sigma_x}\cdot\rho_{xy}\cdot(x - m_x)+m_y.$$
  • Der Winkel, den die Regressionsgerade zur  $x$–Achse einnimmt, beträgt:
$$\theta_{y\hspace{0.05cm}\rightarrow \hspace{0.05cm}x}={\rm arctan}\ (\frac{\sigma_{y} }{\sigma_{x} }\cdot \rho_{xy}).$$


Durch diese Nomenklatur soll deutlich gemacht werden,  dass es sich hier um die Regression von  $y$  auf  $x$  handelt.

  • Die Regression in Gegenrichtung – also von  $x$  auf  $y$ – bedeutet dagegen die Minimierung der mittleren quadratischen Abweichung in  $x$–Richtung.
  • Das interaktive Applet  Korrelation und Regressionsgerade  verdeutlicht, dass sich im Allgemeinen  $($falls  $σ_y \ne σ_x)$  für die Regression von  $x$  auf  $y$  ein anderer Winkel und damit auch eine andere Regressionsgerade ergeben wird:
$$\theta_{x\hspace{0.05cm}\rightarrow \hspace{0.05cm} y}={\rm arctan}\ (\frac{\sigma_{x}}{\sigma_{y}}\cdot \rho_{xy}).$$


Aufgaben zum Kapitel


Aufgabe 4.1: Dreieckiges (x, y)-Gebiet

Aufgabe 4.1Z: Verabredung zum Frühstück

Aufgabe 4.1: Wieder Dreieckgebiet

Aufgabe 4.2Z: Korrelation zwischen $x$ und $e^x$

Aufgabe 4.3: Algebraische und Modulo-Summe

Aufgabe 4.3Z: Diracförmige 2D-WDF