Stochastische Signaltheorie/Verallgemeinerung auf N-dimensionale Zufallsgrößen: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
(8 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 7: Zeile 7:
 
==Korrelationsmatrix==
 
==Korrelationsmatrix==
 
<br>
 
<br>
Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet.&nbsp; Für den allgemeineren Fall einer Zufallsgröße mit&nbsp; $N$&nbsp; Dimensionen bietet sich zweckmäßigerweise eine Vektor&ndash; bzw. Matrixdarstellung an.  
+
Bisher wurden nur statistische Bindungen zwischen zwei&nbsp; (skalaren)&nbsp; Zufallsgrößen betrachtet.&nbsp; Für den allgemeineren Fall einer Zufallsgröße mit&nbsp; $N$&nbsp; Dimensionen bietet sich zweckmäßigerweise eine Vektor&ndash; bzw. Matrixdarstellung an.  
  
 
Für die folgende Beschreibung wird vorausgesetzt:  
 
Für die folgende Beschreibung wird vorausgesetzt:  
Zeile 13: Zeile 13:
 
:$${\mathbf{x}} = \big[\hspace{0.03cm}x_1, \hspace{0.03cm}x_2,
 
:$${\mathbf{x}} = \big[\hspace{0.03cm}x_1, \hspace{0.03cm}x_2,
 
\hspace{0.1cm}\text{...} \hspace{0.1cm}, \hspace{0.03cm}x_N \big]^{\rm T}.$$
 
\hspace{0.1cm}\text{...} \hspace{0.1cm}, \hspace{0.03cm}x_N \big]^{\rm T}.$$
:Hierbei ist&nbsp; $\mathbf{x}$&nbsp; ein Spaltenvektor, was aus dem Zusatz&nbsp; $\rm T$&nbsp; – dies steht für „transponiert” – des angegebenen Zeilenvektors hervorgeht.  
+
:Hierbei ist&nbsp; $\mathbf{x}$&nbsp; ein Spaltenvektor,&nbsp; was aus dem Zusatz&nbsp; $\rm T$&nbsp; – dies steht für „transponiert” – des angegebenen Zeilenvektors hervorgeht.  
 
*Die&nbsp; $N$&nbsp; Komponenten&nbsp; $x_i$&nbsp; seien jeweils eindimensionale reelle Gaußsche Zufallsgrößen.  
 
*Die&nbsp; $N$&nbsp; Komponenten&nbsp; $x_i$&nbsp; seien jeweils eindimensionale reelle Gaußsche Zufallsgrößen.  
  
Zeile 21: Zeile 21:
 
Statistische Bindungen zwischen den&nbsp; $N$&nbsp; Zufallsgrößen werden durch die&nbsp; '''Korrelationsmatrix'''&nbsp; vollständig beschrieben:  
 
Statistische Bindungen zwischen den&nbsp; $N$&nbsp; Zufallsgrößen werden durch die&nbsp; '''Korrelationsmatrix'''&nbsp; vollständig beschrieben:  
 
:$${\mathbf{R} } =\big[ R_{ij} \big] = \left[ \begin{array}{cccc}R_{11} & R_{12} & \cdots & R_{1N} \\ R_{21} & R_{22}& \cdots & R_{2N} \\ \cdots & \cdots & \cdots &\cdots \\ R_{N1} & R_{N2} & \cdots & R_{NN}  \end{array} \right] .$$
 
:$${\mathbf{R} } =\big[ R_{ij} \big] = \left[ \begin{array}{cccc}R_{11} & R_{12} & \cdots & R_{1N} \\ R_{21} & R_{22}& \cdots & R_{2N} \\ \cdots & \cdots & \cdots &\cdots \\ R_{N1} & R_{N2} & \cdots & R_{NN}  \end{array} \right] .$$
Die $N^2$ Elemente dieser $N×N$-Matrix geben jeweils das gemeinsame Moment erster Ordnung zwischen zwei Komponenten an:
+
*Die&nbsp; $N^2$&nbsp; Elemente dieser&nbsp; $N×N$-Matrix geben jeweils das gemeinsame Moment erster Ordnung zwischen zwei Komponenten an:
 
:$$R_{ij}= { {\rm E}\big[x_i \cdot x_j \big] } = R_{ji} .$$
 
:$$R_{ij}= { {\rm E}\big[x_i \cdot x_j \big] } = R_{ji} .$$
In Vektorschreibweise lautet somit die Korrelationsmatrix:  
+
*In Vektorschreibweise lautet somit die Korrelationsmatrix:  
 
:$$\mathbf{R}= {\rm E\big[\mathbf{x} \cdot {\mathbf{x} }^{\rm T} \big] } .$$}}
 
:$$\mathbf{R}= {\rm E\big[\mathbf{x} \cdot {\mathbf{x} }^{\rm T} \big] } .$$}}
  
  
Bitte beachten Sie:
+
'''Bitte beachten Sie''':
*$\mathbf{x}$&nbsp; ist ein Spaltenvektor mit&nbsp; $N$&nbsp; Dimensionen ist und der transponierte Vektor&nbsp; $\mathbf{x}^{\rm T}$&nbsp; ein Zeilenvektor gleicher Länge &nbsp; &rArr; &nbsp; das Produkt&nbsp; $\mathbf{x} · \mathbf{x}^{\rm T}$&nbsp; ergibt eine&nbsp; $N×N$&ndash;Matrix.  
+
*$\mathbf{x}$&nbsp; ist ein Spaltenvektor mit&nbsp; $N$&nbsp; Dimensionen und der transponierte Vektor&nbsp; $\mathbf{x}^{\rm T}$&nbsp; ist ein Zeilenvektor gleicher Länge &nbsp; &rArr; &nbsp; das Produkt&nbsp; $\mathbf{x} · \mathbf{x}^{\rm T}$&nbsp; ergibt eine&nbsp; $N×N$&ndash;Matrix.  
*Dagegen wäre&nbsp; $\mathbf{x}^{\rm T}· \mathbf{x}$&nbsp; eine&nbsp; $1×1$&ndash;Matrix, also ein Skalar.  
+
*Dagegen wäre&nbsp; $\mathbf{x}^{\rm T}· \mathbf{x}$&nbsp; eine&nbsp; $1×1$&ndash;Matrix,&nbsp; also ein Skalar.  
 
*Für den hier nicht weiter betrachteten Sonderfall komplexer Komponenten&nbsp; $x_i$&nbsp; sind auch die Matrixelemente komplex:  
 
*Für den hier nicht weiter betrachteten Sonderfall komplexer Komponenten&nbsp; $x_i$&nbsp; sind auch die Matrixelemente komplex:  
 
:$$R_{ij}= {{\rm E}\big[x_i \cdot x_j^{\star} \big]} = R_{ji}^{\star} .$$
 
:$$R_{ij}= {{\rm E}\big[x_i \cdot x_j^{\star} \big]} = R_{ji}^{\star} .$$
*Die Realteile der Korrelationsmatrix&nbsp; ${\mathbf{R} }$&nbsp; sind weiterhin symmetrisch zur Hauptdiagonalen, während sich die  Imaginärteile durch das Vorzeichen unterscheiden.  
+
*Die Realteile der Korrelationsmatrix&nbsp; ${\mathbf{R} }$&nbsp; sind weiterhin symmetrisch zur Hauptdiagonalen,&nbsp; während sich die  Imaginärteile durch das Vorzeichen unterscheiden.  
  
  
Zeile 44: Zeile 44:
 
wenn die Matrixelemente&nbsp; $K_{ij} = {\rm E}\big[(x_i – m_i) · (x_j – m_j)\big]$&nbsp; jeweils ein&nbsp; [[Stochastische_Signaltheorie/Erwartungswerte_und_Momente#Zentralmomente|Zentralmoment erster Ordnung]]&nbsp; angeben.  
 
wenn die Matrixelemente&nbsp; $K_{ij} = {\rm E}\big[(x_i – m_i) · (x_j – m_j)\big]$&nbsp; jeweils ein&nbsp; [[Stochastische_Signaltheorie/Erwartungswerte_und_Momente#Zentralmomente|Zentralmoment erster Ordnung]]&nbsp; angeben.  
  
Mit dem Vektor&nbsp; $\mathbf{m} = [m_1, m_2$, ... , $m_N]^{\rm T}$&nbsp; kann somit auch geschrieben werden:  
+
*Mit dem Vektor&nbsp; $\mathbf{m} = [m_1, m_2$, ... , $m_N]^{\rm T}$&nbsp; kann somit auch geschrieben werden:  
 
:$$\mathbf{K}= { {\rm E}\big[(\mathbf{x} - \mathbf{m})  (\mathbf{x} - \mathbf{m})^{\rm T} \big] } .$$
 
:$$\mathbf{K}= { {\rm E}\big[(\mathbf{x} - \mathbf{m})  (\mathbf{x} - \mathbf{m})^{\rm T} \big] } .$$
  
Es sei ausdrücklich darauf hingewiesen, dass&nbsp; $m_1$&nbsp; den Mittelwert der Komponente&nbsp; $x_1$&nbsp; und&nbsp; $m_2$&nbsp; den Mittelwert&nbsp; von $x_2$&nbsp; bezeichnet – nicht etwa das Moment erster bzw. zweiter Ordnung. }}
+
*Es sei ausdrücklich darauf hingewiesen, dass&nbsp; $m_1$&nbsp; den Mittelwert der Komponente&nbsp; $x_1$&nbsp; und&nbsp; $m_2$&nbsp; den Mittelwert&nbsp; von $x_2$&nbsp; bezeichnet – nicht etwa das Moment erster bzw. zweiter Ordnung. }}
  
  
Zeile 80: Zeile 80:
 
\end{array} \right].$$
 
\end{array} \right].$$
  
* $\mathbf{K}_2$&nbsp; beschreibt eine 2D–Zufallsgröße, wobei der Korrelationskoeffizient&nbsp; $ρ$&nbsp; zwischen den zwei Komponenten&nbsp; $-0.5$&nbsp; beträgt und beide Komponenten die Streuung&nbsp; $σ = 1$&nbsp; aufweisen.  
+
* $\mathbf{K}_2$&nbsp; beschreibt eine zweidimensionale Zufallsgröße, wobei der Korrelationskoeffizient&nbsp; $ρ$&nbsp; zwischen den zwei Komponenten&nbsp; $-0.5$&nbsp; beträgt und beide Komponenten die Streuung&nbsp; $σ = 1$&nbsp; aufweisen.  
*Bei der 3D-Zufallsgröße gemäß&nbsp; $\mathbf{K}_3$&nbsp; haben alle Komponenten die gleiche Streuung&nbsp; $σ = 2$.&nbsp; Die stärksten Bindungen bestehen  hier zwischen&nbsp; $x_2$&nbsp; und&nbsp; $x_3$, wobei&nbsp; $ρ_{23} = 3/4$&nbsp; gilt.  
+
*Bei der dreidimensionalen Zufallsgröße gemäß&nbsp; $\mathbf{K}_3$&nbsp; haben alle Komponenten die gleiche Streuung&nbsp; $σ = 2$ &nbsp; (bitte Vorfaktor beachten). &nbsp; Die stärksten Bindungen bestehen  hier zwischen&nbsp; $x_2$&nbsp; und&nbsp; $x_3$,&nbsp; wobei&nbsp; $ρ_{23} = 3/4$&nbsp; gilt.  
*Die vier Komponenten der durch&nbsp; $\mathbf{K}_4$&nbsp; gekennzeichneten Zufallsgröße sind unkorreliert, bei Gaußscher WDF auch statistisch unabhängig.&nbsp; Die Varianzen sind&nbsp; $σ_i^2 = i^2$&nbsp; für&nbsp; $i = 1$, ... , $4$&nbsp; &nbsp; &rArr; &nbsp;  Streuungen $σ_i = i$. }}
+
*Die vier Komponenten der durch&nbsp; $\mathbf{K}_4$&nbsp; gekennzeichneten vierdimensionalen Zufallsgröße sind unkorreliert,&nbsp; bei Gaußscher WDF auch statistisch unabhängig.&nbsp; Die Varianzen sind&nbsp; $σ_i^2 = i^2$&nbsp; für&nbsp; $i = 1$, ... , $4$&nbsp; &nbsp; &rArr; &nbsp;  Streuungen $σ_i = i$. }}
  
 
==Zusammenhang zwischen Kovarianzmatrix und WDF==
 
==Zusammenhang zwischen Kovarianzmatrix und WDF==
 
<br>
 
<br>
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Die '''Wahrscheinlichkeitsdichtefunktion''' (WDF) einer $N$-dimensionalen Gaußschen Zufallsgröße $\mathbf{x}$  lautet:  
+
$\text{Definition:}$&nbsp; Die&nbsp; '''Wahrscheinlichkeitsdichtefunktion'''&nbsp; $\rm (WDF)$&nbsp; einer&nbsp; $N$-dimensionalen Gaußschen Zufallsgröße&nbsp; $\mathbf{x}$&nbsp; lautet:  
 
:$$f_\mathbf{x}(\mathbf{x})= \frac{1}{\sqrt{(2 \pi)^N \cdot  
 
:$$f_\mathbf{x}(\mathbf{x})= \frac{1}{\sqrt{(2 \pi)^N \cdot  
 
\vert\mathbf{K}\vert } }\hspace{0.05cm}\cdot \hspace{0.05cm} {\rm e}^{-1/2\hspace{0.05cm}\cdot \hspace{0.05cm}(\mathbf{x} -
 
\vert\mathbf{K}\vert } }\hspace{0.05cm}\cdot \hspace{0.05cm} {\rm e}^{-1/2\hspace{0.05cm}\cdot \hspace{0.05cm}(\mathbf{x} -
Zeile 93: Zeile 93:
 
\mathbf{m}) } .$$
 
\mathbf{m}) } .$$
  
Hierbei bezeichnen:  
+
Hierbei bezeichnet:  
* $\mathbf{x}$ den Spaltenvektor der betrachteten $N$&ndash;dimensionalen Zufallsgröße,  
+
* $\mathbf{x}$&nbsp; den Spaltenvektor der betrachteten&nbsp; $N$&ndash;dimensionalen Zufallsgröße,  
* $\mathbf{m}$ den Spaltenvektor der zugehörigen Mittelwerte,  
+
* $\mathbf{m}$&nbsp; den Spaltenvektor der zugehörigen Mittelwerte,  
* $\vert \mathbf{K}\vert$ die Determinante der $N×N$–Kovarianzmatrix $\mathbf{K}$ – eine skalare Größe,  
+
* $\vert \mathbf{K}\vert$&nbsp; die Determinante der&nbsp; $N×N$–Kovarianzmatrix&nbsp; $\mathbf{K}$&nbsp; &nbsp; eine skalare Größe,  
* $\mathbf{K}^{−1}$ die Inverse von $\mathbf{K}$; diese ist ebenfalls eine $N×N$-Matrix.}}  
+
* $\mathbf{K}^{−1}$&nbsp; die Inverse von&nbsp; $\mathbf{K}$;&nbsp; diese ist ebenfalls eine&nbsp; $N×N$-Matrix.}}  
  
  
Die Multiplikationen des Zeilenvektors $(\mathbf{x} – \mathbf{m})^{\rm T}$, der inversen Matrix $\mathbf{K}^{–1}$ und des Spaltenvektors $(\mathbf{x} – \mathbf{m})$ ergibt im Argument der Exponentialfunktion  ein Skalar.  
+
Die Multiplikationen des Zeilenvektors&nbsp; $(\mathbf{x} – \mathbf{m})^{\rm T}$,&nbsp; der inversen Matrix&nbsp; $\mathbf{K}^{–1}$&nbsp; und des&nbsp; Spaltenvektors&nbsp; $(\mathbf{x} – \mathbf{m})$&nbsp; ergibt im Argument der Exponentialfunktion  ein Skalar.  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 2:}$&nbsp; Wir betrachten wie im [[Stochastische_Signaltheorie/Verallgemeinerung_auf_N-dimensionale_Zufallsgrößen#Kovarianzmatrix|$\text{Beispiel 1}$]] wieder eine 4D-Zufallsgröße $\mathbf{x}$, deren Kovarianzmatrix nur auf der Hauptdiagonalen besetzt ist:  
+
$\text{Beispiel 2:}$&nbsp; Wir betrachten wie im&nbsp; [[Stochastische_Signaltheorie/Verallgemeinerung_auf_N-dimensionale_Zufallsgrößen#Kovarianzmatrix|$\text{Beispiel 1}$]]&nbsp; wieder eine vierdimensionale Zufallsgröße&nbsp; $\mathbf{x}$, deren Kovarianzmatrix nur auf der Hauptdiagonalen besetzt ist:  
 
;$${\mathbf{K} } = \left[
 
;$${\mathbf{K} } = \left[
 
\begin{array}{cccc}
 
\begin{array}{cccc}
Zeile 111: Zeile 111:
 
0 & 0 & 0 & \sigma_{4}^2
 
0 & 0 & 0 & \sigma_{4}^2
 
\end{array} \right].$$
 
\end{array} \right].$$
Deren Determinante ist $\vert \mathbf{K}\vert  = σ_1^2 · σ_2^2 · σ_3^2 · σ_4^2$. Die inverse Kovarianzmatrix ergibt sich zu:  
+
Deren Determinante ist&nbsp; $\vert \mathbf{K}\vert  = σ_1^2 · σ_2^2 · σ_3^2 · σ_4^2$.&nbsp; Die inverse Kovarianzmatrix ergibt sich zu:  
 
:$${\mathbf{K} }^{-1} \cdot {\mathbf{K } } = \left[
 
:$${\mathbf{K} }^{-1} \cdot {\mathbf{K } } = \left[
 
\begin{array}{cccc}
 
\begin{array}{cccc}
Zeile 128: Zeile 128:
 
\end{array} \right].$$
 
\end{array} \right].$$
  
Für mittelwertfreie Größen $(\mathbf{m = 0})$ lautet somit die WDF:
+
Für mittelwertfreie Größen&nbsp; $(\mathbf{m = 0})$&nbsp; lautet somit die Verbundwahrscheinlichkeitsdichtefunktion:
 
:$$\mathbf{ f_{\rm x} }(\mathbf{x})= \frac{1}{ {(2 \pi)^2 \cdot \sigma_1\cdot
 
:$$\mathbf{ f_{\rm x} }(\mathbf{x})= \frac{1}{ {(2 \pi)^2 \cdot \sigma_1\cdot
 
\sigma_2\cdot \sigma_3\cdot \sigma_4} }\cdot {\rm
 
\sigma_2\cdot \sigma_3\cdot \sigma_4} }\cdot {\rm
Zeile 134: Zeile 134:
 
\hspace{0.1cm}+\hspace{0.1cm}{x_2^2}/{2\sigma_2^2}\hspace{0.1cm}+\hspace{0.1cm}{x_3^2}/{2\sigma_3^2}\hspace{0.1cm}+\hspace{0.1cm}{x_4^2}/{2\sigma_4^2})
 
\hspace{0.1cm}+\hspace{0.1cm}{x_2^2}/{2\sigma_2^2}\hspace{0.1cm}+\hspace{0.1cm}{x_3^2}/{2\sigma_3^2}\hspace{0.1cm}+\hspace{0.1cm}{x_4^2}/{2\sigma_4^2})
 
} .$$
 
} .$$
Ein Vergleich mit dem Kapitel  &nbsp;[[Stochastische_Signaltheorie/Zweidimensionale_Gaußsche_Zufallsgrößen#Wahrscheinlichkeitsdichte-_und_Verteilungsfunktion|Wahrscheinlichkeitsdichte- und Verteilungsfunktion]]&nbsp; zeigt, dass es sich um eine 4D-Zufallsgröße mit statistisch unabhängigen und unkorrelierten Komponenten handelt, da folgende Bedingung erfüllt ist:  
+
Ein Vergleich mit dem Kapitel  &nbsp;[[Stochastische_Signaltheorie/Zweidimensionale_Gaußsche_Zufallsgrößen#Wahrscheinlichkeitsdichte-_und_Verteilungsfunktion|Wahrscheinlichkeitsdichte- und Verteilungsfunktion]]&nbsp; zeigt,&nbsp; dass es sich um eine 4D-Zufallsgröße mit statistisch unabhängigen und unkorrelierten Komponenten handelt,&nbsp; da folgende Bedingung erfüllt ist:  
 
:$$\mathbf{f_x}(\mathbf{x})= \mathbf{f_{x1 } }(\mathbf{x_1}) \cdot \mathbf{f_{x2} }(\mathbf{x_2})
 
:$$\mathbf{f_x}(\mathbf{x})= \mathbf{f_{x1 } }(\mathbf{x_1}) \cdot \mathbf{f_{x2} }(\mathbf{x_2})
 
\cdot \mathbf{f_{x3} }(\mathbf{x_3} ) \cdot \mathbf{f_{x4} }(\mathbf{x_4} )
 
\cdot \mathbf{f_{x3} }(\mathbf{x_3} ) \cdot \mathbf{f_{x4} }(\mathbf{x_4} )
Zeile 149: Zeile 149:
 
==Eigenwerte und Eigenvektoren==
 
==Eigenwerte und Eigenvektoren==
 
<br>
 
<br>
Wir gehen weiter von einer $N×N$–Kovarianzmatrix $\mathbf{K}$ aus.  
+
Wir gehen weiter von einer&nbsp; $N×N$–Kovarianzmatrix&nbsp; $\mathbf{K}$&nbsp; aus.  
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Aus der $N×N$–Kovarianzmatrix $\mathbf{K}$ lassen sich die $N$ '''Eigenwerte''' $λ_1$,  ... , $λ_N$  wie folgt berechnen:  
+
$\text{Definition:}$&nbsp; Aus der&nbsp; $N×N$–Kovarianzmatrix&nbsp; $\mathbf{K}$&nbsp; lassen sich die&nbsp; $N$&nbsp; '''Eigenwerte'''&nbsp; $λ_1$,  ... , $λ_N$&nbsp; wie folgt berechnen:  
:$$\vert {\mathbf{K} } - \lambda \cdot {\mathbf{E} }\vert  = 0.$$
+
:$$\big \vert \ {\mathbf{K} } - \lambda \cdot {\mathbf{E} }\ \big \vert  = 0.$$
 
$\mathbf{E}$ ist die Einheits-Diagonalmatrix der Dimension $N$.}}
 
$\mathbf{E}$ ist die Einheits-Diagonalmatrix der Dimension $N$.}}
  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 3:}$&nbsp; Ausgehend von einer 2×2-Matrix $\mathbf{K}$&nbsp; mit&nbsp; $K_{11} = K_{22} = 1$ &nbsp;und&nbsp; $K_{12} = K_{21} = 0.8$&nbsp; erhält man als Bestimmungsgleichung:  
+
$\text{Beispiel 3:}$&nbsp; Ausgehend von einer&nbsp; $2×2$-Matrix&nbsp; $\mathbf{K}$&nbsp; mit&nbsp; $K_{11} = K_{22} = 1$ &nbsp;und&nbsp; $K_{12} = K_{21} = 0.8$&nbsp; erhält man als Bestimmungsgleichung:  
 
:$${\rm det}\left[ \begin{array}{cc}
 
:$${\rm det}\left[ \begin{array}{cc}
 
1- \lambda & 0.8 \\
 
1- \lambda & 0.8 \\
Zeile 164: Zeile 164:
 
\end{array} \right] = 0 \hspace{0.5cm}\Rightarrow \hspace{0.5cm}
 
\end{array} \right] = 0 \hspace{0.5cm}\Rightarrow \hspace{0.5cm}
 
(1- \lambda)^2 - 0.64 = 0.$$
 
(1- \lambda)^2 - 0.64 = 0.$$
Die beiden Eigenwerte sind somit $λ_1 = 1.8$ &nbsp;und&nbsp; $λ_2 = 0.2$. }}
+
Die beiden Eigenwerte sind somit&nbsp; $λ_1 = 1.8$ &nbsp;und&nbsp; $λ_2 = 0.2$. }}
  
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Mit den so ermittelten Eigenwerten $λ_i (i = 1$, ... , $N)$&nbsp; kann man die dazugehörigen '''Eigenvektoren''' $\boldsymbol{\xi_i}$ berechnen. <br>Die $N$ vektoriellen Bestimmungsgleichungen lauten dabei:  
+
$\text{Definition:}$&nbsp; Mit den so ermittelten Eigenwerten&nbsp; $λ_i \ (i = 1$, ... , $N)$&nbsp; kann man die dazugehörigen&nbsp; '''Eigenvektoren'''&nbsp; $\boldsymbol{\xi_i}$&nbsp; berechnen.&nbsp; Die&nbsp; $N$&nbsp; vektoriellen Bestimmungsgleichungen lauten dabei:  
 
:$$({\mathbf{K} } - \lambda_i \cdot {\mathbf{E} }) \cdot
 
:$$({\mathbf{K} } - \lambda_i \cdot {\mathbf{E} }) \cdot
 
{\boldsymbol{\xi_i} } = 0\hspace{0.5cm}(i= 1, \hspace{0.1cm}\text{...} \hspace{0.1cm} , N).$$}}
 
{\boldsymbol{\xi_i} } = 0\hspace{0.5cm}(i= 1, \hspace{0.1cm}\text{...} \hspace{0.1cm} , N).$$}}
Zeile 174: Zeile 174:
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 4:}$&nbsp; In Fortsetzung der Rechnung im $\text{Beispiel 3}$ ergeben sich die beiden folgenden Eigenvektoren:  
+
$\text{Beispiel 4:}$&nbsp; In Fortsetzung der Rechnung im&nbsp; $\text{Beispiel 3}$&nbsp; ergeben sich die beiden folgenden Eigenvektoren:  
 
:$$\left[ \begin{array}{cc}
 
:$$\left[ \begin{array}{cc}
 
1- 1.8 & 0.8 \\
 
1- 1.8 & 0.8 \\
Zeile 191: Zeile 191:
 
+1
 
+1
 
\end{array} \right].$$
 
\end{array} \right].$$
Bringt man die Eigenvektoren in die so genannte Orthonormalfom (jeweils mit Betrag $1$), so lauten sie:  
+
*Bringt man die Eigenvektoren in die so genannte Orthonormalfom&nbsp; $($jeweils mit Betrag&nbsp; $1)$,&nbsp; so lauten sie:  
 
:$${\boldsymbol{\xi_1} } = \frac{1}{\sqrt{2} } \cdot\left[ \begin{array}{c}
 
:$${\boldsymbol{\xi_1} } = \frac{1}{\sqrt{2} } \cdot\left[ \begin{array}{c}
 
+1  \\
 
+1  \\
Zeile 205: Zeile 205:
 
Abschließend soll diskutiert werden, wie Eigenwert und Eigenvektor in der Informationstechnik genutzt werden können, beispielsweise zum Zwecke der Datenreduktion.  
 
Abschließend soll diskutiert werden, wie Eigenwert und Eigenvektor in der Informationstechnik genutzt werden können, beispielsweise zum Zwecke der Datenreduktion.  
  
Wir gehen von den gleichen Parameterwerten wie in $\text{Beispiel 3}$ und $\text{Beispiel 4}$ aus.  
+
Wir gehen von den gleichen Parameterwerten wie in&nbsp; $\text{Beispiel 3}$&nbsp; und&nbsp; $\text{Beispiel 4}$&nbsp; aus.  
*Mit $σ_1 = σ_2  = 1$ und $ρ = 0.8$ ergibt sich die rechts skizzierte 2D-WDF mit elliptischen Höhenlinien.  
+
*Mit&nbsp; $σ_1 = σ_2  = 1$&nbsp; und&nbsp; $ρ = 0.8$&nbsp; ergibt sich die rechts skizzierte zweidimensionale WDF mit elliptischen Höhenlinien.  
*Die Ellipsenhauptachse liegt hier wegen $σ_1 = σ_2$ unter einem Winkel von $45^\circ$.
+
*Die Ellipsenhauptachse liegt hier wegen&nbsp; $σ_1 = σ_2$&nbsp; unter einem Winkel&nbsp; von $45^\circ$.
 
   
 
   
  
In der Grafik ist zusätzlich das $(ξ_1, ξ_2)$-Koordinatensystem eingezeichnet, das durch die Eigenvektoren $\mathbf{ξ}_1$ und $\mathbf{ξ}_2$ der Korrelationsmatrix aufgespannt wird:  
+
In der Grafik ist zusätzlich das&nbsp; $(ξ_1, ξ_2)$-Koordinatensystem eingezeichnet,&nbsp; das durch die Eigenvektoren &nbsp; $\mathbf{ξ}_1$&nbsp; und&nbsp; $\mathbf{ξ}_2$&nbsp; der Korrelationsmatrix aufgespannt wird:  
*Die Eigenwerte $λ_1 = 1.8$ und $λ_2 = 0.2$ geben die Varianzen bezüglich des neuen Koordinatensystems an.  
+
*Die Eigenwerte &nbsp; $λ_1 = 1.8$&nbsp; und &nbsp; $λ_2 = 0.2$ &nbsp; geben die Varianzen bezüglich des neuen Koordinatensystems an.  
*Die Streuungen sind somit $σ_1 = \sqrt{1.8} ≈ 1.341$ und $σ_2 = \sqrt{0.2} ≈ 0.447$.  
+
*Die Streuungen sind somit&nbsp; $σ_1 = \sqrt{1.8} ≈ 1.341$&nbsp; und&nbsp; $σ_2 = \sqrt{0.2} ≈ 0.447$.  
 
<br clear=all>
 
<br clear=all>
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 5:}$&nbsp; Soll eine 2D-Zufallsgröße $\mathbf{x}$ in seinen beiden Dimensionen $x_1$ und $x_2$ im Bereich zwischen $–5σ$ und $+5σ$ im Abstand $Δx = 0.01$ quantisiert werden, so gibt es $\rm 10^6$ mögliche Quantisierungswerte $(σ_1 = σ_2 = σ = 1$  vorausgesetzt).  
+
$\text{Beispiel 5:}$&nbsp; Soll eine zweidimensionale Zufallsgröße&nbsp; $\mathbf{x}$&nbsp; in seinen beiden Dimensionen&nbsp; $x_1$&nbsp; und&nbsp; $x_2$&nbsp; im Bereich zwischen&nbsp; $–5σ$&nbsp; und&nbsp; $+5σ$&nbsp; im Abstand&nbsp; $Δx = 0.01$&nbsp; quantisiert werden,&nbsp; so gibt es&nbsp; $\rm 10^6$&nbsp; mögliche Quantisierungswerte &nbsp; $(σ_1 = σ_2 = σ = 1$&nbsp; vorausgesetzt$)$.  
*Dagegen ist die Anzahl der möglichen Quantisierungswerte bei der gedrehten Zufallsgröße $\mathbf{ξ}$ um den Faktor $1.341 · 0.447 ≈ 0.6$ geringer.  
+
*Dagegen ist die Anzahl der möglichen Quantisierungswerte bei der gedrehten Zufallsgröße&nbsp; $\mathbf{ξ}$&nbsp; um den Faktor&nbsp; $1.341 · 0.447 ≈ 0.6$&nbsp; geringer.  
*Das bedeutet: Allein durch die Drehung des Koordinatensystems um $45^\circ$ &nbsp; ⇒ &nbsp; ''Transformation der 2D&ndash;Zufallsgröße'' wurde eine Datenreduktion um $40\%$ erreicht.  
+
*Das bedeutet: &nbsp; Allein durch die Drehung des Koordinatensystems um&nbsp; $45^\circ$ &nbsp; ⇒ &nbsp; "Transformation der 2D&ndash;Zufallsgröße"&nbsp; wird die Datenmenge um ca.&nbsp;  $40\%$&nbsp; reduziert.  
  
  
Die Ausrichtung entsprechend den Hauptdiagonalen wurde für den zweidimensionalen Fall bereits auf der Seite [[Stochastische_Signaltheorie/Zweidimensionale_Gaußsche_Zufallsgrößen#Drehung_des_Koordinatensystems_.281.29|Drehung des Koordinatensystems]] behandelt, und zwar basierend auf geometrischen und trigonometrischen Überlegungen.  
+
Die Ausrichtung entsprechend den Hauptdiagonalen wurde für den zweidimensionalen Fall bereits auf der Seite&nbsp; [[Stochastische_Signaltheorie/Zweidimensionale_Gaußsche_Zufallsgrößen#Drehung_des_Koordinatensystems|Drehung des Koordinatensystems]]&nbsp; behandelt,&nbsp; und zwar basierend auf geometrischen und trigonometrischen Überlegungen.  
  
Die Problemlösung mit Eigenwert und Eigenvektor ist äußerst elegant und problemlos auf beliebig große Dimensionen $N$ erweiterbar. }}
+
&rArr; &nbsp; '''Die Problemlösung mit Eigenwert und Eigenvektor ist äußerst elegant und problemlos auf beliebig große Dimensionen&nbsp; $N$&nbsp; erweiterbar'''. }}
  
 
==Grundlagen der Matrizenrechnung: Determinante einer Matrix==
 
==Grundlagen der Matrizenrechnung: Determinante einer Matrix==
 
<br>
 
<br>
Wir betrachten die beiden quadratischen Matrizen mit Dimension $N = 2$ &nbsp;bzw.&nbsp; $N = 3$:  
+
Wir betrachten die beiden quadratischen Matrizen mit Dimension&nbsp; $N = 2$&nbsp; &nbsp;bzw.&nbsp; $N = 3$:  
 
:$${\mathbf{A}} = \left[ \begin{array}{cc}
 
:$${\mathbf{A}} = \left[ \begin{array}{cc}
 
a_{11} & a_{12} \\
 
a_{11} & a_{12} \\
Zeile 237: Zeile 237:
 
\end{array}\right].$$
 
\end{array}\right].$$
  
Die beiden Determinanten dieser Matrizen lauten:
+
Die Determinanten dieser beiden  Matrizen lauten:
 
:$$|{\mathbf{A}}| = a_{11} \cdot a_{22} - a_{12} \cdot a_{21},$$
 
:$$|{\mathbf{A}}| = a_{11} \cdot a_{22} - a_{12} \cdot a_{21},$$
 
:$$|{\mathbf{B}}|    =  b_{11} \cdot b_{22} \cdot b_{33} + b_{12} \cdot
 
:$$|{\mathbf{B}}|    =  b_{11} \cdot b_{22} \cdot b_{33} + b_{12} \cdot
Zeile 247: Zeile 247:
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
 
$\text{Bitte beachten Sie:}$&nbsp;  
 
$\text{Bitte beachten Sie:}$&nbsp;  
*Die Determinante von $\mathbf{A}$ lässt sich geometrisch als Fläche des durch die Zeilenvektoren $(a_{11}, a_{12})$ und $(a_{21}, a_{22})$ aufgespannten Parallelogramms interpretieren.  
+
*Die Determinante von&nbsp; $\mathbf{A}$&nbsp; entspricht geometrisch der Fläche des durch die Zeilenvektoren&nbsp; $(a_{11}, a_{12})$&nbsp; und&nbsp; $(a_{21}, a_{22})$&nbsp; aufgespannten Parallelogramms.  
*Die Fläche des durch die beiden Spaltenvektoren $(a_{11}, a_{21})^{\rm T}$ und $(a_{12}, a_{22})^{\rm T}$ festgelegten Parallelogramms ist ebenfalls $\vert \mathbf{A}\vert$.  
+
*Die Fläche des durch die beiden Spaltenvektoren&nbsp; $(a_{11}, a_{21})^{\rm T}$&nbsp; und&nbsp; $(a_{12}, a_{22})^{\rm T}$&nbsp; festgelegten Parallelogramms ist ebenfalls&nbsp; $\vert \mathbf{A}\vert$.  
*Dagegen ist die Determinante der Matrix $\mathbf{B}$ bei analoger geometrischer Interpretation als Volumen zu verstehen.}}  
+
*Dagegen ist die Determinante der Matrix&nbsp; $\mathbf{B}$&nbsp; bei analoger geometrischer Interpretation als Volumen zu verstehen.}}  
  
  
Für $N > 2$ ist es möglich, sogenannte ''Unterdeterminanten'' zu bilden.  
+
Für&nbsp; $N > 2$&nbsp; ist es möglich, sogenannte&nbsp; '''Unterdeterminanten'''&nbsp; zu bilden.  
*Die Unterdeterminante einer $N×N$–Matrix bezüglich der Stelle &nbsp;$(i, j)$&nbsp; ist die Determinante der $(N–1)×(N–1)$–Matrix, die sich ergibt, wenn man die $i$-te Zeile und die $j$-te Spalte streicht.  
+
*Die Unterdeterminante einer&nbsp; $N×N$–Matrix bezüglich der Stelle &nbsp;$(i, j)$&nbsp; ist die Determinante der&nbsp; $(N–1)×(N–1)$–Matrix,&nbsp; die sich ergibt, <br>wenn man die&nbsp; $i$-te Zeile und die&nbsp; $j$-te Spalte streicht.  
*Als Kofaktor bezeichnet man dann den Wert der Unterdeterminante gewichtet mit dem Vorzeichen $(–1)^{i+j}$.  
+
*Als Kofaktor bezeichnet man dann den Wert der Unterdeterminante gewichtet mit dem Vorzeichen&nbsp; $(–1)^{i+j}$.  
  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 6:}$&nbsp; Ausgehend von der $3×3$–Matrix $\mathbf{B}$ lauten die Kofaktoren der zweiten Zeile:  
+
$\text{Beispiel 6:}$&nbsp; Ausgehend von der&nbsp; $3×3$–Matrix&nbsp; $\mathbf{B}$&nbsp; lauten die Kofaktoren der zweiten Zeile:  
 
:$$B_{21}  =  -(b_{12} \cdot b_{23} - b_{13} \cdot
 
:$$B_{21}  =  -(b_{12} \cdot b_{23} - b_{13} \cdot
 
b_{32})\hspace{0.3cm}{\rm da}\hspace{0.3cm} i+j =3,$$
 
b_{32})\hspace{0.3cm}{\rm da}\hspace{0.3cm} i+j =3,$$
Zeile 266: Zeile 266:
 
b_{31})\hspace{0.3cm}{\rm da}\hspace{0.3cm} i+j=5.$$
 
b_{31})\hspace{0.3cm}{\rm da}\hspace{0.3cm} i+j=5.$$
  
Die Determinante von $\mathbf{B}$ ergibt sich mit diesen Kofaktoren zu:  
+
Die Determinante von&nbsp; $\mathbf{B}$&nbsp; ergibt sich mit diesen Kofaktoren zu:  
 
:$$\vert {\mathbf{B} } \vert  =  b_{21} \cdot B_{21} +b_{22} \cdot B_{22}
 
:$$\vert {\mathbf{B} } \vert  =  b_{21} \cdot B_{21} +b_{22} \cdot B_{22}
 
+b_{23} \cdot B_{23}.$$
 
+b_{23} \cdot B_{23}.$$
 
*Die Determinante wurde hier nach der zweiten Zeile entwickelt.  
 
*Die Determinante wurde hier nach der zweiten Zeile entwickelt.  
*Entwickelt man $\mathbf{B}$ nach einer anderen Zeile oder Spalte, so ergibt sich für $\vert \mathbf{B} \vert$ der gleiche Zahlenwert.}}
+
*Entwickelt man&nbsp; $\mathbf{B}$&nbsp; nach einer anderen Zeile oder Spalte,&nbsp; so ergibt sich für&nbsp; $\vert \mathbf{B} \vert$&nbsp; natürlich der gleiche Zahlenwert.}}
  
 
==Grundlagen der Matrizenrechnung: Inverse einer Matrix==
 
==Grundlagen der Matrizenrechnung: Inverse einer Matrix==
 
<br>
 
<br>
Häufig benötigt man die Inverse $\mathbf{M}^{–1}$ der quadratischen Matrix $\mathbf{M}$. Die inverse Matrix $\mathbf{M}^{–1}$ besitzt die gleiche Dimension $N$ wie $\mathbf{M}$ und ist wie folgt definiert, wobei $\mathbf{E}$ wieder die ''Einheitsmatrix'' (Diagonalmatrix) bezeichnet:  
+
Häufig benötigt man die Inverse&nbsp;  $\mathbf{M}^{–1}$&nbsp; der quadratischen Matrix&nbsp; $\mathbf{M}$.&nbsp; Die inverse Matrix $\mathbf{M}^{–1}$&nbsp;
 +
*besitzt die gleiche Dimension&nbsp; $N$&nbsp; wie&nbsp; $\mathbf{M}$&nbsp; und  
 +
*ist wie folgt definiert,&nbsp; wobei&nbsp; $\mathbf{E}$&nbsp; wieder die&nbsp; "Einheitsmatrix"&nbsp; (Diagonalmatrix)&nbsp; bezeichnet:  
 
:$${\mathbf{M}}^{-1} \cdot {\mathbf{M}} ={\mathbf{E}} =
 
:$${\mathbf{M}}^{-1} \cdot {\mathbf{M}} ={\mathbf{E}} =
 
\left[ \begin{array}{cccc} 1 & 0 & \cdots & 0 \\
 
\left[ \begin{array}{cccc} 1 & 0 & \cdots & 0 \\
Zeile 282: Zeile 284:
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
 
$\text{Beispiel 7:}$&nbsp;  
 
$\text{Beispiel 7:}$&nbsp;  
Die Inverse der $2×2$–Matrix $\mathbf{A}$ lautet demnach:  
+
Die Inverse der&nbsp; $2×2$–Matrix&nbsp; $\mathbf{A}$&nbsp; lautet demnach:  
 
:$$\left[ \begin{array}{cc}
 
:$$\left[ \begin{array}{cc}
 
a_{11} & a_{12} \\
 
a_{11} & a_{12} \\
Zeile 291: Zeile 293:
 
\end{array} \right].$$
 
\end{array} \right].$$
  
Hierbei gibt $\vert\mathbf{A}\vert = a_{11} · a_{22} - a_{12} · a_{21}$ die [[Stochastische_Signaltheorie/Verallgemeinerung_auf_N-dimensionale_Zufallsgrößen#Grundlagen_der_Matrizenrechnung:_Determinante_einer_Matrix|Determinante]] an.}}  
+
Hierbei gibt&nbsp; $\vert\mathbf{A}\vert = a_{11} · a_{22} - a_{12} · a_{21}$&nbsp; die&nbsp; [[Stochastische_Signaltheorie/Verallgemeinerung_auf_N-dimensionale_Zufallsgrößen#Grundlagen_der_Matrizenrechnung:_Determinante_einer_Matrix|Determinante]]&nbsp; an.}}  
  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
 
$\text{Beispiel 8:}$&nbsp;  
 
$\text{Beispiel 8:}$&nbsp;  
Entsprechend gilt für die $3×3$–Matrix $\mathbf{B}$:
+
Entsprechend gilt für die&nbsp; $3×3$–Matrix&nbsp; $\mathbf{B}$:
 
:$$\left[ \begin{array}{ccc}
 
:$$\left[ \begin{array}{ccc}
 
b_{11} & b_{12} & b_{13}\\
 
b_{11} & b_{12} & b_{13}\\
Zeile 307: Zeile 309:
 
\end{array}\right].$$
 
\end{array}\right].$$
  
 
+
*Die Determinante&nbsp; $\vert\mathbf{B}\vert$&nbsp; einer&nbsp; $3×3$–Matrix wurde auf der letzten Seite angegeben, ebenso wie die Berechnungsvorschrift  der Kofaktoren&nbsp; $B_{ij}$:  
*Die Determinante $\vert\mathbf{B}\vert$ einer $3×3$–Matrix wurde auf der letzten Seite angegeben, ebenso wie die Berechnungsvorschrift  der Kofaktoren $B_{ij}$:  
+
*Diese beschreiben die Unterdeterminanten von&nbsp; $\mathbf{B}$,&nbsp; gewichtet mit den Positionsvorzeichen&nbsp; $(–1)^{i+j}$.  
*Diese beschreiben die Unterdeterminanten von $\mathbf{B}$, gewichtet mit den Positionsvorzeichen $(–1)^{i+j}$.  
 
 
*Zu beachten ist die Vertauschung der Zeilen und Spalten bei der Inversen.}}  
 
*Zu beachten ist die Vertauschung der Zeilen und Spalten bei der Inversen.}}  
  
 
==Aufgaben zum Kapitel==
 
==Aufgaben zum Kapitel==
 
<br>
 
<br>
[[Aufgaben:4.15 WDF und Korrelationsmatrix|Aufgabe 4.15: WDF und Korrelationsmatrix]]
+
[[Aufgaben:Aufgabe_4.15:_WDF_und_Kovarianzmatrix|Aufgabe 4.15: WDF und Kovarianzmatrix]]
  
 
[[Aufgaben:4.15Z Aussagen der Kovarianzmatrix|Aufgabe 4.15Z: Aussagen der Kovarianzmatrix]]
 
[[Aufgaben:4.15Z Aussagen der Kovarianzmatrix|Aufgabe 4.15Z: Aussagen der Kovarianzmatrix]]
Zeile 320: Zeile 321:
 
[[Aufgaben:4.16 Eigenwerte und Eigenvektoren|Aufgabe 4.16: Eigenwerte und Eigenvektoren]]
 
[[Aufgaben:4.16 Eigenwerte und Eigenvektoren|Aufgabe 4.16: Eigenwerte und Eigenvektoren]]
  
[[Aufgaben:4.16Z 2D- und 3D-Datenreduktion|Aufgabe 4.16Z: 2D- und 3D-Datenreduktion]]
+
[[Aufgaben:Aufgabe_4.16Z:_Zwei-_und_dreidimensionale_Datenreduktion|Aufgabe 4.16Z: Zwei- und dreidimensionale Datenreduktion]]
  
  
 
{{Display}}
 
{{Display}}

Aktuelle Version vom 28. März 2022, 12:23 Uhr

Korrelationsmatrix


Bisher wurden nur statistische Bindungen zwischen zwei  (skalaren)  Zufallsgrößen betrachtet.  Für den allgemeineren Fall einer Zufallsgröße mit  $N$  Dimensionen bietet sich zweckmäßigerweise eine Vektor– bzw. Matrixdarstellung an.

Für die folgende Beschreibung wird vorausgesetzt:

  • Die  $N$–dimensionale Zufallsgröße wird als Vektor dargestellt:
$${\mathbf{x}} = \big[\hspace{0.03cm}x_1, \hspace{0.03cm}x_2, \hspace{0.1cm}\text{...} \hspace{0.1cm}, \hspace{0.03cm}x_N \big]^{\rm T}.$$
Hierbei ist  $\mathbf{x}$  ein Spaltenvektor,  was aus dem Zusatz  $\rm T$  – dies steht für „transponiert” – des angegebenen Zeilenvektors hervorgeht.
  • Die  $N$  Komponenten  $x_i$  seien jeweils eindimensionale reelle Gaußsche Zufallsgrößen.


$\text{Definition:}$  Statistische Bindungen zwischen den  $N$  Zufallsgrößen werden durch die  Korrelationsmatrix  vollständig beschrieben:

$${\mathbf{R} } =\big[ R_{ij} \big] = \left[ \begin{array}{cccc}R_{11} & R_{12} & \cdots & R_{1N} \\ R_{21} & R_{22}& \cdots & R_{2N} \\ \cdots & \cdots & \cdots &\cdots \\ R_{N1} & R_{N2} & \cdots & R_{NN} \end{array} \right] .$$
  • Die  $N^2$  Elemente dieser  $N×N$-Matrix geben jeweils das gemeinsame Moment erster Ordnung zwischen zwei Komponenten an:
$$R_{ij}= { {\rm E}\big[x_i \cdot x_j \big] } = R_{ji} .$$
  • In Vektorschreibweise lautet somit die Korrelationsmatrix:
$$\mathbf{R}= {\rm E\big[\mathbf{x} \cdot {\mathbf{x} }^{\rm T} \big] } .$$


Bitte beachten Sie:

  • $\mathbf{x}$  ist ein Spaltenvektor mit  $N$  Dimensionen und der transponierte Vektor  $\mathbf{x}^{\rm T}$  ist ein Zeilenvektor gleicher Länge   ⇒   das Produkt  $\mathbf{x} · \mathbf{x}^{\rm T}$  ergibt eine  $N×N$–Matrix.
  • Dagegen wäre  $\mathbf{x}^{\rm T}· \mathbf{x}$  eine  $1×1$–Matrix,  also ein Skalar.
  • Für den hier nicht weiter betrachteten Sonderfall komplexer Komponenten  $x_i$  sind auch die Matrixelemente komplex:
$$R_{ij}= {{\rm E}\big[x_i \cdot x_j^{\star} \big]} = R_{ji}^{\star} .$$
  • Die Realteile der Korrelationsmatrix  ${\mathbf{R} }$  sind weiterhin symmetrisch zur Hauptdiagonalen,  während sich die Imaginärteile durch das Vorzeichen unterscheiden.


Kovarianzmatrix


$\text{Definition:}$  Man kommt von der Korrelationsmatrix  $\mathbf{R} =\left[ R_{ij} \right]$  zur so genannten  Kovarianzmatrix

$${\mathbf{K} } =\big[ K_{ij} \big] = \left[ \begin{array}{cccc}K_{11} & K_{12} & \cdots & K_{1N} \\ K_{21} & K_{22}& \cdots & K_{2N} \\ \cdots & \cdots & \cdots &\cdots \\ K_{N1} & K_{N2} & \cdots & K_{NN} \end{array} \right] ,$$

wenn die Matrixelemente  $K_{ij} = {\rm E}\big[(x_i – m_i) · (x_j – m_j)\big]$  jeweils ein  Zentralmoment erster Ordnung  angeben.

  • Mit dem Vektor  $\mathbf{m} = [m_1, m_2$, ... , $m_N]^{\rm T}$  kann somit auch geschrieben werden:
$$\mathbf{K}= { {\rm E}\big[(\mathbf{x} - \mathbf{m}) (\mathbf{x} - \mathbf{m})^{\rm T} \big] } .$$
  • Es sei ausdrücklich darauf hingewiesen, dass  $m_1$  den Mittelwert der Komponente  $x_1$  und  $m_2$  den Mittelwert  von $x_2$  bezeichnet – nicht etwa das Moment erster bzw. zweiter Ordnung.


Die Kovarianzmatrix  $\mathbf{K}$  zeigt bei reellen mittelwertfreien Gauß–Größen folgende weitere Eigenschaften:

  • Das Element der  $i$-ten Zeile und  $j$-ten Spalte lautet mit den beiden Streuungen  $σ_i$  und  $σ_j$  und dem  Korrelationskoeffizienten  $ρ_{ij}$:
$$K_{ij} = σ_i · σ_j · ρ_{ij} = K_{ji}.$$
  • Berücksichtigt man noch die Beziehung  $ρ_{ii} = 1$, so erhält man für die Kovarianzmatrix:
$${\mathbf{K}} =\left[ K_{ij} \right] = \left[ \begin{array}{cccc} \sigma_{1}^2 & \sigma_{1}\cdot \sigma_{2}\cdot\rho_{12} & \cdots & \sigma_{1}\cdot \sigma_{N} \cdot \rho_{1N} \\ \sigma_{2} \cdot \sigma_{1} \cdot \rho_{21} & \sigma_{2}^2& \cdots & \sigma_{2} \cdot \sigma_{N} \cdot\rho_{2N} \\ \cdots & \cdots & \cdots & \cdots \\ \sigma_{N} \cdot \sigma_{1} \cdot \rho_{N1} & \sigma_{N}\cdot \sigma_{2} \cdot\rho_{N2} & \cdots & \sigma_{N}^2 \end{array} \right] .$$
  • Aufgrund der Beziehung  $ρ_{ij} = ρ_{ji}$  ist die Kovarianzmatrix bei reellen Größen stets symmetrisch zur Hauptdiagonalen.  Bei komplexen Größen würde  $ρ_{ij} = ρ_{ji}^{\star}$  gelten.


$\text{Beispiel 1:}$  Wir betrachten die drei Kovarianzmatrizen:

$${\mathbf{K}_2} = \left[ \begin{array}{cc} 1 & -0.5 \\ -0.5 & 1 \end{array} \right], \hspace{0.9cm}{\mathbf{K}_3} = 4 \cdot \left[ \begin{array}{ccc} 1 & 1/2 & 1/4\\ 1/2 & 1 & 3/4 \\ 1/4 & 3/4 & 1 \end{array}\right], \hspace{0.9cm}{\mathbf{K}_4} = \left[ \begin{array}{cccc} 1 & 0 & 0 & 0 \\ 0 & 4 & 0 & 0 \\ 0 & 0 & 9 & 0 \\ 0 & 0 & 0 & 16 \end{array} \right].$$
  • $\mathbf{K}_2$  beschreibt eine zweidimensionale Zufallsgröße, wobei der Korrelationskoeffizient  $ρ$  zwischen den zwei Komponenten  $-0.5$  beträgt und beide Komponenten die Streuung  $σ = 1$  aufweisen.
  • Bei der dreidimensionalen Zufallsgröße gemäß  $\mathbf{K}_3$  haben alle Komponenten die gleiche Streuung  $σ = 2$   (bitte Vorfaktor beachten).   Die stärksten Bindungen bestehen hier zwischen  $x_2$  und  $x_3$,  wobei  $ρ_{23} = 3/4$  gilt.
  • Die vier Komponenten der durch  $\mathbf{K}_4$  gekennzeichneten vierdimensionalen Zufallsgröße sind unkorreliert,  bei Gaußscher WDF auch statistisch unabhängig.  Die Varianzen sind  $σ_i^2 = i^2$  für  $i = 1$, ... , $4$    ⇒   Streuungen $σ_i = i$.

Zusammenhang zwischen Kovarianzmatrix und WDF


$\text{Definition:}$  Die  Wahrscheinlichkeitsdichtefunktion  $\rm (WDF)$  einer  $N$-dimensionalen Gaußschen Zufallsgröße  $\mathbf{x}$  lautet:

$$f_\mathbf{x}(\mathbf{x})= \frac{1}{\sqrt{(2 \pi)^N \cdot \vert\mathbf{K}\vert } }\hspace{0.05cm}\cdot \hspace{0.05cm} {\rm e}^{-1/2\hspace{0.05cm}\cdot \hspace{0.05cm}(\mathbf{x} - \mathbf{m})^{\rm T}\hspace{0.05cm}\cdot \hspace{0.05cm}\mathbf{K}^{-1} \hspace{0.05cm}\cdot \hspace{0.05cm}(\mathbf{x} - \mathbf{m}) } .$$

Hierbei bezeichnet:

  • $\mathbf{x}$  den Spaltenvektor der betrachteten  $N$–dimensionalen Zufallsgröße,
  • $\mathbf{m}$  den Spaltenvektor der zugehörigen Mittelwerte,
  • $\vert \mathbf{K}\vert$  die Determinante der  $N×N$–Kovarianzmatrix  $\mathbf{K}$  –  eine skalare Größe,
  • $\mathbf{K}^{−1}$  die Inverse von  $\mathbf{K}$;  diese ist ebenfalls eine  $N×N$-Matrix.


Die Multiplikationen des Zeilenvektors  $(\mathbf{x} – \mathbf{m})^{\rm T}$,  der inversen Matrix  $\mathbf{K}^{–1}$  und des  Spaltenvektors  $(\mathbf{x} – \mathbf{m})$  ergibt im Argument der Exponentialfunktion ein Skalar.

$\text{Beispiel 2:}$  Wir betrachten wie im  $\text{Beispiel 1}$  wieder eine vierdimensionale Zufallsgröße  $\mathbf{x}$, deren Kovarianzmatrix nur auf der Hauptdiagonalen besetzt ist:

$${\mathbf{K} } = \left[ \begin{array}{cccc} \sigma_{1}^2 & 0 & 0 & 0 \\ 0 & \sigma_{2}^2 & 0 & 0 \\ 0 & 0 & \sigma_{3}^2 & 0 \\ 0 & 0 & 0 & \sigma_{4}^2 \end{array} \right].$$

Deren Determinante ist  $\vert \mathbf{K}\vert = σ_1^2 · σ_2^2 · σ_3^2 · σ_4^2$.  Die inverse Kovarianzmatrix ergibt sich zu:

$${\mathbf{K} }^{-1} \cdot {\mathbf{K } } = \left[ \begin{array}{cccc} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{array} \right] \hspace{0.5cm}\Rightarrow \hspace{0.5cm} {\mathbf{K} }^{-1} = \left[ \begin{array}{cccc} \sigma_{1}^{-2} & 0 & 0 & 0 \\ 0 & \sigma_{2}^{-2} & 0 & 0 \\ 0 & 0 & \sigma_{3}^{-2} & 0 \\ 0 & 0 & 0 & \sigma_{4}^{-2} \end{array} \right].$$

Für mittelwertfreie Größen  $(\mathbf{m = 0})$  lautet somit die Verbundwahrscheinlichkeitsdichtefunktion:

$$\mathbf{ f_{\rm x} }(\mathbf{x})= \frac{1}{ {(2 \pi)^2 \cdot \sigma_1\cdot \sigma_2\cdot \sigma_3\cdot \sigma_4} }\cdot {\rm e}^{-({x_1^2}/{2\sigma_1^2} \hspace{0.1cm}+\hspace{0.1cm}{x_2^2}/{2\sigma_2^2}\hspace{0.1cm}+\hspace{0.1cm}{x_3^2}/{2\sigma_3^2}\hspace{0.1cm}+\hspace{0.1cm}{x_4^2}/{2\sigma_4^2}) } .$$

Ein Vergleich mit dem Kapitel  Wahrscheinlichkeitsdichte- und Verteilungsfunktion  zeigt,  dass es sich um eine 4D-Zufallsgröße mit statistisch unabhängigen und unkorrelierten Komponenten handelt,  da folgende Bedingung erfüllt ist:

$$\mathbf{f_x}(\mathbf{x})= \mathbf{f_{x1 } }(\mathbf{x_1}) \cdot \mathbf{f_{x2} }(\mathbf{x_2}) \cdot \mathbf{f_{x3} }(\mathbf{x_3} ) \cdot \mathbf{f_{x4} }(\mathbf{x_4} ) .$$

Der Fall korrelierter Komponenten wird in den  Aufgaben zu diesem Kapitel  eingehend behandelt.


Die folgenden Links verweisen auf zwei Seiten am Kapitelende mit Grundlagen der Matrizenrechnung:

Eigenwerte und Eigenvektoren


Wir gehen weiter von einer  $N×N$–Kovarianzmatrix  $\mathbf{K}$  aus.

$\text{Definition:}$  Aus der  $N×N$–Kovarianzmatrix  $\mathbf{K}$  lassen sich die  $N$  Eigenwerte  $λ_1$, ... , $λ_N$  wie folgt berechnen:

$$\big \vert \ {\mathbf{K} } - \lambda \cdot {\mathbf{E} }\ \big \vert = 0.$$

$\mathbf{E}$ ist die Einheits-Diagonalmatrix der Dimension $N$.


$\text{Beispiel 3:}$  Ausgehend von einer  $2×2$-Matrix  $\mathbf{K}$  mit  $K_{11} = K_{22} = 1$  und  $K_{12} = K_{21} = 0.8$  erhält man als Bestimmungsgleichung:

$${\rm det}\left[ \begin{array}{cc} 1- \lambda & 0.8 \\ 0.8 & 1- \lambda \end{array} \right] = 0 \hspace{0.5cm}\Rightarrow \hspace{0.5cm} (1- \lambda)^2 - 0.64 = 0.$$

Die beiden Eigenwerte sind somit  $λ_1 = 1.8$  und  $λ_2 = 0.2$.


$\text{Definition:}$  Mit den so ermittelten Eigenwerten  $λ_i \ (i = 1$, ... , $N)$  kann man die dazugehörigen  Eigenvektoren  $\boldsymbol{\xi_i}$  berechnen.  Die  $N$  vektoriellen Bestimmungsgleichungen lauten dabei:

$$({\mathbf{K} } - \lambda_i \cdot {\mathbf{E} }) \cdot {\boldsymbol{\xi_i} } = 0\hspace{0.5cm}(i= 1, \hspace{0.1cm}\text{...} \hspace{0.1cm} , N).$$


$\text{Beispiel 4:}$  In Fortsetzung der Rechnung im  $\text{Beispiel 3}$  ergeben sich die beiden folgenden Eigenvektoren:

$$\left[ \begin{array}{cc} 1- 1.8 & 0.8 \\ 0.8 & 1- 1.8 \end{array} \right]\cdot{\boldsymbol{\xi_1} } = 0 \hspace{0.5cm}\Rightarrow \hspace{0.5cm} {\boldsymbol{\xi_1} } = {\rm const.} \cdot\left[ \begin{array}{c} +1 \\ +1 \end{array} \right],$$
$$\left[ \begin{array}{cc} 1- 0.2 & 0.8 \\ 0.8 & 1- 0.2 \end{array} \right]\cdot{\boldsymbol{\xi_2} } = 0 \hspace{0.5cm}\Rightarrow \hspace{0.5cm} {\boldsymbol{\xi_2} } = {\rm const.} \cdot\left[ \begin{array}{c} -1 \\ +1 \end{array} \right].$$
  • Bringt man die Eigenvektoren in die so genannte Orthonormalfom  $($jeweils mit Betrag  $1)$,  so lauten sie:
$${\boldsymbol{\xi_1} } = \frac{1}{\sqrt{2} } \cdot\left[ \begin{array}{c} +1 \\ +1 \end{array} \right], \hspace{0.5cm}{\boldsymbol{\xi_2} } = \frac{1}{\sqrt{2} } \cdot\left[ \begin{array}{c} -1 \\ +1 \end{array} \right].$$

Nutzung von Eigenwerten in der Informationstechnik


Zur Datenkompression mittels Eigenwertbestimmung

Abschließend soll diskutiert werden, wie Eigenwert und Eigenvektor in der Informationstechnik genutzt werden können, beispielsweise zum Zwecke der Datenreduktion.

Wir gehen von den gleichen Parameterwerten wie in  $\text{Beispiel 3}$  und  $\text{Beispiel 4}$  aus.

  • Mit  $σ_1 = σ_2 = 1$  und  $ρ = 0.8$  ergibt sich die rechts skizzierte zweidimensionale WDF mit elliptischen Höhenlinien.
  • Die Ellipsenhauptachse liegt hier wegen  $σ_1 = σ_2$  unter einem Winkel  von $45^\circ$.


In der Grafik ist zusätzlich das  $(ξ_1, ξ_2)$-Koordinatensystem eingezeichnet,  das durch die Eigenvektoren   $\mathbf{ξ}_1$  und  $\mathbf{ξ}_2$  der Korrelationsmatrix aufgespannt wird:

  • Die Eigenwerte   $λ_1 = 1.8$  und   $λ_2 = 0.2$   geben die Varianzen bezüglich des neuen Koordinatensystems an.
  • Die Streuungen sind somit  $σ_1 = \sqrt{1.8} ≈ 1.341$  und  $σ_2 = \sqrt{0.2} ≈ 0.447$.


$\text{Beispiel 5:}$  Soll eine zweidimensionale Zufallsgröße  $\mathbf{x}$  in seinen beiden Dimensionen  $x_1$  und  $x_2$  im Bereich zwischen  $–5σ$  und  $+5σ$  im Abstand  $Δx = 0.01$  quantisiert werden,  so gibt es  $\rm 10^6$  mögliche Quantisierungswerte   $(σ_1 = σ_2 = σ = 1$  vorausgesetzt$)$.

  • Dagegen ist die Anzahl der möglichen Quantisierungswerte bei der gedrehten Zufallsgröße  $\mathbf{ξ}$  um den Faktor  $1.341 · 0.447 ≈ 0.6$  geringer.
  • Das bedeutet:   Allein durch die Drehung des Koordinatensystems um  $45^\circ$   ⇒   "Transformation der 2D–Zufallsgröße"  wird die Datenmenge um ca.  $40\%$  reduziert.


Die Ausrichtung entsprechend den Hauptdiagonalen wurde für den zweidimensionalen Fall bereits auf der Seite  Drehung des Koordinatensystems  behandelt,  und zwar basierend auf geometrischen und trigonometrischen Überlegungen.

⇒   Die Problemlösung mit Eigenwert und Eigenvektor ist äußerst elegant und problemlos auf beliebig große Dimensionen  $N$  erweiterbar.

Grundlagen der Matrizenrechnung: Determinante einer Matrix


Wir betrachten die beiden quadratischen Matrizen mit Dimension  $N = 2$   bzw.  $N = 3$:

$${\mathbf{A}} = \left[ \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \end{array} \right], \hspace{0.5cm}{\mathbf{B}} = \left[ \begin{array}{ccc} b_{11} & b_{12} & b_{13}\\ b_{21} & b_{22} & b_{23}\\ b_{31} & b_{32} & b_{33} \end{array}\right].$$

Die Determinanten dieser beiden Matrizen lauten:

$$|{\mathbf{A}}| = a_{11} \cdot a_{22} - a_{12} \cdot a_{21},$$
$$|{\mathbf{B}}| = b_{11} \cdot b_{22} \cdot b_{33} + b_{12} \cdot b_{23} \cdot b_{31} + b_{13} \cdot b_{21} \cdot b_{32} - b_{11} \cdot b_{23} \cdot b_{32} - b_{12} \cdot b_{21} \cdot b_{33}- b_{13} \cdot b_{22} \cdot b_{31}.$$

$\text{Bitte beachten Sie:}$ 

  • Die Determinante von  $\mathbf{A}$  entspricht geometrisch der Fläche des durch die Zeilenvektoren  $(a_{11}, a_{12})$  und  $(a_{21}, a_{22})$  aufgespannten Parallelogramms.
  • Die Fläche des durch die beiden Spaltenvektoren  $(a_{11}, a_{21})^{\rm T}$  und  $(a_{12}, a_{22})^{\rm T}$  festgelegten Parallelogramms ist ebenfalls  $\vert \mathbf{A}\vert$.
  • Dagegen ist die Determinante der Matrix  $\mathbf{B}$  bei analoger geometrischer Interpretation als Volumen zu verstehen.


Für  $N > 2$  ist es möglich, sogenannte  Unterdeterminanten  zu bilden.

  • Die Unterdeterminante einer  $N×N$–Matrix bezüglich der Stelle  $(i, j)$  ist die Determinante der  $(N–1)×(N–1)$–Matrix,  die sich ergibt,
    wenn man die  $i$-te Zeile und die  $j$-te Spalte streicht.
  • Als Kofaktor bezeichnet man dann den Wert der Unterdeterminante gewichtet mit dem Vorzeichen  $(–1)^{i+j}$.


$\text{Beispiel 6:}$  Ausgehend von der  $3×3$–Matrix  $\mathbf{B}$  lauten die Kofaktoren der zweiten Zeile:

$$B_{21} = -(b_{12} \cdot b_{23} - b_{13} \cdot b_{32})\hspace{0.3cm}{\rm da}\hspace{0.3cm} i+j =3,$$
$$B_{22} = +(b_{11} \cdot b_{23} - b_{13} \cdot b_{31})\hspace{0.3cm}{\rm da}\hspace{0.3cm} i+j=4,$$
$$B_{23} = -(b_{11} \cdot b_{32} - b_{12} \cdot b_{31})\hspace{0.3cm}{\rm da}\hspace{0.3cm} i+j=5.$$

Die Determinante von  $\mathbf{B}$  ergibt sich mit diesen Kofaktoren zu:

$$\vert {\mathbf{B} } \vert = b_{21} \cdot B_{21} +b_{22} \cdot B_{22} +b_{23} \cdot B_{23}.$$
  • Die Determinante wurde hier nach der zweiten Zeile entwickelt.
  • Entwickelt man  $\mathbf{B}$  nach einer anderen Zeile oder Spalte,  so ergibt sich für  $\vert \mathbf{B} \vert$  natürlich der gleiche Zahlenwert.

Grundlagen der Matrizenrechnung: Inverse einer Matrix


Häufig benötigt man die Inverse  $\mathbf{M}^{–1}$  der quadratischen Matrix  $\mathbf{M}$.  Die inverse Matrix $\mathbf{M}^{–1}$ 

  • besitzt die gleiche Dimension  $N$  wie  $\mathbf{M}$  und
  • ist wie folgt definiert,  wobei  $\mathbf{E}$  wieder die  "Einheitsmatrix"  (Diagonalmatrix)  bezeichnet:
$${\mathbf{M}}^{-1} \cdot {\mathbf{M}} ={\mathbf{E}} = \left[ \begin{array}{cccc} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \cdots & \cdots & \cdots & \cdots \\ 0 & 0 & \cdots & 1 \end{array} \right] .$$

$\text{Beispiel 7:}$  Die Inverse der  $2×2$–Matrix  $\mathbf{A}$  lautet demnach:

$$\left[ \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \end{array} \right]^{-1} = \frac{1}{\vert{\mathbf{A} }\vert} \hspace{0.1cm}\cdot \left[ \begin{array}{cc} a_{22} & -a_{12} \\ -a_{21} & a_{11} \end{array} \right].$$

Hierbei gibt  $\vert\mathbf{A}\vert = a_{11} · a_{22} - a_{12} · a_{21}$  die  Determinante  an.


$\text{Beispiel 8:}$  Entsprechend gilt für die  $3×3$–Matrix  $\mathbf{B}$:

$$\left[ \begin{array}{ccc} b_{11} & b_{12} & b_{13}\\ b_{21} & b_{22} & b_{23}\\ b_{31} & b_{32} & b_{33} \end{array}\right]^{-1} = \frac{1}{\vert{\mathbf{B} }\vert} \hspace{0.1cm}\cdot\left[ \begin{array}{ccc} B_{11} & B_{21} & B_{31}\\ B_{12} & B_{22} & B_{32}\\ B_{13} & B_{23} & B_{33} \end{array}\right].$$
  • Die Determinante  $\vert\mathbf{B}\vert$  einer  $3×3$–Matrix wurde auf der letzten Seite angegeben, ebenso wie die Berechnungsvorschrift der Kofaktoren  $B_{ij}$:
  • Diese beschreiben die Unterdeterminanten von  $\mathbf{B}$,  gewichtet mit den Positionsvorzeichen  $(–1)^{i+j}$.
  • Zu beachten ist die Vertauschung der Zeilen und Spalten bei der Inversen.

Aufgaben zum Kapitel


Aufgabe 4.15: WDF und Kovarianzmatrix

Aufgabe 4.15Z: Aussagen der Kovarianzmatrix

Aufgabe 4.16: Eigenwerte und Eigenvektoren

Aufgabe 4.16Z: Zwei- und dreidimensionale Datenreduktion