Stochastische Signaltheorie/Erwartungswerte und Momente: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
(14 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt)
Zeile 6: Zeile 6:
 
}}
 
}}
 
==Momentenberechnung als Scharmittelwert==
 
==Momentenberechnung als Scharmittelwert==
Die Wahrscheinlichkeitsdichtefunktion (WDF) bietet ebenso wie die Verteilungsfunktion (VTF) sehr weitreichende Informationen über die betrachtete Zufallsgröße. Weniger Informationen liefern die so genannten ''Erwartungswerte'' und ''Momente.''
+
<br>
 +
Die Wahrscheinlichkeitsdichtefunktion&nbsp; $\rm (WDF)$&nbsp; bietet ebenso wie die Verteilungsfunktion&nbsp; $\rm (VTF)$&nbsp; sehr weitreichende Informationen über die betrachtete Zufallsgröße.&nbsp; Weniger,&nbsp; aber dafür kompaktere  Informationen liefern die so genannten&nbsp; &bdquo;Erwartungswerte&rdquo;"&nbsp; und&nbsp; &bdquo;Momente&rdquo;.  
  
Für diskrete Zufallsgrößen wurden deren Berechnungsmöglichkeiten bereits im Kapitel [[Stochastische_Signaltheorie/Momente_einer_diskreten_Zufallsgröße|Momente einer diskreten Zufallsgröße]]  angegeben. Nun werden diese integrativen Beschreibungsgrößen ''Erwartungswert'' bzw. ''Moment'' allgemeiner und im Zusammenhang mit der Wahrscheinlichkeitsdichtefunktion betrachtet.
+
*Deren Berechnungsmöglichkeiten wurden für diskrete Zufallsgrößen bereits im Kapitel&nbsp; [[Stochastische_Signaltheorie/Momente_einer_diskreten_Zufallsgröße|Momente einer diskreten Zufallsgröße]]&nbsp; angegeben.  
 +
*Nun werden diese integrativen Beschreibungsgrößen &bdquo;Erwartungswert&rdquo; und &bdquo;Moment&rdquo; im Zusammenhang mit der Wahrscheinlichkeitsdichtefunktion (WDF) kontinuierlicher Zufallsgrößen betrachtet und dadurch allgemeiner formuliert.
  
{{Definition}}
+
 
Der '''Erwartungswert''' bezüglich einer beliebigen Gewichtungsfunktion $g(x)$ kann mit der WDF $f_{\rm x}(x)$ in folgender Weise berechnet werden:
+
{{BlaueBox|TEXT= 
$${\rm E}[g (x ) ] = \int_{-\infty}^{+\infty} g(x)\cdot f_{x}(x) \,{\rm d}x.$$
+
$\text{Definition:}$&nbsp; Der&nbsp; '''Erwartungswert'''&nbsp; bezüglich einer beliebigen Gewichtungsfunktion&nbsp; $g(x)$&nbsp; kann mit der WDF&nbsp; $f_{\rm x}(x)$&nbsp; in folgender Weise berechnet werden:
Setzt man in diese Gleichung für $g(x) = x^k$ ein, so erhält man das '''Moment $k$-ter Ordnung''':  
+
:$${\rm E}\big[g (x ) \big] = \int_{-\infty}^{+\infty} g(x)\cdot f_{x}(x) \,{\rm d}x.$$
$$m_k = {\rm E}[x^k  ] = \int_{-\infty}^{+\infty} x^k\cdot f_{x} \rm (x ) \, {\rm d}x.$$
+
Setzt man in diese Gleichung für&nbsp; $g(x) = x^k$&nbsp; ein,&nbsp; so erhält man das&nbsp; '''Moment $k$-ter Ordnung''':  
{{end}}
+
:$$m_k = {\rm E}\big[x^k  \big] = \int_{-\infty}^{+\infty} x^k\cdot f_{x} (x ) \, {\rm d}x.$$}}
  
  
 
Aus dieser Gleichung folgt  
 
Aus dieser Gleichung folgt  
*mit $k = 1$ für den ''linearen Mittelwert:''
+
*mit&nbsp; $k = 1$&nbsp; für den&nbsp; '''linearen Mittelwert''':
:$$m_1 = {\rm E}[x ] = \int_{-\infty}^{ \rm +\infty} x\cdot f_{x} (x ) \,{\rm d}x,$$
+
:$$m_1 = {\rm E}\big[x \big] = \int_{-\infty}^{ \rm +\infty} x\cdot f_{x} (x ) \,{\rm d}x,$$
*mit $k = 2$  für den ''quadratischen Mittelwert:''
+
*mit&nbsp; $k = 2$&nbsp; für den&nbsp; '''quadratischen Mittelwert''':
:$$m_2 = {\rm E}[x^{\rm 2} ] = \int_{-\infty}^{ \rm +\infty} x^{ 2}\cdot f_{ x} (x) \,{\rm d}x.$$
+
:$$m_2 = {\rm E}\big[x^{\rm 2} \big] = \int_{-\infty}^{ \rm +\infty} x^{ 2}\cdot f_{ x} (x) \,{\rm d}x.$$
  
 +
Bei einer diskreten,&nbsp; $M$&ndash;stufigen Zufallsgröße erhält man auch mit den hier angegebenen Formeln wieder die bereits im zweiten  Kapitel angegebenen Gleichungen&nbsp; (Berechnung als Scharmittelwert):
 +
:$$m_1 = \sum\limits_{\mu=1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu,$$
 +
:$$m_2 = \sum\limits_{\mu= 1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu^2.$$
  
Bei einer diskreten, $M$-stufigen Zufallsgröße erhält man auch mit den hier angegebenen Formeln wieder die bereits im zweiten  Kapitel angegebenen Gleichungen (Berechnung als Scharmittelwert):
+
Hierbei ist berücksichtigt,&nbsp; dass das Integral über die Diracfunktion&nbsp; $δ(x)$&nbsp; gleich&nbsp; $1$&nbsp; ist.  
$$m_1 = \sum\limits_{\mu=1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu,\hspace{0.5cm}
 
m_2 = \sum\limits_{\mu= 1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu^2.$$
 
  
Hierbei ist berücksichtigt, dass das Integral über die Diracfunktion $δ(x)$ gleich $1$ ist.  
+
In Zusammenhang mit Signalen sind auch folgende Bezeichnungen üblich:
 +
* $m_1$&nbsp; gibt den&nbsp; "Gleichanteil"&nbsp; an,  
 +
* $m_2$&nbsp; entspricht der&nbsp; (auf den Einheitswiderstand&nbsp; $1 \ Ω$&nbsp; bezogenen)&nbsp; "Signalleistung".  
  
In Zusammenhang mit Signalen sind auch folgende Bezeichnungen üblich:
+
 
* $m_1$ gibt den '''Gleichanteil''' an,
+
Bezeichnet&nbsp; $x$&nbsp; beispielsweise eine Spannung, so hat nach diesen Gleichungen&nbsp;
* $m_2$ entspricht der (auf den Einheitswiderstand 1 \ Ω bezogenen) '''Signalleistung'''.  
+
* $m_1$&nbsp; die Einheit&nbsp; ${\rm V}$&nbsp; und&nbsp;
 +
*$m_2$&nbsp; die Einheit&nbsp; ${\rm V}^2$.&nbsp;
  
  
Bezeichnet $x$ beispielsweise eine Spannung, so hat $m_1$ die Einheit ${\rm V}$ und $m_2$ die Einheit ${\rm V}^2.$ Will man die Leistung in „Watt” angeben, so muss $m_2$ noch durch den Widerstandswert $R$ dividiert werden.  
+
Will man die Leistung in&nbsp; „Watt”&nbsp; $\rm (W)$&nbsp; angeben,&nbsp; so muss&nbsp; $m_2$&nbsp; noch durch den Widerstandswert&nbsp; $R$&nbsp; dividiert werden.  
  
 
==Zentralmomente==
 
==Zentralmomente==
Eine besonders große Bedeutung haben in der Statistik die Zentralmomente, die im Gegensatz zu den herkömmlichen Momenten jeweils auf den Mittelwert $m_1$ bezogen sind:  
+
<br>
 +
{{BlaueBox|TEXT= 
 +
$\text{Definition:}$&nbsp; Besonders große Bedeutung haben in der Statistik die&nbsp; '''Zentralmomente''',&nbsp; die im Gegensatz zu den herkömmlichen Momenten jeweils auf den Mittelwert&nbsp; $m_1$&nbsp; bezogen sind:  
  
$$\mu_k = {\rm E}[(x-m_{\rm 1})^k] = \int_{-\infty}^{+\infty} (x-m_{\rm 1})^k\cdot f_x(x) \,\rm d \it x.$$
+
:$$\mu_k = {\rm E}\big[(x-m_{\rm 1})^k\big] = \int_{-\infty}^{+\infty} (x-m_{\rm 1})^k\cdot f_x(x) \,\rm d \it x.$$}}
  
$$\mu_k = {\rm E}[ (x-m_{\rm 1} )^k ] = \int_{-\infty}^{\rm +\infty}  (x-m_{\rm 1})^k\cdot f_{ x}(x) \,\rm d \it x.$$
 
  
$$\mu_k = {\rm E}[(x-m_{1})^k] = \int_{-\infty}^{+\infty} (x-m_{\rm 1})^k\cdot f_x(x) \,\rm d \it x.$$
 
  
$$\mu_k = {\rm E}[(x-m_1)^k] = \int_{-\infty}^{+\infty} (x-m_1)^k\cdot f_x(x) \,{\rm d} x$$
+
Die nichtzentrierten Momente&nbsp; $m_k$&nbsp; kann man direkt in die zentrierten Momente&nbsp; $\mu_k$&nbsp; umrechnen:
 +
:$$\mu_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \\ \kappa \\ \end{array} \right)\cdot m_\kappa \cdot (-m_1)^{k-\kappa}.$$
  
Die nichtzentrierten Momente $m_k$ kann man direkt in die zentrierten Momente $\mu_k$ umrechnen:
+
*Nach den allgemein gültigen Gleichungen der&nbsp; [[Stochastische_Signaltheorie/Erwartungswerte_und_Momente#Momentenberechnung_als_Scharmittelwert|letzten Seite]]&nbsp; ergeben sich die formalen Größen&nbsp; $m_0 = 1$&nbsp; und&nbsp; $\mu_0 = 1$.
$$\mu_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \\ \kappa \\ \end{array} \right)\cdot m_\kappa \cdot (-m_1)^{k-\kappa}.$$
+
*Für das Zentralmoment erster Ordnung gilt nach obiger Definition stets&nbsp; $\mu_1 = 0$.  
  
Nach den allgemein gültigen Gleichungen der [[Stochastische_Signaltheorie/Erwartungswerte_und_Momente#Momentenberechnung_als_Scharmittelwert|letzten Seite]] ergeben sich die formalen Größen $m_0 = 1$ und $\mu_0 = 1$. Für das Zentralmoment erster Ordnung gilt nach obiger Definition stets $\mu_1 = 0$.
 
  
In der Gegenrichtung gelten folgende Gleichungen für $k = 1$, $k = 2$, usw.:  
+
In der Gegenrichtung gelten folgende Gleichungen für&nbsp; $k = 1$,&nbsp; $k = 2$,&nbsp; usw.:  
$$m_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}}  k \\ \kappa \\ \end{array} \right)\cdot \mu_\kappa \cdot {m_1}^{k-\kappa}.$$
+
:$$m_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}}  k \\ \kappa \\ \end{array} \right)\cdot \mu_\kappa \cdot {m_1}^{k-\kappa}.$$
  
{{Beispiel}}
+
{{GraueBox|TEXT= 
Bei einer binären Zufallsgröße mit den Wahrscheinlichkeiten ${\rm Pr}(0) = 1 – p$ und ${\rm Pr}(1) = p$ haben alle Momente den genau gleichen Wert $p$:  
+
$\text{Beispiel 1:}$&nbsp; Alle Momente  einer binären Zufallsgröße mit den Wahrscheinlichkeiten&nbsp; ${\rm Pr}(0) = 1 – p$&nbsp; &nbsp;und&nbsp; ${\rm Pr}(1) = p$&nbsp; sind gleich groß:  
$$m_1 = m_2 = m_3 = m_4 = ... \hspace{0.05cm}= p.$$
+
:$$m_1 = m_2 = m_3 = m_4 = \hspace{0.05cm}\text{...} \hspace{0.05cm}= p.$$
Mit den obigen Gleichungen erhält man dann für die ersten drei Zentralmomente:
+
Mit obigen Gleichungen erhält man dann für die ersten drei Zentralmomente:
$$\begin{align*} \mu_2 & = m_2 - m_1^2 = p -p^2, \\ \mu_3 & = m_3 - 3 \cdot m_2 \cdot m_1 + 2 \cdot m_1^3 = p - 3 \cdot p^2 + 2 \cdot p^3, \\ \mu_4 & = m_4 - 4 \cdot m_3 \cdot m_1 + 6 \cdot m_2 \cdot m_1^2 - 3 \cdot m_1^4 = p - 4 \cdot p^2 + 6 \cdot p^3- 3 \cdot p^4. \end{align*}$$
+
:$$\mu_2 = m_2 - m_1^2 = p -p^2, $$
{{end}}
+
:$$\mu_3 = m_3 - 3 \cdot m_2 \cdot m_1 + 2 \cdot m_1^3 = p - 3 \cdot p^2 + 2 \cdot p^3, $$
 +
:$$ \mu_4 = m_4 - 4 \cdot m_3 \cdot m_1 + 6 \cdot m_2 \cdot m_1^2 - 3 \cdot m_1^4 = p - 4 \cdot p^2 + 6 \cdot p^3- 3 \cdot p^4. $$}}
  
 
==Einige häufig benutzte Zentralmomente==
 
==Einige häufig benutzte Zentralmomente==
Aus der Definition auf der [[Stochastische_Signaltheorie/Erwartungswerte_und_Momente#Zentralmomente|letzten Seite]] können folgende Kenngrößen abgeleitet werden:  
+
<br>
*Die '''Varianz''' $σ^2$ der betrachteten Zufallsgröße ist das Zentralmoment zweiter Ordnung &nbsp; &rArr; &nbsp; $\mu_2.$ Die Varianz $σ^2$ entspricht physikalisch der ''Wechselleistung'' und die Streuung $σ$ gibt den ''Effektivwert'' an. Aus dem linearen und dem quadratischen Mittelwert ist die Varianz nach dem in folgender Weise berechenbar ⇒  Satz von Steiner:  
+
Aus der&nbsp; [[Stochastische_Signaltheorie/Erwartungswerte_und_Momente#Zentralmomente|letzten Definition]]&nbsp; können folgende weitere Kenngrößen abgeleitet werden:  
:$$\sigma^{2} = m_2 - m_1^{2}.$$
+
 
*Die sog. '''Charliersche Schiefe''' $S$ bezeichnet das auf $σ^3$ bezogene dritte Zentralmoment. Bei symmetrischer Dichtefunktion ist diese Kenngröße immer $S=0$. Je größer $S = \mu_3/σ^3$ ist, um so unsymmetrischer verläuft die WDF um den Mittelwert $m_1$. Beispielsweise ergibt sich für die  [[Stochastische_Signaltheorie/Exponentialverteilte_Zufallsgrößen#Einseitige_Exponentialverteilung|Exponentialverteilung]] (unabhängig vom Verteilungsparameter $λ$) die Schiefe $S =2$.
+
{{BlaueBox|TEXT= 
*Auch das Zentralmoment vierter Ordnung spielt für die Analyse statistischer Größen eine Rolle. Als '''Kurtosis''' bezeichnet man den Quotienten $K = \mu_4/σ^4.$ Bei einer [[Stochastische_Signaltheorie/Gaußverteilte_Zufallsgröße#Wahrscheinlichkeitsdichte-_und_Verteilungsfunktion|gaußverteilten Zufallsgröße]]  ergibt sich hierfür immer der Wert $K = 3$. Anhand dieser Kenngröße kann man beispielsweise überprüfen, ob eine vorliegende Zufallsgröße tatsächlich gaußisch ist.  
+
$\text{Definition:}$&nbsp; Die&nbsp; '''Varianz'''&nbsp; $σ^2$&nbsp; der betrachteten Zufallsgröße ist das Zentralmoment zweiter Ordnung &nbsp; &rArr; &nbsp; $\mu_2.$  
*Weist die WDF weniger Ausläufer auf als die Gaußverteilung, so ist die Kurtosis $K < 3$, zum Beispiel gilt für die Gleichverteilung $K = 1.8$. Dagegen weist $K > 3$ darauf hin, dass die Ausläufer ausgeprägter als bei der Gaußverteilung sind. Für die  [[Stochastische_Signaltheorie/Exponentialverteilte_Zufallsgrößen#Erzeugung_einer_exponentialverteilten_Zufallsgr.C3.B6.C3.9Fe|Laplaceverteilung]]  ⇒ zweiseitige Exponentialverteilung ergibt sich beispielsweise der Wert $K = 6$.
+
*Die Varianz&nbsp; $σ^2$&nbsp; entspricht physikalisch der&nbsp; "Wechselleistung"&nbsp; und die Streuung&nbsp; $σ$&nbsp; gibt den&nbsp; "Effektivwert"&nbsp; an.  
 +
*Aus dem linearen und dem quadratischen Mittelwert ist die Varianz nach dem&nbsp; "Satz von Steiner"&nbsp; in folgender Weise berechenbar:  
 +
:$$\sigma^{2} = m_2 - m_1^{2}.$$}}
 +
 
 +
 
 +
{{BlaueBox|TEXT= 
 +
$\text{Definition:}$&nbsp; Die&nbsp; '''Charliersche Schiefe'''&nbsp; $S$&nbsp; bezeichnet das auf&nbsp; $σ^3$&nbsp; bezogene dritte Zentralmoment.  
 +
*Bei symmetrischer Dichtefunktion ist diese Kenngröße immer&nbsp; $S=0$.  
 +
*Je größer&nbsp; $S = \mu_3/σ^3$&nbsp; ist,&nbsp; um so unsymmetrischer verläuft die WDF um den Mittelwert&nbsp; $m_1$.  
 +
*Beispielsweise ergibt sich für die&nbsp; [[Stochastische_Signaltheorie/Exponentialverteilte_Zufallsgrößen#Einseitige_Exponentialverteilung|Exponentialverteilung]]&nbsp; die&nbsp; (positive)&nbsp; Schiefe $S =2$,&nbsp; und zwar unabhängig vom Verteilungsparameter&nbsp; $λ$.
 +
*Bei positiver Schiefe&nbsp; $(S > 0)$&nbsp; spricht man von &bdquo;einer rechtsschiefen oder linkssteilen Verteilung&rdquo;;&nbsp; diese fällt auf der rechten Seite flacher ab als auf der linken.
 +
*Bei negativer Schiefe&nbsp; $(S < 0)$&nbsp; liegt eine &bdquo;linksschiefe oder rechtssteile Verteilung&rdquo; vor;&nbsp; eine solche fällt auf der linken Seite flacher ab als auf der rechten.}}
 +
   
 +
 
 +
{{BlaueBox|TEXT= 
 +
$\text{Definition:}$&nbsp; Auch das Zentralmoment vierter Ordnung wird für statistische Analysen herangezogen.&nbsp; Als&nbsp; '''Kurtosis'''&nbsp; bezeichnet man den Quotienten&nbsp; $K = \mu_4/σ^4.$  
 +
*Bei einer&nbsp; [[Stochastische_Signaltheorie/Gaußverteilte_Zufallsgröße#Wahrscheinlichkeitsdichte-_und_Verteilungsfunktion|gaußverteilten Zufallsgröße]]&nbsp; ergibt sich hierfür immer der Wert&nbsp; $K = 3$.
 +
*Verwendet wird auch der sogenannte&nbsp;  '''Exzess'''&nbsp; $\gamma = K - 3$&nbsp;,&nbsp; auch bekannt unter dem Begriff&nbsp; &bdquo;Überkurtosis&rdquo;.
 +
*Anhand dieser Kenngröße kann man beispielsweise überprüfen,&nbsp; ob eine vorliegende Zufallsgröße näherungsweise gaußisch ist:&nbsp; $\gamma \approx 0$. }}
 +
 
 +
 
 +
{{GraueBox|TEXT= 
 +
$\text{Beispiel 2:}$&nbsp;
 +
*Weist die WDF weniger Ausläufer auf als die Gaußverteilung,&nbsp; so ist die Kurtosis&nbsp; $K < 3$.&nbsp; Zum Beispiel ergibt sich für die&nbsp; [[Stochastische_Signaltheorie/Gleichverteilte_Zufallsgrößen|Gleichverteilung]]&nbsp; $K = 1.8$&nbsp; &rArr; &nbsp; $\gamma = - 1.2$.
 +
*Dagegen weist&nbsp; $K > 3$&nbsp; darauf hin,&nbsp; dass die Ausläufer ausgeprägter sind als bei der Gaußverteilung.&nbsp;Zum Beispiel gilt für die&nbsp; [[Stochastische_Signaltheorie/Exponentialverteilte_Zufallsgrößen#Einseitige_Exponentialverteilung|Exponentialverteilung]]&nbsp;&nbsp; $K = 9$.
 +
*Für die&nbsp; [[Stochastische_Signaltheorie/Exponentialverteilte_Zufallsgrößen#Zweiseitige_Exponentialverteilung_.E2.80.93_Laplaceverteilung|Laplaceverteilung]]&nbsp;   ⇒ &nbsp; zweiseitige Exponentialverteilung ergibt sich eine etwas kleinere Kurtosis&nbsp; $K = 6$&nbsp; und der Exzesswert $\gamma = 3$.}}
  
 
==Momentenberechnung als Zeitmittelwert==
 
==Momentenberechnung als Zeitmittelwert==
Die Erwartungswertberechnung nach den bisherigen Gleichungen dieses Abschnitts entspricht einer ''Scharmittelung,'' das heißt einer Mittelung über alle möglichen Werte $x_\mu$.  
+
<br>
 +
Die Erwartungswertberechnung nach den bisherigen Gleichungen entspricht einer&nbsp; "Scharmittelung",&nbsp; das heißt der Mittelung über alle möglichen Werte&nbsp; $x_\mu$.  
  
Die Momente $m_k$ können aber auch als '''Zeitmittelwerte''' bestimmt werden, wenn der die Zufallsgröße erzeugende stochastische Prozess stationär und ergodisch ist. Die genaue Definition für einen solchen Zufallsprozess finden Sie in [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Zufallsprozesse_.281.29|Kapitel 4.4]].  Eine Zeitmittelung wird im Folgenden stets durch eine überstreichende Linie gekennzeichnet.  
+
Die Momente&nbsp; $m_k$&nbsp; können aber auch als&nbsp; '''Zeitmittelwerte'''&nbsp; bestimmt werden,&nbsp; wenn der die Zufallsgröße erzeugende stochastische Prozess stationär und ergodisch ist:
 +
*Die genaue Definition für einen solchen stationären und ergodischen Zufallsprozess finden Sie im&nbsp; [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Zufallsprozesse_.281.29|Kapitel 4.4]].   
 +
*Eine Zeitmittelung wird im Folgenden stets durch eine überstreichende Linie gekennzeichnet.  
 +
*Bei zeitdiskreter Betrachtung wird das Zufallssignal&nbsp; $x(t)$&nbsp; durch die Zufallsfolge&nbsp; $〈x_ν〉$&nbsp; ersetzt.
 +
*Bei endlicher Folgenlänge lauten diese Zeitmittelwerte mit&nbsp; $ν = 1, 2,\hspace{0.05cm}\text{...}\hspace{0.05cm} , N$:
 +
:$$m_k=\overline{x_{\nu}^{k}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{k},$$
 +
:$$m_1=\overline{x_{\nu}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu},$$
 +
:$$m_2=\overline{x_{\nu}^{2}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{2}.$$
  
Bei zeitdiskreter Betrachtung wird das Zufallssignal $x(t)$ durch die Zufallsfolge $〈x_ν〉$ ersetzt. Bei endlicher Folgenlänge lauten diese Zeitmittelwerte mit $ν = 1, 2, ... , N$:
+
Sollen die Momente&nbsp; (oder Erwartungswerte)&nbsp; per Simulation bestimmt werden,&nbsp; so geschieht dies in der Praxis meist durch Zeitmittelung.&nbsp; Der entsprechende Berechnungsalgorithmus unterscheidet sich bei diskreten und kontinuierlichen Zufallsgrößen nur mariginal.  
$$m_k=\overline{x_{\nu}^{k}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{k},$$
 
$$m_1=\overline{x_{\nu}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu},$$
 
$$m_2=\overline{x_{\nu}^{2}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{2}.$$
 
  
Sollen die Momente (oder Erwartungswerte) per Simulation bestimmt werden, so geschieht dies in der Praxis meist durch eine Zeitmittelung. Die entsprechende Momentenberechnung unterscheidet sich bei diskreten bzw. kontinuierlichen Zufallsgrößen nur mariginal.  
+
Die in diesem Abschnitt behandelte Thematik ist im Lernvideo&nbsp; [[Momentenberechnung_bei_diskreten_Zufallsgrößen_(Lernvideo)|"Momentenberechnung bei diskreten Zufallsgrößen"]]&nbsp;  zusammengefasst.
  
Die in diesem Abschnitt behandelte Thematik ist in einem Lernvideo zusammengefasst:
 
  
[[Momente von diskreten Zufallsgrößen]] 
 
  
 
==Charakteristische Funktion==
 
==Charakteristische Funktion==
Ein weiterer Sonderfall eines Erwartungswertes ist die charakteristische Funktion, wobei hier für die Bewertungsfunktion $g(x) = exp(\rm {j}Ωx)$ zu setzen ist:  
+
<br>
$$C_x({\it \Omega}) = {\rm E}[{\rm e}^{{\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} x}] = \int_{-\infty}^{+\infty} {\rm e}^{{\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} x}\cdot f_{\rm x}(x)  \hspace{0.1cm}{\rm d}x.$$
+
{{BlaueBox|TEXT= 
 +
$\text{Definition:}$&nbsp; Ein weiterer Sonderfall eines Erwartungswertes ist die&nbsp; '''charakteristische Funktion''', wobei hier für die Bewertungsfunktion&nbsp; $g(x) = {\rm e}^{\hspace{0.03cm}{\rm j} \hspace{0.03cm}{\it Ω}\hspace{0.05cm}x}$&nbsp; zu setzen ist:  
 +
:$$C_x({\it \Omega}) = {\rm E}\big[{\rm e}^{ {\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} x}\big] = \int_{-\infty}^{+\infty} {\rm e}^{ {\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} x}\cdot f_{\rm x}(x)  \hspace{0.1cm}{\rm d}x.$$
 +
 
 +
Ein Vergleich mit dem Kapitel&nbsp; [[Signaldarstellung/Fouriertransformation_und_-rücktransformation|Fouriertransformation und Fourierrücktransformation]]&nbsp;  im Buch &bdquo;Signaldarstellung&rdquo; zeigt,&nbsp; dass die charakteristische Funktion als die Fourierrücktransformierte der Wahrscheinlichkeitsdichtefunktion interpretiert werden kann:
 +
:$$C_x ({\it \Omega}) \hspace{0.3cm}  \circ \!\!-\!\!\!-\!\!\!-\!\! \bullet  \hspace{0.3cm} f_{x}(x).$$}}
 +
 
 +
 
 +
Ist die Zufallsgröße&nbsp; $x$&nbsp; dimensionslos,&nbsp; so ist auch das Argument&nbsp; $\it Ω$&nbsp; der charakteristischen Funktion ohne Einheit.
 +
*Das Symbol&nbsp; $\it Ω$&nbsp; wurde gewählt,&nbsp; da das Argument hier einen gewissen Bezug zur Kreisfrequenz beim zweiten Fourierintegral aufweist&nbsp; (gegenüber der Darstellung im&nbsp; $f$&ndash;Bereich fehlt allerdings der Faktor&nbsp; $2\pi$&nbsp; im Exponenten).
 +
*Es wird aber nochmals eindringlich darauf hingewiesen,&nbsp; dass – wenn man einen Bezug zur Systemtheorie herstellen will – $C_x({\it Ω})$&nbsp; der „Zeitfunktion” und&nbsp; $f_{x}(x)$&nbsp; der „Spektralfunktion” entsprechen würde.
 +
 
 +
 
 +
{{BlaueBox|TEXT= 
 +
$\text{Berechnungsmöglichkeit:}$&nbsp; Entwickelt man die komplexe Funktion&nbsp; ${\rm e}^{\hspace{0.03cm}{\rm j} \hspace{0.03cm}{\it Ω}\hspace{0.05cm}x}$&nbsp;  in eine Potenzreihe&nbsp; und vertauscht Erwartungswertbildung und Summation,&nbsp; so folgt die Reihendarstellung der charakteristischen Funktion:
 +
:$$C_x ( {\it \Omega}) = 1 + \sum_{k=1}^{\infty}\hspace{0.2cm}\frac{m_k}{k!} \cdot ({\rm j} \hspace{0.01cm}{\it \Omega})^k .$$
 +
Die&nbsp; [[Aufgaben:3.4_Charakteristische_Funktion|Aufgabe 3.4]]&nbsp;  zeigt weitere Eigenschaften der charakteristischen Funktion auf. }}
 +
 
 +
 
 +
{{GraueBox|TEXT= 
 +
$\text{Beispiel 3:}$&nbsp;
 +
*Bei einer symmetrischen binären&nbsp; (zweipunktverteilten)&nbsp; Zufallsgröße&nbsp; $x ∈ \{\pm1\}$&nbsp; mit den Wahrscheinlichkeiten&nbsp; ${\rm Pr}(–1) = {\rm Pr}(+1) = 1/2$&nbsp; verläuft die charakteristische Funktion cosinusförmig.
 +
*Das Analogon in der Systemtheorie ist,&nbsp; dass das Spektrum eines Cosinussignals mit der Kreisfrequenz&nbsp; ${\it Ω}_{\hspace{0.03cm}0}$&nbsp; aus zwei Diracfunktionen bei&nbsp; $±{\it Ω}_{\hspace{0.03cm}0}$&nbsp; besteht. }}
 +
 
  
Ein Vergleich mit dem Buch [[Signaldarstellung]] – [[Signaldarstellung/Fouriertransformation_und_-rücktransformation|Kapitel 3.1]]  zeigt, dass die charakteristische Funktion die Fourierrücktransformierte der Wahrscheinlichkeitsdichtefunktion darstellt:  
+
{{GraueBox|TEXT= 
$$C_x ({\it \Omega}) \hspace{0.3cm} \circ \!\!-\!\!\!-\!\!\!-\!\! \bullet  \hspace{0.3cm} f_{\rm x}(x).$$
+
$\text{Beispiel 4:}$&nbsp;
 +
*Eine Gleichverteilung zwischen&nbsp; $±y_0$&nbsp; besitzt nach den&nbsp; [[Signaldarstellung/Gesetzmäßigkeiten_der_Fouriertransformation|Gesetzen der Fouriertransformation]]&nbsp; folgende charakteristische Funktion:  
 +
:$$C_y({\it \Omega}) = \frac{1}{2 y_0} \cdot \int_{-y_0}^{+y_0} {\rm e}^{ {\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} y} \,{\rm d}y = \frac{ {\rm e}^{ {\rm j} \hspace{0.05cm} y_0 \hspace{0.05cm}{\it \Omega} } - {\rm e}^{ - {\rm j} \hspace{0.05cm} y_0 \hspace{0.05cm} {\it \Omega} } }{2 {\rm j} \cdot y_0 \cdot {\it \Omega} }  =  \frac{ {\rm sin}(y_0 \cdot {\it \Omega})}{ y_0 \cdot {\it \Omega} } = {\rm si}(y_0 \cdot {\it \Omega}).
 +
$$
 +
*Die Funktion&nbsp; ${\rm si}(x) = \sin(x)/x= {\rm sinc}(x/\pi)$&nbsp; kennen wir bereits aus dem Buch&nbsp; [[Signaldarstellung/Einige_Sonderfälle_impulsartiger_Signale#Rechteckimpuls|Signaldarstellung]].  
 +
*Sie ist auch unter dem Namen&nbsp; "Spaltfunktion"&nbsp; bekannt. }}
  
Ist die Zufallsgröße $x$ dimensionslos, so ist auch das Argument $Ω$ der charakteristischen Funktion ohne Einheit. Das Symbol $Ω$ wurde gewählt, da das Argument hier einen gewissen Bezug zur Kreisfrequenz beim zweiten Fourierintegral aufweist (gegenüber der Darstellung im $f$-Bereich fehlt der Faktor 2π im Exponenten). Es wird aber nochmals eindringlich darauf hingewiesen, dass – wenn man einen Bezug zur Systemtheorie herstellen will – $C_x(Ω)$ der „Zeitfunktion” und $f_{\rm x}(x)$ der „Spektralfunktion” entspricht.
+
==Aufgaben zum Kapitel==
 +
<br>
 +
[[Aufgaben:3.3 Momente bei cos²-WDF|Aufgabe 3.3: Momente bei $\cos^2$&ndash;WDF]]
  
Entwickelt man die komplexe Funktion exp( $\rm {j}Ωx$) in eine Potenzreihe und vertauscht Summation und Erwartungswertbildung, so folgt die Reihendarstellung der charakteristischen Funktion:
+
[[Aufgaben:3.3Z Momente bei Dreieck-WDF|Aufgabe 3.3Z: Momente bei Dreieck&ndash;WDF]]
$$C_x ( {\it \Omega}) = 1 + \sum_{k=1}^{\infty}\hspace{0.2cm}\frac{m_k}{k!} \cdot ({\rm j} \hspace{0.01cm}{\it \Omega})^k .$$
 
Die [[Aufgaben:3.4_Charakteristische_Funktion|Aufgabe A3.4]] zeigt weitere Eigenschaften der charakteristischen Funktion auf.
 
  
{{Beispiel}}
+
[[Aufgaben:3.4 Charakteristische Funktion|Aufgabe 3.4: Charakteristische Funktion]]
Bei einer symmetrischen binären (zweipunktverteilten) Zufallsgröße $x ∈$ {–1, +1} mit den Wahrscheinlichkeiten Pr(–1) = Pr(+1) = 1/2 verläuft die charakteristische Funktion cosinusförmig. Das Analogon in der Systemtheorie ist, dass das Spektrum eines Cosinussignals mit der Kreisfrequenz $Ω_0$ aus zwei Diracfunktionen bei $±Ω_0$ besteht.  
 
  
Eine Gleichverteilung zwischen $±y_0$ besitzt nach den Gesetzen der Fouriertransformation – Näheres im Buch [[Signaldarstellung]], Kapitel 3.1  – die folgende charakteristische Funktion:
 
$$\begin{align*} C_y({\it \Omega}) = \frac{1}{2 y_0} \cdot \int_{-y_0}^{+y_0} {\rm e}^{{\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} y} \,{\rm d}y &= \frac{ {\rm e}^{ {\rm j} \hspace{0.05cm} y_0 \hspace{0.05cm}{\it \Omega} } - {\rm e}^{-{\rm j} \hspace{0.05cm} y_0 \hspace{0.05cm} {\it \Omega} } }{2 {\rm j} \cdot y_0 \cdot {\it \Omega} }  =  \frac{ {\rm sin}(y_0 \cdot {\it \Omega})}{ y_0 \cdot {\it \Omega} } = {\rm si}(y_0 \cdot {\it \Omega}). \end{align*}$$
 
Die Funktion si( $x) = \sin(x)/x$ kennen wir bereits aus dem Buch [[Signaldarstellung]]. Sie ist auch unter dem Namen ''Spaltfunktion'' bekannt.
 
{{end}}
 
  
 
{{Display}}
 
{{Display}}

Aktuelle Version vom 5. Januar 2022, 14:18 Uhr

Momentenberechnung als Scharmittelwert


Die Wahrscheinlichkeitsdichtefunktion  $\rm (WDF)$  bietet ebenso wie die Verteilungsfunktion  $\rm (VTF)$  sehr weitreichende Informationen über die betrachtete Zufallsgröße.  Weniger,  aber dafür kompaktere Informationen liefern die so genannten  „Erwartungswerte”"  und  „Momente”.

  • Deren Berechnungsmöglichkeiten wurden für diskrete Zufallsgrößen bereits im Kapitel  Momente einer diskreten Zufallsgröße  angegeben.
  • Nun werden diese integrativen Beschreibungsgrößen „Erwartungswert” und „Moment” im Zusammenhang mit der Wahrscheinlichkeitsdichtefunktion (WDF) kontinuierlicher Zufallsgrößen betrachtet und dadurch allgemeiner formuliert.


$\text{Definition:}$  Der  Erwartungswert  bezüglich einer beliebigen Gewichtungsfunktion  $g(x)$  kann mit der WDF  $f_{\rm x}(x)$  in folgender Weise berechnet werden:

$${\rm E}\big[g (x ) \big] = \int_{-\infty}^{+\infty} g(x)\cdot f_{x}(x) \,{\rm d}x.$$

Setzt man in diese Gleichung für  $g(x) = x^k$  ein,  so erhält man das  Moment $k$-ter Ordnung:

$$m_k = {\rm E}\big[x^k \big] = \int_{-\infty}^{+\infty} x^k\cdot f_{x} (x ) \, {\rm d}x.$$


Aus dieser Gleichung folgt

  • mit  $k = 1$  für den  linearen Mittelwert:
$$m_1 = {\rm E}\big[x \big] = \int_{-\infty}^{ \rm +\infty} x\cdot f_{x} (x ) \,{\rm d}x,$$
  • mit  $k = 2$  für den  quadratischen Mittelwert:
$$m_2 = {\rm E}\big[x^{\rm 2} \big] = \int_{-\infty}^{ \rm +\infty} x^{ 2}\cdot f_{ x} (x) \,{\rm d}x.$$

Bei einer diskreten,  $M$–stufigen Zufallsgröße erhält man auch mit den hier angegebenen Formeln wieder die bereits im zweiten Kapitel angegebenen Gleichungen  (Berechnung als Scharmittelwert):

$$m_1 = \sum\limits_{\mu=1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu,$$
$$m_2 = \sum\limits_{\mu= 1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu^2.$$

Hierbei ist berücksichtigt,  dass das Integral über die Diracfunktion  $δ(x)$  gleich  $1$  ist.

In Zusammenhang mit Signalen sind auch folgende Bezeichnungen üblich:

  • $m_1$  gibt den  "Gleichanteil"  an,
  • $m_2$  entspricht der  (auf den Einheitswiderstand  $1 \ Ω$  bezogenen)  "Signalleistung".


Bezeichnet  $x$  beispielsweise eine Spannung, so hat nach diesen Gleichungen 

  • $m_1$  die Einheit  ${\rm V}$  und 
  • $m_2$  die Einheit  ${\rm V}^2$. 


Will man die Leistung in  „Watt”  $\rm (W)$  angeben,  so muss  $m_2$  noch durch den Widerstandswert  $R$  dividiert werden.

Zentralmomente


$\text{Definition:}$  Besonders große Bedeutung haben in der Statistik die  Zentralmomente,  die im Gegensatz zu den herkömmlichen Momenten jeweils auf den Mittelwert  $m_1$  bezogen sind:

$$\mu_k = {\rm E}\big[(x-m_{\rm 1})^k\big] = \int_{-\infty}^{+\infty} (x-m_{\rm 1})^k\cdot f_x(x) \,\rm d \it x.$$


Die nichtzentrierten Momente  $m_k$  kann man direkt in die zentrierten Momente  $\mu_k$  umrechnen:

$$\mu_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \\ \kappa \\ \end{array} \right)\cdot m_\kappa \cdot (-m_1)^{k-\kappa}.$$
  • Nach den allgemein gültigen Gleichungen der  letzten Seite  ergeben sich die formalen Größen  $m_0 = 1$  und  $\mu_0 = 1$.
  • Für das Zentralmoment erster Ordnung gilt nach obiger Definition stets  $\mu_1 = 0$.


In der Gegenrichtung gelten folgende Gleichungen für  $k = 1$,  $k = 2$,  usw.:

$$m_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \\ \kappa \\ \end{array} \right)\cdot \mu_\kappa \cdot {m_1}^{k-\kappa}.$$

$\text{Beispiel 1:}$  Alle Momente einer binären Zufallsgröße mit den Wahrscheinlichkeiten  ${\rm Pr}(0) = 1 – p$   und  ${\rm Pr}(1) = p$  sind gleich groß:

$$m_1 = m_2 = m_3 = m_4 = \hspace{0.05cm}\text{...} \hspace{0.05cm}= p.$$

Mit obigen Gleichungen erhält man dann für die ersten drei Zentralmomente:

$$\mu_2 = m_2 - m_1^2 = p -p^2, $$
$$\mu_3 = m_3 - 3 \cdot m_2 \cdot m_1 + 2 \cdot m_1^3 = p - 3 \cdot p^2 + 2 \cdot p^3, $$
$$ \mu_4 = m_4 - 4 \cdot m_3 \cdot m_1 + 6 \cdot m_2 \cdot m_1^2 - 3 \cdot m_1^4 = p - 4 \cdot p^2 + 6 \cdot p^3- 3 \cdot p^4. $$

Einige häufig benutzte Zentralmomente


Aus der  letzten Definition  können folgende weitere Kenngrößen abgeleitet werden:

$\text{Definition:}$  Die  Varianz  $σ^2$  der betrachteten Zufallsgröße ist das Zentralmoment zweiter Ordnung   ⇒   $\mu_2.$

  • Die Varianz  $σ^2$  entspricht physikalisch der  "Wechselleistung"  und die Streuung  $σ$  gibt den  "Effektivwert"  an.
  • Aus dem linearen und dem quadratischen Mittelwert ist die Varianz nach dem  "Satz von Steiner"  in folgender Weise berechenbar:
$$\sigma^{2} = m_2 - m_1^{2}.$$


$\text{Definition:}$  Die  Charliersche Schiefe  $S$  bezeichnet das auf  $σ^3$  bezogene dritte Zentralmoment.

  • Bei symmetrischer Dichtefunktion ist diese Kenngröße immer  $S=0$.
  • Je größer  $S = \mu_3/σ^3$  ist,  um so unsymmetrischer verläuft die WDF um den Mittelwert  $m_1$.
  • Beispielsweise ergibt sich für die  Exponentialverteilung  die  (positive)  Schiefe $S =2$,  und zwar unabhängig vom Verteilungsparameter  $λ$.
  • Bei positiver Schiefe  $(S > 0)$  spricht man von „einer rechtsschiefen oder linkssteilen Verteilung”;  diese fällt auf der rechten Seite flacher ab als auf der linken.
  • Bei negativer Schiefe  $(S < 0)$  liegt eine „linksschiefe oder rechtssteile Verteilung” vor;  eine solche fällt auf der linken Seite flacher ab als auf der rechten.


$\text{Definition:}$  Auch das Zentralmoment vierter Ordnung wird für statistische Analysen herangezogen.  Als  Kurtosis  bezeichnet man den Quotienten  $K = \mu_4/σ^4.$

  • Bei einer  gaußverteilten Zufallsgröße  ergibt sich hierfür immer der Wert  $K = 3$.
  • Verwendet wird auch der sogenannte  Exzess  $\gamma = K - 3$ ,  auch bekannt unter dem Begriff  „Überkurtosis”.
  • Anhand dieser Kenngröße kann man beispielsweise überprüfen,  ob eine vorliegende Zufallsgröße näherungsweise gaußisch ist:  $\gamma \approx 0$.


$\text{Beispiel 2:}$ 

  • Weist die WDF weniger Ausläufer auf als die Gaußverteilung,  so ist die Kurtosis  $K < 3$.  Zum Beispiel ergibt sich für die  Gleichverteilung  $K = 1.8$  ⇒   $\gamma = - 1.2$.
  • Dagegen weist  $K > 3$  darauf hin,  dass die Ausläufer ausgeprägter sind als bei der Gaußverteilung. Zum Beispiel gilt für die  Exponentialverteilung   $K = 9$.
  • Für die  Laplaceverteilung  ⇒   zweiseitige Exponentialverteilung ergibt sich eine etwas kleinere Kurtosis  $K = 6$  und der Exzesswert $\gamma = 3$.

Momentenberechnung als Zeitmittelwert


Die Erwartungswertberechnung nach den bisherigen Gleichungen entspricht einer  "Scharmittelung",  das heißt der Mittelung über alle möglichen Werte  $x_\mu$.

Die Momente  $m_k$  können aber auch als  Zeitmittelwerte  bestimmt werden,  wenn der die Zufallsgröße erzeugende stochastische Prozess stationär und ergodisch ist:

  • Die genaue Definition für einen solchen stationären und ergodischen Zufallsprozess finden Sie im  Kapitel 4.4.
  • Eine Zeitmittelung wird im Folgenden stets durch eine überstreichende Linie gekennzeichnet.
  • Bei zeitdiskreter Betrachtung wird das Zufallssignal  $x(t)$  durch die Zufallsfolge  $〈x_ν〉$  ersetzt.
  • Bei endlicher Folgenlänge lauten diese Zeitmittelwerte mit  $ν = 1, 2,\hspace{0.05cm}\text{...}\hspace{0.05cm} , N$:
$$m_k=\overline{x_{\nu}^{k}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{k},$$
$$m_1=\overline{x_{\nu}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu},$$
$$m_2=\overline{x_{\nu}^{2}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{2}.$$

Sollen die Momente  (oder Erwartungswerte)  per Simulation bestimmt werden,  so geschieht dies in der Praxis meist durch Zeitmittelung.  Der entsprechende Berechnungsalgorithmus unterscheidet sich bei diskreten und kontinuierlichen Zufallsgrößen nur mariginal.

Die in diesem Abschnitt behandelte Thematik ist im Lernvideo  "Momentenberechnung bei diskreten Zufallsgrößen"  zusammengefasst.


Charakteristische Funktion


$\text{Definition:}$  Ein weiterer Sonderfall eines Erwartungswertes ist die  charakteristische Funktion, wobei hier für die Bewertungsfunktion  $g(x) = {\rm e}^{\hspace{0.03cm}{\rm j} \hspace{0.03cm}{\it Ω}\hspace{0.05cm}x}$  zu setzen ist:

$$C_x({\it \Omega}) = {\rm E}\big[{\rm e}^{ {\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} x}\big] = \int_{-\infty}^{+\infty} {\rm e}^{ {\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} x}\cdot f_{\rm x}(x) \hspace{0.1cm}{\rm d}x.$$

Ein Vergleich mit dem Kapitel  Fouriertransformation und Fourierrücktransformation  im Buch „Signaldarstellung” zeigt,  dass die charakteristische Funktion als die Fourierrücktransformierte der Wahrscheinlichkeitsdichtefunktion interpretiert werden kann:

$$C_x ({\it \Omega}) \hspace{0.3cm} \circ \!\!-\!\!\!-\!\!\!-\!\! \bullet \hspace{0.3cm} f_{x}(x).$$


Ist die Zufallsgröße  $x$  dimensionslos,  so ist auch das Argument  $\it Ω$  der charakteristischen Funktion ohne Einheit.

  • Das Symbol  $\it Ω$  wurde gewählt,  da das Argument hier einen gewissen Bezug zur Kreisfrequenz beim zweiten Fourierintegral aufweist  (gegenüber der Darstellung im  $f$–Bereich fehlt allerdings der Faktor  $2\pi$  im Exponenten).
  • Es wird aber nochmals eindringlich darauf hingewiesen,  dass – wenn man einen Bezug zur Systemtheorie herstellen will – $C_x({\it Ω})$  der „Zeitfunktion” und  $f_{x}(x)$  der „Spektralfunktion” entsprechen würde.


$\text{Berechnungsmöglichkeit:}$  Entwickelt man die komplexe Funktion  ${\rm e}^{\hspace{0.03cm}{\rm j} \hspace{0.03cm}{\it Ω}\hspace{0.05cm}x}$  in eine Potenzreihe  und vertauscht Erwartungswertbildung und Summation,  so folgt die Reihendarstellung der charakteristischen Funktion:

$$C_x ( {\it \Omega}) = 1 + \sum_{k=1}^{\infty}\hspace{0.2cm}\frac{m_k}{k!} \cdot ({\rm j} \hspace{0.01cm}{\it \Omega})^k .$$

Die  Aufgabe 3.4  zeigt weitere Eigenschaften der charakteristischen Funktion auf.


$\text{Beispiel 3:}$ 

  • Bei einer symmetrischen binären  (zweipunktverteilten)  Zufallsgröße  $x ∈ \{\pm1\}$  mit den Wahrscheinlichkeiten  ${\rm Pr}(–1) = {\rm Pr}(+1) = 1/2$  verläuft die charakteristische Funktion cosinusförmig.
  • Das Analogon in der Systemtheorie ist,  dass das Spektrum eines Cosinussignals mit der Kreisfrequenz  ${\it Ω}_{\hspace{0.03cm}0}$  aus zwei Diracfunktionen bei  $±{\it Ω}_{\hspace{0.03cm}0}$  besteht.


$\text{Beispiel 4:}$ 

$$C_y({\it \Omega}) = \frac{1}{2 y_0} \cdot \int_{-y_0}^{+y_0} {\rm e}^{ {\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} y} \,{\rm d}y = \frac{ {\rm e}^{ {\rm j} \hspace{0.05cm} y_0 \hspace{0.05cm}{\it \Omega} } - {\rm e}^{ - {\rm j} \hspace{0.05cm} y_0 \hspace{0.05cm} {\it \Omega} } }{2 {\rm j} \cdot y_0 \cdot {\it \Omega} } = \frac{ {\rm sin}(y_0 \cdot {\it \Omega})}{ y_0 \cdot {\it \Omega} } = {\rm si}(y_0 \cdot {\it \Omega}). $$
  • Die Funktion  ${\rm si}(x) = \sin(x)/x= {\rm sinc}(x/\pi)$  kennen wir bereits aus dem Buch  Signaldarstellung.
  • Sie ist auch unter dem Namen  "Spaltfunktion"  bekannt.

Aufgaben zum Kapitel


Aufgabe 3.3: Momente bei $\cos^2$–WDF

Aufgabe 3.3Z: Momente bei Dreieck–WDF

Aufgabe 3.4: Charakteristische Funktion