Digitalsignalübertragung/Fehlerwahrscheinlichkeit bei Basisbandübertragung: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
Zeile 10: Zeile 10:
 
[[Datei:P_ID1258__Dig_T_1_2_S1_v1.png|right|frame|Zur Definition der Bitfehlerwahrscheinlichkeit]]
 
[[Datei:P_ID1258__Dig_T_1_2_S1_v1.png|right|frame|Zur Definition der Bitfehlerwahrscheinlichkeit]]
 
Die Grafik zeigt ein sehr einfaches, aber allgemeingültiges Modell eines binären Übertragungssystems. Dieses lässt sich wie folgt charakterisieren:
 
Die Grafik zeigt ein sehr einfaches, aber allgemeingültiges Modell eines binären Übertragungssystems. Dieses lässt sich wie folgt charakterisieren:
*Die Quelle und die Sinke werden durch die beiden Binärfolgen $〈q_ν〉$ und $〈v_ν〉$ beschrieben.
+
*Quelle und Sinke werden durch die beiden Binärfolgen  $〈q_ν〉$  und  $〈v_ν〉$  beschrieben.
 
*Das gesamte Übertragungsystem – bestehend aus Sender, Übertragungskanal inklusive Störungen und Empfänger – wird als „Black Box” mit binärem Eingang und binärem Ausgang betrachtet.
 
*Das gesamte Übertragungsystem – bestehend aus Sender, Übertragungskanal inklusive Störungen und Empfänger – wird als „Black Box” mit binärem Eingang und binärem Ausgang betrachtet.
*Dieser „Digitale Kanal” wird allein durch die Fehlerfolge $〈e_ν〉$ charakterisiert. Bei fehlerfreier Übertragung des $\nu$–ten Bits $(v_ν = q_ν)$ gilt $e_ν= 0$, andernfalls  $(v_ν \ne q_ν)$ wird $e_ν= 1$ gesetzt.
+
*Dieser „Digitale Kanal” wird allein durch die Fehlerfolge $〈e_ν〉$ charakterisiert. Bei fehlerfreier Übertragung des $\nu$–ten Bits  $(v_ν = q_ν)$  gilt  $e_ν= 0$, andernfalls   $(v_ν \ne q_ν)$  wird  $e_ν= 1$  gesetzt.
 
<br clear=all>
 
<br clear=all>
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
 
$\text{Definition:}$&nbsp; Die (mittlere) '''Bitfehlerwahrscheinlichkeit''' ist bei einem Binärsystem wie folgt gegeben:
 
$\text{Definition:}$&nbsp; Die (mittlere) '''Bitfehlerwahrscheinlichkeit''' ist bei einem Binärsystem wie folgt gegeben:
  
:$$p_{\rm B} = {\rm E}[{\rm Pr}(v_{\nu} \ne q_{\nu})]= \overline{  {\rm Pr}(v_{\nu} \ne q_{\nu}) } =
+
:$$p_{\rm B} = {\rm E}\big[{\rm Pr}(v_{\nu} \ne q_{\nu})\big]= \overline{  {\rm Pr}(v_{\nu} \ne q_{\nu}) } =
 
  \lim_{N \to\infty}\frac{1}{N}\cdot\sum\limits_{\nu=1}^{N}{\rm Pr}(v_{\nu}
 
  \lim_{N \to\infty}\frac{1}{N}\cdot\sum\limits_{\nu=1}^{N}{\rm Pr}(v_{\nu}
 
\ne q_{\nu})\hspace{0.05cm}.$$
 
\ne q_{\nu})\hspace{0.05cm}.$$
 
Diese statistische Größe ist das wichtigste Beurteilungskriterium eines jeden Digitalsystems.}}<br>
 
Diese statistische Größe ist das wichtigste Beurteilungskriterium eines jeden Digitalsystems.}}<br>
  
Die Berechnung als Erwartungswert $\rm E[\text{...}]$ gemäß dem ersten Teil der obigen Gleichung entspricht einer Scharmittelung über die Verfälschungswahrscheinlichkeit ${\rm Pr}(v_{\nu} \ne q_{\nu})$ des $\nu$&ndash;ten Symbols, während die überstreichende Linie im rechten Gleichungsteil eine Zeitmittelung  kennzeichnet. Beide Berechnungsarten führen &ndash; unter der gerechtfertigten Annahme ergodischer Prozesse &ndash; zum gleichen Ergebnis, wie im vierten Hauptkapitel  &nbsp; &rArr; &nbsp; &bdquo;Zufallsgrößen mit statistischen Bindungen&rdquo; des Buches [[Stochastische Signaltheorie]] gezeigt wurde.
+
*Die Berechnung als Erwartungswert &nbsp;$\rm E[\text{...}]$&nbsp; gemäß dem ersten Teil der obigen Gleichung entspricht einer Scharmittelung über die Verfälschungswahrscheinlichkeit &nbsp;${\rm Pr}(v_{\nu} \ne q_{\nu})$&nbsp; des &nbsp;$\nu$&ndash;ten Symbols, während die überstreichende Linie im rechten Gleichungsteil eine Zeitmittelung  kennzeichnet.  
  
Auch aus der Fehlerfolge $〈e_ν〉$ lässt sich die Bitfehlerwahrscheinlichkeit als Erwartungswert bestimmen, wobei zu berücksichtigen ist, dass die Fehlergröße $e_ν$  nur die Werte $0$ und $1$ annehmen kann:
+
*Beide Berechnungsarten führen &ndash; unter der gerechtfertigten Annahme ergodischer Prozesse &ndash; zum gleichen Ergebnis, wie im vierten Hauptkapitel  &bdquo;Zufallsgrößen mit statistischen Bindungen&rdquo; des Buches &nbsp;[[Stochastische Signaltheorie]]&nbsp; gezeigt wurde.
:$$\it p_{\rm B} =  \rm E[\rm Pr(\it e_{\nu}=\rm 1)]= {\rm E}[{\it e_{\nu}}]\hspace{0.05cm}.$$
+
 
*Die obige Definition der Bitfehlerwahrscheinlichkeit gilt unabhängig davon, ob es statistische Bindungen innerhalb der Fehlerfolge $〈e_ν〉$ gibt oder nicht.  
+
*Auch aus der Fehlerfolge &nbsp;$〈e_ν〉$&nbsp; lässt sich die Bitfehlerwahrscheinlichkeit als Erwartungswert bestimmen, wobei zu berücksichtigen ist, dass die Fehlergröße &nbsp;$e_ν$&nbsp; nur die Werte &nbsp;$0$&nbsp; und &nbsp;$1$&nbsp; annehmen kann:
*Je nachdem muss man bei einer Systemsimulation unterschiedliche digitale Kanalmodelle verwenden. Der Aufwand zur $p_{\rm B}$&ndash;Berechnung hängt hiervon ab.
+
:$$\it p_{\rm B} =  \rm E\big[\rm Pr(\it e_{\nu}=\rm 1)\big]= {\rm E}\big[{\it e_{\nu}}\big]\hspace{0.05cm}.$$
 +
*Die obige Definition der Bitfehlerwahrscheinlichkeit gilt unabhängig davon, ob es statistische Bindungen innerhalb der Fehlerfolge &nbsp;$〈e_ν〉$&nbsp; gibt oder nicht. Je nachdem muss man bei einer Systemsimulation unterschiedliche digitale Kanalmodelle verwenden. Der Aufwand zur &nbsp;$p_{\rm B}$&ndash;Berechnung hängt hiervon ab.
 
<br>
 
<br>
Im fünften Hauptkapitel wird gezeigt, dass das so genannte [[Digitalsignalübertragung/Binary_Symmetric_Channel_(BSC)|BSC&ndash;Modell]] (<i>Binary Symmetrical Channel</i>) statistisch unabhängige Fehler liefert, während für die Beschreibung von Bündelfehlerkanälen auf die Modelle von [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_Gilbert.E2.80.93Elliott|Gilbert&ndash;Elliott]] [Gil60]<ref>Gilbert, E. N.: ''Capacity of Burst–Noise Channel,'' In: Bell Syst. Techn. J. Vol. 39, 1960, pp. 1253–1266.</ref> und von [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_McCullough|McCullough]] [McC68]<ref>McCullough, R.H.: ''The Binary Regenerative Channel,'' In: Bell Syst. Techn. J. (47), 1968.</ref> zurückgegriffen werden muss.
+
Im fünften Hauptkapitel wird gezeigt, dass das so genannte &nbsp;[[Digitalsignalübertragung/Binary_Symmetric_Channel_(BSC)|BSC&ndash;Modell]]&nbsp; (<i>Binary Symmetrical Channel</i>) statistisch unabhängige Fehler liefert, während für die Beschreibung von Bündelfehlerkanälen auf die Modelle von &nbsp;[[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_Gilbert.E2.80.93Elliott|Gilbert&ndash;Elliott]]&nbsp; [Gil60]<ref>Gilbert, E. N.: ''Capacity of Burst–Noise Channel,'' In: Bell Syst. Techn. J. Vol. 39, 1960, pp. 1253–1266.</ref> und von &nbsp;[[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_McCullough|McCullough]]&nbsp; [McC68]<ref>McCullough, R.H.: ''The Binary Regenerative Channel,'' In: Bell Syst. Techn. J. (47), 1968.</ref> zurückgegriffen werden muss.
  
  
 
== Definition der Bitfehlerquote==
 
== Definition der Bitfehlerquote==
 
<br>
 
<br>
Die Bitfehlerwahrscheinlichkeit $p_{\rm B}$ eignet sich zum Beispiel gut für die Konzipierung und Optimierung von Digitalsystemen. Diese ist eine ''Apriori-Kenngröße'', die eine Vorhersage über das Fehlerverhalten eines Nachrichtensystems erlaubt, ohne dass dieses bereits realisiert sein muss.<br>
+
Die Bitfehlerwahrscheinlichkeit &nbsp;$p_{\rm B}$&nbsp; eignet sich zum Beispiel gut für die Konzipierung und Optimierung von Digitalsystemen. Diese ist eine &nbsp;''Apriori-Kenngröße'', die eine Vorhersage über das Fehlerverhalten eines Nachrichtensystems erlaubt, ohne dass dieses bereits realisiert sein muss.<br>
  
Dagegen muss zur messtechnischen Erfassung der Qualität eines realisierten Systems oder bei einer Systemsimulation auf die Bitfehlerquote übergegangen werden, die durch den Vergleich von Quellensymbolfolge $〈q_ν〉$ und Sinkensymbolfolge  $〈v_ν〉$ ermittelt wird. Diese ist somit eine ''Aposteriori-Kenngröße'' des Systems.
+
Dagegen muss zur messtechnischen Erfassung der Qualität eines realisierten Systems oder bei einer Systemsimulation auf die Bitfehlerquote übergegangen werden, die durch den Vergleich von Quellensymbolfolge &nbsp;$〈q_ν〉$&nbsp; und Sinkensymbolfolge  &nbsp;$〈v_ν〉$&nbsp; ermittelt wird. Diese ist somit eine &nbsp;''Aposteriori-Kenngröße'' des Systems.
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Die  '''Bitfehlerquote''' (englisch: <i>Bit Error Rate</i>, BER) ist das Verhältnis aus der Anzahl $n_{\rm B}(N)$  der aufgetretenen Bitfehler $(v_ν \ne q_ν)$  und der Anzahl $N$ der insgesamt übertragenen Symbole:
+
$\text{Definition:}$&nbsp; Die  '''Bitfehlerquote''' (englisch: <i>Bit Error Rate</i>, BER) ist das Verhältnis aus der Anzahl &nbsp;$n_{\rm B}(N)$&nbsp; der aufgetretenen Bitfehler &nbsp;$(v_ν \ne q_ν)$&nbsp; und der Anzahl &nbsp;$N$&nbsp; der insgesamt übertragenen Symbole:
 
:$$h_{\rm B}(N) = \frac{n_{\rm B}(N)}{N}  \hspace{0.05cm}.$$
 
:$$h_{\rm B}(N) = \frac{n_{\rm B}(N)}{N}  \hspace{0.05cm}.$$
Im Sinne der Wahrscheinlichkeitsrechnung ist die Bitfehlerquote eine [[Stochastische_Signaltheorie/Vom_Zufallsexperiment_zur_Zufallsgröße#Bernoullisches_Gesetz_der_gro.C3.9Fen_Zahlen|relative Häufigkeit]] dar; sie wird deshalb auch ''Bitfehlerhäufigkeit'' genannt.}}<br>
+
Im Sinne der Wahrscheinlichkeitsrechnung ist die Bitfehlerquote eine &nbsp;[[Stochastische_Signaltheorie/Vom_Zufallsexperiment_zur_Zufallsgröße#Bernoullisches_Gesetz_der_gro.C3.9Fen_Zahlen|relative Häufigkeit]]; sie wird deshalb auch ''Bitfehlerhäufigkeit'' genannt.}}<br>
  
*Die Schreibweise $h_{\rm B}(N)$ soll deutlich machen, dass die per Messung oder durch Simulation ermittelte Bitfehlerquote signifikant von dem Parameter $N$ &ndash; also der Anzahl der insgesamt übertragenen oder simulierten Symbole &ndash; abhängt.  
+
*Die Schreibweise &nbsp;$h_{\rm B}(N)$&nbsp; soll deutlich machen, dass die per Messung oder durch Simulation ermittelte Bitfehlerquote signifikant von dem Parameter &nbsp;$N$ &ndash; also der Anzahl der insgesamt übertragenen oder simulierten Symbole &ndash; abhängt.  
*Nach den elementaren Gesetzen der Wahrscheinlichkeitsrechnung stimmt nur im Grenzfall $N \to \infty$ die Aposteriori&ndash;Kenngröße $h_{\rm B}(N\to \infty)$ mit der Apriori&ndash;Kenngröße $p_{\rm B}$ exakt überein.<br><br>
+
*Nach den elementaren Gesetzen der Wahrscheinlichkeitsrechnung stimmt nur im Grenzfall &nbsp;$N \to \infty$&nbsp; die Aposteriori&ndash;Kenngröße &nbsp;$h_{\rm B}(N)$&nbsp; mit der Apriori&ndash;Kenngröße &nbsp;$p_{\rm B}$&nbsp; exakt überein.<br><br>
 
Der Zusammenhang zwischen Wahrscheinlichkeit und relativer Häufigkeit wird im Lernvideo [[Bernoullisches_Gesetz_der_großen_Zahlen_(Lernvideo)|Bernoullisches Gesetz der großen Zahlen]] verdeutlicht.
 
Der Zusammenhang zwischen Wahrscheinlichkeit und relativer Häufigkeit wird im Lernvideo [[Bernoullisches_Gesetz_der_großen_Zahlen_(Lernvideo)|Bernoullisches Gesetz der großen Zahlen]] verdeutlicht.
 
<br><br>
 
<br><br>
Zeile 50: Zeile 51:
 
== Bitfehlerwahrscheinlichkeit und Bitfehlerquote beim BSC-Modell==
 
== Bitfehlerwahrscheinlichkeit und Bitfehlerquote beim BSC-Modell==
 
<br>
 
<br>
Für die nachfolgenden Herleitungen wird das BSC&ndash;Modell (''Binary Symmettric Channel'') zugrunde gelegt, das in [[Digitalsignal%C3%BCbertragung/Binary_Symmetric_Channel_(BSC)#Fehlerkorrelationsfunktion_des_BSC.E2.80.93Modells| Kapitel 5.2]] im Detail beschrieben wird.  
+
Für die nachfolgenden Herleitungen wird das BSC&ndash;Modell (''Binary Symmetric Channel''&nbsp;) zugrunde gelegt, das in &nbsp;[[Digitalsignal%C3%BCbertragung/Binary_Symmetric_Channel_(BSC)#Fehlerkorrelationsfunktion_des_BSC.E2.80.93Modells| Kapitel 5.2]]&nbsp; im Detail beschrieben wird.  
*Jedes Bit wird mit der Wahrscheinlichkeit $p = {\rm Pr}(v_{\nu} \ne q_{\nu}) = {\rm Pr}(e_{\nu} = 1)$ verfälscht, unabhängig von den Fehlerwahrscheinlichkeiten der benachbarten Symbole.  
+
*Jedes Bit wird mit der Wahrscheinlichkeit &nbsp;$p = {\rm Pr}(v_{\nu} \ne q_{\nu}) = {\rm Pr}(e_{\nu} = 1)$&nbsp; verfälscht, unabhängig von den Fehlerwahrscheinlichkeiten der benachbarten Symbole.  
*Die (mittlere) Bitfehlerwahrscheinlichkeit $p_{\rm B}$ ist somit ebenfalls gleich $p$.
+
*Die (mittlere) Bitfehlerwahrscheinlichkeit &nbsp;$p_{\rm B}$&nbsp; ist somit ebenfalls gleich &nbsp;$p$.
 
<br>
 
<br>
  
Nun wird abgeschätzt, wie genau beim BSC-Modell die Bitfehlerwahrscheinlichkeit $p_{\rm B} = p$ durch die Bitfehlerquote $h_{\rm B}(N)$ approximiert wird:  
+
Nun wird abgeschätzt, wie genau beim BSC-Modell die Bitfehlerwahrscheinlichkeit &nbsp;$p_{\rm B} = p$&nbsp; durch die Bitfehlerquote &nbsp;$h_{\rm B}(N)$&nbsp; approximiert wird:  
  
*Die Anzahl der Bitfehler bei der Übertragung von $N$ Symbolen ist eine diskrete Zufallsgröße:
+
*Die Anzahl der Bitfehler bei der Übertragung von &nbsp;$N$&nbsp; Symbolen ist eine diskrete Zufallsgröße:
 
:$$n_{\rm B}(N) = \sum\limits_{\it \nu=\rm 1}^{\it N} e_{\nu} \hspace{0.2cm} \in \hspace{0.2cm} \{0, 1, \hspace{0.05cm}\text{...} \hspace{0.05cm} , N \}\hspace{0.05cm}.$$
 
:$$n_{\rm B}(N) = \sum\limits_{\it \nu=\rm 1}^{\it N} e_{\nu} \hspace{0.2cm} \in \hspace{0.2cm} \{0, 1, \hspace{0.05cm}\text{...} \hspace{0.05cm} , N \}\hspace{0.05cm}.$$
*Bei statistisch unabhängigen Fehlern (BSC) ist $n_{\rm B}(N)$ [[Stochastische_Signaltheorie/Binomialverteilung#Allgemeine_Beschreibung_der_Binomialverteilung|binominalverteilt]]. Demzufolge gilt:
+
*Bei statistisch unabhängigen Fehlern (BSC&ndash;Modell) ist &nbsp;$n_{\rm B}(N)$&nbsp; [[Stochastische_Signaltheorie/Binomialverteilung#Allgemeine_Beschreibung_der_Binomialverteilung|binominalverteilt]]. Demzufolge gilt für Mittelwert und Streuung dieser Zufallsgröße:
 
:$$m_{n{\rm B}}=N \cdot p_{\rm B},\hspace{0.2cm}\sigma_{n{\rm B}}=\sqrt{N\cdot p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}\hspace{0.05cm}.$$
 
:$$m_{n{\rm B}}=N \cdot p_{\rm B},\hspace{0.2cm}\sigma_{n{\rm B}}=\sqrt{N\cdot p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}\hspace{0.05cm}.$$
*Für Mittelwert und Streuung der Bitfehlerquote $h_{\rm B}(N)= n_{\rm B}(N)/N$ gilt deshalb::
+
*Für Mittelwert und Streuung der Bitfehlerquote &nbsp;$h_{\rm B}(N)= n_{\rm B}(N)/N$&nbsp; gilt deshalb::
 
<math>m_{h{\rm B}}= \frac{m_{n{\rm B}}}{N} = p_{\rm B}\hspace{0.05cm},\hspace{0.2cm}\sigma_{h{\rm B}}= \frac{\sigma_{n{\rm B}}}{N}=
 
<math>m_{h{\rm B}}= \frac{m_{n{\rm B}}}{N} = p_{\rm B}\hspace{0.05cm},\hspace{0.2cm}\sigma_{h{\rm B}}= \frac{\sigma_{n{\rm B}}}{N}=
 
   \sqrt{\frac{ p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}{N}}\hspace{0.05cm}.</math>
 
   \sqrt{\frac{ p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}{N}}\hspace{0.05cm}.</math>
*Nach [https://de.wikipedia.org/wiki/Abraham_de_Moivre Moivre] und [https://de.wikipedia.org/wiki/Pierre-Simon_Laplace Laplace] lässt sich die Binominalverteilung in eine Gaußverteilung überführen:
+
*Nach &nbsp;[https://de.wikipedia.org/wiki/Abraham_de_Moivre Moivre]&nbsp; und &nbsp;[https://de.wikipedia.org/wiki/Pierre-Simon_Laplace Laplace]&nbsp; kann aber die Binominalverteilung näherungsweise durch eine Gaußverteilung approximiert  werden:
 
:$$f_{h{\rm B}}({h_{\rm B}}) \approx \frac{1}{\sqrt{2\pi}\cdot\sigma_{h{\rm B}}}\cdot {\rm e}^{-(h_{\rm B}-p_{\rm B})^2/(2 \hspace{0.05cm}\cdot \hspace{0.05cm}\sigma_{h{\rm B}}^2)}.$$
 
:$$f_{h{\rm B}}({h_{\rm B}}) \approx \frac{1}{\sqrt{2\pi}\cdot\sigma_{h{\rm B}}}\cdot {\rm e}^{-(h_{\rm B}-p_{\rm B})^2/(2 \hspace{0.05cm}\cdot \hspace{0.05cm}\sigma_{h{\rm B}}^2)}.$$
*Mit dem [[Stochastische_Signaltheorie/Gaußverteilte_Zufallsgrößen#.C3.9Cberschreitungswahrscheinlichkeit|Gaußschen Fehlerintergal]] ${\rm Q}(x)$ lässt sich so die Wahrscheinlichkeit $p_\varepsilon$  berechnen, dass die per Simulation/Messung über $N$ Symbole ermittelte Bitfehlerquote $h_{\rm B}(N)$  betragsmäßig um weniger als einen Wert $\varepsilon$ von der tatsächlichen Bitfehlerwahrscheinlichkeit $p_{\rm B}$ abweicht:
+
*Mit dem &nbsp;[[Stochastische_Signaltheorie/Gaußverteilte_Zufallsgrößen#.C3.9Cberschreitungswahrscheinlichkeit|Gaußschen Fehlerintergal]]&nbsp; ${\rm Q}(x)$&nbsp; lässt sich so die Wahrscheinlichkeit &nbsp;$p_\varepsilon$&nbsp; berechnen, dass die per Simulation/Messung über &nbsp;$N$&nbsp; Symbole ermittelte Bitfehlerquote &nbsp;$h_{\rm B}(N)$&nbsp; betragsmäßig um weniger als einen Wert &nbsp;$\varepsilon$&nbsp; von der tatsächlichen Bitfehlerwahrscheinlichkeit &nbsp;$p_{\rm B}$&nbsp; abweicht:
 
:$$p_{\varepsilon}= {\rm Pr} \left( |h_{\rm B}(N) - p_{\rm B}| < \varepsilon \right)
 
:$$p_{\varepsilon}= {\rm Pr} \left( |h_{\rm B}(N) - p_{\rm B}| < \varepsilon \right)
 
   = 1 -2 \cdot {\rm Q} \left( \frac{\varepsilon}{\sigma_{h{\rm B}}} \right)=
 
   = 1 -2 \cdot {\rm Q} \left( \frac{\varepsilon}{\sigma_{h{\rm B}}} \right)=
Zeile 73: Zeile 74:
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
 
$\text{Fazit:}$&nbsp; Dieses Ergebnis ist wie folgt zu interpretieren:  
 
$\text{Fazit:}$&nbsp; Dieses Ergebnis ist wie folgt zu interpretieren:  
*Wenn man unendlich viele Versuchsreihen über jeweils $N$ Symbole durchführt, ist der Mittelwert $m_{h{\rm B} }$ tatsächlich gleich der gesuchten Fehlerwahrscheinlichkeit $p_{\rm B}$.  
+
*Führt man unendlich viele Versuchsreihen über jeweils &nbsp;$N$&nbsp; Symbole durch, ist der Mittelwert &nbsp;$m_{h{\rm B} }$&nbsp; tatsächlich gleich der gesuchten Fehlerwahrscheinlichkeit &nbsp;$p_{\rm B}$.  
 
*Bei einer einzigen Versuchsreihe wird man dagegen nur eine Näherung erhalten, wobei die jeweilige Abweichung vom Sollwert bei mehreren Versuchsreihen gaußverteilt ist.}}
 
*Bei einer einzigen Versuchsreihe wird man dagegen nur eine Näherung erhalten, wobei die jeweilige Abweichung vom Sollwert bei mehreren Versuchsreihen gaußverteilt ist.}}
  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 1:}$&nbsp; Die Bitfehlerwahrscheinlichkeit betrage $p_{\rm B}= 10^{-3}$ und es ist bekannt, dass die Bitfehler statistisch unabhängig sind.  
+
$\text{Beispiel 1:}$&nbsp; Die Bitfehlerwahrscheinlichkeit betrage &nbsp;$p_{\rm B}= 10^{-3}$&nbsp; und es ist bekannt, dass die Bitfehler statistisch unabhängig sind.  
*Macht man nun sehr viele Versuchsreihen mit jeweils $N= 10^{5}$ Symbolen, so werden die jeweiligen Ergebnisse  $h_{\rm B}(N)$ entsprechend einer Gaußverteilung um den Sollwert $10^{-3}$ variieren.  
+
*Macht man nun sehr viele Versuchsreihen mit jeweils &nbsp;$N= 10^{5}$&nbsp; Symbolen, so werden die jeweiligen Ergebnisse  &nbsp;$h_{\rm B}(N)$&nbsp; entsprechend einer Gaußverteilung um den Sollwert &nbsp;$10^{-3}$&nbsp; variieren.  
*Die Streuung beträgt dabei $\sigma_{h{\rm B} }=  \sqrt{ { p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}/{N} }\approx 10^{-4}\hspace{0.05cm}.$
+
*Die Streuung beträgt dabei &nbsp;$\sigma_{h{\rm B} }=  \sqrt{ { p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}/{N} }\approx 10^{-4}\hspace{0.05cm}.$
*Die Wahrscheinlichkeit, dass die relative Häufigkeit einen Wert zwischen $0.9 \cdot 10^{-3}$ und $1.1 \cdot 10^{-3}$  haben wird &nbsp;  $(\varepsilon=10^{-4})$, ist somit gleich  
+
*Die Wahrscheinlichkeit, dass die relative Häufigkeit einen Wert zwischen &nbsp;$0.9 \cdot 10^{-3}$&nbsp; und &nbsp;$1.1 \cdot 10^{-3}$&nbsp; haben wird &nbsp;  $(\varepsilon=10^{-4})$, ist somit gleich  
 
:$$p_{\varepsilon} = 1 - 2 \cdot  {\rm Q} \left({\varepsilon}/{\sigma_{h{\rm B} } } \right )= 1 - 2 \cdot {\rm Q} (1) \approx 68.4\%.$$  
 
:$$p_{\varepsilon} = 1 - 2 \cdot  {\rm Q} \left({\varepsilon}/{\sigma_{h{\rm B} } } \right )= 1 - 2 \cdot {\rm Q} (1) \approx 68.4\%.$$  
*Soll diese Wahrscheinlichkeit (Genauigkeit) auf $95\%$ gesteigert werden, so wären  $N = 400\hspace{0.05cm}000$ Symbole erforderlich.}}
+
*Soll diese Wahrscheinlichkeit (Genauigkeit) auf &nbsp;$95\%$&nbsp; gesteigert werden, so wären  &nbsp;$N = 400\hspace{0.05cm}000$&nbsp; Symbole erforderlich.}}
  
  
 
== Fehlerwahrscheinlichkeit bei Gaußschem Rauschen==
 
== Fehlerwahrscheinlichkeit bei Gaußschem Rauschen==
 
<br>
 
<br>
Entsprechend den [[Digitalsignalübertragung/Systemkomponenten_eines_Basisbandübertragungssystems#Ersatzschaltbild_und_Voraussetzungen_f.C3.BCr_das_erste_Hauptkapitel| Voraussetzungen zu diesem Kapitel]] gehen wir von folgenden Annahmen aus:
+
Entsprechend den &nbsp;[[Digitalsignalübertragung/Systemkomponenten_eines_Basisbandübertragungssystems#Ersatzschaltbild_und_Voraussetzungen_f.C3.BCr_das_erste_Hauptkapitel| Voraussetzungen zu diesem Kapitel]]&nbsp; gehen wir von folgenden Annahmen aus:
*Das Detektionssignal zu den Detektionszeitpunkten kann wie folgt dargestellt werden: &nbsp;$ d(\nu  T) = d_{\rm S}(\nu  T)+d_{\rm N}(\nu T)\hspace{0.05cm}. $
+
*Das Detektionssignal zu den Detektionszeitpunkten kann wie folgt dargestellt werden: &nbsp; $ d(\nu  T) = d_{\rm S}(\nu  T)+d_{\rm N}(\nu T)\hspace{0.05cm}. $
*Der Nutzanteil wird durch die Wahrscheinlichkeitsdichtefunktion (WDF) $f_{d{\rm S}}(d_{\rm S}) $ beschrieben, wobei wir hier von unterschiedlichen Auftrittswahrscheinlichkeiten $p_{\rm L} = {\rm Pr}(d_{\rm S} = -s_0)$ und  $p_{\rm H} = {\rm Pr}(d_{\rm S} = +s_0)= 1-p_{\rm L}$ ausgehen.  
+
*Der Nutzanteil wird durch die Wahrscheinlichkeitsdichtefunktion (WDF) &nbsp;$f_{d{\rm S}}(d_{\rm S}) $&nbsp; beschrieben, wobei wir hier von unterschiedlichen Auftrittswahrscheinlichkeiten &nbsp;$p_{\rm L} = {\rm Pr}(d_{\rm S} = -s_0)$&nbsp; und  &nbsp;$p_{\rm H} = {\rm Pr}(d_{\rm S} = +s_0)= 1-p_{\rm L}$&nbsp; ausgehen.  
*Die WDF $f_{d{\rm N}}(d_{\rm N})$ der Störkomponente ist gaußförmig und besitzt die Streuung $\sigma_d$.
+
*Die WDF &nbsp;$f_{d{\rm N}}(d_{\rm N})$&nbsp; der Störkomponente sei gaußförmig und besitze die Streuung &nbsp;$\sigma_d$.
  
  
 
[[Datei:P_ID1259__Dig_T_1_2_S3_v2.png|center|frame|Fehlerwahrscheinlichkeit bei Gaußschem Rauschen|class=fit]]
 
[[Datei:P_ID1259__Dig_T_1_2_S3_v2.png|center|frame|Fehlerwahrscheinlichkeit bei Gaußschem Rauschen|class=fit]]
  
Unter der Voraussetzung, dass $d_{\rm S}(\nu  T)$ und $d_{\rm N}(\nu  T)$ statistisch unabhängig voneinander sind  (&bdquo;signalunabhängiges Rauschen&rdquo;),  ergibt sich die WDF $f_d(d) $ der Detektionsabtastwerte $d(\nu  T)$ als das Faltungsprodukt $f_d(d) = f_{d{\rm S}}(d_{\rm S}) \star f_{d{\rm N}}(d_{\rm N})\hspace{0.05cm}.$<br><br>
+
Unter der Voraussetzung, dass &nbsp;$d_{\rm S}(\nu  T)$&nbsp; und &nbsp;$d_{\rm N}(\nu  T)$&nbsp; statistisch unabhängig voneinander sind  &nbsp;(&bdquo;signalunabhängiges Rauschen&rdquo;),  ergibt sich die WDF &nbsp;$f_d(d) $&nbsp; der Detektionsabtastwerte &nbsp;$d(\nu  T)$&nbsp; als das Faltungsprodukt  
Der Schwellenwertentscheider mit der Schwelle $E = 0$ trifft immer dann eine falsche Entscheidung, wenn
+
:$$f_d(d) = f_{d{\rm S}}(d_{\rm S}) \star f_{d{\rm N}}(d_{\rm N})\hspace{0.05cm}.$$
*das Symbol $\rm L$ gesendet wurde $(d_{\rm S} = -s_0)$ und $d > 0$ ist (rote schraffierte Fläche), oder
+
 
*das Symbol  $\rm H$ gesendet wurde $(d_{\rm S} = +s_0)$ und $d < 0$ ist (blaue schraffierte Fläche).
+
Der Schwellenwertentscheider mit der Schwelle &nbsp;$E = 0$&nbsp; trifft immer dann eine falsche Entscheidung, wenn
 +
*das Symbol &nbsp;$\rm L$&nbsp; gesendet wurde &nbsp;$(d_{\rm S} = -s_0)$ und &nbsp;$d > 0$&nbsp; ist (rote schraffierte Fläche), oder
 +
*das Symbol  &nbsp;$\rm H$&nbsp; gesendet wurde &nbsp;$(d_{\rm S} = +s_0)$ und &nbsp;$d < 0$&nbsp; ist (blaue schraffierte Fläche).
 
<br>
 
<br>
Da die Flächen der roten und der blauen  Gaußkurven zusammen $1$ ergeben, gibt die Summe aus der rot und der blau schraffierten Fläche die Bitfehlerwahrscheinlichkeit $p_{\rm B}$ an. Die beiden grün schraffierten Flächen in der oberen Wahrscheinlichkeitsdichtefunktion $f_{d{\rm N}}(d_{\rm N})$ sind &ndash; jede für sich &ndash; ebenfalls gleich $p_{\rm B}$.
+
Da die Flächen der roten und der blauen  Gaußkurven zusammen &nbsp;$1$&nbsp; ergeben, gibt die Summe aus der rot und der blau schraffierten Fläche die Bitfehlerwahrscheinlichkeit &nbsp;$p_{\rm B}$&nbsp; an. Die beiden grün schraffierten Flächen in der oberen Wahrscheinlichkeitsdichtefunktion &nbsp;$f_{d{\rm N}}(d_{\rm N})$&nbsp; sind &ndash; jede für sich &ndash; ebenfalls gleich &nbsp;$p_{\rm B}$.
  
  
Zeile 107: Zeile 110:
 
:$$p_{\rm B} = p_{\rm L} \cdot {\rm Pr}( v_\nu = \mathbf{H}\hspace{0.1cm}|\hspace{0.1cm} q_\nu = \mathbf{L})+
 
:$$p_{\rm B} = p_{\rm L} \cdot {\rm Pr}( v_\nu = \mathbf{H}\hspace{0.1cm}|\hspace{0.1cm} q_\nu = \mathbf{L})+
 
   p_{\rm H} \cdot {\rm Pr}(v_\nu = \mathbf{L}\hspace{0.1cm}|\hspace{0.1cm} q_\nu = \mathbf{H})\hspace{0.05cm}.$$
 
   p_{\rm H} \cdot {\rm Pr}(v_\nu = \mathbf{L}\hspace{0.1cm}|\hspace{0.1cm} q_\nu = \mathbf{H})\hspace{0.05cm}.$$
*Hierbei sind $p_{\rm L} $ und $p_{\rm H} $ die Quellensymbolwahrscheinlichkeiten. Die jeweils zweiten (bedingten) Wahrscheinlichkeiten $ {\rm Pr}( v_\nu \hspace{0.05cm}|\hspace{0.05cm} q_\nu)$  beschreiben die Verfälschungen durch den AWGN&ndash;Kanal. Aus der Entscheidungsregel des Schwellenwertentscheiders (mit Schwelle $E = 0$) ergibt sich auch:
+
*Hierbei sind &nbsp;$p_{\rm L} $&nbsp; und &nbsp;$p_{\rm H} $&nbsp; die Quellensymbolwahrscheinlichkeiten. Die jeweils zweiten (bedingten) Wahrscheinlichkeiten &nbsp;$ {\rm Pr}( v_\nu \hspace{0.05cm}|\hspace{0.05cm} q_\nu)$&nbsp; beschreiben die Verfälschungen durch den AWGN&ndash;Kanal. Aus der Entscheidungsregel des Schwellenwertentscheiders &nbsp;$($mit Schwelle &nbsp;$E = 0)$&nbsp; ergibt sich auch:
 
:$$p_{\rm B} = p_{\rm L} \cdot {\rm Pr}( d(\nu T)>0)+  p_{\rm H} \cdot {\rm Pr}( d(\nu  T)<0) =p_{\rm L} \cdot {\rm Pr}( d_{\rm N}(\nu T)>+s_0)+  p_{\rm H} \cdot {\rm Pr}( d_{\rm N}(\nu T)<-s_0) \hspace{0.05cm}.$$
 
:$$p_{\rm B} = p_{\rm L} \cdot {\rm Pr}( d(\nu T)>0)+  p_{\rm H} \cdot {\rm Pr}( d(\nu  T)<0) =p_{\rm L} \cdot {\rm Pr}( d_{\rm N}(\nu T)>+s_0)+  p_{\rm H} \cdot {\rm Pr}( d_{\rm N}(\nu T)<-s_0) \hspace{0.05cm}.$$
*Die beiden Überschreitungswahrscheinlichkeiten in obiger Gleichung sind aufgrund der Symmetrie der Gaußschen WDF $f_{d{\rm N}}(d_{\rm N})$ gleich. Es gilt:
+
*Die beiden Überschreitungswahrscheinlichkeiten in obiger Gleichung sind aufgrund der Symmetrie der Gaußschen WDF &nbsp;$f_{d{\rm N}}(d_{\rm N})$&nbsp; gleich. Es gilt:
 
:$$p_{\rm B} = (p_{\rm L} + p_{\rm H}) \cdot {\rm Pr}( d_{\rm N}(\nu T)>s_0) = {\rm Pr}( d_{\rm N}(\nu T)>s_0)\hspace{0.05cm}.$$
 
:$$p_{\rm B} = (p_{\rm L} + p_{\rm H}) \cdot {\rm Pr}( d_{\rm N}(\nu T)>s_0) = {\rm Pr}( d_{\rm N}(\nu T)>s_0)\hspace{0.05cm}.$$
:Das bedeutet: $p_{\rm B}$ hängt bei einem Binärsystem mit der Schwelle $E = 0$ nicht von den Symbolwahrscheinlichkeiten $p_{\rm L} $ und $p_{\rm H} = 1- p_{\rm L}$ ab.
+
:Das bedeutet: &nbsp; $p_{\rm B}$&nbsp; hängt bei einem Binärsystem mit der Schwelle &nbsp;$E = 0$&nbsp; nicht von den Symbolwahrscheinlichkeiten &nbsp;$p_{\rm L} $&nbsp; und &nbsp;$p_{\rm H} = 1- p_{\rm L}$&nbsp; ab.
*Die Wahrscheinlichkeit, dass der AWGN&ndash;Rauschterm $d_{\rm N}$ mit Streuung $\sigma_d$ größer ist als die NRZ&ndash;Sendeimpulsamplitude $s_0$, ergibt sich damit zu:
+
*Die Wahrscheinlichkeit, dass der AWGN&ndash;Rauschterm &nbsp;$d_{\rm N}$&nbsp; mit Streuung &nbsp;$\sigma_d$&nbsp; größer ist als die NRZ&ndash;Sendeimpulsamplitude &nbsp;$s_0$, ergibt sich damit zu:
 
:$$p_{\rm B} = \int_{s_0}^{+\infty}f_{d{\rm N}}(d_{\rm N})\,{\rm d} d_{\rm N} =
 
:$$p_{\rm B} = \int_{s_0}^{+\infty}f_{d{\rm N}}(d_{\rm N})\,{\rm d} d_{\rm N} =
 
   \frac{\rm 1}{\sqrt{2\pi} \cdot \sigma_d}\int_{
 
   \frac{\rm 1}{\sqrt{2\pi} \cdot \sigma_d}\int_{
 
s_0}^{+\infty}{\rm e} ^{-d_{\rm N}^2/(2\sigma_d^2) }\,{\rm d} d_{\rm
 
s_0}^{+\infty}{\rm e} ^{-d_{\rm N}^2/(2\sigma_d^2) }\,{\rm d} d_{\rm
 
N}\hspace{0.05cm}.$$
 
N}\hspace{0.05cm}.$$
*Unter Verwendung des komplementären Gaußschen Fehlerintegrals ${\rm Q}(x)$ lautet das Ergebnis:
+
*Unter Verwendung des komplementären Gaußschen Fehlerintegrals &nbsp;${\rm Q}(x)$&nbsp; lautet das Ergebnis:
 
:$$p_{\rm B} =  {\rm Q} \left( \frac{s_0}{\sigma_d}\right)\hspace{0.4cm}{\rm mit}\hspace{0.4cm}\rm Q (\it x) = \frac{\rm 1}{\sqrt{\rm 2\pi}}\int_{\it
 
:$$p_{\rm B} =  {\rm Q} \left( \frac{s_0}{\sigma_d}\right)\hspace{0.4cm}{\rm mit}\hspace{0.4cm}\rm Q (\it x) = \frac{\rm 1}{\sqrt{\rm 2\pi}}\int_{\it
 
x}^{+\infty}\rm e^{\it -u^{\rm 2}/\rm 2}\,d \it u \hspace{0.05cm}.$$
 
x}^{+\infty}\rm e^{\it -u^{\rm 2}/\rm 2}\,d \it u \hspace{0.05cm}.$$
*Häufig &ndash; insbesondere in der englischsprachigen Literatur &ndash; wird anstelle von ${\rm Q}(x)$ die vergleichbare komplementäre ''Error Function'' ${\rm erfc}(x)$ verwendet. Mit dieser gilt:
+
*Häufig &ndash; insbesondere in der englischsprachigen Literatur &ndash; wird anstelle von &nbsp;${\rm Q}(x)$&nbsp; die vergleichbare komplementäre ''Error Function'' &nbsp;${\rm erfc}(x)$&nbsp; verwendet. Mit dieser gilt:
 
:$$p_{\rm B} =  {1}/{2} \cdot {\rm erfc} \left( \frac{s_0}{\sqrt{2}\cdot \sigma_d}\right)\hspace{0.4cm}{\rm mit}\hspace{0.4cm}
 
:$$p_{\rm B} =  {1}/{2} \cdot {\rm erfc} \left( \frac{s_0}{\sqrt{2}\cdot \sigma_d}\right)\hspace{0.4cm}{\rm mit}\hspace{0.4cm}
 
  {\rm erfc} (\it x) = \frac{\rm 2}{\sqrt{\rm \pi}}\int_{\it
 
  {\rm erfc} (\it x) = \frac{\rm 2}{\sqrt{\rm \pi}}\int_{\it
 
x}^{+\infty}\rm e^{\it -u^{\rm 2}}\,d \it u \hspace{0.05cm}.$$
 
x}^{+\infty}\rm e^{\it -u^{\rm 2}}\,d \it u \hspace{0.05cm}.$$
  
Beide Funktionen findet man in Formelsammlungen in tabellarischer Form.  Sie können zur Berechnung der Funktionswerte von ${\rm Q}(x)$ und $1/2 \cdot {\rm erfc}(x)$ aber auch unser interaktives Applet [[Applets:Komplementäre_Gaußsche_Fehlerfunktionen_(Applet)|Komplementäre Gaußsche Fehlerfunktionen]] benutzen.
+
Beide Funktionen findet man in Formelsammlungen in tabellarischer Form.  Sie können zur Berechnung der Funktionswerte von &nbsp;${\rm Q}(x)$&nbsp; und &nbsp;$1/2 \cdot {\rm erfc}(x)$&nbsp; aber auch unser interaktives Applet &nbsp;[[Applets:Komplementäre_Gaußsche_Fehlerfunktionen_(Applet)|Komplementäre Gaußsche Fehlerfunktionen]]&nbsp; benutzen.
 
 
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 2:}$&nbsp; Für das Folgende wird vorausgesetzt, dass Tabellen zur Verfügung stehen, in denen das Argument der Gaußschen Fehlerfunktionen im Abstand $0.1$ aufgelistet sind. Mit $s_0/\sigma_d = 4$ erhält man für die Bitfehlerwahrscheinlichkeit gemäß der Q&ndash;Funktion:
+
$\text{Beispiel 2:}$&nbsp; Für das Folgende wird vorausgesetzt, dass Tabellen zur Verfügung stehen, in denen das Argument der Gaußschen Fehlerfunktionen im Abstand &nbsp;$0.1$&nbsp; aufgelistet sind. Mit &nbsp;$s_0/\sigma_d = 4$&nbsp; erhält man für die Bitfehlerwahrscheinlichkeit gemäß der Q&ndash;Funktion:
 
:$$p_{\rm B} = {\rm Q} (4) = 0.317 \cdot 10^{-4}\hspace{0.05cm}.$$
 
:$$p_{\rm B} = {\rm Q} (4) = 0.317 \cdot 10^{-4}\hspace{0.05cm}.$$
 
Nach der zweiten Gleichung ergibt sich:
 
Nach der zweiten Gleichung ergibt sich:
 
:$$p_{\rm B} = {1}/{2} \cdot {\rm erfc} ( {4}/{\sqrt{2} })= {1}/{2} \cdot {\rm erfc} ( 2.828)\approx {1}/{2} \cdot {\rm erfc} ( 2.8)= 0.375 \cdot 10^{-4}\hspace{0.05cm}.$$
 
:$$p_{\rm B} = {1}/{2} \cdot {\rm erfc} ( {4}/{\sqrt{2} })= {1}/{2} \cdot {\rm erfc} ( 2.828)\approx {1}/{2} \cdot {\rm erfc} ( 2.8)= 0.375 \cdot 10^{-4}\hspace{0.05cm}.$$
 
*Richtig ist der erste Wert. Bei der zweiten Berechnungsart muss man runden oder &ndash; noch besser &ndash; interpolieren, was aufgrund der starken Nichtlinearität dieser Funktion sehr schwierig ist.<br>
 
*Richtig ist der erste Wert. Bei der zweiten Berechnungsart muss man runden oder &ndash; noch besser &ndash; interpolieren, was aufgrund der starken Nichtlinearität dieser Funktion sehr schwierig ist.<br>
*Bei den gegebenen Zahlenwerten ist demnach  Q&ndash;Funktion besser geeignet. Außerhalb von Übungsbeispielen wird $s_0/\sigma_d$ in der Regel einen &bdquo;krummen&rdquo; Wert besitzen. In diesem Fall bietet die Q&ndash;Funktion  natürlich keinen Vorteil gegenüber ${\rm erfc}(x)$.}}
+
*Bei den gegebenen Zahlenwerten ist demnach die Q&ndash;Funktion besser geeignet. Außerhalb von Übungsbeispielen wird &nbsp;$s_0/\sigma_d$&nbsp; in der Regel einen &bdquo;krummen&rdquo; Wert besitzen. In diesem Fall bietet die Q&ndash;Funktion  natürlich keinen Vorteil gegenüber &nbsp;${\rm erfc}(x)$.}}
  
 
== Optimaler Binärempfänger - Realisierung mit Matched-Filter ==
 
== Optimaler Binärempfänger - Realisierung mit Matched-Filter ==
 
<br>
 
<br>
Wir gehen weiter von den [[Digitalsignalübertragung/Systemkomponenten_eines_Basisbandübertragungssystems#Ersatzschaltbild_und_Voraussetzungen_f.C3.BCr_das_erste_Hauptkapitel|vorne festgelegten Voraussetzungen]] aus. Dann kann man für den Frequenzgang und die Impulsantwort des Empfängerfilters ansetzen:
+
Wir gehen weiter von den &nbsp;[[Digitalsignalübertragung/Systemkomponenten_eines_Basisbandübertragungssystems#Ersatzschaltbild_und_Voraussetzungen_f.C3.BCr_das_erste_Hauptkapitel|vorne festgelegten Voraussetzungen]]&nbsp; aus.  
 +
 
 +
[[Datei:P_ID1261__Dig_T_1_2_S4_v1.png|center|frame|Optimaler Binärempfänger (Matched-Filter-Variante)]]
 +
 
 +
*Dann kann man für den Frequenzgang und die Impulsantwort des Empfängerfilters ansetzen:
 
:$$H_{\rm E}(f) =  {\rm si}(\pi f T) \hspace{0.4cm}\bullet\!\!-\!\!\!-\!\!\!-\!\!\circ \hspace{0.4cm} h_{\rm E}(t)  =  \left\{ \begin{array}{c} 1/T  \\
 
:$$H_{\rm E}(f) =  {\rm si}(\pi f T) \hspace{0.4cm}\bullet\!\!-\!\!\!-\!\!\!-\!\!\circ \hspace{0.4cm} h_{\rm E}(t)  =  \left\{ \begin{array}{c} 1/T  \\
 
  1/(2T) \\ 0 \\ \end{array} \right.\quad
 
  1/(2T) \\ 0 \\ \end{array} \right.\quad
Zeile 148: Zeile 154:
 
\end{array}$$
 
\end{array}$$
  
[[Datei:P_ID1261__Dig_T_1_2_S4_v1.png|center|frame|Optimaler Binärempfänger (Matched-Filter-Variante)]]
+
*Aufgrund der Linearität kann für das ''Detektionsnutzsignal''&nbsp; geschrieben werden:
 
 
*Aufgrund der Linearität kann für das ''Detektionsnutzsignal'' geschrieben werden:
 
 
:$$d_{\rm S}(t) =  \sum_{(\nu)} a_\nu \cdot g_d ( t - \nu \cdot T)\hspace{0.4cm}{\rm mit}\hspace{0.4cm}g_d(t) = g_s(t) \star h_{\rm E}(t) \hspace{0.05cm}.$$
 
:$$d_{\rm S}(t) =  \sum_{(\nu)} a_\nu \cdot g_d ( t - \nu \cdot T)\hspace{0.4cm}{\rm mit}\hspace{0.4cm}g_d(t) = g_s(t) \star h_{\rm E}(t) \hspace{0.05cm}.$$
 
*Die Faltung zweier Rechtecke gleicher Breite $T$ und Höhe $s_0$ ergibt einen dreieckförmigen Detektionsgrundimpuls $g_d(t)$  mit $g_d(t = 0) = s_0$. Wegen $g_d(|t| \ge 0) \equiv 0$ ist das System impulsinterferenzfrei; es gilt $d_{\rm S}(\nu  T)= \pm s_0$.
 
*Die Faltung zweier Rechtecke gleicher Breite $T$ und Höhe $s_0$ ergibt einen dreieckförmigen Detektionsgrundimpuls $g_d(t)$  mit $g_d(t = 0) = s_0$. Wegen $g_d(|t| \ge 0) \equiv 0$ ist das System impulsinterferenzfrei; es gilt $d_{\rm S}(\nu  T)= \pm s_0$.

Version vom 28. Januar 2019, 13:12 Uhr

Definition der Bitfehlerwahrscheinlichkeit


Zur Definition der Bitfehlerwahrscheinlichkeit

Die Grafik zeigt ein sehr einfaches, aber allgemeingültiges Modell eines binären Übertragungssystems. Dieses lässt sich wie folgt charakterisieren:

  • Quelle und Sinke werden durch die beiden Binärfolgen  $〈q_ν〉$  und  $〈v_ν〉$  beschrieben.
  • Das gesamte Übertragungsystem – bestehend aus Sender, Übertragungskanal inklusive Störungen und Empfänger – wird als „Black Box” mit binärem Eingang und binärem Ausgang betrachtet.
  • Dieser „Digitale Kanal” wird allein durch die Fehlerfolge $〈e_ν〉$ charakterisiert. Bei fehlerfreier Übertragung des $\nu$–ten Bits  $(v_ν = q_ν)$  gilt  $e_ν= 0$, andernfalls  $(v_ν \ne q_ν)$  wird  $e_ν= 1$  gesetzt.


$\text{Definition:}$  Die (mittlere) Bitfehlerwahrscheinlichkeit ist bei einem Binärsystem wie folgt gegeben:

$$p_{\rm B} = {\rm E}\big[{\rm Pr}(v_{\nu} \ne q_{\nu})\big]= \overline{ {\rm Pr}(v_{\nu} \ne q_{\nu}) } = \lim_{N \to\infty}\frac{1}{N}\cdot\sum\limits_{\nu=1}^{N}{\rm Pr}(v_{\nu} \ne q_{\nu})\hspace{0.05cm}.$$

Diese statistische Größe ist das wichtigste Beurteilungskriterium eines jeden Digitalsystems.


  • Die Berechnung als Erwartungswert  $\rm E[\text{...}]$  gemäß dem ersten Teil der obigen Gleichung entspricht einer Scharmittelung über die Verfälschungswahrscheinlichkeit  ${\rm Pr}(v_{\nu} \ne q_{\nu})$  des  $\nu$–ten Symbols, während die überstreichende Linie im rechten Gleichungsteil eine Zeitmittelung kennzeichnet.
  • Beide Berechnungsarten führen – unter der gerechtfertigten Annahme ergodischer Prozesse – zum gleichen Ergebnis, wie im vierten Hauptkapitel „Zufallsgrößen mit statistischen Bindungen” des Buches  Stochastische Signaltheorie  gezeigt wurde.
  • Auch aus der Fehlerfolge  $〈e_ν〉$  lässt sich die Bitfehlerwahrscheinlichkeit als Erwartungswert bestimmen, wobei zu berücksichtigen ist, dass die Fehlergröße  $e_ν$  nur die Werte  $0$  und  $1$  annehmen kann:
$$\it p_{\rm B} = \rm E\big[\rm Pr(\it e_{\nu}=\rm 1)\big]= {\rm E}\big[{\it e_{\nu}}\big]\hspace{0.05cm}.$$
  • Die obige Definition der Bitfehlerwahrscheinlichkeit gilt unabhängig davon, ob es statistische Bindungen innerhalb der Fehlerfolge  $〈e_ν〉$  gibt oder nicht. Je nachdem muss man bei einer Systemsimulation unterschiedliche digitale Kanalmodelle verwenden. Der Aufwand zur  $p_{\rm B}$–Berechnung hängt hiervon ab.


Im fünften Hauptkapitel wird gezeigt, dass das so genannte  BSC–Modell  (Binary Symmetrical Channel) statistisch unabhängige Fehler liefert, während für die Beschreibung von Bündelfehlerkanälen auf die Modelle von  Gilbert–Elliott  [Gil60][1] und von  McCullough  [McC68][2] zurückgegriffen werden muss.


Definition der Bitfehlerquote


Die Bitfehlerwahrscheinlichkeit  $p_{\rm B}$  eignet sich zum Beispiel gut für die Konzipierung und Optimierung von Digitalsystemen. Diese ist eine  Apriori-Kenngröße, die eine Vorhersage über das Fehlerverhalten eines Nachrichtensystems erlaubt, ohne dass dieses bereits realisiert sein muss.

Dagegen muss zur messtechnischen Erfassung der Qualität eines realisierten Systems oder bei einer Systemsimulation auf die Bitfehlerquote übergegangen werden, die durch den Vergleich von Quellensymbolfolge  $〈q_ν〉$  und Sinkensymbolfolge  $〈v_ν〉$  ermittelt wird. Diese ist somit eine  Aposteriori-Kenngröße des Systems.

$\text{Definition:}$  Die Bitfehlerquote (englisch: Bit Error Rate, BER) ist das Verhältnis aus der Anzahl  $n_{\rm B}(N)$  der aufgetretenen Bitfehler  $(v_ν \ne q_ν)$  und der Anzahl  $N$  der insgesamt übertragenen Symbole:

$$h_{\rm B}(N) = \frac{n_{\rm B}(N)}{N} \hspace{0.05cm}.$$

Im Sinne der Wahrscheinlichkeitsrechnung ist die Bitfehlerquote eine  relative Häufigkeit; sie wird deshalb auch Bitfehlerhäufigkeit genannt.


  • Die Schreibweise  $h_{\rm B}(N)$  soll deutlich machen, dass die per Messung oder durch Simulation ermittelte Bitfehlerquote signifikant von dem Parameter  $N$ – also der Anzahl der insgesamt übertragenen oder simulierten Symbole – abhängt.
  • Nach den elementaren Gesetzen der Wahrscheinlichkeitsrechnung stimmt nur im Grenzfall  $N \to \infty$  die Aposteriori–Kenngröße  $h_{\rm B}(N)$  mit der Apriori–Kenngröße  $p_{\rm B}$  exakt überein.

Der Zusammenhang zwischen Wahrscheinlichkeit und relativer Häufigkeit wird im Lernvideo Bernoullisches Gesetz der großen Zahlen verdeutlicht.

Bitfehlerwahrscheinlichkeit und Bitfehlerquote beim BSC-Modell


Für die nachfolgenden Herleitungen wird das BSC–Modell (Binary Symmetric Channel ) zugrunde gelegt, das in   Kapitel 5.2  im Detail beschrieben wird.

  • Jedes Bit wird mit der Wahrscheinlichkeit  $p = {\rm Pr}(v_{\nu} \ne q_{\nu}) = {\rm Pr}(e_{\nu} = 1)$  verfälscht, unabhängig von den Fehlerwahrscheinlichkeiten der benachbarten Symbole.
  • Die (mittlere) Bitfehlerwahrscheinlichkeit  $p_{\rm B}$  ist somit ebenfalls gleich  $p$.


Nun wird abgeschätzt, wie genau beim BSC-Modell die Bitfehlerwahrscheinlichkeit  $p_{\rm B} = p$  durch die Bitfehlerquote  $h_{\rm B}(N)$  approximiert wird:

  • Die Anzahl der Bitfehler bei der Übertragung von  $N$  Symbolen ist eine diskrete Zufallsgröße:
$$n_{\rm B}(N) = \sum\limits_{\it \nu=\rm 1}^{\it N} e_{\nu} \hspace{0.2cm} \in \hspace{0.2cm} \{0, 1, \hspace{0.05cm}\text{...} \hspace{0.05cm} , N \}\hspace{0.05cm}.$$
  • Bei statistisch unabhängigen Fehlern (BSC–Modell) ist  $n_{\rm B}(N)$  binominalverteilt. Demzufolge gilt für Mittelwert und Streuung dieser Zufallsgröße:
$$m_{n{\rm B}}=N \cdot p_{\rm B},\hspace{0.2cm}\sigma_{n{\rm B}}=\sqrt{N\cdot p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}\hspace{0.05cm}.$$
  • Für Mittelwert und Streuung der Bitfehlerquote  $h_{\rm B}(N)= n_{\rm B}(N)/N$  gilt deshalb:\[m_{h{\rm B}}= \frac{m_{n{\rm B}}}{N} = p_{\rm B}\hspace{0.05cm},\hspace{0.2cm}\sigma_{h{\rm B}}= \frac{\sigma_{n{\rm B}}}{N}= \sqrt{\frac{ p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}{N}}\hspace{0.05cm}.\]
  • Nach  Moivre  und  Laplace  kann aber die Binominalverteilung näherungsweise durch eine Gaußverteilung approximiert werden:
$$f_{h{\rm B}}({h_{\rm B}}) \approx \frac{1}{\sqrt{2\pi}\cdot\sigma_{h{\rm B}}}\cdot {\rm e}^{-(h_{\rm B}-p_{\rm B})^2/(2 \hspace{0.05cm}\cdot \hspace{0.05cm}\sigma_{h{\rm B}}^2)}.$$
  • Mit dem  Gaußschen Fehlerintergal  ${\rm Q}(x)$  lässt sich so die Wahrscheinlichkeit  $p_\varepsilon$  berechnen, dass die per Simulation/Messung über  $N$  Symbole ermittelte Bitfehlerquote  $h_{\rm B}(N)$  betragsmäßig um weniger als einen Wert  $\varepsilon$  von der tatsächlichen Bitfehlerwahrscheinlichkeit  $p_{\rm B}$  abweicht:
$$p_{\varepsilon}= {\rm Pr} \left( |h_{\rm B}(N) - p_{\rm B}| < \varepsilon \right) = 1 -2 \cdot {\rm Q} \left( \frac{\varepsilon}{\sigma_{h{\rm B}}} \right)= 1 -2 \cdot {\rm Q} \left( \frac{\varepsilon \cdot \sqrt{N}}{\sqrt{p_{\rm B} \cdot (1-p_{\rm B})}} \right)\hspace{0.05cm}.$$

$\text{Fazit:}$  Dieses Ergebnis ist wie folgt zu interpretieren:

  • Führt man unendlich viele Versuchsreihen über jeweils  $N$  Symbole durch, ist der Mittelwert  $m_{h{\rm B} }$  tatsächlich gleich der gesuchten Fehlerwahrscheinlichkeit  $p_{\rm B}$.
  • Bei einer einzigen Versuchsreihe wird man dagegen nur eine Näherung erhalten, wobei die jeweilige Abweichung vom Sollwert bei mehreren Versuchsreihen gaußverteilt ist.


$\text{Beispiel 1:}$  Die Bitfehlerwahrscheinlichkeit betrage  $p_{\rm B}= 10^{-3}$  und es ist bekannt, dass die Bitfehler statistisch unabhängig sind.

  • Macht man nun sehr viele Versuchsreihen mit jeweils  $N= 10^{5}$  Symbolen, so werden die jeweiligen Ergebnisse  $h_{\rm B}(N)$  entsprechend einer Gaußverteilung um den Sollwert  $10^{-3}$  variieren.
  • Die Streuung beträgt dabei  $\sigma_{h{\rm B} }= \sqrt{ { p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}/{N} }\approx 10^{-4}\hspace{0.05cm}.$
  • Die Wahrscheinlichkeit, dass die relative Häufigkeit einen Wert zwischen  $0.9 \cdot 10^{-3}$  und  $1.1 \cdot 10^{-3}$  haben wird   $(\varepsilon=10^{-4})$, ist somit gleich
$$p_{\varepsilon} = 1 - 2 \cdot {\rm Q} \left({\varepsilon}/{\sigma_{h{\rm B} } } \right )= 1 - 2 \cdot {\rm Q} (1) \approx 68.4\%.$$
  • Soll diese Wahrscheinlichkeit (Genauigkeit) auf  $95\%$  gesteigert werden, so wären  $N = 400\hspace{0.05cm}000$  Symbole erforderlich.


Fehlerwahrscheinlichkeit bei Gaußschem Rauschen


Entsprechend den   Voraussetzungen zu diesem Kapitel  gehen wir von folgenden Annahmen aus:

  • Das Detektionssignal zu den Detektionszeitpunkten kann wie folgt dargestellt werden:   $ d(\nu T) = d_{\rm S}(\nu T)+d_{\rm N}(\nu T)\hspace{0.05cm}. $
  • Der Nutzanteil wird durch die Wahrscheinlichkeitsdichtefunktion (WDF)  $f_{d{\rm S}}(d_{\rm S}) $  beschrieben, wobei wir hier von unterschiedlichen Auftrittswahrscheinlichkeiten  $p_{\rm L} = {\rm Pr}(d_{\rm S} = -s_0)$  und  $p_{\rm H} = {\rm Pr}(d_{\rm S} = +s_0)= 1-p_{\rm L}$  ausgehen.
  • Die WDF  $f_{d{\rm N}}(d_{\rm N})$  der Störkomponente sei gaußförmig und besitze die Streuung  $\sigma_d$.


Fehlerwahrscheinlichkeit bei Gaußschem Rauschen

Unter der Voraussetzung, dass  $d_{\rm S}(\nu T)$  und  $d_{\rm N}(\nu T)$  statistisch unabhängig voneinander sind  („signalunabhängiges Rauschen”), ergibt sich die WDF  $f_d(d) $  der Detektionsabtastwerte  $d(\nu T)$  als das Faltungsprodukt

$$f_d(d) = f_{d{\rm S}}(d_{\rm S}) \star f_{d{\rm N}}(d_{\rm N})\hspace{0.05cm}.$$

Der Schwellenwertentscheider mit der Schwelle  $E = 0$  trifft immer dann eine falsche Entscheidung, wenn

  • das Symbol  $\rm L$  gesendet wurde  $(d_{\rm S} = -s_0)$ und  $d > 0$  ist (rote schraffierte Fläche), oder
  • das Symbol  $\rm H$  gesendet wurde  $(d_{\rm S} = +s_0)$ und  $d < 0$  ist (blaue schraffierte Fläche).


Da die Flächen der roten und der blauen Gaußkurven zusammen  $1$  ergeben, gibt die Summe aus der rot und der blau schraffierten Fläche die Bitfehlerwahrscheinlichkeit  $p_{\rm B}$  an. Die beiden grün schraffierten Flächen in der oberen Wahrscheinlichkeitsdichtefunktion  $f_{d{\rm N}}(d_{\rm N})$  sind – jede für sich – ebenfalls gleich  $p_{\rm B}$.


Die anhand der Grafik veranschaulichten Ergebnisse sollen nun formelmäßig hergeleitet werden. Ausgegangen wird von der Gleichung

$$p_{\rm B} = p_{\rm L} \cdot {\rm Pr}( v_\nu = \mathbf{H}\hspace{0.1cm}|\hspace{0.1cm} q_\nu = \mathbf{L})+ p_{\rm H} \cdot {\rm Pr}(v_\nu = \mathbf{L}\hspace{0.1cm}|\hspace{0.1cm} q_\nu = \mathbf{H})\hspace{0.05cm}.$$
  • Hierbei sind  $p_{\rm L} $  und  $p_{\rm H} $  die Quellensymbolwahrscheinlichkeiten. Die jeweils zweiten (bedingten) Wahrscheinlichkeiten  $ {\rm Pr}( v_\nu \hspace{0.05cm}|\hspace{0.05cm} q_\nu)$  beschreiben die Verfälschungen durch den AWGN–Kanal. Aus der Entscheidungsregel des Schwellenwertentscheiders  $($mit Schwelle  $E = 0)$  ergibt sich auch:
$$p_{\rm B} = p_{\rm L} \cdot {\rm Pr}( d(\nu T)>0)+ p_{\rm H} \cdot {\rm Pr}( d(\nu T)<0) =p_{\rm L} \cdot {\rm Pr}( d_{\rm N}(\nu T)>+s_0)+ p_{\rm H} \cdot {\rm Pr}( d_{\rm N}(\nu T)<-s_0) \hspace{0.05cm}.$$
  • Die beiden Überschreitungswahrscheinlichkeiten in obiger Gleichung sind aufgrund der Symmetrie der Gaußschen WDF  $f_{d{\rm N}}(d_{\rm N})$  gleich. Es gilt:
$$p_{\rm B} = (p_{\rm L} + p_{\rm H}) \cdot {\rm Pr}( d_{\rm N}(\nu T)>s_0) = {\rm Pr}( d_{\rm N}(\nu T)>s_0)\hspace{0.05cm}.$$
Das bedeutet:   $p_{\rm B}$  hängt bei einem Binärsystem mit der Schwelle  $E = 0$  nicht von den Symbolwahrscheinlichkeiten  $p_{\rm L} $  und  $p_{\rm H} = 1- p_{\rm L}$  ab.
  • Die Wahrscheinlichkeit, dass der AWGN–Rauschterm  $d_{\rm N}$  mit Streuung  $\sigma_d$  größer ist als die NRZ–Sendeimpulsamplitude  $s_0$, ergibt sich damit zu:
$$p_{\rm B} = \int_{s_0}^{+\infty}f_{d{\rm N}}(d_{\rm N})\,{\rm d} d_{\rm N} = \frac{\rm 1}{\sqrt{2\pi} \cdot \sigma_d}\int_{ s_0}^{+\infty}{\rm e} ^{-d_{\rm N}^2/(2\sigma_d^2) }\,{\rm d} d_{\rm N}\hspace{0.05cm}.$$
  • Unter Verwendung des komplementären Gaußschen Fehlerintegrals  ${\rm Q}(x)$  lautet das Ergebnis:
$$p_{\rm B} = {\rm Q} \left( \frac{s_0}{\sigma_d}\right)\hspace{0.4cm}{\rm mit}\hspace{0.4cm}\rm Q (\it x) = \frac{\rm 1}{\sqrt{\rm 2\pi}}\int_{\it x}^{+\infty}\rm e^{\it -u^{\rm 2}/\rm 2}\,d \it u \hspace{0.05cm}.$$
  • Häufig – insbesondere in der englischsprachigen Literatur – wird anstelle von  ${\rm Q}(x)$  die vergleichbare komplementäre Error Function  ${\rm erfc}(x)$  verwendet. Mit dieser gilt:
$$p_{\rm B} = {1}/{2} \cdot {\rm erfc} \left( \frac{s_0}{\sqrt{2}\cdot \sigma_d}\right)\hspace{0.4cm}{\rm mit}\hspace{0.4cm} {\rm erfc} (\it x) = \frac{\rm 2}{\sqrt{\rm \pi}}\int_{\it x}^{+\infty}\rm e^{\it -u^{\rm 2}}\,d \it u \hspace{0.05cm}.$$

Beide Funktionen findet man in Formelsammlungen in tabellarischer Form. Sie können zur Berechnung der Funktionswerte von  ${\rm Q}(x)$  und  $1/2 \cdot {\rm erfc}(x)$  aber auch unser interaktives Applet  Komplementäre Gaußsche Fehlerfunktionen  benutzen.

$\text{Beispiel 2:}$  Für das Folgende wird vorausgesetzt, dass Tabellen zur Verfügung stehen, in denen das Argument der Gaußschen Fehlerfunktionen im Abstand  $0.1$  aufgelistet sind. Mit  $s_0/\sigma_d = 4$  erhält man für die Bitfehlerwahrscheinlichkeit gemäß der Q–Funktion:

$$p_{\rm B} = {\rm Q} (4) = 0.317 \cdot 10^{-4}\hspace{0.05cm}.$$

Nach der zweiten Gleichung ergibt sich:

$$p_{\rm B} = {1}/{2} \cdot {\rm erfc} ( {4}/{\sqrt{2} })= {1}/{2} \cdot {\rm erfc} ( 2.828)\approx {1}/{2} \cdot {\rm erfc} ( 2.8)= 0.375 \cdot 10^{-4}\hspace{0.05cm}.$$
  • Richtig ist der erste Wert. Bei der zweiten Berechnungsart muss man runden oder – noch besser – interpolieren, was aufgrund der starken Nichtlinearität dieser Funktion sehr schwierig ist.
  • Bei den gegebenen Zahlenwerten ist demnach die Q–Funktion besser geeignet. Außerhalb von Übungsbeispielen wird  $s_0/\sigma_d$  in der Regel einen „krummen” Wert besitzen. In diesem Fall bietet die Q–Funktion natürlich keinen Vorteil gegenüber  ${\rm erfc}(x)$.

Optimaler Binärempfänger - Realisierung mit Matched-Filter


Wir gehen weiter von den  vorne festgelegten Voraussetzungen  aus.

Optimaler Binärempfänger (Matched-Filter-Variante)
  • Dann kann man für den Frequenzgang und die Impulsantwort des Empfängerfilters ansetzen:
$$H_{\rm E}(f) = {\rm si}(\pi f T) \hspace{0.4cm}\bullet\!\!-\!\!\!-\!\!\!-\!\!\circ \hspace{0.4cm} h_{\rm E}(t) = \left\{ \begin{array}{c} 1/T \\ 1/(2T) \\ 0 \\ \end{array} \right.\quad \begin{array}{*{1}c} {\rm{f\ddot{u}r}} \\ {\rm{f\ddot{u}r}} \\ {\rm{f\ddot{u}r}} \\ \end{array}\begin{array}{*{20}c} |\hspace{0.05cm}t\hspace{0.05cm}|< T/2 \hspace{0.05cm},\\ |\hspace{0.05cm}t\hspace{0.05cm}|= T/2 \hspace{0.05cm},\\ |\hspace{0.05cm}t\hspace{0.05cm}|>T/2 \hspace{0.05cm}. \\ \end{array}$$
  • Aufgrund der Linearität kann für das Detektionsnutzsignal  geschrieben werden:
$$d_{\rm S}(t) = \sum_{(\nu)} a_\nu \cdot g_d ( t - \nu \cdot T)\hspace{0.4cm}{\rm mit}\hspace{0.4cm}g_d(t) = g_s(t) \star h_{\rm E}(t) \hspace{0.05cm}.$$
  • Die Faltung zweier Rechtecke gleicher Breite $T$ und Höhe $s_0$ ergibt einen dreieckförmigen Detektionsgrundimpuls $g_d(t)$ mit $g_d(t = 0) = s_0$. Wegen $g_d(|t| \ge 0) \equiv 0$ ist das System impulsinterferenzfrei; es gilt $d_{\rm S}(\nu T)= \pm s_0$.
  • Die Varianz des Detektionsstörsignals dN(t) – also die Detektionsstörleistung – lautet:
$$\sigma _d ^2 = \frac{N_0 }{2} \cdot \int_{ - \infty }^{ + \infty } {\left| {H_{\rm E}( f )} \right|^2 \hspace{0.1cm}{\rm{d}}f} = \frac{N_0 }{2} \cdot \int_{- \infty }^{+ \infty } {\rm si}^2(\pi f T)\hspace{0.1cm}{\rm{d}}f = \frac{N_0 }{2T} \hspace{0.05cm}.$$
  • Damit ergeben sich für die Bitfehlerwahrscheinlichkeit entsprechend der letzten Seite die beiden äquivalenten Gleichungen:
$$p_{\rm B} = {\rm Q} \left( \sqrt{\frac{2 \cdot s_0^2 \cdot T}{N_0}}\right)= {\rm Q} \left( \sqrt{\rho_d}\right)\hspace{0.05cm},\hspace{0.5cm} p_{\rm B} = {1}/{2} \cdot {\rm erfc} \left( \sqrt{{ s_0^2 \cdot T}/{N_0}}\right)= {1}/{2}\cdot {\rm erfc}\left( \sqrt{{\rho_d}/{2}}\right) \hspace{0.05cm}.$$

$\text{Definition:}$  Verwendet ist das momentane Signal–zu–Stör–Leistungsverhältnis (SNR) $\rho_d$ des Detektionssignals $d(t)$ zu den Zeitpunkten $\nu T$, kurz Detektions–SNR:

$$\rho_d = \frac{d_{\rm S}^2(\nu T)}{ {\rm E}[d_{\rm N}^2(\nu T)]}= \frac{s_0^2}{\sigma _d ^2} \hspace{0.05cm}.$$


Ein Vergleich dieses Ergebnisses mit der Seite Optimierungskriterium des Matched-Filters im Buch „Stochastische Signaltheorie” zeigt, dass das Empfangsfilter $H_{\rm E}(f)$ ein an den Sendegrundimpuls $g_s(t)$ angepasstes Matched–Filter ist:

$$H_{\rm E}(f) = H_{\rm MF}(f) = K_{\rm MF}\cdot G_s^*(f)\hspace{0.05cm}.$$

Gegenüber der Seite Matched–Filter–Optimierung sind hier folgende Modifikationen berücksichtigt:

  • Die Matched–Filter–Konstante ist hier zu $K_{\rm MF} = 1/(s_0 \cdot T)$ gesetzt. Damit ist der Frequenzgang $ H_{\rm MF}(f)$ dimensionslos.
  • Der im allgemeinen frei wählbare Detektionszeitpunkt ist hier zu $T_{\rm D} = 0$ gewählt. Damit ergibt sich allerdings ein akausales Filter.
  • Das Detektions–SNR kann für jeden beliebigen Sendegrundimpuls $g_s(t)$ mit Spektrum $G_s(f)$ wie folgt dargestellt werden, wobei sich die rechte Identität aus dem Parsevalschen Theorem ergibt:
$$\rho_d = \frac{2 \cdot E_{\rm B}}{N_0}\hspace{0.4cm}{\rm mit}\hspace{0.4cm} E_{\rm B} = \int^{+\infty} _{-\infty} g_s^2(t)\,{\rm d}t = \int^{+\infty} _{-\infty} |G_s(f)|^2\,{\rm d}f\hspace{0.05cm}.$$
  • $E_{\rm B}$ wird oft als Energie pro Bit bezeichnet und $E_{\rm B}/N_0$ – fälschlicherweise – als $\rm SNR$. Wie aus der letzten Gleichung ersichtlich ist, unterscheidet sich nämlich bei binärer Basisbandübertragung $E_{\rm B}/N_0$ vom Detektions–SNR $\rho_d$ um den Faktor $2$.


$\text{Fazit:}$  Die hier hergeleitete Bitfehlerwahrscheinlichkeit des optimalen Binärempfängers kann somit auch wie folgt geschrieben werden:

$$p_{\rm B} = {\rm Q} \left( \sqrt{ {2 \cdot E_{\rm B} }/{N_0} }\right)= {1}/{2} \cdot{\rm erfc} \left( \sqrt{ {E_{\rm B} }/{N_0} }\right) \hspace{0.05cm}.$$

Diese Gleichung gilt sowohl für die Realisierung mit Matched-Filter als auch für die Realisierungsform „Integrate & Dump” (siehe nächste Seite).


Zur Verdeutlichung der hier behandelten Thematik weisen wir auf unser Interaktionsmodul Zur Verdeutlichung des Matched-Filters hin.

Optimaler Binärempfänger – Realisierungsform „Integrate & Dump”


Bei rechteckförmigen NRZ–Sendeimpulsen kann das Matched–Filter auch als Integrator (jeweils über eine Symboldauer $T$) realisiert werden. Damit gilt für das Detektionssignal zu den Detektionszeitpunkten:

$$d(\nu \cdot T + T/2) = \frac {1}{T} \cdot \int^{\nu \cdot T + T/2} _{\nu \cdot T - T/2} r(t)\,{\rm d}t \hspace{0.05cm}.$$
Signale beim MF– und beim I&E–Empfänger

Die nebenstehende Grafik verdeutlicht die Unterschiede bei der Realisierung des optimalen Binärempfängers mit Matched–Filter (MF)  ⇒  mittlere Skizze bzw. als „Integrate & Dump” (I&D)  ⇒  untere Skizze.

Man erkennt aus diesen Signalverläufen:

  • Das Detektionsnutzsignal $d_{\rm S}(t)$ ist zu den Detektionszeitpunkten   ⇒   gelbe Markierungen (MF:   bei $\nu \cdot T$, I&D:   bei $\nu \cdot T +T/2$) in beiden Fällen gleich $\pm s_0$.
  • Die unterschiedlichen Detektionszeitpunkte sind darauf zurückzuführen, dass das Matched–Filter im Gegensatz zu „Integrate & Dump” als akausal angesetzt wurde (siehe letzte Seite).
  • Beim Matched–Filter–Empfänger ist die Varianz des Detektionsstörsignals zu allen Zeiten $t$ gleich:   ${\rm E}[d_{\rm N}^2(t)]= {\sigma _d ^2} = {\rm const.}$ Dagegen nimmt beim I&D–Empfänger die Varianz von Symbolanfang bis Symbolende zu.
  • Zu den gelb markierten Zeitpunkten ist die Detektionsstörleistung in beiden Fällen gleich, so dass sich die gleiche Bitfehlerwahrscheinlichkeit ergibt. Mit $E_{\rm B} = s_0^2 \cdot T$ gilt wieder:
$$\sigma _d ^2 = \frac{N_0}{2} \cdot \int_{- \infty }^{ +\infty } {\rm si}^2(\pi f T)\hspace{0.1cm}{\rm{d}}f = \frac{N_0}{2T} $$
$$\Rightarrow \hspace{0.3cm} p_{\rm B} = {\rm Q} \left( \sqrt{ s_0^2 / \sigma _d ^2} \right)= {\rm Q} \left( \sqrt{{2 \cdot E_{\rm B}}/{N_0}}\right) .$$


Interpretation des optimalen Empfängers


In diesem Abschnitt wurde gezeigt, dass mit einem Empfänger, bestehend aus linearem Empfangsfilter und nichtlinearem Entscheider, die kleinstmögliche Bitfehlerwahrscheinlichkeit zu erreichen ist:

$$ p_{\rm B, \hspace{0.05cm}min} = {\rm Q} \left( \sqrt{{2 \cdot E_{\rm B}}/{N_0}}\right) = {1}/{2} \cdot {\rm erfc} \left( \sqrt{{ E_{\rm B}}/{N_0}}\right) \hspace{0.05cm}.$$

Die sich ergebende Konfiguration ist ein Sonderfall des so genannten Maximum–Aposteriori–Empfängers (MAP), der im Abschnitt Optimale Empfängerstrategien im dritten Hauptkapitel dieses Buches behandelt wird.

Für die Gültigkeit obiger Gleichung müssen allerdings eine Reihe von Voraussetzungen erfüllt sein:

  • Das Sendesignal $s(t)$ ist binär sowie bipolar (antipodisch) und weist pro Bit die (mittlere) Energie $E_{\rm B}$ auf. Die (mittlere) Sendeleistung ist somit $E_{\rm B}/T$.
  • Es liegt ein AWGN–Kanal (Additive White Gaussian Noise) mit der konstanten (einseitigen) Rauschleistungsdichte $N_0$ vor.
  • Das Empfangsfilter $H_{\rm E}(f)$ ist bestmöglich an das Sendegrundimpulsspektrum $G_s(f)$ entsprechend dem „Matched–Filter–Kriterium” angepasst.
  • Der Entscheider (Schwellenwert, Detektionszeitpunkte) ist optimal. Eine kausale Realisierung des Matched–Filters kann man durch Verschiebung des Detektionszeitpunktes ausgleichen.
  • Obige Gleichung gilt unabhängig vom Sendegrundimpuls $g_s(t)$. Allein die für die Übertragung eines Binärsymbols aufgewendete Energie $E_{\rm B}$ ist neben der Rauschleistungsdichte $N_0$ entscheidend für die Bitfehlerwahrscheinlichkeit $p_{\rm B}$.
  • Voraussetzung für die Anwendbarkeit obiger Gleichung ist, dass die Detektion eines Symbols nicht durch andere Symbole beeinträchtigt wird. Solche Impulsinterferenzen vergrößern die Bitfehlerwahrscheinlichkeit $p_{\rm B}$ enorm.
  • Ist die absolute Sendeimpulsdauer $T_{\rm S}$ kleiner oder gleich dem Symbolabstand $T$, so ist obige Gleichung bei Erfüllung des Matched-Filter-Kriteriums immer anwendbar.
  • Die Gleichung gilt auch für Nyquistsysteme, bei denen zwar $T_{\rm S} > T$ gilt, es aber aufgrund von äquidistanten Nulldurchgängen des Grundimpulses $g_d(t)$ nicht zu Impulsinterferenzen kommt. Damit beschäftigen wir uns im nächsten Kapitel.


Aufgaben zum Kapitel


Aufgabe 1.2: Bitfehlerquote (BER)

Aufgabe 1.2Z: Bitfehlermessung

Aufgabe 1.3: Rechteckfunktionen für Sender und Empfänger

Aufgabe 1.3Z: Schwellenwertoptimierung

Quellenverzeichnis

  1. Gilbert, E. N.: Capacity of Burst–Noise Channel, In: Bell Syst. Techn. J. Vol. 39, 1960, pp. 1253–1266.
  2. McCullough, R.H.: The Binary Regenerative Channel, In: Bell Syst. Techn. J. (47), 1968.