Digitalsignalübertragung/Optimale Empfängerstrategien: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
Zeile 8: Zeile 8:
 
== Betrachtetes Szenario und Voraussetzungen==
 
== Betrachtetes Szenario und Voraussetzungen==
 
<br>
 
<br>
Alle bisher beschriebenen Digitalempfänger treffen stets symbolweise Entscheidungen. Werden dagegen mehrere Symbole gleichzeitig entschieden, so können bei der Detektion statistische Bindungen zwischen den Empfangssignalabtastwerten berücksichtigt werden, was eine geringere Fehlerwahrscheinlichkeit zur Folge hat &ndash; allerdings auf Kosten einer zusätzlichen Laufzeit.<br>
+
Alle bisher beschriebenen Digitalempfänger treffen stets symbolweise Entscheidungen.&nbsp; Werden dagegen mehrere Symbole gleichzeitig entschieden,&nbsp; so können bei der Detektion statistische Bindungen zwischen den Empfangssignalabtastwerten berücksichtigt werden,&nbsp; was eine geringere Fehlerwahrscheinlichkeit zur Folge hat &ndash; allerdings auf Kosten einer zusätzlichen Laufzeit.<br>
  
In diesem &ndash; teilweise auch im nächsten Kapitel &ndash; wird von folgendem Übertragungsmodell ausgegangen:<br>
+
In diesem und auch im nächsten Kapitel wird von folgendem Übertragungsmodell ausgegangen.&nbsp; Gegenüber den vorherigen Kapiteln ergeben sich folgende Unterschiede:
  
[[Datei:P ID1455 Dig T 3 7 S1 version1.png|center|frame|Übertragungssystem mit optimalem Empfänger|class=fit]]
+
[[Datei:P ID1455 Dig T 3 7 S1 version1.png|right|frame|Übertragungssystem mit optimalem Empfänger|class=fit]]
  
Gegenüber den letzten beiden Kapiteln ergeben sich folgende Unterschiede:
+
*$Q \in \{Q_i\}$&nbsp; mit&nbsp; $i = 0$, ... , $M-1$&nbsp; bezeichnet eine zeitlich begrenzte Quellensymbolfolge &nbsp;$\langle q_\nu \rangle$,&nbsp; deren Symbole vom optimalen Empfänger gemeinsam entschieden werden sollen.<br>
*$Q \in \{Q_i\}$&nbsp; mit&nbsp; $i = 0$, ... , $M-1$&nbsp; bezeichnet eine zeitlich begrenzte Quellensymbolfolge &nbsp;$\langle q_\nu \rangle$, deren Symbole vom optimalen Empfänger gemeinsam entschieden werden sollen.<br>
 
  
*Beschreibt &nbsp;$Q$&nbsp; eine Folge von &nbsp;$N$&nbsp; redundanzfreien Binärsymbolen, so ist &nbsp;$M = 2^N$&nbsp; zu setzen. Dagegen gibt &nbsp;$M$&nbsp; bei symbolweiser Entscheidung die Stufenzahl der digitalen Quelle an.<br>
+
*Beschreibt &nbsp;$Q$&nbsp; eine Folge von &nbsp;$N$&nbsp; redundanzfreien Binärsymbolen,&nbsp; so ist &nbsp;$M = 2^N$&nbsp; zu setzen.&nbsp; Dagegen gibt &nbsp;$M$&nbsp; bei symbolweiser Entscheidung die Stufenzahl der digitalen Quelle an.<br>
  
*Im obigen Modell werden eventuelle Kanalverzerrungen dem Sender hinzugefügt und sind somit bereits im Grundimpuls &nbsp;$g_s(t)$&nbsp; und im Signal &nbsp;$s(t)$&nbsp; enthalten. Diese Maßnahme dient lediglich einer einfacheren Darstellung und stellt keine Einschränkung dar.<br>
+
*Im Modell werden mögliche Kanalverzerrungen dem Sender hinzugefügt,&nbsp; sind also bereits im Grundimpuls &nbsp;$g_s(t)$&nbsp; und im Signal &nbsp;$s(t)$&nbsp; enthalten.&nbsp; Dies dient lediglich einer einfacheren Darstellung und stellt keine Einschränkung dar.<br>
  
*Der optimale Empfänger sucht unter Kenntnis des aktuell anliegenden Empfangssignals &nbsp;$s(t)$&nbsp; aus der Menge &nbsp;$\{Q_0$, ... , $Q_{M-1}\}$&nbsp; der möglichen Quellensymbolfolgen die am wahrscheinlichsten gesendete Folge &nbsp;$Q_j$&nbsp; und gibt diese als Sinkensymbolfolge &nbsp;$V$&nbsp; aus.<br>
+
*Der optimale Empfänger sucht unter Kenntnis des aktuell anliegenden Empfangssignals &nbsp;$r(t)$&nbsp; aus der Menge &nbsp;$\{Q_0$, ... , $Q_{M-1}\}$&nbsp; der möglichen Quellensymbolfolgen die am wahrscheinlichsten gesendete Folge &nbsp;$Q_j$&nbsp; und gibt diese als Sinkensymbolfolge &nbsp;$V$&nbsp; aus.<br>
  
*Vor dem eigentlichen Entscheidungsalgorithmus muss durch eine geeignete Signalvorverarbeitung aus dem Empfangssignal &nbsp;$r(t)$&nbsp; für jede mögliche Folge &nbsp;$Q_i$&nbsp; ein Zahlenwert &nbsp;$W_i$&nbsp; abgeleitet werden. Je größer &nbsp;$W_i$&nbsp; ist, desto größer ist die Rückschlusswahrscheinlichkeit, dass &nbsp;$Q_i$&nbsp; gesendet wurde.<br>
+
*Vor dem eigentlichen Entscheidungsalgorithmus muss durch eine geeignete Signalvorverarbeitung aus dem Empfangssignal &nbsp;$r(t)$&nbsp; für jede mögliche Folge &nbsp;$Q_i$&nbsp; ein Zahlenwert &nbsp;$W_i$&nbsp; abgeleitet werden.&nbsp; Je größer &nbsp;$W_i$&nbsp; ist,&nbsp; desto größer ist die Rückschlusswahrscheinlichkeit,&nbsp; dass &nbsp;$Q_i$&nbsp; gesendet wurde.<br>
  
*Die Signalvorverarbeitung muss für die erforderliche Rauschleistungsbegrenzung und &ndash; bei starken Kanalverzerrungen &ndash; für eine ausreichende Vorentzerrung der entstandenen Impulsinterferenzen sorgen. Außerdem beinhaltet die Vorverarbeitung auch die Abtastung zur Zeitdiskretisierung.<br>
+
*Die Signalvorverarbeitung muss für die erforderliche Rauschleistungsbegrenzung und &ndash; bei starken Kanalverzerrungen &ndash; für eine ausreichende Vorentzerrung der entstandenen Impulsinterferenzen sorgen.&nbsp; Außerdem beinhaltet die Vorverarbeitung auch die Abtastung zur Zeitdiskretisierung.<br>
  
== MAP– und Maximum–Likelihood–Entscheidungsregel==
+
== Maximum-a-posteriori– und Maximum–Likelihood–Entscheidungsregel==
 
<br>
 
<br>
Man bezeichnet den (uneingeschränkt) optimalen Empfänger als MAP&ndash;Empfänger, wobei &bdquo;MAP&rdquo; für &bdquo;Maximum&ndash;a&ndash;posteriori&rdquo; steht.<br>
+
Man bezeichnet den (uneingeschränkt) optimalen Empfänger als &bdquo;MAP&ndash;Empfänger&rdquo;,&nbsp; wobei &bdquo;MAP&rdquo; für &bdquo;Maximum&ndash;a&ndash;posteriori&rdquo; steht.<br>
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Der &nbsp;'''MAP&ndash;Empfänger'''&nbsp; ermittelt die &nbsp;$M$&nbsp; Rückschlusswahrscheinlichkeiten &nbsp;${\rm Pr}\big[Q_i \hspace{0.05cm}\vert \hspace{0.05cm}r(t)\big]$&nbsp; und setzt die Ausgangsfolge &nbsp;$V$&nbsp; gemäß der Entscheidungsregel, wobei für den Index gilt: &nbsp; $i = 0$, ... , $M-1$&nbsp; sowie &nbsp;$i \ne j$:
+
$\text{Definition:}$&nbsp; Der &nbsp;'''Maximum-a-posteriori–&ndash;Empfänger'''&nbsp; &ndash; abgekürzt&nbsp; $\rm MAP$ &ndash; ermittelt die &nbsp;$M$&nbsp; Rückschlusswahrscheinlichkeiten &nbsp;${\rm Pr}\big[Q_i \hspace{0.05cm}\vert \hspace{0.05cm}r(t)\big]$&nbsp; und setzt die Ausgangsfolge &nbsp;$V$&nbsp; gemäß der Entscheidungsregel,&nbsp; wobei für den Index gilt: &nbsp; $i = 0$, ... , $M-1$&nbsp; sowie &nbsp;$i \ne j$:
 
:$${\rm Pr}\big[Q_j \hspace{0.05cm}\vert \hspace{0.05cm} r(t)\big] > {\rm Pr}\big[Q_i \hspace{0.05cm}\vert \hspace{0.05cm} r(t)\big]
 
:$${\rm Pr}\big[Q_j \hspace{0.05cm}\vert \hspace{0.05cm} r(t)\big] > {\rm Pr}\big[Q_i \hspace{0.05cm}\vert \hspace{0.05cm} r(t)\big]
 
  \hspace{0.05cm}.$$}}<br>
 
  \hspace{0.05cm}.$$}}<br>
  
Die &nbsp;[[Stochastische_Signaltheorie/Statistische_Abhängigkeit_und_Unabhängigkeit#R.C3.BCckschlusswahrscheinlichkeit|Rückschlusswahrscheinlichkeit]]&nbsp; ${\rm Pr}\big[Q_i \hspace{0.05cm}\vert \hspace{0.05cm} r(t)\big]$&nbsp; gibt an, mit welcher Wahrscheinlichkeit die Folge &nbsp;$Q_i$&nbsp; gesendet wurde, wenn das Empfangssignal &nbsp;$r(t)$&nbsp;  am Entscheider anliegt. Mit dem &nbsp;[[Stochastische_Signaltheorie/Statistische_Abhängigkeit_und_Unabhängigkeit#Bedingte_Wahrscheinlichkeit|Satz von Bayes]]&nbsp; kann diese Wahrscheinlichkeit wie folgt berechnet werden:
+
* Die &nbsp;[[Stochastische_Signaltheorie/Statistische_Abhängigkeit_und_Unabhängigkeit#R.C3.BCckschlusswahrscheinlichkeit|Rückschlusswahrscheinlichkeit]]&nbsp; ${\rm Pr}\big[Q_i \hspace{0.05cm}\vert \hspace{0.05cm} r(t)\big]$&nbsp; gibt an,&nbsp; mit welcher Wahrscheinlichkeit die Folge &nbsp;$Q_i$&nbsp; gesendet wurde,&nbsp; wenn das Empfangssignal &nbsp;$r(t)$&nbsp;  am Entscheider anliegt.&nbsp; Mit dem &nbsp;[[Stochastische_Signaltheorie/Statistische_Abhängigkeit_und_Unabhängigkeit#Bedingte_Wahrscheinlichkeit|Satz von Bayes]]&nbsp; kann diese Wahrscheinlichkeit wie folgt berechnet werden:
 
:$${\rm Pr}\big[Q_i \hspace{0.05cm}|\hspace{0.05cm} r(t)\big] = \frac{ {\rm Pr}\big[ r(t)\hspace{0.05cm}|\hspace{0.05cm}
 
:$${\rm Pr}\big[Q_i \hspace{0.05cm}|\hspace{0.05cm} r(t)\big] = \frac{ {\rm Pr}\big[ r(t)\hspace{0.05cm}|\hspace{0.05cm}
 
  Q_i \big] \cdot {\rm Pr}\big[Q_i]}{{\rm Pr}[r(t)\big]}
 
  Q_i \big] \cdot {\rm Pr}\big[Q_i]}{{\rm Pr}[r(t)\big]}
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
  
Die MAP&ndash;Entscheidungsregel lässt sich somit wie folgt umformulieren bzw. vereinfachen: &nbsp; Man setze die Sinkensymbolfolge &nbsp;$V = Q_j$, falls für alle &nbsp;$i \ne j$&nbsp; gilt:
+
*Die MAP&ndash;Entscheidungsregel lässt sich somit wie folgt umformulieren bzw. vereinfachen: &nbsp; Man setze die Sinkensymbolfolge &nbsp;$V = Q_j$, falls für alle &nbsp;$i \ne j$&nbsp; gilt:
 
:$$\frac{ {\rm Pr}\big[ r(t)\hspace{0.05cm}|\hspace{0.05cm}
 
:$$\frac{ {\rm Pr}\big[ r(t)\hspace{0.05cm}|\hspace{0.05cm}
 
  Q_j \big] \cdot {\rm Pr}\big[Q_j)}{{\rm Pr}\big[r(t)\big]} > \frac{ {\rm Pr}\big[ r(t)\hspace{0.05cm}|\hspace{0.05cm}
 
  Q_j \big] \cdot {\rm Pr}\big[Q_j)}{{\rm Pr}\big[r(t)\big]} > \frac{ {\rm Pr}\big[ r(t)\hspace{0.05cm}|\hspace{0.05cm}
Zeile 49: Zeile 48:
 
  Q_i \big] \cdot {\rm Pr}\big[Q_i\big] \hspace{0.05cm}.$$
 
  Q_i \big] \cdot {\rm Pr}\big[Q_i\big] \hspace{0.05cm}.$$
  
Eine weitere Vereinfachung dieser MAP&ndash;Entscheidungsregel führt zum ML&ndash;Empfänger, wobei &bdquo;ML&rdquo; für &bdquo;Maximum&ndash;Likelihood&rdquo; steht.<br>
+
Eine weitere Vereinfachung dieser MAP&ndash;Entscheidungsregel führt zum &bdquo;ML&ndash;Empfänger&rdquo;,&nbsp; wobei &bdquo;ML&rdquo; für &bdquo;Maximum&ndash;Likelihood&rdquo; steht.<br>
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Der &nbsp;'''Maximum&ndash;Likelihood&ndash;Empfänger'''&nbsp; &ndash; abgekürzt ML &ndash; entscheidet nach den bedingten Vorwärtswahrscheinlichkeiten &nbsp;${\rm Pr}\big[r(t)\hspace{0.05cm} \vert \hspace{0.05cm}Q_i \big]$&nbsp; und setzt die Ausgangsfolge &nbsp;$V = Q_j$, falls für alle &nbsp;$i \ne j$&nbsp; gilt:
+
$\text{Definition:}$&nbsp; Der &nbsp;'''Maximum&ndash;Likelihood&ndash;Empfänger'''&nbsp; &ndash; abgekürzt&nbsp; $\rm ML$&nbsp; &ndash; entscheidet nach den bedingten Vorwärtswahrscheinlichkeiten &nbsp;${\rm Pr}\big[r(t)\hspace{0.05cm} \vert \hspace{0.05cm}Q_i \big]$&nbsp; und setzt die Ausgangsfolge &nbsp;$V = Q_j$, falls für alle &nbsp;$i \ne j$&nbsp; gilt:
 
:$${\rm Pr}\big[ r(t)\hspace{0.05cm} \vert\hspace{0.05cm}
 
:$${\rm Pr}\big[ r(t)\hspace{0.05cm} \vert\hspace{0.05cm}
 
  Q_j \big] > {\rm Pr}\big[ r(t)\hspace{0.05cm} \vert \hspace{0.05cm}
 
  Q_j \big] > {\rm Pr}\big[ r(t)\hspace{0.05cm} \vert \hspace{0.05cm}
Zeile 58: Zeile 57:
  
 
Ein Vergleich dieser beiden Definitionen zeigt:
 
Ein Vergleich dieser beiden Definitionen zeigt:
* Bei gleichwahrscheinlichen Quellensymbolen  verwenden der ML&ndash;Empfänger und der MAP&ndash;Empfänger gleiche Entscheidungsregeln; sie sind somit äquivalent.  
+
* Bei gleichwahrscheinlichen Quellensymbolen  verwenden der ML&ndash;Empfänger und der MAP&ndash;Empfänger gleiche Entscheidungsregeln;&nbsp; beide sind somit äquivalent.
*Bei nicht gleichwahrscheinlichen Symbolen ist der ML&ndash;Empfänger dem MAP&ndash;Empfänger unterlegen, da er für die Detektion nicht alle zur Verfügung stehenden Informationen nutzt.<br>
+
 +
*Bei nicht gleichwahrscheinlichen Symbolen ist der ML&ndash;Empfänger dem MAP&ndash;Empfänger unterlegen,&nbsp; da er für die Detektion nicht alle zur Verfügung stehenden Informationen nutzt.<br>
  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 1:}$&nbsp; Zur Verdeutlichung von ML&ndash; und MAP&ndash;Entscheidungsregel konstruieren wir nun ein sehr einfaches Beispiel mit nur zwei Quellensymbolen &nbsp;$(M = 2)$.  
+
$\text{Beispiel 1:}$&nbsp; Zur Verdeutlichung von ML&ndash; und MAP&ndash;Entscheidungsregel konstruieren wir nun ein sehr einfaches Beispiel mit nur zwei Quellensymbolen &nbsp;$(M = 2)$.
*Die beiden möglichen Symbole &nbsp;$Q_0$&nbsp; und &nbsp;$Q_1$&nbsp; werden durch die Sendesignale &nbsp;$s = 0$&nbsp; bzw. &nbsp;$s = 1$&nbsp; dargestellt.  
+
[[Datei:P ID1461 Dig T 3 7 S2 version1.png|right|frame|Zur Verdeutlichung von MAP- und ML-Empfänger|class=fit]]
*Das Empfangssignal kann &ndash; warum auch immer &ndash; drei verschiedene Werte annehmen, nämlich &nbsp;$r = 0$, &nbsp;$r = 1$&nbsp; und zusätzlich &nbsp;$r = 0.5$.
+
<br>
 
+
&rArr; &nbsp; Die beiden möglichen Symbole &nbsp;$Q_0$&nbsp; und &nbsp;$Q_1$&nbsp; werden durch die Sendesignale &nbsp;$s = 0$&nbsp; bzw. &nbsp;$s = 1$&nbsp; dargestellt.  
 
+
<br><br>
[[Datei:P ID1461 Dig T 3 7 S2 version1.png|center|frame|Zur Verdeutlichung von MAP- und ML-Empfänger|class=fit]]
+
&rArr; &nbsp; Das Empfangssignal kann &ndash; warum auch immer &ndash; drei verschiedene Werte annehmen, nämlich &nbsp;$r = 0$, &nbsp;$r = 1$&nbsp; und zusätzlich &nbsp;$r = 0.5$.
  
Die Empfangswerte &nbsp;$r = 0$&nbsp; und &nbsp;$r = 1$&nbsp; werden sowohl vom ML&ndash; als auch vom MAP&ndash;Entscheider den Senderwerten  &nbsp;$s = 0 \ (Q_0)$&nbsp; bzw. &nbsp;$s = 1 \ (Q_1)$&nbsp; zugeordnet. Dagegen werden die Entscheider bezüglich des Empfangswertes &nbsp;$r = 0.5$&nbsp; ein anderes Ergebnis liefern:
+
<u>Hinweise:</u>
 +
*Die Empfangswerte &nbsp;$r = 0$&nbsp; und &nbsp;$r = 1$&nbsp; werden sowohl vom ML&ndash; als auch vom MAP&ndash;Entscheider den Senderwerten  &nbsp;$s = 0 \ (Q_0)$&nbsp; bzw. &nbsp;$s = 1 \ (Q_1)$&nbsp; zugeordnet.  
 +
*Bezüglich des Empfangswertes &nbsp;$r = 0.5$&nbsp; werden dagegen die Entscheider ein anderes Ergebnis liefern:
  
*Die Maximum&ndash;Likelihood&ndash;Entscheidungsregel führt zum Quellensymbol &nbsp;$Q_0$, wegen
+
:*Die Maximum&ndash;Likelihood&ndash;Entscheidungsregel führt zum Quellensymbol &nbsp;$Q_0$, wegen
:$${\rm Pr}\big [ r= 0.5\hspace{0.05cm}\vert\hspace{0.05cm}
+
::$${\rm Pr}\big [ r= 0.5\hspace{0.05cm}\vert\hspace{0.05cm}
 
  Q_0\big ] = 0.4 > {\rm Pr}\big [ r= 0.5\hspace{0.05cm} \vert \hspace{0.05cm}
 
  Q_0\big ] = 0.4 > {\rm Pr}\big [ r= 0.5\hspace{0.05cm} \vert \hspace{0.05cm}
 
  Q_1\big ] = 0.2 \hspace{0.05cm}.$$
 
  Q_1\big ] = 0.2 \hspace{0.05cm}.$$
  
*Die MAP&ndash;Entscheidung führt dagegen zum Quellensymbol &nbsp;$Q_1$, da entsprechend der Nebenrechnung in der Grafik gilt:
+
:*Die MAP&ndash;Entscheidung führt dagegen zum Quellensymbol &nbsp;$Q_1$,&nbsp;  da entsprechend der Nebenrechnung in der Grafik gilt:
:$${\rm Pr}\big [Q_1 \hspace{0.05cm}\vert\hspace{0.05cm}
+
::$${\rm Pr}\big [Q_1 \hspace{0.05cm}\vert\hspace{0.05cm}
 
  r= 0.5\big ] = 0.6 > {\rm Pr}\big [Q_0 \hspace{0.05cm}\vert\hspace{0.05cm}
 
  r= 0.5\big ] = 0.6 > {\rm Pr}\big [Q_0 \hspace{0.05cm}\vert\hspace{0.05cm}
 
  r= 0.5\big ] = 0.4 \hspace{0.05cm}.$$}}<br>
 
  r= 0.5\big ] = 0.4 \hspace{0.05cm}.$$}}<br>
Zeile 84: Zeile 86:
 
== Maximum&ndash;Likelihood&ndash;Entscheidung bei Gaußscher Störung ==
 
== Maximum&ndash;Likelihood&ndash;Entscheidung bei Gaußscher Störung ==
 
<br>
 
<br>
Wir setzen nun voraus, dass sich das Empfangssignal &nbsp;$r(t)$&nbsp; additiv aus einem Nutzsignal &nbsp;$s(t)$&nbsp; und einem Störanteil &nbsp;$n(t)$&nbsp; zusammensetzt, wobei die Störung als gaußverteilt und weiß angenommen wird &nbsp; &rArr; &nbsp; &nbsp;[[Digitalsignalübertragung/Systemkomponenten_eines_Basisbandübertragungssystems#.C3.9Cbertragungskanal_und_St.C3.B6rungen|AWGN&ndash;Rauschen]]:
+
Wir setzen nun voraus,&nbsp; dass sich das Empfangssignal &nbsp;$r(t)$&nbsp; additiv aus einem Nutzsignal &nbsp;$s(t)$&nbsp; und einem Störanteil &nbsp;$n(t)$&nbsp; zusammensetzt,&nbsp; wobei die Störung als gaußverteilt und weiß angenommen wird &nbsp; &rArr; &nbsp; &nbsp;[[Digitalsignalübertragung/Systemkomponenten_eines_Basisbandübertragungssystems#.C3.9Cbertragungskanal_und_St.C3.B6rungen|"AWGN&ndash;Rauschen"]]:
 
:$$r(t) = s(t) + n(t) \hspace{0.05cm}.$$
 
:$$r(t) = s(t) + n(t) \hspace{0.05cm}.$$
  
 
Eventuelle Kanalverzerrungen werden zur Vereinfachung bereits dem Signal &nbsp;$s(t)$&nbsp; beaufschlagt.<br>
 
Eventuelle Kanalverzerrungen werden zur Vereinfachung bereits dem Signal &nbsp;$s(t)$&nbsp; beaufschlagt.<br>
  
Die notwendige Rauschleistungsbegrenzung wird durch einen Integrator realisiert; dies entspricht einer Mittelung der Rauschwerte im Zeitbereich. Begrenzt man das Integrationsintervall auf den Bereich &nbsp;$t_1$&nbsp; bis &nbsp;$t_2$, so kann man für jede Quellensymbolfolge &nbsp;$Q_i$&nbsp; eine Größe &nbsp;$W_i$&nbsp; ableiten, die ein Maß für die bedingte Wahrscheinlichkeit &nbsp;${\rm Pr}\big [ r(t)\hspace{0.05cm} \vert \hspace{0.05cm}
+
Die notwendige Rauschleistungsbegrenzung wird durch einen Integrator realisiert;&nbsp; dies entspricht einer Mittelung der Rauschwerte im Zeitbereich.&nbsp; Begrenzt man das Integrationsintervall auf den Bereich &nbsp;$t_1$&nbsp; bis &nbsp;$t_2$,&nbsp; so kann man für jede Quellensymbolfolge &nbsp;$Q_i$&nbsp; eine Größe &nbsp;$W_i$&nbsp; ableiten,&nbsp; die ein Maß für die bedingte Wahrscheinlichkeit &nbsp;${\rm Pr}\big [ r(t)\hspace{0.05cm} \vert \hspace{0.05cm}
 
  Q_i\big ] $&nbsp; darstellt:
 
  Q_i\big ] $&nbsp; darstellt:
 
:$$W_i  =  \int_{t_1}^{t_2} r(t) \cdot s_i(t) \,{\rm d} t -
 
:$$W_i  =  \int_{t_1}^{t_2} r(t) \cdot s_i(t) \,{\rm d} t -
Zeile 95: Zeile 97:
 
I_i - {E_i}/{2} \hspace{0.05cm}.$$
 
I_i - {E_i}/{2} \hspace{0.05cm}.$$
  
Diese Entscheidungsgröße &nbsp;$W_i$&nbsp; kann über die &nbsp;$k$&ndash;dimensioniale [[Stochastische_Signaltheorie/Zweidimensionale_Zufallsgrößen#Verbundwahrscheinlichkeitsdichtefunktion|Verbundwahrscheinlichkeitsdichte]]&nbsp; der Störungen $($mit &nbsp;$k \to \infty)$&nbsp; und einigen Grenzübergängen hergeleitet werden. Das Ergebnis lässt sich wie folgt interpretieren:
+
Diese Entscheidungsgröße &nbsp;$W_i$&nbsp; kann über die &nbsp;$k$&ndash;dimensioniale [[Stochastische_Signaltheorie/Zweidimensionale_Zufallsgrößen#Verbundwahrscheinlichkeitsdichtefunktion|Verbundwahrscheinlichkeitsdichte]]&nbsp; der Störungen&nbsp; $($mit &nbsp;$k \to \infty)$&nbsp; und einigen Grenzübergängen hergeleitet werden.&nbsp; Das Ergebnis lässt sich wie folgt interpretieren:
*Die Integration dient der Rauschleistungsreduzierung durch Mittelung. Werden vom Maximum–Likelihood&ndash;Detektor &nbsp;$N$&nbsp; Binärsymbole gleichzeitig entschieden, so ist bei verzerrungsfreiem Kanal &nbsp;$t_1 = 0 $&nbsp; und &nbsp;$t_2 = N \cdot T$&nbsp; zu setzen.
+
*Die Integration dient der Rauschleistungsreduzierung durch Mittelung.&nbsp; Werden vom Maximum–Likelihood&ndash;Detektor &nbsp;$N$&nbsp; Binärsymbole gleichzeitig entschieden,&nbsp; so ist bei verzerrungsfreiem Kanal &nbsp;$t_1 = 0 $&nbsp; und &nbsp;$t_2 = N \cdot T$&nbsp; zu setzen.
*Der erste Term der obigen Entscheidungsgröße &nbsp;$W_i$&nbsp; ist gleich der über das endliche Zeitintervall &nbsp;$NT$&nbsp;  gebildeten&nbsp; [[Stochastische_Signaltheorie/Kreuzkorrelationsfunktion_und_Kreuzleistungsdichte#Definition_der_Kreuzkorrelationsfunktion| Energie&ndash;Kreuzkorrelationsfunktion]]&nbsp; zwischen &nbsp;$r(t)$&nbsp; und &nbsp;$s_i(t)$&nbsp; an der Stelle &nbsp;$\tau = 0$:
+
 
 +
*Der erste Term der obigen Entscheidungsgröße &nbsp;$W_i$&nbsp; ist gleich der über das endliche Zeitintervall &nbsp;$NT$&nbsp;  gebildeten&nbsp; [[Stochastische_Signaltheorie/Kreuzkorrelationsfunktion_und_Kreuzleistungsdichte#Definition_der_Kreuzkorrelationsfunktion| "Energie&ndash;Kreuzkorrelationsfunktion"]]&nbsp; zwischen &nbsp;$r(t)$&nbsp; und &nbsp;$s_i(t)$&nbsp; an der Stelle &nbsp;$\tau = 0$:
 
:$$I_i  = \varphi_{r, \hspace{0.08cm}s_i} (\tau = 0) =  \int_{0}^{N \cdot T}r(t) \cdot s_i(t) \,{\rm d} t
 
:$$I_i  = \varphi_{r, \hspace{0.08cm}s_i} (\tau = 0) =  \int_{0}^{N \cdot T}r(t) \cdot s_i(t) \,{\rm d} t
 
\hspace{0.05cm}.$$
 
\hspace{0.05cm}.$$
 
+
*Der zweite Term gibt die halbe Energie des betrachteten Nutzsignals &nbsp;$s_i(t)$&nbsp; an,&nbsp; die zu subtrahieren ist.&nbsp; Die Energie ist gleich der Autokorrelationsfunktion&nbsp; $\rm (AKF)$&nbsp; des Nutzsignals an der Stelle &nbsp;$\tau = 0$:
*Der zweite Term gibt die halbe Energie des betrachteten Nutzsignals &nbsp;$s_i(t)$&nbsp; an, die zu subtrahieren ist. Die Energie ist gleich der AKF des Nutzsignals an der Stelle &nbsp;$\tau = 0$:
 
  
 
::<math>E_i  =  \varphi_{s_i} (\tau = 0) = \int_{0}^{N \cdot T}
 
::<math>E_i  =  \varphi_{s_i} (\tau = 0) = \int_{0}^{N \cdot T}
 
s_i^2(t) \,{\rm d} t \hspace{0.05cm}.</math>
 
s_i^2(t) \,{\rm d} t \hspace{0.05cm}.</math>
 
+
*Bei verzerrendem Kanal ist die Impulsantwort &nbsp;$h_{\rm K}(t)$&nbsp; nicht diracförmig,&nbsp; sondern beispielsweise auf den Bereich  &nbsp;$-T_{\rm K} \le t \le +T_{\rm K}$&nbsp; ausgedehnt.&nbsp; In diesem Fall muss für die beiden Integrationsgrenzen &nbsp;$t_1 = -T_{\rm K}$&nbsp; und &nbsp;$t_2 = N \cdot T +T_{\rm K}$&nbsp; eingesetzt werden.<br>
*Bei verzerrendem Kanal ist die Impulsantwort &nbsp;$h_{\rm K}(t)$&nbsp; nicht diracförmig, sondern beispielsweise auf den Bereich  &nbsp;$-T_{\rm K} \le t \le +T_{\rm K}$&nbsp; ausgedehnt. In diesem Fall muss für die beiden Integrationsgrenzen &nbsp;$t_1 = -T_{\rm K}$&nbsp; und &nbsp;$t_2 = N \cdot T +T_{\rm K}$&nbsp; eingesetzt werden.<br>
 
  
 
== Matched&ndash;Filter&ndash;Empfänger vs. Korrelationsempfänger ==
 
== Matched&ndash;Filter&ndash;Empfänger vs. Korrelationsempfänger ==

Version vom 30. Juni 2022, 15:11 Uhr

Betrachtetes Szenario und Voraussetzungen


Alle bisher beschriebenen Digitalempfänger treffen stets symbolweise Entscheidungen.  Werden dagegen mehrere Symbole gleichzeitig entschieden,  so können bei der Detektion statistische Bindungen zwischen den Empfangssignalabtastwerten berücksichtigt werden,  was eine geringere Fehlerwahrscheinlichkeit zur Folge hat – allerdings auf Kosten einer zusätzlichen Laufzeit.

In diesem und auch im nächsten Kapitel wird von folgendem Übertragungsmodell ausgegangen.  Gegenüber den vorherigen Kapiteln ergeben sich folgende Unterschiede:

Übertragungssystem mit optimalem Empfänger
  • $Q \in \{Q_i\}$  mit  $i = 0$, ... , $M-1$  bezeichnet eine zeitlich begrenzte Quellensymbolfolge  $\langle q_\nu \rangle$,  deren Symbole vom optimalen Empfänger gemeinsam entschieden werden sollen.
  • Beschreibt  $Q$  eine Folge von  $N$  redundanzfreien Binärsymbolen,  so ist  $M = 2^N$  zu setzen.  Dagegen gibt  $M$  bei symbolweiser Entscheidung die Stufenzahl der digitalen Quelle an.
  • Im Modell werden mögliche Kanalverzerrungen dem Sender hinzugefügt,  sind also bereits im Grundimpuls  $g_s(t)$  und im Signal  $s(t)$  enthalten.  Dies dient lediglich einer einfacheren Darstellung und stellt keine Einschränkung dar.
  • Der optimale Empfänger sucht unter Kenntnis des aktuell anliegenden Empfangssignals  $r(t)$  aus der Menge  $\{Q_0$, ... , $Q_{M-1}\}$  der möglichen Quellensymbolfolgen die am wahrscheinlichsten gesendete Folge  $Q_j$  und gibt diese als Sinkensymbolfolge  $V$  aus.
  • Vor dem eigentlichen Entscheidungsalgorithmus muss durch eine geeignete Signalvorverarbeitung aus dem Empfangssignal  $r(t)$  für jede mögliche Folge  $Q_i$  ein Zahlenwert  $W_i$  abgeleitet werden.  Je größer  $W_i$  ist,  desto größer ist die Rückschlusswahrscheinlichkeit,  dass  $Q_i$  gesendet wurde.
  • Die Signalvorverarbeitung muss für die erforderliche Rauschleistungsbegrenzung und – bei starken Kanalverzerrungen – für eine ausreichende Vorentzerrung der entstandenen Impulsinterferenzen sorgen.  Außerdem beinhaltet die Vorverarbeitung auch die Abtastung zur Zeitdiskretisierung.

Maximum-a-posteriori– und Maximum–Likelihood–Entscheidungsregel


Man bezeichnet den (uneingeschränkt) optimalen Empfänger als „MAP–Empfänger”,  wobei „MAP” für „Maximum–a–posteriori” steht.

$\text{Definition:}$  Der  Maximum-a-posteriori––Empfänger  – abgekürzt  $\rm MAP$ – ermittelt die  $M$  Rückschlusswahrscheinlichkeiten  ${\rm Pr}\big[Q_i \hspace{0.05cm}\vert \hspace{0.05cm}r(t)\big]$  und setzt die Ausgangsfolge  $V$  gemäß der Entscheidungsregel,  wobei für den Index gilt:   $i = 0$, ... , $M-1$  sowie  $i \ne j$:

$${\rm Pr}\big[Q_j \hspace{0.05cm}\vert \hspace{0.05cm} r(t)\big] > {\rm Pr}\big[Q_i \hspace{0.05cm}\vert \hspace{0.05cm} r(t)\big] \hspace{0.05cm}.$$


  • Die  Rückschlusswahrscheinlichkeit  ${\rm Pr}\big[Q_i \hspace{0.05cm}\vert \hspace{0.05cm} r(t)\big]$  gibt an,  mit welcher Wahrscheinlichkeit die Folge  $Q_i$  gesendet wurde,  wenn das Empfangssignal  $r(t)$  am Entscheider anliegt.  Mit dem  Satz von Bayes  kann diese Wahrscheinlichkeit wie folgt berechnet werden:
$${\rm Pr}\big[Q_i \hspace{0.05cm}|\hspace{0.05cm} r(t)\big] = \frac{ {\rm Pr}\big[ r(t)\hspace{0.05cm}|\hspace{0.05cm} Q_i \big] \cdot {\rm Pr}\big[Q_i]}{{\rm Pr}[r(t)\big]} \hspace{0.05cm}.$$
  • Die MAP–Entscheidungsregel lässt sich somit wie folgt umformulieren bzw. vereinfachen:   Man setze die Sinkensymbolfolge  $V = Q_j$, falls für alle  $i \ne j$  gilt:
$$\frac{ {\rm Pr}\big[ r(t)\hspace{0.05cm}|\hspace{0.05cm} Q_j \big] \cdot {\rm Pr}\big[Q_j)}{{\rm Pr}\big[r(t)\big]} > \frac{ {\rm Pr}\big[ r(t)\hspace{0.05cm}|\hspace{0.05cm} Q_i\big] \cdot {\rm Pr}\big[Q_i\big]}{{\rm Pr}\big[r(t)\big]}\hspace{0.3cm} \Rightarrow \hspace{0.3cm} {\rm Pr}\big[ r(t)\hspace{0.05cm}|\hspace{0.05cm} Q_j\big] \cdot {\rm Pr}\big[Q_j\big]> {\rm Pr}\big[ r(t)\hspace{0.05cm}|\hspace{0.05cm} Q_i \big] \cdot {\rm Pr}\big[Q_i\big] \hspace{0.05cm}.$$

Eine weitere Vereinfachung dieser MAP–Entscheidungsregel führt zum „ML–Empfänger”,  wobei „ML” für „Maximum–Likelihood” steht.

$\text{Definition:}$  Der  Maximum–Likelihood–Empfänger  – abgekürzt  $\rm ML$  – entscheidet nach den bedingten Vorwärtswahrscheinlichkeiten  ${\rm Pr}\big[r(t)\hspace{0.05cm} \vert \hspace{0.05cm}Q_i \big]$  und setzt die Ausgangsfolge  $V = Q_j$, falls für alle  $i \ne j$  gilt:

$${\rm Pr}\big[ r(t)\hspace{0.05cm} \vert\hspace{0.05cm} Q_j \big] > {\rm Pr}\big[ r(t)\hspace{0.05cm} \vert \hspace{0.05cm} Q_i\big] \hspace{0.05cm}.$$


Ein Vergleich dieser beiden Definitionen zeigt:

  • Bei gleichwahrscheinlichen Quellensymbolen verwenden der ML–Empfänger und der MAP–Empfänger gleiche Entscheidungsregeln;  beide sind somit äquivalent.
  • Bei nicht gleichwahrscheinlichen Symbolen ist der ML–Empfänger dem MAP–Empfänger unterlegen,  da er für die Detektion nicht alle zur Verfügung stehenden Informationen nutzt.


$\text{Beispiel 1:}$  Zur Verdeutlichung von ML– und MAP–Entscheidungsregel konstruieren wir nun ein sehr einfaches Beispiel mit nur zwei Quellensymbolen  $(M = 2)$.

Zur Verdeutlichung von MAP- und ML-Empfänger


⇒   Die beiden möglichen Symbole  $Q_0$  und  $Q_1$  werden durch die Sendesignale  $s = 0$  bzw.  $s = 1$  dargestellt.

⇒   Das Empfangssignal kann – warum auch immer – drei verschiedene Werte annehmen, nämlich  $r = 0$,  $r = 1$  und zusätzlich  $r = 0.5$.

Hinweise:

  • Die Empfangswerte  $r = 0$  und  $r = 1$  werden sowohl vom ML– als auch vom MAP–Entscheider den Senderwerten  $s = 0 \ (Q_0)$  bzw.  $s = 1 \ (Q_1)$  zugeordnet.
  • Bezüglich des Empfangswertes  $r = 0.5$  werden dagegen die Entscheider ein anderes Ergebnis liefern:
  • Die Maximum–Likelihood–Entscheidungsregel führt zum Quellensymbol  $Q_0$, wegen
$${\rm Pr}\big [ r= 0.5\hspace{0.05cm}\vert\hspace{0.05cm} Q_0\big ] = 0.4 > {\rm Pr}\big [ r= 0.5\hspace{0.05cm} \vert \hspace{0.05cm} Q_1\big ] = 0.2 \hspace{0.05cm}.$$
  • Die MAP–Entscheidung führt dagegen zum Quellensymbol  $Q_1$,  da entsprechend der Nebenrechnung in der Grafik gilt:
$${\rm Pr}\big [Q_1 \hspace{0.05cm}\vert\hspace{0.05cm} r= 0.5\big ] = 0.6 > {\rm Pr}\big [Q_0 \hspace{0.05cm}\vert\hspace{0.05cm} r= 0.5\big ] = 0.4 \hspace{0.05cm}.$$


Maximum–Likelihood–Entscheidung bei Gaußscher Störung


Wir setzen nun voraus,  dass sich das Empfangssignal  $r(t)$  additiv aus einem Nutzsignal  $s(t)$  und einem Störanteil  $n(t)$  zusammensetzt,  wobei die Störung als gaußverteilt und weiß angenommen wird   ⇒    "AWGN–Rauschen":

$$r(t) = s(t) + n(t) \hspace{0.05cm}.$$

Eventuelle Kanalverzerrungen werden zur Vereinfachung bereits dem Signal  $s(t)$  beaufschlagt.

Die notwendige Rauschleistungsbegrenzung wird durch einen Integrator realisiert;  dies entspricht einer Mittelung der Rauschwerte im Zeitbereich.  Begrenzt man das Integrationsintervall auf den Bereich  $t_1$  bis  $t_2$,  so kann man für jede Quellensymbolfolge  $Q_i$  eine Größe  $W_i$  ableiten,  die ein Maß für die bedingte Wahrscheinlichkeit  ${\rm Pr}\big [ r(t)\hspace{0.05cm} \vert \hspace{0.05cm} Q_i\big ] $  darstellt:

$$W_i = \int_{t_1}^{t_2} r(t) \cdot s_i(t) \,{\rm d} t - {1}/{2} \cdot \int_{t_1}^{t_2} s_i^2(t) \,{\rm d} t= I_i - {E_i}/{2} \hspace{0.05cm}.$$

Diese Entscheidungsgröße  $W_i$  kann über die  $k$–dimensioniale Verbundwahrscheinlichkeitsdichte  der Störungen  $($mit  $k \to \infty)$  und einigen Grenzübergängen hergeleitet werden.  Das Ergebnis lässt sich wie folgt interpretieren:

  • Die Integration dient der Rauschleistungsreduzierung durch Mittelung.  Werden vom Maximum–Likelihood–Detektor  $N$  Binärsymbole gleichzeitig entschieden,  so ist bei verzerrungsfreiem Kanal  $t_1 = 0 $  und  $t_2 = N \cdot T$  zu setzen.
  • Der erste Term der obigen Entscheidungsgröße  $W_i$  ist gleich der über das endliche Zeitintervall  $NT$  gebildeten  "Energie–Kreuzkorrelationsfunktion"  zwischen  $r(t)$  und  $s_i(t)$  an der Stelle  $\tau = 0$:
$$I_i = \varphi_{r, \hspace{0.08cm}s_i} (\tau = 0) = \int_{0}^{N \cdot T}r(t) \cdot s_i(t) \,{\rm d} t \hspace{0.05cm}.$$
  • Der zweite Term gibt die halbe Energie des betrachteten Nutzsignals  $s_i(t)$  an,  die zu subtrahieren ist.  Die Energie ist gleich der Autokorrelationsfunktion  $\rm (AKF)$  des Nutzsignals an der Stelle  $\tau = 0$:
\[E_i = \varphi_{s_i} (\tau = 0) = \int_{0}^{N \cdot T} s_i^2(t) \,{\rm d} t \hspace{0.05cm}.\]
  • Bei verzerrendem Kanal ist die Impulsantwort  $h_{\rm K}(t)$  nicht diracförmig,  sondern beispielsweise auf den Bereich  $-T_{\rm K} \le t \le +T_{\rm K}$  ausgedehnt.  In diesem Fall muss für die beiden Integrationsgrenzen  $t_1 = -T_{\rm K}$  und  $t_2 = N \cdot T +T_{\rm K}$  eingesetzt werden.

Matched–Filter–Empfänger vs. Korrelationsempfänger


Es gibt verschiedene schaltungstechnische Implementierungen des Maximum–Likelihood–Empfängers.

Beispielsweise können die erforderlichen Integrale durch lineare Filterung und anschließender Abtastung gewonnen werden. Man bezeichnet diese Realisierungsform als  Matched–Filter–Empfänger, da hier die Impulsantworten der  $M$  parallelen Filter formgleich mit den Nutzsignalen  $s_0(t)$, ... , $s_{M-1}(t)$  sind.

  • Die $M$ Entscheidungsgrößen  $I_i$  sind dann gleich den Faltungsprodukten  $r(t) \star s_i(t)$  zum Zeitpunkt  $t= 0$.
  • Beispielsweise erlaubt der im Kapitel  Optimierung der Basisband–Übertragungssysteme  ausführlich beschriebene „optimale Binärempfänger” eine Maximum–Likelihood–Entscheidung mit den ML–Parametern  $M = 2$  und  $N = 1$.


Eine zweite Realisierungsform bietet der  Korrelationsempfänger  entsprechend der folgenden Grafik.

Korrelationsempfänger für  $N = 3$,  $t_1 = 0$,  $t_2 = 3T$  sowie  $M = 2^3 = 8$

Man erkennt aus diesem Blockschaltbild für die angegebenen Parameter:

  • Der gezeichnete Korrelationsempfänger bildet insgesamt  $M = 8$  Kreuzkorrelationsfunktionen zwischen dem Empfangssignal  $r(t) = s_k(t) + n(t)$  und den möglichen Sendesignalen  $s_i(t), \ i = 0$, ... , $M-1$. Vorausgesetzt ist für die folgende Beschreibung, dass das Nutzsignal  $s_k(t)$  gesendet wurde.
  • Der Korrelationsempfänger sucht nun den maximalen Wert  $W_j$  aller Korrelationswerte und gibt die dazugehörige Folge  $Q_j$  als Sinkensymbolfolge  $V$  aus. Formal lässt sich die ML–Entscheidungsregel wie folgt ausdrücken:
$$V = Q_j, \hspace{0.2cm}{\rm falls}\hspace{0.2cm} W_i < W_j \hspace{0.2cm}{\rm f\ddot{u}r}\hspace{0.2cm} {\rm alle}\hspace{0.2cm} i \ne j \hspace{0.05cm}.$$
  • Setzt man weiter voraus, dass alle Sendesignale  $s_i(t)$  die genau gleiche Energie besitzen, so kann man auf die Subtraktion von  $E_i/2$  in allen Zweigen verzichten. In diesem Fall werden folgende Korrelationswerte miteinander verglichen  $(i = 0$, ... , $M-1)$:
\[I_i = \int_{0}^{NT} s_j(t) \cdot s_i(t) \,{\rm d} t + \int_{0}^{NT} n(t) \cdot s_i(t) \,{\rm d} t \hspace{0.05cm}.\]
  • Mit großer Wahrscheinlichkeit ist  $I_j = I_k$  größer als alle anderen Vergleichswerte  $I_{j \ne k}$. Ist das Rauschen  $n(t)$  allerdings zu groß, so wird auch der Korrelationsempfänger eine Fehlentscheidung treffen.

Darstellung des Korrelationsempfängers im Baumdiagramm


Verdeutlichen wir uns die Funktionsweise des Korrelationsempfängers im Baumdiagramm, wobei die  $2^3 = 8$  möglichen Quellensymbolfolgen  $Q_i$  der Länge  $N = 3$  durch bipolare rechteckförmige Sendesignale  $s_i(t)$  repräsentiert werden:

Mögliche bipolare Sendesignale für  $N = 3$

Die möglichen Symbolfolgen  $Q_0 = \rm LLL$, ... , $Q_7 = \rm HHH$  und die zugehörigen Sendesignale  $s_0(t)$, ... , $s_7(t)$  sind oben aufgeführt.

  • Aufgrund der bipolaren Amplitudenkoeffizienten und der Rechteckform sind alle Signalenergien gleich:   $E_0 = \text{...} = E_7 = N \cdot E_{\rm B}$, wobei  $E_{\rm B}$  die Energie eines Einzelimpulses der Dauer $T$ angibt.
  • Deshalb kann auf die Subtraktion des Terms  $E_i/2$  in allen Zweigen verzichtet werden   ⇒   eine auf den Korrelationswerten  $I_i$  basierende Entscheidung liefert ebenso zuverlässige Ergebnisse wie die Maximierung der korrigierten Werte  $W_i$.


$\text{Beispiel 2:}$  In der Grafik sind die fortlaufenden Integralwerte dargestellt, wobei vom tatsächlich gesendeten Signal  $s_5(t)$  und dem rauschfreien Fall ausgegangen wird. Für diesen Fall gilt für die zeitabhängigen Integralwerte und die Integralendwerte:

Korrelationsempfänger:   Baumdiagramm im rauschfreien Fall
$$i_i(t) = \int_{0}^{t} r(\tau) \cdot s_i(\tau) \,{\rm d} \tau = \int_{0}^{t} s_5(\tau) \cdot s_i(\tau) \,{\rm d} \tau \hspace{0.3cm} \Rightarrow \hspace{0.3cm}I_i = i_i(3T). $$

Die Grafik kann wie folgt interpretiert werden::

  • Wegen der Rechteckform der Signale  $s_i(t)$  sind alle Funktionsverläufe  $i_i(t)$  geradlinig. Die auf  $E_{\rm B}$  normierten Endwerte sind  $+3$,  $+1$,  $-1$  und  $-3$.
  • Der maximale Endwert ist  $I_5 = 3 \cdot E_{\rm B}$  (roter Kurvenverlauf), da tatsächlich das Signal  $s_5(t)$  gesendet wurde. Ohne Rauschen trifft der Korrelationsempfänger somit natürlich immer die richtige Entscheidung.
  • Der blaue Kurvenzug  $i_1(t)$  führt zum Endwert  $I_1 = -E_{\rm B} + E_{\rm B}+ E_{\rm B} = E_{\rm B}$, da sich  $s_1(t)$  von  $s_5(t)$  nur im ersten Bit unterscheidet. Die Vergleichswerte  $I_4$  und  $I_7$  sind ebenfalls gleich  $E_{\rm B}$.
  • Da sich  $s_0(t)$,  $s_3(t)$  und  $s_6(t)$  vom gesendeten  $s_5(t)$  in zwei Bit unterscheiden, gilt  $I_0 = I_3 = I_6 =-E_{\rm B}$. Die grüne Kurve zeigt  $s_6(t)$, das zunächst ansteigt (erstes Bit stimmt überein) und dann über zwei Bit abfällt.
  • Die violette Kurve führt zum Endwert  $I_2 = -3 \cdot E_{\rm B}$. Das zugehörige Signal  $s_2(t)$  unterscheidet sich von  $s_5(t)$  in allen drei Symbolen und es gilt  $s_2(t) = -s_5(t)$.



$\text{Beispiel 3:}$  Die Grafik zu diesem Beispiel beschreibt den gleichen Sachverhalt wie das  $\text{Beispiel 2}$, doch es wird nun vom Empfangssignal  $r(t) = s_5(t)+ n(t)$  ausgegangen. Die Varianz des AWGN–Rauschens  $n(t)$  beträgt hierbei  $\sigma_n^2 = 4 \cdot E_{\rm B}/T$.

Korrelationsempfänger: Baumdiagramm mit Rauschen

Man erkennt aus dieser Grafik im Vergleich zum rauschfreien Fall:

  • Die Funktionsverläufe sind aufgrund des Rauschanteils  $n(t)$  nun nicht mehr gerade und es ergeben sich auch etwas andere Endwerte als ohne Rauschen.
  • Im betrachteten Beispiel entscheidet der Korrelationsempfänger aber mit großer Wahrscheinlichkeit richtig, da die Differenz zwischen  $I_5$  und dem zweitgrößeren Wert  $I_7$  mit  $1.65\cdot E_{\rm B}$  verhältnismäßig groß ist.
  • Die Fehlerwahrscheinlichkeit ist im hier betrachteten Beispiel allerdings nicht besser als die des Matched–Filter–Empfängers mit symbolweiser Entscheidung.
  • Entsprechend dem Kapitel  Optimierung der Basisband–Übertragungssysteme  gilt auch hier:
$$p_{\rm S} = {\rm Q} \left( \sqrt{ {2 \cdot E_{\rm B} }/{N_0} }\right) = {1}/{2} \cdot {\rm erfc} \left( \sqrt{ { E_{\rm B} }/{N_0} }\right) \hspace{0.05cm}.$$


$\text{Fazit:}$ 

  • Weist das Eingangssignal keine statistischen Bindungen auf wie im  $\text{Beispiel 2}$, so ist durch die gemeinsame Entscheidung von  $N$  Symbolen gegenüber der symbolweisen Entscheidung keine Verbesserung zu erzielen.
  • Bei Vorhandensein von statistischen Bindungen wird durch die gemeinsame Entscheidung von  $N$  Symbolen die Fehlerwahrscheinlichkeit gegenüber  $p_{\rm S} = {\rm Q} \left( \sqrt{ {2 \cdot E_{\rm B} }/{N_0} }\right)$  (gültig für symbolweise Entscheidung) merklich verringert, da der Maximum–Likelihood–Empfänger die Bindungen berücksichtigt.
  • Solche Bindungen können entweder durch sendeseitige Codierung bewusst erzeugt werden (siehe  $\rm LNTwww$-Buch Kanalcodierung) oder durch (lineare) Kanalverzerrungen ungewollt entstehen.
  • Bei Vorhandensein solcher Impulsinterferenzen ist die Berechnung der Fehlerwahrscheinlichkeit deutlich schwieriger. Es können jedoch vergleichbare Näherungen wie beim Viterbi–Empfänger angegeben werden, die am  Ende des nächsten Kapitels   angegeben sind.


Korrelationsempfänger bei unipolarer Signalisierung


Bisher sind wir bei der Beschreibung des Korrelationsempfänger stets von binärer bipolarer  Signalisierung ausgegangen:

$$a_\nu = \left\{ \begin{array}{c} +1 \\ -1 \\ \end{array} \right.\quad \begin{array}{*{1}c} {\rm{f\ddot{u}r}} \\ {\rm{f\ddot{u}r}} \\ \end{array}\begin{array}{*{20}c} q_\nu = \mathbf{H} \hspace{0.05cm}, \\ q_\nu = \mathbf{L} \hspace{0.05cm}. \\ \end{array}$$

Nun betrachten wir den Fall der binären unipolaren  Digitalsignalübertragung gilt:

$$a_\nu = \left\{ \begin{array}{c} 1 \\ 0 \\ \end{array} \right.\quad \begin{array}{*{1}c} {\rm{f\ddot{u}r}} \\ {\rm{f\ddot{u}r}} \\ \end{array}\begin{array}{*{20}c} q_\nu = \mathbf{H} \hspace{0.05cm}, \\ q_\nu = \mathbf{L} \hspace{0.05cm}. \\ \end{array}$$

Die  $2^3 = 8$  möglichen Quellensymbolfolgen  $Q_i$  der Länge  $N = 3$  werden nun durch unipolare rechteckförmige Sendesignale  $s_i(t)$  repräsentiert. Nachfolgend aufgeführt sind die Symbolfolgen  $Q_0 = \rm LLL$, ... , $Q_7 = \rm HHH$  und die Sendesignale  $s_0(t)$, ... , $s_7(t)$.

Mögliche unipolare Sendesignale für  $N = 3$

Durch Vergleich mit der  entsprechenden Tabelle  für bipolare Signalisierung erkennt man:

  • Aufgrund der unipolaren Amplitudenkoeffizienten sind nun die Signalenergien  $E_i$  unterschiedlich, zum Beispiel gilt  $E_0 = 0$  und  $E_7 = 3 \cdot E_{\rm B}$.
  • Hier führt die auf den Integralendwerten  $I_i$  basierende Entscheidung nicht zum richtigen Ergebnis.
  • Vielmehr muss nun auf die korrigierten Vergleichswerte  $W_i = I_i- E_i/2$  zurückgegriffen werden.


$\text{Beispiel 4:}$  In der Grafik sind die fortlaufenden Integralwerte dargestellt, wobei wieder vom tatsächlich gesendeten Signal  $s_5(t)$  und dem rauschfreien Fall ausgegangen wird. Das entsprechende bipolare Äquivalent wurde im Beispiel 2 betrachtet.

Baumdiagramm des Korrelationsempfängers (unipolar)

Für dieses Beispiel ergeben sich folgende Vergleichswerte, jeweils normiert auf  $E_{\rm B}$:

$$I_5 = I_7 = 2, \hspace{0.2cm}I_1 = I_3 = I_4= I_6 = 1 \hspace{0.2cm}, \hspace{0.2cm}I_0 = I_2 = 0 \hspace{0.05cm},$$
$$W_5 = 1, \hspace{0.2cm}W_1 = W_4 = W_7 = 0.5, \hspace{0.2cm} W_0 = W_3 =W_6 =0, \hspace{0.2cm}W_2 = -0.5 \hspace{0.05cm}.$$

Das bedeutet:

  • Bei einem Vergleich hinsichtlich der maximalen  $I_i$–Werte wären die Quellensymbolfolgen  $Q_5$  und  $Q_7$  gleichwertig.
  • Berücksichtigt man die unterschiedlichen Energien  $(E_5 = 2, \ E_7 = 3)$, so wird dagegen wegen  $W_5 > W_7$  eindeutig für die Folge  $Q_5$  entschieden.
  • Der Korrelationsempfänger gemäß  $W_i = I_i- E_i/2$  entscheidet also auch bei unipolarer Signalisierung richtig auf  $s(t) = s_5(t)$.


Aufgaben zum Kapitel


Aufgabe 3.9: Korrelationsempfänger für unipolare Signalisierung

Aufgabe 3.10: Baumdiagramm bei Maximum-Likelihood