Kanalcodierung/Informationstheoretische Grenzen der Kanalcodierung: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
Zeile 8: Zeile 8:
 
== Kanalcodierungstheorem und Kanalkapazität ==
 
== Kanalcodierungstheorem und Kanalkapazität ==
 
<br>
 
<br>
Wir betrachten weiterhin einen binären Blockcode mit <i>k</i> Informationsbits pro Block und Codeworte der Länge <i>n</i>, woraus sich die Coderate <i>R</i> = <i>k</i>/<i>n</i> mit der Einheit Informationsbit/Codesymbol ergibt.<br>
+
Wir betrachten weiterhin einen binären Blockcode mit $k$ Informationsbits pro Block und Codeworte der Länge $n$, woraus sich die Coderate $R=k/n$ mit der Einheit &bdquo;Informationsbit/Codesymbol&rdquo; ergibt.<br>
  
Der geniale Informationstheoretiker Claude E. Shannon hat sich schon 1948 sehr intensiv mit der Korrekturfähigkeit solcher Codes beschäftigt und hierfür für jeden Kanal eine Grenze angegeben, die sich allein aus informationstheoretischen Überlegungen ergibt. Bis heute wurde noch kein Code gefunden, der diese Grenze übersteigt, und dies wird auch so bleiben.<br>
+
Der geniale Informationstheoretiker [https://de.wikipedia.org/wiki/Claude_Shannon Claude E. Shannon] hat sich schon 1948 sehr intensiv mit der Korrekturfähigkeit solcher Codes beschäftigt und hierfür für jeden Kanal eine Grenze angegeben, die sich allein aus informationstheoretischen Überlegungen ergibt. Bis heute wurde noch kein Code gefunden, der diese Grenze übersteigt, und dies wird auch so bleiben.<br>
  
<b>Shannons Kanalcodierungstheorem</b>: Zu jedem Kanal mit der Kanalkapazität <i>C</i> &gt; 0 existiert stets (mindestens) ein Code, dessen Fehlerwahrscheinlichkeit gegen Null geht, so lange die Coderate kleiner als die Kanalkapazität ist: <i>R</i> &lt; <i>C</i>. Voraussetzung hierfür ist allerdings, dass für die Blocklänge dieses Codes gilt: <i>n</i> &#8594; &#8734;.<br>
+
{{BlaueBox|TEXT= 
 +
$\text{Shannons Kanalcodierungstheorem:}$&nbsp;  Zu jedem Kanal mit der Kanalkapazität $C > 0$ existiert stets (mindestens) ein Code, dessen Fehlerwahrscheinlichkeit gegen Null geht, so lange die Coderate $R$ kleiner als die Kanalkapazität $C$ ist. Voraussetzung hierfür ist allerdings, dass für die Blocklänge dieses Codes gilt: &nbsp; $n \to \infty$.}}<br>
  
 
Die Umkehrung ist ebenfalls zutreffend und besagt:<br>
 
Die Umkehrung ist ebenfalls zutreffend und besagt:<br>
  
<b>Umkehrschluss</b>: Ist die Coderate größer als die Kanalkapazität &nbsp;&#8658;&nbsp; <i>R &gt; C</i>, so kann eine beliebig kleine Fehlerwahrscheinlichkeit auf keinen Fall erreicht werden.<br>
+
{{BlaueBox|TEXT= 
 +
$\text{Umkehrschluss:}$&nbsp;  <b>Umkehrschluss</b>: Ist die Coderate $R$ größer als die Kanalkapazität $C$, so kann eine beliebig kleine Fehlerwahrscheinlichkeit auf keinen Fall erreicht werden.}}<br>
  
Zur Herleitung und Berechnung der Kanalkapazität gehen wir zunächst von einem digitalen Kanal mit <i>M<sub>x</sub></i> möglichen Eingangswerten <i>x<sub>i</sub></i> und <i>M<sub>y</sub></i> möglichen Ausgangswerten <i>y<sub>j</sub></i> aus.  Dann gilt für den mittleren Transinformationsgehalt  &ndash; kurz die Transinformation (englisch: <i>Mutual Information</i>)  &ndash; zwischen der Zufallsgröße <i>x</i> am Kanaleingang und der Zufallsgröße <i>y</i> am Ausgang:
+
Zur Herleitung und Berechnung der Kanalkapazität gehen wir zunächst von einem digitalen Kanal mit $M_x$ möglichen Eingangswerten $x$ und $M_y$ möglichen Ausgangswerten $y$ aus.  Dann gilt für den mittleren Transinformationsgehalt  &ndash; kurz die [[Informationstheorie/Verschiedene_Entropien_zweidimensionaler_Zufallsgrößen#Transinformation_zwischen_zwei_Zufallsgr.C3.B6.C3.9Fen|Transinformation]] (englisch: <i>Mutual Information</i>)  &ndash; zwischen der Zufallsgröße $x$ am Kanaleingang und der Zufallsgröße $y$ am Ausgang:
  
:<math>I(x; y) \hspace{-0.15cm}  = \hspace{-0.15cm} \sum_{i= 1 }^{M_X} \hspace{0.15cm}\sum_{j= 1 }^{M_Y} \hspace{0.15cm}{\rm Pr}(x_i, y_j) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i)}{{\rm Pr}(y_j)} = </math>
+
::<math>I(x; y) =\sum_{i= 1 }^{M_X} \hspace{0.15cm}\sum_{j= 1 }^{M_Y} \hspace{0.15cm}{\rm Pr}(x_i, y_j) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i)}{{\rm Pr}(y_j)} =  \sum_{i= 1 }^{M_X} \hspace{0.15cm}\sum_{j= 1 }^{M_Y}\hspace{0.15cm}{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i) \cdot {\rm Pr}(x_i) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i)}{\sum_{k= 1}^{M_X} {\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_k) \cdot {\rm Pr}(x_k)}
:<math>\hspace{1.2cm} =  \hspace{-0.15cm} \sum_{i= 1 }^{M_X} \hspace{0.15cm}\sum_{j= 1 }^{M_Y}\hspace{0.15cm}{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i) \cdot {\rm Pr}(x_i) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i)}{\sum_{k= 1}^{M_X} {\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_k) \cdot {\rm Pr}(x_k)}
 
 
  \hspace{0.05cm}.</math>
 
  \hspace{0.05cm}.</math>
  
Beim Übergang von der ersten zur zweiten Gleichung wurden dabei der [http://www.lntwww.de/Stochastische_Signaltheorie/Statistische_Abh%C3%A4ngigkeit_und_Unabh%C3%A4ngigkeit#Bedingte_Wahrscheinlichkeit_.281.29 Satz von Bayes] sowie der [http://www.lntwww.de/Stochastische_Signaltheorie/Statistische_Abh%C3%A4ngigkeit_und_Unabh%C3%A4ngigkeit#R.C3.BCckschlusswahrscheinlichkeit Satz von der totalen Wahrscheinlichkeit] berücksichtigt. Weiter ist anzumerken, dass hier der <i>Logarithmus dualis</i> mit &bdquo;log<sub>2</sub>&rdquo; bezeichnet ist. Teilweise verwenden wir im LNTwww hierfür auch &bdquo;ld&rdquo;. Im Gegensatz zum Buch Einführung in die Informationstheorie unterscheiden wir im Folgenden auch nicht zwischen der Zufallsgröße  (Großbuchstaben, <i>X</i> bzw. <i>Y</i>) und Realisierungen (Kleinbuchstaben, <i>x</i> bzw. <i>y</i>).<br>
+
Beim Übergang von der ersten zur zweiten Gleichung wurden dabei der [[Stochastische_Signaltheorie/Statistische_Abh%C3%A4ngigkeit_und_Unabh%C3%A4ngigkeit#Bedingte_Wahrscheinlichkeit_.281.29| Satz von Bayes]] sowie der [[Stochastische_Signaltheorie/Statistische_Abh%C3%A4ngigkeit_und_Unabh%C3%A4ngigkeit#R.C3.BCckschlusswahrscheinlichkeit| Satz von der totalen Wahrscheinlichkeit]] berücksichtigt. Weiter ist anzumerken:
 +
*Der <i>Logarithmus dualis</i> ist hier mit &bdquo;log<sub>2</sub>&rdquo; bezeichnet ist. Teilweise verwenden wir hierfür in unserem  Lerntutorial  auch &bdquo;ld&rdquo;.  
 +
*Im Gegensatz zum Buch [[Informationstheorie]] unterscheiden wir im Folgenden auch nicht zwischen der Zufallsgröße  (Großbuchstaben, $X$ bzw. $Y$) und Realisierungen (Kleinbuchstaben, $x$ bzw. $y$).<br>
  
{{Definition}}''':''' Die von Shannon eingeführte Kanalkapazität gibt die maximale Transinformation <i>I</i>(<i>x</i>; <i>y</i>) zwischen der Eingangsgröße <i>x</i> und der Ausgangsgröße <i>y</i> an:
+
{{BlaueBox|TEXT= 
 +
$\text{Definition:}$&nbsp;  Die von Shannon eingeführte '''Kanalkapazität''' gibt die maximale Transinformation $I(x; y)$ zwischen der Eingangsgröße $x$ und der Ausgangsgröße $y$ an:
  
:<math>C = \max_{{{\rm Pr}(x_i)}} \hspace{0.1cm} I(X; Y) \hspace{0.05cm}.</math>
+
::<math>C = \max_{{{\rm Pr}(x_i)}} \hspace{0.1cm} I(X; Y) \hspace{0.05cm}.</math>
  
Hinzugefügt werden muss die Pseudo&ndash;Einheit &bdquo;bit/Kanalzugriff&rdquo;.{{end}}<br>
+
Hinzugefügt werden muss die Pseudo&ndash;Einheit &bdquo;bit/Kanalzugriff&rdquo;.}}<br>
  
Da die Maximierung der Transinformation über alle möglichen (diskreten) Eingangsverteilungen Pr(<i>x<sub>i</sub></i>) erfolgen muss, ist die Kanalkapazität unabhängig vom Eingang und damit eine reine Kanalkenngröße.<br>
+
Da die Maximierung der Transinformation über alle möglichen (diskreten) Eingangsverteilungen ${\rm Pr}(x_i)$ erfolgen muss, ist die Kanalkapazität unabhängig vom Eingang und damit eine reine Kanalkenngröße.<br>
  
== Kanalkapazität des BSC–Modells (1) ==
+
== Kanalkapazität des BSC–Modells ==
 
<br>
 
<br>
 
Wenden wir diese Definitionen auf das [http://www.lntwww.de/Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC BSC&ndash;Modell] an:
 
Wenden wir diese Definitionen auf das [http://www.lntwww.de/Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC BSC&ndash;Modell] an:

Version vom 16. November 2017, 08:40 Uhr

Kanalcodierungstheorem und Kanalkapazität


Wir betrachten weiterhin einen binären Blockcode mit $k$ Informationsbits pro Block und Codeworte der Länge $n$, woraus sich die Coderate $R=k/n$ mit der Einheit „Informationsbit/Codesymbol” ergibt.

Der geniale Informationstheoretiker Claude E. Shannon hat sich schon 1948 sehr intensiv mit der Korrekturfähigkeit solcher Codes beschäftigt und hierfür für jeden Kanal eine Grenze angegeben, die sich allein aus informationstheoretischen Überlegungen ergibt. Bis heute wurde noch kein Code gefunden, der diese Grenze übersteigt, und dies wird auch so bleiben.

$\text{Shannons Kanalcodierungstheorem:}$  Zu jedem Kanal mit der Kanalkapazität $C > 0$ existiert stets (mindestens) ein Code, dessen Fehlerwahrscheinlichkeit gegen Null geht, so lange die Coderate $R$ kleiner als die Kanalkapazität $C$ ist. Voraussetzung hierfür ist allerdings, dass für die Blocklänge dieses Codes gilt:   $n \to \infty$.


Die Umkehrung ist ebenfalls zutreffend und besagt:

$\text{Umkehrschluss:}$  Umkehrschluss: Ist die Coderate $R$ größer als die Kanalkapazität $C$, so kann eine beliebig kleine Fehlerwahrscheinlichkeit auf keinen Fall erreicht werden.


Zur Herleitung und Berechnung der Kanalkapazität gehen wir zunächst von einem digitalen Kanal mit $M_x$ möglichen Eingangswerten $x$ und $M_y$ möglichen Ausgangswerten $y$ aus. Dann gilt für den mittleren Transinformationsgehalt – kurz die Transinformation (englisch: Mutual Information) – zwischen der Zufallsgröße $x$ am Kanaleingang und der Zufallsgröße $y$ am Ausgang:

\[I(x; y) =\sum_{i= 1 }^{M_X} \hspace{0.15cm}\sum_{j= 1 }^{M_Y} \hspace{0.15cm}{\rm Pr}(x_i, y_j) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i)}{{\rm Pr}(y_j)} = \sum_{i= 1 }^{M_X} \hspace{0.15cm}\sum_{j= 1 }^{M_Y}\hspace{0.15cm}{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i) \cdot {\rm Pr}(x_i) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i)}{\sum_{k= 1}^{M_X} {\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_k) \cdot {\rm Pr}(x_k)} \hspace{0.05cm}.\]

Beim Übergang von der ersten zur zweiten Gleichung wurden dabei der Satz von Bayes sowie der Satz von der totalen Wahrscheinlichkeit berücksichtigt. Weiter ist anzumerken:

  • Der Logarithmus dualis ist hier mit „log2” bezeichnet ist. Teilweise verwenden wir hierfür in unserem Lerntutorial auch „ld”.
  • Im Gegensatz zum Buch Informationstheorie unterscheiden wir im Folgenden auch nicht zwischen der Zufallsgröße (Großbuchstaben, $X$ bzw. $Y$) und Realisierungen (Kleinbuchstaben, $x$ bzw. $y$).

$\text{Definition:}$  Die von Shannon eingeführte Kanalkapazität gibt die maximale Transinformation $I(x; y)$ zwischen der Eingangsgröße $x$ und der Ausgangsgröße $y$ an:

\[C = \max_{{{\rm Pr}(x_i)}} \hspace{0.1cm} I(X; Y) \hspace{0.05cm}.\]

Hinzugefügt werden muss die Pseudo–Einheit „bit/Kanalzugriff”.


Da die Maximierung der Transinformation über alle möglichen (diskreten) Eingangsverteilungen ${\rm Pr}(x_i)$ erfolgen muss, ist die Kanalkapazität unabhängig vom Eingang und damit eine reine Kanalkenngröße.

Kanalkapazität des BSC–Modells


Wenden wir diese Definitionen auf das BSC–Modell an:

\[I(x; y) \hspace{-0.15cm} = \hspace{0.15cm} {\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 0) \cdot {\rm Pr}(x = 0) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 0)}{{\rm Pr}(y = 0)} + \] \[\hspace{1.2cm} + \hspace{0.15cm} {\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 0) \cdot {\rm Pr}(x = 0) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(Y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 0)}{{\rm Pr}(y = 1)} + \] \[\hspace{1.2cm} + \hspace{0.15cm}{\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 1) \cdot {\rm Pr}(x = 1) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(Y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 1)}{{\rm Pr}(y = 0)} + \] \[\hspace{1.2cm} + \hspace{0.15cm} {\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 1) \cdot {\rm Pr}(x = 1) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 1)}{{\rm Pr}(y = 1)} \hspace{0.05cm}.\]

Zur Kanalkapazität gelangt man durch folgende Überlegungen:

  • Die Maximierung bezüglich der Eingangsverteilung führt auf gleichwahrscheinliche Symbole:
\[{\rm Pr}(x = 0) = {\rm Pr}(x = 1) = 1/2 \hspace{0.05cm}.\]
  • Aufgrund der aus dem Modell erkennbaren Symmetrie gilt dann gleichzeitig:
\[{\rm Pr}(y = 0) = {\rm Pr}(y = 1) = 1/2 \hspace{0.05cm}.\]
  • Berücksichtigt man weiter die BSC–Übergangswahrscheinlichkeiten
\[{\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 0) \hspace{-0.15cm} = \hspace{-0.15cm} {\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 1) = \varepsilon \hspace{0.05cm},\]
\[{\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 0) \hspace{-0.15cm} = \hspace{-0.15cm} {\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 1) = 1-\varepsilon \hspace{0.05cm},\]
so erhält man nach Zusammenfassen je zweier Terme:
\[C \hspace{0.15cm} = \hspace{0.15cm} 2 \cdot 1/2 \cdot \varepsilon \cdot {\rm log_2 } \hspace{0.15cm}\frac{\varepsilon}{1/2 }+ 2 \cdot 1/2 \cdot (1- \varepsilon) \cdot {\rm log_2 } \hspace{0.15cm}\frac{1- \varepsilon}{1/2 } =\]
\[\hspace{0.7cm} = \hspace{0.15cm} \varepsilon \cdot {\rm ld } \hspace{0.15cm}2 - \varepsilon \cdot {\rm log_2 } \hspace{0.15cm} \frac{1}{\varepsilon }+ (1- \varepsilon) \cdot {\rm ld } \hspace{0.15cm} 2 - (1- \varepsilon) \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{1- \varepsilon} = 1 - H_{\rm bin}(\varepsilon) \]
mit
\[H_{\rm bin}(\varepsilon) = \varepsilon \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{\varepsilon}+ (1- \varepsilon) \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{1- \varepsilon}\hspace{0.05cm}.\]

Das Ergebnis wird auf der nächsten Seite grafisch dargestellt.

Kanalkapazität des BSC–Modells (2)


Die rechte Grafik zeigt die BSC–Kanalkapazität abhängig von der Verfälschungswahrscheinlichkeit ε. Links ist zum Vergleich die binäre Entropiefunktion dargestellt, die bereits im Kapitel 1.1 des Buches „Einführung in die Informationstheorie” definiert wurde.

Kanalkapazität des BSC–Modells

Man erkennt aus dieser Darstellung:

  • Die Verfälschungswahrscheinlichkeit ε führt zur Kanalkapazität C(ε). Eine fehlerfreie Decodierung nach bestmöglicher Codierung ist nach dem Kanalcodierungstheorem nur dann möglich, wenn die Coderate R kleiner ist als C(ε).
  • Mit ε = 10% ist wegen C(0.1) = 0.531 eine fehlerfreie Decodierung nicht möglich, wenn die Coderate R ≥ 0.531 beträgt. Bei 50–prozentiger Verfälschung ist eine fehlerfreie Decodierung auch bei beliebig kleiner Coderate unmöglich: C(0.5) = 0.
  • Aus informationstheoretischer Sicht ist ε = 1 (Invertierung aller Bits) gleich gut wie ε = 0 (fehlerfreie Übertragung). Ebenso ist ε = 0.9 äquivalent zu ε = 0.1. Eine fehlerfreie Decodierung erzielt man hier durch Vertauschen der Nullen und Einsen, also durch ein Mapping.

Kanalkapazität des AWGN–Modells (1)


AWGN–Kanalmodell


Wir betrachten den AWGN–Kanal (Additive White Gaussian Noise). Hier gilt für das Ausgangssignal y = x + n, wobei n eine gaußverteilte Zufallsgröße beschreibt, und es gilt E[n] = 0 und E[n2] = Pn.

Damit ergibt sich unabhängig vom Eingangssignal x ein kontinuierliches Ausgangssignal y, und in der Gleichung für die Transinformation ist My → ∞ einzusetzen.

Die Berechnung der Kanalkapazität für den AWGN–Kanal wird hier nur in Stichworten angegeben. Die genaue Herleitung finden Sie im Kapitel 4 des Buches „Einführung in die Informationstheorie”:

  • Die im Hinblick auf maximale Transinformation optimierte Eingangsgröße x wird mit Sicherheit wertkontinuierlich sein, das heißt, beim AWGN–Kanal gilt außer My → ∞ auch Mx → ∞.
  • Während bei wertdiskretem Eingang über alle Pr(xi) zu optimieren ist, erfolgt nun die Optimierung anhand der WDF fx(x) des Eingangssignals unter der Nebenbedingung Leistungsbegrenzung:
\[C = \max_{f_x(x)} \hspace{0.1cm} I(x; y)\hspace{0.05cm},\hspace{0.3cm}{\rm wobei \hspace{0.15cm} gelten \hspace{0.15cm} muss:}\hspace{0.15cm} {\rm E} \left [ x^2 \right ] \le P_x \hspace{0.05cm}.\]
  • Die Optimierung liefert für die Eingangs–WDF ebenfalls eine Gaußverteilung ⇒ x, n und y sind gaußverteilt gemäß den Dichtefunktionen fx(x), fn(n), fy(y) und den Leistungen Px, Pn und Py.
  • Nach längerer Rechnung erhält man für die Kanalkapazität unter Verwendung des Logarithmus dualis log2(.) – wiederum mit der Pseudo–Einheit „bit/Kanalzugriff”:
\[C = {\rm log_2 } \hspace{0.15cm} \sqrt{\frac{P_y}{P_n }} = {\rm log_2 } \hspace{0.15cm} \sqrt{\frac{P_x + P_n}{P_n }} = \frac{1}{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + \frac{P_x}{P_n } \right )\hspace{0.05cm}.\]
  • Beschreibt x ein zeitdiskretes Signal mit der Symbolrate 1/TS, so muss dieses auf B = 1/(2TS) bandbegrenzt sein, und die gleiche Bandbreite B muss man für das Rauschsignal n ansetzen:
\[P_X = \frac{E_{\rm S}}{T_{\rm S} } \hspace{0.05cm}, \hspace{0.4cm} P_N = \frac{N_0}{2T_{\rm S} }\hspace{0.05cm}. \]
  • Somit lässt sich die AWGN–Kanalkapazität auch durch die Sendeenergie pro Symbol (ES) und die Rauschleistungsdichte (N0) ausdrücken:
\[C \hspace{-0.15cm} = \hspace{-0.15cm} \frac{1}{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + \frac{2 E_{\rm S}}{N_0 } \right )\hspace{0.05cm}, \hspace{1.85cm} {\rm Einheit:} \hspace{0.3cm} \frac{\rm bit}{\rm Kanalzugriff}\hspace{0.05cm},\]
\[C^{\star} \hspace{-0.15cm} = \hspace{-0.15cm} \frac{C}{T_{\rm S} } = B \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + \frac{2 E_{\rm S}}{N_0 } \right )\hspace{0.05cm}, \hspace{0.8cm} {\rm Einheit:} \hspace{0.3cm} \frac{\rm bit}{\rm Zeiteinheit}\hspace{0.05cm}.\]
: Für das Zahlenverhältnis ES/N0 = 7.5 ⇒ 10 · lg ES/N0 = 8.75 dB erhält man die Kanalkapazität C = 1/2 · log2 (16) = 2 bit/Kanalzugriff. Bei einem Kanal mit der (physikalischen) Bandbreite B = 4 kHz, was der Abtastrate fA = 8 kHz entspricht, gilt zudem C* = 16 kbit/s.


Kanalkapazität des AWGN–Modells (2)


Ein Vergleich verschiedener Codierverfahren bei konstantem ES (Energie pro übertragenem Symbol) ist nicht fair. Vielmehr sollte man für diesen Vergleich die Energie EB pro Nutzbit fest vorgeben. Dabei gilt:

\[E_{\rm S} = R \cdot E_{\rm B} \hspace{0.3cm} \Rightarrow \hspace{0.3cm} E_{\rm B} = E_{\rm S} / R \hspace{0.05cm}. \]

Damit lautet das Kanalcodierungstheorem: Eine fehlerfreie Decodierung (bei unendlich langen Blöcken) ist möglich, falls die Coderate R kleiner ist als die Kanalkapazität C:

\[R < C = {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 +2 \cdot R\cdot E_{\rm B}/{N_0 } \right )\hspace{0.05cm}.\]

Für jede Coderate R lässt sich damit das erforderliche EB/N0 des AWGN–Kanals ermitteln, damit eine fehlerfreie Decodierung möglich ist. Man erhält für den Grenzfall R = C:

\[{E_{\rm B}}/{N_0} > (2^{2R}-1)/(2R ) \hspace{0.05cm}.\]

Die Grafik fasst das Ergebnis zusammen, wobei die Ordinate R im linearen Maßstab und die Abszisse EB/N0 logarithmisch aufgetragen ist. Außerhalb der blauen Fläche ist eine fehlerfreie Codierung nicht möglich. Die blaue Grenzkurve gibt die Kanalkapazität C des AWGN–Kanals an.

Kanalkapazität des AWGN–Kanals

Aus dieser Grafik und obiger Gleichung lässt sich Folgendes ableiten:

  • Die Kanalkapazität C steigt etwas weniger als linear mit 10 · lg EB/N0 an. In der Grafik sind einige ausgewählte Funktionswerte angegeben (blaue Kreuze).
  • Ist 10 · lg (EB/N0) kleiner als –1.59 dB, so ist eine fehlerfreie Decodierung prinzipiell unmöglich. Beträgt die Coderate R = 0.5, so muss 10 · lg (EB/N0) größer als 0 dB   ⇒   EB > N0 sein.
  • Für alle binären Codes gilt per se 0 ≤ R ≤ 1. Coderaten R > 1 sind nur mit nichtbinären Codes möglich. Beispielsweise beträgt die maximal mögliche Coderate eines quaternären Codes R = 2.
  • Alle eindimensionalen Modulationsarten – also solche Verfahren, die nur die Inphase– oder nur die Quadraturkomponente nutzen wie ASK, BPSK und FSK – müssen im blauen Bereich liegen.

AWGN–Kanalkapazität für binäre Eingangssignale


In diesem Buch beschränken wir uns meist auf binäre Codes, also auf das Galoisfeld GF(2n). Damit ist

  • zum einen die Coderate auf den Bereich R ≤ 1 begrenzt,
  • zum zweiten auch für R ≤ 1 nicht die gesamte blaue Region (siehe letzte Seite) verfügbar.

Bedingte Wahrscheinlichkeitsdichten des binären AWGN–Kanals

Die nun gültige Region ergibt sich aus der allgemeinen Gleichung der Transinformation durch

  • die Parameter Mx = 2 und My → ∞,
  • bipolare Signalisierung  ⇒  x = 0 → x̃ = +1,  x = 1 → x̃ = –1,
  • den Übergang von bedingten Wahrscheinlichkeiten Pr(i) zu bedingten Wahrscheinlichkeitsdichtefunktionen,
  • Ersetzen der Summe durch eine Integration.

Die Optimierung der Quelle führt auf gleichwahrscheinliche Symbole:

\[{\rm Pr}(\tilde{x} = +1) = {\rm Pr}(\tilde{x} = -1) = 1/2 \hspace{0.05cm}. \]

Damit erhält man bei binärem Eingang (±1) für die Kanalkapazität  ⇒  Maximum der Transinformation hinsichtlich Pr(i):

\[C \hspace{-0.15cm} = {1}/{2} \cdot \int_{-\infty }^{+ \infty} \left [ f_{y\hspace{0.05cm} |\hspace{0.05cm}\tilde{x} = +1}(y)\cdot {\rm log_2 } \hspace{0.15cm}\frac {f_{y\hspace{0.05cm} |\hspace{0.05cm}\tilde{x} = +1}(y)}{f_y(y)} + f_{y\hspace{0.05cm} |\hspace{0.05cm}\tilde{x} = -1}(y)\cdot {\rm log_2 } \hspace{0.15cm}\frac {f_{y\hspace{0.05cm} |\hspace{0.05cm}\tilde{x} = -1}(y)}{f_y(y)} \right ]\hspace{0.1cm}{\rm d}y \hspace{0.05cm}.\]

Das Integral lässt sich nicht in mathematisch–geschlossener Form lösen, sondern kann nur numerisch ausgewertet werden. Die grüne Kurve zeigt das Ergebnis. Die blaue Kurve gibt zum Vergleich die auf der letzten Seite hergeleitete Kanalkapazität für gaußverteilte Eingangssignale an. Man erkennt:

  • Für 10 · lg EB/N0 < 0 unterscheiden sich die beiden Kapazitätskurven nur geringfügig. So muss man bei binärem bipolaren Eingang gegenüber dem Optimum (Gaußscher Eingang) die Kenngröße 10 · lg EB/N0 nur etwa um 0.1 dB erhöhen, um ebenfalls die Coderate R = 0.5 zu ermöglichen.
  • Ab etwa 10 · lg EB/N0 = 6 dB ist die Kanalkapazität C = 1 bit/Kanalzugriff für binären Eingang (fast) erreicht. Dazwischen verläuft die grüne Grenzkurve annähernd exponentiell ansteigend.
AWGN–Kanalkapazität für binäre Eingangssignale

Gebräuchliche Kanalcodes im Vergleich zur Kanalkapazität (1)


Nun soll gezeigt werden, in wie weit sich etablierte Kanalcodes der BPSK–Kanalkapazität (grüne Kurve) annähern. In der Grafik ist als Ordinate die Rate R = k/n dieser Codes bzw. die Kapazität C (mit der zusätzlichen Pseudo–Einheit „bit/Kanalzugriff”) aufgetragen. Weiter ist vorausgesetzt:

  • der AWGN–Kanal, gekennzeichnet durch 10 · lg EB/N0 in dB, und
  • für die durch Kreuze markierten Codes eine Bitfehlerrate (BER) von 10–5.

Zu beachten ist, dass die Kanalkapazitätskurven stets für n → ∞ und BER = 0 gelten. Würde man diese strenge Forderung „feherfrei” auch an die betrachteten Kanalcodes endlicher Codelänge n anlegen, so wäre hierfür stets 10 · EB/N0 → ∞ erforderlich. Dies ist aber ein akademisches Problem, das für die Praxis wenig Bedeutung hat. Für BER = 10–10 ergäbe sich eine qualitativ ähnliche Grafik.

Raten und erforderliches EB/N0 verschiedener Kanalcodes

Es folgen einige Erläuterungen zu den Daten, die der Vorlesung [Liv10][1] entnommen wurden:

  • Die Punkte A, B und C markieren Hamming–Codes unterschiedlicher Rate, die im Kapitel 1.3 bereits ausführlich behandelt wurden. Sie alle benötigen 10 · lg EB/N0 > 8 dBfür BER = 10–5.
  • D kennzeichnet den binären Golay–Code mit der Rate 1/2 und E einen Reed–Muller–Code. Dieser sehr niederratige Code kam bereits 1971 bei der Raumsonde Mariner 9 zum Einsatz.
  • Die Reed–Solomon–Codes (RS–Codes) werden im Kapitel 2 noch ausführlich behandelt. Mit F markiert ist der RS–Code der Rate 223/255 > 0.9 und einem erforderlichen EB/N0 < 6 dB.
  • Die Markierungen G und H bezeichnen beispielhafte Faltungscodes (englisch: Convolutional Codes, CC) mittlerer Rate. Ersterer wurde schon 1972 bei der Pioneer10–Mission eingesetzt.
  • Die Kanalcodierung der Voyager–Mission Ende der 1970er Jahre ist mit I markiert. Es handelt sich um die Verkettung eines (2, 1, 7)–Faltungscodes mit einem Reed–Solomon–Code.

Anzumerken ist, dass bei den Faltungscodes insbesondere der dritte Parameter der Kennung eine andere Bedeutung hat als bei den Blockcodes. (2, 1, 32) weist beispielsweise auf das Memory m = 32 hin.

Auf der nächsten Seite folgen noch Kenndaten von Systemen mit iterativer Decodierung.

Gebräuchliche Kanalcodes im Vergleich zur Kanalkapazität (2)


Mit iterativer Decodierung lassen sich deutlich bessere Ergebnisse erzielen, wie die folgende Grafik zeigt. Das heißt: Die einzelnen Markierungspunkte liegen sehr viel näher an der Kapazitätskurve.

Raten und erforderliches EB/N0 für iterative Codierverfahren

Die bisher mit „Gauß–Kapazität” beschriftete durchgezogene blaue Kurve wird hier „Gauß (reell)” genannt. Hier noch einige weitere Erläuterungen zu dieser Grafik:

  • Rote Kreuze markieren sogenannte Turbocodes nach CCSDS (Consultative Committee for Space Data Systems) mit jeweils k = 6920 Informationsbits und unterschiedlichen Codelängen n. Diese von Claude Berrou um 1990 erfundenen Codes können iterativ decodiert werden. Die (roten) Markierungen liegen jeweils weniger als 1 dB von der Shannon–Grenze entfernt.
  • Ähnliches Verhalten zeigen die durch weiße Rechtecke gekennzeichneten LDPC–Codes (Low Density Parity–check Codes), die seit 2006 bei DVB–S2 (Digital Video Broadcast over Satellite) eingesetzt werden. Diese eignen sich aufgrund der spärlichen Belegung der Prüfmatrix H (mit Einsen) sehr gut für die iterative Decodierung mittels Faktor–Graphen und Exit Charts.
  • Die schwarzen Punkte markieren die von CCSDS spezifizierten LDPC–Codes, die alle von einer konstanten Anzahl von Informationsbits ausgehen (k = 16384). Dagegen ist bei allen weißen Rechtecken die Codelänge n = 64800 konstant, während sich die Anzahl k der Informationsbits entsprechend der Rate R = k/n ändert.
  • Um das Jahr 2000 hatten viele Forscher den Ehrgeiz, sich der Shannon–Grenze bis auf Bruchteile von einem dB anzunähern. Das gelbe Kreuz markiert ein solches Ergebnis aus [CFRU01] von 2001. Verwendet wurde ein irregulärer Rate–1/2–LDPC–Code der Codelänge n = 2 · 106.

Festzuhalten ist, dass Shannon bereits 1948 erkannt und nachgewiesen hat, dass kein eindimensionales Modulationsverfahren links von der durchgehend eingezeichneten AWGN–Grenzkurve „Gauß (reell)” liegen kann. Für zweidimensionale Verfahren wie QAM und mehrstufige PSK gilt dagegen die Grenzkurve „Gauß (komplex)”, die hier gestrichelt gezeichnet ist und stets links von der durchgezogenen Kurve liegt. Näheres hierzu im Kapitel 4.3 des Buches „Einführung in die Informationstheorie”.

Auch diese Grenzkurve wurde mit QAM und sehr langen Kanalcodes inzwischen nahezu erreicht, ohne dass sie jemals überschritten werden wird.

Aufgaben


A1.17 Coderate vs. EB/N0

Zusatzaufgaben:1.17 BPSK–Kanalkapazität

Quellenverzeichnis

  1. Liva, G.: Channel Coding. Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010.