Kanalcodierung/Informationstheoretische Grenzen der Kanalcodierung: Unterschied zwischen den Versionen
Ayush (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „ {{Header |Untermenü=Binäre Blockcodes zur Kanalcodierung |Vorherige Seite=Schranken für die Blockfehlerwahrscheinlichkeit |Nächste Seite=Einige Grundlage…“) |
Ayush (Diskussion | Beiträge) |
||
Zeile 33: | Zeile 33: | ||
Da die Maximierung der Transinformation über alle möglichen (diskreten) Eingangsverteilungen Pr(<i>x<sub>i</sub></i>) erfolgen muss, ist die Kanalkapazität unabhängig vom Eingang und damit eine reine Kanalkenngröße.<br> | Da die Maximierung der Transinformation über alle möglichen (diskreten) Eingangsverteilungen Pr(<i>x<sub>i</sub></i>) erfolgen muss, ist die Kanalkapazität unabhängig vom Eingang und damit eine reine Kanalkenngröße.<br> | ||
+ | |||
+ | == Kanalkapazität des BSC–Modells (1) == | ||
+ | <br> | ||
+ | Wenden wir diese Definitionen auf das BSC–Modell an: | ||
+ | |||
+ | :<math>I(x; y) \hspace{-0.15cm} = \hspace{0.15cm} {\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 0) \cdot {\rm Pr}(x = 0) | ||
+ | \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 0)}{{\rm Pr}(y = 0)} | ||
+ | + </math> | ||
+ | :<math>\hspace{1.2cm} + \hspace{0.15cm} {\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 0) \cdot {\rm Pr}(x = 0) | ||
+ | \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(Y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 0)}{{\rm Pr}(y = 1)} | ||
+ | + </math> | ||
+ | :<math>\hspace{1.2cm} + \hspace{0.15cm}{\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 1) \cdot {\rm Pr}(x = 1) | ||
+ | \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(Y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 1)}{{\rm Pr}(y = 0)} | ||
+ | + </math> | ||
+ | :<math>\hspace{1.2cm} + \hspace{0.15cm} {\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 1) \cdot {\rm Pr}(x = 1) | ||
+ | \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 1)}{{\rm Pr}(y = 1)} | ||
+ | \hspace{0.05cm}.</math> | ||
+ | |||
+ | Zur Kanalkapazität gelangt man durch folgende Überlegungen: | ||
+ | *Die Maximierung bezüglich der Eingangsverteilung führt auf gleichwahrscheinliche Symbole: | ||
+ | |||
+ | ::<math>{\rm Pr}(x = 0) = {\rm Pr}(x = 1) = 1/2 | ||
+ | \hspace{0.05cm}.</math> | ||
+ | |||
+ | *Aufgrund der aus dem Modell erkennbaren Symmetrie gilt dann gleichzeitig: | ||
+ | |||
+ | ::<math>{\rm Pr}(y = 0) = {\rm Pr}(y = 1) = 1/2 | ||
+ | \hspace{0.05cm}.</math> | ||
+ | |||
+ | *Berücksichtigt man weiter die BSC–Übergangswahrscheinlichkeiten | ||
+ | |||
+ | ::<math>{\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 0) \hspace{-0.15cm} = \hspace{-0.15cm} {\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 1) = \varepsilon \hspace{0.05cm},</math> | ||
+ | ::<math>{\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 0) \hspace{-0.15cm} = \hspace{-0.15cm} {\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 1) = 1-\varepsilon \hspace{0.05cm},</math> | ||
+ | |||
+ | :so erhält man nach Zusammenfassen je zweier Terme: | ||
+ | |||
+ | ::<math>C \hspace{0.15cm} = \hspace{0.15cm} 2 \cdot 1/2 \cdot \varepsilon \cdot {\rm log_2 } \hspace{0.15cm}\frac{\varepsilon}{1/2 }+ | ||
+ | 2 \cdot 1/2 \cdot (1- \varepsilon) \cdot {\rm log_2 } \hspace{0.15cm}\frac{1- \varepsilon}{1/2 } | ||
+ | =</math> | ||
+ | ::<math>\hspace{0.7cm} = \hspace{0.15cm} \varepsilon \cdot {\rm ld } \hspace{0.15cm}2 - \varepsilon \cdot {\rm log_2 } \hspace{0.15cm} \frac{1}{\varepsilon }+ (1- \varepsilon) \cdot {\rm ld } \hspace{0.15cm} 2 - (1- \varepsilon) \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{1- \varepsilon} = 1 - H_{\rm bin}(\varepsilon) </math> | ||
+ | |||
+ | :mit | ||
+ | |||
+ | ::<math>H_{\rm bin}(\varepsilon) = \varepsilon \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{\varepsilon}+ | ||
+ | (1- \varepsilon) \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{1- \varepsilon}\hspace{0.05cm}.</math> | ||
+ | |||
+ | Das Ergebnis wird auf der nächsten Seite grafisch dargestellt.<br> | ||
+ | |||
+ | == Kanalkapazität des BSC–Modells (2) == | ||
+ | <br> | ||
+ | Die rechte Grafik zeigt die BSC–Kanalkapazität abhängig von der Verfälschungswahrscheinlichkeit <i>ε</i>. Links ist zum Vergleich die binäre Entropiefunktion dargestellt, die bereits im Kapitel 1.1 des Buches „Einführung in die Informationstheorie” definiert wurde.<br> | ||
+ | |||
+ | [[Datei:P ID2379 KC T 1 7 S2 v2.png|Kanalkapazität des BSC–Modells|class=fit]]<br> | ||
+ | |||
+ | Man erkennt aus dieser Darstellung: | ||
+ | *Die Verfälschungswahrscheinlichkeit <i>ε</i> führt zur Kanalkapazität <i>C</i>(<i>ε</i>). Eine fehlerfreie Decodierung nach bestmöglicher Codierung ist nach dem Kanalcodierungstheorem nur dann möglich, wenn die Coderate <i>R</i> kleiner ist als <i>C</i>(<i>ε</i>). | ||
+ | |||
+ | *Mit <i>ε</i> = 10% ist wegen <i>C</i>(0.1) = 0.531 eine fehlerfreie Decodierung nicht möglich, wenn die Coderate <i>R</i> ≥ 0.531 beträgt. Bei 50–prozentiger Verfälschung ist eine fehlerfreie Decodierung auch bei beliebig kleiner Coderate unmöglich: <i>C</i>(0.5) = 0.<br> | ||
+ | |||
+ | *Aus informationstheoretischer Sicht ist <i>ε</i> = 1 (Invertierung aller Bits) gleich gut wie <i>ε</i> = 0 (fehlerfreie Übertragung). Ebenso ist <i>ε</i> = 0.9 äquivalent zu <i>ε</i> = 0.1. Eine fehlerfreie Decodierung erzielt man hier durch Vertauschen der Nullen und Einsen, also durch ein <i>Mapping</i>.<br> | ||
+ | |||
+ | == Kanalkapazität des AWGN–Modells (1) == | ||
+ | <br> | ||
+ | [[Datei:P ID2372 KC T 1 7 S3a.png|AWGN–Kanalmodell|rechts|rahmenlos]]<br> | ||
+ | |||
+ | Wir betrachten den AWGN–Kanal (<i>Additive White Gaussian Noise</i>). Hier gilt für das Ausgangssignal <i>y</i> = <i>x</i> + <i>n</i>, wobei <i>n</i> eine gaußverteilte Zufallsgröße beschreibt, und es gilt <i>E</i>[<i>n</i>] = 0 und <i>E</i>[<i>n</i><sup>2</sup>] = <i>P<sub>n</sub></i>.<br> | ||
+ | |||
+ | Damit ergibt sich unabhängig vom Eingangssignal <i>x</i> ein kontinuierliches Ausgangssignal <i>y</i>, und in der Gleichung für die Transinformation ist <i>M<sub>y</sub></i> → ∞ einzusetzen.<br> | ||
+ | |||
+ | Die Berechnung der Kanalkapazität für den AWGN–Kanal wird hier nur in Stichworten angegeben. Die genaue Herleitung finden Sie im Kapitel 4 des Buches „Einführung in die Informationstheorie”: | ||
+ | *Die im Hinblick auf maximale Transinformation optimierte Eingangsgröße <i>x</i> wird mit Sicherheit wertkontinuierlich sein, das heißt, beim AWGN–Kanal gilt außer <i>M<sub>y</sub></i> → ∞ auch <i>M<sub>x</sub></i> → ∞. | ||
+ | |||
+ | *Während bei wertdiskretem Eingang über alle Pr(<i>x<sub>i</sub></i>) zu optimieren ist, erfolgt nun die Optimierung anhand der WDF <i>f<sub>x</sub></i>(<i>x</i>) des Eingangssignals unter der Nebenbedingung Leistungsbegrenzung: | ||
+ | |||
+ | ::<math>C = \max_{f_x(x)} \hspace{0.1cm} I(x; y)\hspace{0.05cm},\hspace{0.3cm}{\rm wobei \hspace{0.15cm} gelten \hspace{0.15cm} muss:}\hspace{0.15cm} {\rm E} \left [ x^2 \right ] \le P_x \hspace{0.05cm}.</math> | ||
+ | |||
+ | *Die Optimierung liefert für die Eingangs–WDF ebenfalls eine Gaußverteilung ⇒ <i>x</i>, <i>n</i> und <i>y</i> sind gaußverteilt gemäß den Dichtefunktionen <i>f<sub>x</sub></i>(<i>x</i>), <i>f<sub>n</sub></i>(<i>n</i>), <i>f<sub>y</sub></i>(<i>y</i>) und den Leistungen <i>P<sub>x</sub></i>, <i>P<sub>n</sub></i> und <i>P<sub>y</sub></i>.<br> | ||
+ | |||
+ | *Nach längerer Rechnung erhält man für die Kanalkapazität unter Verwendung des <i>Logarithmus dualis</i> log<sub>2</sub>(.) – wiederum mit der Pseudo–Einheit „bit/Kanalzugriff”: | ||
+ | |||
+ | ::<math>C = {\rm log_2 } \hspace{0.15cm} \sqrt{\frac{P_y}{P_n }} = {\rm log_2 } \hspace{0.15cm} \sqrt{\frac{P_x + P_n}{P_n }} = \frac{1}{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + \frac{P_x}{P_n } \right )\hspace{0.05cm}.</math> | ||
+ | |||
+ | *Beschreibt <i>x</i> ein zeitdiskretes Signal mit der Symbolrate 1/<i>T</i><sub>S</sub>, so muss dieses auf <i>B</i> = 1/(2<i>T</i><sub>S</sub>) bandbegrenzt sein, und die gleiche Bandbreite <i>B</i> muss man für das Rauschsignal <i>n</i> ansetzen: | ||
+ | |||
+ | ::<math>P_X = \frac{E_{\rm S}}{T_{\rm S} } \hspace{0.05cm}, \hspace{0.4cm} P_N = \frac{N_0}{2T_{\rm S} }\hspace{0.05cm}. </math> | ||
+ | |||
+ | *Somit lässt sich die AWGN–Kanalkapazität auch durch die Sendeenergie pro Symbol (<i>E</i><sub>S</sub>) und die Rauschleistungsdichte (<i>N</i><sub>0</sub>) ausdrücken: | ||
+ | |||
+ | ::<math>C \hspace{-0.15cm} = \hspace{-0.15cm} \frac{1}{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + \frac{2 E_{\rm S}}{N_0 } \right )\hspace{0.05cm}, \hspace{1.85cm} | ||
+ | {\rm Einheit:} \hspace{0.3cm} \frac{\rm bit}{\rm Kanalzugriff}\hspace{0.05cm},</math> | ||
+ | ::<math>C^{\star} \hspace{-0.15cm} = \hspace{-0.15cm} \frac{C}{T_{\rm S} } = B \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + \frac{2 E_{\rm S}}{N_0 } \right )\hspace{0.05cm}, \hspace{0.8cm} | ||
+ | {\rm Einheit:} \hspace{0.3cm} \frac{\rm bit}{\rm Zeiteinheit}\hspace{0.05cm}.</math><br> | ||
+ | |||
+ | {{Beispiel}}''':''' Für das Zahlenverhältnis <i>E</i><sub>S</sub>/<i>N</i><sub>0</sub> = 7.5 ⇒ 10 · lg <i>E</i><sub>S</sub>/<i>N</i><sub>0</sub> = 8.75 dB erhält man die Kanalkapazität <b><i>C</i> = 1/2 · log<sub>2</sub> (16) = 2 bit/Kanalzugriff</b>. Bei einem Kanal mit der (physikalischen) Bandbreite <i>B</i> = 4 kHz, was der Abtastrate <i>f</i><sub>A</sub> = 8 kHz entspricht, gilt zudem <b><i>C</i>* = 16 kbit/s</b>.{{end}}<br> | ||
+ | |||
+ | == Kanalkapazität des AWGN–Modells (2) == | ||
+ | <br> | ||
+ | Ein Vergleich verschiedener Codierverfahren bei konstantem <i>E</i><sub>S</sub> (Energie pro übertragenem Symbol) ist nicht fair. Vielmehr sollte man für diesen Vergleich die Energie <i>E</i><sub>B</sub> pro Nutzbit fest vorgeben. Dabei gilt: | ||
+ | |||
+ | :<math>E_{\rm S} = R \cdot E_{\rm B} \hspace{0.3cm} \Rightarrow \hspace{0.3cm} | ||
+ | E_{\rm B} = E_{\rm S} / R \hspace{0.05cm}. </math> | ||
+ | |||
+ | Damit lautet das <i>Kanalcodierungstheorem</i>: Eine fehlerfreie Decodierung (bei unendlich langen Blöcken) ist möglich, falls die Coderate <i>R</i> kleiner ist als die Kanalkapazität <i>C</i>: | ||
+ | |||
+ | :<math>R < C = {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 +2 \cdot R\cdot E_{\rm B}/{N_0 } \right )\hspace{0.05cm}.</math> | ||
+ | |||
+ | Für jede Coderate <i>R</i> lässt sich damit das erforderliche <i>E</i><sub>B</sub>/<i>N</i><sub>0</sub> des AWGN–Kanals ermitteln, damit eine fehlerfreie Decodierung möglich ist. Man erhält für den Grenzfall <i>R</i> = <i>C</i>: | ||
+ | |||
+ | :<math>{E_{\rm B}}/{N_0} > (2^{2R}-1)/(2R ) \hspace{0.05cm}.</math> | ||
+ | |||
+ | Die Grafik fasst das Ergebnis zusammen, wobei die Ordinate <i>R</i> im linearen Maßstab und die Abszisse <i>E</i><sub>B</sub>/<i>N</i><sub>0</sub> logarithmisch aufgetragen ist. Außerhalb der blauen Fläche ist eine fehlerfreie Codierung nicht möglich. Die blaue Grenzkurve gibt die Kanalkapazität <i>C</i> des AWGN–Kanals an.<br> | ||
+ | |||
+ | [[Datei:P ID2373 KC T 1 7 S3b v3.png|Kanalkapazität des AWGN–Kanals|class=fit]]<br> | ||
+ | |||
+ | Aus dieser Grafik und obiger Gleichung lässt sich Folgendes ableiten: | ||
+ | *Die Kanalkapazität <i>C</i> steigt etwas weniger als linear mit 10 · lg <i>E</i><sub>B</sub>/<i>N</i><sub>0</sub> an. In der Grafik sind einige ausgewählte Funktionswerte angegeben (blaue Kreuze).<br> | ||
+ | |||
+ | *Ist 10 · lg (<i>E</i><sub>B</sub>/<i>N</i><sub>0</sub>) kleiner als –1.59 dB, so ist eine fehlerfreie Decodierung prinzipiell unmöglich. Beträgt die Coderate <i>R</i> = 0.5, so muss 10 · lg (<i>E</i><sub>B</sub>/<i>N</i><sub>0</sub>) größer als 0 dB ⇒ <i>E</i><sub>B</sub> > <i>N</i><sub>0</sub> sein.<br> | ||
+ | |||
+ | *Für alle binären Codes gilt per se 0 ≤ <i>R</i> ≤ 1. Coderaten <i>R</i> > 1 sind nur mit <i>nichtbinären</i> Codes möglich. Beispielsweise beträgt die maximal mögliche Coderate eines quaternären Codes <i>R</i> = 2.<br> | ||
+ | |||
+ | *Alle eindimensionalen Modulationsarten – also solche Verfahren, die nur die Inphase– oder nur die Quadraturkomponente nutzen wie ASK, BPSK und FSK – müssen im blauen Bereich liegen.<br> | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
{{Display}} | {{Display}} |
Version vom 10. Januar 2017, 18:27 Uhr
Inhaltsverzeichnis
Kanalcodierungstheorem und Kanalkapazität
Wir betrachten weiterhin einen binären Blockcode mit k Informationsbits pro Block und Codeworte der Länge n, woraus sich die Coderate R = k/n mit der Einheit Informationsbit/Codesymbol ergibt.
Der geniale Informationstheoretiker Claude E. Shannon hat sich schon 1948 sehr intensiv mit der Korrekturfähigkeit solcher Codes beschäftigt und hierfür für jeden Kanal eine Grenze angegeben, die sich allein aus informationstheoretischen Überlegungen ergibt. Bis heute wurde noch kein Code gefunden, der diese Grenze übersteigt, und dies wird auch so bleiben.
Shannons Kanalcodierungstheorem: Zu jedem Kanal mit der Kanalkapazität C > 0 existiert stets (mindestens) ein Code, dessen Fehlerwahrscheinlichkeit gegen Null geht, so lange die Coderate kleiner als die Kanalkapazität ist: R < C. Voraussetzung hierfür ist allerdings, dass für die Blocklänge dieses Codes gilt: n → ∞.
Die Umkehrung ist ebenfalls zutreffend und besagt:
Umkehrschluss: Ist die Coderate größer als die Kanalkapazität ⇒ R > C, so kann eine beliebig kleine Fehlerwahrscheinlichkeit auf keinen Fall erreicht werden.
Zur Herleitung und Berechnung der Kanalkapazität gehen wir zunächst von einem digitalen Kanal mit Mx möglichen Eingangswerten xi und My möglichen Ausgangswerten yj aus. Dann gilt für den mittleren Transinformationsgehalt – kurz die Transinformation (englisch: Mutual Information) – zwischen der Zufallsgröße x am Kanaleingang und der Zufallsgröße y am Ausgang:
\[I(x; y) \hspace{-0.15cm} = \hspace{-0.15cm} \sum_{i= 1 }^{M_X} \hspace{0.15cm}\sum_{j= 1 }^{M_Y} \hspace{0.15cm}{\rm Pr}(x_i, y_j) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i)}{{\rm Pr}(y_j)} = \] \[\hspace{1.2cm} = \hspace{-0.15cm} \sum_{i= 1 }^{M_X} \hspace{0.15cm}\sum_{j= 1 }^{M_Y}\hspace{0.15cm}{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i) \cdot {\rm Pr}(x_i) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i)}{\sum_{k= 1}^{M_X} {\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_k) \cdot {\rm Pr}(x_k)} \hspace{0.05cm}.\]
Beim Übergang von der ersten zur zweiten Gleichung wurden dabei der Satz von Bayes sowie der Satz von der totalen Wahrscheinlichkeit berücksichtigt. Weiter ist anzumerken, dass hier der Logarithmus dualis mit „log2” bezeichnet ist. Teilweise verwenden wir im LNTwww hierfür auch „ld”. Im Gegensatz zum Buch Einführung in die Informationstheorie unterscheiden wir im Folgenden auch nicht zwischen der Zufallsgröße (Großbuchstaben, X bzw. Y) und Realisierungen (Kleinbuchstaben, x bzw. y).
\[C = \max_{{{\rm Pr}(x_i)}} \hspace{0.1cm} I(X; Y) \hspace{0.05cm}.\]
Hinzugefügt werden muss die Pseudo–Einheit „bit/Kanalzugriff”.
Da die Maximierung der Transinformation über alle möglichen (diskreten) Eingangsverteilungen Pr(xi) erfolgen muss, ist die Kanalkapazität unabhängig vom Eingang und damit eine reine Kanalkenngröße.
Kanalkapazität des BSC–Modells (1)
Wenden wir diese Definitionen auf das BSC–Modell an:
\[I(x; y) \hspace{-0.15cm} = \hspace{0.15cm} {\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 0) \cdot {\rm Pr}(x = 0) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 0)}{{\rm Pr}(y = 0)} + \] \[\hspace{1.2cm} + \hspace{0.15cm} {\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 0) \cdot {\rm Pr}(x = 0) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(Y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 0)}{{\rm Pr}(y = 1)} + \] \[\hspace{1.2cm} + \hspace{0.15cm}{\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 1) \cdot {\rm Pr}(x = 1) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(Y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 1)}{{\rm Pr}(y = 0)} + \] \[\hspace{1.2cm} + \hspace{0.15cm} {\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 1) \cdot {\rm Pr}(x = 1) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 1)}{{\rm Pr}(y = 1)} \hspace{0.05cm}.\]
Zur Kanalkapazität gelangt man durch folgende Überlegungen:
- Die Maximierung bezüglich der Eingangsverteilung führt auf gleichwahrscheinliche Symbole:
- \[{\rm Pr}(x = 0) = {\rm Pr}(x = 1) = 1/2 \hspace{0.05cm}.\]
- Aufgrund der aus dem Modell erkennbaren Symmetrie gilt dann gleichzeitig:
- \[{\rm Pr}(y = 0) = {\rm Pr}(y = 1) = 1/2 \hspace{0.05cm}.\]
- Berücksichtigt man weiter die BSC–Übergangswahrscheinlichkeiten
- \[{\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 0) \hspace{-0.15cm} = \hspace{-0.15cm} {\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 1) = \varepsilon \hspace{0.05cm},\]
- \[{\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 0) \hspace{-0.15cm} = \hspace{-0.15cm} {\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 1) = 1-\varepsilon \hspace{0.05cm},\]
- so erhält man nach Zusammenfassen je zweier Terme:
- \[C \hspace{0.15cm} = \hspace{0.15cm} 2 \cdot 1/2 \cdot \varepsilon \cdot {\rm log_2 } \hspace{0.15cm}\frac{\varepsilon}{1/2 }+ 2 \cdot 1/2 \cdot (1- \varepsilon) \cdot {\rm log_2 } \hspace{0.15cm}\frac{1- \varepsilon}{1/2 } =\]
- \[\hspace{0.7cm} = \hspace{0.15cm} \varepsilon \cdot {\rm ld } \hspace{0.15cm}2 - \varepsilon \cdot {\rm log_2 } \hspace{0.15cm} \frac{1}{\varepsilon }+ (1- \varepsilon) \cdot {\rm ld } \hspace{0.15cm} 2 - (1- \varepsilon) \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{1- \varepsilon} = 1 - H_{\rm bin}(\varepsilon) \]
- mit
- \[H_{\rm bin}(\varepsilon) = \varepsilon \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{\varepsilon}+ (1- \varepsilon) \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{1- \varepsilon}\hspace{0.05cm}.\]
Das Ergebnis wird auf der nächsten Seite grafisch dargestellt.
Kanalkapazität des BSC–Modells (2)
Die rechte Grafik zeigt die BSC–Kanalkapazität abhängig von der Verfälschungswahrscheinlichkeit ε. Links ist zum Vergleich die binäre Entropiefunktion dargestellt, die bereits im Kapitel 1.1 des Buches „Einführung in die Informationstheorie” definiert wurde.
Man erkennt aus dieser Darstellung:
- Die Verfälschungswahrscheinlichkeit ε führt zur Kanalkapazität C(ε). Eine fehlerfreie Decodierung nach bestmöglicher Codierung ist nach dem Kanalcodierungstheorem nur dann möglich, wenn die Coderate R kleiner ist als C(ε).
- Mit ε = 10% ist wegen C(0.1) = 0.531 eine fehlerfreie Decodierung nicht möglich, wenn die Coderate R ≥ 0.531 beträgt. Bei 50–prozentiger Verfälschung ist eine fehlerfreie Decodierung auch bei beliebig kleiner Coderate unmöglich: C(0.5) = 0.
- Aus informationstheoretischer Sicht ist ε = 1 (Invertierung aller Bits) gleich gut wie ε = 0 (fehlerfreie Übertragung). Ebenso ist ε = 0.9 äquivalent zu ε = 0.1. Eine fehlerfreie Decodierung erzielt man hier durch Vertauschen der Nullen und Einsen, also durch ein Mapping.
Kanalkapazität des AWGN–Modells (1)
Wir betrachten den AWGN–Kanal (Additive White Gaussian Noise). Hier gilt für das Ausgangssignal y = x + n, wobei n eine gaußverteilte Zufallsgröße beschreibt, und es gilt E[n] = 0 und E[n2] = Pn.
Damit ergibt sich unabhängig vom Eingangssignal x ein kontinuierliches Ausgangssignal y, und in der Gleichung für die Transinformation ist My → ∞ einzusetzen.
Die Berechnung der Kanalkapazität für den AWGN–Kanal wird hier nur in Stichworten angegeben. Die genaue Herleitung finden Sie im Kapitel 4 des Buches „Einführung in die Informationstheorie”:
- Die im Hinblick auf maximale Transinformation optimierte Eingangsgröße x wird mit Sicherheit wertkontinuierlich sein, das heißt, beim AWGN–Kanal gilt außer My → ∞ auch Mx → ∞.
- Während bei wertdiskretem Eingang über alle Pr(xi) zu optimieren ist, erfolgt nun die Optimierung anhand der WDF fx(x) des Eingangssignals unter der Nebenbedingung Leistungsbegrenzung:
- \[C = \max_{f_x(x)} \hspace{0.1cm} I(x; y)\hspace{0.05cm},\hspace{0.3cm}{\rm wobei \hspace{0.15cm} gelten \hspace{0.15cm} muss:}\hspace{0.15cm} {\rm E} \left [ x^2 \right ] \le P_x \hspace{0.05cm}.\]
- Die Optimierung liefert für die Eingangs–WDF ebenfalls eine Gaußverteilung ⇒ x, n und y sind gaußverteilt gemäß den Dichtefunktionen fx(x), fn(n), fy(y) und den Leistungen Px, Pn und Py.
- Nach längerer Rechnung erhält man für die Kanalkapazität unter Verwendung des Logarithmus dualis log2(.) – wiederum mit der Pseudo–Einheit „bit/Kanalzugriff”:
- \[C = {\rm log_2 } \hspace{0.15cm} \sqrt{\frac{P_y}{P_n }} = {\rm log_2 } \hspace{0.15cm} \sqrt{\frac{P_x + P_n}{P_n }} = \frac{1}{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + \frac{P_x}{P_n } \right )\hspace{0.05cm}.\]
- Beschreibt x ein zeitdiskretes Signal mit der Symbolrate 1/TS, so muss dieses auf B = 1/(2TS) bandbegrenzt sein, und die gleiche Bandbreite B muss man für das Rauschsignal n ansetzen:
- \[P_X = \frac{E_{\rm S}}{T_{\rm S} } \hspace{0.05cm}, \hspace{0.4cm} P_N = \frac{N_0}{2T_{\rm S} }\hspace{0.05cm}. \]
- Somit lässt sich die AWGN–Kanalkapazität auch durch die Sendeenergie pro Symbol (ES) und die Rauschleistungsdichte (N0) ausdrücken:
- \[C \hspace{-0.15cm} = \hspace{-0.15cm} \frac{1}{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + \frac{2 E_{\rm S}}{N_0 } \right )\hspace{0.05cm}, \hspace{1.85cm} {\rm Einheit:} \hspace{0.3cm} \frac{\rm bit}{\rm Kanalzugriff}\hspace{0.05cm},\]
- \[C^{\star} \hspace{-0.15cm} = \hspace{-0.15cm} \frac{C}{T_{\rm S} } = B \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + \frac{2 E_{\rm S}}{N_0 } \right )\hspace{0.05cm}, \hspace{0.8cm}
{\rm Einheit:} \hspace{0.3cm} \frac{\rm bit}{\rm Zeiteinheit}\hspace{0.05cm}.\]
Kanalkapazität des AWGN–Modells (2)
Ein Vergleich verschiedener Codierverfahren bei konstantem ES (Energie pro übertragenem Symbol) ist nicht fair. Vielmehr sollte man für diesen Vergleich die Energie EB pro Nutzbit fest vorgeben. Dabei gilt:
\[E_{\rm S} = R \cdot E_{\rm B} \hspace{0.3cm} \Rightarrow \hspace{0.3cm} E_{\rm B} = E_{\rm S} / R \hspace{0.05cm}. \]
Damit lautet das Kanalcodierungstheorem: Eine fehlerfreie Decodierung (bei unendlich langen Blöcken) ist möglich, falls die Coderate R kleiner ist als die Kanalkapazität C:
\[R < C = {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 +2 \cdot R\cdot E_{\rm B}/{N_0 } \right )\hspace{0.05cm}.\]
Für jede Coderate R lässt sich damit das erforderliche EB/N0 des AWGN–Kanals ermitteln, damit eine fehlerfreie Decodierung möglich ist. Man erhält für den Grenzfall R = C:
\[{E_{\rm B}}/{N_0} > (2^{2R}-1)/(2R ) \hspace{0.05cm}.\]
Die Grafik fasst das Ergebnis zusammen, wobei die Ordinate R im linearen Maßstab und die Abszisse EB/N0 logarithmisch aufgetragen ist. Außerhalb der blauen Fläche ist eine fehlerfreie Codierung nicht möglich. Die blaue Grenzkurve gibt die Kanalkapazität C des AWGN–Kanals an.
Aus dieser Grafik und obiger Gleichung lässt sich Folgendes ableiten:
- Die Kanalkapazität C steigt etwas weniger als linear mit 10 · lg EB/N0 an. In der Grafik sind einige ausgewählte Funktionswerte angegeben (blaue Kreuze).
- Ist 10 · lg (EB/N0) kleiner als –1.59 dB, so ist eine fehlerfreie Decodierung prinzipiell unmöglich. Beträgt die Coderate R = 0.5, so muss 10 · lg (EB/N0) größer als 0 dB ⇒ EB > N0 sein.
- Für alle binären Codes gilt per se 0 ≤ R ≤ 1. Coderaten R > 1 sind nur mit nichtbinären Codes möglich. Beispielsweise beträgt die maximal mögliche Coderate eines quaternären Codes R = 2.
- Alle eindimensionalen Modulationsarten – also solche Verfahren, die nur die Inphase– oder nur die Quadraturkomponente nutzen wie ASK, BPSK und FSK – müssen im blauen Bereich liegen.