Kanalcodierung/Codebeschreibung mit Zustands– und Trellisdiagramm: Unterschied zwischen den Versionen
Ayush (Diskussion | Beiträge) |
Ayush (Diskussion | Beiträge) |
||
Zeile 178: | Zeile 178: | ||
*Einen Faltungscodierer mit diesen Eigenschaften bezeichnet man als <i>katastrophal</i>. Der Grund für dieses extrem ungünstige Verhalten ist, dass hier 1+<i>D</i> und 1+<i>D</i><sup>2</sup> nicht teilerfemd sind.{{end}}<br> | *Einen Faltungscodierer mit diesen Eigenschaften bezeichnet man als <i>katastrophal</i>. Der Grund für dieses extrem ungünstige Verhalten ist, dass hier 1+<i>D</i> und 1+<i>D</i><sup>2</sup> nicht teilerfemd sind.{{end}}<br> | ||
+ | == Terminierte Faltungscodes == | ||
+ | <br> | ||
+ | Bei der theoretischen Beschreibung der Faltungscodes geht man stets von Informationssequenzen <u><i>u</i></u> und Codesequenzen <u><i>x</i></u> aus, die per Definition unendlich lang sind. In praktischen Anwendungen, siehe zum Beispiel GSM und UMTS verwendet man dagegen stets eine Informationssequenz endlicher Länge <i>L</i>. Bei einem Rate–1/<i>n</i>–Faltungscode hat dann die Codesequenz mindestens die Länge <i>n</i> · <i>L</i>.<br> | ||
+ | [[Datei:P ID2641 KC T 3 3 S5 v2.png| Terminierter Faltungscode der Rate <i>R</i> = 128/260|class=fit]]<br> | ||
+ | Die Grafik zeigt ohne Hinterlegung das Trellis unseres Standard–Rate–1/2–Faltungscodes bei binärer Eingangsfolge <u><i>u</i></u> der endlichen Länge <i>L</i> = 128. Damit hat die Codefolge <u><i>x</i></u> die Länge 2 · <i>L</i> = 256. Aufgrund des undefinierten Endzustands ist eine vollständige Maximum–Likelihood–Decodierung der gesendeten Folge allerdings nicht möglich. Da man nicht weiß, welcher der Zustände <i>S</i><sub>0</sub>, ... , <i>S</i><sub>3</sub> sich für <i>i</i> > <i>L</i> einstellen würden, wird die Fehlerwahrscheinlichkeit (etwas) größer sein als im Grenzfall <i>L</i> → ∞.<br> | ||
+ | |||
+ | Um dies zu verhindern, terminiert man den Faltungscode entsprechend der Hinterlegung in obiger Grafik: | ||
+ | *Man fügt an die <i>L</i> = 128 Informationsbits noch <i>m</i> = 2 Nullen an ⇒ <i>L</i>' = 130. | ||
+ | |||
+ | *Damit ergibt sich beispielsweise für den farblich hervorgehobenen Pfad durch das Trellis: | ||
+ | |||
+ | ::<math>\underline{x}' = (11\hspace{0.05cm},\hspace{0.05cm} 01\hspace{0.05cm},\hspace{0.05cm} 01\hspace{0.05cm},\hspace{0.05cm} 00 \hspace{0.05cm},\hspace{0.05cm} ...\hspace{0.1cm},\hspace{0.05cm} 10\hspace{0.05cm},\hspace{0.05cm}00\hspace{0.05cm},\hspace{0.05cm} 01\hspace{0.05cm},\hspace{0.05cm} 01\hspace{0.05cm},\hspace{0.05cm} 11 \hspace{0.05cm} ) </math> | ||
+ | |||
+ | ::<math>\Rightarrow \hspace{0.3cm}\underline{u}' = (1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1 \hspace{0.05cm},\hspace{0.05cm} ...\hspace{0.1cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 0 \hspace{0.05cm} ) \hspace{0.05cm}.</math> | ||
+ | |||
+ | *Das Trellis endet nun stets (also unabhängig von den Daten) im definierten Endzustand <i>S</i><sub>0</sub> und man erreicht so die bestmögliche Fehlerwahrscheinlichkeit entsprechend Maximum–Likelihood.<br> | ||
+ | |||
+ | *Die Verbesserung hinsichtlich der Fehlerwahrscheinlichkeit erkauft man sich allerdings auf Kosten einer kleineren Coderate. Gilt <i>L</i> >> <i>m</i>, so ist dieser Verlust nur gering. Im betrachteten Beispiel ergibt sich mit Terminierung die Coderate <i>R</i><sub> </sub>' = 0.5 · <i>L</i>/(<i>L</i> + <i>m</i>) ≈ 0.492 anstelle von <i>R</i> = 0.5.<br> | ||
Version vom 15. Januar 2017, 19:24 Uhr
Inhaltsverzeichnis
- 1 Zustandsdefinition für ein Speicherregister (1)
- 2 Zustandsdefinition für ein Speicherregister (2)
- 3 Darstellung im Zustandsübergangsdiagramm (1)
- 4 Darstellung im Zustandsübergangsdiagramm (2)
- 5 Darstellung im Trellisdiagramm (1)
- 6 Darstellung im Trellisdiagramm (2)
- 7 Definition der freien Distanz (1)
- 8 Definition der freien Distanz (2)
- 9 Terminierte Faltungscodes
Zustandsdefinition für ein Speicherregister (1)
Ein Faltungscodierer kann auch als Automat mit endlicher Anzahl von Zuständen aufgefasst werden. Die Zustandsanzahl ergibt sich dabei aus der Zahl der Speicherelemente ⇒ Gedächtnis m zu 2m.
Im Kapitel 3.3 gehen wir meist vom gezeichneten Faltungscodierer aus, der durch folgende Kenngrößen charakterisiert wird:
- k = 1, n = 2 ⇒ Coderate R = 1/2,
- Gedächtnis m = 2 ⇒ Einflusslänge ν = 3,
- Übertragungsfunktionsmatrix in Oktalform (7, 5) ⇒ G(D) =(1 + D + D2, 1 + D2).
Die Codesequenz zum Zeitpunkt i ⇒ xi = (xi(1), xi(2)) hängt außer vom Informationsbit ui auch vom Inhalt (ui–1, ui–2) des Speichers ab. Hierfür gibt es 2m = 4 Möglichkeiten, die man als die Zustände S0, S1, S2 und S3 bezeichnet. Der Registerzustand Sμ sei dabei über den Index definiert:
\[\mu = u_{i-1} + 2 \cdot u_{i-2}\hspace{0.05cm}, \hspace{0.5cm}{\rm allgemein\hspace{-0.1cm}:}\hspace{0.15cm} \mu = \sum_{l = 1}^{m} \hspace{0.1cm}2\hspace{0.03cm}^{l-1} \cdot u_{i-l} \hspace{0.05cm}.\]
Im Englischen verwendet man für „Zustand” den Begriff State. Entsprechend ist auch im deutschen Text manchmal vom Registerstatus die Rede.
Um Verwechslungen zu vermeiden, unterscheiden wir im Weiteren durch Groß– bzw. Kleinbuchstaben:
- die möglichen Zustände Sμ mit den Indizes 0 ≤ μ ≤ 2m – 1,
- die aktuellen Zustände si zu den Zeitpunkten i = 1, 2, 3, ....
Auf der nächsten Seite verdeutlichen wir die Zustände an einem Beispiel.
Zustandsdefinition für ein Speicherregister (2)
- der Informationssequenz u ⇒ Informationsbits ui,
- der aktuellen Zustände si ∈ {S0, S1, S2, S3} zu den Zeitpunkten i, sowie
- der jeweiligen Codesequenzen xi = (xi(1), xi(2)).
Die Farbkennzeichnungen sollen den Übergang zu den nachfolgenden Grafiken auf den nächsten Seiten erleichtern. Man erkennt aus obiger Darstellung beispielsweise:
- Zum Zeitpunkt i = 5 gilt ui–1 = u4 = 0, ui–2 = u3 = 1. Das heißt, der Automat befindet sich im Zustand s5 = S2. Mit dem Informationsbit ui = u5 = 0 erhält man die Codesequenz x5 = (11).
- Der Zustand für den Zeitpunkt i = 6 ergibt sich aus ui–1 = u5 = 0 und ui–2 = u4 = 0 zu s6 = S0. Wegen u6 = 0 wird nun x6 = (00) ausgegeben und der neue Zustand s7 ist wiederum S0.
- Auch zum Zeitpunkt i = 12 wird wegen u12 = 0 die Codesequenz x12 = (11) ausgegeben und man geht vom Zustand s12 = S2 in den Zustand s13 = S0 über.
- Dagegen wird zum Zeitpunkt i = 9 die Codesequenz (00) ausgegeben und auf s9 = S2 folgt s10 = S1. Gleiches gilt auch für i = 15. In beiden Fällen lautet das aktuelle Informationsbit ui = 1.
Aus diesem Beispiel ist zu erkennen, dass die Codesequenz xi zum Zeitpunkt i allein
- vom aktuellen Zustand si = Sμ (0 ≤ μ ≤ 2m – 1), sowie
- vom aktuellen Informationsbit ui
abhängt. Ebenso wird der Nachfolgezustand si+1 allein durch si und ui bestimmt. Diese Eigenschaften werden im so genannten Zustandsübergangsdiagramm auf der nächsten Seite berücksichtigt.
Darstellung im Zustandsübergangsdiagramm (1)
Die Grafik zeigt das Zustandsübergangsdiagramm (englisch: State Transition Diagram) für unseren Standardcodierer. Dieses liefert alle Informationen über den (n = 2, k = 1, m = 2)–Faltungscodierer in kompakter Form. Die Farbgebung ist mit der sequenziellen Darstellung auf der vorherigen Seite abgestimmt. Der Vollständigkeit halber ist auch die Herleitungstabelle nochmals angegeben.
Die 2m+k Übergänge sind mit „ui | xi” beschriftet. Beispielsweise ist abzulesen:
- Durch das Informationsbit ui = 0 (gekennzeichnet durch eine rote Beschriftung) gelangt man vom Zustand si = S1 zum Zustand si+1 = S2 und die beiden Codebits lauten xi(1) = 1, xi(2) = 0.
- Mit dem Informationsbit ui = 1 (blaue Beschriftung) im Zustand si = S1 ergeben sich dagegen die Codebits zu xi(1) = 0, xi(2) = 1, und man kommt zum neuen Zustand si+1 = S3.
Die Struktur des Zustandsübergangsdiagramms ist allein durch die Parameter m und k festgelegt:
- Die Anzahl der Zustände ist 2m · k.
- Von jedem Zustand gehen 2k Pfeile ab.
Ein weiteres Beispiel folgt auf der nächsten Seite.
Darstellung im Zustandsübergangsdiagramm (2)
Die obere Grafik zeigt nochmals das Zustandsübergangsdiagramm für unseren Standardcodierer. Dieses dient lediglich als Vergleichsgrundlage für das nachfolgende Beispiel.
Die untere Grafik gilt für einen systematischen Code, ebenfalls mit den Kenngrößen n = 2, k = 1, m = 2. Es handelt sich um die äquivalente systematische Repräsentation des obigen Codierers. Man bezeichnet diesen auch als RSC–Codierer (englisch: Recursive Systematic Convolutional Encoder).
Gegenüber dem oberen Zustandsübergangsdiagramm erkennt man folgende Unterschiede:
- Da die früheren Informationsbits ui–1 und ui–2 nicht abgespeichert werden, beziehen sich hier die Zustände si = Sμ auf die verarbeiteten Größen wi–1 und wi–2, wobei wi = ui + wi–1 + wi–2 gilt.
- Da dieser Code systematisch ist, gilt xi(1) = ui. Die Herleitung der zweiten Codebits xi(2) finden Sie in Aufgabe A3.5. Es handelt sich um ein rekursives Filter, wie in Kapitel 3.2 beschrieben.
Der Bildervergleich zeigt, dass sich für beide Codierer ein ähnliches Zustandsübergangsdiagramm ergibt:
- Man gelangt von jedem Zustand si ∈ {S0, S1, S2,S3} zu den gleichen Nachfolgezuständen si+1.
- Ein Unterschied besteht hinsichtlich der ausgegebenen Codesequenzen xi ∈ {00, 01, 10, 11}.
Darstellung im Trellisdiagramm (1)
Man kommt vom Zustandsübergangsdiagramm zum so genannten Trellisdiagramm (oder kurz: Trellis), indem man zusätzlich eine Zeitkomponente ⇒ Laufvariable i berücksichtigt. Die folgende Grafik stellt die beiden Diagramme für unseren Standardcodierer (n = 2, k = 1, m = 2) gegenüber.
Die untere Darstellung hat Ähnlichkeit mit einem Gartenspalier – etwas Phantasie vorausgesetzt. Die englische Übersetzung hierfür ist „Trellis”. Weiter ist anhand dieser Grafik zu erkennen:
- Da alle Speicherregister mit Nullen vorbelegt sind, startet das Trellis stets vom Zustand s1 = S0. Zum nächsten Zeitpunkt (i = 2) sind dann nur die beiden Zustände S0 und S1 möglich.
- Ab dem Zeitpunkt i = m + 1 = 3 hat das Trellis für jeden Übergang von si nach si+1 genau das gleiche Aussehen. Jeder Zustand Sμ ist durch einen roten Pfeil (ui = 0) und einen blauen Pfeil (ui = 1) mit einem Nachfolgezustand verbunden.
- Gegenüber einem Codebaum, der mit jedem Zeitschritt i exponentiell anwächst – siehe zum Beispiel Kapitel 3.8, Seite 2a im Buch „Digitalsignalübertragung” – ist hier die Zahl der Knoten (also der möglichen Zustände) auf 2m begrenzt.
- Diese erfreuliche Eigenschaft eines jeden Trellisdiagramms nutzt auch der Viterbi–Algorithmus zur effizienten Maximum–Likelihood–Decodierung von Faltungscodes.
Darstellung im Trellisdiagramm (2)
Das folgende Beispiel soll zeigen, dass zwischen der Aneinanderreihung der Codesequenzen xi und den Pfaden durch das Trellisdiagramm eine 1:1–Zuordnung besteht. Auch die Informationssequenz u ist aus dem ausgewählten Trellispfad anhand der Farben der einzelnen Zweige ablesbar. Ein roter Zweig steht für das Informationsbit ui = 0, ein blauer für ui = 1.
Darunter gezeichnet ist das Trellisdiagramm. Man erkennt:
- Der ausgewählte Pfad durch das Trellis ergibt sich durch die Aneinanderreihung roter und blauer Pfeile, die für die möglichen Informationsbits ui = 0 bzw. ui = 1 stehen. Diese Aussage gilt für jeden Rate–1/n–Faltungscode. Bei einem Code mit k > 1 gäbe es 2k verschiedenfarbige Pfeile.
- Bei einem Rate–1/n–Faltungscode sind die Pfeile mit den Codeworten xi = (xi(1), ... , (xi(n)) beschriftet, die sich aus dem Informationsbit ui und den aktuellen Registerzuständen si ergeben. Für n = 2 gibt es nur vier mögliche Codeworte, nämlich 00, 01, 10 und 11.
- In vertikaler Richtung erkennt man aus dem Trellis die möglichen Registerzustände Sμ. Bei einem Rate–k/n–Faltungscode mit der Gedächtnisordnung m gibt es 2k · m verschiedene Zustände. Im vorliegenden Beispiel (k = 1, m = 2) sind dies nur die Zustände S0, S1, S2 und S3.
Definition der freien Distanz (1)
Als eine wichtige Kenngröße der linearen Blockcodes wurde in Kapitel 1.1 die minimale Hamming–Distanz zwischen zwei beliebigen Codeworten x und x' eingeführt:
\[d_{\rm min}(\mathcal{C}) = \min_{\substack{\underline{x},\hspace{0.05cm}\underline{x}' \hspace{0.05cm}\in \hspace{0.05cm} \mathcal{C} \\ {\underline{x}} \hspace{0.05cm}\ne \hspace{0.05cm} \underline{x}'}}\hspace{0.1cm}d_{\rm H}(\underline{x}, \hspace{0.05cm}\underline{x}')\hspace{0.05cm}.\]
Aufgrund der Linearität gehört zu jedem Blockcode auch das Nullwort 0. Damit ist dmin auch gleich dem minimalen Hamming–Gewicht wH (x) eines Codewortes x ≠ 0.
Bei Faltungscodes erweist sich die Beschreibung der Distanzverhältnisse als wesentlich aufwändiger, da ein Faltungscode aus unendlich langen und unendlich vielen Codesequenzen besteht.
Da Faltungscodes ebenfalls linear sind, kann man auch hier als Bezugssequenz die unendlich lange Nullsequenz heranziehen: x = 0. Damit ist die freie Distanz dF gleich dem minimalen Hamming–Gewicht (Anzahl der Einsen) einer Codesequenz x ≠ 0.
\[\underline{0} \hspace{-0.15cm} = \hspace{-0.15cm} \left ( S_0 \rightarrow S_0 \rightarrow S_0\rightarrow S_0\rightarrow S_0\rightarrow \hspace{0.05cm}... \hspace{0.05cm}\right)= \left ( 00, 00, 00, 00, 00,\hspace{0.05cm} ... \hspace{0.05cm}\right) \hspace{0.05cm},\] \[\underline{x} \hspace{-0.15cm} = \hspace{-0.15cm} \left ( S_0 \rightarrow S_1 \rightarrow S_2\rightarrow S_0\rightarrow S_0\rightarrow \hspace{0.05cm}... \hspace{0.05cm}\right)= \left ( 11, 10, 11, 00, 00,\hspace{0.05cm} ... \hspace{0.05cm}\right) \hspace{0.05cm},\] \[\underline{x}' \hspace{-0.15cm} = \hspace{-0.15cm} \left ( S_0 \rightarrow S_1 \rightarrow S_3\rightarrow S_2\rightarrow S_0\rightarrow \hspace{0.05cm}... \hspace{0.05cm}\right)= \left ( 11, 01, 01, 11, 00,\hspace{0.05cm} ... \hspace{0.05cm}\right) \hspace{0.05cm}.\]
Man erkennt aus diesen Darstellungen:
- Die freie Distanz dF = 5 ist gleich dem Hamming–Gewicht wH(x). Keine andere Sequenz als die gelb hinterlegte unterscheidet sich von 0 um weniger als 5 Bit. Beispielsweise ist wH(x′) = 6.
- In diesem Beispiel ergibt sich die freie Distanz dF = 5 auch als die Hamming–Distanz zwischen den Sequenzen x und x′, die sich genau in fünf Bitpositionen unterscheiden.
Definition der freien Distanz (2)
Je größer die freie Distanz dF ist, desto besser ist das asymptotische Verhalten des Faltungscoders. Zur genauen Berechnung von Fehlerwahrscheinlichkeit benötigt man allerdings – ebenso wie bei den linearen Blockcodes – die Gewichtsfunktion (englisch: Weight Enumerator Function) ⇒ siehe Kapitel 3.5.
Die freie Distanz dF nimmt mit wachsendem Gedächtnis m zu, vorausgesetzt, man verwendet für die Übertragungsfunktionsmatrix G(D) geeignete Polynome. In der Tabelle sind für Rate–1/2–Faltungscodes die n = 2 Polynome zusammen mit dem dF–Wert angegeben. Von Bedeutung ist insbesondere der sog. Industriestandardcode mit m = 6 ⇒ 64 Zustände und der freien Distanz dF = 10.
Das folgende Beispiel zeigt, welche Auswirkungen es hat, wenn man ungünstige Polynome zugrundelegt.
Verwendet man G(D) = (1+D, 1+D2), so ändert sich das Zustandsübergangsdiagramm gegenüber dem Standard–Coder ⇒ Seite 2a nur wenig. Die Auswirkungen sind aber gravierend:
- Die freie Distanz ist nun nicht mehr dF = 5, sondern nur noch dF = 3, wobei die Codesequenz x = (11, 01, 00, 00, ...) zur Informationssequenz u = 1 = (1, 1, 1, 1, ...) gehört.
- Das heißt: Durch nur drei Übertragungsfehler an den Positionen 1, 2, und 4 verfälscht man die Einssequenz (1) in die Nullsequenz (0) und produziert so unendlich viele Decodierfehler.
- Einen Faltungscodierer mit diesen Eigenschaften bezeichnet man als katastrophal. Der Grund für dieses extrem ungünstige Verhalten ist, dass hier 1+D und 1+D2 nicht teilerfemd sind.
Terminierte Faltungscodes
Bei der theoretischen Beschreibung der Faltungscodes geht man stets von Informationssequenzen u und Codesequenzen x aus, die per Definition unendlich lang sind. In praktischen Anwendungen, siehe zum Beispiel GSM und UMTS verwendet man dagegen stets eine Informationssequenz endlicher Länge L. Bei einem Rate–1/n–Faltungscode hat dann die Codesequenz mindestens die Länge n · L.
Die Grafik zeigt ohne Hinterlegung das Trellis unseres Standard–Rate–1/2–Faltungscodes bei binärer Eingangsfolge u der endlichen Länge L = 128. Damit hat die Codefolge x die Länge 2 · L = 256. Aufgrund des undefinierten Endzustands ist eine vollständige Maximum–Likelihood–Decodierung der gesendeten Folge allerdings nicht möglich. Da man nicht weiß, welcher der Zustände S0, ... , S3 sich für i > L einstellen würden, wird die Fehlerwahrscheinlichkeit (etwas) größer sein als im Grenzfall L → ∞.
Um dies zu verhindern, terminiert man den Faltungscode entsprechend der Hinterlegung in obiger Grafik:
- Man fügt an die L = 128 Informationsbits noch m = 2 Nullen an ⇒ L' = 130.
- Damit ergibt sich beispielsweise für den farblich hervorgehobenen Pfad durch das Trellis:
- \[\underline{x}' = (11\hspace{0.05cm},\hspace{0.05cm} 01\hspace{0.05cm},\hspace{0.05cm} 01\hspace{0.05cm},\hspace{0.05cm} 00 \hspace{0.05cm},\hspace{0.05cm} ...\hspace{0.1cm},\hspace{0.05cm} 10\hspace{0.05cm},\hspace{0.05cm}00\hspace{0.05cm},\hspace{0.05cm} 01\hspace{0.05cm},\hspace{0.05cm} 01\hspace{0.05cm},\hspace{0.05cm} 11 \hspace{0.05cm} ) \]
- \[\Rightarrow \hspace{0.3cm}\underline{u}' = (1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1 \hspace{0.05cm},\hspace{0.05cm} ...\hspace{0.1cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 0 \hspace{0.05cm} ) \hspace{0.05cm}.\]
- Das Trellis endet nun stets (also unabhängig von den Daten) im definierten Endzustand S0 und man erreicht so die bestmögliche Fehlerwahrscheinlichkeit entsprechend Maximum–Likelihood.
- Die Verbesserung hinsichtlich der Fehlerwahrscheinlichkeit erkauft man sich allerdings auf Kosten einer kleineren Coderate. Gilt L >> m, so ist dieser Verlust nur gering. Im betrachteten Beispiel ergibt sich mit Terminierung die Coderate R ' = 0.5 · L/(L + m) ≈ 0.492 anstelle von R = 0.5.