Informationstheorie/Anwendung auf die Digitalsignalübertragung: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
(11 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 8: Zeile 8:
 
==Informationstheoretisches Modell der Digitalsignalübertragung ==
 
==Informationstheoretisches Modell der Digitalsignalübertragung ==
 
<br>
 
<br>
Die bisher allgemein definierten Entropien werden nun auf die Digitalsignalübertragung angewendet, wobei wir von einem '''digitalen Kanalmodell ohne Gedächtnis''' (englisch: ''Discrete Memoryless Channel'', DMC) entsprechend der nachfolgenden Grafik ausgehen:
+
Die bisher allgemein definierten Entropien werden nun auf die Digitalsignalübertragung angewendet, wobei wir von einem&nbsp; '''digitalen Kanalmodell ohne Gedächtnis'''&nbsp; (englisch:&nbsp; "Discrete Memoryless Channel", DMC)&nbsp; entsprechend der Grafik ausgehen:
  
[[Datei:P_ID2779__Inf_T_3_3_S1a_neu.png|center|frame|Betrachtetes Modell der Digitalsignalübertragung]]
+
[[Datei:P_ID2779__Inf_T_3_3_S1a_neu.png|right|frame|Betrachtetes Modell der Digitalsignalübertragung]]
  
*Die Menge der möglichen Quellensymbole wird durch die diskrete Zufallsgröße $X$ charakterisiert, wobei $|X|$ den Quellensymbolumfang angibt:
+
*Die Menge der Quellensymbole wird durch die diskrete Zufallsgröße&nbsp; $X$&nbsp; charakterisiert, wobei&nbsp; $|X|$&nbsp; den Quellensymbolumfang angibt:
 
   
 
   
:$$X = \{\hspace{0.05cm}x_1\hspace{0.05cm}, \hspace{0.05cm} x_2\hspace{0.05cm},\hspace{0.05cm} \text{...}\hspace{0.1cm} ,\hspace{0.05cm} x_{\mu}\hspace{0.05cm}, \hspace{0.05cm}\text{...}\hspace{0.1cm} , \hspace{0.05cm} x_{|X|}\hspace{0.05cm}\}\hspace{0.05cm}.$$
+
:$$X = \{\hspace{0.05cm}x_1\hspace{0.05cm}, \hspace{0.15cm} x_2\hspace{0.05cm},\hspace{0.15cm} \text{...}\hspace{0.1cm} ,\hspace{0.15cm} x_{\mu}\hspace{0.05cm}, \hspace{0.15cm}\text{...}\hspace{0.1cm} , \hspace{0.15cm} x_{|X|}\hspace{0.05cm}\}\hspace{0.05cm}.$$
  
*Entsprechend kennzeichnet $Y$ die Menge der Sinkensymbole mit dem Symbolumfang $|Y|$:
+
*Entsprechend kennzeichnet&nbsp; $Y$&nbsp; die Menge der Sinkensymbole mit dem Symbolumfang&nbsp; $|Y|$:
 
   
 
   
:$$Y = \{\hspace{0.05cm}y_1\hspace{0.05cm}, \hspace{0.05cm} y_2\hspace{0.05cm},\hspace{0.05cm} \text{...}\hspace{0.1cm} ,\hspace{0.05cm} y_{\kappa}\hspace{0.05cm}, \hspace{0.05cm}\text{...}\hspace{0.1cm} , \hspace{0.05cm} Y_{|Y|}\hspace{0.05cm}\}\hspace{0.05cm}.$$
+
:$$Y = \{\hspace{0.05cm}y_1\hspace{0.05cm}, \hspace{0.15cm} y_2\hspace{0.05cm},\hspace{0.15cm} \text{...}\hspace{0.1cm} ,\hspace{0.15cm} y_{\kappa}\hspace{0.05cm}, \hspace{0.15cm}\text{...}\hspace{0.1cm} , \hspace{0.15cm} Y_{|Y|}\hspace{0.05cm}\}\hspace{0.05cm}.$$
  
*Meist gilt $|Y| = |X|$. Möglich ist aber auch $|Y| > |X|$, zum Beispiel beim [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC|Binary Erasure Channel]] (BEC) mit $X = \{0, 1\}$ und $Y = \{0, 1, \text{E}\}$  &nbsp; ⇒  &nbsp; $|X| = 2$, $|Y| = 3$.
+
*Meist gilt&nbsp; $|Y| = |X|$.&nbsp; Möglich ist auch&nbsp; $|Y| > |X|$,&nbsp; zum Beispiel beim&nbsp; [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC|Binary Erasure Channel]]&nbsp; (BEC) mit&nbsp;
*Das Sinkensymbol $\rm E$ kennzeichnet eine Auslöschung (englisch: ''Erasure''). Das Ereignis $Y=\text{E}$ gibt an, dass eine Entscheidung für $0$ oder für $1$ zu unsicher wäre.
+
:$$X = \{0,\ 1\},\hspace{0.5cm} Y = \{0,\ 1,\ \ \text{E}\}\    ⇒  \ |X| = 2, \ |Y| = 3.$$
*Die Symbolwahrscheinlichkeiten der Quelle und der Sinke sind in der Grafik durch die Wahrscheinlichkeitsfunktionen $P_X(X)$ und $P_Y(Y)$ berücksichtigt, wobei gilt:
+
*Das Sinkensymbol&nbsp; $\rm E$&nbsp; kennzeichnet eine Auslöschung&nbsp; (englisch:&nbsp; "Erasure").&nbsp; Das Ereignis&nbsp; $Y=\text{E}$&nbsp; gibt an, dass eine Entscheidung für&nbsp; $0$&nbsp; oder für&nbsp; $1$&nbsp; zu unsicher wäre.
 +
<br>
 +
*Die Symbolwahrscheinlichkeiten der Quelle und der Sinke sind in der Grafik durch die Wahrscheinlichkeitsfunktionen&nbsp; $P_X(X)$&nbsp; und&nbsp; $P_Y(Y)$&nbsp; berücksichtigt, wobei gilt:
 
:$$P_X(x_{\mu}) = {\rm Pr}( X = x_{\mu})\hspace{0.05cm}, \hspace{0.3cm}
 
:$$P_X(x_{\mu}) = {\rm Pr}( X = x_{\mu})\hspace{0.05cm}, \hspace{0.3cm}
 
P_Y(y_{\kappa}) = {\rm Pr}( Y = y_{\kappa})\hspace{0.05cm}.$$
 
P_Y(y_{\kappa}) = {\rm Pr}( Y = y_{\kappa})\hspace{0.05cm}.$$
  
*Es gelte: &nbsp; &nbsp; $P_X(X)$ und $P_Y(Y)$ enthalten keine Nullen &nbsp; ⇒ &nbsp; $\text{supp}(P_X) = P_X$ &nbsp;und&nbsp; $\text{supp}(P_Y) = P_Y$. <br>Diese Voraussetzung erleichtert ohne Verlust an Allgemeingültigkeit die Modellbeschreibung.
+
*Es gelte: &nbsp; $P_X(X)$&nbsp; und&nbsp; $P_Y(Y)$&nbsp; enthalten keine Nullen &nbsp; ⇒ &nbsp; $\text{supp}(P_X) = P_X$ &nbsp;und&nbsp; $\text{supp}(P_Y) = P_Y$.&nbsp; Diese Voraussetzung erleichtert ohne Verlust der Allgemeingültigkeit die Modellbeschreibung.
*Alle Übergangswahrscheinlichkeiten des digitalen gedächtnislosen Kanals (DMC) werden durch die ''bedingte Wahrscheinlichkeitsfunktion'' $P_{Y|X}(Y|X)$ erfasst. <br>Mit $x_μ ∈ X$ und $y_κ ∈ Y$ gelte hierfür folgende Definition:
+
<br>
 +
*Alle Übergangswahrscheinlichkeiten des digitalen gedächtnislosen Kanals&nbsp; $\rm (DMC)$&nbsp; werden durch die&nbsp; &bdquo;bedingte Wahrscheinlichkeitsfunktion&rdquo;&nbsp; $P_{Y|X}(Y|X)$&nbsp; erfasst. <br>Mit&nbsp; $x_μ ∈ X$&nbsp; und&nbsp; $y_κ ∈ Y$&nbsp; gelte hierfür folgende Definition:
 
   
 
   
 
:$$P_{Y\hspace{0.01cm}|\hspace{0.01cm}X}(y_{\kappa}\hspace{0.01cm} |\hspace{0.01cm} x_{\mu}) = {\rm Pr}(Y\hspace{-0.1cm} = y_{\kappa}\hspace{0.03cm} | \hspace{0.03cm}X \hspace{-0.1cm}= x_{\mu})\hspace{0.05cm}.$$
 
:$$P_{Y\hspace{0.01cm}|\hspace{0.01cm}X}(y_{\kappa}\hspace{0.01cm} |\hspace{0.01cm} x_{\mu}) = {\rm Pr}(Y\hspace{-0.1cm} = y_{\kappa}\hspace{0.03cm} | \hspace{0.03cm}X \hspace{-0.1cm}= x_{\mu})\hspace{0.05cm}.$$
  
Der grüne Block in der Grafik kennzeichnet $P_{Y|X}(⋅)$ mit $|X|$ Eingängen und $|Y|$ Ausgängen. Blaue Verbindungen markieren  Übergangswahrscheinlichkeiten $\text{Pr}(y_i | x_μ)$ ausgehend von $x_μ$ mit $1 ≤ i ≤ |Y|$, während alle roten Verbindungen bei $y_κ$ enden: &nbsp; $\text{Pr}(y_κ | x_i)$ mit $1 ≤ i ≤ |X|$.
+
*Der grüne Block in der Grafik kennzeichnet&nbsp; $P_{Y|X}(⋅)$&nbsp; mit&nbsp; $|X|$&nbsp; Eingängen und&nbsp; $|Y|$&nbsp; Ausgängen.&nbsp; Blaue Verbindungen markieren  Übergangswahrscheinlichkeiten&nbsp; $\text{Pr}(y_i | x_μ)$&nbsp; ausgehend von&nbsp; $x_μ$&nbsp; mit&nbsp; $1 ≤ i ≤ |Y|$,&nbsp; während alle roten Verbindungen bei&nbsp; $y_κ$ enden:&nbsp; &nbsp; $\text{Pr}(y_κ | x_i)$&nbsp; mit&nbsp; $1 ≤ i ≤ |X|$.
 +
 
  
Bevor wir die Entropien für die einzelnen Wahrscheinlichkeitsfunktionen angeben, nämlich
+
Bevor wir die Entropien für die einzelnen Wahrscheinlichkeitsfunktionen angeben,&nbsp; nämlich
 
:$$P_X(X) ⇒ H(X),\hspace{0.5cm}  P_Y(Y) ⇒ H(Y), \hspace{0.5cm} P_{XY}(X) ⇒ H(XY), \hspace{0.5cm} P_{Y|X}(Y|X) ⇒ H(Y|X),\hspace{0.5cm} P_{X|Y}(X|Y) ⇒ H(X|Y),$$
 
:$$P_X(X) ⇒ H(X),\hspace{0.5cm}  P_Y(Y) ⇒ H(Y), \hspace{0.5cm} P_{XY}(X) ⇒ H(XY), \hspace{0.5cm} P_{Y|X}(Y|X) ⇒ H(Y|X),\hspace{0.5cm} P_{X|Y}(X|Y) ⇒ H(X|Y),$$
 
sollen die obigen Aussagen an einem Beispiel verdeutlicht werden.
 
sollen die obigen Aussagen an einem Beispiel verdeutlicht werden.
  
  
[[Datei:P_ID2780__Inf_T_3_3_S1b_neu.png|right|frame|Digitales Kanalmodell <i>Binary Erasure Channel</i>]]
+
[[Datei:P_ID2780__Inf_T_3_3_S1b_neu.png|right|frame|Digitales Kanalmodell&nbsp; &bdquo;Binary Erasure Channel&rdquo;]]
 
{{GraueBox|TEXT=
 
{{GraueBox|TEXT=
$\text{Beispiel 1}$:&nbsp; Im Buch&bdquo;Kanalcodierung&rdquo; behandeln wir auch den [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen#Binary_Erasure_Channel_.E2.80.93_BEC|Binary Erasure Channel]] (BEC), der rechts in etwas modifizierter Form skizziert ist. Dabei gelten folgende Voraussetzungen:
+
$\text{Beispiel 1}$:&nbsp; Im Buch&nbsp; &bdquo;Kanalcodierung&rdquo;&nbsp; behandeln wir auch den&nbsp; [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen#Binary_Erasure_Channel_.E2.80.93_BEC|Binary Erasure Channel]]&nbsp; $\rm (BEC)$, der rechts in etwas modifizierter Form skizziert ist.&nbsp; Dabei gelten folgende Voraussetzungen:
*Das Eingangsalphabet sei binär &nbsp; &rArr; &nbsp; $X = \{0, 1 \}$  &nbsp; ⇒  &nbsp; $\vert X\vert = 2$, während am Ausgang drei Werte möglich sind &nbsp; &rArr; &nbsp; $Y = \{0, 1, \text{E} \}$  &nbsp; ⇒  &nbsp; $\vert Y\vert = 3$.
+
*Das Eingangsalphabet sei binär &nbsp; &rArr; &nbsp; $X = \{0,\ 1 \}$  &nbsp; ⇒  &nbsp; $\vert X\vert = 2$, während am Ausgang drei Werte möglich sind &nbsp; &rArr; &nbsp; $Y = \{0,\ 1,\ \text{E} \}$  &nbsp; ⇒  &nbsp; $\vert Y\vert = 3$.
*Das Symbol $\text{E}$ kennzeichnet den Fall, dass sich der Empfänger aufgrund von zu großen Kanalstörungen nicht für eines der Binärsymbole $0$ oder $1$ entscheiden kann. „E” steht hierbei für ''Erasure'' (Auslöschung).
+
*$\text{E}$&nbsp; kennzeichnet den Fall, dass sich der Empfänger aufgrund sehr großer Kanalstörungen nicht für eines der Binärsymbole&nbsp; $0$&nbsp; oder&nbsp; $1$&nbsp; entscheiden kann.&nbsp; "E"&nbsp; steht hierbei für&nbsp; "Erasure"&nbsp; (Auslöschung).
*Beim BEC gemäß obiger Skizze werden sowohl eine gesendete $0$ als auch eine $1$ mit der Wahrscheinlichkeit $λ$ ausgelöscht, während die Wahrscheinlichkeit einer richtigen Übertragung jeweils $1 – λ$ beträgt.
+
*Beim&nbsp; $\rm BEC$&nbsp; werden sowohl eine gesendete&nbsp; $0$&nbsp; als auch eine&nbsp; $1$&nbsp; mit der Wahrscheinlichkeit&nbsp; $λ$&nbsp; ausgelöscht, während die Wahrscheinlichkeit einer richtigen Übertragung jeweils&nbsp; $1 – λ$&nbsp; beträgt.
*Dagegen werden Übertragungsfehler durch das BEC–Modell ausgeschlossen  &nbsp; ⇒  &nbsp; die bedingten Wahrscheinlichkeiten &nbsp;$\text{Pr}(Y = 1 \vert X = 0)$ &nbsp;sowie&nbsp; $\text{Pr}(Y = 0 \vert X = 1)$ &nbsp;sind jeweils $0$.
+
*Dagegen werden Übertragungsfehler&nbsp; (Symbolverfälschungen)&nbsp; durch das BEC–Modell ausgeschlossen  &nbsp; <br>⇒  &nbsp; die bedingten Wahrscheinlichkeiten &nbsp;$\text{Pr}(Y = 1 \vert X = 0)$ &nbsp;sowie&nbsp; $\text{Pr}(Y = 0 \vert X = 1)$ &nbsp;sind jeweils Null.
  
  
Beim Sender seien die Nullen und Einsen nicht unbedingt gleichwahrscheinlich. Vielmehr verwenden wir die Wahrscheinlichkeitsfunktionen
+
Beim Sender seien die Nullen und Einsen nicht unbedingt gleichwahrscheinlich.&nbsp; Vielmehr verwenden wir die Wahrscheinlichkeitsfunktionen
 
:$$\begin{align*}P_X(X)  & =  \big ( {\rm Pr}( X = 0)\hspace{0.05cm},\hspace{0.2cm} {\rm Pr}( X = 1) \big )\hspace{0.05cm},\\
 
:$$\begin{align*}P_X(X)  & =  \big ( {\rm Pr}( X = 0)\hspace{0.05cm},\hspace{0.2cm} {\rm Pr}( X = 1) \big )\hspace{0.05cm},\\
 
P_Y(Y) & = \big ( {\rm Pr}( Y = 0)\hspace{0.05cm},\hspace{0.2cm} {\rm Pr}( Y = 1)\hspace{0.05cm},\hspace{0.2cm} {\rm Pr}( Y = {\rm E}) \big )\hspace{0.05cm}.\end{align*}$$
 
P_Y(Y) & = \big ( {\rm Pr}( Y = 0)\hspace{0.05cm},\hspace{0.2cm} {\rm Pr}( Y = 1)\hspace{0.05cm},\hspace{0.2cm} {\rm Pr}( Y = {\rm E}) \big )\hspace{0.05cm}.\end{align*}$$
Zeile 57: Zeile 61:
 
P_Y({\rm E})  & =  {\rm Pr}( Y \hspace{-0.1cm} = {\rm E}) = P_X(0) \cdot \lambda \hspace{0.1cm}+\hspace{0.1cm} P_X(1) \cdot \lambda \hspace{0.05cm}.\end{align*}$$
 
P_Y({\rm E})  & =  {\rm Pr}( Y \hspace{-0.1cm} = {\rm E}) = P_X(0) \cdot \lambda \hspace{0.1cm}+\hspace{0.1cm} P_X(1) \cdot \lambda \hspace{0.05cm}.\end{align*}$$
  
Fassen wir nun $P_X(X)$ und $P_Y(Y)$ als Vektoren auf, so lässt sich das Ergebnis wie folgt darstellen:
+
Fassen wir nun&nbsp; $P_X(X)$&nbsp; und&nbsp; $P_Y(Y)$&nbsp; als Vektoren auf, so lässt sich das Ergebnis wie folgt darstellen:
 
   
 
   
$$P_{\hspace{0.05cm}Y}(Y) = P_X(X) \cdot P_{\hspace{0.05cm}Y\hspace{-0.01cm}\vert \hspace{-0.01cm}X}(Y\hspace{-0.01cm} \vert \hspace{-0.01cm} X) \hspace{0.05cm},$$
+
:$$P_{\hspace{0.05cm}Y}(Y) = P_X(X) \cdot P_{\hspace{0.05cm}Y\hspace{-0.01cm}\vert \hspace{-0.01cm}X}(Y\hspace{-0.01cm} \vert \hspace{-0.01cm} X) \hspace{0.05cm},$$
  
 
wobei die Übergangswahrscheinlichkeiten &nbsp;$\text{Pr}(y_κ\vert x_μ)$&nbsp; durch folgende Matrix berücksichtigt sind:
 
wobei die Übergangswahrscheinlichkeiten &nbsp;$\text{Pr}(y_κ\vert x_μ)$&nbsp; durch folgende Matrix berücksichtigt sind:
Zeile 71: Zeile 75:
 
Beachten Sie bitte:  
 
Beachten Sie bitte:  
 
*Wir haben diese Darstellung nur gewählt, um die Beschreibung zu vereinfachen.  
 
*Wir haben diese Darstellung nur gewählt, um die Beschreibung zu vereinfachen.  
*$P_X(X)$ und $P_Y(Y)$ sind keine Vektoren im eigentlichen Sinne und $P_{Y \vert X}(Y\vert X)$ ist keine Matrix.}}
+
*$P_X(X)$&nbsp; und&nbsp; $P_Y(Y)$&nbsp; sind im eigentlichen Sinne keine Vektoren und&nbsp; $P_{Y \vert X}(Y\vert X)$&nbsp; ist auch keine Matrix.}}
  
  
 
==Gerichtetes Schaubild für die Digitalsignalübertragung ==
 
==Gerichtetes Schaubild für die Digitalsignalübertragung ==
 
<br>
 
<br>
Alle im [[Informationstheorie/Verschiedene_Entropien_zweidimensionaler_Zufallsgrößen|letzten Kapitel]] definierten Entropien gelten auch für die Digitalsignalübertragung. Es ist aber zweckmäßig, anstelle des bisher verwendeten Schaubildes entsprechend der linken Grafik die rechte Darstellung zu wählen, bei der die Richtung von der Quelle $X$ zur Sinke $Y$ erkennbar ist.
+
Alle im&nbsp; [[Informationstheorie/Verschiedene_Entropien_zweidimensionaler_Zufallsgrößen|letzten Kapitel]]&nbsp; definierten Entropien gelten auch für die Digitalsignalübertragung.&nbsp; Es ist aber zweckmäßig, anstelle des bisher verwendeten Schaubildes entsprechend der linken Grafik die rechte Darstellung zu wählen, bei der die Richtung von der Quelle&nbsp; $X$&nbsp; zur Sinke&nbsp; $Y$&nbsp; erkennbar ist.
  
 
[[Datei:P_ID2781__Inf_T_3_3_S2.png|center|frame|Zwei informationstheoretische Modelle für die Digitalsignalübertragung]]
 
[[Datei:P_ID2781__Inf_T_3_3_S2.png|center|frame|Zwei informationstheoretische Modelle für die Digitalsignalübertragung]]
  
Interpretieren wir nun ausgehend vom allgemeinen [[Informationstheorie/Anwendung_auf_die_Digitalsignalübertragung#Informationstheoretisches_Modell_der_Digitalsignal.C3.BCbertragung|DMC–Kanalmodell]] die rechte Grafik:
+
Interpretieren wir nun ausgehend vom allgemeinen&nbsp; [[Informationstheorie/Anwendung_auf_die_Digitalsignalübertragung#Informationstheoretisches_Modell_der_Digitalsignal.C3.BCbertragung|DMC–Kanalmodell]]&nbsp; die rechte Grafik:
*Die '''Quellenentropie''' (englisch: ''Source Entropy''&nbsp;) $H(X)$ bezeichnet den mittleren Informationsgehalt der Quellensymbolfolge. Mit dem Symbolumfang $|X|$ gilt:
+
*Die&nbsp; '''Quellenentropie'''&nbsp; (englisch:&nbsp; "Source Entropy"&nbsp;)&nbsp; $H(X)$&nbsp; bezeichnet den mittleren Informationsgehalt der Quellensymbolfolge.&nbsp; Mit dem Symbolumfang&nbsp; $|X|$&nbsp; gilt:
 
   
 
   
 
:$$H(X) = {\rm E} \left [ {\rm log}_2 \hspace{0.1cm} \frac{1}{P_X(X)}\right ] \hspace{0.1cm}
 
:$$H(X) = {\rm E} \left [ {\rm log}_2 \hspace{0.1cm} \frac{1}{P_X(X)}\right ] \hspace{0.1cm}
Zeile 88: Zeile 92:
 
  P_X(x_{\mu}) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{P_X(x_{\mu})} \hspace{0.05cm}.$$
 
  P_X(x_{\mu}) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{P_X(x_{\mu})} \hspace{0.05cm}.$$
  
*Die '''Äquivokation''' (auch ''Rückschlussentropie'' genannt, englisch: ''Equivocation''&nbsp;) $H(X|Y)$ gibt den mittleren Informationsgehalt an, den ein Betrachter, der über die Sinke $Y$ genau Bescheid weiß, durch Beobachtung der Quelle $X$ gewinnt:
+
*Die&nbsp; '''Äquivokation'''&nbsp; (auch&nbsp; &bdquo;Rückschlussentropie&rdquo; genannt,&nbsp; englisch:&nbsp; "Equivocation"&nbsp;)&nbsp; $H(X|Y)$&nbsp; gibt den mittleren Informationsgehalt an, den ein Betrachter, der über die Sinke&nbsp; $Y$&nbsp; genau Bescheid weiß, durch Beobachtung der Quelle&nbsp; $X$&nbsp; gewinnt:
 
   
 
   
 
:$$H(X|Y) = {\rm E} \left [ {\rm log}_2 \hspace{0.1cm} \frac{1}{P_{\hspace{0.05cm}X\hspace{-0.01cm}|\hspace{-0.01cm}Y}(X\hspace{-0.01cm} |\hspace{0.03cm} Y)}\right ] \hspace{0.2cm}=\hspace{0.2cm} \sum_{\mu = 1}^{|X|} \sum_{\kappa = 1}^{|Y|}  
 
:$$H(X|Y) = {\rm E} \left [ {\rm log}_2 \hspace{0.1cm} \frac{1}{P_{\hspace{0.05cm}X\hspace{-0.01cm}|\hspace{-0.01cm}Y}(X\hspace{-0.01cm} |\hspace{0.03cm} Y)}\right ] \hspace{0.2cm}=\hspace{0.2cm} \sum_{\mu = 1}^{|X|} \sum_{\kappa = 1}^{|Y|}  
Zeile 95: Zeile 99:
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
  
*Die Äquivokation ist der Anteil der Quellenentropie $H(X)$, der durch Kanalstörungen (bei digitalem Kanal: Übertragungsfehler) verloren geht. Es verbleibt die '''Transinformation''' (englisch: ''Mutual Information'') $I(X; Y)$, die zur Sinke gelangt:
+
*Die Äquivokation ist der Anteil der Quellenentropie&nbsp; $H(X)$, der durch Kanalstörungen&nbsp; (bei digitalem Kanal:&nbsp; Übertragungsfehler)&nbsp; verloren geht.&nbsp; Es verbleibt die&nbsp; '''Transinformation'''&nbsp; (englisch:&nbsp; "Mutual Information")&nbsp; $I(X; Y)$, die zur Sinke gelangt:
 
   
 
   
 
:$$I(X;Y) = {\rm E} \left [ {\rm log}_2 \hspace{0.1cm} \frac{P_{XY}(X, Y)}{P_X(X) \cdot P_Y(Y)}\right ] \hspace{0.2cm} = H(X) - H(X|Y) \hspace{0.05cm}.$$
 
:$$I(X;Y) = {\rm E} \left [ {\rm log}_2 \hspace{0.1cm} \frac{P_{XY}(X, Y)}{P_X(X) \cdot P_Y(Y)}\right ] \hspace{0.2cm} = H(X) - H(X|Y) \hspace{0.05cm}.$$
  
*Die '''Irrelevanz''' (manchmal auch ''Streuentropie'' genannt, englisch: ''Irrelevance'') $H(Y|X)$ gibt den mittleren Informationsgehalt an, den ein Betrachter, der über die Quelle $X$ genau Bescheid weiß, durch Beobachtung der Sinke $Y$ gewinnt:
+
*Die&nbsp; '''Irrelevanz'''&nbsp; (manchmal auch&nbsp; &bdquo;Streuentropie&rdquo;&nbsp; genannt,&nbsp; englisch:&nbsp; "Irrelevance")&nbsp; $H(Y|X)$&nbsp; gibt den mittleren Informationsgehalt an, den ein Betrachter, der über die Quelle&nbsp; $X$&nbsp; genau Bescheid weiß, durch Beobachtung der Sinke&nbsp; $Y$&nbsp; gewinnt:
 
   
 
   
 
:$$H(Y|X) = {\rm E} \left [ {\rm log}_2 \hspace{0.1cm} \frac{1}{P_{\hspace{0.05cm}Y\hspace{-0.01cm}|\hspace{-0.01cm}X}(Y\hspace{-0.01cm} |\hspace{0.03cm} X)}\right ] \hspace{0.2cm}=\hspace{0.2cm} \sum_{\mu = 1}^{|X|} \sum_{\kappa = 1}^{|Y|}  
 
:$$H(Y|X) = {\rm E} \left [ {\rm log}_2 \hspace{0.1cm} \frac{1}{P_{\hspace{0.05cm}Y\hspace{-0.01cm}|\hspace{-0.01cm}X}(Y\hspace{-0.01cm} |\hspace{0.03cm} X)}\right ] \hspace{0.2cm}=\hspace{0.2cm} \sum_{\mu = 1}^{|X|} \sum_{\kappa = 1}^{|Y|}  
Zeile 106: Zeile 110:
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
  
*Die '''Sinkenentropie''' $H(Y)$, der mittlere Informationsgehalt der Sinke, ist die Summe aus der nützlichen Transinformation $I(X; Y)$ und der Irrelevanz $H(Y|X)$, die ausschließlich von Kanalfehlern herrührt:
+
*Die&nbsp; '''Sinkenentropie'''&nbsp; $H(Y)$&nbsp; ist der mittlere Informationsgehalt der Sinke.&nbsp; Diese ergibt sich aus der Summe aus der nützlichen Transinformation&nbsp; $I(X; Y)$&nbsp; und der unnützen Irrelevanz&nbsp; $H(Y|X)$, die ausschließlich von Kanalfehlern herrührt:
 
  
 
  
 
:$$H(Y) = {\rm E} \left [ {\rm log}_2 \hspace{0.1cm} \frac{1}{P_Y(Y)}\right ] \hspace{0.1cm}
 
:$$H(Y) = {\rm E} \left [ {\rm log}_2 \hspace{0.1cm} \frac{1}{P_Y(Y)}\right ] \hspace{0.1cm}
Zeile 114: Zeile 118:
 
==Transinformationsberechnung für den Binärkanal==  
 
==Transinformationsberechnung für den Binärkanal==  
 
<br>
 
<br>
Die Definitionen der letzten Seite sollen nun an einem Beispiel verdeutlicht werden, wobei wir bewusst vermeiden, die Berechnungen durch die Ausnutzung von Symmetrien zu vereinfachen.
+
Diese Definitionen sollen nun an einem Beispiel verdeutlicht werden.&nbsp; Wir  vermeiden bewusst, die Berechnungen durch Ausnutzung von Symmetrien zu vereinfachen.
 
 
  
 
[[Datei:P_ID2782__Inf_T_3_3_S3a.png|right|frame|Allgemeines Modell des Binärkanals]]
 
[[Datei:P_ID2782__Inf_T_3_3_S3a.png|right|frame|Allgemeines Modell des Binärkanals]]
 
{{GraueBox|TEXT=
 
{{GraueBox|TEXT=
$\text{Beispiel 2}$:&nbsp; Wir betrachten den allgemeinen Binärkanal (englisch: ''Binary Channel''&nbsp;) ohne Gedächtnis gemäß der Skizze mit den Verfälschungswahrscheinlichkeiten.
+
$\text{Beispiel 2}$:&nbsp; Wir betrachten den allgemeinen Binärkanal&nbsp; (englisch:&nbsp; "Binary Channel")&nbsp; ohne Gedächtnis gemäß der Skizze.&nbsp; Die Verfälschungswahrscheinlichkeiten seien:
 
    
 
    
 
:$$\begin{align*}\varepsilon_0  & =  {\rm Pr}(Y\hspace{-0.1cm} = 1\hspace{0.05cm}\vert X \hspace{-0.1cm}= 0) = 0.01\hspace{0.05cm},\\
 
:$$\begin{align*}\varepsilon_0  & =  {\rm Pr}(Y\hspace{-0.1cm} = 1\hspace{0.05cm}\vert X \hspace{-0.1cm}= 0) = 0.01\hspace{0.05cm},\\
Zeile 136: Zeile 139:
 
Außerdem gehen wir von nicht gleichwahrscheinlichen Quellensymbolen aus:
 
Außerdem gehen wir von nicht gleichwahrscheinlichen Quellensymbolen aus:
 
   
 
   
:$$P_X(X) = \big ( p_0, p_1 \big )=
+
:$$P_X(X) = \big ( p_0,\ p_1 \big )=
\big ( 0.1, 0.9 \big )
+
\big ( 0.1,\ 0.9 \big )
 
\hspace{0.05cm}.$$
 
\hspace{0.05cm}.$$
  
Mit der [[Informationstheorie/Gedächtnislose_Nachrichtenquellen#Bin.C3.A4re_Entropiefunktion|binären Entropiefunktion]] $H_{\rm bin}(p)$ erhält man so für die Quellenentropie:
+
Mit der&nbsp; [[Informationstheorie/Gedächtnislose_Nachrichtenquellen#Bin.C3.A4re_Entropiefunktion|binären Entropiefunktion]]&nbsp; $H_{\rm bin}(p)$&nbsp; erhält man so für die Quellenentropie:
 
   
 
   
:$$H(X) = H_{\rm bin} (0.1) = 0.4690 \,{\rm bit}
+
:$$H(X) = H_{\rm bin} (0.1) = 0.4690 \hspace{0.10cm}{\rm bit}
 
\hspace{0.05cm}.$$
 
\hspace{0.05cm}.$$
  
 
Für die Wahrscheinlichkeitsfunktion der Sinke sowie für die Sinkenentropie ergibt sich somit:
 
Für die Wahrscheinlichkeitsfunktion der Sinke sowie für die Sinkenentropie ergibt sich somit:
 
    
 
    
:$$P_Y(Y) = \big [ {\rm Pr}( Y\hspace{-0.1cm} = 0)\hspace{0.05cm}, \ {\rm Pr}( Y \hspace{-0.1cm}= 1) \big ] = \big ( p_0\hspace{0.05cm}, p_1 \big ) \cdot  
+
:$$P_Y(Y) = \big [ {\rm Pr}( Y\hspace{-0.1cm} = 0)\hspace{0.05cm}, \ {\rm Pr}( Y \hspace{-0.1cm}= 1) \big ] = \big ( p_0\hspace{0.05cm},\ p_1 \big ) \cdot  
 
\begin{pmatrix}  
 
\begin{pmatrix}  
 
1 - \varepsilon_0  & \varepsilon_0\\
 
1 - \varepsilon_0  & \varepsilon_0\\
Zeile 155: Zeile 158:
 
:$$\begin{align*}\Rightarrow \hspace{0.3cm}  {\rm Pr}( Y \hspace{-0.1cm}= 0)& =   
 
:$$\begin{align*}\Rightarrow \hspace{0.3cm}  {\rm Pr}( Y \hspace{-0.1cm}= 0)& =   
 
p_0 \cdot (1 - \varepsilon_0) + p_1 \cdot \varepsilon_1 =
 
p_0 \cdot (1 - \varepsilon_0) + p_1 \cdot \varepsilon_1 =
0.1 \cdot 0.99 + 0.9 \cdot 0.2 = 0.279\hspace{0.05cm},\\
+
0.1 \cdot 0.99 + 0.9 \cdot 0.2 = 0.279\hspace{0.05cm},\\  
 
{\rm Pr}( Y \hspace{-0.1cm}= 1) & =  1 - {\rm Pr}( Y \hspace{-0.1cm}= 0) = 0.721\end{align*}$$
 
{\rm Pr}( Y \hspace{-0.1cm}= 1) & =  1 - {\rm Pr}( Y \hspace{-0.1cm}= 0) = 0.721\end{align*}$$
  
:$$\Rightarrow \hspace{0.2cm}
+
:$$\Rightarrow \hspace{0.3cm}
H(Y) = H_{\rm bin} (0.279) = 0.8541 \,{\rm bit}
+
H(Y) = H_{\rm bin} (0.279) = 0.8541 \hspace{0.10cm}{\rm bit}
 
\hspace{0.05cm}. $$
 
\hspace{0.05cm}. $$
  
Die Verbundwahrscheinlichkeiten $p_{\mu \kappa} = \text{Pr}\big[(X = μ) ∩ (Y = κ)\big]$ zwischen Quelle und Sinke sind:
+
Die Verbundwahrscheinlichkeiten&nbsp; $p_{\mu \kappa} = \text{Pr}\big[(X = μ) ∩ (Y = κ)\big]$&nbsp; zwischen Quelle und Sinke sind:
 
   
 
   
 
:$$\begin{align*}p_{00} & =  p_0 \cdot (1 - \varepsilon_0) = 0.099\hspace{0.05cm},\hspace{0.5cm}p_{01}= p_0 \cdot \varepsilon_0 = 0.001\hspace{0.05cm},\\
 
:$$\begin{align*}p_{00} & =  p_0 \cdot (1 - \varepsilon_0) = 0.099\hspace{0.05cm},\hspace{0.5cm}p_{01}= p_0 \cdot \varepsilon_0 = 0.001\hspace{0.05cm},\\
Zeile 168: Zeile 171:
  
 
Daraus erhält man für
 
Daraus erhält man für
*die '''Verbundentropie''' (englisch ''Joint Entropy''):
+
*die&nbsp; '''Verbundentropie'''&nbsp; (englisch:&nbsp; "Joint Entropy"):
 
   
 
   
 
:$$H(XY) =  p_{00}\hspace{-0.05cm} \cdot \hspace{-0.05cm}{\rm log}_2 \hspace{0.05cm} \frac{1}{p_{00} \rm } +
 
:$$H(XY) =  p_{00}\hspace{-0.05cm} \cdot \hspace{-0.05cm}{\rm log}_2 \hspace{0.05cm} \frac{1}{p_{00} \rm } +
Zeile 175: Zeile 178:
 
p_{11} \hspace{-0.05cm} \cdot \hspace{-0.05cm} {\rm log}_2\hspace{0.05cm} \frac{1}{p_{11}\rm } = 1.1268\,{\rm bit} \hspace{0.05cm},$$
 
p_{11} \hspace{-0.05cm} \cdot \hspace{-0.05cm} {\rm log}_2\hspace{0.05cm} \frac{1}{p_{11}\rm } = 1.1268\,{\rm bit} \hspace{0.05cm},$$
  
*die '''Transinformation''' (englisch ''Mutual Information''):
+
*die&nbsp; '''Transinformation'''&nbsp; (englisch:&nbsp; "Mutual Information"):
 
   
 
   
:$$I(X;Y) = H(X) + H(Y) - H(XY)  = 0.4690 + 0.8541 - 1.1268 = 0.1963\,{\rm bit}
+
:$$I(X;Y) = H(X) + H(Y) - H(XY)  = 0.4690 + 0.8541 - 1.1268 = 0.1963\hspace{0.10cm}{\rm bit}
 
  \hspace{0.05cm},$$
 
  \hspace{0.05cm},$$
  
 
[[Datei:P_ID2785__Inf_T_3_3_S3b_neu.png|right|frame|Informationstheoretisches Modell des betrachteten Binärkanals]]
 
[[Datei:P_ID2785__Inf_T_3_3_S3b_neu.png|right|frame|Informationstheoretisches Modell des betrachteten Binärkanals]]
*die '''Äquivokation''' (oder Rückschlussentropie):
+
*die&nbsp; '''Äquivokation'''&nbsp; (oder Rückschlussentropie):
 
   
 
   
 
:$$H(X \vert Y) \hspace{-0.01cm} =\hspace{-0.01cm}  H(X) \hspace{-0.01cm} -\hspace{-0.01cm}  I(X;Y) \hspace{-0.01cm}  $$
 
:$$H(X \vert Y) \hspace{-0.01cm} =\hspace{-0.01cm}  H(X) \hspace{-0.01cm} -\hspace{-0.01cm}  I(X;Y) \hspace{-0.01cm}  $$
:$$\Rightarrow \hspace{0.3cm}  H(X \vert Y) \hspace{-0.01cm}  = \hspace{-0.01cm}  0.4690\hspace{-0.01cm}  -\hspace{-0.01cm}  0.1963\hspace{-0.01cm} =\hspace{-0.01cm}  0.2727\,{\rm bit}
+
:$$\Rightarrow \hspace{0.3cm}  H(X \vert Y) \hspace{-0.01cm}  = \hspace{-0.01cm}  0.4690\hspace{-0.01cm}  -\hspace{-0.01cm}  0.1963\hspace{-0.01cm} =\hspace{-0.01cm}  0.2727\hspace{0.10cm}{\rm bit}
 
  \hspace{0.05cm},$$
 
  \hspace{0.05cm},$$
  
*die '''Irrelevanz''' (oder Streuentropie):
+
*die '''Irrelevanz'''&nbsp; (oder Streuentropie):
 
   
 
   
 
:$$H(Y \vert X) = H(Y) - I(X;Y) $$
 
:$$H(Y \vert X) = H(Y) - I(X;Y) $$
:$$\Rightarrow \hspace{0.3cm}  H(Y \vert X) = 0.8541 - 0.1963 = 0.6578\,{\rm bit}
+
:$$\Rightarrow \hspace{0.3cm}  H(Y \vert X) = 0.8541 - 0.1963 = 0.6578\hspace{0.10cm}{\rm bit}
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
  
Die Ergebnisse sind in nebenstehender Grafik  zusammengefasst.}}
+
Die Ergebnisse sind in der nebenstehenden Grafik  zusammengefasst.}}
  
  
Zeile 208: Zeile 211:
 
==Definition und Bedeutung der Kanalkapazität ==  
 
==Definition und Bedeutung der Kanalkapazität ==  
 
<br>
 
<br>
Wir betrachten weiter einen diskreten gedächtnislosen Kanal (englisch: ''Discrete Memoryless Channel'', kurz DMC) mit einer endlichen Anzahl an Quellensymbolen &nbsp; ⇒ &nbsp; $|X|$ und ebenfalls nur endlich vielen Sinkensymbolen &nbsp;  ⇒  &nbsp; $|Y|$, wie im ersten Abschnitt dieses Kapitels dargestellt.  
+
Wir betrachten weiter einen diskreten gedächtnislosen Kanal&nbsp; (englisch:&nbsp; "Discrete Memoryless Channel",&nbsp; kurz DMC)&nbsp; mit einer endlichen Anzahl an Quellensymbolen &nbsp; ⇒ &nbsp; $|X|$&nbsp; und ebenfalls nur endlich vielen Sinkensymbolen &nbsp;  ⇒  &nbsp; $|Y|$,&nbsp; wie im ersten Abschnitt dieses Kapitels dargestellt.  
*Berechnet man die Transinformation $I(X, Y)$ wie zuletzt im $\text{Beispiel 2}$ ausgeführt, so hängt diese auch von der Quellenstatistik  &nbsp;  ⇒  &nbsp;  $P_X(X)$ ab.
+
*Berechnet man die Transinformation&nbsp; $I(X, Y)$&nbsp; wie zuletzt im&nbsp; $\text{Beispiel 2}$&nbsp; ausgeführt,&nbsp; so hängt diese auch von der Quellenstatistik  &nbsp;  ⇒  &nbsp;  $P_X(X)$&nbsp; ab.
* Ergo: &nbsp; Die Transinformation $I(X, Y)$ ist keine reine Kanalkenngröße.
+
* Ergo: &nbsp; '''Die Transinformation'''&nbsp; $I(X, Y)$&nbsp;''' ist keine reine Kanalkenngröße'''.
  
  
 
{{BlaueBox|TEXT=
 
{{BlaueBox|TEXT=
$\text{Definition:}$&nbsp; Die von [https://de.wikipedia.org/wiki/Claude_Shannon Claude E. Shannon] eingeführte '''Kanalkapazität''' (englisch: ''Channel Capacity'') lautet gemäß seinem Standardwerk [Sha48]<ref name = ''Sha48''>Shannon, C.E.: ''A Mathematical Theory of Communication''. In: Bell Syst. Techn. J. 27 (1948), S. 379-423 und S. 623-656.</ref>:
+
$\text{Definition:}$&nbsp; Die von&nbsp; [https://de.wikipedia.org/wiki/Claude_Shannon Claude E. Shannon]&nbsp; eingeführte&nbsp; '''Kanalkapazität'''&nbsp; (englisch:&nbsp; "Channel Capacity")&nbsp; lautet gemäß seinem Standardwerk&nbsp; [Sha48]<ref name = ''Sha48''>Shannon, C.E.: A Mathematical Theory of Communication. In: Bell Syst. Techn. J. 27 (1948), S. 379-423 und S. 623-656.</ref>:
 
   
 
   
 
:$$C = \max_{P_X(X)} \hspace{0.15cm}  I(X;Y)  \hspace{0.05cm}.$$
 
:$$C = \max_{P_X(X)} \hspace{0.15cm}  I(X;Y)  \hspace{0.05cm}.$$
  
Da nach dieser Definition stets die bestmögliche Quellenstatistik zugrunde liegt, hängt $C$ nur von den Kanaleigenschaften &nbsp; ⇒ &nbsp; $P_{Y \vert X}(Y \vert X)$ ab, nicht jedoch von der Quellenstatistik &nbsp; ⇒ &nbsp; $P_X(X)$. Oft wird die Zusatzeinheit „bit/Kanalzugriff” hinzugefügt, bei englischen Texten „bit/use”.}}
+
Da nach dieser Definition stets die bestmögliche Quellenstatistik zugrunde liegt,&nbsp; hängt&nbsp; $C$&nbsp; nur von den Kanaleigenschaften &nbsp; ⇒ &nbsp; $P_{Y \vert X}(Y \vert X)$ ab,&nbsp; nicht jedoch von der Quellenstatistik &nbsp; ⇒ &nbsp; $P_X(X)$.&nbsp; Oft wird die Zusatzeinheit „bit/Kanalzugriff” hinzugefügt,&nbsp; bei englischen Texten „bit/use”.}}
  
  
Shannon benötigte diese Kanalbeschreibungsgröße $C$, um das Kanalcodierungstheorem formulieren zu können – eines der Highlights der von ihm begründeten Informationstheorie.
+
Shannon benötigte die Kanalbeschreibungsgröße&nbsp; $C$&nbsp; zur Formulierung des Kanalcodierungstheorems – eines der Highlights der von ihm begründeten Informationstheorie.
  
 
{{BlaueBox|TEXT=
 
{{BlaueBox|TEXT=
 
$\text{Shannons Kanalcodierungstheorem:}$&nbsp;  
 
$\text{Shannons Kanalcodierungstheorem:}$&nbsp;  
*Zu jedem Übertragungskanal mit der Kanalkapazität $C > 0$ existiert (mindestens) ein $(k, n)$–Blockcode, dessen (Block–)Fehlerwahrscheinlichkeit gegen Null geht, so lange die Coderate $R = k/n$ kleiner oder gleich der Kanalkapazität ist: &nbsp; $R ≤ C$.
+
*Zu jedem Übertragungskanal mit der Kanalkapazität&nbsp; $C > 0$&nbsp; existiert (mindestens) ein&nbsp; $(k, n)$–Blockcode,&nbsp; dessen (Block–)Fehlerwahrscheinlichkeit gegen Null geht,&nbsp; so lange die Coderate&nbsp; $R = k/n$&nbsp; kleiner oder gleich der Kanalkapazität ist: &nbsp;  
* Voraussetzung hierfür ist allerdings, dass für die Blocklänge dieses Codes gilt: &nbsp; $n → ∞$.}}
+
:$$R ≤ C.$$
 +
* Voraussetzung hierfür ist allerdings,&nbsp; dass für die Blocklänge dieses Codes gilt: &nbsp; $n → ∞.$}}
  
  
Den Beweis dieses Theorems, der den Rahmen unseres Lerntutorials sprengen würde,finden Sie zum Beispiel in [CT06]<ref name="CT06">Cover, T.M.; Thomas, J.A.: ''Elements of Information Theory''. West Sussex: John Wiley & Sons, 2nd Edition, 2006.</ref>,  [Kra13]<ref name="Kra13">Kramer, G.: ''Information Theory''. Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, Technische Universität München, 2013.</ref> und [Meck09]<ref name="Meck09">Mecking, M.: ''Information Theory''. Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, Technische Universität München, 2009.</ref>.
+
Den Beweis dieses Theorems,&nbsp; der den Rahmen unseres Lerntutorials sprengen würde,&nbsp; finden Sie zum Beispiel in&nbsp; [CT06]<ref name="CT06">Cover, T.M.; Thomas, J.A.:&nbsp; Elements of Information Theory.&nbsp; West Sussex: John Wiley & Sons, 2nd Edition, 2006.</ref>,&nbsp; [Kra13]<ref name="Kra13">Kramer, G.:&nbsp; Information Theory.&nbsp; Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, Technische Universität München, 2013.</ref>&nbsp; und&nbsp; [Meck09]<ref name="Meck09">Mecking, M.:&nbsp; Information Theory.&nbsp; Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, Technische Universität München, 2009.</ref>.  
 
 
Wie in der [[Aufgaben:3.12_Coderate_und_Zuverlässigkeit|Aufgabe 3.13]] gezeigt werden soll, gilt auch der Umkehrschluss. Dden Beweis finden Sie wieder in [CT06]<ref name="CT06" />, [Kra13]<ref name="Kra13" />, [Meck09]<ref name="Meck09" />.
 
  
 +
Wie in der&nbsp; [[Aufgaben:3.12_Coderate_und_Zuverlässigkeit|Aufgabe 3.13]]&nbsp; gezeigt werden soll,&nbsp; gilt auch der Umkehrschluss.&nbsp; Auch diesen Beweis finden Sie in den eben genannten Literaturstellen.
 +
 
{{BlaueBox|TEXT=
 
{{BlaueBox|TEXT=
$\text{Umkehrschluss von Shannons Kanalcodierungstheorem:}$&nbsp;  
+
$\text{Umkehrschluss von Shannons Kanalcodierungstheorem:}$&nbsp;
Ist die Rate des verwendeten ( $n$, $k$ )–Blockcodes größer als die Kanalkapazität &nbsp; ⇒  &nbsp;  ${R = k/n > C}$, so kann niemals eine beliebig kleine Blockfehlerwahrscheinlichkeit erreicht werden.}}
+
 
+
Ist die Rate&nbsp;  $R$&nbsp; des verwendeten&nbsp; $(n$, $k)$–Blockcodes größer als die Kanalkapazität&nbsp; $C$,&nbsp; so ist niemals eine beliebig kleine Blockfehlerwahrscheinlichkeit erreichbar.}}
 
 
Im Kapitel  [[Informationstheorie/AWGN–Kanalkapazität_bei_wertdiskretem_Eingang#AWGN.E2.80.93Modell_f.C3.BCr_zeitdiskrete_bandbegrenzte_Signale|AWGN-Modell für zeitdiskrete bandbegrenzte Signale]] wird im Zusammenhang mit dem wertkontinuierlichen [[Kanalcodierung/Klassifizierung_von_Signalen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang|AWGN–Kanalmodell]] ausgeführt, welche phänomenal große Bedeutung Shannons informationstheoretisches Theorem für die gesamte Informationstechnik besitzt,
 
*nicht nur für ausschließlich theoretisch Interessierte,
 
*sondern ebenso für Praktiker.
 
 
 
  
  
 +
Im Kapitel&nbsp;  [[Informationstheorie/AWGN–Kanalkapazität_bei_wertdiskretem_Eingang#AWGN.E2.80.93Modell_f.C3.BCr_zeitdiskrete_bandbegrenzte_Signale|AWGN-Modell für zeitdiskrete bandbegrenzte Signale]]&nbsp; wird im Zusammenhang mit dem wertkontinuierlichen&nbsp; [[Kanalcodierung/Klassifizierung_von_Signalen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang|AWGN–Kanalmodell]]&nbsp; ausgeführt,&nbsp; welche phänomenal große Bedeutung Shannons informationstheoretisches Theorem für die gesamte Informationstechnik besitzt,&nbsp; nicht nur für ausschließlich theoretisch Interessierte,&nbsp; sondern ebenso für Praktiker.
  
 
   
 
   
Zeile 249: Zeile 249:
 
<br>
 
<br>
 
[[Datei:P_ID2786__Inf_T_3_3_S3a.png|right|frame|Allgemeines Modell des Binärkanals]]
 
[[Datei:P_ID2786__Inf_T_3_3_S3a.png|right|frame|Allgemeines Modell des Binärkanals]]
Die Transinformation des allgemeinen (unsymmetrischen) Binärkanals gemäß nebenstehender Grafik wurde im [[Informationstheorie/Anwendung_auf_die_Digitalsignalübertragung#Transinformationsberechnung_f.C3.BCr_den_Bin.C3.A4rkanal|$\text{Beispiel 2}$]] berechnet. Bei diesem Modell werden die Eingangssymbole $0$ und $1$ unterschiedlich stark verfälscht:
+
Die Transinformation des allgemeinen (unsymmetrischen) Binärkanals gemäß dieser Skizze wurde im&nbsp; [[Informationstheorie/Anwendung_auf_die_Digitalsignalübertragung#Transinformationsberechnung_f.C3.BCr_den_Bin.C3.A4rkanal|$\text{Beispiel 2}$]]&nbsp; berechnet.&nbsp; Bei diesem Modell werden die Eingangssymbole&nbsp; $0$&nbsp; und&nbsp; $1$&nbsp; unterschiedlich stark verfälscht:
 
   
 
   
 
:$$P_{\hspace{0.05cm}Y\hspace{-0.01cm}|\hspace{-0.01cm}X}(Y\hspace{-0.01cm} |\hspace{-0.01cm} X) =  
 
:$$P_{\hspace{0.05cm}Y\hspace{-0.01cm}|\hspace{-0.01cm}X}(Y\hspace{-0.01cm} |\hspace{-0.01cm} X) =  
Zeile 257: Zeile 257:
 
\end{pmatrix}  \hspace{0.05cm}.$$
 
\end{pmatrix}  \hspace{0.05cm}.$$
  
Die Transinformation lässt sich mit der Wahrscheinlichkeitsfunktion $P_X(X)$ = $(p_0, p_1)$ wie folgt kompakt darstellen:
+
Die Transinformation lässt sich mit der Wahrscheinlichkeitsfunktion&nbsp; $P_X(X) = (p_0,\ p_1)$&nbsp; wie folgt darstellen:
 
   
 
   
 
:$$I(X  ;Y) =  \sum_{\mu = 1}^{2} \hspace{0.1cm}\sum_{\kappa = 1}^{2} \hspace{0.2cm}
 
:$$I(X  ;Y) =  \sum_{\mu = 1}^{2} \hspace{0.1cm}\sum_{\kappa = 1}^{2} \hspace{0.2cm}
Zeile 265: Zeile 265:
 
(\hspace{0.05cm}y_{\kappa})} $$
 
(\hspace{0.05cm}y_{\kappa})} $$
 
:$$\begin{align*}\Rightarrow \hspace{0.3cm}  I(X  ;Y) &=    \hspace{-0.01cm}  (1  \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_0) \cdot p_0 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1  \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_0}{(1  \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_0) \cdot p_0 + \varepsilon_1 \cdot p_1} +
 
:$$\begin{align*}\Rightarrow \hspace{0.3cm}  I(X  ;Y) &=    \hspace{-0.01cm}  (1  \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_0) \cdot p_0 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1  \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_0}{(1  \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_0) \cdot p_0 + \varepsilon_1 \cdot p_1} +
\varepsilon_0 \cdot p_0 \cdot {\rm log}_2 \hspace{0.1cm} \frac{\varepsilon_0}{(1  \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_0) \cdot p_0 + \varepsilon_1 \cdot p_1} + \\
+
\varepsilon_0 \cdot p_0 \cdot {\rm log}_2 \hspace{0.1cm} \frac{\varepsilon_0}{(1  \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_0) \cdot p_0 + \varepsilon_1 \cdot p_1}\hspace{0.1cm} + \\
& + \hspace{-0.01cm} \varepsilon_1 \cdot p_1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{\varepsilon_1}{\varepsilon_0 \cdot p_0 + (1  \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_1) \cdot p_1} +  (1  \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_1) \cdot p_1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1  \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_1}{\varepsilon_0 \cdot p_0 + (1  \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_1) \cdot p_1}
+
& + \hspace{0.1cm} \hspace{-0.01cm} \varepsilon_1 \cdot p_1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{\varepsilon_1}{\varepsilon_0 \cdot p_0 + (1  \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_1) \cdot p_1} +  (1  \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_1) \cdot p_1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1  \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_1}{\varepsilon_0 \cdot p_0 + (1  \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_1) \cdot p_1}
 
  \hspace{0.05cm}.\end{align*}$$
 
  \hspace{0.05cm}.\end{align*}$$
  
[[Datei:P_ID2788__Inf_T_3_3_S4a.png|right|frame|Ergebnisse: unsymmetrischer Binärkanal]]
+
[[Datei:P_ID2788__Inf_T_3_3_S4a.png|right|frame|Transinformation für den <br>&bdquo;unsymmetrischen Binärkanal&rdquo;]]
 
{{GraueBox|TEXT=
 
{{GraueBox|TEXT=
 
$\text{Beispiel 3}$:&nbsp;  
 
$\text{Beispiel 3}$:&nbsp;  
Im Folgenden setzen wir $ε_0 = 0.01$ und $ε_1 = 0.2$.  
+
Im Folgenden setzen wir&nbsp; $ε_0 = 0.01$&nbsp; und&nbsp; $ε_1 = 0.2$.  
  
In der Spalte 4 nebenstehender Tabelle ist (grün hinterlegt) die Transinformation $I(X; Y)$ dieses unsymmetrischen Binärkanals abhängig von der Quellensymbolwahrscheinlichkeit $p_0 = {\rm Pr}(X = 0)$ angegeben. Man erkennt:
+
In der Spalte 4 nebenstehender Tabelle ist&nbsp; (grün hinterlegt)&nbsp; die Transinformation&nbsp; $I(X; Y)$&nbsp; dieses unsymmetrischen Binärkanals abhängig von der Quellensymbolwahrscheinlichkeit&nbsp; $p_0 = {\rm Pr}(X = 0)$&nbsp; angegeben.&nbsp; Man erkennt:
*Die Transinformation hängt von den Symbolwahrscheinlichkeiten $p_0$ und $p_1 = 1 - p_0$ ab.
+
*Die Transinformation hängt von den Symbolwahrscheinlichkeiten&nbsp; $p_0$&nbsp; und&nbsp; $p_1 = 1 - p_0$&nbsp; ab.
*Der Maximalwert von $I(X; Y)$  ergibt sich hier zu &nbsp;$p_0 ≈ 0.55$&nbsp;  &nbsp; ⇒  &nbsp; &nbsp;$p_1 ≈ 0.45$.
+
*Der Maximalwert von&nbsp; $I(X; Y)$&nbsp; ergibt sich hier zu &nbsp;$p_0 ≈ 0.55$&nbsp;  &nbsp; ⇒  &nbsp; &nbsp;$p_1 ≈ 0.45$.
*Das Ergebnis $p_0 > p_1$ folgt aus der Relation $ε_0 < ε_1$ (die Null wird weniger verfälscht).
+
*Das Ergebnis&nbsp; $p_0 > p_1$&nbsp; folgt aus der Relation&nbsp; $ε_0 < ε_1$&nbsp; (die Null wird weniger verfälscht).
*Die Kapazität dieses Kanals beträgt $C = 0.5779 \ \rm bit/Kanalzugriff$.}}
+
*Die Kapazität dieses Kanals ist&nbsp; $C = 0.5779 \ \rm bit/Kanalzugriff$.}}
 
<br clear=all>
 
<br clear=all>
In obiger Gleichung ist als Sonderfall auch der [[Kanalcodierung/Klassifizierung_von_Signalen#Binary_Symmetric_Channel_.E2.80.93_BSC|Binary Symmetric Channel]] (BSC) mit dem Parameter $ε = ε_0 = ε_1$ mitenthalten. <i>Hinweise:</i>  
+
In obiger Gleichung ist als Sonderfall auch der&nbsp; [[Kanalcodierung/Klassifizierung_von_Signalen#Binary_Symmetric_Channel_.E2.80.93_BSC|Binary Symmetric Channel]]&nbsp; $\rm (BSC)$&nbsp; mit den Parametern&nbsp; $ε = ε_0 = ε_1$&nbsp; mitenthalten.&nbsp; <i>Hinweise:</i>  
*In [[Aufgaben:Aufgabe_3.10:_Transinformation_beim_BSC|Aufgabe 3.10]] wird die Transinformation des BSC–Kanals für $ε = 0.1$, $p_0 = 0.2$ berechnet.
+
*In&nbsp; [[Aufgaben:Aufgabe_3.10:_Transinformation_beim_BSC|Aufgabe 3.10]]&nbsp; wird die Transinformation des BSC–Kanals für die Systemparameter&nbsp; $ε = 0.1$ &nbsp;und&nbsp; $p_0 = 0.2$&nbsp; berechnet.
*In der  [[Aufgaben:Aufgabe_3.10Z:_BSC–Kanalkapazität|Aufgabe 3.10Z]] wird dessen Kanalkapazität wie folgt angegeben:
+
*In der&nbsp; [[Aufgaben:Aufgabe_3.10Z:_BSC–Kanalkapazität|Aufgabe 3.10Z]]&nbsp; wird dessen Kanalkapazität wie folgt angegeben:
 
    
 
    
 
:$$C_{\rm BSC} = 1 - H_{\rm bin} (\varepsilon) \hspace{0.05cm}.$$
 
:$$C_{\rm BSC} = 1 - H_{\rm bin} (\varepsilon) \hspace{0.05cm}.$$
Zeile 288: Zeile 288:
 
==Eigenschaften symmetrischer Kanäle ==  
 
==Eigenschaften symmetrischer Kanäle ==  
 
<br>
 
<br>
Die Kapazitätsberechnung des (allgemeinen) [[Informationstheorie/Anwendung_auf_die_Digitalsignalübertragung#Informationstheoretisches_Modell_der_Digitalsignal.C3.BCbertragung|diskreten gedächtnislosen Kanals]] ist oftmals aufwändig. Sie vereinfacht sich entscheidend, wenn Symmetrien des Kanals ausgenutzt werden. Die Grafik zeigt zwei Beispiele:
+
Die Kapazitätsberechnung des (allgemeinen)&nbsp; [[Informationstheorie/Anwendung_auf_die_Digitalsignalübertragung#Informationstheoretisches_Modell_der_Digitalsignal.C3.BCbertragung|diskreten gedächtnislosen Kanals]]&nbsp; ist oftmals aufwändig.&nbsp; Sie vereinfacht sich entscheidend, wenn Symmetrien des Kanals ausgenutzt werden.&nbsp;
  
*Beim ''gleichmäßig dispersiven'' Kanal (englisch: ''Uniformly Dispersive Channel''&nbsp;) ergibt sich für alle Quellensymbole $x ∈ X$ die genau gleiche Menge an Übergangswahrscheinlichkeiten  &nbsp; ⇒  &nbsp;  $\{P_Y|X(y_κ|x)\}$&nbsp; mit &nbsp;$1 ≤ κ ≤ |Y|$. Für die Werte $q$, $r$, $s$ muss hier &nbsp;$q + r + s = 1$&nbsp; gelten (linke Grafik).
+
[[Datei:P_ID2793__Inf_T_3_3_S6a.png|right|frame|Beispiele symmetrischer Kanäle]]
*Beim ''gleichmäßig fokussierenden'' Kanal (englisch: ''Uniformely Focusing Channel''&nbsp;) ergibt sich für alle Sinkensymbole $y ∈ Y$ die gleiche Menge an Übergangswahrscheinlichkeiten  &nbsp; ⇒  &nbsp; $\{P_Y|X(y|x_μ)\}$&nbsp; mit &nbsp;$1 ≤ μ ≤ |X|$. Hier muss <u>nicht</u> notwendigerweise &nbsp;$t + u + v = 1$&nbsp; gelten (rechte Grafik).
 
  
 +
Die Grafik zeigt zwei Beispiele:
  
[[Datei:P_ID2793__Inf_T_3_3_S6a.png|center|frame|Beispiele symmetrischer Kanäle]]
+
*Beim&nbsp; <u>gleichmäßig dispersiven Kanal</u>&nbsp; (englisch:&nbsp; "Uniformly Dispersive Channel")&nbsp; ergibt sich für alle Quellensymbole&nbsp; $x ∈ X$&nbsp; die genau gleiche Menge an Übergangswahrscheinlichkeiten  &nbsp; ⇒  &nbsp;  $\{P_{Y\hspace{0.03cm}|\hspace{0.01cm}X}(y_κ\hspace{0.05cm}|\hspace{0.05cm}x)\}$&nbsp; mit &nbsp;$1 ≤ κ ≤ |Y|$&nbsp;  (linke Grafik).&nbsp; Es muss stets  &nbsp;$q + r + s = 1$&nbsp; gelten.
 
+
*Beim&nbsp; <u>gleichmäßig fokussierenden Kanal</u>&nbsp; (englisch:&nbsp; "Uniformely Focusing Channel")&nbsp; ergibt sich für alle Sinkensymbole&nbsp; $y ∈ Y$&nbsp; die gleiche Menge an Übergangswahrscheinlichkeiten  &nbsp; ⇒  &nbsp; $\{P_{Y\hspace{0.03cm}|\hspace{0.01cm}X}(y\hspace{0.05cm}|\hspace{0.05cm}x_μ)\}$&nbsp; mit &nbsp;$1 ≤ μ ≤ |X|$&nbsp;  (rechte Grafik).&nbsp; Hier muss <u>nicht</u> notwendigerweise &nbsp;$t + u + v = 1$&nbsp; gelten.
 +
<br clear=all>
 
{{BlaueBox|TEXT=
 
{{BlaueBox|TEXT=
$\text{Definition:}$&nbsp; Ist ein diskreter gedächtnisloser Kanal sowohl gleichmäßig dispersiv als auch gleichmäßig fokussierend, so liegt ein '''streng symmetrischer Kanal''' (englisch: ''Strongly Symmetric Channel''&nbsp;) vor. Bei gleichverteiltem Quellenalphabet besitzt dieser die Kapazität  
+
$\text{Definition:}$&nbsp; Ist ein diskreter gedächtnisloser Kanal sowohl gleichmäßig dispersiv als auch gleichmäßig fokussierend,&nbsp; so liegt ein&nbsp; '''streng symmetrischer Kanal'''&nbsp; (englisch:&nbsp; "Strongly Symmetric Channel")&nbsp; vor.&nbsp; Bei gleichverteiltem Quellenalphabet besitzt dieser die Kapazität  
:$$C = {\rm log}_2 \hspace{0.1cm} \vert Y \vert  + \sum_{y \hspace{0.05cm}\in\hspace{0.05cm} Y} \hspace{0.1cm} P_{\hspace{0.01cm}Y \vert \hspace{0.01cm} X}(y \vert x) \cdot
+
:$$C = {\rm log}_2 \hspace{0.1cm} \vert Y \vert  + \sum_{y \hspace{0.05cm}\in\hspace{0.05cm} Y} \hspace{0.1cm} P_{\hspace{0.03cm}Y \vert \hspace{0.01cm} X}(y\hspace{0.05cm} \vert \hspace{0.05cm}x) \cdot
{\rm log}_2 \hspace{0.1cm}P_{\hspace{0.01cm}Y \vert  \hspace{0.01cm} X}(y\vert x)
+
{\rm log}_2 \hspace{0.1cm}P_{\hspace{0.01cm}Y \vert  \hspace{0.01cm} X}(y\hspace{0.05cm}\vert\hspace{0.05cm} x)
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
  
Für diese Gleichung kann jedes beliebige $x ∈ X$ herangezogen werden.}}
+
Für diese Gleichung kann jedes beliebige&nbsp; $x ∈ X$&nbsp; herangezogen werden.}}
  
  
Diese Definition soll durch ein Beispiel verdeutlicht werden.
+
Diese Definition soll nun durch ein Beispiel verdeutlicht werden.
  
[[Datei:P_ID2794__Inf_T_3_3_S6b.png|right|frame|Streng symmetrischer Kanal mit $\vert X \vert = \vert Y \vert= 3$]]
 
 
{{GraueBox|TEXT=
 
{{GraueBox|TEXT=
$\text{Beispiel 4}$:&nbsp; Beim betrachteten Kanal bestehen Verbindungen zwischen allen $ \vert X \vert  = 3$ Eingängen und allen $ \vert Y \vert  = 3$ Ausgängen:
+
$\text{Beispiel 4}$:&nbsp; Beim betrachteten Kanal gibt es Verbindungen zwischen allen&nbsp; $ \vert X \vert  = 3$&nbsp; Eingängen und allen&nbsp; $ \vert Y \vert  = 3$&nbsp; Ausgängen:
*Eine rote Verbindung steht für $P_{Y \vert X}(y_κ \vert x_μ) = 0.7$.
+
[[Datei:P_ID2794__Inf_T_3_3_S6b.png|right|frame|Streng symmetrischer Kanal mit&nbsp; $\vert X \vert = \vert Y \vert= 3$]]
*Eine blaue Verbindung steht für $P_{Y \vert X}(y_κ \vert x_μ) = 0.2$.
+
 
*Eine grüne Verbindung steht für $P_{Y \vert X}(y_κ \vert x_μ) = 0.1$.
+
*Eine rote Verbindung steht für&nbsp; $P_{Y \hspace{0.03cm}\vert\hspace{0.01cm} X}(y_κ \hspace{0.05cm} \vert \hspace{0.05cm} x_μ) = 0.7$.
 +
*Eine blaue Verbindung steht für&nbsp; $P_{Y \hspace{0.03cm}\vert\hspace{0.01cm} X}(y_κ \hspace{0.05cm}\vert \hspace{0.05cm} x_μ) = 0.2$.
 +
*Eine grüne Verbindung steht für&nbsp; $P_{Y \hspace{0.03cm}\vert\hspace{0.01cm} X}(y_κ \hspace{0.05cm}\vert\hspace{0.05cm} x_μ) = 0.1$.
  
  
Zeile 319: Zeile 321:
 
:$$C = {\rm log}_2 \hspace{0.1cm} (3) + 0.7 \cdot {\rm log}_2 \hspace{0.1cm} (0.7)  
 
:$$C = {\rm log}_2 \hspace{0.1cm} (3) + 0.7 \cdot {\rm log}_2 \hspace{0.1cm} (0.7)  
 
+ 0.2 \cdot {\rm log}_2 \hspace{0.1cm} (0.2) + 0.1 \cdot {\rm log}_2 \hspace{0.1cm} (0.1) = 0.4282 \,\,{\rm bit} \hspace{0.05cm}.$$
 
+ 0.2 \cdot {\rm log}_2 \hspace{0.1cm} (0.2) + 0.1 \cdot {\rm log}_2 \hspace{0.1cm} (0.1) = 0.4282 \,\,{\rm bit} \hspace{0.05cm}.$$
<br clear=all>
+
 
''Hinweise'':  
+
<u>Hinweise:</u>
*Der Zusatz „die gleiche Menge an Übergangswahrscheinlichkeiten” bedeutet nicht, dass $P_Y \vert X(y_κ  \vert x_1) = P_Y \vert X(y_κ  \vert x_2) = P_Y \vert X(y_κ \vert x_3)$ gelten muss.
+
*Der Zusatz&nbsp; „die gleiche Menge an Übergangswahrscheinlichkeiten”&nbsp; bedeutet nicht, dass gelten muss:
 +
:$$P_{Y \hspace{0.03cm}\vert\hspace{0.01cm} X}(y_κ  \hspace{0.05cm}\vert\hspace{0.05cm} x_1) = P_{Y \hspace{0.03cm}\vert\hspace{0.01cm} X}(y_κ  \hspace{0.05cm}\vert\hspace{0.05cm} x_2) = P_{Y \hspace{0.03cm}\vert\hspace{0.01cm} X}(y_κ \hspace{0.05cm}\vert\hspace{0.05cm} x_3).$$  
 
*Vielmehr geht hier von jedem Eingang ein roter, ein blauer und ein grüner Pfeil ab und an jedem Ausgang kommt ein roter, ein blauer und ein grüner Pfeil an.  
 
*Vielmehr geht hier von jedem Eingang ein roter, ein blauer und ein grüner Pfeil ab und an jedem Ausgang kommt ein roter, ein blauer und ein grüner Pfeil an.  
*Die jeweiligen Reihenfolgen permutieren: &nbsp; R – G – B,  B – R – G, G – B – R.}}
+
*Die jeweiligen Reihenfolgen permutieren: &nbsp; R – G – B, &nbsp; &nbsp; B – R – G, &nbsp; &nbsp; G – B – R.}}
  
  
Ein Beispiel für einen streng symmetrischen Kanal ist der [[Kanalcodierung/Klassifizierung_von_Signalen#/media/File:P_ID2341_KC_T_1_2_S2_v2.png|Binary Symmetric Channel]] (BSC). Dagegen ist der [[Kanalcodierung/Klassifizierung_von_Signalen#Binary_Erasure_Channel_.E2.80.93_BEC|Binary Erasure Channel]] (BEC) nicht streng symmetrisch, da er
+
Ein Beispiel für einen streng symmetrischen Kanal ist der&nbsp; [[Kanalcodierung/Klassifizierung_von_Signalen#/media/File:P_ID2341_KC_T_1_2_S2_v2.png|Binary Symmetric Channel]]&nbsp; $\rm (BSC)$.&nbsp; Dagegen ist der&nbsp; [[Kanalcodierung/Klassifizierung_von_Signalen#Binary_Erasure_Channel_.E2.80.93_BEC|Binary Erasure Channel]]&nbsp; $\rm (BEC)$&nbsp; nicht streng symmetrisch,  
*zwar gleichmäßig dispersiv ist,
+
*da er zwar gleichmäßig dispersiv ist,
 
*aber nicht gleichmäßig fokussierend.
 
*aber nicht gleichmäßig fokussierend.
  
Zeile 334: Zeile 337:
  
 
{{BlaueBox|TEXT=
 
{{BlaueBox|TEXT=
$\text{Definition:}$&nbsp; Ein '''symmetrischer Kanal''' (englisch: ''Symmetric Channel''&nbsp;) liegt vor,  
+
$\text{Definition:}$&nbsp; Ein&nbsp; '''symmetrischer Kanal'''&nbsp; (englisch:&nbsp; "Symmetric Channel")&nbsp; liegt vor,  
*wenn er in mehrere (allgemein $L$) streng symmetrische Teilkanäle aufgeteilt werden kann,  
+
*wenn er in mehrere&nbsp; $($allgemein $L)$&nbsp; streng symmetrische Teilkanäle aufgeteilt werden kann,  
*indem das Ausgangsalphabet $Y$ in $L$ Teilmengen $Y_1$, ... , $Y_L$ aufgespalten wird.  
+
*indem das Ausgangsalphabet&nbsp; $Y$&nbsp; in&nbsp; $L$&nbsp; Teilmengen&nbsp; $Y_1$, ... , $Y_L$&nbsp; aufgespalten wird.  
  
  
 
Ein solcher symmetrischer Kanal besitzt die folgende Kapazität:
 
Ein solcher symmetrischer Kanal besitzt die folgende Kapazität:
 
   
 
   
:$$C = \sum_{l \hspace{0.05cm}=\hspace{0.05cm} 1}^{L} \hspace{0.1cm} p_l \cdot C_l \hspace{0.05cm}.$$
+
:$$C = \sum_{l \hspace{0.05cm}=\hspace{0.05cm} 1}^{L} \hspace{0.1cm} p_{\hspace{0.03cm}l} \cdot C_{\hspace{0.03cm}l} \hspace{0.05cm}.$$
  
 
Hierbei sind folgende Bezeichnungen verwendet:
 
Hierbei sind folgende Bezeichnungen verwendet:
* $p_l$ gibt die Wahrscheinlichkeit an, dass der $l$–te Teilkanal ausgewählt wird,
+
* $p_{\hspace{0.03cm}l}$&nbsp; gibt die Wahrscheinlichkeit an,&nbsp; dass der&nbsp; $l$–te Teilkanal ausgewählt wird,
* $C_l$ ist die Kanalkapazität dieses $l$–ten Teilkanals.}}
+
* $C_{\hspace{0.03cm}l}$&nbsp; ist die Kanalkapazität dieses&nbsp; $l$–ten Teilkanals.}}
  
  
[[Datei:P_ID2795__Inf_T_3_3_S6c_neu.png|right|frame|Symmetrischer Kanal, bestehend aus zwei streng symmetrischen Teilkanälen  $\rm A$ und $\rm B$]]
+
[[Datei:P_ID2795__Inf_T_3_3_S6c_neu.png|right|frame|Symmetrischer Kanal, bestehend aus zwei <br>streng symmetrischen Teilkanälen&nbsp; $\rm A$&nbsp; und&nbsp; $\rm B$]]
<br>Die Grafik verdeutlicht diese Definition für $L = 2$, wobei die Teilkanäle mit $\rm A$ und $\rm B$ bezeichnet sind.  
+
Die Grafik verdeutlicht diese Definition für&nbsp; $L = 2$&nbsp; mit den Teilkanälen&nbsp; $\rm A$&nbsp; und&nbsp; $\rm B$.  
*An den unterschiedlich gezeichneten Übergängen (gestrichelt oder gepunktet) erkennt man, dass die zwei Teilkanäle verschieden sein können, so dass allgemein $C_{\rm A} ≠ C_{\rm B}$ gelten wird.
+
*An den unterschiedlich gezeichneten Übergängen (gestrichelt oder gepunktet) erkennt man, dass die Teilkanäle verschieden sein können.&nbsp; Allgemein wird&nbsp; $C_{\rm A} ≠ C_{\rm B}$&nbsp; gelten.
 
*Für die Kapazität des Gesamtkanals erhält man somit allgemein:
 
*Für die Kapazität des Gesamtkanals erhält man somit allgemein:
 
   
 
   
Zeile 356: Zeile 359:
  
 
*Über die Struktur der beiden Teilkanäle wird hier keine Aussage gemacht.  
 
*Über die Struktur der beiden Teilkanäle wird hier keine Aussage gemacht.  
 +
 +
 +
Im folgenden Beispiel wird sich zeigen, dass auch der&nbsp; "Binary Erasure Channel"'&nbsp; $\rm (BEC)$&nbsp; durch diese Grafik grundsätzlich beschreibbar ist.&nbsp; Allerdings müssen dann die zwei Ausgangssysmbole&nbsp; $y_3$&nbsp; und&nbsp; $y_4$&nbsp; zu einem einzigen Symbol zusammengefasst werden.
 
<br clear=all>
 
<br clear=all>
Im folgenden Beispiel wird sich zeigen, dass auch der ''Binary Erasure Channel'' (BEC) durch diese Grafik grundsätzlich beschreibbar ist. Allerdings müssen dann die zwei Ausgangssysmbole $y_3$ und $y_4$ zu einem einzigen Symbol zusammengefasst werden.
+
[[Datei:P_ID2796__Inf_T_3_3_S6d.png|right|frame|$\rm (BEC)$&nbsp; in zwei verschiedenen Darstellungen]]
 
 
[[Datei:P_ID2796__Inf_T_3_3_S6d.png|right|frame|BEC in zwei verschiedenen Darstellungen]]
 
 
{{GraueBox|TEXT=
 
{{GraueBox|TEXT=
$\text{Beispiel 5}$:&nbsp; Die linke Grafik zeigt die übliche Darstellung des [[Kanalcodierung/Klassifizierung_von_Signalen#Binary_Erasure_Channel_.E2.80.93_BEC|Binary Erasure Channels]] (BEC) mit Eingang $X = \{0, 1\}$ und Ausgang $Y = \{0, 1, \text{E} \}$.  
+
$\text{Beispiel 5}$:&nbsp; Die linke Grafik zeigt die übliche Darstellung des&nbsp; [[Kanalcodierung/Klassifizierung_von_Signalen#Binary_Erasure_Channel_.E2.80.93_BEC|Binary Erasure Channels]]&nbsp; $\rm (BEC)$&nbsp; mit Eingang&nbsp; $X = \{0,\ 1\}$&nbsp; und Ausgang&nbsp; $Y = \{0,\ 1,\ \text{E} \}$.  
  
Teilt man diesen gemäß der rechten Grafik auf in
+
Teilt man diesen entsprechend der rechten Grafik auf in
*einen idealen Kanal $(y = x)$ für
+
*einen idealen Kanal&nbsp; $(y = x)$&nbsp; für
:$$y ∈ Y_{\rm A} = \{0, 1\} \ ⇒  \ C_{\rm A} = 1 \ \rm bit/use,$$
+
:$$y ∈ Y_{\rm A} = \{0,\ 1\} \ \ ⇒  \ \ C_{\rm A} = 1 \ \rm bit/use,$$
 
*einen Auslöschungskanal für
 
*einen Auslöschungskanal für
:$$y ∈ Y_{\rm B} = \{\rm E \} \ ⇒  \ C_{\rm B} = 0,$$
+
:$$y ∈ Y_{\rm B} = \{\rm E \} \ \ ⇒  \ \ C_{\rm B} = 0,$$
  
 
+
so ergibt sich mit den Teilkanalgewichtungen&nbsp; $p_{\rm A} = 1 – λ$&nbsp; und&nbsp; $p_{\rm B} = λ$&nbsp; für die Kanalkapazität:
so ergibt sich mit den Teilkanalgewichtungen $p_{\rm A} = 1 – λ$ und $p_{\rm B} = λ$ für die Kanalkapazität:
 
 
   
 
   
 
:$$C_{\rm BEC} = p_{\rm A} \cdot C_{\rm A} = 1 - \lambda \hspace{0.05cm}.$$
 
:$$C_{\rm BEC} = p_{\rm A} \cdot C_{\rm A} = 1 - \lambda \hspace{0.05cm}.$$
  
Beide Kanäle sind streng symmetrisch. Für den (idealen) Kanal $\rm A$ gilt gleichermaßen
+
Beide Kanäle sind streng symmetrisch.&nbsp; Für den (idealen) Kanal&nbsp; $\rm A$&nbsp; gilt gleichermaßen
*für $X = 0$ und $X = 1$: &nbsp;  $\text{Pr}(Y = 0 \vert X) = \text{Pr}(Y = 1 \vert X) = 1 - λ$  &nbsp;  ⇒  &nbsp;  gleichmäßig dispersiv,
+
*für&nbsp; $X = 0$&nbsp; und&nbsp; $X = 1$: &nbsp; &nbsp;  $\text{Pr}(Y = 0 \hspace{0.05cm}\vert \hspace{0.05cm} X) = \text{Pr}(Y = 1 \hspace{0.05cm} \vert\hspace{0.05cm} X) = 1 - λ$  &nbsp;  ⇒  &nbsp;  gleichmäßig dispersiv,
*für $Y = 0$ und $Y = 1$:  &nbsp;  $\text{Pr}(Y  \vert X = 0) = Pr(Y \vert X = 1) = 1 - λ$  &nbsp; ⇒  &nbsp;  gleichmäßig fokussierend.
+
*für&nbsp; $Y = 0$ &nbsp;und&nbsp;&nbsp; $Y = 1$: &nbsp; &nbsp;  $\text{Pr}(Y  \hspace{0.05cm} \vert \hspace{0.05cm} X= 0) = Pr(Y \hspace{0.05cm}\vert\hspace{0.05cm} X = 1) = 1 - λ$  &nbsp; ⇒  &nbsp;  gleichmäßig fokussierend.
  
  
Entsprechendes gilt für den Auslöschungskanal $\rm B$.}}
+
Entsprechendes gilt für den Auslöschungskanal&nbsp; $\rm B$.}}
  
  
In der [[Aufgaben:3.11_Streng_symmetrische_Kanäle|Aufgabe 3.12]] wird sich zeigen, dass die Kapazität des Kanalmodells [[Kanalcodierung/Klassifizierung_von_Signalen#Binary_Symmetric_Error_.26_Erasure_Channel_.E2.80.93_BSEC|Binary Symmetric Error & Erasure Channel]] (BSEC) in gleicher Weise berechnet werden kann. Man erhält hierfür
+
In&nbsp; [[Aufgaben:3.11_Streng_symmetrische_Kanäle|Aufgabe 3.12]]&nbsp; wird sich zeigen, dass die Kapazität des Modells&nbsp; [[Kanalcodierung/Klassifizierung_von_Signalen#Binary_Symmetric_Error_.26_Erasure_Channel_.E2.80.93_BSEC|Binary Symmetric Error & Erasure Channel]]&nbsp; $\rm (BSEC)$&nbsp; in gleicher Weise berechnet werden kann.&nbsp; Man erhält:
  
 
:$$C_{\rm BSEC}  = (1- \lambda) \cdot \left [ 1 - H_{\rm bin}(\frac{\varepsilon}{1- \lambda}) \right ]$$
 
:$$C_{\rm BSEC}  = (1- \lambda) \cdot \left [ 1 - H_{\rm bin}(\frac{\varepsilon}{1- \lambda}) \right ]$$
  
*mit der Verfälschungswahrscheinlichkeit $ε$  
+
*mit der Verfälschungswahrscheinlichkeit&nbsp; $ε$  
*und der Auslöschungswahrscheinlichkeit $λ$.
+
*und der Auslöschungswahrscheinlichkeit&nbsp; $λ$.
  
  
Zeile 393: Zeile 396:
 
==Einige Grundlagen der Kanalcodierung ==  
 
==Einige Grundlagen der Kanalcodierung ==  
 
<br>
 
<br>
Um das Kanalcodierungstheorem richtig interpretieren zu können, sind einige Grundlagen der ''Kanalcodierung'' (englisch: ''Channel Coding'') erforderlich. Dieses äußerst wichtige Gebiet der Nachrichtentechnik wird in unserem Lerntutorial $\rm LNTwww$ in einem eigenen Buch namens  [[Kanalcodierung]] behandelt.
+
Um das Kanalcodierungstheorem richtig interpretieren zu können, sind einige Grundlagen der&nbsp; '''Kanalcodierung'''&nbsp; (englisch:&nbsp; "Channel Coding")&nbsp; erforderlich.&nbsp; Dieses äußerst wichtige Gebiet der Nachrichtentechnik wird in unserem Lerntutorial&nbsp; $\rm LNTwww$&nbsp; in einem eigenen Buch namens&nbsp; [[Kanalcodierung]]&nbsp; behandelt.
  
 
[[Datei:P_ID2797__Inf_T_3_3_S7a.png|center|frame|Modell für die binär&ndash;codierte Informationsübertragung]]
 
[[Datei:P_ID2797__Inf_T_3_3_S7a.png|center|frame|Modell für die binär&ndash;codierte Informationsübertragung]]
  
Die folgende Beschreibung bezieht sich auf das stark vereinfachte Modell für [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes|binäre Blockcodes]]:
+
Die folgende Beschreibung bezieht sich auf das stark vereinfachte Modell für&nbsp; [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes|binäre Blockcodes]]:
*Die unendlich lange Quellensymbolfolge $\underline{u}$ (hier nicht dargestellt) wird in Blöcke zu jeweils $k$ Bit unterteilt. Wir bezeichnen den Informationsblock mit der laufenden Nummerierung $j$ mit $\underline{u}_j^{(k)}$.
+
*Die unendlich lange Quellensymbolfolge&nbsp; $\underline{u}$&nbsp; (hier nicht dargestellt)&nbsp; wird in Blöcke zu jeweils&nbsp; $k$&nbsp; Bit unterteilt.&nbsp; Wir bezeichnen den Informationsblock mit der laufenden Nummerierung&nbsp; $j$&nbsp; mit&nbsp; $\underline{u}_j^{(k)}$.
*Jeder Informationsblock $\underline{u}_j^{(k)}$ wird durch den gelb hinterlegten Kanalcoder in ein Codewort $\underline{x}_j^{(n)}$ umgesetzt, wobei $n > k$ gelten soll. Das Verhältnis $R = k/n$ bezeichnet man als die ''Coderate''.
+
*Jeder Informationsblock&nbsp; $\underline{u}_j^{(k)}$&nbsp; wird durch den gelb hinterlegten Kanalcoder in ein Codewort&nbsp; $\underline{x}_j^{(n)}$&nbsp; umgesetzt, wobei&nbsp; $n > k$&nbsp; gelten soll.&nbsp; Das Verhältnis&nbsp; $R = k/n$&nbsp; bezeichnet man als die&nbsp; '''Coderate'''.
*Der ''Discrete Memoryless Channel'' (DMC) wird durch Übergangswahrscheinlichkeiten $P_{Y\hspace{0.03cm}|\hspace{0.03cm}X}(⋅)$ berücksichtigt. Dieser grün hinterlegte Block bewirkt Fehler auf Bitebene &nbsp; &nbsp; $y_{j, \hspace{0.03cm}i} ≠ x_{j,\hspace{0.03cm} i}$.
+
*Der&nbsp; "Discrete Memoryless Channel"&nbsp; $\rm (DMC)$&nbsp; wird durch Übergangswahrscheinlichkeiten&nbsp; $P_{Y\hspace{0.03cm}|\hspace{0.03cm}X}(⋅)$&nbsp; berücksichtigt.&nbsp; Dieser grün hinterlegte Block bewirkt Fehler auf Bitebene.&nbsp; Es kann also gelten: &nbsp; $y_{j, \hspace{0.06cm}i} ≠ x_{j,\hspace{0.06cm} i}$.
*Damit unterscheiden sich auch die aus $n$ Bit bestehenden Empfangsblöcke $\underline{y}_j^{(n)}$ von den Codeworten $\underline{x}_j^{(n)}$. Ebenso gilt im allgemeinen für die Blöcke nach dem Deoder: $\underline{v}_j^{(k)} ≠ \underline{u}_j^{(k)}$.
+
*Damit können sich auch die aus&nbsp; $n$&nbsp; Bit bestehenden Empfangsblöcke&nbsp; $\underline{y}_j^{(n)}$&nbsp; von den Codeworten&nbsp; $\underline{x}_j^{(n)}$ unterscheiden .&nbsp; Ebenso gilt im allgemeinen für die Blöcke nach dem Deoder:&nbsp; $\underline{v}_j^{(k)} ≠ \underline{u}_j^{(k)}$.
  
  
 
{{GraueBox|TEXT=
 
{{GraueBox|TEXT=
 
$\text{Beispiel 6}$:&nbsp;  
 
$\text{Beispiel 6}$:&nbsp;  
Die Grafik soll die hier verwendete Nomenklatur am Beispiel $k = 3$ &nbsp;und&nbsp; $n = 4$ verdeutlichen. Dargestellt sind die jeweils ersten acht Blöcke der Informationssequenz $\underline{u}$ und der Codesequenz $\underline{x}$.  
+
Die Grafik soll die hier verwendete Nomenklatur am Beispiel&nbsp;  $k = 3$ &nbsp;und&nbsp; $n = 4$&nbsp; verdeutlichen.&nbsp; Dargestellt sind die jeweils ersten acht Blöcke der Informationssequenz&nbsp; $\underline{u}$&nbsp; und der&nbsp; Codesequenz&nbsp; $\underline{x}$.  
  
[[Datei:P_ID2798__Inf_T_3_3_S7b_neu.png|center|frame|Zur Bitbezeichnung von Informationsblock und Codewort]]
+
[[Datei:P_ID2798__Inf_T_3_3_S7b_neu.png|right|frame|Zur Bitbezeichnung von Informationsblock und Codewort]]
 
Man erkennt folgende Zuordnung zwischen der geblockten und der ungeblockten Beschreibung:
 
Man erkennt folgende Zuordnung zwischen der geblockten und der ungeblockten Beschreibung:
*Bit 3 des 1. Info–Blocks  $u_{1,\hspace{0.08cm} 3}$ entspricht dem Symbol $u_3$ in ungeblockter Darstellung.
+
*Info–Block 1,&nbsp; Bit 3 &nbsp; &nbsp; $u_{1,\hspace{0.08cm} 3}$&nbsp; entspricht dem Symbol&nbsp; $u_3$.
*Bit 1 des 2. Info–Blocks  $u_{2, \hspace{0.08cm}1}$ entspricht dem Symbol $u_4$ in ungeblockter Darstellung.
+
*Info–Block 2,&nbsp; Bit 1 &nbsp; &nbsp; $u_{2, \hspace{0.08cm}1}$&nbsp; entspricht dem Symbol&nbsp; $u_4$.
*Bit 2 des 6. Info–Blocks  $u_{6, \hspace{0.08cm}2}$ entspricht dem Symbol $u_{17}$ in ungeblockter Darstellung.
+
*Info–Block 6,&nbsp; Bit 2 &nbsp; &nbsp; $u_{6, \hspace{0.08cm}2}$&nbsp; entspricht dem Symbol&nbsp; $u_{17}$.
*Bit 4 des 1. Codewortes  $x_{1, \hspace{0.08cm}4}$ entspricht dem Symbol $x_4$ in ungeblockter Darstellung.
+
*Codewort 1,&nbsp; Bit 4 &nbsp; &nbsp; $x_{1, \hspace{0.08cm}4}$&nbsp; entspricht dem Symbol&nbsp; $x_4$.
*Bit 1 des 2. Codewortes  $x_{2, \hspace{0.08cm}1}$ entspricht dem Symbol $x_5$ in ungeblockter Darstellung.
+
*Codewort 2,&nbsp; Bit 1 &nbsp; &nbsp; $x_{2, \hspace{0.08cm}1}$&nbsp; entspricht dem Symbol&nbsp; $x_5$.
*Bit 2 des 6. Codewortes  $x_{6, \hspace{0.08cm}2}$ entspricht dem Symbol $x_{22}$ in ungeblockter Darstellung.}}
+
*Codewort 6,&nbsp; Bit 2 &nbsp; &nbsp; $x_{6, \hspace{0.08cm}2}$&nbsp; entspricht dem Symbol&nbsp; $x_{22}$.}}
  
 
==Zusammenhang zwischen  Blockfehlern und Bitfehlern==
 
==Zusammenhang zwischen  Blockfehlern und Bitfehlern==
 
<br>
 
<br>
Zur Interpretation des Kanalcodierungstheorems benötigen wir noch verschiedene Definitionen für „Fehlerwahrscheinlichkeiten”. Aus dem obigen Systemmodell lassen sich folgende Größen ableiten:
+
Zur Interpretation des Kanalcodierungstheorems benötigen wir noch verschiedene Fehlerwahrscheinlichkeits&ndash;Definitionen.&nbsp; Aus dem obigen Systemmodell lassen sich verschiedene Beschreibungsgrößen ableiten:
  
 
{{BlaueBox|TEXT=
 
{{BlaueBox|TEXT=
 
+
$\text{Definitionen:}$
*Die '''Kanalfehlerwahrscheinlichkeit''' ergibt sich beim vorliegenden Kanalmodell zu
+
*Die&nbsp; $\rm {Kanalfehlerwahrscheinlichkeit}$&nbsp; ergibt sich beim vorliegenden Kanalmodell zu
 
   
 
   
 
:$${\rm Pr(Kanalfehler)} = {\rm Pr} \left ({y}_{j,\hspace{0.05cm} i} \ne {x}_{j,\hspace{0.05cm} i}
 
:$${\rm Pr(Kanalfehler)} = {\rm Pr} \left ({y}_{j,\hspace{0.05cm} i} \ne {x}_{j,\hspace{0.05cm} i}
 
\right )\hspace{0.05cm}.$$
 
\right )\hspace{0.05cm}.$$
  
:Beispielsweise ist beim BSC–Modell  $\text{Pr(Kanalfehler)} = ε$  für alle $j = 1, 2$, ... und $1 ≤ i ≤ n$.
+
:Beispielsweise ist beim BSC–Modell&nbsp; $\text{Pr(Kanalfehler)} = ε$&nbsp; für alle&nbsp; $j = 1, 2$, ... &nbsp;und&nbsp; $1 ≤ i ≤ n$.
*Die '''Blockfehlerwahrscheinlichkeit''' bezieht sich auf die zugeordneten Informationsblöcke am Codereingang &nbsp; ⇒  &nbsp; $\underline{u}_j^{(k)}$ und am Decoderausgang  &nbsp; ⇒  &nbsp; $\underline{v}_j^{(k)}$, jeweils in Blöcken zu $k$ Bit:
+
*Die&nbsp; $\rm {Blockfehlerwahrscheinlichkeit}$&nbsp; bezieht sich auf die zugeordneten Informationsblöcke am Codereingang &nbsp; ⇒  &nbsp; $\underline{u}_j^{(k)}$&nbsp; und am Decoderausgang  &nbsp; ⇒  &nbsp; $\underline{v}_j^{(k)}$, <br>jeweils in Blöcken zu&nbsp; $k$&nbsp; Bit:
 
   
 
   
 
:$${\rm Pr(Blockfehler)} = {\rm Pr} \left (\underline{\upsilon}_j^{(k)} \ne \underline{u}_j^{(k)}
 
:$${\rm Pr(Blockfehler)} = {\rm Pr} \left (\underline{\upsilon}_j^{(k)} \ne \underline{u}_j^{(k)}
 
\right )\hspace{0.05cm}.$$
 
\right )\hspace{0.05cm}.$$
  
*Die '''Bitfehlerwahrscheinlichkeit''' bezieht sich ebenfalls auf den Eingang und den Ausgang des betrachteten Codiersystems, allerdings auf Bitebene:
+
*Die&nbsp; $\rm {Bitfehlerwahrscheinlichkeit}$&nbsp; bezieht sich ebenfalls auf den Eingang und den Ausgang des betrachteten Codiersystems, allerdings auf Bitebene:
 
   
 
   
 
:$${\rm Pr(Bitfehler)} = {\rm Pr} \left ({\upsilon}_{j,\hspace{0.05cm} i} \ne {u}_{j,\hspace{0.05cm} i}
 
:$${\rm Pr(Bitfehler)} = {\rm Pr} \left ({\upsilon}_{j,\hspace{0.05cm} i} \ne {u}_{j,\hspace{0.05cm} i}
 
\right )\hspace{0.05cm}.$$
 
\right )\hspace{0.05cm}.$$
  
:Hierbei ist vereinfachend vorausgesetzt, dass alle $k$ Bit $u_{j,\hspace{0.08cm}i}$ des Informationsblockes $j$ mit gleicher Wahrscheinlichkeit verfälscht werden ($1 ≤ i ≤ k$). Andernfalls müsste über die $k$ Bit noch gemittelt werden.
+
:Hierbei ist vereinfachend vorausgesetzt, dass alle&nbsp; $k$&nbsp; Bit&nbsp; $u_{j,\hspace{0.08cm}i}$&nbsp; des Informationsblockes&nbsp; $j$&nbsp; mit gleicher Wahrscheinlichkeit verfälscht werden&nbsp; $(1 ≤ i ≤ k)$. Andernfalls müsste über die&nbsp; $k$&nbsp; Bit noch gemittelt werden.}}
  
  
 
Zwischen der Blockfehler– und der Bitfehlerwahrscheinlichkeit besteht allgemein der Zusammenhang:
 
Zwischen der Blockfehler– und der Bitfehlerwahrscheinlichkeit besteht allgemein der Zusammenhang:
 
   
 
   
:$${1}/{k} \cdot {\rm Pr(Blockfehler)} \le {\rm Pr(Bitfehler)} \le {\rm Pr(Blockfehler)}  
+
:$$\frac{1}{k} \cdot {\rm Pr(Blockfehler)} \le {\rm Pr(Bitfehler)} \le {\rm Pr(Blockfehler)}  
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
  
 
*Die untere Schranke ergibt sich, wenn bei allen fehlerhaften Blöcken alle Bit falsch sind.
 
*Die untere Schranke ergibt sich, wenn bei allen fehlerhaften Blöcken alle Bit falsch sind.
*Gibt es in jedem fehlerhaften Block genau nur einen einzigen Bitfehler, dann ist die Bitfehlerwahrscheinlichkeit &nbsp; &rArr; &nbsp; ${\rm Pr(Bitfehler)}$ identisch mit der Blockfehlerwahrscheinlichkeit &nbsp; &rArr; &nbsp; ${\rm Pr(Blockfehler)}$.}}
+
*Gibt es in jedem fehlerhaften Block genau nur einen einzigen Bitfehler, dann ist die Bitfehlerwahrscheinlichkeit identisch mit der Blockfehlerwahrscheinlichkeit:
 
+
:$${\rm Pr(Bitfehler)} \equiv {\rm Pr(Blockfehler)} \hspace{0.05cm}.$$
  
 
[[Datei:P_ID2823__Inf_T_3_3_S7c_neu.png|frame|Zur Definition verschiedener Fehlerwahrscheinlichkeiten]]
 
[[Datei:P_ID2823__Inf_T_3_3_S7c_neu.png|frame|Zur Definition verschiedener Fehlerwahrscheinlichkeiten]]
 
{{GraueBox|TEXT=
 
{{GraueBox|TEXT=
$\text{Beispiel 7:}$&nbsp; Die Grafik zeigt oben die ersten acht Empfangsblöcke $\underline{y}_j^{(n)}$ mit jeweils $n = 4$ Bit:
+
$\text{Beispiel 7:}$&nbsp; Die Grafik zeigt oben die ersten acht Empfangsblöcke&nbsp; $\underline{y}_j^{(n)}$&nbsp; mit jeweils&nbsp; $n = 4$ Bit.&nbsp; Kanalfehler sind grün schraffiert.  
* Kanalfehler sind grün schraffiert.  
 
  
Unten ist die Ausgangsfolge $\underline{v}$ skizziert, unterteilt in Blöcke $\underline{v}_j^{(k)}$ zu je $k = 3$ Bit:
+
Unten ist die Ausgangsfolge&nbsp; $\underline{v}$&nbsp; nach dem Decoder skizziert, unterteilt in Blöcke&nbsp; $\underline{v}_j^{(k)}$&nbsp; mit jeweils&nbsp; $k = 3$&nbsp; Bit:
 
*Bitfehler sind im unteren Diagramm rot schraffiert.
 
*Bitfehler sind im unteren Diagramm rot schraffiert.
 
*Blockfehler erkennt man an der blauen Umrahmung.
 
*Blockfehler erkennt man an der blauen Umrahmung.
<br clear=all>
 
Hierzu einige (aufgrund der kurzen Folge) vage Angaben zu den Fehlerwahrscheinlichkeiten:
 
*Die Hälfte der Empfangsbits sind grün schraffiert. Daraus folgt: &nbsp; ${\rm Pr(Kanalfehler)} = 16/32 = 1/2.$
 
  
*Die Bitfehlerwahrscheinlichkeit lautet mit der beispielhaften Codierung & Decodierung: &nbsp; ${\rm Pr(Bitfehler)} = 8/24 = 1/3.$
 
  
*Dagegen würde bei uncodierter Übertragung gelten: &nbsp; ${\rm Pr(Bitfehler)} = {\rm Pr(Kanalfehler)} = 1/2.$
+
Hierzu einige (aufgrund der kurzen Folge) nur sehr vage Angaben zu den Fehlerwahrscheinlichkeiten:
 +
*Die Hälfte der Empfangsbits sind grün schraffiert. Daraus folgt: &nbsp;  
 +
:$${\rm Pr(Kanalfehler)} = 16/32 = 1/2.$$
 +
 
 +
*Die Bitfehlerwahrscheinlichkeit lautet mit der beispielhaften Codierung und Decodierung: &nbsp;
 +
:$${\rm Pr(Bitfehler)} = 8/24 = 1/3.$$
  
*Die Hälfte der decodierten Blöcke sind blau umrandet. Daraus folgt: &nbsp; ${\rm Pr(Blockfehler)} = 4/8 = 1/2.$
+
*Dagegen würde bei uncodierter Übertragung gelten: &nbsp;  
 +
:$${\rm Pr(Bitfehler)} = {\rm Pr(Kanalfehler)}  = 1/2.$$
  
 +
*Die Hälfte der decodierten Blöcke sind blau umrandet. Daraus folgt: &nbsp;
 +
:$${\rm Pr(Blockfehler)} = 4/8 = 1/2.$$
  
Mit ${\rm Pr(Blockfehler)}= 1/2$ und $k = 3$ liegt die Bitfehlerwahrscheinlichkeit in folgendem Bereich: &nbsp; $1/6  \le {\rm Pr(Bitfehler)} \le 1/2  
+
*Mit &nbsp;${\rm Pr(Blockfehler)}= 1/2$&nbsp; und &nbsp;$k = 3$&nbsp; liegt die Bitfehlerwahrscheinlichkeit in folgendem Bereich: &nbsp;  
  \hspace{0.05cm}.$
+
:$$1/6  \le {\rm Pr(Bitfehler)} \le 1/2  
 +
  \hspace{0.05cm}.$$
  
*Die obere Schranke ergibt sich, wenn in jedem der vier verfälschten Blöcke alle Bit falsch sind: &nbsp;  ${\rm Pr(Bitfehler)} = 12/24 = 1/2$.
+
#Die obere Schranke bezüglich Bitfehler ergibt sich, wenn in jedem der vier verfälschten Blöcke alle Bit falsch sind: &nbsp;  ${\rm Pr(Bitfehler)} = 12/24 = 1/2.$
*Die untere Schranke gibt an, dass in jedem der vier verfälschten Blöcke jeweils nur ein Bit falsch ist:  &nbsp;    ${\rm Pr(Bitfehler)} = 4/24 = 1/6$.}}
+
#Die untere Schranke gibt an, dass in jedem der vier verfälschten Blöcke jeweils nur ein Bit falsch ist:  &nbsp;    ${\rm Pr(Bitfehler)} = 4/24 = 1/6$.}}
  
  
 
==Rate, Kanalkapazität und Bitfehlerwahrscheinlichkeit==   
 
==Rate, Kanalkapazität und Bitfehlerwahrscheinlichkeit==   
 
<br>
 
<br>
Grundsätzlich gilt:
+
{{BlaueBox|TEXT=
*Durch Kanalcodierung wird die Zuverlässigkeit (englisch: ''Reliability'') der Datenübertragung von der Quelle zur Sinke erhöht.  
+
$\text{Grundsätzlich gilt}$:
*Vermindert man die Coderate $R = k/n$ und erhöht so die hinzugefügte Redundanz ($1 R$), so wird im allgemeinen die Datensicherheit verbessert und damit die Bitfehlerwahrscheinlichkeit herabgesetzt, die wir im Weiteren kurz $p_{\rm B}$ nennen:
+
*Durch Kanalcodierung wird die Zuverlässigkeit&nbsp; (englisch:&nbsp; "Reliability")&nbsp; der Datenübertragung von der Quelle zur Sinke erhöht.  
 +
*Vermindert man die Coderate&nbsp; $R = k/n$&nbsp; und erhöht so die hinzugefügte Redundanz&nbsp; $(1 - R)$, so wird im allgemeinen die Datensicherheit verbessert und damit die Bitfehlerwahrscheinlichkeit herabgesetzt, die wir im Weiteren kurz mit&nbsp; $p_{\rm B}$&nbsp; bezeichnen:
 
   
 
   
 
:$$p_{\rm B} = {\rm Pr(Bitfehler)} = {\rm Pr} \left ({\upsilon}_{j,\hspace{0.05cm} i} \ne {u}_{j,\hspace{0.05cm} i}
 
:$$p_{\rm B} = {\rm Pr(Bitfehler)} = {\rm Pr} \left ({\upsilon}_{j,\hspace{0.05cm} i} \ne {u}_{j,\hspace{0.05cm} i}
\right )\hspace{0.05cm}.$$
+
\right )\hspace{0.05cm}.$$}}
 +
 
  
Das folgende Theorem basiert auf dem ''Data Processing Theorem'' und ''Fano's Lemma''. Die Herleitung kann in den Standardwerken zur Informationstheorie nachgelesen werden, zum Beispiel in [CT06]<ref name="CT06" />:
+
Das folgende Theorem basiert auf dem&nbsp; "Data Processing Theorem"&nbsp; und&nbsp; "Fano's Lemma".&nbsp; Die Herleitung kann in den Standardwerken zur Informationstheorie nachgelesen werden,&nbsp; zum Beispiel in&nbsp; [CT06]<ref name="CT06" />:
  
 
{{BlaueBox|TEXT=
 
{{BlaueBox|TEXT=
$\text{Umkehrung des Shannonschen Kanalcodierungstheorems:}$&nbsp;  
+
$\text{Umkehrung des Shannonschen Kanalcodierungstheorems:}$&nbsp;
Benutzt man zur Datenübertragung mit Rate $R$ einen Kanal mit zu kleiner Kapazität $C < R$, so kann auch bei bestmöglicher Kanalcodierung die Bitfehlerwahrscheinlichkeit $p_{\rm B}$ eine untere Schranke nicht unterschreiten:
+
 +
Benutzt man zur Datenübertragung mit Rate&nbsp; $R$&nbsp; einen Kanal mit zu kleiner Kapazität&nbsp; $C < R$, so kann die Bitfehlerwahrscheinlichkeit&nbsp; $p_{\rm B}$&nbsp;  auch bei bestmöglicher Kanalcodierung eine untere Schranke nicht unterschreiten:
 
   
 
   
 
:$$p_{\rm B} \ge H_{\rm bin}^{-1} \cdot \left ( 1 - {C}/{R}\right ) > 0\hspace{0.05cm}.$$
 
:$$p_{\rm B} \ge H_{\rm bin}^{-1} \cdot \left ( 1 - {C}/{R}\right ) > 0\hspace{0.05cm}.$$
  
Hierbei bezeichnet$H_{\rm bin}(⋅)$ die [[Informationstheorie/Gedächtnislose_Nachrichtenquellen#Bin.C3.A4re_Entropiefunktion|binäre Entropiefunktion]].}}
+
Hierbei bezeichnet&nbsp; $H_{\rm bin}(⋅)$&nbsp; die&nbsp; [[Informationstheorie/Gedächtnislose_Nachrichtenquellen#Bin.C3.A4re_Entropiefunktion|binäre Entropiefunktion]].}}
  
  
Da die Wahrscheinlichkeit der Blockfehler nie kleiner sein kann als die der Bitfehler, ist für $R > C$ auch die Blockfehlerwahrscheinlichkeit „0” nicht möglich. Aus dem angegebenen Bereich für die Bitfehler,
+
Da die Wahrscheinlichkeit der Blockfehler nie kleiner sein kann als die der Bitfehler,&nbsp; ist für&nbsp; $R > C$&nbsp; auch die Blockfehlerwahrscheinlichkeit „Null” nicht möglich.&nbsp; <br>Aus den angegebenen Schranken für die Bitfehler,
 
   
 
   
 
:$${1}/{k} \cdot {\rm Pr}({\rm Blockfehler}) \le  {\rm Pr}({\rm Bitfehler}) \le  {\rm Pr}({\rm Blockfehler})\hspace{0.05cm},$$
 
:$${1}/{k} \cdot {\rm Pr}({\rm Blockfehler}) \le  {\rm Pr}({\rm Bitfehler}) \le  {\rm Pr}({\rm Blockfehler})\hspace{0.05cm},$$
Zeile 506: Zeile 516:
  
 
{{GraueBox|TEXT=
 
{{GraueBox|TEXT=
$\text{Beispiel 8:}$&nbsp; Verwendet man einen Kanal mit der Kapazität $C = 1/3 \ \rm (bit)$ zur Datenübertragung mit der Coderate $R < 1/3$, so ist prinzipiell die Bitfehlerwahrscheinlichkeit $p_{\rm B} = 0$ möglich.
+
$\text{Beispiel 8:}$&nbsp; Bei einem Kanal mit Kapazität&nbsp; $C = 1/3$&nbsp; (bit) ist eine fehlerfreie Datenübertragung &nbsp; $(p_{\rm B} = 0)$&nbsp; mit der Coderate&nbsp; $R < 1/3$&nbsp; prinzipiell möglich.
*Allerdings ist aus dem Kanalcodierungstheorem der spezielle ($k$, $n$)–Blockcode nicht bekannt, der dieses Wunschergebnis ermöglicht. Auch Shannon macht hierzu keine Aussagen.
+
*Allerdings ist aus dem Kanalcodierungstheorem der spezielle&nbsp; $(k$,&nbsp;  $n)$–Blockcode nicht bekannt, der dieses Wunschergebnis ermöglicht.&nbsp;  Auch Shannon macht hierzu keine Aussagen.
*Bekannt ist nur, dass ein solcher bestmöglicher Code mit unendlich langen Blöcken arbeitet. Bei gegebener Coderate $R = k/n$ gilt somit sowohl $k → ∞$ als auch $n → ∞$.
+
*Bekannt ist nur, dass ein solcher bestmöglicher Code mit unendlich langen Blöcken arbeitet.&nbsp; Bei gegebener Coderate&nbsp; $R = k/n$&nbsp; gilt somit sowohl&nbsp; $k → ∞$&nbsp; als auch&nbsp; $n → ∞$.
*Deshalb ist die Aussage „Die Bitfehlerwahrscheinlichkeit ist 0” nicht identisch mit „Es treten keine Bitfehler auf”: Auch bei endlich vielen Bitfehlern und $k → ∞$ gilt nämlich $p_{\rm B} = 0$.
+
*Deshalb ist die Aussage&nbsp; „Die Bitfehlerwahrscheinlichkeit ist Null”&nbsp; nicht identisch mit&nbsp; „Es treten keine Bitfehler auf”: &nbsp; Auch bei endlich vielen Bitfehlern und&nbsp; $k → ∞$&nbsp; gilt nämlich&nbsp; $p_{\rm B} = 0$.
  
  
Mit der Coderate $R = 1$ (uncodierte Übertragung) erhält man:
+
Mit der Coderate&nbsp; $R = 1 > C$&nbsp; (uncodierte Übertragung) erhält man:
 
   
 
   
:$$p_{\rm B} \ge H_{\rm bin}^{-1} \cdot \left ( 1 - \frac{1/3}{1.0}\right )  
+
:$$p_{\rm B} \ge H_{\rm bin}^{-1} \cdot \left ( 1 - \frac{1/3}{1}\right )  
 
= H_{\rm bin}^{-1}(2/3) \approx 0.174  
 
= H_{\rm bin}^{-1}(2/3) \approx 0.174  
 
> 0\hspace{0.05cm}.$$
 
> 0\hspace{0.05cm}.$$
  
Mit der Coderate $R = 1/2 > C$ ist die Bitfehlerwahrscheinlichkeit zwar kleiner, aber ebenfalls von  Null verschieden:
+
Mit der Coderate&nbsp; $R = 1/2 > C$&nbsp; ist die Bitfehlerwahrscheinlichkeit zwar kleiner,&nbsp; aber ebenfalls von  Null verschieden:
 
   
 
   
 
:$$p_{\rm B} \ge H_{\rm bin}^{-1} \cdot \left ( 1 - \frac{1/3}{1/2}\right )  
 
:$$p_{\rm B} \ge H_{\rm bin}^{-1} \cdot \left ( 1 - \frac{1/3}{1/2}\right )  

Aktuelle Version vom 22. Juli 2021, 15:44 Uhr

Informationstheoretisches Modell der Digitalsignalübertragung


Die bisher allgemein definierten Entropien werden nun auf die Digitalsignalübertragung angewendet, wobei wir von einem  digitalen Kanalmodell ohne Gedächtnis  (englisch:  "Discrete Memoryless Channel", DMC)  entsprechend der Grafik ausgehen:

Betrachtetes Modell der Digitalsignalübertragung
  • Die Menge der Quellensymbole wird durch die diskrete Zufallsgröße  $X$  charakterisiert, wobei  $|X|$  den Quellensymbolumfang angibt:
$$X = \{\hspace{0.05cm}x_1\hspace{0.05cm}, \hspace{0.15cm} x_2\hspace{0.05cm},\hspace{0.15cm} \text{...}\hspace{0.1cm} ,\hspace{0.15cm} x_{\mu}\hspace{0.05cm}, \hspace{0.15cm}\text{...}\hspace{0.1cm} , \hspace{0.15cm} x_{|X|}\hspace{0.05cm}\}\hspace{0.05cm}.$$
  • Entsprechend kennzeichnet  $Y$  die Menge der Sinkensymbole mit dem Symbolumfang  $|Y|$:
$$Y = \{\hspace{0.05cm}y_1\hspace{0.05cm}, \hspace{0.15cm} y_2\hspace{0.05cm},\hspace{0.15cm} \text{...}\hspace{0.1cm} ,\hspace{0.15cm} y_{\kappa}\hspace{0.05cm}, \hspace{0.15cm}\text{...}\hspace{0.1cm} , \hspace{0.15cm} Y_{|Y|}\hspace{0.05cm}\}\hspace{0.05cm}.$$
  • Meist gilt  $|Y| = |X|$.  Möglich ist auch  $|Y| > |X|$,  zum Beispiel beim  Binary Erasure Channel  (BEC) mit 
$$X = \{0,\ 1\},\hspace{0.5cm} Y = \{0,\ 1,\ \ \text{E}\}\ ⇒ \ |X| = 2, \ |Y| = 3.$$
  • Das Sinkensymbol  $\rm E$  kennzeichnet eine Auslöschung  (englisch:  "Erasure").  Das Ereignis  $Y=\text{E}$  gibt an, dass eine Entscheidung für  $0$  oder für  $1$  zu unsicher wäre.


  • Die Symbolwahrscheinlichkeiten der Quelle und der Sinke sind in der Grafik durch die Wahrscheinlichkeitsfunktionen  $P_X(X)$  und  $P_Y(Y)$  berücksichtigt, wobei gilt:
$$P_X(x_{\mu}) = {\rm Pr}( X = x_{\mu})\hspace{0.05cm}, \hspace{0.3cm} P_Y(y_{\kappa}) = {\rm Pr}( Y = y_{\kappa})\hspace{0.05cm}.$$
  • Es gelte:   $P_X(X)$  und  $P_Y(Y)$  enthalten keine Nullen   ⇒   $\text{supp}(P_X) = P_X$  und  $\text{supp}(P_Y) = P_Y$.  Diese Voraussetzung erleichtert ohne Verlust der Allgemeingültigkeit die Modellbeschreibung.


  • Alle Übergangswahrscheinlichkeiten des digitalen gedächtnislosen Kanals  $\rm (DMC)$  werden durch die  „bedingte Wahrscheinlichkeitsfunktion”  $P_{Y|X}(Y|X)$  erfasst.
    Mit  $x_μ ∈ X$  und  $y_κ ∈ Y$  gelte hierfür folgende Definition:
$$P_{Y\hspace{0.01cm}|\hspace{0.01cm}X}(y_{\kappa}\hspace{0.01cm} |\hspace{0.01cm} x_{\mu}) = {\rm Pr}(Y\hspace{-0.1cm} = y_{\kappa}\hspace{0.03cm} | \hspace{0.03cm}X \hspace{-0.1cm}= x_{\mu})\hspace{0.05cm}.$$
  • Der grüne Block in der Grafik kennzeichnet  $P_{Y|X}(⋅)$  mit  $|X|$  Eingängen und  $|Y|$  Ausgängen.  Blaue Verbindungen markieren Übergangswahrscheinlichkeiten  $\text{Pr}(y_i | x_μ)$  ausgehend von  $x_μ$  mit  $1 ≤ i ≤ |Y|$,  während alle roten Verbindungen bei  $y_κ$ enden:    $\text{Pr}(y_κ | x_i)$  mit  $1 ≤ i ≤ |X|$.


Bevor wir die Entropien für die einzelnen Wahrscheinlichkeitsfunktionen angeben,  nämlich

$$P_X(X) ⇒ H(X),\hspace{0.5cm} P_Y(Y) ⇒ H(Y), \hspace{0.5cm} P_{XY}(X) ⇒ H(XY), \hspace{0.5cm} P_{Y|X}(Y|X) ⇒ H(Y|X),\hspace{0.5cm} P_{X|Y}(X|Y) ⇒ H(X|Y),$$

sollen die obigen Aussagen an einem Beispiel verdeutlicht werden.


Digitales Kanalmodell  „Binary Erasure Channel”

$\text{Beispiel 1}$:  Im Buch  „Kanalcodierung”  behandeln wir auch den  Binary Erasure Channel  $\rm (BEC)$, der rechts in etwas modifizierter Form skizziert ist.  Dabei gelten folgende Voraussetzungen:

  • Das Eingangsalphabet sei binär   ⇒   $X = \{0,\ 1 \}$   ⇒   $\vert X\vert = 2$, während am Ausgang drei Werte möglich sind   ⇒   $Y = \{0,\ 1,\ \text{E} \}$   ⇒   $\vert Y\vert = 3$.
  • $\text{E}$  kennzeichnet den Fall, dass sich der Empfänger aufgrund sehr großer Kanalstörungen nicht für eines der Binärsymbole  $0$  oder  $1$  entscheiden kann.  "E"  steht hierbei für  "Erasure"  (Auslöschung).
  • Beim  $\rm BEC$  werden sowohl eine gesendete  $0$  als auch eine  $1$  mit der Wahrscheinlichkeit  $λ$  ausgelöscht, während die Wahrscheinlichkeit einer richtigen Übertragung jeweils  $1 – λ$  beträgt.
  • Dagegen werden Übertragungsfehler  (Symbolverfälschungen)  durch das BEC–Modell ausgeschlossen  
    ⇒   die bedingten Wahrscheinlichkeiten  $\text{Pr}(Y = 1 \vert X = 0)$  sowie  $\text{Pr}(Y = 0 \vert X = 1)$  sind jeweils Null.


Beim Sender seien die Nullen und Einsen nicht unbedingt gleichwahrscheinlich.  Vielmehr verwenden wir die Wahrscheinlichkeitsfunktionen

$$\begin{align*}P_X(X) & = \big ( {\rm Pr}( X = 0)\hspace{0.05cm},\hspace{0.2cm} {\rm Pr}( X = 1) \big )\hspace{0.05cm},\\ P_Y(Y) & = \big ( {\rm Pr}( Y = 0)\hspace{0.05cm},\hspace{0.2cm} {\rm Pr}( Y = 1)\hspace{0.05cm},\hspace{0.2cm} {\rm Pr}( Y = {\rm E}) \big )\hspace{0.05cm}.\end{align*}$$

Aus obigem Modell erhalten wir dann:

$$\begin{align*}P_Y(0) & = {\rm Pr}( Y \hspace{-0.1cm} = 0) = P_X(0) \cdot ( 1 - \lambda)\hspace{0.05cm}, \\ P_Y(1) & = {\rm Pr}( Y \hspace{-0.1cm} = 1) = P_X(1) \cdot ( 1 - \lambda)\hspace{0.05cm}, \\ P_Y({\rm E}) & = {\rm Pr}( Y \hspace{-0.1cm} = {\rm E}) = P_X(0) \cdot \lambda \hspace{0.1cm}+\hspace{0.1cm} P_X(1) \cdot \lambda \hspace{0.05cm}.\end{align*}$$

Fassen wir nun  $P_X(X)$  und  $P_Y(Y)$  als Vektoren auf, so lässt sich das Ergebnis wie folgt darstellen:

$$P_{\hspace{0.05cm}Y}(Y) = P_X(X) \cdot P_{\hspace{0.05cm}Y\hspace{-0.01cm}\vert \hspace{-0.01cm}X}(Y\hspace{-0.01cm} \vert \hspace{-0.01cm} X) \hspace{0.05cm},$$

wobei die Übergangswahrscheinlichkeiten  $\text{Pr}(y_κ\vert x_μ)$  durch folgende Matrix berücksichtigt sind:

$$P_{\hspace{0.05cm}Y\hspace{-0.01cm} \vert \hspace{-0.01cm}X}(Y\hspace{-0.01cm} \vert \hspace{-0.01cm} X) = \begin{pmatrix} 1 - \lambda & 0 & \lambda\\ 0 & 1 - \lambda & \lambda \end{pmatrix}\hspace{0.05cm}.$$

Beachten Sie bitte:

  • Wir haben diese Darstellung nur gewählt, um die Beschreibung zu vereinfachen.
  • $P_X(X)$  und  $P_Y(Y)$  sind im eigentlichen Sinne keine Vektoren und  $P_{Y \vert X}(Y\vert X)$  ist auch keine Matrix.


Gerichtetes Schaubild für die Digitalsignalübertragung


Alle im  letzten Kapitel  definierten Entropien gelten auch für die Digitalsignalübertragung.  Es ist aber zweckmäßig, anstelle des bisher verwendeten Schaubildes entsprechend der linken Grafik die rechte Darstellung zu wählen, bei der die Richtung von der Quelle  $X$  zur Sinke  $Y$  erkennbar ist.

Zwei informationstheoretische Modelle für die Digitalsignalübertragung

Interpretieren wir nun ausgehend vom allgemeinen  DMC–Kanalmodell  die rechte Grafik:

  • Die  Quellenentropie  (englisch:  "Source Entropy" )  $H(X)$  bezeichnet den mittleren Informationsgehalt der Quellensymbolfolge.  Mit dem Symbolumfang  $|X|$  gilt:
$$H(X) = {\rm E} \left [ {\rm log}_2 \hspace{0.1cm} \frac{1}{P_X(X)}\right ] \hspace{0.1cm} = -{\rm E} \big [ {\rm log}_2 \hspace{0.1cm}{P_X(X)}\big ] \hspace{0.2cm} =\hspace{0.2cm} \sum_{\mu = 1}^{|X|} P_X(x_{\mu}) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{P_X(x_{\mu})} \hspace{0.05cm}.$$
  • Die  Äquivokation  (auch  „Rückschlussentropie” genannt,  englisch:  "Equivocation" )  $H(X|Y)$  gibt den mittleren Informationsgehalt an, den ein Betrachter, der über die Sinke  $Y$  genau Bescheid weiß, durch Beobachtung der Quelle  $X$  gewinnt:
$$H(X|Y) = {\rm E} \left [ {\rm log}_2 \hspace{0.1cm} \frac{1}{P_{\hspace{0.05cm}X\hspace{-0.01cm}|\hspace{-0.01cm}Y}(X\hspace{-0.01cm} |\hspace{0.03cm} Y)}\right ] \hspace{0.2cm}=\hspace{0.2cm} \sum_{\mu = 1}^{|X|} \sum_{\kappa = 1}^{|Y|} P_{XY}(x_{\mu},\hspace{0.05cm}y_{\kappa}) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{P_{\hspace{0.05cm}X\hspace{-0.01cm}|\hspace{0.03cm}Y} (\hspace{0.05cm}x_{\mu}\hspace{0.03cm} |\hspace{0.05cm} y_{\kappa})} \hspace{0.05cm}.$$
  • Die Äquivokation ist der Anteil der Quellenentropie  $H(X)$, der durch Kanalstörungen  (bei digitalem Kanal:  Übertragungsfehler)  verloren geht.  Es verbleibt die  Transinformation  (englisch:  "Mutual Information")  $I(X; Y)$, die zur Sinke gelangt:
$$I(X;Y) = {\rm E} \left [ {\rm log}_2 \hspace{0.1cm} \frac{P_{XY}(X, Y)}{P_X(X) \cdot P_Y(Y)}\right ] \hspace{0.2cm} = H(X) - H(X|Y) \hspace{0.05cm}.$$
  • Die  Irrelevanz  (manchmal auch  „Streuentropie”  genannt,  englisch:  "Irrelevance")  $H(Y|X)$  gibt den mittleren Informationsgehalt an, den ein Betrachter, der über die Quelle  $X$  genau Bescheid weiß, durch Beobachtung der Sinke  $Y$  gewinnt:
$$H(Y|X) = {\rm E} \left [ {\rm log}_2 \hspace{0.1cm} \frac{1}{P_{\hspace{0.05cm}Y\hspace{-0.01cm}|\hspace{-0.01cm}X}(Y\hspace{-0.01cm} |\hspace{0.03cm} X)}\right ] \hspace{0.2cm}=\hspace{0.2cm} \sum_{\mu = 1}^{|X|} \sum_{\kappa = 1}^{|Y|} P_{XY}(x_{\mu},\hspace{0.05cm}y_{\kappa}) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{P_{\hspace{0.05cm}Y\hspace{-0.01cm}|\hspace{0.03cm}X} (\hspace{0.05cm}y_{\kappa}\hspace{0.03cm} |\hspace{0.05cm} x_{\mu})} \hspace{0.05cm}.$$
  • Die  Sinkenentropie  $H(Y)$  ist der mittlere Informationsgehalt der Sinke.  Diese ergibt sich aus der Summe aus der nützlichen Transinformation  $I(X; Y)$  und der unnützen Irrelevanz  $H(Y|X)$, die ausschließlich von Kanalfehlern herrührt:
$$H(Y) = {\rm E} \left [ {\rm log}_2 \hspace{0.1cm} \frac{1}{P_Y(Y)}\right ] \hspace{0.1cm} = -{\rm E} \big [ {\rm log}_2 \hspace{0.1cm}{P_Y(Y)}\big ] \hspace{0.2cm} =I(X;Y) + H(Y|X) \hspace{0.05cm}.$$

Transinformationsberechnung für den Binärkanal


Diese Definitionen sollen nun an einem Beispiel verdeutlicht werden.  Wir vermeiden bewusst, die Berechnungen durch Ausnutzung von Symmetrien zu vereinfachen.

Allgemeines Modell des Binärkanals

$\text{Beispiel 2}$:  Wir betrachten den allgemeinen Binärkanal  (englisch:  "Binary Channel")  ohne Gedächtnis gemäß der Skizze.  Die Verfälschungswahrscheinlichkeiten seien:

$$\begin{align*}\varepsilon_0 & = {\rm Pr}(Y\hspace{-0.1cm} = 1\hspace{0.05cm}\vert X \hspace{-0.1cm}= 0) = 0.01\hspace{0.05cm},\\ \varepsilon_1 & = {\rm Pr}(Y\hspace{-0.1cm} = 0\hspace{0.05cm} \vert X \hspace{-0.1cm}= 1) = 0.2\hspace{0.05cm}\end{align*}$$
$$\Rightarrow \hspace{0.3cm} P_{\hspace{0.05cm}Y\hspace{-0.01cm} \vert \hspace{-0.01cm}X}(Y\hspace{-0.01cm} \vert \hspace{-0.01cm} X) = \begin{pmatrix} 1 - \varepsilon_0 & \varepsilon_0\\ \varepsilon_1 & 1 - \varepsilon_1 \end{pmatrix} = \begin{pmatrix} 0.99 & 0.01\\ 0.2 & 0.8 \end{pmatrix} \hspace{0.05cm}.$$

Außerdem gehen wir von nicht gleichwahrscheinlichen Quellensymbolen aus:

$$P_X(X) = \big ( p_0,\ p_1 \big )= \big ( 0.1,\ 0.9 \big ) \hspace{0.05cm}.$$

Mit der  binären Entropiefunktion  $H_{\rm bin}(p)$  erhält man so für die Quellenentropie:

$$H(X) = H_{\rm bin} (0.1) = 0.4690 \hspace{0.10cm}{\rm bit} \hspace{0.05cm}.$$

Für die Wahrscheinlichkeitsfunktion der Sinke sowie für die Sinkenentropie ergibt sich somit:

$$P_Y(Y) = \big [ {\rm Pr}( Y\hspace{-0.1cm} = 0)\hspace{0.05cm}, \ {\rm Pr}( Y \hspace{-0.1cm}= 1) \big ] = \big ( p_0\hspace{0.05cm},\ p_1 \big ) \cdot \begin{pmatrix} 1 - \varepsilon_0 & \varepsilon_0\\ \varepsilon_1 & 1 - \varepsilon_1 \end{pmatrix} $$
$$\begin{align*}\Rightarrow \hspace{0.3cm} {\rm Pr}( Y \hspace{-0.1cm}= 0)& = p_0 \cdot (1 - \varepsilon_0) + p_1 \cdot \varepsilon_1 = 0.1 \cdot 0.99 + 0.9 \cdot 0.2 = 0.279\hspace{0.05cm},\\ {\rm Pr}( Y \hspace{-0.1cm}= 1) & = 1 - {\rm Pr}( Y \hspace{-0.1cm}= 0) = 0.721\end{align*}$$
$$\Rightarrow \hspace{0.3cm} H(Y) = H_{\rm bin} (0.279) = 0.8541 \hspace{0.10cm}{\rm bit} \hspace{0.05cm}. $$

Die Verbundwahrscheinlichkeiten  $p_{\mu \kappa} = \text{Pr}\big[(X = μ) ∩ (Y = κ)\big]$  zwischen Quelle und Sinke sind:

$$\begin{align*}p_{00} & = p_0 \cdot (1 - \varepsilon_0) = 0.099\hspace{0.05cm},\hspace{0.5cm}p_{01}= p_0 \cdot \varepsilon_0 = 0.001\hspace{0.05cm},\\ p_{10} & = p_1 \cdot (1 - \varepsilon_1) = 0.180\hspace{0.05cm},\hspace{0.5cm}p_{11}= p_1 \cdot \varepsilon_1 = 0.720\hspace{0.05cm}.\end{align*}$$

Daraus erhält man für

  • die  Verbundentropie  (englisch:  "Joint Entropy"):
$$H(XY) = p_{00}\hspace{-0.05cm} \cdot \hspace{-0.05cm}{\rm log}_2 \hspace{0.05cm} \frac{1}{p_{00} \rm } + p_{01} \hspace{-0.05cm} \cdot \hspace{-0.05cm}{\rm log}_2 \hspace{0.05cm} \frac{1}{p_{01} \rm } + p_{10}\hspace{-0.05cm} \cdot \hspace{-0.05cm} {\rm log}_2 \hspace{0.05cm} \frac{1}{p_{10} \rm } + p_{11} \hspace{-0.05cm} \cdot \hspace{-0.05cm} {\rm log}_2\hspace{0.05cm} \frac{1}{p_{11}\rm } = 1.1268\,{\rm bit} \hspace{0.05cm},$$
  • die  Transinformation  (englisch:  "Mutual Information"):
$$I(X;Y) = H(X) + H(Y) - H(XY) = 0.4690 + 0.8541 - 1.1268 = 0.1963\hspace{0.10cm}{\rm bit} \hspace{0.05cm},$$
Informationstheoretisches Modell des betrachteten Binärkanals
  • die  Äquivokation  (oder Rückschlussentropie):
$$H(X \vert Y) \hspace{-0.01cm} =\hspace{-0.01cm} H(X) \hspace{-0.01cm} -\hspace{-0.01cm} I(X;Y) \hspace{-0.01cm} $$
$$\Rightarrow \hspace{0.3cm} H(X \vert Y) \hspace{-0.01cm} = \hspace{-0.01cm} 0.4690\hspace{-0.01cm} -\hspace{-0.01cm} 0.1963\hspace{-0.01cm} =\hspace{-0.01cm} 0.2727\hspace{0.10cm}{\rm bit} \hspace{0.05cm},$$
  • die Irrelevanz  (oder Streuentropie):
$$H(Y \vert X) = H(Y) - I(X;Y) $$
$$\Rightarrow \hspace{0.3cm} H(Y \vert X) = 0.8541 - 0.1963 = 0.6578\hspace{0.10cm}{\rm bit} \hspace{0.05cm}.$$

Die Ergebnisse sind in der nebenstehenden Grafik zusammengefasst.


Anmerkungen:

  • Die Äquivokation und die Irrelevanz hätte man auch direkt (aber mit Mehraufwand) aus den entsprechenden Wahrscheinlichkeitsfunktionen berechnen können.
  • Zum Beispiel die Irrelevanz:
$$H(Y|X) = \hspace{-0.2cm} \sum_{(x, y) \hspace{0.05cm}\in \hspace{0.05cm}XY} \hspace{-0.2cm} P_{XY}(x,\hspace{0.05cm}y) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{P_{\hspace{0.05cm}Y\hspace{-0.01cm}|\hspace{0.03cm}X} (\hspace{0.05cm}y\hspace{0.03cm} |\hspace{0.05cm} x)}= p_{00} \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1\hspace{-0.08cm} - \hspace{-0.08cm}\varepsilon_0} + p_{01} \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon_0} + p_{10} \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1\hspace{-0.08cm} - \hspace{-0.08cm}\varepsilon_1} + p_{11} \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon_1} = 0.6578\,{\rm bit} \hspace{0.05cm}.$$

Definition und Bedeutung der Kanalkapazität


Wir betrachten weiter einen diskreten gedächtnislosen Kanal  (englisch:  "Discrete Memoryless Channel",  kurz DMC)  mit einer endlichen Anzahl an Quellensymbolen   ⇒   $|X|$  und ebenfalls nur endlich vielen Sinkensymbolen   ⇒   $|Y|$,  wie im ersten Abschnitt dieses Kapitels dargestellt.

  • Berechnet man die Transinformation  $I(X, Y)$  wie zuletzt im  $\text{Beispiel 2}$  ausgeführt,  so hängt diese auch von der Quellenstatistik   ⇒   $P_X(X)$  ab.
  • Ergo:   Die Transinformation  $I(X, Y)$  ist keine reine Kanalkenngröße.


$\text{Definition:}$  Die von  Claude E. Shannon  eingeführte  Kanalkapazität  (englisch:  "Channel Capacity")  lautet gemäß seinem Standardwerk  [Sha48][1]:

$$C = \max_{P_X(X)} \hspace{0.15cm} I(X;Y) \hspace{0.05cm}.$$

Da nach dieser Definition stets die bestmögliche Quellenstatistik zugrunde liegt,  hängt  $C$  nur von den Kanaleigenschaften   ⇒   $P_{Y \vert X}(Y \vert X)$ ab,  nicht jedoch von der Quellenstatistik   ⇒   $P_X(X)$.  Oft wird die Zusatzeinheit „bit/Kanalzugriff” hinzugefügt,  bei englischen Texten „bit/use”.


Shannon benötigte die Kanalbeschreibungsgröße  $C$  zur Formulierung des Kanalcodierungstheorems – eines der Highlights der von ihm begründeten Informationstheorie.

$\text{Shannons Kanalcodierungstheorem:}$ 

  • Zu jedem Übertragungskanal mit der Kanalkapazität  $C > 0$  existiert (mindestens) ein  $(k, n)$–Blockcode,  dessen (Block–)Fehlerwahrscheinlichkeit gegen Null geht,  so lange die Coderate  $R = k/n$  kleiner oder gleich der Kanalkapazität ist:  
$$R ≤ C.$$
  • Voraussetzung hierfür ist allerdings,  dass für die Blocklänge dieses Codes gilt:   $n → ∞.$


Den Beweis dieses Theorems,  der den Rahmen unseres Lerntutorials sprengen würde,  finden Sie zum Beispiel in  [CT06][2],  [Kra13][3]  und  [Meck09][4].

Wie in der  Aufgabe 3.13  gezeigt werden soll,  gilt auch der Umkehrschluss.  Auch diesen Beweis finden Sie in den eben genannten Literaturstellen.

$\text{Umkehrschluss von Shannons Kanalcodierungstheorem:}$ 

Ist die Rate  $R$  des verwendeten  $(n$, $k)$–Blockcodes größer als die Kanalkapazität  $C$,  so ist niemals eine beliebig kleine Blockfehlerwahrscheinlichkeit erreichbar.


Im Kapitel  AWGN-Modell für zeitdiskrete bandbegrenzte Signale  wird im Zusammenhang mit dem wertkontinuierlichen  AWGN–Kanalmodell  ausgeführt,  welche phänomenal große Bedeutung Shannons informationstheoretisches Theorem für die gesamte Informationstechnik besitzt,  nicht nur für ausschließlich theoretisch Interessierte,  sondern ebenso für Praktiker.


Kanalkapazität eines Binärkanals


Allgemeines Modell des Binärkanals

Die Transinformation des allgemeinen (unsymmetrischen) Binärkanals gemäß dieser Skizze wurde im  $\text{Beispiel 2}$  berechnet.  Bei diesem Modell werden die Eingangssymbole  $0$  und  $1$  unterschiedlich stark verfälscht:

$$P_{\hspace{0.05cm}Y\hspace{-0.01cm}|\hspace{-0.01cm}X}(Y\hspace{-0.01cm} |\hspace{-0.01cm} X) = \begin{pmatrix} 1 - \varepsilon_0 & \varepsilon_0\\ \varepsilon_1 & 1 - \varepsilon_1 \end{pmatrix} \hspace{0.05cm}.$$

Die Transinformation lässt sich mit der Wahrscheinlichkeitsfunktion  $P_X(X) = (p_0,\ p_1)$  wie folgt darstellen:

$$I(X ;Y) = \sum_{\mu = 1}^{2} \hspace{0.1cm}\sum_{\kappa = 1}^{2} \hspace{0.2cm} {\rm Pr} (\hspace{0.05cm}y_{\kappa}\hspace{0.03cm} |\hspace{0.05cm} x_{\mu}) \cdot {\rm Pr} (\hspace{0.05cm}x_{\mu}\hspace{0.05cm})\cdot {\rm log}_2 \hspace{0.1cm} \frac{{\rm Pr} (\hspace{0.05cm}y_{\kappa}\hspace{0.03cm} |\hspace{0.05cm} x_{\mu})}{{\rm Pr} (\hspace{0.05cm}y_{\kappa})} $$
$$\begin{align*}\Rightarrow \hspace{0.3cm} I(X ;Y) &= \hspace{-0.01cm} (1 \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_0) \cdot p_0 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1 \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_0}{(1 \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_0) \cdot p_0 + \varepsilon_1 \cdot p_1} + \varepsilon_0 \cdot p_0 \cdot {\rm log}_2 \hspace{0.1cm} \frac{\varepsilon_0}{(1 \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_0) \cdot p_0 + \varepsilon_1 \cdot p_1}\hspace{0.1cm} + \\ & + \hspace{0.1cm} \hspace{-0.01cm} \varepsilon_1 \cdot p_1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{\varepsilon_1}{\varepsilon_0 \cdot p_0 + (1 \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_1) \cdot p_1} + (1 \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_1) \cdot p_1 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1 \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_1}{\varepsilon_0 \cdot p_0 + (1 \hspace{-0.08cm}- \hspace{-0.08cm}\varepsilon_1) \cdot p_1} \hspace{0.05cm}.\end{align*}$$
Transinformation für den
„unsymmetrischen Binärkanal”

$\text{Beispiel 3}$:  Im Folgenden setzen wir  $ε_0 = 0.01$  und  $ε_1 = 0.2$.

In der Spalte 4 nebenstehender Tabelle ist  (grün hinterlegt)  die Transinformation  $I(X; Y)$  dieses unsymmetrischen Binärkanals abhängig von der Quellensymbolwahrscheinlichkeit  $p_0 = {\rm Pr}(X = 0)$  angegeben.  Man erkennt:

  • Die Transinformation hängt von den Symbolwahrscheinlichkeiten  $p_0$  und  $p_1 = 1 - p_0$  ab.
  • Der Maximalwert von  $I(X; Y)$  ergibt sich hier zu  $p_0 ≈ 0.55$    ⇒    $p_1 ≈ 0.45$.
  • Das Ergebnis  $p_0 > p_1$  folgt aus der Relation  $ε_0 < ε_1$  (die Null wird weniger verfälscht).
  • Die Kapazität dieses Kanals ist  $C = 0.5779 \ \rm bit/Kanalzugriff$.


In obiger Gleichung ist als Sonderfall auch der  Binary Symmetric Channel  $\rm (BSC)$  mit den Parametern  $ε = ε_0 = ε_1$  mitenthalten.  Hinweise:

  • In  Aufgabe 3.10  wird die Transinformation des BSC–Kanals für die Systemparameter  $ε = 0.1$  und  $p_0 = 0.2$  berechnet.
  • In der  Aufgabe 3.10Z  wird dessen Kanalkapazität wie folgt angegeben:
$$C_{\rm BSC} = 1 - H_{\rm bin} (\varepsilon) \hspace{0.05cm}.$$

Eigenschaften symmetrischer Kanäle


Die Kapazitätsberechnung des (allgemeinen)  diskreten gedächtnislosen Kanals  ist oftmals aufwändig.  Sie vereinfacht sich entscheidend, wenn Symmetrien des Kanals ausgenutzt werden. 

Beispiele symmetrischer Kanäle

Die Grafik zeigt zwei Beispiele:

  • Beim  gleichmäßig dispersiven Kanal  (englisch:  "Uniformly Dispersive Channel")  ergibt sich für alle Quellensymbole  $x ∈ X$  die genau gleiche Menge an Übergangswahrscheinlichkeiten   ⇒   $\{P_{Y\hspace{0.03cm}|\hspace{0.01cm}X}(y_κ\hspace{0.05cm}|\hspace{0.05cm}x)\}$  mit  $1 ≤ κ ≤ |Y|$  (linke Grafik).  Es muss stets  $q + r + s = 1$  gelten.
  • Beim  gleichmäßig fokussierenden Kanal  (englisch:  "Uniformely Focusing Channel")  ergibt sich für alle Sinkensymbole  $y ∈ Y$  die gleiche Menge an Übergangswahrscheinlichkeiten   ⇒   $\{P_{Y\hspace{0.03cm}|\hspace{0.01cm}X}(y\hspace{0.05cm}|\hspace{0.05cm}x_μ)\}$  mit  $1 ≤ μ ≤ |X|$  (rechte Grafik).  Hier muss nicht notwendigerweise  $t + u + v = 1$  gelten.


$\text{Definition:}$  Ist ein diskreter gedächtnisloser Kanal sowohl gleichmäßig dispersiv als auch gleichmäßig fokussierend,  so liegt ein  streng symmetrischer Kanal  (englisch:  "Strongly Symmetric Channel")  vor.  Bei gleichverteiltem Quellenalphabet besitzt dieser die Kapazität

$$C = {\rm log}_2 \hspace{0.1cm} \vert Y \vert + \sum_{y \hspace{0.05cm}\in\hspace{0.05cm} Y} \hspace{0.1cm} P_{\hspace{0.03cm}Y \vert \hspace{0.01cm} X}(y\hspace{0.05cm} \vert \hspace{0.05cm}x) \cdot {\rm log}_2 \hspace{0.1cm}P_{\hspace{0.01cm}Y \vert \hspace{0.01cm} X}(y\hspace{0.05cm}\vert\hspace{0.05cm} x) \hspace{0.05cm}.$$

Für diese Gleichung kann jedes beliebige  $x ∈ X$  herangezogen werden.


Diese Definition soll nun durch ein Beispiel verdeutlicht werden.

$\text{Beispiel 4}$:  Beim betrachteten Kanal gibt es Verbindungen zwischen allen  $ \vert X \vert = 3$  Eingängen und allen  $ \vert Y \vert = 3$  Ausgängen:

Streng symmetrischer Kanal mit  $\vert X \vert = \vert Y \vert= 3$
  • Eine rote Verbindung steht für  $P_{Y \hspace{0.03cm}\vert\hspace{0.01cm} X}(y_κ \hspace{0.05cm} \vert \hspace{0.05cm} x_μ) = 0.7$.
  • Eine blaue Verbindung steht für  $P_{Y \hspace{0.03cm}\vert\hspace{0.01cm} X}(y_κ \hspace{0.05cm}\vert \hspace{0.05cm} x_μ) = 0.2$.
  • Eine grüne Verbindung steht für  $P_{Y \hspace{0.03cm}\vert\hspace{0.01cm} X}(y_κ \hspace{0.05cm}\vert\hspace{0.05cm} x_μ) = 0.1$.


Nach obiger Gleichung gilt dann für die Kanalkapazität:

$$C = {\rm log}_2 \hspace{0.1cm} (3) + 0.7 \cdot {\rm log}_2 \hspace{0.1cm} (0.7) + 0.2 \cdot {\rm log}_2 \hspace{0.1cm} (0.2) + 0.1 \cdot {\rm log}_2 \hspace{0.1cm} (0.1) = 0.4282 \,\,{\rm bit} \hspace{0.05cm}.$$

Hinweise:

  • Der Zusatz  „die gleiche Menge an Übergangswahrscheinlichkeiten”  bedeutet nicht, dass gelten muss:
$$P_{Y \hspace{0.03cm}\vert\hspace{0.01cm} X}(y_κ \hspace{0.05cm}\vert\hspace{0.05cm} x_1) = P_{Y \hspace{0.03cm}\vert\hspace{0.01cm} X}(y_κ \hspace{0.05cm}\vert\hspace{0.05cm} x_2) = P_{Y \hspace{0.03cm}\vert\hspace{0.01cm} X}(y_κ \hspace{0.05cm}\vert\hspace{0.05cm} x_3).$$
  • Vielmehr geht hier von jedem Eingang ein roter, ein blauer und ein grüner Pfeil ab und an jedem Ausgang kommt ein roter, ein blauer und ein grüner Pfeil an.
  • Die jeweiligen Reihenfolgen permutieren:   R – G – B,     B – R – G,     G – B – R.


Ein Beispiel für einen streng symmetrischen Kanal ist der  Binary Symmetric Channel  $\rm (BSC)$.  Dagegen ist der  Binary Erasure Channel  $\rm (BEC)$  nicht streng symmetrisch,

  • da er zwar gleichmäßig dispersiv ist,
  • aber nicht gleichmäßig fokussierend.


Die nachfolgende Definition ist weniger restriktiv als die vorherige des streng symmetrischen Kanals.

$\text{Definition:}$  Ein  symmetrischer Kanal  (englisch:  "Symmetric Channel")  liegt vor,

  • wenn er in mehrere  $($allgemein $L)$  streng symmetrische Teilkanäle aufgeteilt werden kann,
  • indem das Ausgangsalphabet  $Y$  in  $L$  Teilmengen  $Y_1$, ... , $Y_L$  aufgespalten wird.


Ein solcher symmetrischer Kanal besitzt die folgende Kapazität:

$$C = \sum_{l \hspace{0.05cm}=\hspace{0.05cm} 1}^{L} \hspace{0.1cm} p_{\hspace{0.03cm}l} \cdot C_{\hspace{0.03cm}l} \hspace{0.05cm}.$$

Hierbei sind folgende Bezeichnungen verwendet:

  • $p_{\hspace{0.03cm}l}$  gibt die Wahrscheinlichkeit an,  dass der  $l$–te Teilkanal ausgewählt wird,
  • $C_{\hspace{0.03cm}l}$  ist die Kanalkapazität dieses  $l$–ten Teilkanals.


Symmetrischer Kanal, bestehend aus zwei
streng symmetrischen Teilkanälen  $\rm A$  und  $\rm B$

Die Grafik verdeutlicht diese Definition für  $L = 2$  mit den Teilkanälen  $\rm A$  und  $\rm B$.

  • An den unterschiedlich gezeichneten Übergängen (gestrichelt oder gepunktet) erkennt man, dass die Teilkanäle verschieden sein können.  Allgemein wird  $C_{\rm A} ≠ C_{\rm B}$  gelten.
  • Für die Kapazität des Gesamtkanals erhält man somit allgemein:
$$C = p_{\rm A} \cdot C_{\rm A} + p_{\rm B} \cdot C_{\rm B} \hspace{0.05cm}.$$
  • Über die Struktur der beiden Teilkanäle wird hier keine Aussage gemacht.


Im folgenden Beispiel wird sich zeigen, dass auch der  "Binary Erasure Channel"'  $\rm (BEC)$  durch diese Grafik grundsätzlich beschreibbar ist.  Allerdings müssen dann die zwei Ausgangssysmbole  $y_3$  und  $y_4$  zu einem einzigen Symbol zusammengefasst werden.

$\rm (BEC)$  in zwei verschiedenen Darstellungen

$\text{Beispiel 5}$:  Die linke Grafik zeigt die übliche Darstellung des  Binary Erasure Channels  $\rm (BEC)$  mit Eingang  $X = \{0,\ 1\}$  und Ausgang  $Y = \{0,\ 1,\ \text{E} \}$.

Teilt man diesen entsprechend der rechten Grafik auf in

  • einen idealen Kanal  $(y = x)$  für
$$y ∈ Y_{\rm A} = \{0,\ 1\} \ \ ⇒ \ \ C_{\rm A} = 1 \ \rm bit/use,$$
  • einen Auslöschungskanal für
$$y ∈ Y_{\rm B} = \{\rm E \} \ \ ⇒ \ \ C_{\rm B} = 0,$$

so ergibt sich mit den Teilkanalgewichtungen  $p_{\rm A} = 1 – λ$  und  $p_{\rm B} = λ$  für die Kanalkapazität:

$$C_{\rm BEC} = p_{\rm A} \cdot C_{\rm A} = 1 - \lambda \hspace{0.05cm}.$$

Beide Kanäle sind streng symmetrisch.  Für den (idealen) Kanal  $\rm A$  gilt gleichermaßen

  • für  $X = 0$  und  $X = 1$:     $\text{Pr}(Y = 0 \hspace{0.05cm}\vert \hspace{0.05cm} X) = \text{Pr}(Y = 1 \hspace{0.05cm} \vert\hspace{0.05cm} X) = 1 - λ$   ⇒   gleichmäßig dispersiv,
  • für  $Y = 0$  und   $Y = 1$:     $\text{Pr}(Y \hspace{0.05cm} \vert \hspace{0.05cm} X= 0) = Pr(Y \hspace{0.05cm}\vert\hspace{0.05cm} X = 1) = 1 - λ$   ⇒   gleichmäßig fokussierend.


Entsprechendes gilt für den Auslöschungskanal  $\rm B$.


In  Aufgabe 3.12  wird sich zeigen, dass die Kapazität des Modells  Binary Symmetric Error & Erasure Channel  $\rm (BSEC)$  in gleicher Weise berechnet werden kann.  Man erhält:

$$C_{\rm BSEC} = (1- \lambda) \cdot \left [ 1 - H_{\rm bin}(\frac{\varepsilon}{1- \lambda}) \right ]$$
  • mit der Verfälschungswahrscheinlichkeit  $ε$
  • und der Auslöschungswahrscheinlichkeit  $λ$.


Einige Grundlagen der Kanalcodierung


Um das Kanalcodierungstheorem richtig interpretieren zu können, sind einige Grundlagen der  Kanalcodierung  (englisch:  "Channel Coding")  erforderlich.  Dieses äußerst wichtige Gebiet der Nachrichtentechnik wird in unserem Lerntutorial  $\rm LNTwww$  in einem eigenen Buch namens  Kanalcodierung  behandelt.

Modell für die binär–codierte Informationsübertragung

Die folgende Beschreibung bezieht sich auf das stark vereinfachte Modell für  binäre Blockcodes:

  • Die unendlich lange Quellensymbolfolge  $\underline{u}$  (hier nicht dargestellt)  wird in Blöcke zu jeweils  $k$  Bit unterteilt.  Wir bezeichnen den Informationsblock mit der laufenden Nummerierung  $j$  mit  $\underline{u}_j^{(k)}$.
  • Jeder Informationsblock  $\underline{u}_j^{(k)}$  wird durch den gelb hinterlegten Kanalcoder in ein Codewort  $\underline{x}_j^{(n)}$  umgesetzt, wobei  $n > k$  gelten soll.  Das Verhältnis  $R = k/n$  bezeichnet man als die  Coderate.
  • Der  "Discrete Memoryless Channel"  $\rm (DMC)$  wird durch Übergangswahrscheinlichkeiten  $P_{Y\hspace{0.03cm}|\hspace{0.03cm}X}(⋅)$  berücksichtigt.  Dieser grün hinterlegte Block bewirkt Fehler auf Bitebene.  Es kann also gelten:   $y_{j, \hspace{0.06cm}i} ≠ x_{j,\hspace{0.06cm} i}$.
  • Damit können sich auch die aus  $n$  Bit bestehenden Empfangsblöcke  $\underline{y}_j^{(n)}$  von den Codeworten  $\underline{x}_j^{(n)}$ unterscheiden .  Ebenso gilt im allgemeinen für die Blöcke nach dem Deoder:  $\underline{v}_j^{(k)} ≠ \underline{u}_j^{(k)}$.


$\text{Beispiel 6}$:  Die Grafik soll die hier verwendete Nomenklatur am Beispiel  $k = 3$  und  $n = 4$  verdeutlichen.  Dargestellt sind die jeweils ersten acht Blöcke der Informationssequenz  $\underline{u}$  und der  Codesequenz  $\underline{x}$.

Zur Bitbezeichnung von Informationsblock und Codewort

Man erkennt folgende Zuordnung zwischen der geblockten und der ungeblockten Beschreibung:

  • Info–Block 1,  Bit 3   ⇒   $u_{1,\hspace{0.08cm} 3}$  entspricht dem Symbol  $u_3$.
  • Info–Block 2,  Bit 1   ⇒   $u_{2, \hspace{0.08cm}1}$  entspricht dem Symbol  $u_4$.
  • Info–Block 6,  Bit 2   ⇒   $u_{6, \hspace{0.08cm}2}$  entspricht dem Symbol  $u_{17}$.
  • Codewort 1,  Bit 4   ⇒   $x_{1, \hspace{0.08cm}4}$  entspricht dem Symbol  $x_4$.
  • Codewort 2,  Bit 1   ⇒   $x_{2, \hspace{0.08cm}1}$  entspricht dem Symbol  $x_5$.
  • Codewort 6,  Bit 2   ⇒   $x_{6, \hspace{0.08cm}2}$  entspricht dem Symbol  $x_{22}$.

Zusammenhang zwischen Blockfehlern und Bitfehlern


Zur Interpretation des Kanalcodierungstheorems benötigen wir noch verschiedene Fehlerwahrscheinlichkeits–Definitionen.  Aus dem obigen Systemmodell lassen sich verschiedene Beschreibungsgrößen ableiten:

$\text{Definitionen:}$

  • Die  $\rm {Kanalfehlerwahrscheinlichkeit}$  ergibt sich beim vorliegenden Kanalmodell zu
$${\rm Pr(Kanalfehler)} = {\rm Pr} \left ({y}_{j,\hspace{0.05cm} i} \ne {x}_{j,\hspace{0.05cm} i} \right )\hspace{0.05cm}.$$
Beispielsweise ist beim BSC–Modell  $\text{Pr(Kanalfehler)} = ε$  für alle  $j = 1, 2$, ...  und  $1 ≤ i ≤ n$.
  • Die  $\rm {Blockfehlerwahrscheinlichkeit}$  bezieht sich auf die zugeordneten Informationsblöcke am Codereingang   ⇒   $\underline{u}_j^{(k)}$  und am Decoderausgang   ⇒   $\underline{v}_j^{(k)}$,
    jeweils in Blöcken zu  $k$  Bit:
$${\rm Pr(Blockfehler)} = {\rm Pr} \left (\underline{\upsilon}_j^{(k)} \ne \underline{u}_j^{(k)} \right )\hspace{0.05cm}.$$
  • Die  $\rm {Bitfehlerwahrscheinlichkeit}$  bezieht sich ebenfalls auf den Eingang und den Ausgang des betrachteten Codiersystems, allerdings auf Bitebene:
$${\rm Pr(Bitfehler)} = {\rm Pr} \left ({\upsilon}_{j,\hspace{0.05cm} i} \ne {u}_{j,\hspace{0.05cm} i} \right )\hspace{0.05cm}.$$
Hierbei ist vereinfachend vorausgesetzt, dass alle  $k$  Bit  $u_{j,\hspace{0.08cm}i}$  des Informationsblockes  $j$  mit gleicher Wahrscheinlichkeit verfälscht werden  $(1 ≤ i ≤ k)$. Andernfalls müsste über die  $k$  Bit noch gemittelt werden.


Zwischen der Blockfehler– und der Bitfehlerwahrscheinlichkeit besteht allgemein der Zusammenhang:

$$\frac{1}{k} \cdot {\rm Pr(Blockfehler)} \le {\rm Pr(Bitfehler)} \le {\rm Pr(Blockfehler)} \hspace{0.05cm}.$$
  • Die untere Schranke ergibt sich, wenn bei allen fehlerhaften Blöcken alle Bit falsch sind.
  • Gibt es in jedem fehlerhaften Block genau nur einen einzigen Bitfehler, dann ist die Bitfehlerwahrscheinlichkeit identisch mit der Blockfehlerwahrscheinlichkeit:
$${\rm Pr(Bitfehler)} \equiv {\rm Pr(Blockfehler)} \hspace{0.05cm}.$$
Zur Definition verschiedener Fehlerwahrscheinlichkeiten

$\text{Beispiel 7:}$  Die Grafik zeigt oben die ersten acht Empfangsblöcke  $\underline{y}_j^{(n)}$  mit jeweils  $n = 4$ Bit.  Kanalfehler sind grün schraffiert.

Unten ist die Ausgangsfolge  $\underline{v}$  nach dem Decoder skizziert, unterteilt in Blöcke  $\underline{v}_j^{(k)}$  mit jeweils  $k = 3$  Bit:

  • Bitfehler sind im unteren Diagramm rot schraffiert.
  • Blockfehler erkennt man an der blauen Umrahmung.


Hierzu einige (aufgrund der kurzen Folge) nur sehr vage Angaben zu den Fehlerwahrscheinlichkeiten:

  • Die Hälfte der Empfangsbits sind grün schraffiert. Daraus folgt:  
$${\rm Pr(Kanalfehler)} = 16/32 = 1/2.$$
  • Die Bitfehlerwahrscheinlichkeit lautet mit der beispielhaften Codierung und Decodierung:  
$${\rm Pr(Bitfehler)} = 8/24 = 1/3.$$
  • Dagegen würde bei uncodierter Übertragung gelten:  
$${\rm Pr(Bitfehler)} = {\rm Pr(Kanalfehler)} = 1/2.$$
  • Die Hälfte der decodierten Blöcke sind blau umrandet. Daraus folgt:  
$${\rm Pr(Blockfehler)} = 4/8 = 1/2.$$
  • Mit  ${\rm Pr(Blockfehler)}= 1/2$  und  $k = 3$  liegt die Bitfehlerwahrscheinlichkeit in folgendem Bereich:  
$$1/6 \le {\rm Pr(Bitfehler)} \le 1/2 \hspace{0.05cm}.$$
  1. Die obere Schranke bezüglich Bitfehler ergibt sich, wenn in jedem der vier verfälschten Blöcke alle Bit falsch sind:   ${\rm Pr(Bitfehler)} = 12/24 = 1/2.$
  2. Die untere Schranke gibt an, dass in jedem der vier verfälschten Blöcke jeweils nur ein Bit falsch ist:   ${\rm Pr(Bitfehler)} = 4/24 = 1/6$.


Rate, Kanalkapazität und Bitfehlerwahrscheinlichkeit


$\text{Grundsätzlich gilt}$:

  • Durch Kanalcodierung wird die Zuverlässigkeit  (englisch:  "Reliability")  der Datenübertragung von der Quelle zur Sinke erhöht.
  • Vermindert man die Coderate  $R = k/n$  und erhöht so die hinzugefügte Redundanz  $(1 - R)$, so wird im allgemeinen die Datensicherheit verbessert und damit die Bitfehlerwahrscheinlichkeit herabgesetzt, die wir im Weiteren kurz mit  $p_{\rm B}$  bezeichnen:
$$p_{\rm B} = {\rm Pr(Bitfehler)} = {\rm Pr} \left ({\upsilon}_{j,\hspace{0.05cm} i} \ne {u}_{j,\hspace{0.05cm} i} \right )\hspace{0.05cm}.$$


Das folgende Theorem basiert auf dem  "Data Processing Theorem"  und  "Fano's Lemma".  Die Herleitung kann in den Standardwerken zur Informationstheorie nachgelesen werden,  zum Beispiel in  [CT06][2]:

$\text{Umkehrung des Shannonschen Kanalcodierungstheorems:}$ 

Benutzt man zur Datenübertragung mit Rate  $R$  einen Kanal mit zu kleiner Kapazität  $C < R$, so kann die Bitfehlerwahrscheinlichkeit  $p_{\rm B}$  auch bei bestmöglicher Kanalcodierung eine untere Schranke nicht unterschreiten:

$$p_{\rm B} \ge H_{\rm bin}^{-1} \cdot \left ( 1 - {C}/{R}\right ) > 0\hspace{0.05cm}.$$

Hierbei bezeichnet  $H_{\rm bin}(⋅)$  die  binäre Entropiefunktion.


Da die Wahrscheinlichkeit der Blockfehler nie kleiner sein kann als die der Bitfehler,  ist für  $R > C$  auch die Blockfehlerwahrscheinlichkeit „Null” nicht möglich. 
Aus den angegebenen Schranken für die Bitfehler,

$${1}/{k} \cdot {\rm Pr}({\rm Blockfehler}) \le {\rm Pr}({\rm Bitfehler}) \le {\rm Pr}({\rm Blockfehler})\hspace{0.05cm},$$

lässt sich auch ein Bereich für die Blockfehlerwahrscheinlichkeit angeben:

$$ {\rm Pr}({\rm Bitfehler}) \le {\rm Pr}({\rm Blockfehler}) \le k \cdot {\rm Pr}({\rm Bitfehler})\hspace{0.05cm}.$$

$\text{Beispiel 8:}$  Bei einem Kanal mit Kapazität  $C = 1/3$  (bit) ist eine fehlerfreie Datenübertragung   $(p_{\rm B} = 0)$  mit der Coderate  $R < 1/3$  prinzipiell möglich.

  • Allerdings ist aus dem Kanalcodierungstheorem der spezielle  $(k$,  $n)$–Blockcode nicht bekannt, der dieses Wunschergebnis ermöglicht.  Auch Shannon macht hierzu keine Aussagen.
  • Bekannt ist nur, dass ein solcher bestmöglicher Code mit unendlich langen Blöcken arbeitet.  Bei gegebener Coderate  $R = k/n$  gilt somit sowohl  $k → ∞$  als auch  $n → ∞$.
  • Deshalb ist die Aussage  „Die Bitfehlerwahrscheinlichkeit ist Null”  nicht identisch mit  „Es treten keine Bitfehler auf”:   Auch bei endlich vielen Bitfehlern und  $k → ∞$  gilt nämlich  $p_{\rm B} = 0$.


Mit der Coderate  $R = 1 > C$  (uncodierte Übertragung) erhält man:

$$p_{\rm B} \ge H_{\rm bin}^{-1} \cdot \left ( 1 - \frac{1/3}{1}\right ) = H_{\rm bin}^{-1}(2/3) \approx 0.174 > 0\hspace{0.05cm}.$$

Mit der Coderate  $R = 1/2 > C$  ist die Bitfehlerwahrscheinlichkeit zwar kleiner,  aber ebenfalls von Null verschieden:

$$p_{\rm B} \ge H_{\rm bin}^{-1} \cdot \left ( 1 - \frac{1/3}{1/2}\right ) = H_{\rm bin}^{-1}(1/3) \approx 0.062 > 0\hspace{0.05cm}.$$


Aufgaben zum Kapitel


Aufgabe 3.10: Transinformation beim BSC

Aufgabe 3.10Z: BSC–Kanalkapazität

Aufgabe 3.11: Auslöschungskanal

Aufgabe 3.11Z: Extrem unsymmetrischer Kanal

Aufgabe 3.12: Streng symmetrische Kanäle

Aufgabe 3.13: Coderate und Zuverlässigkeit

Aufgabe 3.14: Kanalcodierungstheorem

Aufgabe 3.15: Data Processing Theorem


Quellenverzeichnis

  1. Shannon, C.E.: A Mathematical Theory of Communication. In: Bell Syst. Techn. J. 27 (1948), S. 379-423 und S. 623-656.
  2. 2,0 2,1 Cover, T.M.; Thomas, J.A.:  Elements of Information Theory.  West Sussex: John Wiley & Sons, 2nd Edition, 2006.
  3. Kramer, G.:  Information Theory.  Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, Technische Universität München, 2013.
  4. Mecking, M.:  Information Theory.  Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, Technische Universität München, 2009.