Aufgaben:Aufgabe 3.10Z: BSC–Kanalkapazität: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
K (Guenter verschob die Seite 3.09Z BSC–Kanalkapazität nach 3.10Z BSC–Kanalkapazität)
 
(13 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 3: Zeile 3:
 
}}
 
}}
  
[[Datei:P_ID2789__Inf_Z_3_9.png|right|]]
+
[[Datei:P_ID2789__Inf_Z_3_9.png|right|frame|Entropien der Modelle „BC” und „BSC”]]
Die Kanalkapazität $C$ wurde von Claude $E$. Shannon als die maximale Transinformation definiert, wobei sich die Maximierung allein auf die Quellenstatistik bezieh
+
Die Kanalkapazität  $C$  wurde von  [https://de.wikipedia.org/wiki/Claude_Shannon Claude E. Shannon]  als die maximale Transinformation definiert, wobei sich die Maximierung allein auf die Quellenstatistik bezieht:
$$ C = \max_{P_X(X)} \hspace{0.15cm} I(X;Y) \hspace{0.05cm}$$
+
:$$ C = \max_{P_X(X)} \hspace{0.15cm} I(X;Y) \hspace{0.05cm}.$$
Beim Binärkanal mit der Wahrscheinlichkeitsfunktion $P_X(X) = [p_0, p:1]$ ist nur ein Parameter optimierbar, beispielsweise $p_0$. Die Wahrscheinlichkeit für eine $„1”$ ist damit ebenfalls festgelegt:   $p_1 = 1 p_0$
+
Beim Binärkanal mit der Wahrscheinlichkeitsfunktion  $P_X(X) = \big [p_0, \ p_1 \big]$  ist nur ein Parameter optimierbar, beispielsweise  $p_0$.  Die Wahrscheinlichkeit für eine  $1$  ist damit ebenfalls festgelegt:    $p_1 = 1 - p_0.$
  
Die obere Grafik (rot hinterlegt) fasst die Ergebnisse für den [http://www.lntwww.de/Informationstheorie/Anwendung_auf_die_Digitalsignal%C3%BCbertragung#Kanalkapazit.C3.A4t_eines_Bin.C3.A4rkanals unsymmetrischen Binärkanal] mit $ε_0 = 0.01$ und $ε_1 = 0.2$ zusammen, der im Theorieteil betrachtet wurde. Die Maximierung führt zum Ergebnis $p_0 = 0.55$
+
Die obere Grafik (rötlich hinterlegt) fasst die Ergebnisse für den  [[Informationstheorie/Anwendung_auf_die_Digitalsignalübertragung#Kanalkapazit.C3.A4t_eines_Bin.C3.A4rkanals|unsymmetrischen Binärkanal]]  mit  $ε_0 = 0.01$  und  $ε_1 = 0.2$  zusammen, der auch im Theorieteil betrachtet wurde.  
  
$\Rightarrow p_1 = 0.45$,  und man erhält für die Kanalkapazität:
+
Die Maximierung führt zum Ergebnis  $p_0 = 0.55$   ⇒   $p_1 = 0.45$,  und man erhält für die Kanalkapazität:
$$C_{\rm BC} = \hspace{-0.05cm} \max_{P_X(X)} \hspace{0.1cm} I(X;Y) \big |_{p_0 \hspace{0.05cm} = \hspace{0.05cm}0.55} \hspace{0.05cm}=\hspace{0.05cm} 0.5779\,{\rm bit} \hspace{0.05cm}$$
+
:$$C_{\rm BC} = \hspace{-0.05cm} \max_{P_X(X)} \hspace{0.1cm} I(X;Y) \big |_{p_0 \hspace{0.05cm} = \hspace{0.05cm}0.55} \hspace{0.05cm}=\hspace{0.05cm} 0.5779\,{\rm bit} \hspace{0.05cm}.$$
  
In der unteren Grafik (blaue Hinterlegung) sind die gleichen informationstheoretischen Größen für den symmetrischen Kanal $\Rightarrow$ [http://www.lntwww.de/index.php?title=Digitalsignal%C3%BCbertragung/Binary_Symmetric_Channel_(BSC)&action=edit&redlink=1 Binary Symmetric Channel] (BSC) mit den Verfälschungswahrscheinlichkeiten $ε1 = ε2 = ε = 0.1$ angegeben, der auch für die [http://www.lntwww.de/Aufgaben:3.09_Transinformation_beim_BSC Aufgabe A3.9] vorausgesetzt wurde.
+
In der unteren Grafik (blaue Hinterlegung) sind die gleichen informationstheoretischen Größen für den symmetrischen Kanal   ⇒   [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC|Binary Symmetric Channel]]   (BSC) mit den Verfälschungswahrscheinlichkeiten  $ε_0 = ε_1 = ε = 0.1$  angegeben, der auch für die  [[Aufgaben:3.10_Transinformation_beim_BSC| Aufgabe 3.10]]  vorausgesetzt wurde.
  
In der vorliegenden Aufgabe sollen Sie für das BSC–Kanalmodell (zunächst für $ε = 0\ cdot 1$)
+
In der vorliegenden Aufgabe sollen Sie für das BSC–Kanalmodell  $($zunächst für  $ε = 0.1)$
:* die Entropien $H(X)$, $H(Y)$, $H(X|Y)$, $H(Y|X)$ analysieren,
+
:* die Entropien  $H(X)$,  $H(Y)$,  $H(X|Y)$  und  $H(Y|X)$ analysieren,
:* den Quellenparameter $p_0$ hinsichtlich maximaler Transinformation $I(X; Y)$ optimieren,
+
:* den Quellenparameter  $p_0$  hinsichtlich maximaler Transinformation  $I(X; Y)$  optimieren,
:* somit die Kanalkapazität $C(ε)$  bestimmen, sowie
+
:* somit die Kanalkapazität  $C(ε)$  bestimmen, sowie
:* durch Verallgemeinerung eine geschlossene Gleichung für $C(ε)$ angeben.
+
:* durch Verallgemeinerung eine geschlossene Gleichung für  $C(ε)$  angeben.
'''Hinweis:''Die Aufgabe bezieht sich auf die Thematik von [http://www.lntwww.de/Informationstheorie/Anwendung_auf_die_Digitalsignal%C3%BCbertragung Kapitel 3.3]
+
 
===Fragebogen===
+
 
 +
 
 +
 
 +
 
 +
''Hinweise:''  
 +
*Die Aufgabe gehört zum  Kapitel  [[Informationstheorie/Anwendung_auf_die_Digitalsignalübertragung|Anwendung auf die Digitalsignalübertragung]].
 +
*Bezug genommen wird insbesondere auf die Seite     [[Informationstheorie/Anwendung_auf_die_Digitalsignalübertragung#Kanalkapazit.C3.A4t_eines_Bin.C3.A4rkanals|Kanalkapazität eines Binärkanals]].
 +
  
<quiz display=simple>
 
  
{Berechnen Sie die Quellenentropie allgemein und für $p_0 = 0.4.$
 
|type="{}"}
 
$p_0 = 0.4:  H(X)$ = { 0.971 3% } $bit$
 
  
{Berechnen Sie die Sinkenentropie allgemein und für $p_0 = 0.4.$
+
===Fragebogen===
|type="{}"}
 
$p_0 = 0 \cdot 4:  H(Y)$ = { 0.881 3% }  $bit$
 
  
{Berechnen Sie die Verbundentropie allgemein und für $p_0 = 0.4.$
+
<quiz display=simple>
|type="{}"}
+
{ Welche Aussagen gelten für die bedingten Entropien beim BSC–Modell?
$p_0 = 0\cdot 4:  H(XY)$ = { 1.571 3% } $bit$ 
+
|type="[]"}
 +
- Die Äquivokation ergibt sich zu&nbsp; $H(X|Y) = H_{\rm bin}(ε)$.
 +
+ Die Irrelevanz ergibt sich zu&nbsp; $H(Y|X) = H_{\rm bin}(ε)$.
 +
- Die Irrelevanz ergibt sich zu&nbsp; $H(Y|X) = H_{\rm bin}(p_0)$.
  
{Berechnen Sie die Transinformation allgemein und für $p_0 = 0.4.$  
+
{Welche Aussagen gelten für die Kanalkapazität&nbsp; $C_{\rm BSC}$&nbsp; des BSC–Modells?
|type="{}"}
+
|type="[]"}
$p_0 = 0\cdot 4:  I(X; Y)$ = { 0.281 3% } $bit$
+
+ Die Kanalkapazität ist gleich der maximalen Transinformation.
 +
+ Die Maximierung führt beim BSC zum Ergebnis &nbsp;$p_0 = p_1 = 0.5$.
 +
+ Für&nbsp; $p_0 = p_1 = 0.5$&nbsp; &nbsp;gilt&nbsp; $H(X) = H(Y) = 1 \ \rm bit$.
  
{Welche Wahrscheinlichkeit $p_0$ führt zur Kanalkapazität $C$?
+
{Welche Kanalkapazität&nbsp; $C_{\rm BSC}$&nbsp; ergibt sich abhängig vom BSC–Parameter&nbsp; $ε$?
 
|type="{}"}
 
|type="{}"}
$ Maximierung:   p_0$ = { 0.6 3% }  
+
$ε = 0.0\text{:} \hspace{0.5cm}  C_{\rm BSC} \ = \ $ { 1 1% } $\ \rm bit$
 +
= 0.1\text{:} \hspace{0.5cm} C_{\rm BSC} \ = \ $ { 0.531 1% } $\ \rm bit$
 +
$ε = 0.5\text{:} \hspace{0.5cm} C_{\rm BSC} \ = \ $ { 0. } $\ \rm bit$
  
{Wie groß ist die Kanalkapazität des vorliegenden Kanals?
+
{Welche Kanalkapazität&nbsp; $C_{\rm BSC}$&nbsp; ergibt sich abhängig vom BSC–Parameter&nbsp; $ε$?
 
|type="{}"}
 
|type="{}"}
$C$ = { 0.322 3% }   $bit$
+
$ε = 1.0\text{:} \hspace{0.5cm} C_{\rm BSC} \ = \ $ { 1 1% } $\ \rm bit$
 +
$ε = 0.9\text{:} \hspace{0.5cm} C_{\rm BSC} \ = \ $ { 0.531 1% } $\ \rm bit$
  
{Wie groß sind die bedingten Entropien?
 
|type="{}"}
 
$p_0 gemäß (e):  H(X|Y)$ = { 0.649 3% }  $bit$
 
$H(Y|X)$ = { 0.4 3% } $bit$
 
  
 
</quiz>
 
</quiz>
Zeile 58: Zeile 63:
 
===Musterlösung===
 
===Musterlösung===
 
{{ML-Kopf}}
 
{{ML-Kopf}}
'''1.'''  Aus der Tabelle auf der Angabenseite erkennt man, dass beim BSC–Modell (blaue Hinterlegung) wie auch beim allgemeineren (unsymmetrischen) BC–Modell (rote Hinterlegung) die Äquivokation $H(X|Y)$ von den Quellensymbolwahrscheinlichkeiten $p_0$ und $p_1$ abhängt. Daraus folgt, dass der Lösungsvorschlag 1 nicht richtig sein kann. Dagegen ist die Irrelevanz $H(Y|X)$ unabhängig von der Quellenstatistik, so dass auch der Lösungsvorschlag 3 ausgeschlossen werden kann.
+
'''(1)'''&nbsp;  Richtig ist der <u>Lösungsvorschlag 2</u>, wie die folgende Rechnung zeigt:
 +
:$$H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) = p_0 \cdot (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} + p_0 \cdot \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} +p_1 \cdot \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} + p_1 \cdot (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} $$
 +
:$$\Rightarrow \hspace{0.3cm} H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) = (p_0 + p_1) \cdot \left [ \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} + (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} \right ] \hspace{0.05cm}.$$
 +
*Mit&nbsp; $p_0 + p_1 = 1$&nbsp;  und der binären Entropiefunktion &nbsp; &rArr; &nbsp; $H_{\rm bin}$&nbsp; erhält man das vorgeschlagene Ergebnis: &nbsp; $H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) = H_{\rm bin}(\varepsilon)\hspace{0.05cm}.$
 +
*Für&nbsp; $ε = 0.1$&nbsp; ergibt sich&nbsp; $H(Y|X) = 0.4690 \ \rm bit$.&nbsp; Der gleiche Wert steht für&nbsp; $p_0=0.50$&nbsp; in der vorgegebenen Tabelle.
 +
*Aus der Tabelle erkennt man auch, dass beim BSC–Modell (blaue Hinterlegung) wie auch beim allgemeineren (unsymmetrischen) BC–Modell (rote Hinterlegung) die Äquivokation&nbsp; $H(X|Y)$&nbsp; von den Quellensymbolwahrscheinlichkeiten&nbsp; $p_0$&nbsp; und&nbsp; $p_1$&nbsp; abhängen. Daraus folgt, dass der Lösungsvorschlag 1 nicht richtig sein kann.  
 +
*Die Irrelevanz&nbsp; $H(Y|X)$&nbsp; ist unabhängig&nbsp; von der Quellenstatistik, so dass auch der Lösungsvorschlag 3 ausgeschlossen werden kann.
 +
 
 +
 
 +
 
 +
 
 +
'''(2)'''&nbsp;  Zutreffend sind hier <u>alle vorgegebenen Lösungsalternativen</u>:
 +
*Die Kanalkapazität ist definiert als die maximale Transinformation, wobei die Maximierung hinsichtlich&nbsp; $P_X = (p_0, p_1)$&nbsp; zu erfolgen hat:
 +
:$$C = \max_{P_X(X)} \hspace{0.15cm} I(X;Y) \hspace{0.05cm}.$$
 +
*Die Gleichung gilt allgemein, also auch für den rot hinterlegten unsymmetrischen Binärkanal.
 +
*Die Transinformation kann zum Beispiel berechnet werden als&nbsp; $I(X;Y) = H(Y) - H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X)\hspace{0.05cm}$,&nbsp; wobei entsprechend der Teilaufgabe&nbsp; '''(1)'''&nbsp; der Term&nbsp; $H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X)\hspace{0.05cm}$&nbsp; unabhängig von&nbsp; $p_0$&nbsp; bzw.&nbsp; $p_1 = 1- p_0$&nbsp; ist.
 +
*Die maximale Transinformation ergibt sich somit genau dann, wenn die Sinkenentropie&nbsp; $H(Y)$&nbsp; maximal ist.&nbsp; Dies ist der Fall für&nbsp; $p_0 = p_1 = 0.5$:
 +
:$$H(X) = H(Y) =  1 \ \rm bit.$$
 +
 
 +
 
 +
 
 +
[[Datei:P_ID2790__Inf_Z_3_9_B.png|frame|Binäre Entropiefunktion und BSC–Kanalkapazität]]
 +
'''(3)'''&nbsp;  Entsprechend den Teilaufgaben&nbsp; '''(1)'''&nbsp; und&nbsp; '''(2)'''&nbsp; erhält man für die BSC&ndash;Kanalkapazität:
 +
:$$C = \max_{P_X(X)} \hspace{0.15cm}  I(X;Y)  \hspace{0.05cm}.$$
  
Richtig ist vielmehr der ''Lösungsvorschlag 2'', wie die folgende Rechnung zeigt:
+
Die Grafik zeigt links die binäre Entropiefunktion und rechts die Kanalkapazität.&nbsp; Man erhält:
$$H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) \hspace{-0.15cm} =\hspace{-0.15cm} p_0 \cdot (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} + p_0 \cdot \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} +$$ $$ \hspace{-0.15cm} p_1 \cdot \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} + p_1 \cdot (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} =$$  
+
* für&nbsp; $ε = 0.0$&nbsp; (fehlerfreier Kanal): <br> &nbsp; &nbsp; $C = 1\ \rm (bit)$ &nbsp; &rArr; &nbsp; Punkt mit gelber Füllung,
$$=\hspace{-0.15cm} (p_0 + p_1) \cdot \left [ \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} + (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} \right ] \hspace{0.05cm}.$$
+
* für&nbsp; $ε = 0.1$&nbsp; (bisher betrachtet): <br> &nbsp; &nbsp; $C = 0.531\ \rm (bit)$ &nbsp; &rArr; &nbsp;  Punkt mit grüner Füllung,
Mit $p_0 + p_1 = 1$n  und der [http://www.lntwww.de/Informationstheorie/Ged%C3%A4chtnislose_Nachrichtenquellen#Bin.C3.A4re_Entropiefunktion binären Entropiefunktion] $\Rightarrow  H_{bin}$ erhält man das vorgeschlagene Ergebnis:
+
* für&nbsp; $ε = 0.5$&nbsp; (vollkommen gestört): <br> &nbsp; &nbsp; $C = 0\ \rm  (bit)$   &nbsp; &rArr; &nbsp;  Punkt mit grauer Füllung.
$$H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) = H_{\rm bin}(\varepsilon)\hspace{0.05cm}$$
 
Für $ε = 0.1$ ergibt sich $H(Y|X) = 0.4690 bit$. Der gleiche Wert steht für alle $p_0$ in der gegebenen Tabelle.
 
'''2.''' Zutreffend sind hier ''alle vorgegebenen Lösungsalternativen''. Die Kanalkapazität ist definiert als die maximale Transinformation, wobei die Maximierung hinsichtlich $P_X = (p_0, p_1)$ zu erfolgen hat:
 
$$C = \max_{P_X(X)} \hspace{0.15cm} I(X;Y) \hspace{0.05cm}$$
 
Diese Gleichung gilt allgemein, also auch für den rot hinterlegten [http://www.lntwww.de/Aufgaben:3.09Z_BSC%E2%80%93Kanalkapazit%C3%A4t unsymmetrischen Binärkanal] (BC).
 
  
Die Transinformation kann zum Beispiel allgemein wie folgt berechnet werden:
 
$$I(X;Y) = H(Y) - H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X)\hspace{0.05cm}$$
 
  
[[Datei:P_ID2790__Inf_Z_3_9_B.png|right|]]
 
'''3.'''Die Grafik rechts zeigt  die binäre Entropiefunktion und rechts die Kanalkapazität. Man erhält:
 
:* für $ε = 0$ (fehlerfreier Kanal): $C = 1 (bit) \Rightarrow$  Punkt mit gelber Füllung,
 
:* für $ε = 0.1$ (bisher betrachtet): $C = 0.531 (bit) ) \Rightarrow$    Punkt mit grüner Füllung,
 
:* für $ε = 0.5$ (vollkommen gestört): $C = 0 (bit)  \Rightarrow$  Punkt mit grauer Füllung
 
  
'''4.''' Aus der Grafik erkennt man, dass aus informationstheoretischer Sicht $ε = 1$ gleich ist wie $ε = 0$ :  
+
'''(4)'''&nbsp;  Aus der Grafik erkennt man, dass aus informationstheoretischer Sicht&nbsp; $ε = 1$&nbsp; identisch mit&nbsp; $ε = 0$&nbsp; ist:  
$$C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}1} \hspace{0.05cm}= C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0} \hspace{0.15cm} \underline {=1\,{\rm (bit)}} \hspace{0.05cm}$$
+
:$$C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}1} \hspace{0.05cm}= C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0} \hspace{0.15cm} \underline {=1\,{\rm (bit)}} \hspace{0.05cm}.$$
Der Kanal nimmt hier nur eine Umbenennung vor. Man spricht von Mapping. Aus jeder $„0”$ wird eine $„1”$ und aus jeder $„1”$ eine $„0”$. Entsprechend gilt:
+
*Der Kanal nimmt hier nur eine Umbenennung vor.&nbsp; Man spricht von &bdquo;Mapping&rdquo;.
$$C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0.9} \hspace{0.05cm}= C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0.1} \hspace{0.15cm} \underline {=0.531\,{\rm (bit)}} \hspace{0.05cm}$$
+
* Aus jeder&nbsp; $0$&nbsp; wird eine&nbsp; $1$&nbsp; und aus jeder&nbsp; $1$&nbsp; eine&nbsp; $0$.&nbsp; Entsprechend gilt:
 +
:$$C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0.9} \hspace{0.05cm}= C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0.1} \hspace{0.15cm} \underline {=0.531\,{\rm (bit)}} \hspace{0.05cm}$$
  
 
{{ML-Fuß}}
 
{{ML-Fuß}}

Aktuelle Version vom 22. September 2021, 11:34 Uhr

Entropien der Modelle „BC” und „BSC”

Die Kanalkapazität  $C$  wurde von  Claude E. Shannon  als die maximale Transinformation definiert, wobei sich die Maximierung allein auf die Quellenstatistik bezieht:

$$ C = \max_{P_X(X)} \hspace{0.15cm} I(X;Y) \hspace{0.05cm}.$$

Beim Binärkanal mit der Wahrscheinlichkeitsfunktion  $P_X(X) = \big [p_0, \ p_1 \big]$  ist nur ein Parameter optimierbar, beispielsweise  $p_0$.  Die Wahrscheinlichkeit für eine  $1$  ist damit ebenfalls festgelegt:   $p_1 = 1 - p_0.$

Die obere Grafik (rötlich hinterlegt) fasst die Ergebnisse für den  unsymmetrischen Binärkanal  mit  $ε_0 = 0.01$  und  $ε_1 = 0.2$  zusammen, der auch im Theorieteil betrachtet wurde.

Die Maximierung führt zum Ergebnis  $p_0 = 0.55$   ⇒   $p_1 = 0.45$,  und man erhält für die Kanalkapazität:

$$C_{\rm BC} = \hspace{-0.05cm} \max_{P_X(X)} \hspace{0.1cm} I(X;Y) \big |_{p_0 \hspace{0.05cm} = \hspace{0.05cm}0.55} \hspace{0.05cm}=\hspace{0.05cm} 0.5779\,{\rm bit} \hspace{0.05cm}.$$

In der unteren Grafik (blaue Hinterlegung) sind die gleichen informationstheoretischen Größen für den symmetrischen Kanal   ⇒   Binary Symmetric Channel  (BSC) mit den Verfälschungswahrscheinlichkeiten  $ε_0 = ε_1 = ε = 0.1$  angegeben, der auch für die  Aufgabe 3.10  vorausgesetzt wurde.

In der vorliegenden Aufgabe sollen Sie für das BSC–Kanalmodell  $($zunächst für  $ε = 0.1)$

  • die Entropien  $H(X)$,  $H(Y)$,  $H(X|Y)$  und  $H(Y|X)$ analysieren,
  • den Quellenparameter  $p_0$  hinsichtlich maximaler Transinformation  $I(X; Y)$  optimieren,
  • somit die Kanalkapazität  $C(ε)$  bestimmen, sowie
  • durch Verallgemeinerung eine geschlossene Gleichung für  $C(ε)$  angeben.



Hinweise:



Fragebogen

1

Welche Aussagen gelten für die bedingten Entropien beim BSC–Modell?

Die Äquivokation ergibt sich zu  $H(X|Y) = H_{\rm bin}(ε)$.
Die Irrelevanz ergibt sich zu  $H(Y|X) = H_{\rm bin}(ε)$.
Die Irrelevanz ergibt sich zu  $H(Y|X) = H_{\rm bin}(p_0)$.

2

Welche Aussagen gelten für die Kanalkapazität  $C_{\rm BSC}$  des BSC–Modells?

Die Kanalkapazität ist gleich der maximalen Transinformation.
Die Maximierung führt beim BSC zum Ergebnis  $p_0 = p_1 = 0.5$.
Für  $p_0 = p_1 = 0.5$   gilt  $H(X) = H(Y) = 1 \ \rm bit$.

3

Welche Kanalkapazität  $C_{\rm BSC}$  ergibt sich abhängig vom BSC–Parameter  $ε$?

$ε = 0.0\text{:} \hspace{0.5cm} C_{\rm BSC} \ = \ $

$\ \rm bit$
$ε = 0.1\text{:} \hspace{0.5cm} C_{\rm BSC} \ = \ $

$\ \rm bit$
$ε = 0.5\text{:} \hspace{0.5cm} C_{\rm BSC} \ = \ $

$\ \rm bit$

4

Welche Kanalkapazität  $C_{\rm BSC}$  ergibt sich abhängig vom BSC–Parameter  $ε$?

$ε = 1.0\text{:} \hspace{0.5cm} C_{\rm BSC} \ = \ $

$\ \rm bit$
$ε = 0.9\text{:} \hspace{0.5cm} C_{\rm BSC} \ = \ $

$\ \rm bit$


Musterlösung

(1)  Richtig ist der Lösungsvorschlag 2, wie die folgende Rechnung zeigt:

$$H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) = p_0 \cdot (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} + p_0 \cdot \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} +p_1 \cdot \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} + p_1 \cdot (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} $$
$$\Rightarrow \hspace{0.3cm} H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) = (p_0 + p_1) \cdot \left [ \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} + (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} \right ] \hspace{0.05cm}.$$
  • Mit  $p_0 + p_1 = 1$  und der binären Entropiefunktion   ⇒   $H_{\rm bin}$  erhält man das vorgeschlagene Ergebnis:   $H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) = H_{\rm bin}(\varepsilon)\hspace{0.05cm}.$
  • Für  $ε = 0.1$  ergibt sich  $H(Y|X) = 0.4690 \ \rm bit$.  Der gleiche Wert steht für  $p_0=0.50$  in der vorgegebenen Tabelle.
  • Aus der Tabelle erkennt man auch, dass beim BSC–Modell (blaue Hinterlegung) wie auch beim allgemeineren (unsymmetrischen) BC–Modell (rote Hinterlegung) die Äquivokation  $H(X|Y)$  von den Quellensymbolwahrscheinlichkeiten  $p_0$  und  $p_1$  abhängen. Daraus folgt, dass der Lösungsvorschlag 1 nicht richtig sein kann.
  • Die Irrelevanz  $H(Y|X)$  ist unabhängig  von der Quellenstatistik, so dass auch der Lösungsvorschlag 3 ausgeschlossen werden kann.



(2)  Zutreffend sind hier alle vorgegebenen Lösungsalternativen:

  • Die Kanalkapazität ist definiert als die maximale Transinformation, wobei die Maximierung hinsichtlich  $P_X = (p_0, p_1)$  zu erfolgen hat:
$$C = \max_{P_X(X)} \hspace{0.15cm} I(X;Y) \hspace{0.05cm}.$$
  • Die Gleichung gilt allgemein, also auch für den rot hinterlegten unsymmetrischen Binärkanal.
  • Die Transinformation kann zum Beispiel berechnet werden als  $I(X;Y) = H(Y) - H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X)\hspace{0.05cm}$,  wobei entsprechend der Teilaufgabe  (1)  der Term  $H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X)\hspace{0.05cm}$  unabhängig von  $p_0$  bzw.  $p_1 = 1- p_0$  ist.
  • Die maximale Transinformation ergibt sich somit genau dann, wenn die Sinkenentropie  $H(Y)$  maximal ist.  Dies ist der Fall für  $p_0 = p_1 = 0.5$:
$$H(X) = H(Y) = 1 \ \rm bit.$$


Binäre Entropiefunktion und BSC–Kanalkapazität

(3)  Entsprechend den Teilaufgaben  (1)  und  (2)  erhält man für die BSC–Kanalkapazität:

$$C = \max_{P_X(X)} \hspace{0.15cm} I(X;Y) \hspace{0.05cm}.$$

Die Grafik zeigt links die binäre Entropiefunktion und rechts die Kanalkapazität.  Man erhält:

  • für  $ε = 0.0$  (fehlerfreier Kanal):
        $C = 1\ \rm (bit)$   ⇒   Punkt mit gelber Füllung,
  • für  $ε = 0.1$  (bisher betrachtet):
        $C = 0.531\ \rm (bit)$   ⇒   Punkt mit grüner Füllung,
  • für  $ε = 0.5$  (vollkommen gestört):
        $C = 0\ \rm (bit)$   ⇒   Punkt mit grauer Füllung.


(4)  Aus der Grafik erkennt man, dass aus informationstheoretischer Sicht  $ε = 1$  identisch mit  $ε = 0$  ist:

$$C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}1} \hspace{0.05cm}= C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0} \hspace{0.15cm} \underline {=1\,{\rm (bit)}} \hspace{0.05cm}.$$
  • Der Kanal nimmt hier nur eine Umbenennung vor.  Man spricht von „Mapping”.
  • Aus jeder  $0$  wird eine  $1$  und aus jeder  $1$  eine  $0$.  Entsprechend gilt:
$$C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0.9} \hspace{0.05cm}= C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0.1} \hspace{0.15cm} \underline {=0.531\,{\rm (bit)}} \hspace{0.05cm}$$