Aufgaben:Aufgabe 4.5Z: Nochmals Transinformation: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
(11 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 3: Zeile 3:
 
}}
 
}}
  
[[Datei:P_ID2893__Inf_Z_4_5.png|right|]]
+
[[Datei:P_ID2893__Inf_Z_4_5.png|right|frame|Gegebene Verbund–WDF und Schaubild der differentiellen Entropien]]
Die Grafik zeigt oben die in dieser Aufgabe zu betrachtende Verbund&ndash;WDF <i>f<sub>XY</sub></i>(<i>x</i>, <i>y</i>), die identisch ist mit der &bdquo;grünen&rdquo; Konstellation in
+
Die Grafik zeigt oben die in dieser Aufgabe zu betrachtende Verbund&ndash;WDF&nbsp; $f_{XY}(x, y)$,&nbsp; die identisch ist mit der &bdquo;grünen&rdquo; Konstellation in der&nbsp; [[Aufgaben:Aufgabe_4.5:_Transinformation_aus_2D-WDF|Aufgabe 4.5]].
[http://www.lntwww.de/Aufgaben:4.05_I(X;_Y)_aus_fXY(x,_y) '''Aufgabe A4.5.''']  Die Skizze ist in der <i>y</i>&ndash;Richtung um den Faktor 3 vergrößert. Im grün hinterlegten Definitionsgebiet ist die Verbund&ndash;WDF konstant gleich <i>C</i> = 1/<i>F</i>, wobei <i>F</i> die Fläche des Parallelogramms angibt.
+
*  $f_{XY}(x, y)$&nbsp; ist in der&nbsp; $y$&ndash;Richtung um den Faktor&nbsp; $3$&nbsp; vergrößert.  
 +
*Im grün hinterlegten Definitionsgebiet ist die Verbund&ndash;WDF konstant gleich&nbsp; $C = 1/F$, wobei&nbsp; $F$&nbsp; die Fläche des Parallelogramms angibt.
  
In der Aufgabe A4.5 wurden folgende differentielle Entropien berechnet:
 
$$h(X) \  =  \  {\rm log} \hspace{0.1cm} (\hspace{0.05cm}A\hspace{0.05cm})\hspace{0.05cm},$$
 
$$h(Y)  =    {\rm log} \hspace{0.1cm} (\hspace{0.05cm}B \cdot \sqrt{ {\rm e } } \hspace{0.05cm})\hspace{0.05cm},$$
 
$$h(XY)  =    {\rm log} \hspace{0.1cm} (\hspace{0.05cm}F \hspace{0.05cm}) =  {\rm log} \hspace{0.1cm} (\hspace{0.05cm}A \cdot B \hspace{0.05cm})\hspace{0.05cm}.$$
 
In dieser Aufgabe sind nun die speziellen Parameterwerte <i>A</i> = e<sup>&ndash;2</sup> und <i>B</i> = e<sup>0.5</sup> zu verwenden. Außerdem ist zu beachten:
 
:* Bei Verwendung des <i>natürlichen Logarithmus</i> &bdquo;ln&rdquo; ist die Pseudo&ndash;Einheit &bdquo;nat&rdquo; anzufügen.
 
:* Verwendet man den <i>Logarithmus dualis</i> &#8658; &bdquo;log<sub>2</sub>&rdquo;, so ergeben sich alle  Größen in &bdquo;bit&rdquo;.
 
  
Entsprechend dem obigen Schaubild sollen nun auch die bedingten differentiellen Entropien <i>h</i>(<i>Y</i>|<i>X</i>) und <i>h</i>(<i>X</i>|<i>Y</i>) ermittelt und deren Bezug zur Transinformation <i>I</i>(<i>X</i>;<i>Y</i>) angegeben werden.
+
In der Aufgabe 4.5 wurden folgende differentielle Entropien berechnet:
 +
:$$h(X) \  =  \  {\rm log} \hspace{0.1cm} (\hspace{0.05cm}A\hspace{0.05cm})\hspace{0.05cm},$$
 +
:$$h(Y)   =    {\rm log} \hspace{0.1cm} (\hspace{0.05cm}B \cdot \sqrt{ {\rm e } } \hspace{0.05cm})\hspace{0.05cm},$$
 +
:$$h(XY)  =    {\rm log} \hspace{0.1cm} (\hspace{0.05cm}F \hspace{0.05cm}) = {\rm log} \hspace{0.1cm} (\hspace{0.05cm}A \cdot B \hspace{0.05cm})\hspace{0.05cm}.$$
 +
In dieser Aufgabe sind nun die Parameterwerte&nbsp; $A = {\rm e}^{-2}$&nbsp; und&nbsp; $B = {\rm e}^{0.5}$&nbsp; zu verwenden.  
  
'''Hinweis:''' Die Aufgabe gehört zum Themengebiet von [http://www.lntwww.de/Informationstheorie/AWGN–Kanalkapazität_bei_wertkontinuierlichem_Eingang '''Kapitel 4.2.''']
+
Entsprechend dem obigen Schaubild sollen nun auch die bedingten differentiellen Entropien&nbsp; $h(Y|X)$&nbsp;  und&nbsp; $h(X|Y)$&nbsp; ermittelt und deren Bezug zur Transinformation&nbsp; $I(X; Y)$&nbsp; angegeben  werden.
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
 
 +
''Hinweise:''  
 +
*Die Aufgabe gehört zum Kapitel&nbsp; [[Informationstheorie/AWGN–Kanalkapazität_bei_wertkontinuierlichem_Eingang|AWGN–Kanalkapazität bei wertkontinuierlichem Eingang]].
 +
*Sollen die Ergebnisse in &bdquo;nat&rdquo; angegeben werden, so erreicht man dies mit &bdquo;log&rdquo; &nbsp;&#8658;&nbsp; &bdquo;ln&rdquo;.  
 +
*Sollen die Ergebnisse in &bdquo;bit&rdquo; angegeben werden, so erreicht man dies mit &bdquo;log&rdquo; &nbsp;&#8658;&nbsp; &bdquo;log<sub>2</sub>&rdquo;.  
 +
  
  
Zeile 24: Zeile 35:
  
 
<quiz display=simple>
 
<quiz display=simple>
 
  
 
{Geben Sie die folgenden informationstheoretischen Größen in &bdquo;nat&rdquo; an:
 
{Geben Sie die folgenden informationstheoretischen Größen in &bdquo;nat&rdquo; an:
 
|type="{}"}
 
|type="{}"}
$h(X)$ = { 2 3% }
+
$h(X) \ = \ $ { -2.06--1.94 } $\ \rm nat$
$h(Y)$ = { 2 3% }
+
$h(Y) \ \hspace{0.03cm} = \ $ { 1 3% } $\ \rm nat$
$h(XY)$ = { 1.5 3% }
+
$h(XY)\ \hspace{0.17cm} = \ $ { -1.55--1.45 } $\ \rm nat$
$I(X;Y)$ = { 0.5 3% }
+
$I(X;Y)\ = \ $ { 0.5 3% } $\ \rm nat$
  
  
 
{Wie lauten die gleichen Größen mit der Pseudo&ndash;Einheit &bdquo;bit&rdquo;?
 
{Wie lauten die gleichen Größen mit der Pseudo&ndash;Einheit &bdquo;bit&rdquo;?
 
|type="{}"}
 
|type="{}"}
$h(X)$ = { 2.886 3% }
+
$h(X) \ = \ $ { -2.986--2.786  } $\ \rm bit$
$h(Y)$ = { 1.443 3% }
+
$h(Y) \ \hspace{0.03cm} = \ $ { 1.443 3% } $\ \rm bit$
$h(XY)$ = { 2.164 3% }
+
$h(XY)\ \hspace{0.17cm} = \ $ { -2.22--2.10 } $\ \rm bit$
$I(X;Y)$ = { 0.721 3% }
+
$I(X;Y)\ = \ $ { 0.721 3% } $\ \rm bit$
  
  
{Berechnen Sie die bedingte differentielle Entropie <i>h</i>(<i>Y</i>|<i>X</i>).
+
{Berechnen Sie die bedingte differentielle Entropie&nbsp; $h(Y|X)$.
 
|type="{}"}
 
|type="{}"}
$h(Y|X)$ = { 0.5 3% }
+
$h(Y|X) \ = \ $ { 0.5 3% } $\ \rm nat$
$h(Y|X)$ = { 0.721 3% }
+
$h(Y|X) \ = \ $ { 0.721 3% } $\ \rm bit$
  
  
{Berechnen Sie die bedingte differentielle Entropie <i>h</i>(<i>X</i>|<i>Y</i>).
+
{Berechnen Sie die bedingte differentielle Entropie&nbsp; $h(X|Y)$.
 
|type="{}"}
 
|type="{}"}
$h(X|Y)$ = { 2.5 3% }
+
$h(X|Y) \ = \ $ { -2.6--2.4 } $\ \rm nat$
$h(X|Y)$ = { 3.607 3% }
+
$h(X|Y) \ = \ $ { -3.7--3.5 } $\ \rm bit$
  
  
 
{Welche der folgenden Größen sind niemals negativ?
 
{Welche der folgenden Größen sind niemals negativ?
 
|type="[]"}
 
|type="[]"}
+ Sowohl <i>H</i>(<i>X</i>) als auch <i>H</i>(<i>Y</i>) im wertdiskreten Fall.
+
+ Sowohl &nbsp;$H(X)$&nbsp; als auch &nbsp;$H(Y)$&nbsp; im wertdiskreten Fall.
+ Die Transinformation <i>I</i>(<i>X</i>; <i>Y</i>) im wertdiskreten Fall.
+
+ Die Transinformation &nbsp;$I(X; Y)$&nbsp; im wertdiskreten Fall.
+ Die Transinformation <i>I</i>(<i>X</i>; <i>Y</i>) im wertkontinuierlichen Fall.
+
+ Die Transinformation &nbsp;$I(X; Y)$&nbsp; im wertkontinuierlichen Fall.
- Sowohl <i>h</i>(<i>X</i>) als auch <i>h</i>(<i>Y</i>) im wertkontinuierlichen Fall.
+
- Sowohl &nbsp;$h(X)$&nbsp; als auch &nbsp;$h(Y)$&nbsp;  im wertkontinuierlichen Fall.
- Sowohl <i>h</i>(<i>X</i>|<i>Y</i>) als auch <i>h</i>(<i>Y</i>|<i>X</i>) im wertkontinuierlichen Fall.
+
- Sowohl &nbsp;$h(X|Y)$&nbsp; als auch &nbsp;$h(Y|X)$&nbsp; im wertkontinuierlichen Fall.
- Die Verbundentropie <i>h</i>(<i>XY</i>) im wertkontinuierlichen Fall.
+
- Die Verbundentropie &nbsp;$h(XY)$&nbsp; im wertkontinuierlichen Fall.
  
 
</quiz>
 
</quiz>
Zeile 67: Zeile 77:
 
===Musterlösung===
 
===Musterlösung===
 
{{ML-Kopf}}
 
{{ML-Kopf}}
<b>a)</b>&nbsp;&nbsp;Hier bietet sich die Verwendung des natürlichen Logarithmus an:
+
'''(1)'''&nbsp; Da die Ergebnisse in &bdquo;nat&rdquo; gefordert sind,  bietet sich die Verwendung des natürlichen Logarithmus an:
:*Die Zufallsgröße <i>X</i> ist gleichverteilt zwischen 0 und 1/e<sup>2</sup> = e<sup>&ndash;2</sup>:
+
*Die Zufallsgröße&nbsp; $X$&nbsp; ist gleichverteilt zwischen&nbsp; $0$&nbsp; und&nbsp; $1/{\rm e}^2={\rm e}^{-2}$:
$$h(X) =  {\rm ln} \hspace{0.1cm} (\hspace{0.05cm}{\rm e}^{-2}\hspace{0.05cm})
+
:$$h(X) =  {\rm ln} \hspace{0.1cm} (\hspace{0.05cm}{\rm e}^{-2}\hspace{0.05cm})
 
\hspace{0.15cm}\underline{= -2\,{\rm nat}}\hspace{0.05cm}. $$
 
\hspace{0.15cm}\underline{= -2\,{\rm nat}}\hspace{0.05cm}. $$
:*Die Zufallsgröße <i>Y</i> ist dreieckverteilt zwischen &plusmn;e<sup>0.5</sup>:
+
*Die Zufallsgröße&nbsp; $Y$&nbsp; ist dreieckverteilt zwischen&nbsp; $&plusmn;{\rm e}^{-0.5}$:
$$h(Y) =  {\rm ln} \hspace{0.1cm} (\hspace{0.05cm}\sqrt{ {\rm e} } \cdot \sqrt{ {\rm e} } )
+
:$$h(Y) =  {\rm ln} \hspace{0.1cm} (\hspace{0.05cm}\sqrt{ {\rm e} } \cdot \sqrt{ {\rm e} } )
 
=  {\rm ln} \hspace{0.1cm} (\hspace{0.05cm}{ { \rm e } }  
 
=  {\rm ln} \hspace{0.1cm} (\hspace{0.05cm}{ { \rm e } }  
 
\hspace{0.05cm})
 
\hspace{0.05cm})
 
\hspace{0.15cm}\underline{= +1\,{\rm nat}}\hspace{0.05cm}.$$   
 
\hspace{0.15cm}\underline{= +1\,{\rm nat}}\hspace{0.05cm}.$$   
:* Die Fläche des Parallelogramms ergibt sich zu
+
* Die Fläche des Parallelogramms ergibt sich zu
$$F = A \cdot B = {\rm e}^{-2} \cdot {\rm e}^{0.5} = {\rm e}^{-1.5}\hspace{0.05cm}.$$
+
:$$F = A \cdot B = {\rm e}^{-2} \cdot {\rm e}^{0.5} = {\rm e}^{-1.5}\hspace{0.05cm}.$$
Damit hat die 2D&ndash;WDF im grün hinterlegten Bereich die konstante Höhe <i>C</i> = 1/<i>F</i> = e<sup>1.5</sup> und man erhält für die Verbundentropie:
+
*Damit hat die 2D&ndash;WDF im grün hinterlegten Bereich die konstante Höhe&nbsp; $C = 1/F ={\rm e}^{1.5}$&nbsp; und man erhält für die Verbundentropie:
$$h(XY) =  {\rm ln} \hspace{0.1cm} (F)
+
:$$h(XY) =  {\rm ln} \hspace{0.1cm} (F)
 
=  {\rm ln} \hspace{0.1cm} (\hspace{0.05cm}{\rm e}^{-1.5}\hspace{0.05cm})
 
=  {\rm ln} \hspace{0.1cm} (\hspace{0.05cm}{\rm e}^{-1.5}\hspace{0.05cm})
 
\hspace{0.15cm}\underline{= -1.5\,{\rm nat}}\hspace{0.05cm}.$$
 
\hspace{0.15cm}\underline{= -1.5\,{\rm nat}}\hspace{0.05cm}.$$
Daraus ergibt sich für die Transinformation:
+
*Daraus ergibt sich für die Transinformation:
$$I(X;Y) = h(X) + h(Y) - h(XY) = -2 \,{\rm nat} + 1 \,{\rm nat} - (-1.5 \,{\rm nat} ) \hspace{0.15cm}\underline{= 0.5\,{\rm nat}}\hspace{0.05cm}.$$
+
:$$I(X;Y) = h(X) + h(Y) - h(XY) = -2 \,{\rm nat} + 1 \,{\rm nat} - (-1.5 \,{\rm nat} ) \hspace{0.15cm}\underline{= 0.5\,{\rm nat}}\hspace{0.05cm}.$$
<b>b)</b>&nbsp;&nbsp;Allgemein gilt der Zusammenhang log<sub>2</sub>(<i>x</i>) = ln(<i>x</i>)/ln(2).
+
 
$$h(X) \  =  \  \frac{-2\,{\rm nat}}{0.693\,{\rm nat/bit}}\hspace{0.35cm}\underline{= -2.886\,{\rm bit}}\hspace{0.05cm},$$
+
 
$$h(Y) \  =  \  \frac{+1\,{\rm nat}}{0.693\,{\rm nat/bit}}\hspace{0.35cm}\underline{= +1.443\,{\rm bit}}\hspace{0.05cm},$$
+
 
$$h(XY) \  =  \  \frac{-1.5\,{\rm nat}}{0.693\,{\rm nat/bit}}\hspace{0.35cm}\underline{= -2.164\,{\rm bit}}\hspace{0.05cm},$$
+
'''(2)'''&nbsp; Allgemein gilt der Zusammenhang&nbsp; $\log_2(x) = \ln(x)/\ln(2)$.&nbsp; Damit erhält man mit den Ergebnissen der Teilaufgabe&nbsp; '''(1)''':
$$I(X;Y) \  =  \  \frac{0.5\,{\rm nat}}{0.693\,{\rm nat/bit}}\hspace{0.35cm}\underline{= 0.721\,{\rm bit}}\hspace{0.05cm}.$$
+
:$$h(X) \  =  \  \frac{-2\,{\rm nat}}{0.693\,{\rm nat/bit}}\hspace{0.35cm}\underline{= -2.886\,{\rm bit}}\hspace{0.05cm},$$
Oder auch:
+
:$$h(Y) \  =  \  \frac{+1\,{\rm nat}}{0.693\,{\rm nat/bit}}\hspace{0.35cm}\underline{= +1.443\,{\rm bit}}\hspace{0.05cm},$$
$$I(X;Y) = -2.886 \,{\rm bit} + 1.443 \,{\rm bit}+ 2.164 \,{\rm bit}{= 0.721\,{\rm bit}}\hspace{0.05cm}.$$
+
:$$h(XY) \  =  \  \frac{-1.5\,{\rm nat}}{0.693\,{\rm nat/bit}}\hspace{0.35cm}\underline{= -2.164\,{\rm bit}}\hspace{0.05cm},$$
<b>c)</b>&nbsp;&nbsp;Die Transinformation kann auch in der Form <i>I</i>(<i>X</i>; <i>Y</i>) = <i>h</i>(<i>Y</i>) &ndash; <i>h</i>(<i>Y</i>|<i>X</i>) geschrieben werden:
+
:$$I(X;Y) \  =  \  \frac{0.5\,{\rm nat}}{0.693\,{\rm nat/bit}}\hspace{0.35cm}\underline{= 0.721\,{\rm bit}}\hspace{0.05cm}.$$
$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(Y) - I(X;Y) = 1 \,{\rm nat} - 0.5 \,{\rm nat} \hspace{0.15cm}\underline{= 0.5\,{\rm nat}= 0.721\,{\rm bit}}\hspace{0.05cm}.$$
+
*Oder auch:
<b>d)</b>&nbsp;&nbsp;Für die differentielle Rückschlussentropie gilt entsprechend:
+
:$$I(X;Y) = -2.886 \,{\rm bit} + 1.443 \,{\rm bit}+ 2.164 \,{\rm bit}{= 0.721\,{\rm bit}}\hspace{0.05cm}.$$
$$h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) = h(X) - I(X;Y) = -2 \,{\rm nat} - 0.5 \,{\rm nat} \hspace{0.15cm}\underline{= -2.5\,{\rm nat}= -3.607\,{\rm bit}}\hspace{0.05cm}.$$
+
 
Alle hier berechneten Größen sind in der Grafik am Seitenende zusammengestellt. Pfeile nach oben kennzeichnen einen positiven Beitrag, Pfeile nach unten einen negativen.
+
 
 +
 
 +
'''(3)'''&nbsp; Die Transinformation kann auch in der Form &nbsp;$I(X;Y) = h(Y)-h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) $&nbsp; geschrieben werden:
 +
:$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(Y) - I(X;Y) = 1 \,{\rm nat} - 0.5 \,{\rm nat} \hspace{0.15cm}\underline{= 0.5\,{\rm nat}= 0.721\,{\rm bit}}\hspace{0.05cm}.$$
 +
 
 +
 
 +
 
 +
'''(4)'''&nbsp; Für die differentielle Rückschlussentropie gilt entsprechend:
 +
:$$h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) = h(X) - I(X;Y) = -2 \,{\rm nat} - 0.5 \,{\rm nat} \hspace{0.15cm}\underline{= -2.5\,{\rm nat}= -3.607\,{\rm bit}}\hspace{0.05cm}.$$
 +
 
 +
[[Datei: P_ID2898__Inf_Z_4_5d.png |right|frame|Zusammenfassung aller Ergebnisse dieser Aufgabe]]
 +
*Alle hier berechneten Größen sind in der Grafik zusammengestellt.&nbsp;
 +
*Pfeile nach oben kennzeichnen einen positiven Beitrag, Pfeile nach unten einen negativen.
 +
 
 +
 
  
<b>e)</b>&nbsp;&nbsp;Richtig sind die <u>Lösungsvorschläge 1 bis 3</u>. Nochmals zur Verdeutlichung:
+
'''(5)'''&nbsp; Richtig sind die <u>Lösungsvorschläge 1 bis 3</u>.
:* Für die Transinformation gilt stets <i>I</i>(<i>X</i>; <i>Y</i>) &#8805; 0.
+
:* Im wertdiskreten Fall gibt es keine negative Entropie, jedoch im wertkontinuierlichen.
+
Nochmals zur Verdeutlichung:
[[Datei: P_ID2898__Inf_Z_4_5d.png |center|]]
+
* Für die Transinformation gilt stets &nbsp;$I(X;Y) \ge 0$.
 +
* Im wertdiskreten Fall gibt es keine negative Entropie, jedoch im wertkontinuierlichen.
  
 
{{ML-Fuß}}
 
{{ML-Fuß}}

Aktuelle Version vom 2. Oktober 2021, 12:44 Uhr

Gegebene Verbund–WDF und Schaubild der differentiellen Entropien

Die Grafik zeigt oben die in dieser Aufgabe zu betrachtende Verbund–WDF  $f_{XY}(x, y)$,  die identisch ist mit der „grünen” Konstellation in der  Aufgabe 4.5.

  • $f_{XY}(x, y)$  ist in der  $y$–Richtung um den Faktor  $3$  vergrößert.
  • Im grün hinterlegten Definitionsgebiet ist die Verbund–WDF konstant gleich  $C = 1/F$, wobei  $F$  die Fläche des Parallelogramms angibt.


In der Aufgabe 4.5 wurden folgende differentielle Entropien berechnet:

$$h(X) \ = \ {\rm log} \hspace{0.1cm} (\hspace{0.05cm}A\hspace{0.05cm})\hspace{0.05cm},$$
$$h(Y) = {\rm log} \hspace{0.1cm} (\hspace{0.05cm}B \cdot \sqrt{ {\rm e } } \hspace{0.05cm})\hspace{0.05cm},$$
$$h(XY) = {\rm log} \hspace{0.1cm} (\hspace{0.05cm}F \hspace{0.05cm}) = {\rm log} \hspace{0.1cm} (\hspace{0.05cm}A \cdot B \hspace{0.05cm})\hspace{0.05cm}.$$

In dieser Aufgabe sind nun die Parameterwerte  $A = {\rm e}^{-2}$  und  $B = {\rm e}^{0.5}$  zu verwenden.

Entsprechend dem obigen Schaubild sollen nun auch die bedingten differentiellen Entropien  $h(Y|X)$  und  $h(X|Y)$  ermittelt und deren Bezug zur Transinformation  $I(X; Y)$  angegeben werden.





Hinweise:

  • Die Aufgabe gehört zum Kapitel  AWGN–Kanalkapazität bei wertkontinuierlichem Eingang.
  • Sollen die Ergebnisse in „nat” angegeben werden, so erreicht man dies mit „log”  ⇒  „ln”.
  • Sollen die Ergebnisse in „bit” angegeben werden, so erreicht man dies mit „log”  ⇒  „log2”.



Fragebogen

1

Geben Sie die folgenden informationstheoretischen Größen in „nat” an:

$h(X) \ = \ $

$\ \rm nat$
$h(Y) \ \hspace{0.03cm} = \ $

$\ \rm nat$
$h(XY)\ \hspace{0.17cm} = \ $

$\ \rm nat$
$I(X;Y)\ = \ $

$\ \rm nat$

2

Wie lauten die gleichen Größen mit der Pseudo–Einheit „bit”?

$h(X) \ = \ $

$\ \rm bit$
$h(Y) \ \hspace{0.03cm} = \ $

$\ \rm bit$
$h(XY)\ \hspace{0.17cm} = \ $

$\ \rm bit$
$I(X;Y)\ = \ $

$\ \rm bit$

3

Berechnen Sie die bedingte differentielle Entropie  $h(Y|X)$.

$h(Y|X) \ = \ $

$\ \rm nat$
$h(Y|X) \ = \ $

$\ \rm bit$

4

Berechnen Sie die bedingte differentielle Entropie  $h(X|Y)$.

$h(X|Y) \ = \ $

$\ \rm nat$
$h(X|Y) \ = \ $

$\ \rm bit$

5

Welche der folgenden Größen sind niemals negativ?

Sowohl  $H(X)$  als auch  $H(Y)$  im wertdiskreten Fall.
Die Transinformation  $I(X; Y)$  im wertdiskreten Fall.
Die Transinformation  $I(X; Y)$  im wertkontinuierlichen Fall.
Sowohl  $h(X)$  als auch  $h(Y)$  im wertkontinuierlichen Fall.
Sowohl  $h(X|Y)$  als auch  $h(Y|X)$  im wertkontinuierlichen Fall.
Die Verbundentropie  $h(XY)$  im wertkontinuierlichen Fall.


Musterlösung

(1)  Da die Ergebnisse in „nat” gefordert sind, bietet sich die Verwendung des natürlichen Logarithmus an:

  • Die Zufallsgröße  $X$  ist gleichverteilt zwischen  $0$  und  $1/{\rm e}^2={\rm e}^{-2}$:
$$h(X) = {\rm ln} \hspace{0.1cm} (\hspace{0.05cm}{\rm e}^{-2}\hspace{0.05cm}) \hspace{0.15cm}\underline{= -2\,{\rm nat}}\hspace{0.05cm}. $$
  • Die Zufallsgröße  $Y$  ist dreieckverteilt zwischen  $±{\rm e}^{-0.5}$:
$$h(Y) = {\rm ln} \hspace{0.1cm} (\hspace{0.05cm}\sqrt{ {\rm e} } \cdot \sqrt{ {\rm e} } ) = {\rm ln} \hspace{0.1cm} (\hspace{0.05cm}{ { \rm e } } \hspace{0.05cm}) \hspace{0.15cm}\underline{= +1\,{\rm nat}}\hspace{0.05cm}.$$
  • Die Fläche des Parallelogramms ergibt sich zu
$$F = A \cdot B = {\rm e}^{-2} \cdot {\rm e}^{0.5} = {\rm e}^{-1.5}\hspace{0.05cm}.$$
  • Damit hat die 2D–WDF im grün hinterlegten Bereich die konstante Höhe  $C = 1/F ={\rm e}^{1.5}$  und man erhält für die Verbundentropie:
$$h(XY) = {\rm ln} \hspace{0.1cm} (F) = {\rm ln} \hspace{0.1cm} (\hspace{0.05cm}{\rm e}^{-1.5}\hspace{0.05cm}) \hspace{0.15cm}\underline{= -1.5\,{\rm nat}}\hspace{0.05cm}.$$
  • Daraus ergibt sich für die Transinformation:
$$I(X;Y) = h(X) + h(Y) - h(XY) = -2 \,{\rm nat} + 1 \,{\rm nat} - (-1.5 \,{\rm nat} ) \hspace{0.15cm}\underline{= 0.5\,{\rm nat}}\hspace{0.05cm}.$$


(2)  Allgemein gilt der Zusammenhang  $\log_2(x) = \ln(x)/\ln(2)$.  Damit erhält man mit den Ergebnissen der Teilaufgabe  (1):

$$h(X) \ = \ \frac{-2\,{\rm nat}}{0.693\,{\rm nat/bit}}\hspace{0.35cm}\underline{= -2.886\,{\rm bit}}\hspace{0.05cm},$$
$$h(Y) \ = \ \frac{+1\,{\rm nat}}{0.693\,{\rm nat/bit}}\hspace{0.35cm}\underline{= +1.443\,{\rm bit}}\hspace{0.05cm},$$
$$h(XY) \ = \ \frac{-1.5\,{\rm nat}}{0.693\,{\rm nat/bit}}\hspace{0.35cm}\underline{= -2.164\,{\rm bit}}\hspace{0.05cm},$$
$$I(X;Y) \ = \ \frac{0.5\,{\rm nat}}{0.693\,{\rm nat/bit}}\hspace{0.35cm}\underline{= 0.721\,{\rm bit}}\hspace{0.05cm}.$$
  • Oder auch:
$$I(X;Y) = -2.886 \,{\rm bit} + 1.443 \,{\rm bit}+ 2.164 \,{\rm bit}{= 0.721\,{\rm bit}}\hspace{0.05cm}.$$


(3)  Die Transinformation kann auch in der Form  $I(X;Y) = h(Y)-h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) $  geschrieben werden:

$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(Y) - I(X;Y) = 1 \,{\rm nat} - 0.5 \,{\rm nat} \hspace{0.15cm}\underline{= 0.5\,{\rm nat}= 0.721\,{\rm bit}}\hspace{0.05cm}.$$


(4)  Für die differentielle Rückschlussentropie gilt entsprechend:

$$h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) = h(X) - I(X;Y) = -2 \,{\rm nat} - 0.5 \,{\rm nat} \hspace{0.15cm}\underline{= -2.5\,{\rm nat}= -3.607\,{\rm bit}}\hspace{0.05cm}.$$
Zusammenfassung aller Ergebnisse dieser Aufgabe
  • Alle hier berechneten Größen sind in der Grafik zusammengestellt. 
  • Pfeile nach oben kennzeichnen einen positiven Beitrag, Pfeile nach unten einen negativen.


(5)  Richtig sind die Lösungsvorschläge 1 bis 3.

Nochmals zur Verdeutlichung:

  • Für die Transinformation gilt stets  $I(X;Y) \ge 0$.
  • Im wertdiskreten Fall gibt es keine negative Entropie, jedoch im wertkontinuierlichen.