Aufgaben:Aufgabe 4.4: Herkömmliche Entropie und differenzielle Entropie: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
(16 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 3: Zeile 3:
 
}}
 
}}
  
[[Datei:P_ID2878__Inf_A_4_4.png|right|]]
+
[[Datei:P_ID2878__Inf_A_4_4.png|right|frame|Zweimal Gleichverteilung]]
Wir betrachten die zwei wertkontinuierlichen Zufallsgrößen <i>X</i> und <i>Y</i> mit den Wahrscheinlichkeitsdichtefunktionen <i>f<sub>X</sub></i>(<i>x</i>) und <i>f<sub>Y</sub></i>(<i>y</i>). Für diese Zufallsgrößen kann man
+
Wir betrachten die beiden wertkontinuierlichen Zufallsgrößen&nbsp; $X$&nbsp; und&nbsp; $Y$&nbsp; mit den Wahrscheinlichkeitsdichtefunktionen $f_X(x)$&nbsp; und $f_Y(y)$.&nbsp; Für diese Zufallsgrößen kann man
:* die herkömmlichen Entropien <i>H</i>(<i>X</i>), <i>H</i>(<i>Y</i>) nicht angeben,
+
* die herkömmlichen Entropien&nbsp; $H(X)$&nbsp; bzw.&nbsp; $H(Y)$&nbsp; nicht angeben,
:* jedoch aber die differentiellen Entropien <i>h</i>(<i>X</i>) und <i>h</i>(<i>Y</i>).
+
* jedoch aber die differentiellen Entropien&nbsp; $h(X)$&nbsp; und&nbsp; $h(Y)$.
 +
 
 +
 
 
Wir betrachten außerdem zwei wertdiskrete Zufallsgrößen:
 
Wir betrachten außerdem zwei wertdiskrete Zufallsgrößen:
:*<i>Z<sub>X,M</sub></i> ergibt sich durch (geeignete) Quantisierung der Zufallsgröße <i>X</i> mit der Quantisierungsstufenzahl <i>M</i> &nbsp;&#8658;&nbsp; Quantisierungsintervallbreite <i>&Delta;</i> = 0.5/<i>M</i>.
+
*Die Zufallsgröße&nbsp; $Z_{X,\hspace{0.05cm}M}$&nbsp; ergibt sich durch (geeignete) Quantisierung der Zufallsgröße&nbsp; $X$&nbsp; mit der Quantisierungsstufenzahl&nbsp; $M<br>&#8658; &nbsp; Quantisierungsintervallbreite&nbsp; ${\it \Delta} = 0.5/M$.
:* Die Zufallsgröße <i>Z<sub>Y,M</sub></i> ergibt sich nach Quantisierung der wertkontinuierlichen Zufallsgröße <i>Y</i> mit der Quantisierungsstufenzahl <i>M</i> &nbsp;&#8658;&nbsp; Quantisierungsintervallbreite <i>&Delta;</i> = 2/<i>M</i>.
+
* Die Zufallsgröße&nbsp; $Z_{Y,\hspace{0.05cm}M}$&nbsp; ergibt sich nach Quantisierung der Zufallsgröße&nbsp; $Y$&nbsp; mit der Quantisierungsstufenzahl&nbsp; $M$ &nbsp; <br>&#8658; &nbsp; Quantisierungsintervallbreite&nbsp; ${\it \Delta} = 2/M$.
 +
 
 +
 
 +
Die Wahrscheinlichkeitsdichtefunktionen dieser diskreten Zufallsgrößen setzen sich jeweils aus&nbsp; $M$&nbsp; Diracfunktionen zusammen, deren Impulsgewichte durch die Intervallflächen der zugehörigen wertkontinuierlichen Zufallsgrößen gegeben sind.
 +
 
 +
Daraus lassen sich die Entropien&nbsp; $H(Z_{X,\hspace{0.05cm}M})$&nbsp; und&nbsp; $H(Z_{Y,\hspace{0.05cm}M})$&nbsp; in herkömmlicher Weise entsprechend dem Kapitel&nbsp; [[Informationstheorie/Einige_Vorbemerkungen_zu_zweidimensionalen_Zufallsgrößen#Wahrscheinlichkeitsfunktion_und_Entropie|Wahrscheinlichkeitsfunktion und Entropie]]&nbsp; bestimmen.
 +
 
 +
Im Abschnitt&nbsp; [[Informationstheorie/Differentielle_Entropie#Entropie_wertkontinuierlicher_Zufallsgr.C3.B6.C3.9Fen_nach_Quantisierung|Entropie wertkontinuierlicher Zufallsgrößen nach Quantisierung]]&nbsp; wurde auch eine Näherung angegeben.&nbsp; Beispielsweise gilt:
 +
:$$H(Z_{X, \hspace{0.05cm}M}) \approx  -{\rm log}_2 \hspace{0.1cm} ({\it \Delta}) + h(X)\hspace{0.05cm}. $$
 +
 
 +
*Im Laufe der Aufgabe wird sich zeigen, dass bei rechteckförmiger WDF &nbsp; &#8658; &nbsp; Gleichverteilung diese &bdquo;Näherung&rdquo; das gleiche Ergebnis liefert wie die direkte Berechnung.
 +
*Aber im allgemeinen Fall &ndash; so im&nbsp; [[Informationstheorie/Differentielle_Entropie#Entropie_wertkontinuierlicher_Zufallsgr.C3.B6.C3.9Fen_nach_Quantisierung|$\text{Beispiel 2}$]]&nbsp; mit dreieckförmiger WDF &ndash; stellt obige Gleichung tatsächlich nur eine Näherung dar, die erst im Grenzfall&nbsp; ${\it \Delta} \to 0$&nbsp; mit der tatsächlichen Entropie&nbsp;  $H(Z_{X,\hspace{0.05cm}M})$&nbsp; übereinstimmt.
 +
 
 +
 
 +
 
  
Die Wahrscheinlichkeitsdichtefunktionen dieser diskreten Zufallsgrößen setzen sich jeweils aus <i>M</i> Diracfunktionen zusammen, deren Impulsgewichte durch die Intervallflächen der zugehörigen wertkontinuierlichen Zufallsgrößen gegeben sind. Daraus lassen sich die Entropien <i>H</i>(<i>Z<sub>X,M</sub></i>) und <i>H</i>(<i>Z<sub>Y,M</sub></i>) in herkömmlicher Weise (entsprechend Kapitel 3) bestimmen.
 
  
Im  [http://www.lntwww.de/Informationstheorie/Differentielle_Entropie#Entropie_wertkontinuierlicher_Zufallsgr.C3.B6.C3.9Fen_nach_Quantisierung '''Theorieteil'''] wurde auch eine Näherung angegeben. Beispielsweise gilt:
 
$$H(Z_{X, \hspace{0.05cm}M}) \approx  -{\rm log}_2 \hspace{0.1cm} ({\it \Delta}) + h(X)\hspace{0.05cm}. $$
 
Sie werden im Laufe der Aufgabe feststellen, dass bei rechteckförmiger WDF &#8658; Gleichverteilung diese &bdquo;Näherung&rdquo; genau das gleiche Ergebnis liefert wie die direkte Berechnung.
 
Aber im allgemeinen Fall &ndash; zum Beispiel bei [http://www.lntwww.de/Informationstheorie/Differentielle_Entropie#Entropie_wertkontinuierlicher_Zufallsgr.C3.B6.C3.9Fen_nach_Quantisierung '''dreieckförmiger WDF''']  &ndash; stellt obige Gleichung tatsächlich nur eine Näherung dar, die erst im Grenzfall <i>&Delta;</i> &#8594; 0 mit der tatsächlichen Entropie  <i>H</i>(<i>Z<sub>X,M</sub></i>) übereinstimmt.
 
  
<b>Hinweis:</b> Die Aufgabe gehört zum Themengebiet von [http://www.lntwww.de/Informationstheorie/Differentielle_Entropie '''Kapitel 4.1''']
+
 
 +
 
 +
 
 +
''Hinweise:''
 +
*Die Aufgabe gehört zum Kapitel&nbsp; [[Informationstheorie/Differentielle_Entropie|Differentielle Entropie]].
 +
*Nützliche Hinweise zur Lösung dieser Aufgabe finden Sie insbesondere auf der Seite&nbsp;  [[Informationstheorie/Differentielle_Entropie#Entropie_wertkontinuierlicher_Zufallsgr.C3.B6.C3.9Fen_nach_Quantisierung|Entropie wertkontinuierlicher Zufallsgrößen nach Quantisierung]] .
 +
 +
 
  
 
===Fragebogen===
 
===Fragebogen===
Zeile 24: Zeile 42:
 
<quiz display=simple>
 
<quiz display=simple>
  
{Berechnen Sie die differentielle Entropie <i>h</i>(<i>X</i>).
+
{Berechnen Sie die differentielle Entropie&nbsp; $h(X)$.
 
|type="{}"}
 
|type="{}"}
$ h(X)$ = { 1 3% }
+
$ h(X) \ = \ $ { -1.03--0.97 } $\ \rm bit$
  
{Berechnen Sie die differentielle Entropie <i>h</i>(<i>Y</i>).
+
{Berechnen Sie die differentielle Entropie $h(Y)$.
 
|type="{}"}
 
|type="{}"}
$ h(Y)$ = { 1 3% }
+
$ h(Y) \ = \ $ { 1 3% } $\ \rm bit$
  
{Berechnen Sie die Entropie der wertdiskreten Zufallsgrößen <i>Z<sub>X, M</sub></i><sub> = 4</sub>.
+
{Berechnen Sie die Entropie der wertdiskreten Zufallsgrößen&nbsp; $Z_{X,\hspace{0.05cm}M=4}$&nbsp; nach der direkten Methode</u>.
 
|type="{}"}
 
|type="{}"}
$direkte  Berechnung: H(Z_{ X, M = 4})$ = { 2 3% }
+
$H(Z_{X,\hspace{0.05cm}M=4})\ = \ $ { 2 3% } $\ \rm bit$
$mit  Näherung: H(Z_{ X, M = 4})$ = { 2 3% }
 
  
{Berechnen Sie die Entropie der wertdiskreten Zufallsgröße <i>Z<sub>Y, M</sub></i><sub> = 4</sub>.
+
{Berechnen Sie die Entropie der wertdiskreten Zufallsgrößen&nbsp; $Z_{X,\hspace{0.05cm}M=4}$&nbsp; mit der angegebenen Näherung</u>.
 
|type="{}"}
 
|type="{}"}
$mit  Näherung: H(Z_{ Y, M = 4})$ = { 2 3% }
+
$H(Z_{X,\hspace{0.05cm}M=4})\ = \ $ { 2 3% } $\ \rm bit$
  
{Berechnen Sie die Entropie der wertdiskreten Zufallsgröße <i>Z<sub>Y, M</sub></i><sub> = 8</sub>.
+
{Berechnen Sie die Entropie der wertdiskreten Zufallsgröße&nbsp; $Z_{Y,\hspace{0.05cm}M=8}$&nbsp; mit der angegebenen Näherung</u>.
 
|type="{}"}
 
|type="{}"}
$mit Näherung: H(Z_{ Y, M = 8})$ = { 3 3% }
+
$H(Z_{Y,\hspace{0.05cm}M=8})\ = \ $ { 3 3% } $\ \rm bit$
  
 
{Welche der folgenden Aussagen sind zutreffend?
 
{Welche der folgenden Aussagen sind zutreffend?
 
|type="[]"}
 
|type="[]"}
+ Die Entropie einer diskreten Zufallsgröße <i>Z</i> ist stets <i>H</i>(<i>Z</i>)&nbsp;&#8805;&nbsp;0.
+
+ Die Entropie einer wertdiskreten Zufallsgröße&nbsp; $Z$&nbsp; ist stets&nbsp; $H(Z) \ge 0$.
+ Die differentielle Entropie einer kontinuierlichen Zufallsgröße <i>X</i> ist stets <i>h</i>(<i>X</i>) &#8805; 0.
+
- Die differenzielle Entropie einer wertkontinuierlichen Zufallsgröße&nbsp; $X$&nbsp; ist stets&nbsp; $h(X) \ge 0$.
  
  
Zeile 56: Zeile 73:
 
===Musterlösung===
 
===Musterlösung===
 
{{ML-Kopf}}
 
{{ML-Kopf}}
<b>a)</b>&nbsp;&nbsp;Gemäß der entsprechenden [http://www.lntwww.de/Informationstheorie/Differentielle_Entropie#Definition_und_Eigenschaften_der_differentiellen_Entropie '''Theorieseite'''] gilt mit <i>x</i><sub>min</sub> = 0 und <i>x</i><sub>max</sub> = 1/2:
+
'''(1)'''&nbsp; Gemäß der entsprechenden Theorieseite gilt mit &nbsp;$x_{\rm min} = 0$&nbsp; und &nbsp;$x_{\rm max} = 1/2$:
$$h(X) = {\rm log}_2 \hspace{0.1cm} (x_{\rm max} - x_{\rm min}) = {\rm log}_2 \hspace{0.1cm} (1/2) \hspace{0.15cm}\underline{= - 1\,{\rm bit}}\hspace{0.05cm}.$$
+
:$$h(X) = {\rm log}_2 \hspace{0.1cm} (x_{\rm max} - x_{\rm min}) = {\rm log}_2 \hspace{0.1cm} (1/2) \hspace{0.15cm}\underline{= - 1\,{\rm bit}}\hspace{0.05cm}.$$
 +
 
 +
 
  
<b>b)</b>&nbsp;&nbsp;Mit <i>y</i><sub>min</sub> = &ndash;1 und <i>y</i><sub>max</sub> = +1 ergibt sich für die differentielle Entropie der Zufallsgröße <i>Y</i>:
+
'''(2)'''&nbsp; Mit &nbsp;$y_{\rm min} = -1$&nbsp; und &nbsp;$y_{\rm max} = +1$&nbsp; ergibt sich dagegen für die differentielle Entropie der Zufallsgröße&nbsp; $Y$:
$$h(Y) = {\rm log}_2 \hspace{0.1cm} (x_{\rm max} - x_{\rm min}) = {\rm log}_2 \hspace{0.1cm} (2) \hspace{0.15cm}\underline{= + 1\,{\rm bit}}\hspace{0.05cm}. $$
+
:$$h(Y) = {\rm log}_2 \hspace{0.1cm} (y_{\rm max} - y_{\rm min}) = {\rm log}_2 \hspace{0.1cm} (2) \hspace{0.15cm}\underline{= + 1\,{\rm bit}}\hspace{0.05cm}. $$
  
<b>c)</b>&nbsp;&nbsp;Die nachfolgende Grafik verdeutlicht die bestmögliche Quantisierung der Zufallsgröße <i>X</i> mit der Quantisierungsstufenzahl <i>M</i> = 4 &nbsp;&#8658;&nbsp; Zufallsgröße <i>Z<sub>X, M</sub></i><sub> = 4</sub>:
 
  
[[Datei:P_ID2879__Inf_A_4_4c.png|right|]]
+
 
:*Die Intervallbreite ist hier gleich <i>&Delta;</i> = 0.5/4 = 1/8.
+
[[Datei:P_ID2879__Inf_A_4_4c.png|right|frame|Quantisierte Zufallsgröße&nbsp;  $Z_{X, \ M = 4}$]]
:*Die möglichen Werte (jeweils in der Intervallmitte) sind <i>z</i>&nbsp;&#8712; {0.0625,&nbsp;0.1875,&nbsp;0.3125,&nbsp;0.4375}.
+
'''(3)'''&nbsp; Die nebenstehende Grafik verdeutlicht die bestmögliche Quantisierung der Zufallsgröße&nbsp; $X$&nbsp; mit der Quantisierungsstufenzahl&nbsp; $M = 4$&nbsp; &nbsp; &#8658; &nbsp; Zufallsgröße&nbsp; $Z_{X, \ M = 4}$:
:*Die <u>direkte Berechnung</u> der Entropie ergibt mit der Wahrscheinlichkeitsfunktion <i>P<sub>Z</sub></i>(<i>Z</i>)&nbsp;=&nbsp;[1/4,&nbsp;... ,&nbsp;1/4]:
+
*Die Intervallbreite ist hier gleich &nbsp;${\it \Delta} = 0.5/4 = 1/8$.
$$H(Z_{X, M = 4}) = {\rm log}_2 \hspace{0.1cm} (4) \hspace{0.15cm}\underline{= 2\,{\rm bit}}
+
*Die möglichen Werte&nbsp; (jeweils in der Intervallmitte)&nbsp; sind &nbsp;$z \in \{0.0625,\ 0.1875,\ 0.3125,\ 0.4375\}$.
 +
 
 +
 
 +
Die <u>direkte Entropieberechnung</u> ergibt mit der Wahrscheinlichkeitsfunktion $P_Z(Z) = \big [1/4,\ \text{...} , \ 1/4 \big]$:
 +
:$$H(Z_{X, \ M = 4}) = {\rm log}_2 \hspace{0.1cm} (4) \hspace{0.15cm}\underline{= 2\,{\rm bit}}
 
\hspace{0.05cm}.$$
 
\hspace{0.05cm}.$$
:* Mit der <u>Näherung</u> erhält man unter Berücksichtigung des Ergebnisses der Teilaufgabe (a):
+
 
$$H(Z_{X, M = 4}) \approx  -{\rm log}_2 \hspace{0.1cm} ({\it \Delta}) + h(X) =  
+
Mit der <u>Näherung</u> erhält man unter Berücksichtigung des Ergebnisses von&nbsp; '''(1)''':
 +
:$$H(Z_{X,\hspace{0.05cm} M = 4}) \approx  -{\rm log}_2 \hspace{0.1cm} ({\it \Delta}) + h(X) =  
 
3\,{\rm bit} +(- 1\,{\rm bit})\hspace{0.15cm}\underline{= 2\,{\rm bit}}\hspace{0.05cm}. $$
 
3\,{\rm bit} +(- 1\,{\rm bit})\hspace{0.15cm}\underline{= 2\,{\rm bit}}\hspace{0.05cm}. $$
<i>Hinweis:</i> Nur bei der Gleichverteilung liefert die Näherung genau das gleiche Ergebnis.
+
<u>Hinweis:</u>&nbsp; Nur bei der Gleichverteilung liefert die Näherung genau das gleiche Ergebnis wie die direkte Berechnung, also die tatsächliche Entropie.
 +
 
 +
[[Datei:P_ID2880__Inf_A_4_4d.png|right|frame|Quantisierte Zufallsgröße  $Z_{Y, \ M = 4}$]]
 +
<br>
 +
'''(4)'''&nbsp; Aus der zweiten Grafik erkennt man die Gemeinsamkeiten / Unterschiede zur Teilaufgabe&nbsp; '''(3)''':
 +
* Der Quantisierungsparameter ist nun &nbsp;${\it \Delta}  = 2/4 = 1/2$.
 +
* Die möglichen Werte sind nun &nbsp;$z \in \{\pm 0.75,\ \pm 0.25\}$.
 +
* Somit liefert hier die &bdquo;Näherung&rdquo;&nbsp; (ebenso wie die direkte Berechnung)&nbsp; das Ergebnis:
 +
:$$H(Z_{Y,\hspace{0.05cm} M = 4})  \approx    -{\rm log}_2 \hspace{0.1cm} ({\it \Delta}) + h(Y) =
 +
    1\,{\rm bit} + 1\,{\rm bit}\hspace{0.15cm}\underline{= 2\,{\rm bit}}\hspace{0.05cm}.$$
 +
 
 +
 
 +
[[Datei:P_ID2881__Inf_A_4_4e.png|right|frame|Quantisierte Zufallsgröße&nbsp;  $Z_{Y, \ M = 8}$]]
 +
'''(5)'''&nbsp; Im Gegensatz zur Teilaufgabe&nbsp; '''(4)'''&nbsp; gilt nun &nbsp;${\it \Delta}  = 1/4$.&nbsp; Daraus folgt für die &bdquo;Näherung&rdquo;:
 +
:$$H(Z_{Y,\hspace{0.05cm} M = 8})  \approx    -{\rm log}_2 \hspace{0.1cm} ({\it \Delta}) + h(Y) =
 +
2\,{\rm bit} + 1\,{\rm bit}\hspace{0.15cm}\underline{= 3\,{\rm bit}}\hspace{0.05cm}.$$
 +
Man erhält wieder das gleiche  Ergebnis wie bei der direkten Berechnung.
  
<b>d)</b>&nbsp;&nbsp;Aus der zweiten Grafik erkennt man die Gemeinsamkeiten / Unterschiede zur Teilaufgabe (c):
 
[[Datei:P_ID2880__Inf_A_4_4d.png|right|]]
 
:* Der Quantisierungsparameter ist nun <i>&Delta;</i> = 2/4 = 1/2.
 
:* Die möglichen Werte sind nun <i>z</i> &#8712; {&plusmn;0.75, &plusmn;0.25}.
 
:* Somit liefert hier die &bdquo;Näherung&rdquo; (ebenso wie die direkte Berechnung) das Ergebnis:
 
$$H(Z_{Y, M = 4})  \approx    -{\rm log}_2 \hspace{0.1cm} ({\it \Delta}) + h(Y)$$ $$ =\
 
  \hspace{-0.15cm} 1\,{\rm bit} + 1\,{\rm bit}\hspace{0.15cm}\underline{= 2\,{\rm bit}}\hspace{0.05cm}.$$
 
[[Datei:P_ID2881__Inf_A_4_4e.png|right|]]
 
<b>e)</b>&nbsp;&nbsp;Im Gegensatz zur Teilaufgabe (d) gilt nun <i>&Delta;</i> = 1/4. Daraus folgt für die &bdquo;Näherung&rdquo;:
 
$$H(Z_{Y, M = 8})  \approx    -{\rm log}_2 \hspace{0.1cm} ({\it \Delta}) + h(Y)$$ $$ =\
 
\hspace{-0.15cm} 2\,{\rm bit} + 1\,{\rm bit}\hspace{0.15cm}\underline{= 3\,{\rm bit}}\hspace{0.05cm}.$$
 
Wieder gleiches  Ergebnis bei direkter Berechnung.
 
  
<b>f)</b>&nbsp;&nbsp;Richtig ist nur die <u>Aussage 1</u>:
+
'''(6)'''&nbsp; Richtig ist nur die <u>Aussage 1</u>:
:* Die Entropie <i>H</i>(<i>Z</i>) einer diskreten Zufallsgröße <i>Z</i>&nbsp;=&nbsp;{<i>z</i><sub>1</sub>,&nbsp;... , <i>z<sub>M</sub></i>} kann nie negativ werden. Der Grenzfall <i>H</i>(<i>Z</i>) = 0 ergibt sich z.B. für Pr(<i>Z</i>&nbsp;=&nbsp;<i>z</i><sub>1</sub>)&nbsp;=&nbsp;1 und Pr(<i>Z</i>&nbsp;=&nbsp;<i>z<sub>&mu;</sub></i>)&nbsp;=&nbsp;0&nbsp;für 2&nbsp;&#8804;&nbsp;<i>&mu;</i>&nbsp;&#8804;&nbsp;<i>M</i>.
+
* Die Entropie&nbsp; $H(Z)$&nbsp; einer diskreten Zufallsgröße&nbsp; $Z = \{z_1, \ \text{...} \ , z_M\}$&nbsp; ist nie negativ.  
 +
*Der Grenzfall&nbsp; $H(Z) = 0$&nbsp; ergibt sich zum Beispiel für &nbsp;${\rm Pr}(Z = z_1) = 1$&nbsp; und &nbsp;${\rm Pr}(Z = z_\mu) = 0$&nbsp; für &nbsp;$2 \le \mu \le M$.
  
:* Dagegen kann die differentielle Entropie <i>h</i>(<i>X</i>) einer kontinuierlichen Zufallsgröße <i>X</i> negativ (Teilaufgabe a), positiv (Teilaufgabe b) oder auch <i>h</i>(<i>X</i>) = 0 (z.B. <i>x</i><sub>min</sub> = 0, <i>x</i><sub>max</sub> = 1) sein.
+
* Dagegen kann die differentielle Entropie&nbsp; $h(X)$&nbsp; einer wertkontinuierlichen Zufallsgröße&nbsp; $X$&nbsp; wie folgt sein:
 +
** $h(X) < 0$&nbsp; $($Teilaufgabe 1$)$,  
 +
** $h(X) > 0$&nbsp; $($Teilaufgabe 2$)$, oder auch  
 +
**$h(X) = 0$&nbsp;  $($zum Beispiel für &nbsp;$x_{\rm min} = 0$&nbsp; und  &nbsp;$x_{\rm max} = 1)$.
  
 
{{ML-Fuß}}
 
{{ML-Fuß}}

Aktuelle Version vom 28. September 2021, 14:16 Uhr

Zweimal Gleichverteilung

Wir betrachten die beiden wertkontinuierlichen Zufallsgrößen  $X$  und  $Y$  mit den Wahrscheinlichkeitsdichtefunktionen $f_X(x)$  und $f_Y(y)$.  Für diese Zufallsgrößen kann man

  • die herkömmlichen Entropien  $H(X)$  bzw.  $H(Y)$  nicht angeben,
  • jedoch aber die differentiellen Entropien  $h(X)$  und  $h(Y)$.


Wir betrachten außerdem zwei wertdiskrete Zufallsgrößen:

  • Die Zufallsgröße  $Z_{X,\hspace{0.05cm}M}$  ergibt sich durch (geeignete) Quantisierung der Zufallsgröße  $X$  mit der Quantisierungsstufenzahl  $M$
    ⇒   Quantisierungsintervallbreite  ${\it \Delta} = 0.5/M$.
  • Die Zufallsgröße  $Z_{Y,\hspace{0.05cm}M}$  ergibt sich nach Quantisierung der Zufallsgröße  $Y$  mit der Quantisierungsstufenzahl  $M$  
    ⇒   Quantisierungsintervallbreite  ${\it \Delta} = 2/M$.


Die Wahrscheinlichkeitsdichtefunktionen dieser diskreten Zufallsgrößen setzen sich jeweils aus  $M$  Diracfunktionen zusammen, deren Impulsgewichte durch die Intervallflächen der zugehörigen wertkontinuierlichen Zufallsgrößen gegeben sind.

Daraus lassen sich die Entropien  $H(Z_{X,\hspace{0.05cm}M})$  und  $H(Z_{Y,\hspace{0.05cm}M})$  in herkömmlicher Weise entsprechend dem Kapitel  Wahrscheinlichkeitsfunktion und Entropie  bestimmen.

Im Abschnitt  Entropie wertkontinuierlicher Zufallsgrößen nach Quantisierung  wurde auch eine Näherung angegeben.  Beispielsweise gilt:

$$H(Z_{X, \hspace{0.05cm}M}) \approx -{\rm log}_2 \hspace{0.1cm} ({\it \Delta}) + h(X)\hspace{0.05cm}. $$
  • Im Laufe der Aufgabe wird sich zeigen, dass bei rechteckförmiger WDF   ⇒   Gleichverteilung diese „Näherung” das gleiche Ergebnis liefert wie die direkte Berechnung.
  • Aber im allgemeinen Fall – so im  $\text{Beispiel 2}$  mit dreieckförmiger WDF – stellt obige Gleichung tatsächlich nur eine Näherung dar, die erst im Grenzfall  ${\it \Delta} \to 0$  mit der tatsächlichen Entropie  $H(Z_{X,\hspace{0.05cm}M})$  übereinstimmt.





Hinweise:


Fragebogen

1

Berechnen Sie die differentielle Entropie  $h(X)$.

$ h(X) \ = \ $

$\ \rm bit$

2

Berechnen Sie die differentielle Entropie $h(Y)$.

$ h(Y) \ = \ $

$\ \rm bit$

3

Berechnen Sie die Entropie der wertdiskreten Zufallsgrößen  $Z_{X,\hspace{0.05cm}M=4}$  nach der direkten Methode.

$H(Z_{X,\hspace{0.05cm}M=4})\ = \ $

$\ \rm bit$

4

Berechnen Sie die Entropie der wertdiskreten Zufallsgrößen  $Z_{X,\hspace{0.05cm}M=4}$  mit der angegebenen Näherung.

$H(Z_{X,\hspace{0.05cm}M=4})\ = \ $

$\ \rm bit$

5

Berechnen Sie die Entropie der wertdiskreten Zufallsgröße  $Z_{Y,\hspace{0.05cm}M=8}$  mit der angegebenen Näherung.

$H(Z_{Y,\hspace{0.05cm}M=8})\ = \ $

$\ \rm bit$

6

Welche der folgenden Aussagen sind zutreffend?

Die Entropie einer wertdiskreten Zufallsgröße  $Z$  ist stets  $H(Z) \ge 0$.
Die differenzielle Entropie einer wertkontinuierlichen Zufallsgröße  $X$  ist stets  $h(X) \ge 0$.


Musterlösung

(1)  Gemäß der entsprechenden Theorieseite gilt mit  $x_{\rm min} = 0$  und  $x_{\rm max} = 1/2$:

$$h(X) = {\rm log}_2 \hspace{0.1cm} (x_{\rm max} - x_{\rm min}) = {\rm log}_2 \hspace{0.1cm} (1/2) \hspace{0.15cm}\underline{= - 1\,{\rm bit}}\hspace{0.05cm}.$$


(2)  Mit  $y_{\rm min} = -1$  und  $y_{\rm max} = +1$  ergibt sich dagegen für die differentielle Entropie der Zufallsgröße  $Y$:

$$h(Y) = {\rm log}_2 \hspace{0.1cm} (y_{\rm max} - y_{\rm min}) = {\rm log}_2 \hspace{0.1cm} (2) \hspace{0.15cm}\underline{= + 1\,{\rm bit}}\hspace{0.05cm}. $$


Quantisierte Zufallsgröße  $Z_{X, \ M = 4}$

(3)  Die nebenstehende Grafik verdeutlicht die bestmögliche Quantisierung der Zufallsgröße  $X$  mit der Quantisierungsstufenzahl  $M = 4$    ⇒   Zufallsgröße  $Z_{X, \ M = 4}$:

  • Die Intervallbreite ist hier gleich  ${\it \Delta} = 0.5/4 = 1/8$.
  • Die möglichen Werte  (jeweils in der Intervallmitte)  sind  $z \in \{0.0625,\ 0.1875,\ 0.3125,\ 0.4375\}$.


Die direkte Entropieberechnung ergibt mit der Wahrscheinlichkeitsfunktion $P_Z(Z) = \big [1/4,\ \text{...} , \ 1/4 \big]$:

$$H(Z_{X, \ M = 4}) = {\rm log}_2 \hspace{0.1cm} (4) \hspace{0.15cm}\underline{= 2\,{\rm bit}} \hspace{0.05cm}.$$

Mit der Näherung erhält man unter Berücksichtigung des Ergebnisses von  (1):

$$H(Z_{X,\hspace{0.05cm} M = 4}) \approx -{\rm log}_2 \hspace{0.1cm} ({\it \Delta}) + h(X) = 3\,{\rm bit} +(- 1\,{\rm bit})\hspace{0.15cm}\underline{= 2\,{\rm bit}}\hspace{0.05cm}. $$

Hinweis:  Nur bei der Gleichverteilung liefert die Näherung genau das gleiche Ergebnis wie die direkte Berechnung, also die tatsächliche Entropie.

Quantisierte Zufallsgröße $Z_{Y, \ M = 4}$


(4)  Aus der zweiten Grafik erkennt man die Gemeinsamkeiten / Unterschiede zur Teilaufgabe  (3):

  • Der Quantisierungsparameter ist nun  ${\it \Delta} = 2/4 = 1/2$.
  • Die möglichen Werte sind nun  $z \in \{\pm 0.75,\ \pm 0.25\}$.
  • Somit liefert hier die „Näherung”  (ebenso wie die direkte Berechnung)  das Ergebnis:
$$H(Z_{Y,\hspace{0.05cm} M = 4}) \approx -{\rm log}_2 \hspace{0.1cm} ({\it \Delta}) + h(Y) = 1\,{\rm bit} + 1\,{\rm bit}\hspace{0.15cm}\underline{= 2\,{\rm bit}}\hspace{0.05cm}.$$


Quantisierte Zufallsgröße  $Z_{Y, \ M = 8}$

(5)  Im Gegensatz zur Teilaufgabe  (4)  gilt nun  ${\it \Delta} = 1/4$.  Daraus folgt für die „Näherung”:

$$H(Z_{Y,\hspace{0.05cm} M = 8}) \approx -{\rm log}_2 \hspace{0.1cm} ({\it \Delta}) + h(Y) = 2\,{\rm bit} + 1\,{\rm bit}\hspace{0.15cm}\underline{= 3\,{\rm bit}}\hspace{0.05cm}.$$

Man erhält wieder das gleiche Ergebnis wie bei der direkten Berechnung.


(6)  Richtig ist nur die Aussage 1:

  • Die Entropie  $H(Z)$  einer diskreten Zufallsgröße  $Z = \{z_1, \ \text{...} \ , z_M\}$  ist nie negativ.
  • Der Grenzfall  $H(Z) = 0$  ergibt sich zum Beispiel für  ${\rm Pr}(Z = z_1) = 1$  und  ${\rm Pr}(Z = z_\mu) = 0$  für  $2 \le \mu \le M$.
  • Dagegen kann die differentielle Entropie  $h(X)$  einer wertkontinuierlichen Zufallsgröße  $X$  wie folgt sein:
    • $h(X) < 0$  $($Teilaufgabe 1$)$,
    • $h(X) > 0$  $($Teilaufgabe 2$)$, oder auch
    • $h(X) = 0$  $($zum Beispiel für  $x_{\rm min} = 0$  und  $x_{\rm max} = 1)$.