Aufgaben:Aufgabe 3.5Z: Nochmals Kullback-Leibler-Distanz: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
Zeile 36: Zeile 36:
  
 
===Fragebogen===
 
===Fragebogen===
 +
 
<quiz display=simple>
 
<quiz display=simple>
  
Zeile 44: Zeile 45:
 
{Wie groß sind die Entropien der Zufallsgrößen $Y$ (Näherungen für $X$)?  
 
{Wie groß sind die Entropien der Zufallsgrößen $Y$ (Näherungen für $X$)?  
 
|type="{}"}
 
|type="{}"}
$N=1000$  $H(Y)$ = { 1.9968 1% } $bit$
+
$N=1000$ : $H(Y)$ = { 1.9968 1% } $bit$
$N=100$ $H(Y)$ = { 1.941 1% } $bit$
+
$N=100$ : $H(Y)$ = { 1.941 1% } $bit$
$N=10$  $H(Y)$ = { 1.6855 1%  } $bit$
+
$N=10$ : $H(Y)$ = { 1.6855 1%  } $bit$
 
 
  
 
{Berechnen Sie die folgenden Kullback–Leibler–Distanzen.
 
{Berechnen Sie die folgenden Kullback–Leibler–Distanzen.
 
|type="{}"}
 
|type="{}"}
$N=1000$  $D( P_X || P_Y)$ = { 3.28 1% } . 10 ( { -3 } )$bit$
+
$N=1000$ : $D( P_X || P_Y)$ = { 3.28 1% } . 10 ( { -3 } )$bit$
$N=100$   $D( P_X || P_Y)$=  { 4.42 1% } . 10 ( { -2 } )$bit$
+
$N=100$ : $D( P_X || P_Y)$=  { 4.42 1% } . 10 ( { -2 } )$bit$
$N=10$       $D( P_X || P_Y)$=  { 3.45 1% } . 10 ( { -1 } )$bit$
+
$N=10$ $D( P_X || P_Y)$=  { 3.45 1% } . 10 ( { -1 } )$bit$
 
 
 
 
 
 
 
  
 +
{Liefert $D(P_Y||P_X)$ jeweils exakt das gleiche Ergebnis?
 +
|type="[]"}
 +
+ Falsch
 +
- Richtig
  
 +
{Welche Aussagen gelten für die Kullback–Leibler–Distanzen bei $N = 4$?
 +
|type="[]"}
 +
- Es gilt $D(P_X||P_Y) = 0$.
 +
- Es gilt $D(P_X||P_Y) = 0.5 bit$
 +
+ $D(P_X||P_Y)$ ist unendlich groß
 +
-  Es gilt $D(P_Y||P_X) = 0$.
 +
+ Es gilt $D(P_Y||P_X) = 0.5 bit$.
 +
-  $D(P_Y||P_X)$ ist unendlich groß.
  
{Multiple-Choice Frage
 
|type="[]"}
 
- Falsch
 
+ Richtig
 
 
</quiz>
 
</quiz>
  

Version vom 25. November 2016, 16:53 Uhr

P ID2762 Inf Z 3 4.png

Die Wahrscheinlichkeitsfunktion lautet:

$$P_Y(X) = [\hspace{0.03cm}0.25\hspace{0.03cm}, \hspace{0.03cm} 0.25\hspace{0.03cm},\hspace{0.03cm} 0.25 \hspace{0.03cm}, \hspace{0.03cm} 0.25\hspace{0.03cm}]\hspace{0.05cm}$$ Die Zufallsgröße $X$ ist also gekennzeichnet

  • durch den Symbolumfang $M=4$,
  • mit gleichen Wahrscheinlichkeiten.

Die Zufallsgröße $Y$ ist stets eine Näherung für $X$. Sie wurde per Simulation aus einer Gleichverteilung gewonnen, wobei jeweils nur $N$ Zufallswerte ausgewertet wurden. Das heißt: $P_Y(1)$,...,$P_Y(4)$ sind im herkömmlichen Sinn keine Wahrscheinlichkeiten. Sie beschreiben vielmehr relative Häufigkeiten.

Das Ergebnis der sechsten Versuchsreihe (mit $N=1000$) ird demnach durch die folgende Wahrscheinlichkeitsfunktion zusammengefasst:

$$P_Y(X) = [\hspace{0.05cm}0.225\hspace{0.05cm}, \hspace{0.05cm} 0.253\hspace{0.05cm},\hspace{0.05cm} 0.250 \hspace{0.05cm}, \hspace{0.05cm} 0.272\hspace{0.05cm}] \hspace{0.05cm}$$ Bei dieser Schreibweise ist bereits berücksichtigt, dass die Zufallsgrößen $X$ und $Y$ auf dem gleichen Alphabet $X =$ {1, 2, 3, 4} basieren.

Mit diesen Voraussetzungen gilt für die relative Entropie (englisch: Informational Divergence) zwischen den Wahrscheinlichkeitsfunktionen $P_X(.)$ und $P_Y(.)$ :

$D( P_X || P_Y) = E_X [ log_2 \frac{P_X(X)}{P_Y(Y)}] = \sum\limits_{\mu=1}^M P_X(\mu) . log_2 \frac{P_X(\mu)}{P_Y(\mu)}$

Man bezeichnet $D( P_X || P_Y)$ als Kullback–Leibler–Distanz. Diese ist ein Maß für die Ähnlichkeit zwischen den beiden Wahrscheinlichkeitsfunktionen $P_X(.)$ und $P_Y(.)$. Die Erwartungswertbildung geschieht hier hinsichtlich der (tatsächlich gleichverteilten) Zufallsgröße $X$. Dies wird durch die Nomenklatur $E_X[.]$ angedeutet.

Eine zweite Form der Kullback–Leibler–Distanz ergibt sich durch die Erwartungswertbildung hinsichtlich der Zufallsgröße $Y \Rightarrow E_Y[.]$:

$D( P_Y || P_X) = E_Y [ log_2 \frac{P_Y(Y)}{P_Y(Y)}] = \sum\limits_{\mu=1}^M P_Y(\mu) . log_2 \frac{P_Y(\mu)}{P_X(\mu)}$

Hinweis: Die Aufgabe bezieht sich auf das Kapitel 3.1 dieses Buches. Die Angaben der Entropie $H(Y)$ und der Kullback–Leibler–Distanz $D( P_X || P_Y)$ in obiger Grafik sind in „bit” zu verstehen. die mit „???" versehenen Felder sollen von Ihnen in dieser Aufgabe ergänzt werden.


Fragebogen

1

Welche Entropie besitzt die Zufallsgröße $X$ ?

$H(X)$ =

$bit$

2

Wie groß sind die Entropien der Zufallsgrößen $Y$ (Näherungen für $X$)?

$N=1000$ : $H(Y)$ =

$bit$
$N=100$ : $H(Y)$ =

$bit$
$N=10$ : $H(Y)$ =

$bit$

3

Berechnen Sie die folgenden Kullback–Leibler–Distanzen.

$N=1000$ : $D( P_X || P_Y)$ =

. 10 (

)$bit$
$N=100$ : $D( P_X || P_Y)$=

. 10 (

)$bit$
$N=10$ : $D( P_X || P_Y)$=

. 10 (

)$bit$

4

Liefert $D(P_Y||P_X)$ jeweils exakt das gleiche Ergebnis?

Falsch
Richtig

5

Welche Aussagen gelten für die Kullback–Leibler–Distanzen bei $N = 4$?

Es gilt $D(P_X||P_Y) = 0$.
Es gilt $D(P_X||P_Y) = 0.5 bit$
$D(P_X||P_Y)$ ist unendlich groß
Es gilt $D(P_Y||P_X) = 0$.
Es gilt $D(P_Y||P_X) = 0.5 bit$.
$D(P_Y||P_X)$ ist unendlich groß.


Musterlösung

1. 2. 3. 4. 5. 6. 7.