Aufgaben:Aufgabe 3.2: Erwartungswertberechnungen: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
Zeile 3: Zeile 3:
 
}}
 
}}
  
[[Datei:P_ID2751__Inf_A_3_2.png|right|]]
+
[[Datei:P_ID2751__Inf_A_3_2.png|right|2D–Wahrscheinlichkeitsfunktion]]
 
Wir betrachten folgende Wahrscheinlichkeitsfunktionen:
 
Wir betrachten folgende Wahrscheinlichkeitsfunktionen:
  
:* <i>P<sub>X</sub></i>(<i>X</i>) = [1/2, 1/8, 0, 3/8],
+
: $P_X(X) = [1/2, 1/8, 0, 3/8]$,
 
+
: $P_Y(Y) = [1/2, 1/4, 1/4, 0]$,
:* <i>P<sub>Y</sub></i>(<i>Y</i>) = [1/2, 1/4, 1/4, 0],
+
: $P_U(U) = [1/2, 1/2]$,
 
+
: $P_V(V) = [3/4, 1/4]$.
:* <i>P<sub>U</sub></i>(<i>U</i>) = [1/2, 1/2],
 
 
 
:* <i>P<sub>V</sub></i>(<i>V</i>) = [3/4, 1/4].
 
  
 
Für die dazugehörigen Zufallsgrößen gelte:
 
Für die dazugehörigen Zufallsgrößen gelte:
  
:* <i>X</i> = {0, 1, 2, 3}, <i>Y</i> = {0, 1, 2, 3},
+
: $X= \{0, 1, 2, 3\}$, $Y= \{0, 1, 2, 3\}$,
 
+
: $U = \{0, 1\}$, $U = \{0, 1\}$.
:* <i>U</i> = {0, 1}, <i>V</i> = {0, 1}.
 
  
Oft muss man in der Informationstheorie für solche diskreten Zufallsgrößen verschiedene Erwartungswerte der Form
+
Oft muss man für solche diskreten Zufallsgrößen verschiedene Erwartungswerte der Form
 
:$${\rm E} \left [ F(X)\right ] = \sum_{x \hspace{0.05cm}\in \hspace{0.05cm} {\rm supp} (P_X)}  \hspace{-0.1cm}  
 
:$${\rm E} \left [ F(X)\right ] = \sum_{x \hspace{0.05cm}\in \hspace{0.05cm} {\rm supp} (P_X)}  \hspace{-0.1cm}  
 
  P_{X}(x) \cdot F(x) $$
 
  P_{X}(x) \cdot F(x) $$
Zeile 26: Zeile 22:
 
berechnen. Hierbei bedeuten:
 
berechnen. Hierbei bedeuten:
  
:* <i>P<sub>X</sub></i>(<i>X</i>) bezeichnet die <i>Wahrscheinlichkeitsfunktion</i> der diskreten Zufallsgröße <i>X</i>.
+
* $P_X(X)$ bezeichnet die <i>Wahrscheinlichkeitsfunktion</i> der diskreten Zufallsgröße $X$.
 
+
* Der <i>Support</i> von $P_X$ umfasst alle diejenigen Realisierungen $x$ der Zufallsgröße $X$ mit nicht verschwindender Wahrscheinlichkeit. <br>Formal kann hierfür geschrieben werden:
:* Der <i>Support</i> von <i>P<sub>x</sub></i> umfasst alle diejenigen Realisierungen <i>x</i> der Zufallsgröße <i>X</i> mit nicht verschwindender Wahrscheinlichkeit. Formal kann hierfür geschrieben werden:
 
 
:$${\rm supp} (P_X)  = \{ x: \hspace{0.25cm}x \in X \hspace{0.15cm}\underline{\rm und} \hspace{0.15cm} P_X(x) \ne 0 \} \hspace{0.05cm}.$$
 
:$${\rm supp} (P_X)  = \{ x: \hspace{0.25cm}x \in X \hspace{0.15cm}\underline{\rm und} \hspace{0.15cm} P_X(x) \ne 0 \} \hspace{0.05cm}.$$
 +
* $F(X)$ ist eine (beliebige) reellwertige Funktion, die im gesamten Definitionsgebiet der Zufallsgröße angebbar ist.
  
:* <i>F</i>(<i>X</i>) ist eine (beliebige) reellwertige Funktion, die im gesamten Definitionsgebiet der Zufallsgröße angebbar ist.
 
 
In der Aufgabe sollen die Erwartungswerte für verschiedene Funktionen <i>F</i>(<i>X</i>) berechnet werden, unter anderem für
 
 
:* <i>F</i>(<i>X</i>) = 1/<i>P<sub>X</sub></i>(<i>X</i>),
 
 
:* <i>F</i>(<i>X</i>) = <i>P<sub>X</sub></i>(<i>X</i>),
 
  
:* <i>F</i>(<i>X</i>) = &ndash;log<sub>2</sub> <i>P<sub>X</sub></i>(<i>X</i>).
+
In der Aufgabe sollen die Erwartungswerte für verschiedene Funktionen $F(X)$ berechnet werden, unter anderem für
  
<b>Hinweis:</b> Die Aufgabe gehört zum Themengebiet von Kapitel 3.1 dieses Buches. Weiter gilt, ohne dass dies für die Lösung dieser Aufgabe von Interesse ist:
+
: $F(X)= 1/P_X(X)$,
 +
: $F(X)= P_X(X)$,
 +
: $F(X)= - \log_2 \ P_X(X)$.
  
:* Die beiden &bdquo;eindimensionalen&rdquo; Wahrscheinlichkeitsfunktionen <i>P<sub>X</sub></i>(<i>X</i>) und <i>P<sub>Y</sub></i>(<i>Y</i>) ergeben sich aus der dargestellten 2D&ndash;PMF <i>P<sub>XY</sub></i>(<i>X</i>, <i>Y</i>), wie in Aufgabe Z3.2 gezeigt werden soll.
 
  
:* Zu den binären Wahrscheinlichkeitsfunktionen <i>P<sub>U</sub></i>(<i>U</i>) und <i>P<sub>V</sub></i>(<i>V</i>) kommt man entsprechend den Modulo&ndash;Operationen <i>U</i> = <i>X</i> mod 2 sowie <i>V</i> = <i>Y</i> mod 2 (siehe ebenfalls Aufgabe Z3.2)
+
''Hinweise:''
 +
*Die Aufgabe gehört zum  Kapitel [[Informationstheorie/Einige_Vorbemerkungen_zu_zweidimensionalen_Zufallsgrößen|Einige Vorbemerkungen zu den 2D-Zufallsgrößen]].
 +
* Die beiden &bdquo;eindimensionalen&rdquo; Wahrscheinlichkeitsfunktionen $P_X(X)$ und $P_Y(Y)$ ergeben sich aus der dargestellten 2D&ndash;PMF $P_{XY}(X, Y)$, wie in [[Aufgaben:3.2Z_2D–Wahrscheinlichkeitsfunktion|Zusatzaufgabe 3.2Z]] gezeigt werden soll.
 +
* Zu den binären Wahrscheinlichkeitsfunktionen $P_U(U)$ und $P_V(V)$ kommt man entsprechend den Modulo&ndash;Operationen $U = X \hspace{0.1cm}\text{mod} \hspace{0.1cm}2$ sowie $V = Y \hspace{0.1cm}\text{mod} \hspace{0.1cm} 2$.
 +
*Sollte die Eingabe des Zahlenwertes &bdquo;0&rdquo; erforderlich sein, so geben Sie bitte &bdquo;0.&rdquo; ein.
  
  
Zeile 53: Zeile 47:
 
{Welche Ergebnisse liefern die folgenden Erwartungswerte?
 
{Welche Ergebnisse liefern die folgenden Erwartungswerte?
 
|type="{}"}
 
|type="{}"}
$E[1/P_X(X)]$ = { 3 3% }
+
${\rm E}[1/P_X(X)] \ = \ $ { 3 3% }
$E[1/P_Y(Y)]$ = { 3 3% }
+
${\rm E}[1/P_Y(Y)] \ = \ ${ 3 3% }
  
  
 
{Geben Sie die folgenden Erwartungswerte an:
 
{Geben Sie die folgenden Erwartungswerte an:
 
|type="{}"}
 
|type="{}"}
$E[P_X(X)]$ = { 0.406 3% }
+
${\rm E}[P_X(X)] \ = \ $ { 0.406 3% }
$E[P_Y(Y)]$ = { 0.375 3% }
+
${\rm E}[P_Y(Y)] \ = \ $ { 0.375 3% }
  
  
 
{Berechnen Sie nun die folgenden Erwartungswerte:
 
{Berechnen Sie nun die folgenden Erwartungswerte:
 
|type="{}"}
 
|type="{}"}
$E[P_Y(X)]$ = { 0.281 3% }
+
${\rm E}[P_Y(X)] \ = \ $ { 0.281 3% }
$E[P_X(Y)]$ = { 0.281 3% }
+
${\rm E}[P_X(Y)] \ = \ $ { 0.281 3% }
  
  
 
{Welche der folgenden Aussagen sind zutreffend?
 
{Welche der folgenden Aussagen sind zutreffend?
 
|type="[]"}
 
|type="[]"}
+ E[&ndash;log<sub>2</sub> <i>P<sub>U</sub></i>(<i>U</i>)] ergibt die Entropie der Zufallsgröße <i>U</i>.
+
+ ${\rm E}[- \log_2 \ P_U(U)]$ ergibt die Entropie der Zufallsgröße $U$.
+ E[&ndash;log<sub>2</sub> <i>P<sub>V</sub></i>(<i>V</i>)] ergibt die Entropie der Zufallsgröße <i>V</i>.
+
+ ${\rm E}[- \log_2 \ P_V(V)]$ ergibt die Entropie der Zufallsgröße $V$.
- E[&ndash;log<sub>2</sub> <i>P<sub>V</sub></i>(<i>U</i>)] ergibt die Entropie der Zufallsgröße <i>V</i>.
+
- ${\rm E}[- \log_2 \ P_V(U)]$ ergibt die Entropie der Zufallsgröße $V$.
  
  

Version vom 30. Mai 2017, 10:12 Uhr

2D–Wahrscheinlichkeitsfunktion

Wir betrachten folgende Wahrscheinlichkeitsfunktionen:

$P_X(X) = [1/2, 1/8, 0, 3/8]$,
$P_Y(Y) = [1/2, 1/4, 1/4, 0]$,
$P_U(U) = [1/2, 1/2]$,
$P_V(V) = [3/4, 1/4]$.

Für die dazugehörigen Zufallsgrößen gelte:

$X= \{0, 1, 2, 3\}$, $Y= \{0, 1, 2, 3\}$,
$U = \{0, 1\}$, $U = \{0, 1\}$.

Oft muss man für solche diskreten Zufallsgrößen verschiedene Erwartungswerte der Form

$${\rm E} \left [ F(X)\right ] = \sum_{x \hspace{0.05cm}\in \hspace{0.05cm} {\rm supp} (P_X)} \hspace{-0.1cm} P_{X}(x) \cdot F(x) $$

berechnen. Hierbei bedeuten:

  • $P_X(X)$ bezeichnet die Wahrscheinlichkeitsfunktion der diskreten Zufallsgröße $X$.
  • Der Support von $P_X$ umfasst alle diejenigen Realisierungen $x$ der Zufallsgröße $X$ mit nicht verschwindender Wahrscheinlichkeit.
    Formal kann hierfür geschrieben werden:
$${\rm supp} (P_X) = \{ x: \hspace{0.25cm}x \in X \hspace{0.15cm}\underline{\rm und} \hspace{0.15cm} P_X(x) \ne 0 \} \hspace{0.05cm}.$$
  • $F(X)$ ist eine (beliebige) reellwertige Funktion, die im gesamten Definitionsgebiet der Zufallsgröße angebbar ist.


In der Aufgabe sollen die Erwartungswerte für verschiedene Funktionen $F(X)$ berechnet werden, unter anderem für

$F(X)= 1/P_X(X)$,
$F(X)= P_X(X)$,
$F(X)= - \log_2 \ P_X(X)$.


Hinweise:

  • Die Aufgabe gehört zum Kapitel Einige Vorbemerkungen zu den 2D-Zufallsgrößen.
  • Die beiden „eindimensionalen” Wahrscheinlichkeitsfunktionen $P_X(X)$ und $P_Y(Y)$ ergeben sich aus der dargestellten 2D–PMF $P_{XY}(X, Y)$, wie in Zusatzaufgabe 3.2Z gezeigt werden soll.
  • Zu den binären Wahrscheinlichkeitsfunktionen $P_U(U)$ und $P_V(V)$ kommt man entsprechend den Modulo–Operationen $U = X \hspace{0.1cm}\text{mod} \hspace{0.1cm}2$ sowie $V = Y \hspace{0.1cm}\text{mod} \hspace{0.1cm} 2$.
  • Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0.” ein.


Fragebogen

1

Welche Ergebnisse liefern die folgenden Erwartungswerte?

${\rm E}[1/P_X(X)] \ = \ $

${\rm E}[1/P_Y(Y)] \ = \ $

2

Geben Sie die folgenden Erwartungswerte an:

${\rm E}[P_X(X)] \ = \ $

${\rm E}[P_Y(Y)] \ = \ $

3

Berechnen Sie nun die folgenden Erwartungswerte:

${\rm E}[P_Y(X)] \ = \ $

${\rm E}[P_X(Y)] \ = \ $

4

Welche der folgenden Aussagen sind zutreffend?

${\rm E}[- \log_2 \ P_U(U)]$ ergibt die Entropie der Zufallsgröße $U$.
${\rm E}[- \log_2 \ P_V(V)]$ ergibt die Entropie der Zufallsgröße $V$.
${\rm E}[- \log_2 \ P_V(U)]$ ergibt die Entropie der Zufallsgröße $V$.


Musterlösung

1.  Allgemein gilt für den Erwartungswert der Funktion F(X) hinsichtlich der Zufallsvariablen X:

$${\rm E} \left [ F(X)\right ] = \sum_{x \hspace{0.05cm}\in \hspace{0.05cm} {\rm supp} (P_X)} \hspace{0.01cm} P_{X}(x) \cdot F(x) \hspace{0.05cm}.$$

Im vorliegenden Beispiel gilt X = {0, 1, 2, 3} und PX(X) = [1/2, 1/8, 0, 3/8]. Wegen PX(X = 2) = 0 ergibt sich somit für die zu berücksichtigende Menge („Support”) in obiger Summation:

$${\rm supp} (P_X) = \{ 0\hspace{0.05cm}, 1\hspace{0.05cm}, 3 \} \hspace{0.05cm}.$$

Mit F(X) = 1/PX(X) erhält man weiter:

$${\rm E} \left [ 1/P_X(X)\right ] = \sum_{x \hspace{0.05cm}\in \hspace{0.05cm} \{ 0\hspace{0.05cm}, 1\hspace{0.05cm},\hspace{0.05cm} 3 \}} \hspace{0.01cm} P_{X}(x) \cdot {1}/{P_X(x)} = \sum_{x \hspace{0.05cm}\in \hspace{0.05cm} \{ 0\hspace{0.05cm}, 1\hspace{0.05cm},\hspace{0.05cm} 3 \}} \hspace{-0.3cm} 1 \hspace{0.15cm}\underline{ = 3} \hspace{0.05cm}.$$

Der zweite Erwartungswert liefert mit supp(PY) = {0, 1, 2} das gleiche Ergebnis: E[1/PY(Y)] = 3.

2.  In beiden Fällen ist der Index der Wahrscheinlichkeitsfunktion mit der Zufallsvariablen (X bzw. Y) identisch und man erhält

$${\rm E} \left [ P_X(X)\right ] = \hspace{0.3cm} \sum_{x \hspace{0.05cm}\in \hspace{0.05cm} \{ 0\hspace{0.05cm}, 1\hspace{0.05cm},\hspace{0.05cm} 3 \}} \hspace{0.3cm} P_{X}(x) \cdot {P_X(x)} = (1/2)^2 + (1/8)^2 + (3/8)^2 = 13/32 \hspace{0.15cm}\underline{ \approx 0.406} \hspace{0.05cm},$$
$${\rm E} \left [ P_Y(Y)\right ] = \hspace{0.3cm} \sum_{y \hspace{0.05cm}\in \hspace{0.05cm} \{ 0\hspace{0.05cm}, 1\hspace{0.05cm},\hspace{0.05cm} 2 \}} \hspace{0.3cm} P_Y(y) \cdot P_Y(y) = (1/2)^2 + (1/4)^2 + (1/4)^2 \hspace{0.15cm}\underline{ = 0.375} \hspace{0.05cm}.$$

3.  Hier gelten folgende Gleichungen:

$${\rm E} \left [ P_Y(X)\right ] = \hspace{0.3cm} \sum_{x \hspace{0.05cm}\in \hspace{0.05cm} \{ 0\hspace{0.05cm}, 1\hspace{0.05cm},\hspace{0.05cm} 3 \}} \hspace{0.3cm} P_{X}(x) \cdot {P_Y(x)} = \frac{1}{2} \cdot \frac{1}{2} + \frac{1}{8} \cdot \frac{1}{4} + \frac{3}{8} \cdot 0 = 9/32 \hspace{0.15cm}\underline{ \approx 0.281} \hspace{0.05cm},$$

Die Erwartungswertbildung bezieht sich hier auf PX(·), also auf die Zufallsgröße X. PY(·) ist dabei die formale Funktion ohne (direkten) Bezug zur Zufallsgröße Y.

Für den zweiten Erwartungswert erhält man den gleichen Zahlenwert (das muss nicht so sein):

$${\rm E} \left [ P_X(Y)\right ] = \hspace{0.3cm} \sum_{y \hspace{0.05cm}\in \hspace{0.05cm} \{ 0\hspace{0.05cm}, 1\hspace{0.05cm},\hspace{0.05cm} 2 \}} \hspace{0.3cm} P_{Y}(y) \cdot {P_X(y)} = \frac{1}{2} \cdot \frac{1}{2} + \frac{1}{4} \cdot \frac{1}{8} + \frac{1}{4} \cdot 0 = 9/32 \hspace{0.15cm}\underline{ \approx 0.281} \hspace{0.05cm}.$$

4.  Wir berechnen zunächst die drei Erwartungswerte:

$${\rm E} \left [-{\rm log}_2 \hspace{0.1cm} P_U(U)\right ] = \frac{1}{2} \cdot {\rm log}_2 \hspace{0.1cm} \frac{2}{1} + \frac{1}{2} \cdot {\rm log}_2 \hspace{0.1cm} \frac{2}{1} \hspace{0.15cm}\underline{ = 1\,{\rm bit}} \hspace{0.05cm},$$
$${\rm E} \left [-{\rm log}_2 \hspace{0.1cm} P_V(V)\right ] = \frac{3}{4} \cdot {\rm log}_2 \hspace{0.1cm} \frac{4}{3} + \frac{1}{4} \cdot {\rm log}_2 \hspace{0.1cm} \frac{4}{1} \hspace{0.15cm}\underline{ = 0.811\,{\rm bit}} \hspace{0.05cm},$$
$${\rm E} \left [-{\rm log}_2 \hspace{0.1cm} P_V(U)\right ] = \frac{1}{2} \cdot {\rm log}_2 \hspace{0.1cm} \frac{4}{3} + \frac{1}{2} \cdot {\rm log}_2 \hspace{0.1cm} \frac{4}{1} \hspace{0.15cm}\underline{ = 1.208\,{\rm bit}} \hspace{0.05cm}.$$

Richtig sind demnach die beiden ersten Aussagen:

  • Die Entropie H(U) = 1 bit kann entsprechend der ersten Gleichung berechnet werden. Sie gilt für die binäre Zufallsgröße U mit gleichen Wahrscheinlichkeiten.
  • Die Entropie H(V) = 0.811 bit berechnet sich entsprechend der zweiten Gleichung. Aufgrund der Wahrscheinlichkeiten 3/4 und 1/4 ist die Entropie (Unsicherheit) kleiner als für die Zufallsgröße U.
  • Der dritte Erwartungswert kann schon allein vom Ergebnis her (1.208 bit) nicht die Entropie einer binären Zufallsgröße angeben, die stets auf 1 bit begrenzt ist.