Aufgaben:Aufgabe 3.8: Nochmals Transinformation: Unterschied zwischen den Versionen
Safwen (Diskussion | Beiträge) |
|||
(13 dazwischenliegende Versionen von 3 Benutzern werden nicht angezeigt) | |||
Zeile 3: | Zeile 3: | ||
}} | }} | ||
− | [[Datei:P_ID2768__Inf_A_3_7_neu.png|right|]] | + | [[Datei:P_ID2768__Inf_A_3_7_neu.png|right|frame|Die 2D–Funktionen <br> $P_{ XY }$ und $P_{ XW }$]] |
− | Wir betrachten das Tupel $Z = (X, Y)$, wobei die Einzelkomponenten $X$ und $Y$ jeweils ternäre Zufallsgrößen darstellen: | + | Wir betrachten das Tupel $Z = (X, Y)$, wobei die Einzelkomponenten $X$ und $Y$ jeweils ternäre Zufallsgrößen darstellen: |
+ | :$$X = \{ 0 ,\ 1 ,\ 2 \} , \hspace{0.3cm}Y= \{ 0 ,\ 1 ,\ 2 \}.$$ | ||
− | $ | + | Die gemeinsame Wahrscheinlichkeitsfunktion $P_{ XY }(X, Y)$ beider Zufallsgrößen ist in der oberen Grafik angegeben. |
+ | In der [[Aufgaben:3.07Z_Tupel_aus_tern%C3%A4ren_Zufallsgr%C3%B6%C3%9Fen|Aufgabe 3.8Z]] wird diese Konstellation ausführlich analysiert. Man erhält als Ergebnis (alle Angaben in „bit”): | ||
+ | :* $H(X) = H(Y) = \log_2 (3) = 1.585,$ | ||
+ | :* $H(XY) = \log_2 (9) = 3.170,$ | ||
+ | :* $I(X, Y) = 0,$ | ||
+ | :* $H(Z) = H(XZ) = 3.170,$ | ||
+ | :* $I(X, Z) = 1.585.$ | ||
− | + | Desweiteren betrachten wir die Zufallsgröße $W = \{ 0,\ 1,\ 2,\ 3,\ 4 \}$, deren Eigenschaften sich aus der Verbundwahrscheinlichkeitsfunktion $P_{ XW }(X, W)$ nach der unteren Skizze ergeben. Die Wahrscheinlichkeiten sind in allen weiß hinterlegten Feldern jeweils Null. | |
− | |||
− | |||
− | |||
− | |||
− | |||
− | + | Gesucht ist in der vorliegenden Aufgabe die Transinformation zwischen | |
+ | :*den Zufallsgrößen $X$ und $W$ ⇒ $I(X; W)$, | ||
+ | :* den Zufallsgrößen $Z$ und $W ⇒ I(Z; W)$. | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | ''Hinweise:'' | ||
+ | *Die Aufgabe gehört zum Kapitel [[Informationstheorie/Verschiedene_Entropien_zweidimensionaler_Zufallsgrößen|Verschiedene Entropien zweidimensionaler Zufallsgrößen]]. | ||
+ | *Insbesondere wird Bezug genommen auf die Seiten <br> [[Informationstheorie/Verschiedene_Entropien_zweidimensionaler_Zufallsgrößen#Bedingte_Wahrscheinlichkeit_und_bedingte_Entropie|Bedingte Wahrscheinlichkeit und bedingte Entropie]] sowie <br> [[Informationstheorie/Verschiedene_Entropien_zweidimensionaler_Zufallsgrößen#Transinformation_zwischen_zwei_Zufallsgr.C3.B6.C3.9Fen|Transinformation zwischen zwei Zufallsgrößen]]. | ||
+ | |||
− | |||
− | |||
− | |||
− | |||
===Fragebogen=== | ===Fragebogen=== | ||
<quiz display=simple> | <quiz display=simple> | ||
− | {Wie könnten die Größen X, Y und W zusammenhängen? | + | {Wie könnten die Größen $X$, $Y$ und $W$ zusammenhängen? |
|type="[]"} | |type="[]"} | ||
− | + $W = X + Y$ | + | + $W = X + Y$, |
− | +$W = X | + | +$W = X - Y + 2$, |
− | -$W = Y | + | -$W = Y - X + 2$. |
− | {Welche | + | {Welche Transinformation besteht zwischen den Zufallsgrößen $X$ und $W$? |
|type="{}"} | |type="{}"} | ||
− | $I(X; | + | $I(X; W) \ = \ $ { 0.612 3% } $\ \rm bit$ |
− | {Welche Transinformation besteht zwischen den Zufallsgrößen $Z$ und $W$? | + | {Welche Transinformation besteht zwischen den Zufallsgrößen $Z$ und $W$? |
|type="{}"} | |type="{}"} | ||
− | $I( | + | $I(Z; W) \ = \ $ { 2.197 3% } $\ \rm bit$ |
{Welche der nachfolgenden Aussagen sind zutreffend? | {Welche der nachfolgenden Aussagen sind zutreffend? | ||
|type="[]"} | |type="[]"} | ||
− | + Es gilt $H(ZW) = H(XW)$. | + | + Es gilt $H(ZW) = H(XW)$. |
− | + Es gilt $H(W|Z) = 0$. | + | + Es gilt $H(W|Z) = 0$. |
− | + Es gilt $I(Z; W) > I(X; W)$. | + | + Es gilt $I(Z; W) > I(X; W)$. |
</quiz> | </quiz> | ||
Zeile 50: | Zeile 59: | ||
===Musterlösung=== | ===Musterlösung=== | ||
{{ML-Kopf}} | {{ML-Kopf}} | ||
− | '''1 | + | '''(1)''' Richtig sind die <u>Lösungsvorschläge 1 und 2</u>: |
− | + | *Mit $X = \{0,\ 1,\ 2\}$, $Y = \{0,\ 1,\ 2\}$ gilt $X + Y = \{0,\ 1,\ 2,\ 3,\ 4\}$. | |
− | + | *Auch die Wahrscheinlichkeiten stimmen mit der gegebenen Wahrscheinlichkeitsfunktion überein. | |
− | + | *Die Überprüfung der beiden anderen Vorgaben zeigt, dass auch $W = X - Y + 2$ möglich ist, nicht jedoch $W = Y - X + 2$. | |
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | + | [[Datei:P_ID2769__Inf_A_3_7d.png|right|frame|Zur Berechnung der Transinformation]] | |
− | |||
− | + | '''(2)''' Aus der 2D–Wahrscheinlichkeitsfunktion $P_{ XW }(X, W)$ auf der Angabenseite erhält man für | |
+ | *die Verbundentropie: | ||
+ | :$$H(XW) = {\rm log}_2 \hspace{0.1cm} (9) | ||
+ | = 3.170\ {\rm (bit)} | ||
+ | \hspace{0.05cm},$$ | ||
+ | * die Wahrsacheinlichkeitsfunktion der Zufallsgröße $W$: | ||
+ | :$$P_W(W) = \big [\hspace{0.05cm}1/9\hspace{0.05cm}, \hspace{0.15cm} 2/9\hspace{0.05cm},\hspace{0.15cm} 3/9 \hspace{0.05cm}, \hspace{0.15cm} 2/9\hspace{0.05cm}, \hspace{0.15cm} 1/9\hspace{0.05cm} \big ]\hspace{0.05cm},$$ | ||
+ | *die Entropie der Zufallsgröße $W$: | ||
+ | :$$H(W) = 2 \cdot \frac{1}{9} \cdot {\rm log}_2 \hspace{0.1cm} \frac{9}{1} + 2 \cdot \frac{2}{9} \cdot {\rm log}_2 \hspace{0.1cm} \frac{9}{2} + | ||
+ | \frac{3}{9} \cdot {\rm log}_2 \hspace{0.1cm} \frac{9}{3} | ||
+ | {= 2.197\ {\rm (bit)}} \hspace{0.05cm}.$$ | ||
− | + | Mit $H(X) = 1.585 \ \rm bit$ (wurde vorgegeben) ergibt sich somit für die Transinformation ("Mutual Information"): | |
− | $$H(W) = 2.197 (bit)$$ | + | :$$I(X;W) = H(X) + H(W) - H(XW) = 1.585 + 2.197- 3.170\hspace{0.15cm} \underline {= 0.612\ {\rm (bit)}} \hspace{0.05cm}.$$ |
− | |||
− | + | Das linke der beiden Schaubilder verdeutlicht die Berechnung der Transinformation $I(X; W)$ zwischen der ersten Komponente $X$ und der Summe $W$. | |
− | + | <br clear=all> | |
− | ''' | + | [[Datei:P_ID2770__Inf_A_3_7c.png|right|frame|Verbundwahrscheinlichkeit zwischen $Z$ und $W$]] |
− | + | '''(3)''' Die zweite Grafik zeigt die Verbundwahrscheinlichkeit $P_{ ZW }(⋅)$. | |
+ | *Das Schema besteht aus $5 · 9 = 45$ Feldern im Gegensatz zur Darstellung von $P_{ XW }(⋅)$ auf der Angabenseite mit $3 · 9 = 27$ Feldern. | ||
+ | *Von den $45$ Feldern sind aber auch nur neun mit Wahrscheinlichkeiten ungleich Null belegt. Für die Verbundentropie gilt: $H(ZW) = 3.170\ {\rm (bit)} \hspace{0.05cm}.$ | ||
+ | *Mit den weiteren Entropien $H(Z) = 3.170\ {\rm (bit)}\hspace{0.05cm}$ und $H(W) = 2.197\ {\rm (bit)}\hspace{0.05cm}$ entsprechend der [[Aufgaben:3.07Z_Tupel_aus_tern%C3%A4ren_Zufallsgr%C3%B6%C3%9Fen| Aufgabe 3.8Z]] bzw. der Teilfrage '''(2)''' dieser Aufgabe erhält man für die Transinformation: | ||
+ | :$$I(Z;W) = H(Z) + H(W) - H(ZW) \hspace{0.15cm} \underline {= 2.197\,{\rm (bit)}} \hspace{0.05cm}.$$ | ||
− | |||
− | |||
− | |||
− | |||
− | $$I(Z;W) = H(W) - H(W|Z) = 2.197 - 0 = 2.197 (bit)$$ | + | '''(4)''' <u>Alle drei Aussagen</u> treffen zu, wie aus dem rechten der beiden oberen Schaubilder ersichtlich ist. Wir versuchen eine Interpretation dieser numerischen Ergebnisse: |
− | $$I(X;W) = H(W) - H(W|X) = 2.197 - 1.585 = 0.612 (bit)$$ | + | * Die Verbundwahrscheinlichkeit $P_{ ZW }(⋅)$ setzt sich ebenso wie $P_{ XW }(⋅)$ aus neun gleichwahrscheinlichen Elementen ungleich 0 zusammen. Damit ist offensichtlich, dass auch die Verbundentropien gleich sind ⇒ $H(ZW) = H(XW) = 3.170 \ \rm (bit)$. |
+ | * Wenn ich das Tupel $Z = (X, Y)$ kenne, kenne ich natürlich auch die Summe $W = X + Y$. Damit ist $H(W|Z) = 0$. | ||
+ | *Dagegen ist $H(Z|W) \ne 0$. Vielmehr gilt $H(Z|W) = H(X|W) = 0.973 \ \rm (bit)$. | ||
+ | * Die Zufallsgröße $W$ liefert also die genau gleiche Information hinsichtlich des Tupels $Z$ wie für die Einzelkomponente $X$. Dies ist die verbale Interpretation der Aussage $H(Z|W) = H(X|W)$. | ||
+ | * Die gemeinsame Information von $Z$ und $W$ ⇒ $I(Z; W)$ ist größer als die gemeinsame Information von $X$ und $W$ ⇒ $I(X; W)$, weil $H(W|Z) =0$ gilt, während $H(W|X)$ ungleich Null ist, nämlich genau so groß ist wie $H(X)$ : | ||
+ | :$$I(Z;W) = H(W) - H(W|Z) = 2.197 - 0= 2.197\,{\rm (bit)} \hspace{0.05cm},$$ | ||
+ | :$$I(X;W) = H(W) - H(W|X) = 2.197 - 1.585= 0.612\,{\rm (bit)} \hspace{0.05cm}.$$ | ||
Zeile 104: | Zeile 110: | ||
− | [[Category:Aufgaben zu Informationstheorie |^3. | + | [[Category:Aufgaben zu Informationstheorie |^3.2 Entropien von 2D-Zufallsgrößen^]] |
Aktuelle Version vom 20. September 2021, 17:29 Uhr
Wir betrachten das Tupel $Z = (X, Y)$, wobei die Einzelkomponenten $X$ und $Y$ jeweils ternäre Zufallsgrößen darstellen:
- $$X = \{ 0 ,\ 1 ,\ 2 \} , \hspace{0.3cm}Y= \{ 0 ,\ 1 ,\ 2 \}.$$
Die gemeinsame Wahrscheinlichkeitsfunktion $P_{ XY }(X, Y)$ beider Zufallsgrößen ist in der oberen Grafik angegeben.
In der Aufgabe 3.8Z wird diese Konstellation ausführlich analysiert. Man erhält als Ergebnis (alle Angaben in „bit”):
- $H(X) = H(Y) = \log_2 (3) = 1.585,$
- $H(XY) = \log_2 (9) = 3.170,$
- $I(X, Y) = 0,$
- $H(Z) = H(XZ) = 3.170,$
- $I(X, Z) = 1.585.$
Desweiteren betrachten wir die Zufallsgröße $W = \{ 0,\ 1,\ 2,\ 3,\ 4 \}$, deren Eigenschaften sich aus der Verbundwahrscheinlichkeitsfunktion $P_{ XW }(X, W)$ nach der unteren Skizze ergeben. Die Wahrscheinlichkeiten sind in allen weiß hinterlegten Feldern jeweils Null.
Gesucht ist in der vorliegenden Aufgabe die Transinformation zwischen
- den Zufallsgrößen $X$ und $W$ ⇒ $I(X; W)$,
- den Zufallsgrößen $Z$ und $W ⇒ I(Z; W)$.
Hinweise:
- Die Aufgabe gehört zum Kapitel Verschiedene Entropien zweidimensionaler Zufallsgrößen.
- Insbesondere wird Bezug genommen auf die Seiten
Bedingte Wahrscheinlichkeit und bedingte Entropie sowie
Transinformation zwischen zwei Zufallsgrößen.
Fragebogen
Musterlösung
- Mit $X = \{0,\ 1,\ 2\}$, $Y = \{0,\ 1,\ 2\}$ gilt $X + Y = \{0,\ 1,\ 2,\ 3,\ 4\}$.
- Auch die Wahrscheinlichkeiten stimmen mit der gegebenen Wahrscheinlichkeitsfunktion überein.
- Die Überprüfung der beiden anderen Vorgaben zeigt, dass auch $W = X - Y + 2$ möglich ist, nicht jedoch $W = Y - X + 2$.
(2) Aus der 2D–Wahrscheinlichkeitsfunktion $P_{ XW }(X, W)$ auf der Angabenseite erhält man für
- die Verbundentropie:
- $$H(XW) = {\rm log}_2 \hspace{0.1cm} (9) = 3.170\ {\rm (bit)} \hspace{0.05cm},$$
- die Wahrsacheinlichkeitsfunktion der Zufallsgröße $W$:
- $$P_W(W) = \big [\hspace{0.05cm}1/9\hspace{0.05cm}, \hspace{0.15cm} 2/9\hspace{0.05cm},\hspace{0.15cm} 3/9 \hspace{0.05cm}, \hspace{0.15cm} 2/9\hspace{0.05cm}, \hspace{0.15cm} 1/9\hspace{0.05cm} \big ]\hspace{0.05cm},$$
- die Entropie der Zufallsgröße $W$:
- $$H(W) = 2 \cdot \frac{1}{9} \cdot {\rm log}_2 \hspace{0.1cm} \frac{9}{1} + 2 \cdot \frac{2}{9} \cdot {\rm log}_2 \hspace{0.1cm} \frac{9}{2} + \frac{3}{9} \cdot {\rm log}_2 \hspace{0.1cm} \frac{9}{3} {= 2.197\ {\rm (bit)}} \hspace{0.05cm}.$$
Mit $H(X) = 1.585 \ \rm bit$ (wurde vorgegeben) ergibt sich somit für die Transinformation ("Mutual Information"):
- $$I(X;W) = H(X) + H(W) - H(XW) = 1.585 + 2.197- 3.170\hspace{0.15cm} \underline {= 0.612\ {\rm (bit)}} \hspace{0.05cm}.$$
Das linke der beiden Schaubilder verdeutlicht die Berechnung der Transinformation $I(X; W)$ zwischen der ersten Komponente $X$ und der Summe $W$.
(3) Die zweite Grafik zeigt die Verbundwahrscheinlichkeit $P_{ ZW }(⋅)$.
- Das Schema besteht aus $5 · 9 = 45$ Feldern im Gegensatz zur Darstellung von $P_{ XW }(⋅)$ auf der Angabenseite mit $3 · 9 = 27$ Feldern.
- Von den $45$ Feldern sind aber auch nur neun mit Wahrscheinlichkeiten ungleich Null belegt. Für die Verbundentropie gilt: $H(ZW) = 3.170\ {\rm (bit)} \hspace{0.05cm}.$
- Mit den weiteren Entropien $H(Z) = 3.170\ {\rm (bit)}\hspace{0.05cm}$ und $H(W) = 2.197\ {\rm (bit)}\hspace{0.05cm}$ entsprechend der Aufgabe 3.8Z bzw. der Teilfrage (2) dieser Aufgabe erhält man für die Transinformation:
- $$I(Z;W) = H(Z) + H(W) - H(ZW) \hspace{0.15cm} \underline {= 2.197\,{\rm (bit)}} \hspace{0.05cm}.$$
(4) Alle drei Aussagen treffen zu, wie aus dem rechten der beiden oberen Schaubilder ersichtlich ist. Wir versuchen eine Interpretation dieser numerischen Ergebnisse:
- Die Verbundwahrscheinlichkeit $P_{ ZW }(⋅)$ setzt sich ebenso wie $P_{ XW }(⋅)$ aus neun gleichwahrscheinlichen Elementen ungleich 0 zusammen. Damit ist offensichtlich, dass auch die Verbundentropien gleich sind ⇒ $H(ZW) = H(XW) = 3.170 \ \rm (bit)$.
- Wenn ich das Tupel $Z = (X, Y)$ kenne, kenne ich natürlich auch die Summe $W = X + Y$. Damit ist $H(W|Z) = 0$.
- Dagegen ist $H(Z|W) \ne 0$. Vielmehr gilt $H(Z|W) = H(X|W) = 0.973 \ \rm (bit)$.
- Die Zufallsgröße $W$ liefert also die genau gleiche Information hinsichtlich des Tupels $Z$ wie für die Einzelkomponente $X$. Dies ist die verbale Interpretation der Aussage $H(Z|W) = H(X|W)$.
- Die gemeinsame Information von $Z$ und $W$ ⇒ $I(Z; W)$ ist größer als die gemeinsame Information von $X$ und $W$ ⇒ $I(X; W)$, weil $H(W|Z) =0$ gilt, während $H(W|X)$ ungleich Null ist, nämlich genau so groß ist wie $H(X)$ :
- $$I(Z;W) = H(W) - H(W|Z) = 2.197 - 0= 2.197\,{\rm (bit)} \hspace{0.05cm},$$
- $$I(X;W) = H(W) - H(W|X) = 2.197 - 1.585= 0.612\,{\rm (bit)} \hspace{0.05cm}.$$