Aufgabe 3.8Z: Tupel aus ternären Zufallsgrößen
Aus LNTwww
Wir betrachten das Tupel Z=(X,Y), wobei die Einzelkomponenten X und Y jeweils ternäre Zufallsgrößen darstellen ⇒ Symbolumfang |X|=|Y|=3. Die gemeinsame Wahrscheinlichkeitsfunktion PXY(X,Y) ist rechts skizziert.
In dieser Aufgabe sind zu berechnen:
- die Verbundentropie H(XY) und die Transinformation I(X;Y),
- die Verbundentropie H(XZ) und die Transinformation I(X;Z),
- die beiden bedingten Entropien H(Z|X) und H(X|Z).
Hinweise:
- Die Aufgabe gehört zum Kapitel Verschiedene Entropien zweidimensionaler Zufallsgrößen.
- Insbesondere wird Bezug genommen auf die Seiten
Bedingte Wahrscheinlichkeit und bedingte Entropie sowie
Transinformation zwischen zwei Zufallsgrößen.
Fragebogen
Musterlösung
(1) Bei den Zufallsgrößen X={0, 1, 2} ⇒ |X|=3 und Y={0, 1, 2} ⇒ |Y|=3 liegt jeweils eine Gleichverteilung vor.
- Damit erhält man für die Entropien:
- H(X)=log2(3)=1.585(bit)_,
- H(Y)=log2(3)=1.585(bit)_.
- Die 2D–Zufallsgröße XY={00, 01, 02, 10, 11, 12, 20, 21, 22} ⇒ |XY|=|Z|=9 weist ebenfalls gleiche Wahrscheinlichkeiten auf:
- p00=p01=...=p22=1/9.
- Daraus folgt:
- H(XY)=log2(9)=3.170(bit)_.
(2) Die Zufallsgrößen X und Y sind wegen PXY(⋅)=PX(⋅)·PY(⋅) statistisch unabhängig.
- Daraus folgt I(X,Y)=0_.
- Zum gleichen Ergebnis kommt man über die Gleichung I(X;Y)=H(X)+H(Y)−H(XY).
(3) Interpretiert man I(X;Z) als die verbleibende Unsicherheit hinsichtlich des Tupels Z, wenn die erste Komponente X bekannt ist, so gilt offensichtlich:
- I(X;Z)=H(Y)=1.585 bit_.
Rein formal lässt sich diese Aufgabe auch wie folgt lösen:
- Die Entropie H(Z) ist gleich der Verbundentropie H(XY)=3.170 bit.
- Die Verbundwahrscheinlichkeit PXZ(X,Z) beinhaltet neun Elemente der Wahrscheinlichkeit 1/9, alle anderen sind mit Nullen belegt ⇒ H(XZ)=log2(9)=3.170 bit.
- Damit gilt für die Transinformation (gemeinsame Information der Zufallsgrößen X und Z):
- I(X;Z)=H(X)+H(Z)−H(XZ)=1.585+3.170−3.170=1.585(bit)_.
(4) Entsprechend der zweiten Grafik gilt:
- H(Z∣X)=H(XZ)−H(X)=3.170−1.585=1.585 (bit)_,
- H(X∣Z)=H(XZ)−H(Z)=3.170−3.170=0 (bit)_.
- H(Z|X) gibt die Restunsicherheit hinsichtlich des Tupels Z an, wenn man die erste Komponente X kennt.
- Die Unsicherheit hinsichtlich des Tupels Z ist H(Z)=2·log2(3) bit.
- Bei Kenntnis der Komponente X halbiert sich die Unsicherheit auf H(Z|X)=log2(3) bit.
- H(X|Z) gibt die verbleibende Unsicherheit hinsichtlich der Komponente X an, wenn man das Tupel Z=(X,Y) kennt. Diese Unsicherheit ist natürlich Null: Kennt man Z, so kennt man auch X.