Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Aufgabe 3.8Z: Tupel aus ternären Zufallsgrößen

Aus LNTwww
Wechseln zu:Navigation, Suche

PMF  '"`UNIQ-MathJax29-QINU`"'

Wir betrachten das Tupel  Z=(X,Y),  wobei die Einzelkomponenten  X  und  Y  jeweils ternäre Zufallsgrößen darstellen   ⇒   Symbolumfang  |X|=|Y|=3.  Die gemeinsame Wahrscheinlichkeitsfunktion  PXY(X,Y)  ist rechts skizziert.

In dieser Aufgabe sind zu berechnen:

  • die Verbundentropie  H(XY)  und die Transinformation  I(X;Y),
  • die Verbundentropie  H(XZ)  und die Transinformation  I(X;Z),
  • die beiden bedingten Entropien  H(Z|X)  und  H(X|Z).





Hinweise:



Fragebogen

1

Berechnen Sie die folgenden Entropien.

H(X) = 

 bit
H(Y) = 

 bit
H(XY) = 

 bit

2

Welche Transinformation besteht zwischen den Zufallsgrößen  X  und  Y?

I(X;Y) = 

 bit

3

Welche Transinformation besteht zwischen den Zufallsgrößen  X  und  Z?

I(X;Z) = 

 bit

4

Welche bedingten Entropien bestehen zwischen  X  und  Z?

H(Z|X) = 

 bit
H(X|Z) = 

 bit


Musterlösung

(1)  Bei den Zufallsgrößen  X={0, 1, 2}   ⇒   |X|=3  und  Y={0, 1, 2}   ⇒   |Y|=3  liegt jeweils eine Gleichverteilung vor. 

  • Damit erhält man für die Entropien:
H(X)=log2(3)=1.585(bit)_,
H(Y)=log2(3)=1.585(bit)_.
  • Die 2D–Zufallsgröße  XY={00, 01, 02, 10, 11, 12, 20, 21, 22}   ⇒   |XY|=|Z|=9  weist ebenfalls gleiche Wahrscheinlichkeiten auf:
p00=p01=...=p22=1/9.
  • Daraus folgt:
H(XY)=log2(9)=3.170(bit)_.


(2)  Die Zufallsgrößen  X  und  Y  sind wegen  PXY()=PX()·PY()  statistisch unabhängig.

  • Daraus folgt  I(X,Y)=0_.
  • Zum gleichen Ergebnis kommt man über die Gleichung  I(X;Y)=H(X)+H(Y)H(XY).


Wahrscheinlichkeitsfunktion der 2D-Zufallsgröße  XZ

(3)  Interpretiert man  I(X;Z)  als die verbleibende Unsicherheit hinsichtlich des Tupels  Z,  wenn die erste Komponente  X  bekannt ist,  so gilt offensichtlich:

I(X;Z)=H(Y)=1.585 bit_.

Rein formal lässt sich diese Aufgabe auch wie folgt lösen:

  • Die Entropie  H(Z)  ist gleich der Verbundentropie  H(XY)=3.170 bit.
  • Die Verbundwahrscheinlichkeit  PXZ(X,Z)  beinhaltet neun Elemente der Wahrscheinlichkeit  1/9,  alle anderen sind mit Nullen belegt   ⇒   H(XZ)=log2(9)=3.170 bit.
  • Damit gilt für die Transinformation  (gemeinsame Information der Zufallsgrößen  X  und  Z):
I(X;Z)=H(X)+H(Z)H(XZ)=1.585+3.1703.170=1.585(bit)_.


Entropien der 2D-Zufallsgröße  XZ

(4)  Entsprechend der zweiten Grafik gilt:

H(ZX)=H(XZ)H(X)=3.1701.585=1.585 (bit)_,
H(XZ)=H(XZ)H(Z)=3.1703.170=0 (bit)_.
  • H(Z|X)  gibt die Restunsicherheit hinsichtlich des Tupels  Z  an,  wenn man die erste Komponente  X  kennt.
  • Die Unsicherheit hinsichtlich des Tupels  Z  ist  H(Z)=2·log2(3) bit.
  • Bei Kenntnis der Komponente  X  halbiert sich die Unsicherheit auf  H(Z|X)=log2(3) bit.
  • H(X|Z)  gibt die verbleibende Unsicherheit hinsichtlich der Komponente  X  an, wenn man das Tupel  Z=(X,Y)  kennt.  Diese Unsicherheit ist natürlich Null:   Kennt man  Z, so kennt man auch  X.