Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Aufgabe 1.6: Nichtbinäre Markovquellen

Aus LNTwww
Wechseln zu:Navigation, Suche

Markovquellen mit
M=3  und  M=4

Die Grafik zeigt zwei ergodische Markovquellen  (MQ):

  • Die Quelle  MQ3  ist durch  M=3  Zustände (Symbole)  NMP  gekennzeichnet.  Aufgrund der Stationarität haben die Wahrscheinlichkeiten folgende Werte:
pN=1/2,pM=pP=1/4.
  • Bei der Quelle  MQ4  ist zusätzlich der Zustand  O  möglich   ⇒   M=4.  Aufgrund der symmetrischen Übergänge sind die stationären Wahrscheinlichkeiten alle gleich:
pN=pM=pO=pP=1/4.

Informationstheoretisch sind Markovquellen von besonderer Bedeutung, da bei diesen – und nur bei diesen – durch

  • H1  (erste Entropienäherung, nur auf den Symbolwahrscheinlichkeiten basierend), und
  • H2  (zweite Entropienäherung, berechenbar mit den Verbundwahrscheinlichkeiten für alle Zweiertupel)


gleichzeitig auch bestimmt sind:

  • die weiteren Entropienäherungen  Hk  mit  k=3, 4,  ... und
  • die tatsächliche Quellenentropie  H.


Es gelten folgende Bestimmungsgleichungen:

H=Hk=2H2H1,
Hk=1/k[H1+(k1)H].





Hinweise:


Fragebogen

1

Berechnen Sie die Entropienäherung  H1  der Markovquelle  MQ3.

H1 = 

 bit/Symbol

2

Berechnen Sie die Entropienäherung  H2  der Markovquelle  MQ3.

H2 = 

 bit/Symbol

3

Wie groß sind für  MQ3  die tatsächliche Quellenentropie  H=Hk  und die Näherungen  H3  und  H4?

H = 

 bit/Symbol
H3 = 

 bit/Symbol
H4 = 

 bit/Symbol

4

Berechnen Sie die Entropienäherung  H1  der Markovquelle  MQ4.

H1 = 

 bit/Symbol

5

Berechnen Sie die Entropienäherung  H2  der Markovquelle  MQ4.

H2 = 

 bit/Symbol

6

Wie groß sind für  MQ4  die tatsächliche Quellenentropie  H=Hk  und die Näherungen  H3  und  H4?

H = 

 bit/Symbol
H3 = 

 bit/Symbol
H4 = 

 bit/Symbol


Musterlösung

(1)  Die Symbolwahrscheinlichkeiten der ternären Markovquelle sind gegeben.

  • Daraus lässt sich die Entropienäherung  H1  berechnen:
H1=1/2log2(2)+21/4log2(4)=1.5bit/Symbol_.


(2)  Die Verbundwahrscheinlichkeit ist  pXY=pXpY|X,  wobei  pX  die Symbolwahrscheinlichkeit von  X  angibt und  pY|X  die bedingte Wahrscheinlichkeit für  Y, unter der Voraussetzung, dass vorher  X  aufgetreten ist.

  • X  und  Y  sind hier Platzhalter für die Symbole  NP  und  M.  Dann gilt:
pNN=1/21/2=1/4,pPP=1/40=0,pMM=1/40=0,
pNP=1/21/4=1/8,pPM=1/41/2=1/8,pMN=1/41/2=1/8,
pNM=1/21/4=1/8,pMP=1/41/2=1/8,pPN=1/41/2=1/8
H2=1/2[1/4log2(4)+61/8log2(8)]=1.375bit/Symbol_.


(3)  MQ3  weist Markoveigenschaften auf.

  • Deshalb können aus  H1  und  H2  alle Näherungen  H3H4,  ... und auch der Grenzwert  H=H  für  k  angegeben werden:
H=2H2H1=21.3751.5=1.250bit/Symbol_,
H3==(H1+2H)/3=(1.5+21.25)/3=1.333bit/Symbol_,
H4=(H1+3H)/4=(1.5+31.25)/4=1.3125bit/Symbol_.
  • Die zehnte Entropienäherung unterscheidet sich noch immer vom Endwert  H=1.25bit/Symbol,  wenn auch nur geringfügig  (um 2%) :
H10=(H1+9H)/10=(1.5+91.25)/10=1.275bit/Symbol.


(4)  Entsprechend der Angabe sind bei  MQ4  die  M=4  Symbole gleichwahrscheinlich.

  • Daraus folgt:
H1=H0=log2(4)=2bit/Symbol_.


(5)  Von den  M2=16  möglichen Zweiertupeln sind nun acht Kombinationen nicht möglich:

NP,NO,PP,PO,OM,ON,MM,MN.
  • Die acht weiteren Kombinationen (Zweiertupel) ergeben jeweils den Verbundwahrscheinlichkeitswert  1/8, wie an zwei Beispielen gezeigt wird:
pNN=pNpN|N=1/41/2=1/8,pMP=pMpP|M=1/41/2=1/8.
H2=1/2[81/8log2(8)]=1.5bit/Symbol_.


(6)  Aufgrund der Markoveigenschaft gilt hier:

H=2H2H1=21.52=1bit/Symbol_,
H3=(H1+2H)/3=(2+21)/3=1.333bit/Symbol_,
H4=(H1+3H)/4=(2+31)/4=1.250bit/Symbol_.
  • Auch hier unterscheidet sich die zehnte Näherung noch deutlich vom Endwert, nämlich sogar um  10%:
H10=(H1+9H)/10=(2+91)/10=1.1bit/Symbol.
  • Eine Abweichung um nur  2%  ergibt sich hier erst für  k=50.  Zum Vergleich:   Bei der Markovquelle  MQ3  wurde diese Annäherung bereits mit  k=10  erreicht.