Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Aufgabe 3.4: Entropie für verschiedene Wahrscheinlichkeiten

Aus LNTwww
Version vom 31. August 2021, 11:54 Uhr von Guenter (Diskussion | Beiträge)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Wechseln zu:Navigation, Suche

Wahrscheinlichkeitsfunktionen, jeweils mit  M=4  Elementen

In der ersten Zeile der nebenstehenden Tabelle ist die im Folgenden die mit  (a)  bezeichnete Wahrscheinlichkeitsfunktion angegeben. Für diese PMF  PX(X)=[0.1, 0.2, 0.3, 0.4]  soll in der Teilaufgabe  (1)  die Entropie berechnet werden:

Ha(X)=E[log21PX(X)]=E[log2PX(X)].

Da hier der Logarithmus zur Basis  2  verwendet wird, ist die Pseudo–Einheit „bit” anzufügen.

In den weiteren Aufgaben sollen jeweils einige Wahrscheinlichkeiten variiert werden und zwar derart, dass sich jeweils die größtmögliche Entropie ergibt:

  • Durch geeignete Variation von  p3  und  p4  kommt man zur maximalen Entropie  Hb(X)  unter der Voraussetzung  p1=0.1  und  p2=0.2   ⇒   Teilaufgabe  (2).
  • Durch geeignete Variation von  p2  und  p3 kommt man zur maximalen Entropie  Hc(X)  unter der Voraussetzung  p1=0.1  und  p4=0.4   ⇒   Teilaufgabe  (3).
  • In der Teilaufgabe  (4)  sind alle vier Parameter zur Variation freigegeben, die entsprechend der maximalen Entropie   ⇒   Hmax(X)  zu bestimmen sind.





Hinweise:


Fragebogen

1

Zu welcher Entropie führt die Wahrscheinlichkeitsfunktion  PX(X)=[0.1, 0.2, 0.3, 0.4] ?

Ha(X) = 

 bit

2

Es gelte nun allgemein  PX(X)=[0.1, 0.2, p3, p4].  Welche Entropie erhält man, wenn  p3  und  p4  bestmöglich gewählt werden?

Hb(X) = 

 bit

3

Nun gelte  PX(X)=[0.1, p2, p3, 0.4].  Welche Entropie erhält man, wenn  p2  und  p3  bestmöglich gewählt werden?

Hc(X) = 

 bit

4

Welche Entropie erhält man, wenn alle Wahrscheinlichkeiten  (p1, p2, p3, p4)  bestmöglich gewählt werden?

Hmax(X) = 

 bit


Musterlösung

(1)  Mit  PX(X)=[0.1, 0.2, 0.3, 0.4]  erhält man für die Entropie:

Ha(X)=0.1log210.1+0.2log210.2+0.3log210.3+0.4log210.4=1.846_.

Hier (und bei den anderen Aufgaben) ist jeweils die Pseudo–Einheit „bit” anzufügen.


(2)  Die Entropie  Hb(X)  lässt sich als Summe zweier Anteile  Hb1(X)  und  Hb2(X)  darstellen, mit:

Hb1(X)=0.1log210.1+0.2log210.2=0.797,
Hb2(X)=p3log21p3+(0.7p3)log210.7p3.
  • Die zweite Funktion ist maximal für  p3=p4=0.35.  Ein ähnlicher Zusammenhang hat sich bei der binären Entropiefunktion ergeben. 
  • Damit erhält man:
Hb2(X)=2p3log21p3=0.7log210.35=1.060
Hb(X)=Hb1(X)+Hb2(X)=0.797+1.060=1.857_.


(3)  Analog zur Teilaufgabe  (2)  ergibt sich mit  p1=0.1  und  p4=0.4  das Maximum für  p2=p3=0.25:

Hc(X)=0.1log210.1+20.25log210.25+0.4log210.4=1.861_.


(4)  Die maximale Entropie für den Symbolumfang  M=4  ergibt sich bei gleichen Wahrscheinlichkeiten, also für  p1=p2=p3=p4=0.25:

Hmax(X)=log2M=2_.
  • Die Differenz der Entropien entsprechend  (4)  und  (3)  ergibt  ΔH(X)=0.139 bit.  Hierbei gilt:
ΔH(X)=10.1log210.10.4log210.4.
  • Mit der binären Entropiefunktion
Hbin(p)=plog21p+(1p)log211p
lässt sich hierfür auch schreiben:
ΔH(X)=0.5[1Hbin(0.2)]=0.5[10.722]=0.139.