Informationstheorie/Differentielle Entropie: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
Zeile 34: Zeile 34:
 
   
 
   
  
Es ergeben sich hier für den Mittelwert $m_1$ = ${\rm E}[X]$ und die Varianz $σ_2$ = ${\rm E)[(X – m_1)^2]$ folgende Gleichungen:
+
Es ergeben sich hier für den Mittelwert $m_1$ = ${\rm E}[X]$ und die Varianz $σ_2$ = ${\rm E}[(X – m_1)^2]$ folgende Gleichungen:
 
   
 
   
 
Unten dargestellt ist die ''Verteilungsfunktion'' (VTF):
 
Unten dargestellt ist die ''Verteilungsfunktion'' (VTF):
Zeile 43: Zeile 43:
 
Weiterhin ist zu beachten:
 
Weiterhin ist zu beachten:
 
*Das Ergebnis $X$ = 0 ist bei dieser Zufallsgröße ausgeschlossen  ⇒  Pr($X$ = 0) = 0.
 
*Das Ergebnis $X$ = 0 ist bei dieser Zufallsgröße ausgeschlossen  ⇒  Pr($X$ = 0) = 0.
*Das Ergebnis $X$ = 4 ist dagegen durchaus möglich. Trotzdem gilt auch hier $Pr(X = 4) = 0$.
+
*Das Ergebnis $X$ = 4 ist dagegen durchaus möglich. Trotzdem gilt auch hier Pr($X$ = 4) = 0.
  
==Entropie wertkontinuierlicher Zufallsgrößen nach Quantisierung  ==  
+
==Entropie wertkontinuierlicher Zufallsgrößen nach Quantisierung  ==
 +
 
 +
Wir betrachten nun eine wertkontinuierliche Zufallsgröße $X$ im Bereich von 0 bis 1.
 +
*Wir quantisieren die kontinuierliche Zufallsgröße $X$, um die bisherige Entropieberechnung weiter anwenden zu können. Die so entstehende diskrete (quantisierte) Größe nennen wir $Z$.
 +
*Die Quantisierungsstufenzahl sei $M$, so dass jedes Quantisierungsintervall $μ$ bei der vorliegenden WDF die Breite $Δ$ = 1/$M$ aufweist. Die Intervallmitten bezeichnen wir mit $x_μ$.
 +
*Die Wahrscheinlichkeit $p_μ$ = Pr($Z$ = $z_μ$) bezüglich $Z$ ist gleich der Wahrscheinlichkeit, dass die kontinuierliche Zufallsgröße $X$ einen Wert zwischen $x_μ – Δ/2$ und $x_μ + Δ/2$ besitzt.
 +
*Zunächst setzen wir $M$ = 2 und verdoppeln anschließend $M$ in jeder Iteration. Dadurch wird die Quantisierung zunehmend feiner. Im $n$–ten Versuch gilt dann $M$ = 2$n$ und $Δ$ = 2–$n$.
 +
Beispiel: Die Grafik zeigt die Ergebnisse der ersten drei Versuche für eine dreieckförmige WDF (zwischen 0 und 1):
 +
n = 1  ⇒  M = 2  ⇒  Δ = 1/2:  H(Z) = 0.811 bit,
 +
n = 2  ⇒  M = 4  ⇒  Δ = 1/4:  H(Z) = 1.749 bit,
 +
n = 3  ⇒  M = 8  ⇒  Δ = 1/8:  H(Z) = 2.729 bit.
 +
 
 +
Zudem können der Grafik noch folgende Größen entnommen werden, zum Beispiel für Δ = 1/8:
 +
Die Intervallmitten liegen bei x1 = 1/16, x2 = 3/16, ... , x8 = 15/16  ⇒  xμ = Δ · (μ – 1/2).
 +
Die Intervallflächen ergeben sich zu pμ = Δ · fX(xμ)  ⇒  p8 = 1/8 · (7/8+1)/2 = 15/64.
 +
Damit erhält man PZ(Z) = (1/64, 3/64, 5/64, 7/64, 9/64, 11/64, 13/64, 15/64).
 +
Die Ergebnisse dieses Experiments interpretieren wir wie folgt:
 +
Die Entropie H(Z) nimmt mit steigendem M immer mehr zu.
 +
Der Grenzwert von H(Z) für M → ∞  ⇒  Δ → 0 ist unendlich.
 +
Damit ist auch die Entropie H(X) der wertkontinuierlichen Zufallsgröße X unendlich groß.
 +
Daraus folgt: Die bisherige Entropie–Definition versagt hier.  
 
==Definition und Eigenschaften der differentiellen Entropie ==  
 
==Definition und Eigenschaften der differentiellen Entropie ==  
 
==Differentielle Entropie einiger spitzenwertbegrenzter Zufallsgrößen  ==  
 
==Differentielle Entropie einiger spitzenwertbegrenzter Zufallsgrößen  ==  

Version vom 1. Juni 2016, 12:33 Uhr

Eigenschaften wertkontinuierlicher Zufallsgrößen

Bisher wurden stets wertdiskrete Zufallsgrößen der Form $X = \{x_1, x_2, ... , x_μ, ... , x_M\}$ betrachtet, die aus informationstheoretischer Sicht vollständig durch ihre Wahrscheinlichkeitsfunktion (englisch: Probability Mass Function, PMF) $P_X(X)$ charakterisiert werden:

Eine wertkontinuierliche Zufallsgröße kann dagegen – zumindest in endlichen Intervallen – jeden beliebigen Wert annehmen. Aufgrund des nicht abzählbaren Wertevorrats ist in diesem Fall die Beschreibung durch eine Wahrscheinlichkeitsfunktion nicht möglich oder zumindest nicht sinnvoll: Es ergäbe sich nämlich $M$ → $∞$ sowie $p_1$ → 0, $p_2$ → 0, usw.


Nomenklaturhinweise zu WDF und VTF

Man verwendet zur Beschreibung wertkontinuierlicher Zufallsgrößen gemäß den Definitionen im Buch „Stochastische Signaltheorie” gleichermaßen (beachten Sie die Einträge in der Grafik):

  • Wahrscheinlichkeitsdichtefunktion (WDF, englisch: Probability Density Function, PDF):

In Worten: Der WDF–Wert bei $x_0$ gibt die Wahrscheinlichkeit $p_{Δx}$ an, dass die Zufallsgröße $X$ in einem (unendlich kleinen) Intervall der Breite $Δx$ um $x_0$ liegt, dividiert durch $Δx$.

  • Mittelwert (Moment erster Ordnung, englisch: Mean Value bzw. Expectation Value):
  • Varianz (Zentralmoment zweiter Ordnung, englisch: Variance):
  • Verteilungsfunktion (VTF, englisch: Cumulative Distribution Function, CDF):

Beachten Sie, dass sowohl die WDF–Fläche als auch der VTF–Endwert stets gleich 1 sind.

Wir betrachten nun mit der Gleichverteilung einen wichtigen Sonderfall. Die Grafik zeigt den Verlauf zweier gleichverteilter Größen, die alle Werte zwischen 1 und 5 (Mittelwert $m_1$ = 3) mit gleicher Wahrscheinlichkeit annehmen können. Links ist das Ergebnis eines Zufallsprozesses dargestellt, rechts ein deterministisches Signal („Sägezahn”) mit gleicher Amplitudenverteilung.

Die Wahrscheinlichkeitsdichtefunktion der Gleichverteilung hat den unten skizzierten Verlauf:


Es ergeben sich hier für den Mittelwert $m_1$ = ${\rm E}[X]$ und die Varianz $σ_2$ = ${\rm E}[(X – m_1)^2]$ folgende Gleichungen:

Unten dargestellt ist die Verteilungsfunktion (VTF):

Diese ist für $x ≤ x_{\rm min}$ identisch 0, steigt danach linear an und erreicht bei $x$ = $x_{\rm max}$ den VTF–Endwert 1. Die Wahrscheinlichkeit, dass die Zufallgröße $X$ einen Wert zwischen 3 und 4 annimmt, kann sowohl aus der WDF als auch aus der VTF ermittelt werden:

Weiterhin ist zu beachten:

  • Das Ergebnis $X$ = 0 ist bei dieser Zufallsgröße ausgeschlossen ⇒ Pr($X$ = 0) = 0.
  • Das Ergebnis $X$ = 4 ist dagegen durchaus möglich. Trotzdem gilt auch hier Pr($X$ = 4) = 0.

Entropie wertkontinuierlicher Zufallsgrößen nach Quantisierung

Wir betrachten nun eine wertkontinuierliche Zufallsgröße $X$ im Bereich von 0 bis 1.

  • Wir quantisieren die kontinuierliche Zufallsgröße $X$, um die bisherige Entropieberechnung weiter anwenden zu können. Die so entstehende diskrete (quantisierte) Größe nennen wir $Z$.
  • Die Quantisierungsstufenzahl sei $M$, so dass jedes Quantisierungsintervall $μ$ bei der vorliegenden WDF die Breite $Δ$ = 1/$M$ aufweist. Die Intervallmitten bezeichnen wir mit $x_μ$. *Die Wahrscheinlichkeit $p_μ$ = Pr($Z$ = $z_μ$) bezüglich $Z$ ist gleich der Wahrscheinlichkeit, dass die kontinuierliche Zufallsgröße $X$ einen Wert zwischen $x_μ – Δ/2$ und $x_μ + Δ/2$ besitzt. *Zunächst setzen wir $M$ = 2 und verdoppeln anschließend $M$ in jeder Iteration. Dadurch wird die Quantisierung zunehmend feiner. Im $n$–ten Versuch gilt dann $M$ = 2$n$ und $Δ$ = 2–$n$.

Beispiel: Die Grafik zeigt die Ergebnisse der ersten drei Versuche für eine dreieckförmige WDF (zwischen 0 und 1): n = 1 ⇒ M = 2 ⇒ Δ = 1/2: H(Z) = 0.811 bit, n = 2 ⇒ M = 4 ⇒ Δ = 1/4: H(Z) = 1.749 bit, n = 3 ⇒ M = 8 ⇒ Δ = 1/8: H(Z) = 2.729 bit.

Zudem können der Grafik noch folgende Größen entnommen werden, zum Beispiel für Δ = 1/8: Die Intervallmitten liegen bei x1 = 1/16, x2 = 3/16, ... , x8 = 15/16 ⇒ xμ = Δ · (μ – 1/2). Die Intervallflächen ergeben sich zu pμ = Δ · fX(xμ) ⇒ p8 = 1/8 · (7/8+1)/2 = 15/64. Damit erhält man PZ(Z) = (1/64, 3/64, 5/64, 7/64, 9/64, 11/64, 13/64, 15/64). Die Ergebnisse dieses Experiments interpretieren wir wie folgt: Die Entropie H(Z) nimmt mit steigendem M immer mehr zu. Der Grenzwert von H(Z) für M → ∞ ⇒ Δ → 0 ist unendlich. Damit ist auch die Entropie H(X) der wertkontinuierlichen Zufallsgröße X unendlich groß. Daraus folgt: Die bisherige Entropie–Definition versagt hier.

Definition und Eigenschaften der differentiellen Entropie

Differentielle Entropie einiger spitzenwertbegrenzter Zufallsgrößen

Differentielle Entropie einiger leistungsbegrenzter Zufallsgrößen

WDF–Herleitung für maximale differentielle Entropie

Aufgaben zu Kapitel 4.1