Aufgaben:Aufgabe 4.6: AWGN–Kanalkapazität: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
(Die Seite wurde neu angelegt: „ {{quiz-Header|Buchseite=Informationstheorie/AWGN–Kanalkapazität bei wertkontinuierlichem Eingang }} right| Wir gehen vom…“)
 
Zeile 40: Zeile 40:
  
 
<quiz display=simple>
 
<quiz display=simple>
{Multiple-Choice Frage
+
 
 +
{Welche Sendeleistung ist für <i>C</i> = 2 bit erforderlich?
 +
|type="{}"}
 +
$C = 2 bit:  PX$ = { 15 3% }
 +
 
 +
{Unter welchen Voraussetzungen ist <i>I</i>(<i>X</i>; <i>Y</i>) = 2 bit überhaupt erreichbar?
 
|type="[]"}
 
|type="[]"}
- Falsch
+
+ <i>P<sub>X</sub></i> ist wie unter (a) ermittelt oder größer.
+ Richtig
+
+ Die Zufallsgröße <i>X</i> ist gaußverteilt.
 +
+ Die Zufallsgröße <i>X</i> ist mittelwertfrei.
 +
+ Die Zufallsgrößen <i>X</i> und <i>N</i> sind unkorreliert.
 +
- Die Zufallsgrößen <i>X</i> und <i>Y</i> sind unkorreliert.
 +
 
 +
 
 +
 
 +
{Berechnen Sie die differentiellen Entropien der Zufallsgrößen <i>N</i>, <i>X</i> und <i>Y</i> bei geeigneter Normierung, zum Beispiel <i>P<sub>N</sub></i> = 1 mW &nbsp;&#8658;&nbsp; <i>P&prime;<sub>N</sub></i> = 1.
 +
|type="{}"}
 +
$h(N)$ = { 2.047 3% }
 +
$h(X)$ = { 4 3% }
 +
$h(Y)$ = { 4.047 3% }
  
  
{Input-Box Frage
+
{Wie lauten die weiteren informationstheoretischen Beschreibungsgrößen?
 
|type="{}"}
 
|type="{}"}
$\alpha$ = { 0.3 }
+
$h(Y|X)$ = { 2.047 3% }
 +
$h(X|Y)$ = { 2 3% }
 +
$h(XY)$ = { 6.047 3% }
  
 +
 +
 +
{Welche Größen ergäben sich bei gleichem <i>P<sub>X</sub></i>&nbsp; im Grenzfall <i>P&prime;<sub>N</sub></i> &nbsp;&#8594;&nbsp; 0?
 +
|type="{}"}
 +
$h(X)$ = { 4 3% }
 +
$h(Y)$ = { 4 3% }
 +
$h(Y|X)$ = { 0 3% }
 +
$h(X|Y)$ = { 0 3% }
 +
$I(X;Y)$ = { 4 3% }
  
  

Version vom 4. April 2017, 17:02 Uhr

P ID2899 Inf A 4 6.png

Wir gehen vom AWGN-Kanalmodell aus:

  • X kennzeichnet den Eingang (Sender).
  • N steht für eine gaußverteilte Störung.
  • Y = X + N beschreibt den Ausgang (Empfänger) bei additiver Störung.

Für die Wahrscheinlichkeitsdichtefunktion der Störung gelte: $$f_N(n) = \frac{1}{\sqrt{2\pi \sigma_N^2}} \cdot {\rm exp}\left [ - \hspace{0.05cm}\frac{n^2}{2 \sigma_N^2} \right ] \hspace{0.05cm}.$$ Da die Zufallsgröße N mittelwertfrei ist  ⇒  mN = 0, kann man die Varianz σN2 mit der Leistung PN gleichsetzen. In diesem Fall ist die differentielle Entropie der Zufallsgröße N wie folgt angebbar (mit Pseudo–Einheit „bit”): $$h(N) = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot P_N \right )\hspace{0.05cm}.$$ In dieser Aufgabe wird PN = 1 mW vorgegeben. Dabei ist zu beachten:

  • Die Leistung PN in obiger Gleichung muss wie die Varianz σN2 dimensionslos sein.
  • Um mit dieser Gleichung arbeiten zu können, muss die physikalische Größe PN geeignet normiert werden, zum Beispiel entsprechend PN = 1 mW  ⇒  P'N = 1.
  • Bei anderer Normierung, beispielsweise PN = 1 mW  ⇒  P'N = 0.001 ergäbe sich für h(N) ein völlig anderer Zahlenwert.

Weiter können Sie bei der Lösung dieser Aufgabe berücksichtigen:

  • Die Kanalkapazität ist definiert als die maximale Transinformation zwischen Eingang X und Ausgang Y bei bestmöglicher Eingangsverteilung:

$$C = \max_{\hspace{-0.15cm}f_X:\hspace{0.05cm} {\rm E}[X^2] \le P_X} \hspace{-0.2cm} I(X;Y) \hspace{0.05cm}.$$

  • Die Kanalkapazität des AWGN–Kanals lautet:

$$C_{\rm AWGN} = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P_X}{P_N} \right ) = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P\hspace{0.05cm}'_{\hspace{-0.05cm}X}}{P\hspace{0.05cm}'_{\hspace{-0.05cm}N}} \right )\hspace{0.05cm}.$$ Daraus ist ersichtlich, dass die die Kanalkapazität C und auch die Transinformation I(X; Y) im Gegensatz zu den differentiellen Entropien unabhängig von obiger Normierung ist.

  • Bei gaußförmiger Stör–WDF fN(n) führt eine ebenfalls gaußförmige Eingangs–WDF fX(x) zur maximalen Transinformation und damit zur Kanalkapazität.

Hinweis: Die Aufgabe gehört zum Themengebiet von Kapitel 4.2.

Fragebogen

1

Welche Sendeleistung ist für C = 2 bit erforderlich?

$C = 2 bit: PX$ =

2

Unter welchen Voraussetzungen ist I(X; Y) = 2 bit überhaupt erreichbar?

PX ist wie unter (a) ermittelt oder größer.
Die Zufallsgröße X ist gaußverteilt.
Die Zufallsgröße X ist mittelwertfrei.
Die Zufallsgrößen X und N sind unkorreliert.
Die Zufallsgrößen X und Y sind unkorreliert.

3

Berechnen Sie die differentiellen Entropien der Zufallsgrößen N, X und Y bei geeigneter Normierung, zum Beispiel PN = 1 mW  ⇒  P′N = 1.

$h(N)$ =

$h(X)$ =

$h(Y)$ =

4

Wie lauten die weiteren informationstheoretischen Beschreibungsgrößen?

$h(Y|X)$ =

$h(X|Y)$ =

$h(XY)$ =

5

Welche Größen ergäben sich bei gleichem PX  im Grenzfall P′N  →  0?

$h(X)$ =

$h(Y)$ =

$h(Y|X)$ =

$h(X|Y)$ =

$I(X;Y)$ =


Musterlösung

1. 2. 3. 4. 5. 6. 7.