Aufgaben:Aufgabe 4.6: AWGN–Kanalkapazität: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
(14 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 3: Zeile 3:
 
}}
 
}}
  
[[Datei:P_ID2899__Inf_A_4_6.png|right|]]
+
[[Datei:P_ID2899__Inf_A_4_6.png|right|frame|Flussdiagramm der Information]]
Wir gehen vom [http://www.lntwww.de/Informationstheorie/AWGN–Kanalkapazität_bei_wertkontinuierlichem_Eingang#Kanalkapazit.C3.A4t_des_AWGN.E2.80.93Kanals '''AWGN-Kanalmodell'''] aus:
+
Wir gehen vom[  [[Informationstheorie/AWGN–Kanalkapazität_bei_wertkontinuierlichem_Eingang#Kanalkapazit.C3.A4t_des_AWGN.E2.80.93Kanals| AWGN-Kanalmodell]]  aus:
:* ''X'' kennzeichnet den Eingang (Sender).
+
* $X$  kennzeichnet den Eingang (Sender).
:*''N'' steht für eine gaußverteilte Störung.
+
* $N$  steht für eine gaußverteilte Störung.
:*<i>Y</i> = <i>X</i> + <i>N</i> beschreibt den Ausgang (Empfänger) bei additiver Störung.
+
* $Y = X +N$&nbsp; beschreibt den Ausgang (Empfänger) bei additiver Störung.
 +
 
  
 
Für die Wahrscheinlichkeitsdichtefunktion der Störung gelte:
 
Für die Wahrscheinlichkeitsdichtefunktion der Störung gelte:
$$f_N(n) = \frac{1}{\sqrt{2\pi \sigma_N^2}} \cdot {\rm exp}\left [
+
:$$f_N(n) = \frac{1}{\sqrt{2\pi \hspace{0.03cm}\sigma_{\hspace{-0.05cm}N}^2}} \cdot {\rm e}^{
- \hspace{0.05cm}\frac{n^2}{2 \sigma_N^2} \right ] \hspace{0.05cm}.$$
+
- \hspace{0.05cm}{n^2}\hspace{-0.05cm}/{(2 \hspace{0.03cm} \sigma_{\hspace{-0.05cm}N}^2) }} \hspace{0.05cm}.$$
Da die Zufallsgröße <i>N</i> mittelwertfrei ist &nbsp;&#8658;&nbsp; <i>m<sub>N</sub></i> = 0, kann man die Varianz <i>&sigma;<sub>N</sub></i><sup>2</sup> mit der Leistung <i>P<sub>N</sub></i> gleichsetzen. In diesem Fall ist die differentielle Entropie der Zufallsgröße <i>N</i> wie folgt angebbar (mit Pseudo&ndash;Einheit &bdquo;bit&rdquo;):
+
Da die Zufallsgröße&nbsp; $N$&nbsp; mittelwertfrei ist &nbsp; &#8658; &nbsp; $m_{N} = 0$,&nbsp; kann man die Varianz &nbsp;$\sigma_{\hspace{-0.05cm}N}^2$&nbsp; mit der Leistung &nbsp;$P_N$&nbsp; gleichsetzen.&nbsp; In diesem Fall ist die differentielle Entropie der Zufallsgröße&nbsp; $N$&nbsp; wie folgt angebbar (mit der Pseudo&ndash;Einheit &bdquo;bit&rdquo;):
$$h(N) = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot P_N \right )\hspace{0.05cm}.$$
+
:$$h(N) = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot P_N \right )\hspace{0.05cm}.$$
In dieser Aufgabe wird <i>P<sub>N</sub></i> = 1 mW vorgegeben. Dabei ist zu beachten:
+
In dieser Aufgabe wird &nbsp;$P_N = 1\hspace{0.1cm} \rm mW$&nbsp; vorgegeben.&nbsp; Dabei ist zu beachten:
 +
 
 +
* Die Leistung&nbsp; $P_N$&nbsp; in obiger Gleichung muss wie die Varianz &nbsp;$\sigma_{\hspace{-0.05cm}N}^2$&nbsp; dimensionslos sein.
  
:* Die Leistung <i>P<sub>N</sub></i> in obiger Gleichung muss wie die Varianz <i>&sigma;<sub>N</sub></i><sup>2</sup> dimensionslos sein.
+
* Um mit dieser Gleichung arbeiten zu können, muss die physikalische Größe &nbsp;$P_N$&nbsp; geeignet normiert werden, zum Beispiel entsprechend&nbsp; $P_N = 1\hspace{0.1cm} \rm mW$ &nbsp;&nbsp; &#8658; &nbsp;&nbsp; $P_N\hspace{0.01cm}' = 1$.
  
:* Um mit dieser Gleichung arbeiten zu können, muss die physikalische Größe <i>P<sub>N</sub></i> geeignet normiert werden, zum Beispiel entsprechend <i>P<sub>N</sub></i>&nbsp;=&nbsp;1&nbsp;mW&nbsp;&nbsp;&#8658;&nbsp;&nbsp;<i>P'<sub>N</sub></i>&nbsp;=&nbsp;1.
+
* Bei anderer Normierung, beispielsweise &nbsp;$P_N = 1\hspace{0.1cm} \rm mW$&nbsp; &nbsp;&nbsp; &#8658; &nbsp;&nbsp; &nbsp;$P_N\hspace{0.01cm}' = 0.001$&nbsp; ergäbe sich für &nbsp;$h(N)$&nbsp; ein völlig anderer Zahlenwert.
  
:* Bei anderer Normierung, beispielsweise <i>P<sub>N</sub></i> = 1 mW &nbsp;&#8658;&nbsp;  <i>P'<sub>N</sub></i> = 0.001 ergäbe sich für <i>h</i>(<i>N</i>) ein völlig anderer Zahlenwert.
 
  
Weiter können Sie bei der Lösung dieser Aufgabe berücksichtigen:
+
Weiter können Sie für die Lösung dieser Aufgabe berücksichtigen:
  
:* Die Kanalkapazität ist definiert als die maximale Transinformation zwischen Eingang <i>X</i> und Ausgang <i>Y</i> bei bestmöglicher Eingangsverteilung:   
+
* Die Kanalkapazität ist definiert als die maximale Transinformation zwischen Eingang&nbsp; $X$&nbsp; und Ausgang&nbsp; $Y$&nbsp; bei bestmöglicher Eingangsverteilung:   
$$C = \max_{\hspace{-0.15cm}f_X:\hspace{0.05cm} {\rm E}[X^2] \le P_X} \hspace{-0.2cm}  I(X;Y)   
+
:$$C = \max_{\hspace{-0.15cm}f_X:\hspace{0.05cm} {\rm E}[X^2] \le P_X} \hspace{-0.2cm}  I(X;Y)   
 
\hspace{0.05cm}.$$
 
\hspace{0.05cm}.$$
  
:*Die Kanalkapazität des AWGN&ndash;Kanals lautet:
+
*Die Kanalkapazität des AWGN&ndash;Kanals lautet:
$$C_{\rm AWGN} = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P_X}{P_N} \right )
+
:$$C_{\rm AWGN} = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P_X}{P_N} \right )
= {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P\hspace{0.05cm}'_{\hspace{-0.05cm}X}}{P\hspace{0.05cm}'_{\hspace{-0.05cm}N}} \right )\hspace{0.05cm}.$$
+
= {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P_{\hspace{-0.05cm}X}\hspace{0.01cm}'}{P_{\hspace{-0.05cm}N}\hspace{0.01cm}'} \right )\hspace{0.05cm}.$$
Daraus ist ersichtlich, dass die die Kanalkapazität <i>C</i> und auch die Transinformation <i>I</i>(<i>X</i>; <i>Y</i>) im Gegensatz zu den differentiellen Entropien unabhängig von obiger Normierung ist.
+
:Man erkennt:&nbsp; Die Kanalkapazität&nbsp; $C$&nbsp; und auch die Transinformation &nbsp;$I(X; Y)$&nbsp; sind im Gegensatz zu den differentiellen Entropien unabhängig von obiger Normierung.
 +
 
 +
* Bei gaußförmiger Stör&ndash;WDF &nbsp;$f_N(n)$&nbsp; führt eine ebenfalls gaußförmige Eingangs&ndash;WDF $f_X(x)$&nbsp; zur maximalen Transinformation und damit zur Kanalkapazität.
  
:* Bei gaußförmiger Stör&ndash;WDF <i>f<sub>N</sub></i>(<i>n</i>) führt eine ebenfalls gaußförmige Eingangs&ndash;WDF <i>f<sub>X</sub></i>(<i>x</i>) zur maximalen Transinformation und damit zur Kanalkapazität.
 
  
'''Hinweis:''' Die Aufgabe gehört zum Themengebiet von [http://www.lntwww.de/Informationstheorie/AWGN–Kanalkapazität_bei_wertkontinuierlichem_Eingang '''Kapitel 4.2.''']
+
 
 +
 
 +
 
 +
 
 +
 
 +
''Hinweise:''  
 +
*Die Aufgabe gehört zum Kapitel&nbsp; [[Informationstheorie/AWGN–Kanalkapazität_bei_wertkontinuierlichem_Eingang|AWGN–Kanalkapazität bei wertkontinuierlichem Eingang]].
 +
*Da die Ergebnisse in &bdquo;bit&rdquo; angegeben werden sollen,&nbsp; wird in den Gleichungen  &bdquo;log&rdquo; &nbsp;&#8658;&nbsp; &bdquo;log<sub>2</sub>&rdquo; verwendet.  
 +
 +
 
  
 
===Fragebogen===
 
===Fragebogen===
Zeile 41: Zeile 53:
 
<quiz display=simple>
 
<quiz display=simple>
  
{Welche Sendeleistung ist für <i>C</i> = 2 bit erforderlich?
+
{Welche Sendeleistung ist für &nbsp;$C = 2 \ \rm bit$&nbsp; erforderlich?
 
|type="{}"}
 
|type="{}"}
$C = 2 bit:  PX$ = { 15 3% }
+
$P_X \ = \ $ { 15 3% } $\ \rm mW$
  
{Unter welchen Voraussetzungen ist <i>I</i>(<i>X</i>; <i>Y</i>) = 2 bit überhaupt erreichbar?
+
{Unter welchen Voraussetzungen ist &nbsp;$I(X; Y) = 2 \ \rm bit$&nbsp; überhaupt erreichbar?
 
|type="[]"}
 
|type="[]"}
+ <i>P<sub>X</sub></i> ist wie unter (a) ermittelt oder größer.
+
+ $P_X$&nbsp; ist wie unter&nbsp; '''(1)'''&nbsp; ermittelt oder größer.
+ Die Zufallsgröße <i>X</i> ist gaußverteilt.
+
+ Die Zufallsgröße&nbsp; $X$&nbsp; ist gaußverteilt.
+ Die Zufallsgröße <i>X</i> ist mittelwertfrei.
+
+ Die Zufallsgröße&nbsp; $X$&nbsp; ist mittelwertfrei.
+ Die Zufallsgrößen <i>X</i> und <i>N</i> sind unkorreliert.
+
+ Die Zufallsgrößen&nbsp; $X$&nbsp; und&nbsp; $N$&nbsp; sind unkorreliert.
- Die Zufallsgrößen <i>X</i> und <i>Y</i> sind unkorreliert.
+
- Die Zufallsgrößen&nbsp; $X$&nbsp; und&nbsp; $Y$&nbsp; sind unkorreliert.
  
  
  
{Berechnen Sie die differentiellen Entropien der Zufallsgrößen <i>N</i>, <i>X</i> und <i>Y</i> bei geeigneter Normierung, zum Beispiel <i>P<sub>N</sub></i> = 1 mW &nbsp;&#8658;&nbsp; <i>P&prime;<sub>N</sub></i> = 1.
+
{Berechnen Sie die differentiellen Entropien der Zufallsgrößen&nbsp; $N$,&nbsp; $X$&nbsp; und&nbsp; $Y$&nbsp; bei geeigneter Normierung, <br>zum Beispiel&nbsp;  $P_N = 1 \hspace{0.1cm} \rm mW$ &nbsp;&nbsp; &#8658; &nbsp;&nbsp; $P_N\hspace{0.01cm}' = 1$.
 
|type="{}"}
 
|type="{}"}
$h(N)$ = { 2.047 3% }
+
$h(N) \ = \ $ { 2.047 3% } $\ \rm bit$
$h(X)$ = { 4 3% }
+
$h(X) \ = \ $ { 4 3% } $\ \rm bit$
$h(Y)$ = { 4.047 3% }
+
$h(Y) \ = \ $ { 4.047 3% } $\ \rm bit$
  
  
 
{Wie lauten die weiteren informationstheoretischen Beschreibungsgrößen?
 
{Wie lauten die weiteren informationstheoretischen Beschreibungsgrößen?
 
|type="{}"}
 
|type="{}"}
$h(Y|X)$ = { 2.047 3% }
+
$h(Y|X) \ = \ $ { 2.047 3% } $\ \rm bit$
$h(X|Y)$ = { 2 3% }
+
$h(X|Y) \ = \ $ { 2 3% } $\ \rm bit$
$h(XY)$ = { 6.047 3% }
+
$h(XY) \ = \ $ { 6.047 3% } $\ \rm bit$
  
  
  
{Welche Größen ergäben sich bei gleichem <i>P<sub>X</sub></i>&nbsp; im Grenzfall <i>P&prime;<sub>N</sub></i> &nbsp;&#8594;&nbsp; 0?
+
{Welche Größen ergäben sich bei gleichem&nbsp; $P_X$&nbsp; im Grenzfall&nbsp; $P_N\hspace{0.01cm} ' \to 0$ ?
 
|type="{}"}
 
|type="{}"}
$h(X)$ = { 4 3% }
+
$h(X) \ = \ $ { 4 3% } $\ \rm bit$
$h(Y)$ = { 4 3% }
+
$h(Y|X) \ = \ $ { 0 3% } $\ \rm bit$
$h(Y|X)$ = { 0 3% }
+
$h(Y) \ = \ $ { 4 3% } $\ \rm bit$
$h(X|Y)$ = { 0 3% }
+
$I(X;Y) \ = \ $ { 4 3% } $\ \rm bit$
$I(X;Y)$ = { 4 3% }
+
$h(X|Y) \ = \ $ { 0. } $\ \rm bit$
 +
 
  
  
Zeile 83: Zeile 96:
 
===Musterlösung===
 
===Musterlösung===
 
{{ML-Kopf}}
 
{{ML-Kopf}}
<b>a)</b>&nbsp;&nbsp;Die Gleichung für die AWGN&ndash;Kanalkapazität in &bdquo;bit&rdquo; lautet:
+
'''(1)'''&nbsp; Die Gleichung für die AWGN&ndash;Kanalkapazität in &bdquo;bit&rdquo; lautet:  
$$C_{\rm bit} = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P_X}{P_N} \right )\hspace{0.05cm}.$$
+
:$$C_{\rm bit} = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + {P_X}/{P_N} \right )\hspace{0.05cm}.$$
Mit <i>C</i><sub>bit</sub> = 2 ergibt sich daraus:
+
*Mit&nbsp; $C_{\rm bit} = 2$&nbsp; ergibt sich daraus:
$$4 \stackrel{!}{=} {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P_X}{P_N} \right )
+
:$$4 \stackrel{!}{=} {\rm log}_2\hspace{0.05cm}\left ( 1 + {P_X}/{P_N} \right )
\hspace{0.3cm}\Rightarrow \hspace{0.3cm} 1 + \frac{P_X}{P_N} \stackrel {!}{=} 2^4 = 16
+
\hspace{0.3cm}\Rightarrow \hspace{0.3cm} 1 + {P_X}/{P_N} \stackrel {!}{=} 2^4 = 16
 
\hspace{0.3cm}\Rightarrow \hspace{0.3cm} P_X = 15 \cdot P_N
 
\hspace{0.3cm}\Rightarrow \hspace{0.3cm} P_X = 15 \cdot P_N
 
\hspace{0.15cm}\underline{= 15\,{\rm mW}}
 
\hspace{0.15cm}\underline{= 15\,{\rm mW}}
 
\hspace{0.05cm}. $$
 
\hspace{0.05cm}. $$
<b>b)</b>&nbsp;&nbsp;Richtig sind die <u>Lösungsvorschläge 1 bis 4</u>. Begründung:
+
 
:* Für <i>P<sub>X</sub></i> < 15 mW wird die Transinformation <i>I</i>(<i>X</i>; <i>Y</i>) stets kleiner als 2 bit sein, unabhängig von allen anderen Gegebenheiten.
+
 
:* Mit <i>P<sub>X</sub></i> = 15 mW ist die maximale Transinformation <i>I</i>(<i>X</i>; <i>Y</i>) = 2 bit nur  erreichbar, wenn die Eingangsgröße <i>X</i> gaußverteilt ist.  Die Ausgangsgröße <i>Y</i> ist dann ebenfalls gaußverteilt.
+
 
:* Weist die Zufallsgröße <i>X</i> einen Gleichanteil <i>m<sub>X</sub></i> auf, so ist die Varianz <i>&sigma;<sub>X</sub></i><sup>2</sup> = <i>P<sub>X</sub></i> &ndash; <i>m<sub>X</sub></i><sup>2</sup> bei gegebenem <i>P<sub>X</sub></i> &nbsp;kleiner, und es gilt <i>I</i>(<i>X</i>;<i>Y</i>) = 1/2 &middot; log<sub>2</sub> (1 + <i>&sigma;<sub>X</sub></i><sup>2</sup>/<i>P<sub>N</sub></i>) < 2 bit.
+
'''(2)'''&nbsp; Richtig sind die <u>Lösungsvorschläge 1 bis 4</u>.&nbsp; Begründung:
:*  Voraussetzung für die gegebene Kanalkapazitätsgleichung ist, dass <i>X</i> und <i>N</i> unkorreliert sind. Wären dagegen die Zufallsgrößen <i>X</i> und <i>Y</i> unkorreliert, so ergäbe sich <i>I</i>(<i>X</i>; <i>Y</i>) = 0.
+
* Für &nbsp;$P_X < 15 \ \rm mW$&nbsp; wird die Transinformation &nbsp;$I(X; Y)$&nbsp; stets kleiner als&nbsp; $2$&nbsp; bit sein, unabhängig von allen anderen Gegebenheiten.
<b>c)</b>&nbsp;&nbsp;Die angegebene Gleichung für die differentielle Entropie macht nur bei dimensionsloser Leistung Sinn. Mit der vorgeschlagenen Normierung erhält man:
+
* Mit &nbsp;$P_X = 15 \ \rm mW$&nbsp; ist die maximale Transinformation &nbsp;$I(X; Y) = 2$&nbsp; bit nur  erreichbar, wenn die Eingangsgröße&nbsp; $X$&nbsp; gaußverteilt ist.&nbsp; <br>Die Ausgangsgröße&nbsp; $Y$&nbsp; ist dann ebenfalls gaußverteilt.
[[Datei: P_ID2901__Inf_A_4_6c.png |right|]]
+
* Weist die Zufallsgröße&nbsp; $X$&nbsp; einen Gleichanteil &nbsp;$m_X$&nbsp; auf, so ist die Varianz &nbsp;$\sigma_X^2 = P_X - m_X^2 $&nbsp; bei gegebenem&nbsp; $P_X$ &nbsp;kleiner, und es gilt &nbsp;$I(X; Y) = 1/2 &middot; \log_2 \ (1 + \sigma_X^2/P_N) < 2$&nbsp; bit.
:* <i>P<sub>N</sub></i> = 1 mW &nbsp;&#8658;&nbsp; <i>P'<sub>N</sub></i> = 1:
+
*  Voraussetzung für die gegebene Kanalkapazitätsgleichung ist, dass&nbsp; $X$ &nbsp;und&nbsp; $N$&nbsp; unkorreliert sind.&nbsp;
$$h(N) \  =  \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot 1 \right ) $$ $$
+
*Wären dagegen die Zufallsgrößen&nbsp; $X$ &nbsp;und&nbsp; $N$&nbsp; unkorreliert, so ergäbe sich &nbsp;$I(X; Y) = 0$.
 +
 
 +
 
 +
 
 +
 
 +
[[Datei: P_ID2901__Inf_A_4_6c.png |right|frame|Informationstheoretische Größen für den AWGN-Kanal]]
 +
'''(3)'''&nbsp; Die angegebene Gleichung für die differentielle Entropie macht nur bei dimensionsloser Leistung Sinn.&nbsp; Mit der vorgeschlagenen Normierung erhält man:
 +
* Für &nbsp;$P_N = 1 \ \rm mW$&nbsp; &nbsp;&#8658;&nbsp; &nbsp;$P_N\hspace{0.05cm}' = 1$:
 +
:$$h(N) \  =  \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot 1 \right )  
 
   =  \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 17.08 \right )
 
   =  \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 17.08 \right )
\hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm},$$
+
\hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}.$$
:*<i>P<sub>X</sub></i> = 15 mW &nbsp;&#8658;&nbsp; <i>P&prime;<sub>X</sub></i> = 15:
+
* Für &nbsp;$P_X = 15 \ \rm mW$&nbsp; &nbsp;&#8658;&nbsp; &nbsp;$P_X\hspace{0.01cm}' = 15$:
$$h(X) \  =  \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot 15 \right ) $$
+
:$$h(X) \  =  \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot 15 \right )   =  {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e}  \right ) +  
$$  =  {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e}  \right ) +  
+
{1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left (15 \right )  
{1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left (15 \right ) $$
+
\hspace{0.15cm}\underline{= 4.000\,{\rm bit}}\hspace{0.05cm}. $$
$$ =  \ 2.047\,{\rm bit} + 1.953\,{\rm bit}
+
Für &nbsp;$P_Y = P_X  + P_N = 16 \ \rm mW$&nbsp; &nbsp;&#8658;&nbsp; $P_Y\hspace{0.01cm}' = 16$:
\hspace{0.15cm}\underline{= 4.000\,{\rm bit}}\hspace{0.05cm}, $$
+
:$$h(Y) = 2.047\,{\rm bit} + 2.000\,{\rm bit}
:<i>P<sub>Y</sub></i> = <i>P<sub>X</sub></i> + <i>P<sub>N</sub></i> = 16 mW &nbsp;&#8658;&nbsp; <i>P&prime;<sub>Y</sub></i> = 16:
 
$$h(Y) = 2.047\,{\rm bit} + 2.000\,{\rm bit}
 
 
\hspace{0.15cm}\underline{= 4.047\,{\rm bit}}\hspace{0.05cm}.$$
 
\hspace{0.15cm}\underline{= 4.047\,{\rm bit}}\hspace{0.05cm}.$$
<b>d)</b>&nbsp;&nbsp;Für die differentielle Irrelevanz gilt beim AWGN&ndash;Kanal:
+
 
$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(N) \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}.$$
+
 
Entsprechend nebenstehender Grafik gilt aber auch:
+
 
$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(Y) - I(X;Y) = 4.047 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}. $$
+
'''(4)'''&nbsp; Für die differentielle Irrelevanz gilt beim AWGN&ndash;Kanal:
Entsprechend kann die differentielle Äquivokation wie folgt berechnet werden:
+
:$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(N) \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}.$$
$$h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) = h(X) - I(X;Y) = 4.000 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 2.000\,{\rm bit}}\hspace{0.05cm}.$$
+
*Entsprechend nebenstehender Grafik gilt aber auch:
Abschließend wird auch noch die differentielle Verbundentropie angegeben, die aus obigem Schaubild nicht direkt ablesbar ist:
+
:$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(Y) - I(X;Y) = 4.047 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}. $$
$$h(XY) = h(X) + h(Y) - I(X;Y) = 4.000 \,{\rm bit} + 4.047 \,{\rm bit}  - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 6.047\,{\rm bit}}\hspace{0.05cm}.$$
+
*Daraus kann die differentielle Äquivokation wie folgt berechnet werden:
[[Datei: P_ID2900__Inf_A_4_6e.png |right|]]
+
:$$h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) = h(X) - I(X;Y) = 4.000 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 2.000\,{\rm bit}}\hspace{0.05cm}.$$
<b>e)</b>&nbsp;&nbsp;Bei einem idealen Kanal erhält man mit <u><i>h</i>(<i>X</i>) = 4 bit</u>:
+
 
$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) \  =  \ h(N) \hspace{0.15cm}\underline{= 0\,{\rm (bit)}}\hspace{0.05cm},$$ $$
+
*Abschließend wird auch noch die differentielle Verbundentropie angegeben, die aus obigem Schaubild nicht direkt ablesbar ist:
h(Y) \  =  \ h(X) \hspace{0.15cm}\underline{= 4\,{\rm bit}}\hspace{0.05cm},$$ $$
+
[[Datei: P_ID2900__Inf_A_4_6e.png |right|frame|Informationstheoretische Größen beim idealen Kanal]]
I(X;Y) \  =  \ h(Y) - h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X)\hspace{0.15cm}\underline{= 4\,{\rm bit}}\hspace{0.05cm},$$ $$
+
:$$h(XY) = h(X) + h(Y) - I(X;Y) = 4.000 \,{\rm bit} + 4.047 \,{\rm bit}  - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 6.047\,{\rm bit}}\hspace{0.05cm}.$$
 +
 
 +
 
 +
 
 +
'''(5)'''&nbsp; Beim idealen Kanal erhält man mit&nbsp; $h(X)\hspace{0.15cm}\underline{= 4.000 \,{\rm bit}}$:
 +
:$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) \  =  \ h(N) \hspace{0.15cm}\underline{= 0\,{\rm (bit)}}\hspace{0.05cm},$$  
 +
:$$h(Y) \  =  \ h(X) \hspace{0.15cm}\underline{= 4\,{\rm bit}}\hspace{0.05cm},$$
 +
:$$I(X;Y) \  =  \ h(Y) - h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X)\hspace{0.15cm}\underline{= 4\,{\rm bit}}\hspace{0.05cm},$$ $$
 
h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) \  =  \ h(X) - I(X;Y)\hspace{0.15cm}\underline{= 0\,{\rm (bit)}}\hspace{0.05cm}.$$
 
h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) \  =  \ h(X) - I(X;Y)\hspace{0.15cm}\underline{= 0\,{\rm (bit)}}\hspace{0.05cm}.$$
Die Grafik zeigt diese Größen in einem Flussdiagramm.
 
  
<br><br><br>
+
*Die Grafik zeigt diese Größen in einem Flussdiagramm.
Das gleiche Diagramm ergäbe sich auch im wertdiskreten Fall mit <i>M</i> = 16 gleichwahrscheinlichen Symbolen &nbsp;&#8658;&nbsp; <i>H</i>(<i>X</i>) = 4 bit. Man müsste nur jedes &bdquo;<i>h</i>&rdquo; durch ein &bdquo;<i>H</i>&rdquo; ersetzen.
+
 
<br><br>
+
*Das gleiche Diagramm ergäbe sich auch im wertdiskreten Fall mit&nbsp; $M = 16$&nbsp; gleichwahrscheinlichen Symbolen &nbsp; &#8658; &nbsp; $H(X)= 4.000 \,{\rm bit}$.  
 +
*Man müsste nur jedes&nbsp; $h$&nbsp; durch ein&nbsp; $H$&nbsp; ersetzen.
  
x
 
 
{{ML-Fuß}}
 
{{ML-Fuß}}
  
  
  
[[Category:Aufgaben zu Informationstheorie|^4.2 AWGN–Kanalkapazität bei wertkontinuierlichem Eingang^]]
+
[[Category:Aufgaben zu Informationstheorie|^4.2 AWGN & kontinuierlicher Eingang^]]

Aktuelle Version vom 2. Oktober 2021, 13:21 Uhr

Flussdiagramm der Information

Wir gehen vom[  AWGN-Kanalmodell  aus:

  • $X$  kennzeichnet den Eingang (Sender).
  • $N$  steht für eine gaußverteilte Störung.
  • $Y = X +N$  beschreibt den Ausgang (Empfänger) bei additiver Störung.


Für die Wahrscheinlichkeitsdichtefunktion der Störung gelte:

$$f_N(n) = \frac{1}{\sqrt{2\pi \hspace{0.03cm}\sigma_{\hspace{-0.05cm}N}^2}} \cdot {\rm e}^{ - \hspace{0.05cm}{n^2}\hspace{-0.05cm}/{(2 \hspace{0.03cm} \sigma_{\hspace{-0.05cm}N}^2) }} \hspace{0.05cm}.$$

Da die Zufallsgröße  $N$  mittelwertfrei ist   ⇒   $m_{N} = 0$,  kann man die Varianz  $\sigma_{\hspace{-0.05cm}N}^2$  mit der Leistung  $P_N$  gleichsetzen.  In diesem Fall ist die differentielle Entropie der Zufallsgröße  $N$  wie folgt angebbar (mit der Pseudo–Einheit „bit”):

$$h(N) = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot P_N \right )\hspace{0.05cm}.$$

In dieser Aufgabe wird  $P_N = 1\hspace{0.1cm} \rm mW$  vorgegeben.  Dabei ist zu beachten:

  • Die Leistung  $P_N$  in obiger Gleichung muss wie die Varianz  $\sigma_{\hspace{-0.05cm}N}^2$  dimensionslos sein.
  • Um mit dieser Gleichung arbeiten zu können, muss die physikalische Größe  $P_N$  geeignet normiert werden, zum Beispiel entsprechend  $P_N = 1\hspace{0.1cm} \rm mW$    ⇒    $P_N\hspace{0.01cm}' = 1$.
  • Bei anderer Normierung, beispielsweise  $P_N = 1\hspace{0.1cm} \rm mW$     ⇒     $P_N\hspace{0.01cm}' = 0.001$  ergäbe sich für  $h(N)$  ein völlig anderer Zahlenwert.


Weiter können Sie für die Lösung dieser Aufgabe berücksichtigen:

  • Die Kanalkapazität ist definiert als die maximale Transinformation zwischen Eingang  $X$  und Ausgang  $Y$  bei bestmöglicher Eingangsverteilung:
$$C = \max_{\hspace{-0.15cm}f_X:\hspace{0.05cm} {\rm E}[X^2] \le P_X} \hspace{-0.2cm} I(X;Y) \hspace{0.05cm}.$$
  • Die Kanalkapazität des AWGN–Kanals lautet:
$$C_{\rm AWGN} = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P_X}{P_N} \right ) = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P_{\hspace{-0.05cm}X}\hspace{0.01cm}'}{P_{\hspace{-0.05cm}N}\hspace{0.01cm}'} \right )\hspace{0.05cm}.$$
Man erkennt:  Die Kanalkapazität  $C$  und auch die Transinformation  $I(X; Y)$  sind im Gegensatz zu den differentiellen Entropien unabhängig von obiger Normierung.
  • Bei gaußförmiger Stör–WDF  $f_N(n)$  führt eine ebenfalls gaußförmige Eingangs–WDF $f_X(x)$  zur maximalen Transinformation und damit zur Kanalkapazität.




Hinweise:


Fragebogen

1

Welche Sendeleistung ist für  $C = 2 \ \rm bit$  erforderlich?

$P_X \ = \ $

$\ \rm mW$

2

Unter welchen Voraussetzungen ist  $I(X; Y) = 2 \ \rm bit$  überhaupt erreichbar?

$P_X$  ist wie unter  (1)  ermittelt oder größer.
Die Zufallsgröße  $X$  ist gaußverteilt.
Die Zufallsgröße  $X$  ist mittelwertfrei.
Die Zufallsgrößen  $X$  und  $N$  sind unkorreliert.
Die Zufallsgrößen  $X$  und  $Y$  sind unkorreliert.

3

Berechnen Sie die differentiellen Entropien der Zufallsgrößen  $N$,  $X$  und  $Y$  bei geeigneter Normierung,
zum Beispiel  $P_N = 1 \hspace{0.1cm} \rm mW$    ⇒    $P_N\hspace{0.01cm}' = 1$.

$h(N) \ = \ $

$\ \rm bit$
$h(X) \ = \ $

$\ \rm bit$
$h(Y) \ = \ $

$\ \rm bit$

4

Wie lauten die weiteren informationstheoretischen Beschreibungsgrößen?

$h(Y|X) \ = \ $

$\ \rm bit$
$h(X|Y) \ = \ $

$\ \rm bit$
$h(XY) \ = \ $

$\ \rm bit$

5

Welche Größen ergäben sich bei gleichem  $P_X$  im Grenzfall  $P_N\hspace{0.01cm} ' \to 0$ ?

$h(X) \ = \ $

$\ \rm bit$
$h(Y|X) \ = \ $

$\ \rm bit$
$h(Y) \ = \ $

$\ \rm bit$
$I(X;Y) \ = \ $

$\ \rm bit$
$h(X|Y) \ = \ $

$\ \rm bit$


Musterlösung

(1)  Die Gleichung für die AWGN–Kanalkapazität in „bit” lautet:

$$C_{\rm bit} = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + {P_X}/{P_N} \right )\hspace{0.05cm}.$$
  • Mit  $C_{\rm bit} = 2$  ergibt sich daraus:
$$4 \stackrel{!}{=} {\rm log}_2\hspace{0.05cm}\left ( 1 + {P_X}/{P_N} \right ) \hspace{0.3cm}\Rightarrow \hspace{0.3cm} 1 + {P_X}/{P_N} \stackrel {!}{=} 2^4 = 16 \hspace{0.3cm}\Rightarrow \hspace{0.3cm} P_X = 15 \cdot P_N \hspace{0.15cm}\underline{= 15\,{\rm mW}} \hspace{0.05cm}. $$


(2)  Richtig sind die Lösungsvorschläge 1 bis 4.  Begründung:

  • Für  $P_X < 15 \ \rm mW$  wird die Transinformation  $I(X; Y)$  stets kleiner als  $2$  bit sein, unabhängig von allen anderen Gegebenheiten.
  • Mit  $P_X = 15 \ \rm mW$  ist die maximale Transinformation  $I(X; Y) = 2$  bit nur erreichbar, wenn die Eingangsgröße  $X$  gaußverteilt ist. 
    Die Ausgangsgröße  $Y$  ist dann ebenfalls gaußverteilt.
  • Weist die Zufallsgröße  $X$  einen Gleichanteil  $m_X$  auf, so ist die Varianz  $\sigma_X^2 = P_X - m_X^2 $  bei gegebenem  $P_X$  kleiner, und es gilt  $I(X; Y) = 1/2 · \log_2 \ (1 + \sigma_X^2/P_N) < 2$  bit.
  • Voraussetzung für die gegebene Kanalkapazitätsgleichung ist, dass  $X$  und  $N$  unkorreliert sind. 
  • Wären dagegen die Zufallsgrößen  $X$  und  $N$  unkorreliert, so ergäbe sich  $I(X; Y) = 0$.



Informationstheoretische Größen für den AWGN-Kanal

(3)  Die angegebene Gleichung für die differentielle Entropie macht nur bei dimensionsloser Leistung Sinn.  Mit der vorgeschlagenen Normierung erhält man:

  • Für  $P_N = 1 \ \rm mW$   ⇒   $P_N\hspace{0.05cm}' = 1$:
$$h(N) \ = \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot 1 \right ) = \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 17.08 \right ) \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}.$$
  • Für  $P_X = 15 \ \rm mW$   ⇒   $P_X\hspace{0.01cm}' = 15$:
$$h(X) \ = \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot 15 \right ) = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \right ) + {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left (15 \right ) \hspace{0.15cm}\underline{= 4.000\,{\rm bit}}\hspace{0.05cm}. $$
  • Für  $P_Y = P_X + P_N = 16 \ \rm mW$   ⇒  $P_Y\hspace{0.01cm}' = 16$:
$$h(Y) = 2.047\,{\rm bit} + 2.000\,{\rm bit} \hspace{0.15cm}\underline{= 4.047\,{\rm bit}}\hspace{0.05cm}.$$


(4)  Für die differentielle Irrelevanz gilt beim AWGN–Kanal:

$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(N) \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}.$$
  • Entsprechend nebenstehender Grafik gilt aber auch:
$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(Y) - I(X;Y) = 4.047 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}. $$
  • Daraus kann die differentielle Äquivokation wie folgt berechnet werden:
$$h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) = h(X) - I(X;Y) = 4.000 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 2.000\,{\rm bit}}\hspace{0.05cm}.$$
  • Abschließend wird auch noch die differentielle Verbundentropie angegeben, die aus obigem Schaubild nicht direkt ablesbar ist:
Informationstheoretische Größen beim idealen Kanal
$$h(XY) = h(X) + h(Y) - I(X;Y) = 4.000 \,{\rm bit} + 4.047 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 6.047\,{\rm bit}}\hspace{0.05cm}.$$


(5)  Beim idealen Kanal erhält man mit  $h(X)\hspace{0.15cm}\underline{= 4.000 \,{\rm bit}}$:

$$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) \ = \ h(N) \hspace{0.15cm}\underline{= 0\,{\rm (bit)}}\hspace{0.05cm},$$
$$h(Y) \ = \ h(X) \hspace{0.15cm}\underline{= 4\,{\rm bit}}\hspace{0.05cm},$$
$$I(X;Y) \ = \ h(Y) - h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X)\hspace{0.15cm}\underline{= 4\,{\rm bit}}\hspace{0.05cm},$$ $$ h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) \ = \ h(X) - I(X;Y)\hspace{0.15cm}\underline{= 0\,{\rm (bit)}}\hspace{0.05cm}.$$
  • Die Grafik zeigt diese Größen in einem Flussdiagramm.
  • Das gleiche Diagramm ergäbe sich auch im wertdiskreten Fall mit  $M = 16$  gleichwahrscheinlichen Symbolen   ⇒   $H(X)= 4.000 \,{\rm bit}$.
  • Man müsste nur jedes  $h$  durch ein  $H$  ersetzen.