Aufgaben:Aufgabe 1.12: Hard Decision vs. Soft Decision: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
(6 dazwischenliegende Versionen von 3 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
 
{{quiz-Header|Buchseite=Kanalcodierung/Decodierung linearer Blockcodes}}
 
{{quiz-Header|Buchseite=Kanalcodierung/Decodierung linearer Blockcodes}}
  
[[Datei:P_ID2408__KC_A_1_12.png|right|frame|Blockfehlerrate des $(7, \, 4, \, 3)$–Codes bei Hard Decision und Soft Decision]]
+
[[Datei:P_ID2408__KC_A_1_12.png|right|frame|Blockfehlerrate des&nbsp; $\rm HC(7, \, 4, \, 3)$&nbsp; bei <br>&bdquo;Hard Decision&rdquo; und &bdquo;Soft Decision&rdquo;]]
  
Die Abbildung zeigt die Blockfehlerwahrscheinlichkeit für den [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Einige_Eigenschaften_des_.287.2C_4.2C_3.29.E2.80.93Hamming.E2.80.93Codes|$(7, \, 4, \, 3)$–Hamming–Code]], wobei für den Empfänger zwei Varianten berücksichtigt sind:
+
Die Abbildung zeigt die Blockfehlerwahrscheinlichkeit für den&nbsp; [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Einige_Eigenschaften_des_.287.2C_4.2C_3.29.E2.80.93Hamming.E2.80.93Codes"|$(7, \, 4, \, 3)$–Hamming–Code"]],&nbsp; wobei für den Empfänger zwei Varianten berücksichtigt sind:
  
*Bei Maximum–Likelihood–Detektion mit harten Entscheidungen (''Hard Decision,'' HD), die im vorliegenden Fall (perfekter Code) auch durch Syndromdecodierung realisiert werden kann, ergibt sich die rote Kurve (mit Kreismarkierung).
+
*Bei Maximum–Likelihood–Detektion mit harten Entscheidungen&nbsp; $($&bdquo;Hard Decision&rdquo;, &nbsp;$\rm HD)$,&nbsp; die im vorliegenden Fall (perfekter Code)&nbsp; auch durch Syndromdecodierung realisiert werden kann,&nbsp; ergibt sich die rote Kurve&nbsp; (mit Kreismarkierung).
  
 
+
*Der Kanal kann bei &bdquo;Hard Decision&rdquo; vereinfacht durch das BSC–Modell ersetzt werden.&nbsp; Der Zusammenhang zwischen dem BSC–Parameter&nbsp; $\varepsilon$&nbsp; und dem AWGN–Quotienten&nbsp; $E_{\rm B}/N_{0}$&nbsp; (in der Grafik verwendet)&nbsp; ist wie folgt gegeben:
*Der Kanal kann bei &bdquo;Hard Decision&rdquo; vereinfacht durch das BSC–Modell ersetzt werden. Der Zusammenhang zwischen dem BSC–Parameter $\varepsilon$ und dem AWGN–Quotienten $E_{\rm B}/N_{0}$ (in der Grafik verwendet) ist wie folgt gegeben:
 
  
 
:$$\varepsilon = {\rm Q}\left ( \sqrt{2 \cdot R \cdot E_{\rm B}/N_0} \right ) \hspace{0.05cm}.$$
 
:$$\varepsilon = {\rm Q}\left ( \sqrt{2 \cdot R \cdot E_{\rm B}/N_0} \right ) \hspace{0.05cm}.$$
  
:Hier bezeichnet ${\rm Q}(x)$ die ''komplementäre Gaußsche Fehlerfunktion'' und $R$ die Coderate.
+
:Hier bezeichnet&nbsp; ${\rm Q}(x)$&nbsp; die&nbsp; "komplementäre Gaußsche Fehlerfunktion"&nbsp; und&nbsp; $R$&nbsp; die Coderate.
  
 +
*Die grüne Kurve&nbsp; (mit Kreuzen markiert)&nbsp; zeigt die Blockfehlerwahrscheinlichkeit bei „weichen” Entscheidungen&nbsp; $($&bdquo;Soft Decision&rdquo;, &nbsp;$\rm SD)$.&nbsp; Dieser Funktionsverlauf lässt sich nicht in geschlossen–mathematischer Form angeben.&nbsp; Die in der Grafik eingezeichnete Kurve ist eine in [Fri96] angegebene obere Schranke:
  
*Die grüne Kurve (mit Kreuzen) zeigt die Blockfehlerwahrscheinlichkeit bei „weichen” Entscheidungen (''Soft Decision'', SD). Dieser Funktionsverlauf lässt sich nicht in geschlossen–mathematischer Form angeben. Die in der Grafik eingezeichnete Kurve ist eine in [Fri96] angegebene obere Schranke:
+
:$$ {\rm Pr(Blockfehler)} \hspace{-0.15cm}\ \le \ \hspace{-0.15cm} 7 \cdot {\rm Q}\left ( \sqrt{ 3 \cdot \frac{2 \cdot R \cdot E_{\rm B}}{N_0}} \right )+7 \cdot {\rm Q}\left ( \sqrt{ 4 \cdot \frac{2 \cdot R \cdot E_{\rm B}}{N_0}} \right ) + {\rm Q}\left ( \sqrt{ 7 \cdot \frac{2 \cdot R \cdot E_{\rm B}}{N_0}} \right ) \hspace{0.05cm}.$$
 +
 
 +
:*Der jeweils erste Faktor im Argument der&nbsp; $\rm Q$–Funktion gibt die möglichen Hamming–Distanzen an: &nbsp; $i = 3, \, 4, \, 7$.
 +
 +
:*Die Vorfaktoren berücksichtigen die&nbsp; "Vielfachheiten"&nbsp; $W_{3} = W_{4} = 7$&nbsp; und&nbsp; $W_{7} = 1$. &nbsp;
 +
 
 +
:*$R = 4/7$&nbsp; beschreibt die Coderate.
 +
 +
:*Für&nbsp; $10 · \lg {E_{\rm B}/N_0} > 8  \ \rm dB$&nbsp; ist&nbsp; $\rm Pr(Blockfehler) < 10^{–5}$.
  
:$$ {\rm Pr(Blockfehler)} \hspace{-0.15cm}\ \le \ \hspace{-0.15cm} 7 \cdot {\rm Q}\left ( \sqrt{ 3 \cdot \frac{2 \cdot R \cdot E_{\rm B}}{N_0}} \right )+7 \cdot {\rm Q}\left ( \sqrt{ 4 \cdot \frac{2 \cdot R \cdot E_{\rm B}}{N_0}} \right ) + {\rm Q}\left ( \sqrt{ 7 \cdot \frac{2 \cdot R \cdot E_{\rm B}}{N_0}} \right ) \hspace{0.05cm}.$$
 
  
:*Der jeweils erste Faktor im Argument der$\rm Q$–Funktion gibt die möglichen Hamming–Distanzen an: &nbsp; $i = 3, \, 4$ und $7$.
 
:*Die Vorfaktoren berücksichtigen die Vielfachheiten $W_{3} = W_{4} = 7$ und $W_{7} = 1$, und $R = 4/7$ beschreibt die Coderate.
 
:*Für $10 · \lg {E_{\rm B}/N_0} > 8  \ \rm dB$ ist $\rm Pr(Blockfehler) < 10^{–5}$.
 
  
  
 +
Hinweise:
 +
* Die Aufgabe bezieht sich auf das Kapitel&nbsp; [[Kanalcodierung/Decodierung_linearer_Blockcodes|"Decodierung linearer Blockcodes"]].
 +
 +
* Die oben zitierte Literaturstelle&nbsp; [Fri96]&nbsp; verweist auf das Buch <br>&bdquo;Friedrichs, B.: Kanalcodierung – Grundlagen und Anwendungen in modernen Kommunikationssystemen. Berlin – Heidelberg: Springer, 1996&rdquo;.
  
 +
* Verwenden Sie für numerische Ergebnisse unser Berechnungsmodul&nbsp;  [[Applets:Komplementäre_Gaußsche_Fehlerfunktionen|"Komplementäre Gaußsche Fehlerfunktionen"]].
  
''Hinweise:''  
+
*Für die Teilaufgaben&nbsp; '''(1)'''&nbsp; bis&nbsp; '''(4)'''&nbsp; wird stets von  &bdquo;Hard Decision&rdquo; ausgegangen.
* Die Aufgabe bezieht sich auf das Kapitel [[Kanalcodierung/Decodierung_linearer_Blockcodes|Decodierung linearer Blockcodes]].
+
* Die oben zitierte Literaturstelle [Fri96] verweist auf das Buch &bdquo;Friedrichs, B.: Kanalcodierung – Grundlagen und Anwendungen in modernen Kommunikations- systemen. Berlin – Heidelberg: Springer, 1996&rdquo;.
 
* Verwenden Sie für numerische Ergebnisse das Berechnungsmodul  [[Applets:QFunction|Komplementäre Gaußsche Fehlerfunktionen]].
 
*Für die Teilaufgaben (1) bis (4) wird stets von  ''Hard Decision'' ausgegangen.
 
* Sollte die Eingabe des Zahlenwertes &bdquo;0&rdquo; erforderlich sein, so geben Sie bitte &bdquo;0.&rdquo; ein.
 
  
  
Zeile 38: Zeile 43:
 
===Fragebogen===
 
===Fragebogen===
 
<quiz display=simple>
 
<quiz display=simple>
{Welche Blockfehlerwahrscheinlichkeit besitzt der $(7, \, 4, \, 3)$–Hamming–Code bei ''Hard Decision''?
+
{Welche Blockfehlerwahrscheinlichkeit besitzt der&nbsp; $(7, \, 4, \, 3)$–Hamming–Code bei &bdquo;Hard Decision&rdquo;?
 
|type="{}"}
 
|type="{}"}
 
$\varepsilon = 10^{-2} \text{:} \hspace{0.4cm} {\rm Pr(Blockfehler)} \ = \ $ { 2.03 3% } $\ \cdot 10^{-3} $
 
$\varepsilon = 10^{-2} \text{:} \hspace{0.4cm} {\rm Pr(Blockfehler)} \ = \ $ { 2.03 3% } $\ \cdot 10^{-3} $
$\varepsilon = 10^{-3} \text{:} \hspace{0.4cm} {\rm Pr(Blockfehler)} \ = \ $ { 0.0209 3% } $\ \cdot 10^{-3} $
+
$\varepsilon = 10^{-3} \text{:} \hspace{0.4cm} {\rm Pr(Blockfehler)} \ = \ $ { 0.021 3% } $\ \cdot 10^{-3} $
  
{Wie kann man die Blockfehlerwahrscheinlichkeit eines Hamming–Codes annähern, ''Hard Decision'' vorausgesetzt?
+
{Wie kann man die Blockfehlerwahrscheinlichkeit eines Hamming–Codes annähern,&nbsp; &bdquo;Hard Decision&rdquo; vorausgesetzt?
|type="[]"}
+
|type="()"}
 
+ ${\rm Pr(Blockfehler)} = n · (n–1)/2 · \varepsilon^2.$
 
+ ${\rm Pr(Blockfehler)} = n · (n–1)/2 · \varepsilon^2.$
 
- ${\rm Pr(Blockfehler)} = n ·  \varepsilon^2.$
 
- ${\rm Pr(Blockfehler)} = n ·  \varepsilon^2.$
 
- ${\rm Pr(Blockfehler)} = n  · \varepsilon^n.$
 
- ${\rm Pr(Blockfehler)} = n  · \varepsilon^n.$
  
{Welcher Hamming–Code besitzt die kleinste Blockfehlerwahrscheinlichkeit bei konstantem BSC–Parameter $\varepsilon$?
+
{Welcher der aufgelisteten Hamming–Codes besitzt die kleinste Blockfehlerwahrscheinlichkeit bei konstantem BSC–Parameter&nbsp; $\varepsilon$?
|type="[]"}
+
|type="()"}
+ der Hamming–Code $(3, \, 1, \, 3)$, identisch mit dem   ''Repetition Code'' $(3, \, 1, \, 3)$,
+
+ Der Hamming–Code&nbsp; $(3, \, 1, \, 3)$,&nbsp; identisch mit dem &bdquo;Repetition Code&rdquo;&nbsp; $\rm RC \ (3, \, 1, \, 3)$,
- der Hamming–Code $(7, \, 4, \, 3)$,
+
- der Hamming–Code&nbsp; $(7, \, 4, \, 3)$,
- der Hamming–Code $(15, \, 11, \, 3)$.
+
- der Hamming–Code&nbsp; $(15, \, 11, \, 3)$.
  
{Welcher numerische Zusammenhang besteht zwischen dem BSC–Parameter $\varepsilon$ und dem AWGN–Quotienten $E_{\rm B}/N_{0}$?
+
{Welcher numerische Zusammenhang besteht zwischen dem BSC–Parameter&nbsp; $\varepsilon$&nbsp; und dem AWGN–Quotienten&nbsp; $E_{\rm B}/N_{0}$?
 
|type="{}"}
 
|type="{}"}
 
$\varepsilon = 10^{-2}\text{:} \hspace{0.4cm} 10 · \lg {E_{\rm B}/N_0} \ = \ $ { 6.77 3% } $\ \rm dB$
 
$\varepsilon = 10^{-2}\text{:} \hspace{0.4cm} 10 · \lg {E_{\rm B}/N_0} \ = \ $ { 6.77 3% } $\ \rm dB$
 
$\varepsilon = 10^{-3} \text{:} \hspace{0.4cm} 10 · \lg {E_{\rm B}/N_0} \ = \ $ { 9.22 3% } $\ \rm dB$
 
$\varepsilon = 10^{-3} \text{:} \hspace{0.4cm} 10 · \lg {E_{\rm B}/N_0} \ = \ $ { 9.22 3% } $\ \rm dB$
  
{Welcher Gewinn (in dB) ist durch ''Soft Decision'' ('''SD''') zu erzielen, wenn die Blockfehlerwahrscheinlichkeit den Wert $10^{–5}$ nicht überschreiten soll?
+
{Welcher Gewinn&nbsp; (in dB)&nbsp; ist durch &bdquo;Soft Decision&rdquo; zu erzielen,&nbsp; wenn die Blockfehlerwahrscheinlichkeit den Wert&nbsp; $10^{–5}$&nbsp; nicht überschreiten soll?
 
|type="{}"}
 
|type="{}"}
 
$\ 10 · \lg \, {G_{\rm SD}} \ = \ $ { 1.52 3% } $ \ \rm dB$
 
$\ 10 · \lg \, {G_{\rm SD}} \ = \ $ { 1.52 3% } $ \ \rm dB$
Zeile 67: Zeile 72:
 
===Musterlösung===
 
===Musterlösung===
 
{{ML-Kopf}}
 
{{ML-Kopf}}
'''(1)'''&nbsp; Jeder Hamming–Code ist perfekt und weist eine minimale Distanz von $d_{\rm min} = 3$ auf.  
+
'''(1)'''&nbsp; Jeder Hamming–Code ist perfekt und weist die minimale Distanz&nbsp; $d_{\rm min} = 3$&nbsp; auf.  
*Deshalb kann ein Bitfehler im Codewort korrigiert werden, während zwei Bitfehler stets zu einer Fehlentscheidung des Codewortes führen  &nbsp; ⇒  &nbsp; Parameter $t = 1$.  
+
*Deshalb kann ein Bitfehler im Codewort korrigiert werden,&nbsp; während zwei Bitfehler stets zu einer Fehlentscheidung des Codewortes führen  &nbsp; ⇒  &nbsp; Parameter $t = 1$.
 +
 
*Damit ergibt sich für die Blockfehlerwahrscheinlichkeit:
 
*Damit ergibt sich für die Blockfehlerwahrscheinlichkeit:
  
Zeile 76: Zeile 82:
  
  
'''(2)'''&nbsp; Ein jeder $(n, \, k, \, 3)$ Hamming–Code kann nur einen Bitfehler korrigieren. Damit gilt allgemein für den BSC–Kanal mit der Codewortlänge $n$:
+
'''(2)'''&nbsp; Ein jeder&nbsp; $(n, \, k, \, 3)$&ndash;Hamming–Code kann nur einen Bitfehler korrigieren.&nbsp; Für den BSC–Kanal gilt somit allgemein mit der Codewortlänge&nbsp; $n$:
  
:$${\rm Pr(Blockfehler)} \hspace{-0.15cm}\ = \ \hspace{-0.15cm} 1 - (1 - \varepsilon)^n - n \cdot \varepsilon \cdot (1 - \varepsilon)^{n-1}=$$
+
:$${\rm Pr(Blockfehler)} = 1 - \text{Pr(kein Bitfehler)} - \text{Pr(ein Bitfehler)} = 1 - (1 - \varepsilon)^n - n \cdot \varepsilon \cdot (1 - \varepsilon)^{n-1}.$$
:$$\hspace{2.875cm}\ = \ \hspace{-0.15cm} 1 - \left [ 1 - {n \choose 1}\cdot \varepsilon + {n \choose 2}\cdot \varepsilon^2 - \hspace{0.05cm}... \hspace{0.05cm} \right ] -$$
+
*Nach Reihenentwicklung von &nbsp; "$(1 - \varepsilon)^n$" &nbsp;  bzw. von &nbsp; "$n \cdot \varepsilon \cdot (1 - \varepsilon)^{n-1}$" &nbsp; erhält man hieraus:
:$$\hspace{3.1cm}\ . \ \hspace{0.18cm} - \left [ n \cdot \varepsilon \cdot \left ( 1 - {{n-1} \choose 1}\cdot \varepsilon + {{n-1} \choose 2}\cdot \varepsilon^2 - \hspace{0.05cm}... \hspace{0.05cm}\right ) \right ] \hspace{0.05cm}.$$
+
:$${\rm Pr(Blockfehler)} = 1 - \left [ 1 - {n \choose 1}\cdot \varepsilon + {n \choose 2}\cdot \varepsilon^2 - \hspace{0.05cm}\text{...} \hspace{0.05cm} \right ] -\left [ n \cdot \varepsilon \cdot \left ( 1 - {{n-1} \choose 1}\cdot \varepsilon + {{n-1} \choose 2}\cdot \varepsilon^2 - \hspace{0.05cm}\text{...} \hspace{0.05cm}\right ) \right ] \hspace{0.05cm}.$$
  
Bei Vernachlässigung aller Terme mit $\varepsilon^3, \ \varepsilon^4, \ ...$ erhält man:
+
*Bei Vernachlässigung aller Terme mit&nbsp; $\varepsilon^3, \ \varepsilon^4, \ \text{...}$&nbsp; ergibt sich schließlich:
  
:$${\rm Pr(Blockfehler)} \hspace{-0.15cm}\ = \ \hspace{-0.15cm} n \cdot \varepsilon - {n \choose 2}\cdot \varepsilon^2 - n \cdot \varepsilon + n \cdot \varepsilon {{n-1} \choose 1}\cdot \varepsilon + \hspace{0.05cm}... \hspace{0.05cm} =$$
+
:$${\rm Pr(Blockfehler)} \hspace{-0.15cm}\ = \ \hspace{-0.15cm} n \cdot \varepsilon - {n \choose 2}\cdot \varepsilon^2 - n \cdot \varepsilon + n \cdot \varepsilon {{n-1} \choose 1}\cdot \varepsilon + \hspace{0.05cm}\text{...}\hspace{0.05cm} = -n/2 \cdot (n-1)\cdot \varepsilon^2 + n \cdot (n-1)\cdot \varepsilon^2 = n \cdot (n-1)/2 \cdot \varepsilon^2 \hspace{0.05cm}.$$
:$$\hspace{2.875cm}\ = \ \hspace{-0.15cm} -1/2 \cdot n \cdot (n-1)\cdot \varepsilon^2 + n \cdot (n-1)\cdot \varepsilon^2 = n \cdot (n-1)/2 \cdot \varepsilon^2 \hspace{0.05cm}.$$
 
  
⇒  Richtig ist <u>Lösungsvorschlag 1</u>. Für den $(7, \, 4, \, 3)$–Hamming–Code ergibt sich somit:
+
Richtig ist somit der&nbsp; <u>Lösungsvorschlag 1</u>.  
  
:$${\rm Pr(Blockfehler)} \le \left\{ \begin{array}{c} 2.1 \cdot 10^{-3}\\ 2.1 \cdot 10^{-5} \end{array} \right.\quad \begin{array}{*{1}c} {\rm f\ddot{u}r}\hspace{0.15cm} \varepsilon = 10^{-2} \\ {\rm f\ddot{u}r}\hspace{0.15cm} \varepsilon = 10^{-3} \\ \end{array} \hspace{0.05cm}.$$
+
Für den&nbsp; $(7, \, 4, \, 3)$–Hamming–Code folgt daraus:
  
Durch Vergleich mit dem Ergebnis der Teilaufgabe (1) erkennt man die Gültigkeit dieser Näherung. Diese ist um so besser, je kleiner die BSC–Verfälschungswahrscheinlichkeit $\varepsilon$ ist.
+
:$${\rm Pr(Blockfehler)} \le \left\{ \begin{array}{c} 2.03 \cdot 10^{-3}\\ 2.09 \cdot 10^{-5} \end{array} \right.\quad \begin{array}{*{1}c} {\rm f\ddot{u}r}\hspace{0.15cm} \varepsilon = 10^{-2} \\ {\rm f\ddot{u}r}\hspace{0.15cm} \varepsilon = 10^{-3} \\ \end{array} \hspace{0.05cm}.$$
  
 +
*Durch Vergleich mit dem Ergebnis der Teilaufgabe&nbsp; '''(1)'''&nbsp; erkennt man die Gültigkeit dieser Näherung.
 +
 +
*Diese ist um so besser,&nbsp; je kleiner die BSC–Verfälschungswahrscheinlichkeit&nbsp; $\varepsilon$&nbsp; ist.
  
'''(3)'''&nbsp; Die Ergebnisse der Teilaufgabe 2) lassen sich wie folgt zusammenfassen:
+
 
 +
 
 +
'''(3)'''&nbsp; Die Ergebnisse der Teilaufgabe&nbsp; '''(2)'''&nbsp; lassen sich wie folgt zusammenfassen:
  
 
:$${\rm Pr(Blockfehler)} = \left\{ \begin{array}{l} 3 \cdot \varepsilon^2 \\ 21 \cdot \varepsilon^2\\ 105 \cdot \varepsilon^2\\ \end{array} \right.\quad \begin{array}{*{1}l} {\rm f\ddot{u}r}\hspace{0.15cm} n = 3 \\ {\rm f\ddot{u}r}\hspace{0.15cm} n = 7 \\ {\rm f\ddot{u}r}\hspace{0.15cm} n = 15 \\ \end{array} \hspace{0.05cm}.$$
 
:$${\rm Pr(Blockfehler)} = \left\{ \begin{array}{l} 3 \cdot \varepsilon^2 \\ 21 \cdot \varepsilon^2\\ 105 \cdot \varepsilon^2\\ \end{array} \right.\quad \begin{array}{*{1}l} {\rm f\ddot{u}r}\hspace{0.15cm} n = 3 \\ {\rm f\ddot{u}r}\hspace{0.15cm} n = 7 \\ {\rm f\ddot{u}r}\hspace{0.15cm} n = 15 \\ \end{array} \hspace{0.05cm}.$$
  
Richtig ist <u>Antwort 1</u>. Die geringste Blockfehlerwahrscheinlichkeit besitzt natürlich der Hamming–Code mit der geringsten Rate $R = 1/3$, also mit der größten relativen Redundanz.
+
*Richtig ist die&nbsp; <u>Antwort 1</u>.  
 +
*Die geringste Blockfehlerwahrscheinlichkeit besitzt natürlich der Hamming–Code mit der geringsten Rate&nbsp; $R = 1/3$,&nbsp; also mit der größten relativen Redundanz.
  
'''(4)'''&nbsp;  Bei Hard Decision gilt mit der komplementären Gaußschen Fehlerfunktion ${\rm Q}(x)$:
 
  
:$$\varepsilon = {\rm Q}\left ( \sqrt{2 \cdot R \cdot E_{\rm B}/N_0} \right )\hspace{0.3cm} \Rightarrow \hspace{0.3cm} E_{\rm B}/N_0 = \frac{[{\rm Q}^{-1}(\varepsilon)]^2}{2R}$$
+
'''(4)'''&nbsp;  Bei Hard Decision gilt mit der komplementären Gaußschen Fehlerfunktion&nbsp; ${\rm Q}(x)$:
  
:$$ \Rightarrow \hspace{0.3cm} 10 \cdot {\rm lg} \hspace{0.1cm} E_{\rm B}/N_0 = 20 \cdot {\rm lg} \hspace{0.1cm}[{\rm Q}^{-1}(\varepsilon)] - 10 \cdot {\rm lg} \hspace{0.1cm} (2R) \hspace{0.05cm}.$$
+
:$$\varepsilon = {\rm Q}\left ( \sqrt{2 \cdot R \cdot E_{\rm B}/N_0} \right )\hspace{0.3cm} \Rightarrow \hspace{0.3cm} E_{\rm B}/N_0 = \frac{[{\rm Q}^{-1}(\varepsilon)]^2}{2R}\hspace{0.3cm}
 +
\Rightarrow \hspace{0.3cm} 10 \cdot {\rm lg} \hspace{0.1cm} E_{\rm B}/N_0 = 20 \cdot {\rm lg} \hspace{0.1cm}[{\rm Q}^{-1}(\varepsilon)] - 10 \cdot {\rm lg} \hspace{0.1cm} (2R) \hspace{0.05cm}.$$
  
Daraus erhält man mit $\varepsilon = 0.01 \ ⇒ \ {\rm Q}^{–1}(\varepsilon) = 2.33$:
+
*Daraus erhält man mit&nbsp; $\varepsilon = 0.01 \ ⇒ \ {\rm Q}^{–1}(\varepsilon) = 2.33$:
  
 
:$$10 \cdot {\rm lg} \hspace{0.1cm} E_{\rm B}/N_0 = 20 \cdot {\rm lg} \hspace{0.1cm}(2.33) - 10 \cdot {\rm lg} \hspace{0.1cm} (8/7) = 7.35\,{\rm dB} - 0.58\,{\rm dB}\hspace{0.15cm}\underline{\approx 6.77\,{\rm dB}}\hspace{0.05cm}.$$
 
:$$10 \cdot {\rm lg} \hspace{0.1cm} E_{\rm B}/N_0 = 20 \cdot {\rm lg} \hspace{0.1cm}(2.33) - 10 \cdot {\rm lg} \hspace{0.1cm} (8/7) = 7.35\,{\rm dB} - 0.58\,{\rm dB}\hspace{0.15cm}\underline{\approx 6.77\,{\rm dB}}\hspace{0.05cm}.$$
 +
* In analoger Weise ergibt sich für&nbsp; $\varepsilon = 0.001 \ ⇒ \ {\rm Q}^{–1}(\varepsilon) = 3.09$:
  
In analoger Weise ergibt sich für $\varepsilon = 0.001 \ \ {\rm Q}^{–1}(\varepsilon) ≈ 3.09$.
+
:$$10 \cdot {\rm lg} \hspace{0.1cm} E_{\rm B}/N_0 = 20 \cdot {\rm lg} \hspace{0.1cm}(3.09) - 0.58\,{\rm dB}\hspace{0.15cm}\underline{\approx 9.22\,{\rm dB}}\hspace{0.05cm}.$$
  
:$$10 \cdot {\rm lg} \hspace{0.1cm} E_{\rm B}/N_0 = 20 \cdot {\rm lg} \hspace{0.1cm}(3.09) - 0.58\,{\rm dB}\hspace{0.15cm}\underline{\approx 9.22\,{\rm dB}}\hspace{0.05cm}.$$
 
  
 +
'''(5)'''&nbsp; Wir beziehen uns hier auf die Blockfehlerwahrscheinlichkeit&nbsp; $10^{–5}$.
  
'''(5)'''&nbsp; Wir beziehen uns auf die Blockfehlerwahrscheinlichkeit $10^{–5}$. Nach dem Ergebnis der Teilaufgabe (2) darf dann die BSC–Verfälschungswahrscheinlichkeit nicht größer sein als
+
*Nach dem Ergebnis der Teilaufgabe&nbsp; '''(2)'''&nbsp; darf dann die BSC–Verfälschungswahrscheinlichkeit nicht größer sein als
  
:$$\varepsilon = \sqrt{\frac{10^{-5}}{21}} = 6.9 \cdot 10^{-4} \hspace{0.3cm} \Rightarrow \hspace{0.3cm} {\rm Q}^{-1}(\varepsilon) = 3.2 \hspace{0.3cm} \Rightarrow \hspace{0.3cm} 10 \cdot {\rm lg} \hspace{0.1cm} E_{\rm B}/N_0 = 9.52\,{\rm dB}\hspace{0.05cm}.$$
+
:$$\varepsilon = \sqrt{{10^{-5}}/{21}} = 6.9 \cdot 10^{-4} \hspace{0.3cm} \Rightarrow \hspace{0.3cm} {\rm Q}^{-1}(\varepsilon) = 3.2 \hspace{0.3cm} \Rightarrow \hspace{0.3cm} 10 \cdot {\rm lg} \hspace{0.1cm} E_{\rm B}/N_0 = 9.52\,{\rm dB}\hspace{0.05cm}.$$
  
Mit ''Soft Decision'' genügen laut Angabe $8 \ {\rm dB} \ ⇒ \ 10 · \lg {G_{\rm SD}} \ \underline{= 1.52 \ {\rm dB}}$.
+
*Mit "Soft Decision" genügen laut Angabe $8 \ {\rm dB} \ ⇒ \ 10 · \lg {G_{\rm SD}} \ \underline{= 1.52 \ {\rm dB}}$.
 
{{ML-Fuß}}
 
{{ML-Fuß}}
  

Aktuelle Version vom 20. Juli 2022, 15:12 Uhr

Blockfehlerrate des  $\rm HC(7, \, 4, \, 3)$  bei
„Hard Decision” und „Soft Decision”

Die Abbildung zeigt die Blockfehlerwahrscheinlichkeit für den  $(7, \, 4, \, 3)$–Hamming–Code",  wobei für den Empfänger zwei Varianten berücksichtigt sind:

  • Bei Maximum–Likelihood–Detektion mit harten Entscheidungen  $($„Hard Decision”,  $\rm HD)$,  die im vorliegenden Fall (perfekter Code)  auch durch Syndromdecodierung realisiert werden kann,  ergibt sich die rote Kurve  (mit Kreismarkierung).
  • Der Kanal kann bei „Hard Decision” vereinfacht durch das BSC–Modell ersetzt werden.  Der Zusammenhang zwischen dem BSC–Parameter  $\varepsilon$  und dem AWGN–Quotienten  $E_{\rm B}/N_{0}$  (in der Grafik verwendet)  ist wie folgt gegeben:
$$\varepsilon = {\rm Q}\left ( \sqrt{2 \cdot R \cdot E_{\rm B}/N_0} \right ) \hspace{0.05cm}.$$
Hier bezeichnet  ${\rm Q}(x)$  die  "komplementäre Gaußsche Fehlerfunktion"  und  $R$  die Coderate.
  • Die grüne Kurve  (mit Kreuzen markiert)  zeigt die Blockfehlerwahrscheinlichkeit bei „weichen” Entscheidungen  $($„Soft Decision”,  $\rm SD)$.  Dieser Funktionsverlauf lässt sich nicht in geschlossen–mathematischer Form angeben.  Die in der Grafik eingezeichnete Kurve ist eine in [Fri96] angegebene obere Schranke:
$$ {\rm Pr(Blockfehler)} \hspace{-0.15cm}\ \le \ \hspace{-0.15cm} 7 \cdot {\rm Q}\left ( \sqrt{ 3 \cdot \frac{2 \cdot R \cdot E_{\rm B}}{N_0}} \right )+7 \cdot {\rm Q}\left ( \sqrt{ 4 \cdot \frac{2 \cdot R \cdot E_{\rm B}}{N_0}} \right ) + {\rm Q}\left ( \sqrt{ 7 \cdot \frac{2 \cdot R \cdot E_{\rm B}}{N_0}} \right ) \hspace{0.05cm}.$$
  • Der jeweils erste Faktor im Argument der  $\rm Q$–Funktion gibt die möglichen Hamming–Distanzen an:   $i = 3, \, 4, \, 7$.
  • Die Vorfaktoren berücksichtigen die  "Vielfachheiten"  $W_{3} = W_{4} = 7$  und  $W_{7} = 1$.  
  • $R = 4/7$  beschreibt die Coderate.
  • Für  $10 · \lg {E_{\rm B}/N_0} > 8 \ \rm dB$  ist  $\rm Pr(Blockfehler) < 10^{–5}$.



Hinweise:

  • Die oben zitierte Literaturstelle  [Fri96]  verweist auf das Buch
    „Friedrichs, B.: Kanalcodierung – Grundlagen und Anwendungen in modernen Kommunikationssystemen. Berlin – Heidelberg: Springer, 1996”.
  • Für die Teilaufgaben  (1)  bis  (4)  wird stets von „Hard Decision” ausgegangen.



Fragebogen

1

Welche Blockfehlerwahrscheinlichkeit besitzt der  $(7, \, 4, \, 3)$–Hamming–Code bei „Hard Decision”?

$\varepsilon = 10^{-2} \text{:} \hspace{0.4cm} {\rm Pr(Blockfehler)} \ = \ $

$\ \cdot 10^{-3} $
$\varepsilon = 10^{-3} \text{:} \hspace{0.4cm} {\rm Pr(Blockfehler)} \ = \ $

$\ \cdot 10^{-3} $

2

Wie kann man die Blockfehlerwahrscheinlichkeit eines Hamming–Codes annähern,  „Hard Decision” vorausgesetzt?

${\rm Pr(Blockfehler)} = n · (n–1)/2 · \varepsilon^2.$
${\rm Pr(Blockfehler)} = n · \varepsilon^2.$
${\rm Pr(Blockfehler)} = n · \varepsilon^n.$

3

Welcher der aufgelisteten Hamming–Codes besitzt die kleinste Blockfehlerwahrscheinlichkeit bei konstantem BSC–Parameter  $\varepsilon$?

Der Hamming–Code  $(3, \, 1, \, 3)$,  identisch mit dem „Repetition Code”  $\rm RC \ (3, \, 1, \, 3)$,
der Hamming–Code  $(7, \, 4, \, 3)$,
der Hamming–Code  $(15, \, 11, \, 3)$.

4

Welcher numerische Zusammenhang besteht zwischen dem BSC–Parameter  $\varepsilon$  und dem AWGN–Quotienten  $E_{\rm B}/N_{0}$?

$\varepsilon = 10^{-2}\text{:} \hspace{0.4cm} 10 · \lg {E_{\rm B}/N_0} \ = \ $

$\ \rm dB$
$\varepsilon = 10^{-3} \text{:} \hspace{0.4cm} 10 · \lg {E_{\rm B}/N_0} \ = \ $

$\ \rm dB$

5

Welcher Gewinn  (in dB)  ist durch „Soft Decision” zu erzielen,  wenn die Blockfehlerwahrscheinlichkeit den Wert  $10^{–5}$  nicht überschreiten soll?

$\ 10 · \lg \, {G_{\rm SD}} \ = \ $

$ \ \rm dB$


Musterlösung

(1)  Jeder Hamming–Code ist perfekt und weist die minimale Distanz  $d_{\rm min} = 3$  auf.

  • Deshalb kann ein Bitfehler im Codewort korrigiert werden,  während zwei Bitfehler stets zu einer Fehlentscheidung des Codewortes führen   ⇒   Parameter $t = 1$.
  • Damit ergibt sich für die Blockfehlerwahrscheinlichkeit:
$${\rm Pr(Blockfehler)} \hspace{-0.15cm}\ = \ \hspace{-0.15cm} 1 - {\rm Pr(kein\hspace{0.15cm} Blockfehler)} - {\rm Pr(ein\hspace{0.15cm} Blockfehler)} = 1 - (1 - \varepsilon)^7 - 7 \cdot \varepsilon \cdot (1 - \varepsilon)^6 \hspace{0.05cm}.$$
$$\varepsilon = 10^{-2} \text{:} \hspace{0.4cm}{\rm Pr(Blockfehler)} \hspace{-0.15cm}\ = \ \hspace{-0.15cm} 1 - 0.99^7 - 7 \cdot 0.01 \cdot 0.99^6= 1 - 0.932065 - 0.065904\hspace{0.15cm}\underline{\approx 2.03 \cdot 10^{-3}}\hspace{0.05cm},$$
$$\varepsilon = 10^{-3} \text{:} \hspace{0.4cm} {\rm Pr(Blockfehler)} \hspace{-0.15cm}\ = \ \hspace{-0.15cm} 1 - 0.999^7 - 7 \cdot 0.001 \cdot 0.999^6= 1 - 0.993021 - 0.006958\hspace{0.15cm}\underline{\approx 0.0209 \cdot 10^{-3}}\hspace{0.05cm}.$$


(2)  Ein jeder  $(n, \, k, \, 3)$–Hamming–Code kann nur einen Bitfehler korrigieren.  Für den BSC–Kanal gilt somit allgemein mit der Codewortlänge  $n$:

$${\rm Pr(Blockfehler)} = 1 - \text{Pr(kein Bitfehler)} - \text{Pr(ein Bitfehler)} = 1 - (1 - \varepsilon)^n - n \cdot \varepsilon \cdot (1 - \varepsilon)^{n-1}.$$
  • Nach Reihenentwicklung von   "$(1 - \varepsilon)^n$"   bzw. von   "$n \cdot \varepsilon \cdot (1 - \varepsilon)^{n-1}$"   erhält man hieraus:
$${\rm Pr(Blockfehler)} = 1 - \left [ 1 - {n \choose 1}\cdot \varepsilon + {n \choose 2}\cdot \varepsilon^2 - \hspace{0.05cm}\text{...} \hspace{0.05cm} \right ] -\left [ n \cdot \varepsilon \cdot \left ( 1 - {{n-1} \choose 1}\cdot \varepsilon + {{n-1} \choose 2}\cdot \varepsilon^2 - \hspace{0.05cm}\text{...} \hspace{0.05cm}\right ) \right ] \hspace{0.05cm}.$$
  • Bei Vernachlässigung aller Terme mit  $\varepsilon^3, \ \varepsilon^4, \ \text{...}$  ergibt sich schließlich:
$${\rm Pr(Blockfehler)} \hspace{-0.15cm}\ = \ \hspace{-0.15cm} n \cdot \varepsilon - {n \choose 2}\cdot \varepsilon^2 - n \cdot \varepsilon + n \cdot \varepsilon {{n-1} \choose 1}\cdot \varepsilon + \hspace{0.05cm}\text{...}\hspace{0.05cm} = -n/2 \cdot (n-1)\cdot \varepsilon^2 + n \cdot (n-1)\cdot \varepsilon^2 = n \cdot (n-1)/2 \cdot \varepsilon^2 \hspace{0.05cm}.$$

Richtig ist somit der  Lösungsvorschlag 1.

Für den  $(7, \, 4, \, 3)$–Hamming–Code folgt daraus:

$${\rm Pr(Blockfehler)} \le \left\{ \begin{array}{c} 2.03 \cdot 10^{-3}\\ 2.09 \cdot 10^{-5} \end{array} \right.\quad \begin{array}{*{1}c} {\rm f\ddot{u}r}\hspace{0.15cm} \varepsilon = 10^{-2} \\ {\rm f\ddot{u}r}\hspace{0.15cm} \varepsilon = 10^{-3} \\ \end{array} \hspace{0.05cm}.$$
  • Durch Vergleich mit dem Ergebnis der Teilaufgabe  (1)  erkennt man die Gültigkeit dieser Näherung.
  • Diese ist um so besser,  je kleiner die BSC–Verfälschungswahrscheinlichkeit  $\varepsilon$  ist.


(3)  Die Ergebnisse der Teilaufgabe  (2)  lassen sich wie folgt zusammenfassen:

$${\rm Pr(Blockfehler)} = \left\{ \begin{array}{l} 3 \cdot \varepsilon^2 \\ 21 \cdot \varepsilon^2\\ 105 \cdot \varepsilon^2\\ \end{array} \right.\quad \begin{array}{*{1}l} {\rm f\ddot{u}r}\hspace{0.15cm} n = 3 \\ {\rm f\ddot{u}r}\hspace{0.15cm} n = 7 \\ {\rm f\ddot{u}r}\hspace{0.15cm} n = 15 \\ \end{array} \hspace{0.05cm}.$$
  • Richtig ist die  Antwort 1.
  • Die geringste Blockfehlerwahrscheinlichkeit besitzt natürlich der Hamming–Code mit der geringsten Rate  $R = 1/3$,  also mit der größten relativen Redundanz.


(4)  Bei Hard Decision gilt mit der komplementären Gaußschen Fehlerfunktion  ${\rm Q}(x)$:

$$\varepsilon = {\rm Q}\left ( \sqrt{2 \cdot R \cdot E_{\rm B}/N_0} \right )\hspace{0.3cm} \Rightarrow \hspace{0.3cm} E_{\rm B}/N_0 = \frac{[{\rm Q}^{-1}(\varepsilon)]^2}{2R}\hspace{0.3cm} \Rightarrow \hspace{0.3cm} 10 \cdot {\rm lg} \hspace{0.1cm} E_{\rm B}/N_0 = 20 \cdot {\rm lg} \hspace{0.1cm}[{\rm Q}^{-1}(\varepsilon)] - 10 \cdot {\rm lg} \hspace{0.1cm} (2R) \hspace{0.05cm}.$$
  • Daraus erhält man mit  $\varepsilon = 0.01 \ ⇒ \ {\rm Q}^{–1}(\varepsilon) = 2.33$:
$$10 \cdot {\rm lg} \hspace{0.1cm} E_{\rm B}/N_0 = 20 \cdot {\rm lg} \hspace{0.1cm}(2.33) - 10 \cdot {\rm lg} \hspace{0.1cm} (8/7) = 7.35\,{\rm dB} - 0.58\,{\rm dB}\hspace{0.15cm}\underline{\approx 6.77\,{\rm dB}}\hspace{0.05cm}.$$
  • In analoger Weise ergibt sich für  $\varepsilon = 0.001 \ ⇒ \ {\rm Q}^{–1}(\varepsilon) = 3.09$:
$$10 \cdot {\rm lg} \hspace{0.1cm} E_{\rm B}/N_0 = 20 \cdot {\rm lg} \hspace{0.1cm}(3.09) - 0.58\,{\rm dB}\hspace{0.15cm}\underline{\approx 9.22\,{\rm dB}}\hspace{0.05cm}.$$


(5)  Wir beziehen uns hier auf die Blockfehlerwahrscheinlichkeit  $10^{–5}$.

  • Nach dem Ergebnis der Teilaufgabe  (2)  darf dann die BSC–Verfälschungswahrscheinlichkeit nicht größer sein als
$$\varepsilon = \sqrt{{10^{-5}}/{21}} = 6.9 \cdot 10^{-4} \hspace{0.3cm} \Rightarrow \hspace{0.3cm} {\rm Q}^{-1}(\varepsilon) = 3.2 \hspace{0.3cm} \Rightarrow \hspace{0.3cm} 10 \cdot {\rm lg} \hspace{0.1cm} E_{\rm B}/N_0 = 9.52\,{\rm dB}\hspace{0.05cm}.$$
  • Mit "Soft Decision" genügen laut Angabe $8 \ {\rm dB} \ ⇒ \ 10 · \lg {G_{\rm SD}} \ \underline{= 1.52 \ {\rm dB}}$.