Stochastische Signaltheorie/Binomialverteilung: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
(7 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 6: Zeile 6:
 
}}
 
}}
 
==Allgemeine Beschreibung der Binomialverteilung==
 
==Allgemeine Beschreibung der Binomialverteilung==
Die '''Binomialverteilung''' stellt einen wichtigen Sonderfall für die Auftrittswahrscheinlichkeiten einer diskreten Zufallsgröße dar.  
+
<br>
 +
{{BlaueBox|TEXT= 
 +
$\text{Definition:}$&nbsp;
 +
Die&nbsp; '''Binomialverteilung'''&nbsp; stellt einen wichtigen Sonderfall für die Auftrittswahrscheinlichkeiten einer diskreten Zufallsgröße dar.  
  
Zur Herleitung der Binomialverteilung gehen wir davon aus, dass $I$ binäre und statistisch voneinander unabhängige Zufallsgrößen $b_i$  
+
Zur Herleitung der Binomialverteilung gehen wir davon aus,&nbsp; dass&nbsp; $I$&nbsp; binäre und statistisch voneinander unabhängige Zufallsgrößen&nbsp; $b_i$&nbsp; jeweils
*den Wert $1$ mit der Wahrscheinlichkeit ${\rm Pr}(b_i = 1) = p$, und  
+
*den Wert&nbsp; $1$&nbsp; mit der Wahrscheinlichkeit&nbsp; ${\rm Pr}(b_i = 1) = p$,&nbsp; und  
*den Wert  $0$ mit der Wahrscheinlichkeit ${\rm Pr}(b_i = 0) = 1-p$ annehmen kann.
+
*den Wert&nbsp; $0$&nbsp; mit der Wahrscheinlichkeit&nbsp; ${\rm Pr}(b_i = 0) = 1-p$  
  
  
Dann ist die Summe $z$ ebenfalls eine diskrete Zufallsgröße mit dem Symbolvorrat $\{0, 1, 2, ... , I\}$, die man als binomialverteilt bezeichnet:
+
annehmen können.
 +
 
 +
Dann ist die Summe&nbsp; $z$&nbsp; ebenfalls eine diskrete Zufallsgröße mit dem Symbolvorrat&nbsp; $\{0, \ 1, \ 2,\hspace{0.1cm}\text{ ...} \hspace{0.1cm}, \ I\}$,&nbsp; die man als binomialverteilt bezeichnet:
 
:$$z=\sum_{i=1}^{I}b_i.$$  
 
:$$z=\sum_{i=1}^{I}b_i.$$  
Der Symbolumfang beträgt somit $M = I + 1.$  
+
Der Symbolumfang beträgt somit&nbsp; $M = I + 1.$ }}
  
{{Beispiel}}
+
 
 +
{{GraueBox|TEXT= 
 +
$\text{Beispiel 1:}$&nbsp;
 
Die Binomialverteilung findet in der Nachrichtentechnik ebenso wie in anderen Disziplinen mannigfaltige Anwendungen:   
 
Die Binomialverteilung findet in der Nachrichtentechnik ebenso wie in anderen Disziplinen mannigfaltige Anwendungen:   
*Sie beschreibt die Verteilung von Ausschussstücken in der statistischen Qualitätskontrolle.  
+
#&nbsp; Sie beschreibt die Verteilung von Ausschussstücken in der statistischen Qualitätskontrolle.  
*Sie erlaubt die Berechnung der Restfehlerwahrscheinlichkeit bei blockweiser Codierung.  
+
#&nbsp; Sie erlaubt die Berechnung der Restfehlerwahrscheinlichkeit bei blockweiser Codierung.  
*Auch die per Simulation gewonnene Bitfehlerquote eines digitalen Übertragungssystems ist eigentlich eine binomialverteilte Zufallsgröße.
+
#&nbsp; Auch die per Simulation gewonnene Bitfehlerquote eines digitalen Übertragungssystems ist eigentlich eine binomialverteilte Zufallsgröße.}}
{{end}}
 
  
 
==Wahrscheinlichkeiten der Binomialverteilung==
 
==Wahrscheinlichkeiten der Binomialverteilung==
 
+
<br>
{{Definition}}
+
{{BlaueBox|TEXT= 
Für die '''Wahrscheinlichkeiten der Binomialverteilung''' gilt mit $μ = 0, ... , I$:
+
$\text{Berechnungsvorschrift:}$&nbsp;
$$p_\mu = {\rm Pr}(z=\mu)={I \choose \mu}\cdot p^\mu\cdot ({\rm 1}-p)^{I-\mu}.$$
+
Für die&nbsp;  '''Wahrscheinlichkeiten der Binomialverteilung'''&nbsp;  gilt mit&nbsp;  $μ = 0, \hspace{0.1cm}\text{...} \hspace{0.1cm}, \ I$:
Der erste Term gibt hierbei die Anzahl der Kombinationen ($I$ '''über''' $μ$”) an:  
+
:$$p_\mu = {\rm Pr}(z=\mu)={I \choose \mu}\cdot p\hspace{0.05cm}^\mu\cdot ({\rm 1}-p)\hspace{0.05cm}^{I-\mu}.$$
$${I \choose \mu}=\frac{I !}{\mu !\cdot (I-\mu) !}=\frac{ {I\cdot (I- 1) \cdot \ \cdots \ \cdot (I-\mu+ 1)} }{ 1\cdot  2\cdot \ \cdots \ \cdot  \mu}.$$
+
Der erste Term gibt hierbei die Anzahl der Kombinationen an &nbsp; $($sprich:&nbsp;  $I\ \text{  über }\ μ)$:
{{end}}
+
:$${I \choose \mu}=\frac{I !}{\mu !\cdot (I-\mu) !}=\frac{ {I\cdot (I- 1) \cdot \ \cdots \ \cdot (I-\mu+ 1)} }{ 1\cdot  2\cdot \ \cdots \ \cdot  \mu}.$$}}
  
  
 
''Weitere Hinweise:''
 
''Weitere Hinweise:''
*Für sehr große Werte von $I$ kann die Binomialverteilung durch die im nächsten Abschnitt beschriebene [[Stochastische_Signaltheorie/Poissonverteilung|Poissonverteilung]] angenähert werden.  
+
*Für sehr große Werte von&nbsp;  $I$&nbsp;  kann die Binomialverteilung durch die im nächsten Abschnitt beschriebene&nbsp;  [[Stochastische_Signaltheorie/Poissonverteilung|Poissonverteilung]]&nbsp;  angenähert werden.  
*Ist gleichzeitig das Produkt $I · p \gg 1$, so geht nach dem [https://de.wikipedia.org/wiki/Satz_von_Moivre-Laplace Grenzwertsatz von de Moivre-Laplace] die Poissonverteilung (und damit auch die Binomialverteilung) in eine diskrete [[Stochastische_Signaltheorie/Gaußverteilte_Zufallsgröße|Gaußverteilung]] über.
+
*Ist gleichzeitig das Produkt&nbsp;  $I · p \gg 1$,&nbsp;  so geht nach dem&nbsp;  [https://de.wikipedia.org/wiki/Satz_von_Moivre-Laplace Grenzwertsatz von de Moivre-Laplace]&nbsp;  die Poissonverteilung&nbsp;  (und damit auch die Binomialverteilung)&nbsp;  in eine diskrete&nbsp; [[Stochastische_Signaltheorie/Gaußverteilte_Zufallsgröße|Gaußverteilung]]&nbsp; über.
 
 
{{Beispiel}}
 
[[Datei:P_ID203__Sto_T_2_3_S2_neu.png | Wahrscheinlichkeiten der Binomialverteilung | rechts]]
 
Die Grafik zeigt die Wahrscheinlichkeiten der Binomialverteilung sind für $I =6$  und $p =0.4$. Von Null verschieden sind somit $M = I+1=7$ Wahrscheinlichkeiten.
 
  
Dagegen ergeben sich für $I = 6$ und $p = 0.5$ die folgenden Binomialwahrscheinlichkeiten:
 
$$\begin{align*}{\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}0)  & =  {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}6)\hspace{-0.05cm} =\hspace{-0.05cm} 1/64\hspace{-0.05cm} = \hspace{-0.05cm}0.015625 ,\\ {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}1)  & =  {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}5) \hspace{-0.05cm}= \hspace{-0.05cm}6/64 \hspace{-0.05cm}=\hspace{-0.05cm} 0.09375,\\ {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}2)  & =  {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}4)\hspace{-0.05cm} = \hspace{-0.05cm}15/64 \hspace{-0.05cm}= \hspace{-0.05cm}0.234375 ,\\ {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}3)  & =  20/64 \hspace{-0.05cm}= \hspace{-0.05cm} 0.3125 .\end{align*}$$
 
  
Diese sind symmetrisch bezüglich des Abszissenwertes $\mu = I/2$.
+
[[Datei:P_ID203__Sto_T_2_3_S2_neu.png |frame| Wahrscheinlichkeiten der Binomialverteilung | rechts]]
{{end}}
+
{{GraueBox|TEXT= 
 +
$\text{Beispiel 2:}$&nbsp;
 +
Die Grafik zeigt die Wahrscheinlichkeiten der Binomialverteilung sind für&nbsp; $I =6$&nbsp; und&nbsp; $p =0.4$.&nbsp;
 +
*Von Null verschieden sind somit&nbsp; $M = I+1=7$&nbsp; Wahrscheinlichkeiten.
  
 +
*Dagegen ergeben sich für&nbsp; $I = 6$&nbsp; und&nbsp; $p = 0.5$ die folgenden Binomialwahrscheinlichkeiten:
 +
:$$\begin{align*}{\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}0)  & =  {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}6)\hspace{-0.05cm} =\hspace{-0.05cm} 1/64\hspace{-0.05cm} = \hspace{-0.05cm}0.015625 ,\\ {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}1)  & =  {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}5) \hspace{-0.05cm}= \hspace{-0.05cm}6/64 \hspace{-0.05cm}=\hspace{-0.05cm} 0.09375,\\ {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}2)  & =  {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}4)\hspace{-0.05cm} = \hspace{-0.05cm}15/64 \hspace{-0.05cm}= \hspace{-0.05cm}0.234375 ,\\ {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}3)  & =  20/64 \hspace{-0.05cm}= \hspace{-0.05cm} 0.3125 .\end{align*}$$
  
Mit nachfolgendem Berechnungsmodul können Sie die Binomialwahrscheinlichkeiten auch für andere Parameterwerte $I$ und $p$ ermitteln:
+
*Diese sind symmetrisch bezüglich des Abszissenwertes&nbsp;  $\mu = I/2 = 3$.}}
  
[[Ereigniswahrscheinlichkeiten der Binomialverteilung]]
 
  
 +
Ein weiteres Beispiel für die Anwendung der Binomialverteilung ist die&nbsp; '''Berechnung der Blockfehlerwahrscheinlichkeit bei digitaler Übertragung'''.
  
 +
{{GraueBox|TEXT= 
 +
$\text{Beispiel 3:}$&nbsp;
 +
Überträgt man jeweils Blöcke von&nbsp; $I =10$&nbsp; Binärsymbolen über einen Kanal,&nbsp; der
 +
*mit der Wahrscheinlichkeit&nbsp; $p = 0.01$&nbsp; ein Symbol verfälscht &nbsp; &rArr; &nbsp; Zufallsgröße&nbsp; $e_i = 1$,&nbsp; und
 +
*entsprechend mit der Wahrscheinlichkeit&nbsp; $1 - p = 0.99$&nbsp; das Symbol unverfälscht überträgt  &nbsp; &rArr; &nbsp; Zufallsgröße&nbsp; $e_i = 0$,
  
  
==Blockfehlerwahrscheinlichkeit==
+
so gilt für die neue Zufallsgröße&nbsp; $f$&nbsp;  (&bdquo;Fehler pro Block&rdquo;):
Ein weiteres Beispiel für die Anwendung der Binomialverteilung ist die Berechnung der Blockfehlerwahrscheinlichkeit bei einem digitalen Übertragungssystem.
+
:$$f=\sum_{i=1}^{I}e_i.$$
  
{{Beispiel}}
+
Diese Zufallsgröße&nbsp; $f$&nbsp; kann nun alle ganzzahligen Werte zwischen&nbsp; $0$&nbsp; (kein Symbol verfälscht)&nbsp; und&nbsp; $I$&nbsp; (alle Symbole falsch)&nbsp; annehmen.&nbsp;
Überträgt man jeweils Blöcke von $I =10$ Binärsymbolen über einen Kanal, der
+
*Die Wahrscheinlichkeiten für&nbsp; $\mu$ &nbsp; Verfälschungen bezeichnen wir mit&nbsp; $p_μ$.  
*mit der Wahrscheinlichkeit $p = 0.01$ ein Symbol verfälscht &nbsp; &rArr; &nbsp; Zufallsgröße $e_i = 1$, und
+
*Der Fall,&nbsp; dass alle&nbsp; $I$&nbsp; Symbole richtig übertragen werden,&nbsp; tritt mit der Wahrscheinlichkeit&nbsp; $p_0 = 0.99^{10} ≈ 0.9044$&nbsp; ein.  
*entsprechend mit der Wahrscheinlichkeit $1 – p = 0.99$ das Symbol unverfälscht überträgt  &nbsp; &rArr; &nbsp; Zufallsgröße $e_i = 0$,
+
*Dies ergibt sich auch aus der Binomialformel für&nbsp; $μ = 0$&nbsp; unter Berücksichtigung der Definition&nbsp; $10\, \text{ über }\, 0 = 1$.  
so gilt für die neue Zufallsgröße $f$ (&bdquo;Fehler pro Block&rdquo;):
+
*Ein einziger Symbolfehler&nbsp; $(f = 1)$&nbsp; tritt mit folgender Wahrscheinlichkeit auf:  
$$f=\sum_{i=1}^{I}e_i.$$
 
 
 
Die Zufallsgröße $f$ kann nun alle ganzzahligen Werte zwischen $0$ (kein Symbol verfälscht) und $I$ (alle Symbole falsch) annehmen. Die Wahrscheinlichkeiten für $\mu$ Verfälschungen bezeichnen wir mit $p_μ$.  
 
*Der Fall, dass alle $I$ Symbole richtig übertragen werden, tritt mit der Wahrscheinlichkeit $p_0 = 0.99^{10} ≈ 0.9044$ ein. Dies ergibt sich auch aus der Binomialformel für $μ = 0$ unter Berücksichtigung der Definition „10 über 0“ = 1.  
 
*Ein einziger Symbolfehler $(f = 1)$ tritt mit folgender Wahrscheinlichkeit auf:  
 
 
:$$p_1 = \rm 10\cdot 0.01\cdot 0.99^9\approx 0.0914.$$
 
:$$p_1 = \rm 10\cdot 0.01\cdot 0.99^9\approx 0.0914.$$
Der erste Faktor berücksichtigt, dass es für die Position eines einzigen Fehlers genau „10 über 1“ = $10$ Möglichkeiten gibt. Die beiden weiteren Faktoren beücksichtigen, dass ein Symbol verfälscht und neun richtig übertragen werden müssen, wenn $f =1$ gelten soll.  
+
::Der erste Faktor berücksichtigt,&nbsp; dass es für die Position eines einzigen Fehlers genau&nbsp; $10\, \text{ über }\, 1 = 10$&nbsp; Möglichkeiten gibt.&nbsp;
*Für $f =2$ gibt es deutlich mehr Kombinationen, nämlich „10 über 2“ = $45$, und man erhält  
+
::Die beiden weiteren Faktoren berücksichtigen,&nbsp; dass ein Symbol verfälscht und neun richtig übertragen werden müssen,&nbsp; wenn&nbsp; $f =1$&nbsp; gelten soll.  
 +
*Für&nbsp; $f =2$&nbsp; gibt es deutlich mehr Kombinationen, nämlich&nbsp; "$10\, \text{ über }\, 2 = 45$",&nbsp; und man erhält  
 
:$$p_2 = \rm 45\cdot 0.01^2\cdot 0.99^8\approx 0.0041.$$
 
:$$p_2 = \rm 45\cdot 0.01^2\cdot 0.99^8\approx 0.0041.$$
  
Kann ein Blockcode bis zu zwei Fehlern korrigieren, so ist die Restfehlerwahrscheinlichkeit
+
Kann ein Blockcode bis zu zwei Fehler korrigieren,&nbsp; so ist die Restfehlerwahrscheinlichkeit
$$p_{\rm R} = \it p_{\rm 3} \rm +... \rm + \it p_{\rm 10}\approx \rm 10^{-4},$$
+
:$$p_{\rm R} = \it p_{\rm 3} \rm +\hspace{0.1cm}\text{ ...} \hspace{0.1cm} \rm + \it p_{\rm 10}\approx \rm 10^{-4},$$
 
oder
 
oder
$$p_{\rm R} = \rm 1-\it p_{\rm 0}-\it p_{\rm 1}-p_{\rm 2}\approx \rm 10^{-4}.$$
+
:$$p_{\rm R} = \rm 1-\it p_{\rm 0}-\it p_{\rm 1}-p_{\rm 2}\approx \rm 10^{-4}.$$
 +
 
 +
*Man erkennt,&nbsp; dass die zweite Berechnungsmöglichkeit über das Komplement für große Werte von&nbsp; $I$&nbsp; schneller zum Ziel führt.
 +
*Man könnte aber auch als Näherung berücksichtigen,&nbsp; dass bei diesen Zahlenwerten&nbsp; $p_{\rm R} ≈ p_3$&nbsp; gilt. }}
 +
 
 +
 
 +
Mit dem interaktiven HTML5/JavaScript&ndash;Applet&nbsp; [[Applets:Binomial-_und_Poissonverteilung_(Applet)|Binomial&ndash; und Poissonverteilung]]&nbsp; können Sie die Binomialwahrscheinlichkeiten für beliebige&nbsp; $I$&nbsp; und&nbsp; $p$&nbsp; ermitteln.
  
Man erkennt, dass die zweite Berechnungsmöglichkeit über das Komplement schneller zum Ziel führt. Man könnte aber auch berücksichtigen, dass bei diesen Zahlenwerten $p_{\rm R} ≈ p_3$ gilt.
 
{{end}}
 
  
 
==Momente der Binomialverteilung==
 
==Momente der Binomialverteilung==
Die Momente können mit den Gleichungen im Kapitel [[Stochastische_Signaltheorie/Momente_einer_diskreten_Zufallsgröße|Momente einer diskreten Zufallsgröße]]  und den  [[Stochastische_Signaltheorie/Binomialverteilung#Wahrscheinlichkeiten_der_Binomialverteilung|Wahrscheinlichkeiten der Binomialverteilung]]  allgemein berechnet werden.  
+
<br>
 +
Die Momente kann man mit den Gleichungen der Kapitel&nbsp; [[Stochastische_Signaltheorie/Momente_einer_diskreten_Zufallsgröße|Momente einer diskreten Zufallsgröße]]&nbsp; und&nbsp; [[Stochastische_Signaltheorie/Binomialverteilung#Wahrscheinlichkeiten_der_Binomialverteilung|Wahrscheinlichkeiten der Binomialverteilung]]&nbsp; allgemein berechnen.  
  
{{Definition}}
+
{{BlaueBox|TEXT= 
Für das '''Moment $k$-ter Ordnung''' einer binomialverteilten Zufallsgröße gilt:  
+
$\text{Berechnungsvorschriften:} $&nbsp; Für das&nbsp; '''Moment $k$-ter Ordnung'''&nbsp; einer binomialverteilten Zufallsgröße gilt allgemein:  
$$m_k=\rm E[\it z^k \rm ]=\sum_{\mu={\rm 0}}^{I}\mu^k\cdot{I \choose \mu}\cdot p^\mu\cdot ({\rm 1}-p)^{I-\mu}.$$
+
:$$m_k={\rm E}\big[z^k\big]=\sum_{\mu={\rm 0} }^{I}\mu^k\cdot{I \choose \mu}\cdot p\hspace{0.05cm}^\mu\cdot ({\rm 1}-p)\hspace{0.05cm}^{I-\mu}.$$
{{end}}
 
  
 
Daraus erhält man nach einigen Umformungen für  
 
Daraus erhält man nach einigen Umformungen für  
 
*den linearen Mittelwert:  
 
*den linearen Mittelwert:  
:$$m_1 = I\cdot p,$$
+
:$$m_1 ={\rm E}\big[z\big]= I\cdot p,$$
 
*den quadratischen Mittelwert:  
 
*den quadratischen Mittelwert:  
:$$m_2 = (I^2-I)\cdot p^2+I\cdot p.$$
+
:$$m_2 ={\rm E}\big[z^2\big]= (I^2-I)\cdot p^2+I\cdot p.$$
 
Die Varianz und die Streuung erhält man durch Anwendung des &bdquo;Steinerschen Satzes&rdquo;:
 
Die Varianz und die Streuung erhält man durch Anwendung des &bdquo;Steinerschen Satzes&rdquo;:
 
:$$\sigma^2 = {m_2-m_1^2} = {I \cdot p\cdot (1-p)} \hspace{0.3cm}\Rightarrow \hspace{0.3cm}
 
:$$\sigma^2 = {m_2-m_1^2} = {I \cdot p\cdot (1-p)} \hspace{0.3cm}\Rightarrow \hspace{0.3cm}
\sigma =  \sqrt{I \cdot p\cdot (1-p)}.$$
+
\sigma =  \sqrt{I \cdot p\cdot (1-p)}.$$}}
  
Die maximale Varianz $σ^2 = I/4$ ergibt sich für die charakteristische Wahrscheinlichkeit $p = 1/2$. In diesem Fall sind die Wahrscheinlichkeit symmetrisch um den Mittelwert $m_1 = I/2  \ ⇒  \ p_μ = p_{I–μ}$.
 
  
Je mehr die charakteristische Wahrscheinlichkeit $p$ vom Wert $1/2$ abweicht,
+
Die maximale Varianz&nbsp; $σ^2 = I/4$&nbsp; ergibt sich für die &bdquo;charakteristische Wahrscheinlichkeit&rdquo;&nbsp; $p = 1/2$.&nbsp; In diesem Fall sind die Wahrscheinlichkeiten symmetrisch um den Mittelwert&nbsp; $m_1 = I/2  \ ⇒  \ p_μ = p_{I–μ}$.  
*um so kleiner ist die Streuung $σ$, und
 
*um so unsymmetrischer werden die Wahrscheinlichkeiten um den Mittelwert $m_1 = I · p$.  
 
  
{{Beispiel}}
+
Je mehr die charakteristische Wahrscheinlichkeit&nbsp; $p$&nbsp; vom Wert&nbsp; $1/2$&nbsp; abweicht,
Wir betrachten wie im letzten Beispiel einen Block von $I =10$ Binärsymbolen, die jeweils mit der Wahrscheinlichkeit $p = 0.01$ unabhängig voneinander verfälscht werden. Dann gilt:
+
*um so kleiner ist die Streuung&nbsp; $σ$, und
*Die mittlere Anzahl von Fehlern pro Block ist gleich $m_f  = {\rm E}[ f] = I · p = 0.1$.
+
*um so unsymmetrischer werden die Wahrscheinlichkeiten um den Mittelwert&nbsp; $m_1 = I · p$.  
*Die Streuung (Standardabweichung) der Zufallsgröße $f$ beträgt $σ_f  = \sqrt{0.1 \cdot 0.99}≈ 0.315$.
 
  
  
Im vollständig gestörten Kanal  ⇒  Verfälschungswahrscheinlichkeit $p = 1/2$ ergeben sich demgegenüber die Werte  
+
{{GraueBox|TEXT= 
*$m_f  = 5$  ⇒  im Mittel sind fünf der zehn Bits innerhalb eines Blocks falsch,
+
$\text{Beispiel 4:}$&nbsp;
* $σ_f  = \sqrt{I}/2 ≈1.581$  ⇒  maximale Streuung für $I = 10$.
+
Wir betrachten wie im&nbsp; $\text{Beispiel 3}$&nbsp; einen Block von&nbsp; $I =10$&nbsp; Binärsymbolen,&nbsp; die jeweils mit der Wahrscheinlichkeit&nbsp; $p = 0.01$&nbsp; unabhängig voneinander verfälscht werden.&nbsp; Dann gilt:
{{end}}
+
*Die mittlere Anzahl von Fehlern pro Block ist gleich&nbsp; $m_f  = {\rm E}\big[ f\big] = I · p = 0.1$.
 +
*Die Streuung (Standardabweichung) der Zufallsgröße&nbsp; $f$&nbsp;  beträgt&nbsp; $σ_f  = \sqrt{0.1 \cdot 0.99}≈ 0.315$.
 +
 
 +
 
 +
Im vollständig gestörten Kanal  &nbsp;  ⇒  &nbsp; Verfälschungswahrscheinlichkeit&nbsp; $p = 1/2$&nbsp; ergeben sich demgegenüber die Werte  
 +
*$m_f  = 5$ &nbsp;   ⇒  &nbsp; im Mittel sind fünf der zehn Bit innerhalb eines Blocks falsch,
 +
* $σ_f  = \sqrt{I}/2 ≈1.581$   &nbsp;   ⇒ &nbsp; maximale Streuung für&nbsp; $I = 10$.}}
  
 
==Aufgaben zum Kapitel==
 
==Aufgaben zum Kapitel==
 +
<br>
 +
[[Aufgaben:2.3 Summe von Binärzahlen|Aufgabe 2.3: Summe von Binärzahlen]]
  
[[Aufgaben:2.3 Summe von Binärzahlen|Aufgabe 2.3: &nbsp; Summe von Binärzahlen]]
+
[[Aufgaben:2.4 Zahlenlotto (6 aus 49)|Aufgabe 2.4: Zahlenlotto (6 aus 49)]]
 
 
[[Aufgaben:2.4 Zahlenlotto (6 aus 49)|Aufgabe 2.4: &nbsp; Zahlenlotto (6 aus 49)]]
 
  
  

Aktuelle Version vom 15. Dezember 2021, 13:18 Uhr

Allgemeine Beschreibung der Binomialverteilung


$\text{Definition:}$  Die  Binomialverteilung  stellt einen wichtigen Sonderfall für die Auftrittswahrscheinlichkeiten einer diskreten Zufallsgröße dar.

Zur Herleitung der Binomialverteilung gehen wir davon aus,  dass  $I$  binäre und statistisch voneinander unabhängige Zufallsgrößen  $b_i$  jeweils

  • den Wert  $1$  mit der Wahrscheinlichkeit  ${\rm Pr}(b_i = 1) = p$,  und
  • den Wert  $0$  mit der Wahrscheinlichkeit  ${\rm Pr}(b_i = 0) = 1-p$


annehmen können.

Dann ist die Summe  $z$  ebenfalls eine diskrete Zufallsgröße mit dem Symbolvorrat  $\{0, \ 1, \ 2,\hspace{0.1cm}\text{ ...} \hspace{0.1cm}, \ I\}$,  die man als binomialverteilt bezeichnet:

$$z=\sum_{i=1}^{I}b_i.$$

Der Symbolumfang beträgt somit  $M = I + 1.$


$\text{Beispiel 1:}$  Die Binomialverteilung findet in der Nachrichtentechnik ebenso wie in anderen Disziplinen mannigfaltige Anwendungen:

  1.   Sie beschreibt die Verteilung von Ausschussstücken in der statistischen Qualitätskontrolle.
  2.   Sie erlaubt die Berechnung der Restfehlerwahrscheinlichkeit bei blockweiser Codierung.
  3.   Auch die per Simulation gewonnene Bitfehlerquote eines digitalen Übertragungssystems ist eigentlich eine binomialverteilte Zufallsgröße.

Wahrscheinlichkeiten der Binomialverteilung


$\text{Berechnungsvorschrift:}$  Für die  Wahrscheinlichkeiten der Binomialverteilung  gilt mit  $μ = 0, \hspace{0.1cm}\text{...} \hspace{0.1cm}, \ I$:

$$p_\mu = {\rm Pr}(z=\mu)={I \choose \mu}\cdot p\hspace{0.05cm}^\mu\cdot ({\rm 1}-p)\hspace{0.05cm}^{I-\mu}.$$

Der erste Term gibt hierbei die Anzahl der Kombinationen an   $($sprich:  $I\ \text{ über }\ μ)$:

$${I \choose \mu}=\frac{I !}{\mu !\cdot (I-\mu) !}=\frac{ {I\cdot (I- 1) \cdot \ \cdots \ \cdot (I-\mu+ 1)} }{ 1\cdot 2\cdot \ \cdots \ \cdot \mu}.$$


Weitere Hinweise:

  • Für sehr große Werte von  $I$  kann die Binomialverteilung durch die im nächsten Abschnitt beschriebene  Poissonverteilung  angenähert werden.
  • Ist gleichzeitig das Produkt  $I · p \gg 1$,  so geht nach dem  Grenzwertsatz von de Moivre-Laplace  die Poissonverteilung  (und damit auch die Binomialverteilung)  in eine diskrete  Gaußverteilung  über.


Wahrscheinlichkeiten der Binomialverteilung

$\text{Beispiel 2:}$  Die Grafik zeigt die Wahrscheinlichkeiten der Binomialverteilung sind für  $I =6$  und  $p =0.4$. 

  • Von Null verschieden sind somit  $M = I+1=7$  Wahrscheinlichkeiten.
  • Dagegen ergeben sich für  $I = 6$  und  $p = 0.5$ die folgenden Binomialwahrscheinlichkeiten:
$$\begin{align*}{\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}0) & = {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}6)\hspace{-0.05cm} =\hspace{-0.05cm} 1/64\hspace{-0.05cm} = \hspace{-0.05cm}0.015625 ,\\ {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}1) & = {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}5) \hspace{-0.05cm}= \hspace{-0.05cm}6/64 \hspace{-0.05cm}=\hspace{-0.05cm} 0.09375,\\ {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}2) & = {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}4)\hspace{-0.05cm} = \hspace{-0.05cm}15/64 \hspace{-0.05cm}= \hspace{-0.05cm}0.234375 ,\\ {\rm Pr}(z\hspace{-0.05cm} =\hspace{-0.05cm}3) & = 20/64 \hspace{-0.05cm}= \hspace{-0.05cm} 0.3125 .\end{align*}$$
  • Diese sind symmetrisch bezüglich des Abszissenwertes  $\mu = I/2 = 3$.


Ein weiteres Beispiel für die Anwendung der Binomialverteilung ist die  Berechnung der Blockfehlerwahrscheinlichkeit bei digitaler Übertragung.

$\text{Beispiel 3:}$  Überträgt man jeweils Blöcke von  $I =10$  Binärsymbolen über einen Kanal,  der

  • mit der Wahrscheinlichkeit  $p = 0.01$  ein Symbol verfälscht   ⇒   Zufallsgröße  $e_i = 1$,  und
  • entsprechend mit der Wahrscheinlichkeit  $1 - p = 0.99$  das Symbol unverfälscht überträgt   ⇒   Zufallsgröße  $e_i = 0$,


so gilt für die neue Zufallsgröße  $f$  („Fehler pro Block”):

$$f=\sum_{i=1}^{I}e_i.$$

Diese Zufallsgröße  $f$  kann nun alle ganzzahligen Werte zwischen  $0$  (kein Symbol verfälscht)  und  $I$  (alle Symbole falsch)  annehmen. 

  • Die Wahrscheinlichkeiten für  $\mu$   Verfälschungen bezeichnen wir mit  $p_μ$.
  • Der Fall,  dass alle  $I$  Symbole richtig übertragen werden,  tritt mit der Wahrscheinlichkeit  $p_0 = 0.99^{10} ≈ 0.9044$  ein.
  • Dies ergibt sich auch aus der Binomialformel für  $μ = 0$  unter Berücksichtigung der Definition  $10\, \text{ über }\, 0 = 1$.
  • Ein einziger Symbolfehler  $(f = 1)$  tritt mit folgender Wahrscheinlichkeit auf:
$$p_1 = \rm 10\cdot 0.01\cdot 0.99^9\approx 0.0914.$$
Der erste Faktor berücksichtigt,  dass es für die Position eines einzigen Fehlers genau  $10\, \text{ über }\, 1 = 10$  Möglichkeiten gibt. 
Die beiden weiteren Faktoren berücksichtigen,  dass ein Symbol verfälscht und neun richtig übertragen werden müssen,  wenn  $f =1$  gelten soll.
  • Für  $f =2$  gibt es deutlich mehr Kombinationen, nämlich  "$10\, \text{ über }\, 2 = 45$",  und man erhält
$$p_2 = \rm 45\cdot 0.01^2\cdot 0.99^8\approx 0.0041.$$

Kann ein Blockcode bis zu zwei Fehler korrigieren,  so ist die Restfehlerwahrscheinlichkeit

$$p_{\rm R} = \it p_{\rm 3} \rm +\hspace{0.1cm}\text{ ...} \hspace{0.1cm} \rm + \it p_{\rm 10}\approx \rm 10^{-4},$$

oder

$$p_{\rm R} = \rm 1-\it p_{\rm 0}-\it p_{\rm 1}-p_{\rm 2}\approx \rm 10^{-4}.$$
  • Man erkennt,  dass die zweite Berechnungsmöglichkeit über das Komplement für große Werte von  $I$  schneller zum Ziel führt.
  • Man könnte aber auch als Näherung berücksichtigen,  dass bei diesen Zahlenwerten  $p_{\rm R} ≈ p_3$  gilt.


Mit dem interaktiven HTML5/JavaScript–Applet  Binomial– und Poissonverteilung  können Sie die Binomialwahrscheinlichkeiten für beliebige  $I$  und  $p$  ermitteln.


Momente der Binomialverteilung


Die Momente kann man mit den Gleichungen der Kapitel  Momente einer diskreten Zufallsgröße  und  Wahrscheinlichkeiten der Binomialverteilung  allgemein berechnen.

$\text{Berechnungsvorschriften:} $  Für das  Moment $k$-ter Ordnung  einer binomialverteilten Zufallsgröße gilt allgemein:

$$m_k={\rm E}\big[z^k\big]=\sum_{\mu={\rm 0} }^{I}\mu^k\cdot{I \choose \mu}\cdot p\hspace{0.05cm}^\mu\cdot ({\rm 1}-p)\hspace{0.05cm}^{I-\mu}.$$

Daraus erhält man nach einigen Umformungen für

  • den linearen Mittelwert:
$$m_1 ={\rm E}\big[z\big]= I\cdot p,$$
  • den quadratischen Mittelwert:
$$m_2 ={\rm E}\big[z^2\big]= (I^2-I)\cdot p^2+I\cdot p.$$

Die Varianz und die Streuung erhält man durch Anwendung des „Steinerschen Satzes”:

$$\sigma^2 = {m_2-m_1^2} = {I \cdot p\cdot (1-p)} \hspace{0.3cm}\Rightarrow \hspace{0.3cm} \sigma = \sqrt{I \cdot p\cdot (1-p)}.$$


Die maximale Varianz  $σ^2 = I/4$  ergibt sich für die „charakteristische Wahrscheinlichkeit”  $p = 1/2$.  In diesem Fall sind die Wahrscheinlichkeiten symmetrisch um den Mittelwert  $m_1 = I/2 \ ⇒ \ p_μ = p_{I–μ}$.

Je mehr die charakteristische Wahrscheinlichkeit  $p$  vom Wert  $1/2$  abweicht,

  • um so kleiner ist die Streuung  $σ$, und
  • um so unsymmetrischer werden die Wahrscheinlichkeiten um den Mittelwert  $m_1 = I · p$.


$\text{Beispiel 4:}$  Wir betrachten wie im  $\text{Beispiel 3}$  einen Block von  $I =10$  Binärsymbolen,  die jeweils mit der Wahrscheinlichkeit  $p = 0.01$  unabhängig voneinander verfälscht werden.  Dann gilt:

  • Die mittlere Anzahl von Fehlern pro Block ist gleich  $m_f = {\rm E}\big[ f\big] = I · p = 0.1$.
  • Die Streuung (Standardabweichung) der Zufallsgröße  $f$  beträgt  $σ_f = \sqrt{0.1 \cdot 0.99}≈ 0.315$.


Im vollständig gestörten Kanal   ⇒   Verfälschungswahrscheinlichkeit  $p = 1/2$  ergeben sich demgegenüber die Werte

  • $m_f = 5$   ⇒   im Mittel sind fünf der zehn Bit innerhalb eines Blocks falsch,
  • $σ_f = \sqrt{I}/2 ≈1.581$   ⇒   maximale Streuung für  $I = 10$.

Aufgaben zum Kapitel


Aufgabe 2.3: Summe von Binärzahlen

Aufgabe 2.4: Zahlenlotto (6 aus 49)