Stochastische Signaltheorie/Vom Zufallsexperiment zur Zufallsgröße: Unterschied zwischen den Versionen

Aus LNTwww
Wechseln zu:Navigation, Suche
 
(22 dazwischenliegende Versionen von 3 Benutzern werden nicht angezeigt)
Zeile 6: Zeile 6:
 
}}
 
}}
  
Dieses Kapitel soll Sie mit diskreten Zufallsgrößen vertraut machen, wobei diese als statistisch unabhängig vorausgesetzt werden. Solche Zufallsgrößen werden in der Nachrichtentechnik zum Beispiel für die Simulation eines binären oder mehrstufigen Digitalsignals benötigt, aber ebenso zur Nachbildung eines Kanals mit statistisch unabhängigen Fehlern durch ein digitales Modell, zum Beispiel dem BSC-Modell.
+
== # ÜBERBLICK ZUM ZWEITEN HAUPTKAPITEL # ==
 +
<br>
 +
Dieses Kapitel soll Sie mit&nbsp; '''diskreten Zufallsgrößen'''&nbsp; vertraut machen,&nbsp; wobei diese als statistisch unabhängig vorausgesetzt werden.&nbsp; Solche Zufallsgrößen werden in der Nachrichtentechnik zum Beispiel für die Simulation eines binären oder mehrstufigen Digitalsignals benötigt,&nbsp; aber ebenso zur Nachbildung eines Kanals mit statistisch unabhängigen Fehlern durch ein digitales Modell,&nbsp; zum Beispiel dem BSC-Modell.
 +
 
 +
Im Einzelnen werden behandelt:
 +
*der&nbsp; &raquo;Zusammenhang zwischen Wahrscheinlichkeit und relativer Häufigkeit&laquo;,
 +
*die&nbsp; &raquo;Erwartungswerte und Momente&laquo;,
 +
*die&nbsp; &raquo;Binomial- und die Poissonverteilung&laquo;&nbsp; als Sonderfälle diskreter Verteilungen,
 +
*die&nbsp; &raquo;Erzeugung pseudozufälliger Binärsymbole&laquo;&nbsp; mittels&nbsp; &raquo;PN-Generatoren&laquo;,&nbsp; und
 +
*die&nbsp; &raquo;Erzeugung mehrstufiger Zufallsgrößen&laquo;&nbsp; an einem Digitalrechner.
 +
 
 +
 
  
 
Weitere Informationen zum Thema &bdquo;Diskrete Zufallsgrößen&rdquo; sowie Aufgaben, Simulationen und Programmierübungen finden Sie im
 
Weitere Informationen zum Thema &bdquo;Diskrete Zufallsgrößen&rdquo; sowie Aufgaben, Simulationen und Programmierübungen finden Sie im
  
*Kapitel 1: Diskrete Zufallsgrößen (Programm dis)
+
*Kapitel 1: &nbsp; Diskrete Zufallsgrößen (Programm dis)
*Kapitel 2: Pseudonoise-Generatoren (Programm png)
+
*Kapitel 2: &nbsp; Pseudonoise-Generatoren (Programm png)
 +
 
 +
 
 +
des Praktikums „Simulationsmethoden in der Nachrichtentechnik”.&nbsp; Diese (ehemalige) LNT-Lehrveranstaltung an der TU München basiert auf
 +
 
 +
*dem Lehrsoftwarepaket&nbsp; [http://www.lntwww.de/downloads/Sonstiges/Programme/LNTsim.zip LNTsim] &nbsp; &rArr; &nbsp; Link verweist auf die ZIP-Version des Programms,&nbsp; und
 +
*der zugehörigen&nbsp; [http://www.lntwww.de/downloads/Sonstiges/Texte/Praktikum_LNTsim_Teil_A.pdf Praktikumsanleitung]  &nbsp; &rArr; &nbsp; Link verweist auf die PDF-Version; Kapitel 1 und 2: Seite 7-32.
 +
 
  
  
des Praktikums „Simulationsmethoden in der Nachrichtentechnik”. Diese LNT-Lehrveranstaltung an der TU München basiert auf
 
  
*dem Lehrsoftwarepaket LNTsim  ⇒  Link verweist auf die ZIP-Version des Programms und
 
*dieser Praktikumsanleitung  ⇒  Link verweist auf die PDF-Version; Kapitel 1 und 2: Seite 99-118.
 
  
 
==Zum Begriff der Zufallsgröße==
 
==Zum Begriff der Zufallsgröße==
In Kapitel 1.1 wurde bereits der Begriff  [[Stochastische_Signaltheorie/Einige_grundlegende_Definitionen|Zufallsexperiment]]  erläutert. Darunter versteht man einen unter gleichen Bedingungen beliebig oft wiederholbaren Versuch mit ungewissem Ergebnis $E$, bei dem jedoch die Menge { $E_μ$} der möglichen Ergebnisse angebbar ist.  
+
<br>
 +
Im ersten Kapitel dieses Buches wurde bereits der Begriff&nbsp; [[Stochastische_Signaltheorie/Einige_grundlegende_Definitionen|Zufallsexperiment]]&nbsp; erläutert. Darunter versteht man einen unter gleichen Bedingungen beliebig oft wiederholbaren Versuch mit ungewissem Ergebnis&nbsp; $E$,&nbsp; bei dem jedoch die Menge&nbsp;  $\{E_μ \}$&nbsp; der möglichen Ergebnisse angebbar ist.  
  
Häufig sind die Versuchsergebnisse Zahlenwerte, z. B. beim Zufallsexperiment ''Werfen eines Würfels.'' Dagegen liefert das Experiment ''Münzwurf'' die zwei möglichen Ergebnisse ''Zahl'' und ''Bild.''
+
Häufig sind die Versuchsergebnisse Zahlenwerte, wie zum Beispiel beim Zufallsexperiment &bdquo;Werfen eines Würfels&rdquo;.&nbsp; Dagegen liefert das Experiment &bdquo;Münzwurf&rdquo; die möglichen Ergebnisse &bdquo;Zahl&rdquo; und &bdquo;Bild&rdquo;.  
  
Zur einheitlichen Beschreibung verschiedenartiger Experimente und auch wegen der besseren Handhabbarkeit verwendet man den Begriff ''Zufallsgröße,'' oft auch als ''Zufallsvariable'' bezeichnet.
+
Zur einheitlichen Beschreibung verschiedenartiger Experimente und auch wegen der besseren Handhabbarkeit verwendet man den Begriff der&nbsp; &bdquo;Zufallsgröße&rdquo;, oft auch als&nbsp; &bdquo;Zufallsvariable&rdquo;&nbsp; bezeichnet.
  
{{Definition}}
+
{{BlaueBox|TEXT=
Eine Zufallsgröße $z$ ist eine ein-eindeutige Abbildung der Ergebnismenge { $E_μ$} auf die Menge der reellen Zahlen. Ergänzend zu dieser Definition wird noch zugelassen, dass die Zufallsgröße neben dem Zahlenwert auch eine Einheit besitzt.
+
[[Datei: P_ID455__Sto_T_2_1_S1_neu.png|right| |frame| Zur Definition der Zufallsgröße]] 
 +
$\text{Definition:}$&nbsp;
  
[[Datei: P_ID455__Sto_T_2_1_S1_neu.png | Zur Definition der Zufallsgröße]]
+
*Eine&nbsp; '''Zufallsgröße'''&nbsp; $z$&nbsp; ist eine ein-eindeutige Abbildung der Ergebnismenge&nbsp; $\{E_μ \}$&nbsp; auf die Menge der reellen Zahlen.&nbsp;
 
 
{{end}}
 
  
 +
 +
*Ergänzend zu dieser Definition wird noch zugelassen, dass die Zufallsgröße neben dem Zahlenwert auch eine Einheit besitzt.}}
  
  
 
Nachfolgend werden einige Beispiele für Zufallsgrößen genannt:  
 
Nachfolgend werden einige Beispiele für Zufallsgrößen genannt:  
*Beim Zufallsexperiment ''Werfen einer Roulettekugel'' hat eine Unterscheidung zwischen $E$ und $z$ keine praktischen Auswirkungen, kann aber aus formalen Gründen durchaus sinnvoll sein. So bezeichnet $„E_μ =$ 8”, dass die Kugel in der mit „8“ markierten Vertiefung der Roulettescheibe zum Liegen gekommen ist. Arithmetische Operationen (zum Beispiel eine Erwartungswertbildung) sind anhand der Ergebnisse nicht möglich. Dagegen bezeichnet die Zufallsgröße $z$ tatsächlich einen Zahlenwert (hier ganzzahlig zwischen 0 und 36), aus dem der zu erwartende Mittelwert der Zufallsgröße (hier 18) ermittelt werden kann. Durchaus möglich, aber nicht sinnvoll wäre zum Beispiel die Zuordnung $E_μ =$ 8 ⇔ $z_μ ≠$ 8.  
+
*Beim Zufallsexperiment &bdquo;Werfen einer Roulettekugel&rdquo; hat eine Unterscheidung zwischen&nbsp; $E$&nbsp; und&nbsp; $z$&nbsp; keine praktischen Auswirkungen, kann aber aus formalen Gründen durchaus sinnvoll sein.&nbsp; So bezeichnet&nbsp; $E_μ = 8$, dass die Kugel in der mit „8“ markierten Vertiefung der Roulettescheibe zum Liegen gekommen ist.&nbsp; Arithmetische Operationen&nbsp; (zum Beispiel eine Erwartungswertbildung)&nbsp; sind anhand der Ergebnisse nicht möglich. &nbsp; '''&ndash;'''&nbsp; Dagegen bezeichnet die Zufallsgröße&nbsp; $z$&nbsp; tatsächlich einen Zahlenwert&nbsp; $($hier ganzzahlig zwischen&nbsp; $0$&nbsp; und&nbsp; $36)$, aus dem der zu erwartende Mittelwert der Zufallsgröße&nbsp; $($hier&nbsp; $18)$&nbsp; ermittelt werden kann.&nbsp; Durchaus möglich, aber nicht sinnvoll wäre zum Beispiel die Zuordnung&nbsp; $E_μ = 8$&nbsp; &nbsp; &nbsp; $z_μ ≠ 8$.  
*Beim Experiment ''Münzwurf'' sind die möglichen Ergebnisse ''Zahl'' und ''Bild,'' worauf keine arithmetische Operationen angewendet werden können. Erst durch die zwar willkürliche, aber ein-eindeutige Zuordnung zwischen der Ereignismenge { $E_μ$} = {''Zahl, Bild''} und der Zahlenmenge { $z_μ$} = {0, 1} kann hier überhaupt ein Kennwert angegeben werden. Ebenso könnte man die Zuordnung „''Bild'' ⇔ 0; ''Zahl'' 1” festlegen.  
+
*Beim Experiment &bdquo;Münzwurf&rdquo; sind die möglichen Ergebnisse&nbsp; &bdquo;Zahl&rdquo;&nbsp; und&nbsp; &bdquo;Bild&rdquo;, worauf per se keine arithmetische Operationen angewendet werden können.&nbsp; Erst durch die zwar willkürliche, aber ein-eindeutige Zuordnung zwischen der Ereignismenge&nbsp; $\{E_μ\} = \{$&bdquo;Zahl&rdquo;, &bdquo;Bild&rdquo;$ \}$&nbsp; und der Zahlenmenge&nbsp; $\{z_μ\} = \{0, 1\}$&nbsp; kann hier überhaupt ein Kennwert angegeben werden.&nbsp; Ebenso könnte man aber auch die Zuordnung &bdquo;Bild&rdquo; &nbsp; &nbsp; $0$&nbsp; und &bdquo;Zahl&rdquo; &nbsp; &nbsp; $1$&nbsp; festlegen.  
*In der Schaltungstechnik bezeichnet man die beiden möglichen logischen Zustände einer Speicherzelle – z. B. eines Flipflops gemäß den möglichen Spannungspegeln mit '''L''' (Low) und '''H''' (High). Diese Bezeichnungen übernehmen wir hier auch für Binärsymbole. Für praktische Arbeiten bildet man diese Symbole meist wieder auf Zufallsgrößen ab, wobei auch diese Zuordnung willkürlich ist, aber sinnvoll sein sollte. In der Codierungstheorie wird sinnvollerweise {'''L''', '''H'''} auf {0, 1} abgebildet, um die Möglichkeiten der Modulo-Algebra nutzen zu können. Zur Beschreibung der Modulation mit bipolaren (antipodalen) Signalen wählt man dagegen besser die Zuordnung {'''L''', '''H'''} ⇔ {–1, +1}.
+
*In der Schaltungstechnik bezeichnet man die beiden möglichen logischen Zustände einer Speicherzelle (Flipflops) gemäß den möglichen Spannungspegeln mit&nbsp; $\rm L$&nbsp; ("Low") und&nbsp; $\rm H$&nbsp; ("High").&nbsp; Diese Bezeichnungen übernehmen wir hier auch für Binärsymbole.&nbsp; Für praktische Arbeiten bildet man diese Symbole meist wieder auf Zufallsgrößen ab, wobei auch diese Zuordnung willkürlich ist, aber sinnvoll sein sollte.  
 +
*In der Codierungstheorie wird sinnvollerweise&nbsp; $\{ \text{L, H}\}$&nbsp; auf&nbsp; $\{0, 1\}$&nbsp; abgebildet, um die Möglichkeiten der Modulo-Algebra nutzen zu können.&nbsp; Zur Beschreibung der Modulation mit bipolaren (antipodalen) Signalen wählt man dagegen besser die Zuordnung&nbsp; $\{ \text{L, H}\}$  $ \{-1, +1\}$.
  
 
==Kontinuierliche und diskrete Zufallsgrößen==
 
==Kontinuierliche und diskrete Zufallsgrößen==
Nach den möglichen Zahlenwerten $z_μ = z(E_μ)$ unterscheiden wir hier zwischen kontinuierlichen und diskreten Zufallsgrößen:  
+
<br>
*Eine kontinuierliche Zufallsgröße $z$ kann – zumindest in gewissen Bereichen – unendlich viele verschiedene Werte annehmen. Genauer gesagt: Die Menge der zulässigen Werte ist bei solchen Größen auch nicht abzählbar. Beispiele für kontinuierliche Zufallsgrößen sind die Geschwindigkeit eines Autos (bei angemessener Fahrweise zwischen 0 und 120 km/h) oder auch die Rauschspannung bei einem Nachrichtensystem. Beide Zufallsgrößen haben neben einem Zahlenwert auch eine Einheit.  
+
{{BlaueBox|TEXT= 
*Ist dagegen die Menge { $z_μ$} abzählbar, so bezeichnet man die Zufallsgröße als diskret. Meist ist die Zahl der möglichen Werte von $z$ auf $M$ begrenzt. In der Nachrichtentechnik nennt man $M$ den Symbolumfang (im Sinne der Codierungs- und Informationstheorie) bzw. die Stufenzahl (aus Sicht der Übertragungstechnik).  
+
$\text{Definition:}$&nbsp; Nach den möglichen Zahlenwerten&nbsp; $z_μ = z(E_μ)$&nbsp; unterscheiden wir hier zwischen kontinuierlichen und diskreten Zufallsgrößen:  
 +
*Eine&nbsp; '''kontinuierliche Zufallsgröße'''&nbsp; $z$&nbsp; kann – zumindest in gewissen Bereichen – unendlich viele verschiedene Werte annehmen.&nbsp; Genauer gesagt: &nbsp; Die Menge der zulässigen Werte ist bei solchen Größen auch nicht abzählbar.  
 +
*Beispiele für kontinuierliche Zufallsgrößen sind die Geschwindigkeit eines Autos&nbsp; $($bei angemessener Fahrweise zwischen&nbsp; $v = 0$&nbsp; und&nbsp; $v = 120 \ \rm  km/h)$&nbsp; oder auch die Rauschspannung bei einem Nachrichtensystem.&nbsp; Beide Zufallsgrößen haben neben einem Zahlenwert auch eine Einheit.  
 +
*Ist dagegen die Menge&nbsp;  $\{z_μ\}$ abzählbar, so handelt es sich um eine&nbsp; '''diskrete Zufallsgröße'''. Meist ist die Zahl der möglichen Werte von&nbsp; $z$&nbsp; auf&nbsp; $M$&nbsp; begrenzt.&nbsp; In der Nachrichtentechnik nennt man&nbsp; $M$&nbsp; den "Symbolumfang"&nbsp; (im Sinne der Codierungstheorie)&nbsp; bzw. die "Stufenzahl"&nbsp; (aus Sicht der Übertragungstechnik). }}
  
  
  
Zunächst beschränken wir uns auf diskrete, $M$-stufige Zufallsgrößen ohne innere statistischen Bindungen, die gemäß [[Stochastische_Signaltheorie/Einige_grundlegende_Definitionen|Kapitel 1.1]]  durch die $M$ Auftrittswahrscheinlichkeiten $p_μ =$ Pr( $z = z_μ$) vollständig charakterisiert sind. Per Definition ist die Summe über alle $M$ Wahrscheinlichkeiten gleich 1.  
+
Zunächst beschränken wir uns auf diskrete,&nbsp; $M$&ndash;stufige Zufallsgrößen ohne innere statistischen Bindungen, die gemäß dem Abschnitt&nbsp; [[Stochastische_Signaltheorie/Einige_grundlegende_Definitionen|Einige grundlegende Definitionen]]&nbsp; durch die&nbsp; $M$&nbsp; Auftrittswahrscheinlichkeiten&nbsp; $p_μ ={\rm Pr}(z = z_μ)$&nbsp; vollständig charakterisiert sind.&nbsp; Per Definition ist die Summe über alle&nbsp; $M$&nbsp; Wahrscheinlichkeiten gleich&nbsp; $1$.  
  
Dagegen ist die Wahrscheinlichkeit Pr( $z = z_μ$) dafür, dass eine kontinuierliche Zufallsgröße $z$ einen ganz bestimmten Wert $z_μ$ annimmt, identisch Null. Hier muss, wie im folgenden Kapitel „Kontinuierliche Zufallsgrößen” beschrieben wird, auf die Wahrscheinlichkeitsdichtefunktion (WDF) übergegangen werden. Weitere Informationen hierüber finden Sie in [[Stochastische_Signaltheorie/Wahrscheinlichkeitsdichtefunktion_(WDF)|kontinuierliche Zufallsgrößen]].  
+
Dagegen ist die Wahrscheinlichkeit&nbsp; ${\rm Pr}(z = z_μ)$&nbsp; dafür, dass eine kontinuierliche Zufallsgröße&nbsp; $z$&nbsp; einen ganz bestimmten Wert&nbsp; $z_μ$&nbsp; annimmt, identisch Null.&nbsp; Hier muss, wie im folgenden Kapitel&nbsp; [[Stochastische_Signaltheorie/Wahrscheinlichkeitsdichtefunktion_(WDF)|Kontinuierliche Zufallsgrößen]]&nbsp; beschrieben wird, auf die&nbsp; "Wahrscheinlichkeitsdichtefunktion"&nbsp; $\rm (WDF)$&nbsp; übergegangen werden.  
  
 
==Zufallsprozess und Zufallsfolge==
 
==Zufallsprozess und Zufallsfolge==
Ein Zufallsprozess unterscheidet sich von dem bisher betrachteten Zufallsexperiment dadurch, dass er nicht nur ein Ergebnis (Ereignis) liefert, sondern eine zeitliche Folge von Ergebnissen (Ereignissen). Damit kommt man zur Zufallsfolge 〈 $z_ν$〉 mit folgenden in unserer Darstellung festgelegten Eigenschaften:
+
<br>
*Die Laufvariable $ν$ beschreibt den zeitlichen Prozessablauf und kann Werte zwischen 1 und $N$ annehmen. Häufig wird eine solche Folge auch als N-dimensionaler Vektor dargestellt.
+
{{BlaueBox|TEXT= 
*Zu jeder Zeit $ν$ kann die Zufallsgröße $z_ν$ einen von $M$ verschiedenen Werten annehmen:
+
$\text{Definition:}$&nbsp;
$$z_\nu \in z_\mu \hspace{0.3cm} {\rm mit} \hspace{0.3cm} \nu = 1, ... \hspace{0.05cm}, N \hspace{0.3cm} {\rm und} \hspace{0.3cm} \mu = 1, ...\hspace{0.05cm} , M.$$
+
Ein&nbsp; '''Zufallsprozess'''&nbsp; unterscheidet sich vom bisher betrachteten Zufallsexperiment dadurch,&nbsp;
*Ist der Prozess ergodisch, so weist jede Zufallsfolge 〈 $z_ν$〉 gleiche statistische Eigenschaften auf und kann als Repräsentant für den gesamten Prozess herangezogen werden.
+
*dass er nicht nur ein Ergebnis&nbsp; (Ereignis)&nbsp; liefert,&nbsp;
*Wir setzen hier voraus, dass zwischen den einzelnen Folgenelementen keine statistischen Bindungen bestehen, das heißt, es gilt für die bedingten Wahrscheinlichkeiten:
+
*sondern eine&nbsp; &bdquo;zeitliche Folge von Ergebnissen&rdquo;&nbsp; (Ereignissen). }}
$$\rm Pr(\it z_\nu  | z_{\nu \rm{ -1}} \hspace{0.1cm}... \hspace{0.1cm}z_{\rm 1})=\rm Pr(\it z_\nu).$$
 
  
  
Mehr und vor allem Genaueres zu der Charakterisierung von Zufallsprozessen finden Sie im  Kapitel 4.4 [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)|Autokorrelationsfunktion]].  
+
Damit kommt man zur&nbsp; '''Zufallsfolge'''&nbsp;  $\langle z_ν\rangle$&nbsp; mit den  folgenden für unsere Darstellung festgelegten Eigenschaften:
 +
*Die Laufvariable&nbsp; $ν$ &nbsp; beschreibt den zeitlichen Prozessablauf und kann Werte zwischen&nbsp; $1$&nbsp; und&nbsp; $N$&nbsp; annehmen.&nbsp; Häufig wird eine solche Folge auch als&nbsp; $N$&ndash;dimensionaler Vektor dargestellt.
 +
*Zu jeder Zeit&nbsp; $ν$ &nbsp; kann die Zufallsgröße&nbsp; $z_ν$&nbsp; einen von&nbsp; $M$&nbsp; verschiedenen Werten annehmen.&nbsp; Wir verwenden hierfür folgende Nomenklatur:
 +
:$$z_\nu \in z_\mu \hspace{0.3cm} {\rm mit} \hspace{0.3cm} \nu = 1,\hspace{0.1cm}\text{...} \hspace{0.1cm}, N \hspace{0.3cm} {\rm und} \hspace{0.3cm} \mu = 1,\hspace{0.1cm}\text{...} \hspace{0.1cm} , M.$$
 +
*Ist der Prozess&nbsp; [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Ergodische_Zufallsprozesse|ergodisch]], so weist jede Zufallsfolge&nbsp; $\langle z_ν\rangle$&nbsp; die gleichen statistischen Eigenschaften auf und kann als Repräsentant für den gesamten Zufallsprozess herangezogen werden.
 +
*Wir setzen hier zunächst voraus, dass zwischen den einzelnen Folgenelementen keine statistischen Bindungen bestehen, das heißt, es gilt für die&nbsp; [[Stochastische_Signaltheorie/Statistische_Abhängigkeit_und_Unabhängigkeit#Bedingte_Wahrscheinlichkeit|bedingten Wahrscheinlichkeiten]]:
 +
:$${\rm Pr}(z_\nu  | z_{\nu \rm{ -1}} \hspace{0.1cm}\text{...} \hspace{0.1cm}z_{\rm 1})={\rm Pr}(z_\nu).$$
  
{{Beispiel}}
+
Mehr und vor allem Genaueres zu der Charakterisierung von Zufallsprozessen finden Sie im späteren Kapitel&nbsp; [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)|Autokorrelationsfunktion]].
Wiederholt man das Zufallsexperiment ''Werfen einer Roulettekugel'' zehnmal, so ergibt sich z. B. die folgende Zufallsfolge: $z_ν$〉 = 8; 23; 0; 17; 36; 0; 33; 11; 11; 25 . Zu jedem Zeitpunkt sind trotzdem – unabhängig von der Vergangenheit – alle Zufallsgrößen zwischen 0 und 36 möglich und auch gleichwahrscheinlich, was aber aus einer solch kurzen Folge nicht abgelesen werden kann.
+
 
{{end}}
+
{{GraueBox|TEXT= 
 +
$\text{Beispiel 1:}$&nbsp;
 +
Wiederholt man das Zufallsexperiment &bdquo;Werfen einer Roulettekugel&rdquo; zehnmal,&nbsp; so ergibt sich zum Beispiel folgende Zufallsfolge:  
 +
:$$\langle z_ν\rangle = \langle \ 8; \ 23; \ 0; \ 17; \ 36; \ 0; \ 33; \ 11; \ 11; \ 25 \ \rangle.$$
 +
Zu jedem Zeitpunkt sind trotzdem&nbsp; – unabhängig von der Vergangenheit –&nbsp; alle Zufallsgrößen zwischen&nbsp; $0$&nbsp; und&nbsp; $36$&nbsp; möglich und auch gleichwahrscheinlich,&nbsp; was aber aus einer solch kurzen Folge nicht abgelesen werden kann.}}
  
 
==Bernoullisches Gesetz der großen Zahlen==
 
==Bernoullisches Gesetz der großen Zahlen==
Zur Beschreibung einer $M$-stufigen Zufallsgröße verwendet man folgende Beschreibungsgrößen, deren Summe über alle $μ =$ 1, ... , $M$ jeweils den Wert 1 ergeben:   
+
<br>
*Die Wahrscheinlichkeiten $p_μ =$ Pr( $z = z_μ$) liefern Vorhersagen über das zu erwartende Ergebnis eines statistischen Versuchs und sind somit so genannte ''A-priori-Kenngrößen.''
+
{{BlaueBox|TEXT= 
*Die relativen Häufigkeiten $h_μ^{(N)}$ sind ''A-posteriori-Kenngrößen'' und erlauben statistische Aussagen bezüglich eines vorher durchgeführten Versuches. Sie werden wie folgt ermittelt:
+
$\text{Definitionen:}$&nbsp; Zur Beschreibung einer&nbsp; $M$&ndash;stufigen Zufallsgröße verwendet man folgende Beschreibungsgrößen, deren Summe über alle&nbsp; $μ = 1,\hspace{0.1cm}\text{...} \hspace{0.1cm} , M$&nbsp; jeweils den Wert&nbsp; $1$&nbsp; ergeben:   
$$h_{\mu}^{(N)} = \frac{n_{\mu}}{N}=  
+
*Die&nbsp; '''Wahrscheinlichkeiten'''&nbsp; $p_μ = {\rm Pr}(z = z_μ)$&nbsp; liefern Vorhersagen über das zu erwartende Ergebnis eines statistischen Versuchs und sind somit so genannte&nbsp; "A-priori-Kenngrößen".  
\frac{{\rm Anzahl \hspace{0.15cm}der \hspace{0.15cm}Versuche \hspace{0.15cm}mit \hspace{0.15cm}dem\hspace{0.15cm} Ergebnis\hspace{0.15cm}}z_{\mu}}
+
*Die&nbsp; '''relativen Häufigkeiten'''&nbsp; $h_μ^{(N)}$&nbsp; sind&nbsp; "A-posteriori-Kenngrößen"&nbsp; und erlauben statistische Aussagen bezüglich eines vorher durchgeführten Versuches.&nbsp; Sie werden wie folgt ermittelt:
{{\rm Anzahl \hspace{0.15cm}aller \hspace{0.15cm}Versuche }} \hspace{1cm}(\mu=1,...,M).$$
+
:$$h_{\mu}^{(N)} = \frac{n_{\mu} }{N}=  
 +
\frac{ {\rm Anzahl \hspace{0.15cm}der \hspace{0.15cm}Versuche \hspace{0.15cm}mit \hspace{0.15cm}dem\hspace{0.15cm} Ergebnis\hspace{0.15cm} }z_{\mu} }
 +
{ {\rm Anzahl \hspace{0.15cm}aller \hspace{0.15cm}Versuche } } \hspace{1cm}(\mu=1,\hspace{0.1cm}\text{...} \hspace{0.1cm},M).$$}}
 +
 
 +
 
 +
Nur im Grenzfall&nbsp; $N → ∞$&nbsp; stimmen die relativen Häufigkeiten mit den entsprechenden Wahrscheinlichkeiten &bdquo;exakt&rdquo; überein,&nbsp; zumindest im statistischen Sinne.&nbsp; Dagegen gilt nach dem von&nbsp; [https://de.wikipedia.org/wiki/Jakob_I._Bernoulli Jakob I. Bernoulli]&nbsp;  formulierten &bdquo;Gesetz der großen Zahlen&rdquo;  für endliche Werte von&nbsp; $N$:
 +
:$$\rm Pr \left( \it \mid h_\mu^{(N)} - p_\mu\mid  \hspace{0.1cm} \ge  \varepsilon \hspace{0.1cm} \right) \le  \frac{1}{\rm 4\cdot \it N\cdot \varepsilon^{\rm 2}}.$$
 +
 
 +
Daraus folgt auch die Aussage,&nbsp; dass bei unendlich langen Zufallsfolgen&nbsp; $(N → ∞)$&nbsp; die relativen Häufigkeiten&nbsp; $h_μ^{(N)}$&nbsp; und die Wahrscheinlichkeiten&nbsp; $p_μ$&nbsp; mit der Wahrscheinlichkeit&nbsp; $1$&nbsp; identisch sind.
 +
 
 +
{{GraueBox|TEXT= 
 +
$\text{Beispiel 2:}$&nbsp; Eine Binärdatei besteht aus&nbsp; $N = 10^6$&nbsp; Binärsymbolen (&bdquo;Bit&rdquo;),&nbsp; wobei die Nullen und Einsen gleichwahrscheinlich sind: &nbsp; $p_0 = p_1 = 0.5$.
  
 +
:Das Bernoullische Gesetz der großen Zahlen&nbsp; $($mit&nbsp; $\varepsilon = 0.01)$&nbsp; besagt nun,&nbsp; dass die Wahrscheinlichkeit des Ereignisses&nbsp; „die Anzahl der Einsen in der Datei liegt zwischen&nbsp; $495&nbsp; \hspace{0.05cm}000$&nbsp; und&nbsp; $505\hspace{0.05cm}000$”&nbsp; größer oder gleich&nbsp; $1 - 1/400 = 99.75\%$&nbsp; ist. }}
  
Nur im Grenzfall $N → ∞$ stimmen die relativen Häufigkeiten exakt mit den entsprechenden Wahrscheinlichkeiten überein, zumindest im statistischen Sinne. Dagegen gilt für endliche Werte von $N$ nach dem von [https://de.wikipedia.org/wiki/Bernoulli#Wichtige_Vertreter_der_Familie Bernoulli]  formulierten Gesetz der großen Zahlen:
 
$$\rm Pr \left( \it \mid h_\mu^{(N)} - p_\mu\mid  \hspace{0.1cm} \ge  \varepsilon \hspace{0.1cm} \right) \le  \frac{1}{\rm 4\cdot \it N\cdot \varepsilon^{\rm 2}}.$$
 
  
Daraus folgt auch die Aussage, dass bei unendlich langen Zufallsfolgen $(N → ∞)$ die relativen Häufigkeiten $h_μ^{(N)}$ und die Wahrscheinlichkeiten $p_μ$ mit der Wahrscheinlichkeit 1 identisch sind.  
+
Die Wahrscheinlichkeit, dass sich die relative Häufigkeit&nbsp; $h_μ^{(N)}$&nbsp; eines Ereignisses&nbsp; $E_μ$&nbsp; und die zugehörige Wahrscheinlichkeit&nbsp; $p_μ$&nbsp; betragsmäßig um mehr als einen Wert&nbsp; $\varepsilon$&nbsp; unterscheiden,&nbsp; ist nach obiger Gleichung nicht größer als&nbsp; $1/(4 · N · ε^2)$.&nbsp; Für ein gegebenes&nbsp; $\varepsilon$&nbsp; und eine zu garantierende Wahrscheinlichkeit kann daraus der minimal erforderliche Wert von&nbsp; $N$&nbsp; berechnet werden.  
  
{{Beispiel}}
+
Weiter ist anzumerken:
Eine Binärdatei besteht aus $N = 10^6$ Binärsymbolen (Bit), wobei die Nullen und Einsen gleichwahrscheinlich sind: $p_0 = p_1 =$ 0.5. Das Bernoullische Gesetz der großen Zahlen (mit $ε =$ 0.01) besagt nun, dass die Wahrscheinlichkeit des Ereignisses „die Anzahl der Einsen in der Datei liegt zwischen 495000 und 505000” größer oder gleich 1 – 0.0025 = 99.75% ist.
+
*Der monotone Abfall mit&nbsp; $N$&nbsp; gilt nur im statistischen Sinne und nicht für jede einzelne Realisierung.&nbsp;
{{end}}
+
*So können beim Experiment &bdquo;Münzwurf&rdquo; durchaus nach&nbsp; $N = 1000$&nbsp; Würfen die relative Häufigkeiten von &bdquo;Zahl&rdquo; und &bdquo;Bild&rdquo; exakt gleich&nbsp; $0.5$&nbsp; sein&nbsp; (wenn&nbsp; $n_{\rm Zahl} = n_{\rm Bild} = 500$&nbsp; ist)&nbsp; und nach&nbsp; $N = 2000$&nbsp; Würfen wieder mehr oder weniger stark davon abweichen.  
 +
*Führen mehrere Probanden parallel dass Experiment &bdquo;Münzwurf&rdquo; durch und stellt man jeweils die relative Häufigkeit in Abhängigkeit von&nbsp; $N$&nbsp; dar,&nbsp; so ergeben sich dementsprechend Kurvenverläufe,&nbsp; die zwar tendenziell,&nbsp; aber nicht monoton abfallen.
 +
*Berechnet man aber den Mittelwert über unendlich viele solcher Kurven,&nbsp; so erhält man den monoton mit&nbsp; $N$&nbsp; abfallenden Verlauf gemäß der Bernouillischen Vorhersage.  
  
  
Die Wahrscheinlichkeit, dass sich die relative Häufigkeit $h_μ^{(N)}$ eines Ereignisses $E_μ$ und die zugehörige Wahrscheinlichkeit $p_μ$ betragsmäßig um mehr als einen Wert $ε$ unterscheiden, ist also nicht größer als 1/(4 · $N · ε²$). Für ein gegebenes $ε$ und eine zu garantierende Wahrscheinlichkeit kann daraus der minimal erforderliche Wert von $N$ berechnet werden. Weiter ist anzumerken:
+
Mit dieser Thematik,&nbsp; speziell mit dem Experiment von&nbsp; [https://de.wikipedia.org/wiki/Karl_Pearson Karl Pearson], beschäftigt sich das Lernvideo&nbsp; [[Bernoullisches_Gesetz_der_großen_Zahlen_(Lernvideo)|Bernoullisches Gesetz der großen Zahlen]].
*Der monotone Abfall mit $N$ gilt nur im statistischen Sinne und nicht für jede einzelne Realisierung. So können beim Experiment ''Münzwurf'' durchaus nach $N =$ 1000 Würfen die relative Häufigkeiten von ''Zahl'' und ''Bild'' exakt gleich 0.5 sein (wenn $n_{\rm Zahl} = n_{\rm Bild} =$ 500 ist) und nach $N =$ 2000 Würfen wieder mehr oder weniger stark davon abweichen.  
 
*Führen mehrere Probanden parallel dass Experiment ''Münzwurf'' durch und stellt man jeweils die relative Häufigkeit in Abhängigkeit von $N$ dar, so ergeben sich dementsprechend Kurvenverläufe, die zwar tendenziell, aber nicht monoton abfallen.
 
*Berechnet man aber den Mittelwert über unendlich viele solcher Kurven, so erhält man den monoton mit $N$ abfallenden Verlauf gemäß Bernouilli.  
 
  
 +
==Aufgaben zum Kapitel==
 +
<br>
 +
[[Aufgaben:2.1 Wahlnachfrage|Aufgabe 2.1: Wahlnachfrage]]
  
 +
[[Aufgaben:2.1Z_Signalverläufe|Aufgabe 2.1Z: Signalverläufe]]
  
Mit dieser Thematik, speziell mit dem Experiment von [[https://de.wikipedia.org/wiki/Karl_Pearson|Pearson]],  beschäftigt sich das Lernvideo
 
Das Bernoullische Gesetz der großen Zahlen  (Dauer 4:25)
 
  
 
{{Display}}
 
{{Display}}

Aktuelle Version vom 3. Dezember 2021, 15:17 Uhr

# ÜBERBLICK ZUM ZWEITEN HAUPTKAPITEL #


Dieses Kapitel soll Sie mit  diskreten Zufallsgrößen  vertraut machen,  wobei diese als statistisch unabhängig vorausgesetzt werden.  Solche Zufallsgrößen werden in der Nachrichtentechnik zum Beispiel für die Simulation eines binären oder mehrstufigen Digitalsignals benötigt,  aber ebenso zur Nachbildung eines Kanals mit statistisch unabhängigen Fehlern durch ein digitales Modell,  zum Beispiel dem BSC-Modell.

Im Einzelnen werden behandelt:

  • der  »Zusammenhang zwischen Wahrscheinlichkeit und relativer Häufigkeit«,
  • die  »Erwartungswerte und Momente«,
  • die  »Binomial- und die Poissonverteilung«  als Sonderfälle diskreter Verteilungen,
  • die  »Erzeugung pseudozufälliger Binärsymbole«  mittels  »PN-Generatoren«,  und
  • die  »Erzeugung mehrstufiger Zufallsgrößen«  an einem Digitalrechner.


Weitere Informationen zum Thema „Diskrete Zufallsgrößen” sowie Aufgaben, Simulationen und Programmierübungen finden Sie im

  • Kapitel 1:   Diskrete Zufallsgrößen (Programm dis)
  • Kapitel 2:   Pseudonoise-Generatoren (Programm png)


des Praktikums „Simulationsmethoden in der Nachrichtentechnik”.  Diese (ehemalige) LNT-Lehrveranstaltung an der TU München basiert auf

  • dem Lehrsoftwarepaket  LNTsim   ⇒   Link verweist auf die ZIP-Version des Programms,  und
  • der zugehörigen  Praktikumsanleitung   ⇒   Link verweist auf die PDF-Version; Kapitel 1 und 2: Seite 7-32.



Zum Begriff der Zufallsgröße


Im ersten Kapitel dieses Buches wurde bereits der Begriff  Zufallsexperiment  erläutert. Darunter versteht man einen unter gleichen Bedingungen beliebig oft wiederholbaren Versuch mit ungewissem Ergebnis  $E$,  bei dem jedoch die Menge  $\{E_μ \}$  der möglichen Ergebnisse angebbar ist.

Häufig sind die Versuchsergebnisse Zahlenwerte, wie zum Beispiel beim Zufallsexperiment „Werfen eines Würfels”.  Dagegen liefert das Experiment „Münzwurf” die möglichen Ergebnisse „Zahl” und „Bild”.

Zur einheitlichen Beschreibung verschiedenartiger Experimente und auch wegen der besseren Handhabbarkeit verwendet man den Begriff der  „Zufallsgröße”, oft auch als  „Zufallsvariable”  bezeichnet.

Zur Definition der Zufallsgröße

$\text{Definition:}$ 

  • Eine  Zufallsgröße  $z$  ist eine ein-eindeutige Abbildung der Ergebnismenge  $\{E_μ \}$  auf die Menge der reellen Zahlen. 


  • Ergänzend zu dieser Definition wird noch zugelassen, dass die Zufallsgröße neben dem Zahlenwert auch eine Einheit besitzt.


Nachfolgend werden einige Beispiele für Zufallsgrößen genannt:

  • Beim Zufallsexperiment „Werfen einer Roulettekugel” hat eine Unterscheidung zwischen  $E$  und  $z$  keine praktischen Auswirkungen, kann aber aus formalen Gründen durchaus sinnvoll sein.  So bezeichnet  $E_μ = 8$, dass die Kugel in der mit „8“ markierten Vertiefung der Roulettescheibe zum Liegen gekommen ist.  Arithmetische Operationen  (zum Beispiel eine Erwartungswertbildung)  sind anhand der Ergebnisse nicht möglich.     Dagegen bezeichnet die Zufallsgröße  $z$  tatsächlich einen Zahlenwert  $($hier ganzzahlig zwischen  $0$  und  $36)$, aus dem der zu erwartende Mittelwert der Zufallsgröße  $($hier  $18)$  ermittelt werden kann.  Durchaus möglich, aber nicht sinnvoll wäre zum Beispiel die Zuordnung  $E_μ = 8$    ⇔   $z_μ ≠ 8$.
  • Beim Experiment „Münzwurf” sind die möglichen Ergebnisse  „Zahl”  und  „Bild”, worauf per se keine arithmetische Operationen angewendet werden können.  Erst durch die zwar willkürliche, aber ein-eindeutige Zuordnung zwischen der Ereignismenge  $\{E_μ\} = \{$„Zahl”, „Bild”$ \}$  und der Zahlenmenge  $\{z_μ\} = \{0, 1\}$  kann hier überhaupt ein Kennwert angegeben werden.  Ebenso könnte man aber auch die Zuordnung „Bild”   ⇔   $0$  und „Zahl”   ⇔   $1$  festlegen.
  • In der Schaltungstechnik bezeichnet man die beiden möglichen logischen Zustände einer Speicherzelle (Flipflops) gemäß den möglichen Spannungspegeln mit  $\rm L$  ("Low") und  $\rm H$  ("High").  Diese Bezeichnungen übernehmen wir hier auch für Binärsymbole.  Für praktische Arbeiten bildet man diese Symbole meist wieder auf Zufallsgrößen ab, wobei auch diese Zuordnung willkürlich ist, aber sinnvoll sein sollte.
  • In der Codierungstheorie wird sinnvollerweise  $\{ \text{L, H}\}$  auf  $\{0, 1\}$  abgebildet, um die Möglichkeiten der Modulo-Algebra nutzen zu können.  Zur Beschreibung der Modulation mit bipolaren (antipodalen) Signalen wählt man dagegen besser die Zuordnung  $\{ \text{L, H}\}$ ⇔ $ \{-1, +1\}$.

Kontinuierliche und diskrete Zufallsgrößen


$\text{Definition:}$  Nach den möglichen Zahlenwerten  $z_μ = z(E_μ)$  unterscheiden wir hier zwischen kontinuierlichen und diskreten Zufallsgrößen:

  • Eine  kontinuierliche Zufallsgröße  $z$  kann – zumindest in gewissen Bereichen – unendlich viele verschiedene Werte annehmen.  Genauer gesagt:   Die Menge der zulässigen Werte ist bei solchen Größen auch nicht abzählbar.
  • Beispiele für kontinuierliche Zufallsgrößen sind die Geschwindigkeit eines Autos  $($bei angemessener Fahrweise zwischen  $v = 0$  und  $v = 120 \ \rm km/h)$  oder auch die Rauschspannung bei einem Nachrichtensystem.  Beide Zufallsgrößen haben neben einem Zahlenwert auch eine Einheit.
  • Ist dagegen die Menge  $\{z_μ\}$ abzählbar, so handelt es sich um eine  diskrete Zufallsgröße. Meist ist die Zahl der möglichen Werte von  $z$  auf  $M$  begrenzt.  In der Nachrichtentechnik nennt man  $M$  den "Symbolumfang"  (im Sinne der Codierungstheorie)  bzw. die "Stufenzahl"  (aus Sicht der Übertragungstechnik).


Zunächst beschränken wir uns auf diskrete,  $M$–stufige Zufallsgrößen ohne innere statistischen Bindungen, die gemäß dem Abschnitt  Einige grundlegende Definitionen  durch die  $M$  Auftrittswahrscheinlichkeiten  $p_μ ={\rm Pr}(z = z_μ)$  vollständig charakterisiert sind.  Per Definition ist die Summe über alle  $M$  Wahrscheinlichkeiten gleich  $1$.

Dagegen ist die Wahrscheinlichkeit  ${\rm Pr}(z = z_μ)$  dafür, dass eine kontinuierliche Zufallsgröße  $z$  einen ganz bestimmten Wert  $z_μ$  annimmt, identisch Null.  Hier muss, wie im folgenden Kapitel  Kontinuierliche Zufallsgrößen  beschrieben wird, auf die  "Wahrscheinlichkeitsdichtefunktion"  $\rm (WDF)$  übergegangen werden.

Zufallsprozess und Zufallsfolge


$\text{Definition:}$  Ein  Zufallsprozess  unterscheidet sich vom bisher betrachteten Zufallsexperiment dadurch, 

  • dass er nicht nur ein Ergebnis  (Ereignis)  liefert, 
  • sondern eine  „zeitliche Folge von Ergebnissen”  (Ereignissen).


Damit kommt man zur  Zufallsfolge  $\langle z_ν\rangle$  mit den folgenden für unsere Darstellung festgelegten Eigenschaften:

  • Die Laufvariable  $ν$   beschreibt den zeitlichen Prozessablauf und kann Werte zwischen  $1$  und  $N$  annehmen.  Häufig wird eine solche Folge auch als  $N$–dimensionaler Vektor dargestellt.
  • Zu jeder Zeit  $ν$   kann die Zufallsgröße  $z_ν$  einen von  $M$  verschiedenen Werten annehmen.  Wir verwenden hierfür folgende Nomenklatur:
$$z_\nu \in z_\mu \hspace{0.3cm} {\rm mit} \hspace{0.3cm} \nu = 1,\hspace{0.1cm}\text{...} \hspace{0.1cm}, N \hspace{0.3cm} {\rm und} \hspace{0.3cm} \mu = 1,\hspace{0.1cm}\text{...} \hspace{0.1cm} , M.$$
  • Ist der Prozess  ergodisch, so weist jede Zufallsfolge  $\langle z_ν\rangle$  die gleichen statistischen Eigenschaften auf und kann als Repräsentant für den gesamten Zufallsprozess herangezogen werden.
  • Wir setzen hier zunächst voraus, dass zwischen den einzelnen Folgenelementen keine statistischen Bindungen bestehen, das heißt, es gilt für die  bedingten Wahrscheinlichkeiten:
$${\rm Pr}(z_\nu | z_{\nu \rm{ -1}} \hspace{0.1cm}\text{...} \hspace{0.1cm}z_{\rm 1})={\rm Pr}(z_\nu).$$

Mehr und vor allem Genaueres zu der Charakterisierung von Zufallsprozessen finden Sie im späteren Kapitel  Autokorrelationsfunktion.

$\text{Beispiel 1:}$  Wiederholt man das Zufallsexperiment „Werfen einer Roulettekugel” zehnmal,  so ergibt sich zum Beispiel folgende Zufallsfolge:

$$\langle z_ν\rangle = \langle \ 8; \ 23; \ 0; \ 17; \ 36; \ 0; \ 33; \ 11; \ 11; \ 25 \ \rangle.$$

Zu jedem Zeitpunkt sind trotzdem  – unabhängig von der Vergangenheit –  alle Zufallsgrößen zwischen  $0$  und  $36$  möglich und auch gleichwahrscheinlich,  was aber aus einer solch kurzen Folge nicht abgelesen werden kann.

Bernoullisches Gesetz der großen Zahlen


$\text{Definitionen:}$  Zur Beschreibung einer  $M$–stufigen Zufallsgröße verwendet man folgende Beschreibungsgrößen, deren Summe über alle  $μ = 1,\hspace{0.1cm}\text{...} \hspace{0.1cm} , M$  jeweils den Wert  $1$  ergeben:

  • Die  Wahrscheinlichkeiten  $p_μ = {\rm Pr}(z = z_μ)$  liefern Vorhersagen über das zu erwartende Ergebnis eines statistischen Versuchs und sind somit so genannte  "A-priori-Kenngrößen".
  • Die  relativen Häufigkeiten  $h_μ^{(N)}$  sind  "A-posteriori-Kenngrößen"  und erlauben statistische Aussagen bezüglich eines vorher durchgeführten Versuches.  Sie werden wie folgt ermittelt:
$$h_{\mu}^{(N)} = \frac{n_{\mu} }{N}= \frac{ {\rm Anzahl \hspace{0.15cm}der \hspace{0.15cm}Versuche \hspace{0.15cm}mit \hspace{0.15cm}dem\hspace{0.15cm} Ergebnis\hspace{0.15cm} }z_{\mu} } { {\rm Anzahl \hspace{0.15cm}aller \hspace{0.15cm}Versuche } } \hspace{1cm}(\mu=1,\hspace{0.1cm}\text{...} \hspace{0.1cm},M).$$


Nur im Grenzfall  $N → ∞$  stimmen die relativen Häufigkeiten mit den entsprechenden Wahrscheinlichkeiten „exakt” überein,  zumindest im statistischen Sinne.  Dagegen gilt nach dem von  Jakob I. Bernoulli  formulierten „Gesetz der großen Zahlen” für endliche Werte von  $N$:

$$\rm Pr \left( \it \mid h_\mu^{(N)} - p_\mu\mid \hspace{0.1cm} \ge \varepsilon \hspace{0.1cm} \right) \le \frac{1}{\rm 4\cdot \it N\cdot \varepsilon^{\rm 2}}.$$

Daraus folgt auch die Aussage,  dass bei unendlich langen Zufallsfolgen  $(N → ∞)$  die relativen Häufigkeiten  $h_μ^{(N)}$  und die Wahrscheinlichkeiten  $p_μ$  mit der Wahrscheinlichkeit  $1$  identisch sind.

$\text{Beispiel 2:}$  Eine Binärdatei besteht aus  $N = 10^6$  Binärsymbolen („Bit”),  wobei die Nullen und Einsen gleichwahrscheinlich sind:   $p_0 = p_1 = 0.5$.

Das Bernoullische Gesetz der großen Zahlen  $($mit  $\varepsilon = 0.01)$  besagt nun,  dass die Wahrscheinlichkeit des Ereignisses  „die Anzahl der Einsen in der Datei liegt zwischen  $495  \hspace{0.05cm}000$  und  $505\hspace{0.05cm}000$”  größer oder gleich  $1 - 1/400 = 99.75\%$  ist.


Die Wahrscheinlichkeit, dass sich die relative Häufigkeit  $h_μ^{(N)}$  eines Ereignisses  $E_μ$  und die zugehörige Wahrscheinlichkeit  $p_μ$  betragsmäßig um mehr als einen Wert  $\varepsilon$  unterscheiden,  ist nach obiger Gleichung nicht größer als  $1/(4 · N · ε^2)$.  Für ein gegebenes  $\varepsilon$  und eine zu garantierende Wahrscheinlichkeit kann daraus der minimal erforderliche Wert von  $N$  berechnet werden.

Weiter ist anzumerken:

  • Der monotone Abfall mit  $N$  gilt nur im statistischen Sinne und nicht für jede einzelne Realisierung. 
  • So können beim Experiment „Münzwurf” durchaus nach  $N = 1000$  Würfen die relative Häufigkeiten von „Zahl” und „Bild” exakt gleich  $0.5$  sein  (wenn  $n_{\rm Zahl} = n_{\rm Bild} = 500$  ist)  und nach  $N = 2000$  Würfen wieder mehr oder weniger stark davon abweichen.
  • Führen mehrere Probanden parallel dass Experiment „Münzwurf” durch und stellt man jeweils die relative Häufigkeit in Abhängigkeit von  $N$  dar,  so ergeben sich dementsprechend Kurvenverläufe,  die zwar tendenziell,  aber nicht monoton abfallen.
  • Berechnet man aber den Mittelwert über unendlich viele solcher Kurven,  so erhält man den monoton mit  $N$  abfallenden Verlauf gemäß der Bernouillischen Vorhersage.


Mit dieser Thematik,  speziell mit dem Experiment von  Karl Pearson, beschäftigt sich das Lernvideo  Bernoullisches Gesetz der großen Zahlen.

Aufgaben zum Kapitel


Aufgabe 2.1: Wahlnachfrage

Aufgabe 2.1Z: Signalverläufe