Difference between revisions of "Theory of Stochastic Signals/From Random Experiment to Random Variable"

From LNTwww
m (Text replacement - "„" to """)
Line 6: Line 6:
 
}}
 
}}
  
== # ÜBERBLICK ZUM ZWEITEN HAUPTKAPITEL # ==
+
== # OVERVIEW OF THE SECOND MAIN CHAPTER # ==
 
<br>
 
<br>
Dieses Kapitel soll Sie mit&nbsp; '''diskreten Zufallsgrößen'''&nbsp; vertraut machen, wobei diese als statistisch unabhängig vorausgesetzt werden. Solche Zufallsgrößen werden in der Nachrichtentechnik zum Beispiel für die Simulation eines binären oder mehrstufigen Digitalsignals benötigt, aber ebenso zur Nachbildung eines Kanals mit statistisch unabhängigen Fehlern durch ein digitales Modell, zum Beispiel dem BSC-Modell.
+
This chapter is intended to familiarize you with&nbsp; '''discrete random variables'''&nbsp; assuming them to be statistically independent. Such random variables are needed in communications engineering, for example, for the simulation of a binary or multilevel digital signal, but equally for the emulation of a channel with statistically independent errors by a digital model, for example, the BSC model.
  
Im Einzelnen werden behandelt:
+
In detail, it covers:
*der Zusammenhang zwischen Wahrscheinlichkeit und relativer Häufigkeit,
+
*the relationship between probability and relative frequency,
*die Erwartungswerte und Momente,
+
*the expected values and moments,
*die Binomial- und die Poissonverteilung als Sonderfälle diskreter Verteilungen,
+
*the binomial and Poisson distributions as special cases of discrete distributions,
*die Erzeugung pseudozufälliger Binärsymbole mittels PN-Generatoren,&nbsp; und
+
*the generation of pseudorandom binaries using PN generators,&nbsp; and
*die Erzeugung mehrstufiger Zufallsgrößen an einem Digitalrechner.
+
*the generation of multilevel random variables on a digital computer.
  
  
  
Weitere Informationen zum Thema "Diskrete Zufallsgrößen" sowie Aufgaben, Simulationen und Programmierübungen finden Sie im
+
For more information on discrete random variables, as well as assignments, simulations, and programming exercises, see
  
*Kapitel 1: &nbsp; Diskrete Zufallsgrößen (Programm dis)
+
*Chapter 1: &nbsp; Discrete Random Variables (Program dis)
*Kapitel 2: &nbsp; Pseudonoise-Generatoren (Programm png)
+
*Chapter 2: &nbsp; Pseudonoise Generators (Program png)
  
  
des Praktikums „Simulationsmethoden in der Nachrichtentechnik”.&nbsp; Diese (ehemalige) LNT-Lehrveranstaltung an der TU München basiert auf
+
of the practical course "Simulationsmethoden in der Nachrichtentechnik".&nbsp; This (former) LNT course at the TU Munich is based on
  
*dem Lehrsoftwarepaket&nbsp; [http://en.lntwww.de/downloads/Sonstiges/Programme/LNTsim.zip LNTsim] &nbsp; &rArr; &nbsp; Link verweist auf die ZIP-Version des Programms,&nbsp; und
+
*the teaching software package&nbsp; [http://en.lntwww.de/downloads/Sonstiges/Programme/LNTsim.zip LNTsim] &nbsp; &rArr; &nbsp; link refers to the ZIP version of the program,&nbsp; and
*der zugehörigen&nbsp; [http://en.lntwww.de/downloads/Sonstiges/Texte/Praktikum_LNTsim_Teil_A.pdf Praktikumsanleitung]  &nbsp; &rArr; &nbsp; Link verweist auf die PDF-Version; Kapitel 1 und 2: Seite 7-32.
+
*of the associated&nbsp; [http://en.lntwww.de/downloads/Sonstiges/Texte/Praktikum_LNTsim_Teil_A.pdf Internship Guide]  &nbsp; &rArr; &nbsp; Link refers to the PDF version; Chapters 1 and 2: pages 7-32.
  
  
  
  
 
+
==On the concept of random variable==
==Zum Begriff der Zufallsgröße==
 
 
<br>
 
<br>
Im ersten Kapitel dieses Buches wurde bereits der Begriff&nbsp;  [[Theory_of_Stochastic_Signals/Einige_grundlegende_Definitionen|Zufallsexperiment]]&nbsp; erläutert. Darunter versteht man einen unter gleichen Bedingungen beliebig oft wiederholbaren Versuch mit ungewissem Ergebnis&nbsp; $E$,&nbsp; bei dem jedoch die Menge&nbsp; $\{E_μ \}$&nbsp; der möglichen Ergebnisse angebbar ist.  
+
In the first chapter of this book, the term&nbsp;  [[Theory_of_Stochastic_Signals/Some_Basic_Definitions|Random Experiment]]&nbsp; has already been explained. By this is meant an experiment that can be repeated any number of times under the same conditions with an uncertain outcome&nbsp; $E$,&nbsp; but in which the set&nbsp; $\{E_μ \}$&nbsp; of possible outcomes is specifiable.
  
Häufig sind die Versuchsergebnisse Zahlenwerte, wie zum Beispiel beim Zufallsexperiment "Werfen eines Würfels".&nbsp; Dagegen liefert das Experiment "Münzwurf" die möglichen Ergebnisse "Zahl" und "Bild".  
+
Often the experimental results are numerical values, as for example in the random experiment "throwing a die".&nbsp; In contrast, the experiment "coin toss" yields the possible results "heads" and "tails".  
  
Zur einheitlichen Beschreibung verschiedenartiger Experimente und auch wegen der besseren Handhabbarkeit verwendet man den Begriff der&nbsp; "Zufallsgröße", oft auch als&nbsp; "Zufallsvariable"&nbsp; bezeichnet.
+
For a uniform description of different kinds of experiments and also because of the better manageability one uses the term of&nbsp; "random variable"&nbsp;.
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Eine&nbsp; '''Zufallsgröße'''&nbsp; $z$&nbsp; ist eine ein-eindeutige Abbildung der Ergebnismenge&nbsp; $\{E_μ \}$&nbsp; auf die Menge der reellen Zahlen.&nbsp; Ergänzend zu dieser Definition wird noch zugelassen, dass die Zufallsgröße neben dem Zahlenwert auch eine Einheit besitzt.
+
$\text{Definition:}$&nbsp; A&nbsp; '''random variable'''&nbsp; $z$&nbsp; is a one-to-one mapping of the result set&nbsp; $\{E_μ \}$&nbsp; onto the set of real numbers.&nbsp; Complementary to this definition, it is still allowed that the random variable has a unit in addition to the numerical value.
  
[[File: EN_Sto_T_2_1_S1.png|center|| Zur Definition der Zufallsgröße]]
+
[[File: EN_Sto_T_2_1_S1.png|center|| Definition of a random variable]]
 
<br>}}
 
<br>}}
  
  
  
Nachfolgend werden einige Beispiele für Zufallsgrößen genannt:  
+
Some examples of random variables are given below:  
*Beim Zufallsexperiment "Werfen einer Roulettekugel" hat eine Unterscheidung zwischen&nbsp; $E$&nbsp; und&nbsp; $z$&nbsp; keine praktischen Auswirkungen, kann aber aus formalen Gründen durchaus sinnvoll sein.&nbsp; So bezeichnet&nbsp; $E_μ = 8$, dass die Kugel in der mit „8“ markierten Vertiefung der Roulettescheibe zum Liegen gekommen ist.&nbsp; Arithmetische Operationen&nbsp; (zum Beispiel eine Erwartungswertbildung)&nbsp; sind anhand der Ergebnisse nicht möglich.&nbsp; Dagegen bezeichnet die Zufallsgröße&nbsp; $z$&nbsp; tatsächlich einen Zahlenwert&nbsp; $($hier ganzzahlig zwischen&nbsp; $0$&nbsp; und&nbsp; $36)$, aus dem der zu erwartende Mittelwert der Zufallsgröße&nbsp; $($hier&nbsp; $18)$&nbsp; ermittelt werden kann.&nbsp; Durchaus möglich, aber nicht sinnvoll wäre zum Beispiel die Zuordnung&nbsp; $E_μ = 8$&nbsp; &nbsp; ⇔ &nbsp; $z_μ ≠ 8$.  
+
*In the random experiment "throwing a roulette ball", a distinction between&nbsp; $E$&nbsp; and&nbsp; $z$&nbsp; has no practical implications, but may be useful for formal reasons.&nbsp; Thus,&nbsp; $E_μ = 8$ denotes that the ball has come to rest in the spot of the roulette wheel marked "8".&nbsp; Arithmetic operations&nbsp; (for example, an expected value formation)&nbsp; are not possible on the basis of the results.&nbsp; In contrast, the random variable&nbsp; $z$&nbsp; actually denotes a numerical value&nbsp; $($here integer between&nbsp; $0$&nbsp; and&nbsp; $36)$, from which the expected mean value of the random variable&nbsp; $($here&nbsp; $18)$&nbsp; can be determined.&nbsp; Quite possible, but not useful, would be, for example, the assignment&nbsp; $E_μ = 8$&nbsp; &nbsp; ⇔ &nbsp; $z_μ ≠ 8$.  
*Beim Experiment "Münzwurf" sind die möglichen Ergebnisse&nbsp; "Zahl"&nbsp; und&nbsp; "Bild", worauf per se keine arithmetische Operationen angewendet werden können.&nbsp; Erst durch die zwar willkürliche, aber ein-eindeutige Zuordnung zwischen der Ereignismenge&nbsp; $\{E_μ\} = \{$"Zahl", "Bild"$ \}$&nbsp; und der Zahlenmenge&nbsp; $\{z_μ\} = \{0, 1\}$&nbsp; kann hier überhaupt ein Kennwert angegeben werden.&nbsp; Ebenso könnte man aber auch die Zuordnung "Bild" &nbsp; ⇔ &nbsp; $0$&nbsp; und "Zahl" &nbsp; ⇔ &nbsp; $1$&nbsp; festlegen.  
+
*In the "coin toss" experiment, the possible outcomes are&nbsp; "heads"&nbsp; and&nbsp; "tails", to which no arithmetic operations can be applied per se. &nbsp; Only by the arbitrary but unambiguous assignment between the event set&nbsp; $\{E_μ\} = \{$"heads", "tails"$ \}$&nbsp; and the number set&nbsp; $\{z_μ\} = \{0, 1\}$&nbsp; a characteristic value can be given here at all. &nbsp; Similarly, however, one could also specify the assignment "heads" &nbsp; ⇔ &nbsp; $0$&nbsp; and "tails" &nbsp; ⇔ &nbsp; $1$&nbsp;.  
*In der Schaltungstechnik bezeichnet man die beiden möglichen logischen Zustände einer Speicherzelle (Flipflops) gemäß den möglichen Spannungspegeln mit&nbsp; $\rm L$&nbsp; (Low) und&nbsp; $\rm H$&nbsp; (High).&nbsp; Diese Bezeichnungen übernehmen wir hier auch für Binärsymbole.&nbsp; Für praktische Arbeiten bildet man diese Symbole meist wieder auf Zufallsgrößen ab, wobei auch diese Zuordnung willkürlich ist, aber sinnvoll sein sollte.  
+
*In circuit engineering, one designates the two possible logical states of a memory cell (flip-flops) according to the possible voltage levels with&nbsp; $\rm L$&nbsp; (Low) and&nbsp; $\rm H$&nbsp; (High).&nbsp; We adopt these designations here also for binary symbols.&nbsp; For practical work, one usually maps these symbols back to random variables, although this mapping is also arbitrary, but should make sense.
*In der Codierungstheorie wird sinnvollerweise&nbsp; $\{ \text{L, H}\}$&nbsp; auf&nbsp; $\{0, 1\}$&nbsp; abgebildet, um die Möglichkeiten der Modulo-Algebra nutzen zu können.&nbsp; Zur Beschreibung der Modulation mit bipolaren (antipodalen) Signalen wählt man dagegen besser die Zuordnung&nbsp; $\{ \text{L, H}\}$ ⇔ $ \{-1, +1\}$.
+
*In coding theory, it is useful to map&nbsp; $\{ \text{L, H}\}$&nbsp; to&nbsp; $\{0, 1\}$&nbsp; in order to be able to use the possibilities of modulo algebra.&nbsp; On the other hand, to describe modulation with bipolar (antipodal) signals, one better chooses the mapping&nbsp; $\{ \text{L, H}\}$ ⇔ $ \{-1, +1\}$.
  
==Kontinuierliche und diskrete Zufallsgrößen==
+
 
 +
==Continuous and discrete random variables==
 
<br>
 
<br>
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Nach den möglichen Zahlenwerten&nbsp; $z_μ = z(E_μ)$&nbsp; unterscheiden wir hier zwischen kontinuierlichen und diskreten Zufallsgrößen:  
+
$\text{Definition:}$&nbsp; According to the possible numerical values&nbsp; $z_μ = z(E_μ)$&nbsp; we distinguish here between continuous and discrete random variables:
*Eine&nbsp; '''kontinuierliche Zufallsgröße'''&nbsp; $z$&nbsp; kann – zumindest in gewissen Bereichen – unendlich viele verschiedene Werte annehmen.&nbsp; Genauer gesagt: &nbsp; Die Menge der zulässigen Werte ist bei solchen Größen auch nicht abzählbar.  
+
*A&nbsp; '''continuous random variable'''&nbsp; $z$&nbsp; can &ndash; at least in certain ranges &ndash; assume infinitely many different values.&nbsp; More precisely: &nbsp; The set of admissible values is also uncountable for such variables.  
*Beispiele für kontinuierliche Zufallsgrößen sind die Geschwindigkeit eines Autos&nbsp; $($bei angemessener Fahrweise zwischen&nbsp; $v = 0$&nbsp; und&nbsp; $v = 120 \ \rm km/h)$&nbsp; oder auch die Rauschspannung bei einem Nachrichtensystem.&nbsp; Beide Zufallsgrößen haben neben einem Zahlenwert auch eine Einheit.  
+
*Examples for continuous random variables are the speed of a car&nbsp; $($at appropriate driving between&nbsp; $v = 0$&nbsp; and&nbsp; $v = 120 \ \rm km/h)$&nbsp; or also the noise voltage at a communication system.&nbsp; Both random variables have besides a numerical value also a unit.  
*Ist dagegen die Menge&nbsp; $\{z_μ\}$ abzählbar, so handelt es sich um eine&nbsp; '''diskrete Zufallsgröße'''. Meist ist die Zahl der möglichen Werte von&nbsp; $z$&nbsp; auf&nbsp; $M$&nbsp; begrenzt.&nbsp; In der Nachrichtentechnik nennt man&nbsp; $M$&nbsp; den ''Symbolumfang''&nbsp; (im Sinne der Codierungstheorie)&nbsp; bzw. die ''Stufenzahl''&nbsp; (aus Sicht der Übertragungstechnik). }}
+
*If, on the other hand, the set&nbsp; $\{z_μ\}$ is countable, it is a&nbsp; '''discrete random variable'''. Usually, the number of possible values of&nbsp; $z$&nbsp; is limited to&nbsp; $M$&nbsp; In communications engineering,&nbsp; $M$&nbsp; is called the ''symbol range''&nbsp; (in the sense of coding theory)&nbsp; or the ''number of steps''&nbsp; (from the point of view of transmission engineering). }}
 
 
  
  

Revision as of 23:14, 29 November 2021

# OVERVIEW OF THE SECOND MAIN CHAPTER #


This chapter is intended to familiarize you with  discrete random variables  assuming them to be statistically independent. Such random variables are needed in communications engineering, for example, for the simulation of a binary or multilevel digital signal, but equally for the emulation of a channel with statistically independent errors by a digital model, for example, the BSC model.

In detail, it covers:

  • the relationship between probability and relative frequency,
  • the expected values and moments,
  • the binomial and Poisson distributions as special cases of discrete distributions,
  • the generation of pseudorandom binaries using PN generators,  and
  • the generation of multilevel random variables on a digital computer.


For more information on discrete random variables, as well as assignments, simulations, and programming exercises, see

  • Chapter 1:   Discrete Random Variables (Program dis)
  • Chapter 2:   Pseudonoise Generators (Program png)


of the practical course "Simulationsmethoden in der Nachrichtentechnik".  This (former) LNT course at the TU Munich is based on

  • the teaching software package  LNTsim   ⇒   link refers to the ZIP version of the program,  and
  • of the associated  Internship Guide   ⇒   Link refers to the PDF version; Chapters 1 and 2: pages 7-32.



On the concept of random variable


In the first chapter of this book, the term  Random Experiment  has already been explained. By this is meant an experiment that can be repeated any number of times under the same conditions with an uncertain outcome  $E$,  but in which the set  $\{E_μ \}$  of possible outcomes is specifiable.

Often the experimental results are numerical values, as for example in the random experiment "throwing a die".  In contrast, the experiment "coin toss" yields the possible results "heads" and "tails".

For a uniform description of different kinds of experiments and also because of the better manageability one uses the term of  "random variable" .

$\text{Definition:}$  A  random variable  $z$  is a one-to-one mapping of the result set  $\{E_μ \}$  onto the set of real numbers.  Complementary to this definition, it is still allowed that the random variable has a unit in addition to the numerical value.

Definition of a random variable



Some examples of random variables are given below:

  • In the random experiment "throwing a roulette ball", a distinction between  $E$  and  $z$  has no practical implications, but may be useful for formal reasons.  Thus,  $E_μ = 8$ denotes that the ball has come to rest in the spot of the roulette wheel marked "8".  Arithmetic operations  (for example, an expected value formation)  are not possible on the basis of the results.  In contrast, the random variable  $z$  actually denotes a numerical value  $($here integer between  $0$  and  $36)$, from which the expected mean value of the random variable  $($here  $18)$  can be determined.  Quite possible, but not useful, would be, for example, the assignment  $E_μ = 8$    ⇔   $z_μ ≠ 8$.
  • In the "coin toss" experiment, the possible outcomes are  "heads"  and  "tails", to which no arithmetic operations can be applied per se.   Only by the arbitrary but unambiguous assignment between the event set  $\{E_μ\} = \{$"heads", "tails"$ \}$  and the number set  $\{z_μ\} = \{0, 1\}$  a characteristic value can be given here at all.   Similarly, however, one could also specify the assignment "heads"   ⇔   $0$  and "tails"   ⇔   $1$ .
  • In circuit engineering, one designates the two possible logical states of a memory cell (flip-flops) according to the possible voltage levels with  $\rm L$  (Low) and  $\rm H$  (High).  We adopt these designations here also for binary symbols.  For practical work, one usually maps these symbols back to random variables, although this mapping is also arbitrary, but should make sense.
  • In coding theory, it is useful to map  $\{ \text{L, H}\}$  to  $\{0, 1\}$  in order to be able to use the possibilities of modulo algebra.  On the other hand, to describe modulation with bipolar (antipodal) signals, one better chooses the mapping  $\{ \text{L, H}\}$ ⇔ $ \{-1, +1\}$.


Continuous and discrete random variables


$\text{Definition:}$  According to the possible numerical values  $z_μ = z(E_μ)$  we distinguish here between continuous and discrete random variables:

  • continuous random variable  $z$  can – at least in certain ranges – assume infinitely many different values.  More precisely:   The set of admissible values is also uncountable for such variables.
  • Examples for continuous random variables are the speed of a car  $($at appropriate driving between  $v = 0$  and  $v = 120 \ \rm km/h)$  or also the noise voltage at a communication system.  Both random variables have besides a numerical value also a unit.
  • If, on the other hand, the set  $\{z_μ\}$ is countable, it is a  discrete random variable. Usually, the number of possible values of  $z$  is limited to  $M$  In communications engineering,  $M$  is called the symbol range  (in the sense of coding theory)  or the number of steps  (from the point of view of transmission engineering).


Zunächst beschränken wir uns auf diskrete,  $M$–stufige Zufallsgrößen ohne innere statistischen Bindungen, die gemäß dem Abschnitt  Einige grundlegende Definitionen  durch die  $M$  Auftrittswahrscheinlichkeiten  $p_μ ={\rm Pr}(z = z_μ)$  vollständig charakterisiert sind.  Per Definition ist die Summe über alle  $M$  Wahrscheinlichkeiten gleich  $1$.

Dagegen ist die Wahrscheinlichkeit  ${\rm Pr}(z = z_μ)$  dafür, dass eine kontinuierliche Zufallsgröße  $z$  einen ganz bestimmten Wert  $z_μ$  annimmt, identisch Null.  Hier muss, wie im folgenden Kapitel  Kontinuierliche Zufallsgrößen  beschrieben wird, auf die  Wahrscheinlichkeitsdichtefunktion  (WDF) übergegangen werden.

Zufallsprozess und Zufallsfolge


$\text{Definition:}$  Ein  Zufallsprozess  unterscheidet sich vom bisher betrachteten Zufallsexperiment dadurch, dass er nicht nur ein Ergebnis (Ereignis) liefert, sondern eine  zeitliche Folge von Ergebnissen  (Ereignissen).


Damit kommt man zur  Zufallsfolge  $\langle z_ν\rangle$  mit den folgenden für unsere Darstellung festgelegten Eigenschaften:

  • Die Laufvariable  $ν$  beschreibt den zeitlichen Prozessablauf und kann Werte zwischen  $1$  und  $N$  annehmen.  Häufig wird eine solche Folge auch als  $N$–dimensionaler Vektor dargestellt.
  • Zu jeder Zeit  $ν$   kann die Zufallsgröße  $z_ν$  einen von  $M$  verschiedenen Werten annehmen.  Wir verwenden hierfür folgende Nomenklatur:
$$z_\nu \in z_\mu \hspace{0.3cm} {\rm mit} \hspace{0.3cm} \nu = 1,\hspace{0.1cm}\text{...} \hspace{0.1cm}, N \hspace{0.3cm} {\rm und} \hspace{0.3cm} \mu = 1,\hspace{0.1cm}\text{...} \hspace{0.1cm} , M.$$
  • Ist der Prozess  ergodisch, so weist jede Zufallsfolge  $\langle z_ν\rangle$  die gleichen statistischen Eigenschaften auf und kann als Repräsentant für den gesamten Zufallsprozess herangezogen werden.
  • Wir setzen hier zunächst voraus, dass zwischen den einzelnen Folgenelementen keine statistischen Bindungen bestehen, das heißt, es gilt für die  bedingten Wahrscheinlichkeiten:
$${\rm Pr}(z_\nu | z_{\nu \rm{ -1}} \hspace{0.1cm}\text{...} \hspace{0.1cm}z_{\rm 1})={\rm Pr}(z_\nu).$$

Mehr und vor allem Genaueres zu der Charakterisierung von Zufallsprozessen finden Sie im späteren Kapitel  Autokorrelationsfunktion.

$\text{Beispiel 1:}$  Wiederholt man das Zufallsexperiment "Werfen einer Roulettekugel" zehnmal, so ergibt sich zum Beispiel folgende Zufallsfolge:

$$\langle z_ν\rangle = \langle \ 8; \ 23; \ 0; \ 17; \ 36; \ 0; \ 33; \ 11; \ 11; \ 25 \ \rangle.$$

Zu jedem Zeitpunkt sind trotzdem – unabhängig von der Vergangenheit – alle Zufallsgrößen zwischen  $0$  und  $36$  möglich und auch gleichwahrscheinlich, was aber aus einer solch kurzen Folge nicht abgelesen werden kann.

Bernoullisches Gesetz der großen Zahlen


$\text{Definitionen:}$  Zur Beschreibung einer  $M$–stufigen Zufallsgröße verwendet man folgende Beschreibungsgrößen, deren Summe über alle  $μ = 1,\hspace{0.1cm}\text{...} \hspace{0.1cm} , M$  jeweils den Wert  $1$  ergeben:

  • Die  Wahrscheinlichkeiten  $p_μ = {\rm Pr}(z = z_μ)$  liefern Vorhersagen über das zu erwartende Ergebnis eines statistischen Versuchs und sind somit so genannte  A-priori-Kenngrößen.
  • Die  relativen Häufigkeiten  $h_μ^{(N)}$  sind  A-posteriori-Kenngrößen  und erlauben statistische Aussagen bezüglich eines vorher durchgeführten Versuches.  Sie werden wie folgt ermittelt:
$$h_{\mu}^{(N)} = \frac{n_{\mu} }{N}= \frac{ {\rm Anzahl \hspace{0.15cm}der \hspace{0.15cm}Versuche \hspace{0.15cm}mit \hspace{0.15cm}dem\hspace{0.15cm} Ergebnis\hspace{0.15cm} }z_{\mu} } { {\rm Anzahl \hspace{0.15cm}aller \hspace{0.15cm}Versuche } } \hspace{1cm}(\mu=1,\hspace{0.1cm}\text{...} \hspace{0.1cm},M).$$


Nur im Grenzfall  $N → ∞$  stimmen die relativen Häufigkeiten mit den entsprechenden Wahrscheinlichkeiten "exakt" überein, zumindest im statistischen Sinne.  Dagegen gilt nach dem von  Jakob I. Bernoulli  formulierten "Gesetz der großen Zahlen" für endliche Werte von  $N$:

$$\rm Pr \left( \it \mid h_\mu^{(N)} - p_\mu\mid \hspace{0.1cm} \ge \varepsilon \hspace{0.1cm} \right) \le \frac{1}{\rm 4\cdot \it N\cdot \varepsilon^{\rm 2}}.$$

Daraus folgt auch die Aussage, dass bei unendlich langen Zufallsfolgen  $(N → ∞)$  die relativen Häufigkeiten  $h_μ^{(N)}$  und die Wahrscheinlichkeiten  $p_μ$  mit der Wahrscheinlichkeit  $1$  identisch sind.

$\text{Beispiel 2:}$  Eine Binärdatei besteht aus  $N = 10^6$  Binärsymbolen ("Bit"), wobei die Nullen und Einsen gleichwahrscheinlich sind:   $p_0 = p_1 = 0.5$.

Das Bernoullische Gesetz der großen Zahlen  $($mit  $\varepsilon = 0.01)$  besagt nun, dass die Wahrscheinlichkeit des Ereignisses  „die Anzahl der Einsen in der Datei liegt zwischen  $495  \hspace{0.05cm}000$  und  $505\hspace{0.05cm}000$”  größer oder gleich  $1 - 1/400 = 99.75\%$  ist.


Die Wahrscheinlichkeit, dass sich die relative Häufigkeit  $h_μ^{(N)}$  eines Ereignisses  $E_μ$  und die zugehörige Wahrscheinlichkeit  $p_μ$  betragsmäßig um mehr als einen Wert  $\varepsilon$  unterscheiden, ist nach obiger Gleichung nicht größer als  $1/(4 · N · ε^2)$.  Für ein gegebenes  $\varepsilon$  und eine zu garantierende Wahrscheinlichkeit kann daraus der minimal erforderliche Wert von  $N$  berechnet werden.

Weiter ist anzumerken:

  • Der monotone Abfall mit  $N$  gilt nur im statistischen Sinne und nicht für jede einzelne Realisierung.  So können beim Experiment "Münzwurf" durchaus nach  $N = 1000$  Würfen die relative Häufigkeiten von "Zahl" und "Bild" exakt gleich  $0.5$  sein  (wenn  $n_{\rm Zahl} = n_{\rm Bild} = 500$  ist)  und nach  $N = 2000$  Würfen wieder mehr oder weniger stark davon abweichen.
  • Führen mehrere Probanden parallel dass Experiment "Münzwurf" durch und stellt man jeweils die relative Häufigkeit in Abhängigkeit von  $N$  dar, so ergeben sich dementsprechend Kurvenverläufe, die zwar tendenziell, aber nicht monoton abfallen.
  • Berechnet man aber den Mittelwert über unendlich viele solcher Kurven, so erhält man den monoton mit  $N$  abfallenden Verlauf gemäß der Bernouillischen Vorhersage.


Mit dieser Thematik, speziell mit dem Experiment von  Karl Pearson, beschäftigt sich das Lernvideo  Bernoullisches Gesetz der großen Zahlen.

Aufgaben zum Kapitel


Aufgabe 2.1: Wahlnachfrage

Aufgabe 2.1Z: Signalverläufe