Difference between revisions of "Theory of Stochastic Signals/From Random Experiment to Random Variable"

From LNTwww
 
(40 intermediate revisions by 6 users not shown)
Line 1: Line 1:
 
   
 
   
 
{{Header
 
{{Header
|Untermenü=Diskrete Zufallsgrößen
+
|Untermenü=Discrete Random Variable
|Vorherige Seite=Markovketten
+
|Vorherige Seite=Markov Chains
|Nächste Seite=Momente einer diskreten Zufallsgröße
+
|Nächste Seite=Moments of a Discrete Random Variable
 
}}
 
}}
  
== # ÜBERBLICK ZUM ZWEITEN HAUPTKAPITEL # ==
+
== # OVERVIEW OF THE SECOND MAIN CHAPTER # ==
 +
<br>
 +
This chapter is intended to familiarize you with&nbsp; &raquo;'''discrete random variables'''&laquo;&nbsp; assuming them to be statistically independent.&nbsp; Such random variables are needed in Communications Engineering,&nbsp; for example,&nbsp; for the simulation of a binary or multi-level  digital signal,&nbsp; but equally for the emulation of a channel with statistically independent errors by a digital model,&nbsp; for example,&nbsp; the BSC model.
  
Dieses Kapitel soll Sie mit diskreten Zufallsgrößen vertraut machen, wobei diese als statistisch unabhängig vorausgesetzt werden. Solche Zufallsgrößen werden in der Nachrichtentechnik zum Beispiel für die Simulation eines binären oder mehrstufigen Digitalsignals benötigt, aber ebenso zur Nachbildung eines Kanals mit statistisch unabhängigen Fehlern durch ein digitales Modell, zum Beispiel dem BSC-Modell.
+
In detail, it covers:
 +
#the&nbsp; &raquo;relationship between probability and relative frequency&laquo;,
 +
#the&nbsp; &raquo;expected values and moments&laquo;,
 +
#the&nbsp; &raquo;binomial and Poisson distributions&laquo;&nbsp; as special cases of discrete distributions,
 +
#the&nbsp; &raquo;generation of pseudo-random binary symbols&laquo;&nbsp; using&nbsp; &raquo;PN generators&laquo;,&nbsp; and
 +
#the&nbsp; &raquo;generation of multi-level  random variables&laquo;&nbsp; on a digital computer.
  
Weitere Informationen zum Thema &bdquo;Diskrete Zufallsgrößen&rdquo; sowie Aufgaben, Simulationen und Programmierübungen finden Sie im
 
  
*Kapitel 1: Diskrete Zufallsgrößen (Programm dis)
 
*Kapitel 2: Pseudonoise-Generatoren (Programm png)
 
  
 +
==On the concept of random variables==
 +
<br>
 +
In the first chapter of this book,&nbsp; the term&nbsp;  [[Theory_of_Stochastic_Signals/Some_Basic_Definitions#Experiment_and_outcome|&raquo;$\text{random experiment}$&laquo;]]&nbsp; has already been explained.&nbsp; By this is meant an experiment
 +
*that can be repeated any number of times under the same conditions with an uncertain outcome&nbsp; $E$,&nbsp;
  
des Praktikums „Simulationsmethoden in der Nachrichtentechnik”. Diese LNT-Lehrveranstaltung an der TU München basiert auf
+
*but in which the set&nbsp; $\{E_μ \}$&nbsp; of possible outcomes is specifiable.
  
*dem Lehrsoftwarepaket [http://en.lntwww.de/downloads/Sonstiges/Programme/LNTsim.zip LNTsim] &nbsp;&rArr;&nbsp; Link verweist auf die ZIP-Version des Programms und
 
*der zugehörigen [http://en.lntwww.de/downloads/Sonstiges/Texte/Praktikum_LNTsim_Teil_A.pdf Praktikumsanleitung]  &nbsp;&rArr;&nbsp; Link verweist auf die PDF-Version; Kapitel 1 und 2: Seite 7-32.
 
  
 +
Often the experimental outcomes are numerical values,&nbsp; as for example in the random experiment&nbsp; &raquo;throwing a die&laquo;.&nbsp; In contrast,&nbsp; the experiment&nbsp; &raquo;coin toss&laquo;&nbsp; yields the possible outcomes&nbsp; &raquo;heads&laquo;&nbsp; and&nbsp; &raquo;tails&raquo;.
  
Der erste Abschnitt &bdquo;Vom Zufallsexperiment zur Zufallsgröße&rdquo; ist wie folgt gegliedert:
+
For a uniform description of different kinds of experiments and also because of the better manageability one uses the term&nbsp; &raquo;random variable&laquo;.
  
 +
{{BlaueBox|TEXT=
 +
[[File: EN_Sto_T_2_1_S1_neu2.png|right|frame| Definition of a random variable ]] 
 +
$\text{Definition:}$&nbsp;
 +
*A&nbsp; &raquo;'''random variable'''&laquo;&nbsp; $z$&nbsp; is a one-to-one mapping of the outcome set&nbsp; $\{E_μ \}$&nbsp; onto the set of real numbers.&nbsp;
  
==Zum Begriff der Zufallsgröße==
 
Im ersten Kapitel dieses Buches wurde bereits der Begriff  [[Stochastische_Signaltheorie/Einige_grundlegende_Definitionen|Zufallsexperiment]]  erläutert. Darunter versteht man einen unter gleichen Bedingungen beliebig oft wiederholbaren Versuch mit ungewissem Ergebnis $E$, bei dem jedoch die Menge  $\{E_μ \}$ der möglichen Ergebnisse angebbar ist.
 
  
Häufig sind die Versuchsergebnisse Zahlenwerte, z. B. beim Zufallsexperiment &bdquo;Werfen eines Würfels&rdquo;. Dagegen liefert das Experiment &bdquo;Münzwurf&rdquo; die zwei möglichen Ergebnisse &bdquo;Zahl&rdquo; und &bdquo;Bild&rdquo;.  
+
*Complementary to this definition, it is still allowed that the random variable has a unit in addition to the numerical value.}}
  
Zur einheitlichen Beschreibung verschiedenartiger Experimente und auch wegen der besseren Handhabbarkeit verwendet man den Begriff &bdquo;Zufallsgröße&rdquo;, oft auch als &bdquo;Zufallsvariable&rdquo; bezeichnet.
 
  
{{Definition}}
+
Some examples of random variables are given below:
Eine '''Zufallsgröße''' $z$ ist eine ein-eindeutige Abbildung der Ergebnismenge $\{E_μ \}$ auf die Menge der reellen Zahlen. Ergänzend zu dieser Definition wird noch zugelassen, dass die Zufallsgröße neben dem Zahlenwert auch eine Einheit besitzt.
+
#In the random experiment&nbsp; &raquo;throwing a roulette ball&raquo;,&nbsp; a distinction between&nbsp; $E$&nbsp; and&nbsp; $z$&nbsp; has no practical implications,&nbsp; but may be useful for formal reasons.&nbsp; Thus,&nbsp; $E_μ = 8$&nbsp; denotes that the ball has come to rest in the spot of the roulette wheel marked&nbsp; &raquo;$8$&laquo;.&nbsp; Arithmetic operations&nbsp; $($e.g. an expected value formation$)$&nbsp; are not possible on the basis of the outcomes. &nbsp; '''&ndash;''' &nbsp; In contrast,&nbsp; the random variable&nbsp; $z$&nbsp; actually denotes a numerical value&nbsp; $($here integer between&nbsp; $0$&nbsp; and&nbsp; $36)$,&nbsp; from which the expected value of the random variable&nbsp; $($here&nbsp; $18)$&nbsp; can be determined.&nbsp; Quite possible but not useful would be,&nbsp; for example,&nbsp; the assignment&nbsp; $E_μ = 8$&nbsp; &nbsp; ⇔ &nbsp; $z_μ ≠ 8$.
 +
#In the&nbsp; &raquo;coin toss&laquo;&nbsp; experiment,&nbsp; the possible outcomes are&nbsp; &raquo;heads&laquo;&nbsp; and&nbsp; &raquo;tails&laquo;,&nbsp; to which no arithmetic operations can be applied per se. &nbsp; Only by the arbitrary but unambiguous assignment between the event set&nbsp; $\{E_μ\} = \{$&raquo;heads&laquo;, &raquo;tails&laquo;$ \}$&nbsp; and the number set&nbsp; $\{z_μ\} = \{0,\ 1\}$&nbsp; a characteristic value can be given here at all. &nbsp; Similarly,&nbsp; however,&nbsp; one could also specify the assignment&nbsp; &raquo;heads&laquo; &nbsp; ⇔ &nbsp; $1$ &nbsp; and &nbsp; &raquo;tails&laquo; &nbsp; ⇔ &nbsp; $0$.
 +
#In circuit technology,&nbsp; one designates the two possible logical states of a memory cell&nbsp; $($&raquo;flip-flops&laquo;$)$&nbsp; according to the possible voltage levels with&nbsp; $\rm L$&nbsp; $($Low$)$&nbsp; and&nbsp; $\rm H$&nbsp; $($High$)$.&nbsp; We adopt these designations here also for binary symbols.&nbsp; For practical work,&nbsp; one usually maps these symbols back to random variables,&nbsp; although this mapping is also arbitrary,&nbsp; but should make sense. 
 +
#In coding theory,&nbsp; it is useful to map&nbsp; $\{ \text{L,&nbsp; H}\}$&nbsp; to&nbsp; $\{0,\ 1\}$&nbsp; in order to be able to use the possibilities of modulo algebra.&nbsp; On the other hand,&nbsp; to describe modulation with bipolar&nbsp; $($&raquo;antipodal&raquo;$)$&nbsp; signals,&nbsp; it is better to choose the mapping&nbsp; $\{ \text{L,&nbsp; H}\}$ ⇔ $ \{-1, +1\}$.
  
[[File: P_ID455__Sto_T_2_1_S1_neu.png |frame| Zur Definition der Zufallsgröße]]
 
  
{{end}}
+
==Continuous and discrete random variables==
 +
<br>
 +
{{BlaueBox|TEXT= 
 +
$\text{Definition:}$&nbsp; According to the possible numerical values&nbsp; $z_μ = z(E_μ)$&nbsp; we distinguish between value&ndash;continuous and value&ndash;discrete random variables:
 +
*A&nbsp; &raquo;'''continuous random variable'''&laquo;&nbsp; $z$&nbsp; can&nbsp; &ndash; at least in certain ranges &ndash;&nbsp; assume infinitely many different values.&nbsp; More precisely: &nbsp; For such variables the set of admissible values is also uncountable.
  
 +
*Examples for continuous random variables are the speed of a car&nbsp; $($at appropriate driving between&nbsp; $v = 0$&nbsp; and&nbsp; $v = 120 \ \rm km/h)$&nbsp; or also the noise voltage at a communication system.&nbsp; Both random variables have besides a numerical value also a unit.
 +
 +
*If the set&nbsp; $\{z_μ\}$&nbsp; is countable,&nbsp; it is a&nbsp; &raquo;'''discrete random variable'''&laquo;.&nbsp; Usually,&nbsp; the number of possible values of&nbsp; $z$&nbsp; is limited to&nbsp; $M$.&nbsp; In Communications Engineering,&nbsp; $M$&nbsp; is called the&nbsp; &raquo;symbol set size&laquo;&nbsp; $($in the sense of coding theory$)$&nbsp; or the&nbsp; &raquo;level number&laquo;&nbsp; $($from the viewpoint of transmission engineering$)$. }}
  
  
Nachfolgend werden einige Beispiele für Zufallsgrößen genannt:
+
First,&nbsp; we restrict ourselves to discrete,&nbsp; $M$ level random variables with no internal statistical bindings, which are fully characterized by the&nbsp; $M$&nbsp; probabilities&nbsp;  
*Beim Zufallsexperiment &bdquo;Werfen einer Roulettekugel&rdquo; hat eine Unterscheidung zwischen $E$ und $z$ keine praktischen Auswirkungen, kann aber aus formalen Gründen durchaus sinnvoll sein. So bezeichnet $E_μ = 8$, dass die Kugel in der mit „8“ markierten Vertiefung der Roulettescheibe zum Liegen gekommen ist. Arithmetische Operationen (zum Beispiel eine Erwartungswertbildung) sind anhand der Ergebnisse nicht möglich. Dagegen bezeichnet die Zufallsgröße $z$ tatsächlich einen Zahlenwert (hier ganzzahlig zwischen 0 und 36), aus dem der zu erwartende Mittelwert der Zufallsgröße (hier 18) ermittelt werden kann. Durchaus möglich, aber nicht sinnvoll wäre zum Beispiel die Zuordnung $E_μ = 8$ &nbsp; &nbsp; $z_μ ≠ 8$.
+
:$$p_μ ={\rm Pr}(z = z_μ)$$
*Beim Experiment &bdquo;Münzwurf&rdquo; sind die möglichen Ergebnisse &bdquo;Zahl&rdquo; und &bdquo;Bild&rdquo;, worauf keine arithmetische Operationen angewendet werden können. Erst durch die zwar willkürliche, aber ein-eindeutige Zuordnung zwischen der Ereignismenge $\{E_μ\} = \{$&bdquo;Zahl&rdquo;, &bdquo;Bild&rdquo;$ \}$ und der Zahlenmenge $\{z_μ\} = \{0, 1\}$ kann hier überhaupt ein Kennwert angegeben werden. Ebenso könnte man die Zuordnung &bdquo;Bild&rdquo; &nbsp; &nbsp; $0$ und &bdquo;Zahl&rdquo; &nbsp; &nbsp; $1$ festlegen.
+
according to the section&nbsp; [[Theory_of_Stochastic_Signals/Some_Basic_Definitions|&raquo;Some Basic Definitions&laquo;]].&nbsp; By definition,&nbsp; the sum over all&nbsp; $M$&nbsp; probabilities is equal to&nbsp; $1$.  
*In der Schaltungstechnik bezeichnet man die beiden möglichen logischen Zustände einer Speicherzelle (Flipflops) gemäß den möglichen Spannungspegeln mit $\rm L$ (Low) und $\rm H$ (High). Diese Bezeichnungen übernehmen wir hier auch für Binärsymbole. Für praktische Arbeiten bildet man diese Symbole meist wieder auf Zufallsgrößen ab, wobei auch diese Zuordnung willkürlich ist, aber sinnvoll sein sollte.
 
*In der Codierungstheorie wird sinnvollerweise $\{ \text{L, H}\}$ auf $\{0, 1\}$ abgebildet, um die Möglichkeiten der Modulo-Algebra nutzen zu können. Zur Beschreibung der Modulation mit bipolaren (antipodalen) Signalen wählt man dagegen besser die Zuordnung $\{ \text{L, H}\}$  ⇔ $ \{-1, +1\}$.
 
  
==Kontinuierliche und diskrete Zufallsgrößen==
+
In contrast,&nbsp; the probability&nbsp; ${\rm Pr}(z = z_μ)$&nbsp; for a continuous random variable&nbsp; $z$&nbsp; to take on a very specific value&nbsp; $z_μ$&nbsp; is identically zero. &nbsp; Here,&nbsp; as will be described in the following chapter&nbsp; [[Theory_of_Stochastic_Signals/Probability Density Function_(PDF)|&raquo;Continuous Random Variables&laquo;]]&nbsp; we must move to the&nbsp; probability density function&nbsp; $\rm (PDF)$.  
Nach den möglichen Zahlenwerten $z_μ = z(E_μ)$ unterscheiden wir hier zwischen kontinuierlichen und diskreten Zufallsgrößen:
+
==Random process and random sequence==
*Eine '''kontinuierliche Zufallsgröße''' $z$ kann – zumindest in gewissen Bereichen – unendlich viele verschiedene Werte annehmen. Genauer gesagt: Die Menge der zulässigen Werte ist bei solchen Größen auch nicht abzählbar. Beispiele für kontinuierliche Zufallsgrößen sind die Geschwindigkeit eines Autos (bei angemessener Fahrweise zwischen $v = 0$ und $v = 120 \ \rm km/h$) oder auch die Rauschspannung bei einem Nachrichtensystem. Beide Zufallsgrößen haben neben einem Zahlenwert auch eine Einheit.  
+
<br>
*Ist dagegen die Menge $\{z_μ\}$ abzählbar, so handelt es sich um eine '''diskrete Zufallsgröße'''. Meist ist die Zahl der möglichen Werte von $z$ auf $M$ begrenzt. In der Nachrichtentechnik nennt man $M$ den ''Symbolumfang'' (im Sinne der Codierungs- und Informationstheorie) bzw. die ''Stufenzahl'' (aus Sicht der Übertragungstechnik).
+
{{BlueBox|TEXT=  
 +
$\text{Definition:}$&nbsp;
 +
A&nbsp; &raquo;'''random process'''&laquo;&nbsp; differs from the&nbsp; &raquo;random experiment&raquo;&nbsp; considered so far
 +
*in that it yields not just only one outcome,
 +
 +
*but a&nbsp; &raquo;temporal sequence of outcomes&laquo;. }}
  
  
 +
This brings us to the&nbsp; &raquo;'''random sequence'''&laquo;&nbsp; $\langle z_ν\rangle$&nbsp; with the following properties established for our representation:
 +
*The index&nbsp; $ν$ &nbsp; describes the temporal process sequence and can take values between&nbsp; $1$&nbsp; and&nbsp; $N$.&nbsp; Often such a sequence is also represented as&nbsp; $N$&ndash;dimensional vector.
  
Zunächst beschränken wir uns auf diskrete, $M$-stufige Zufallsgrößen ohne innere statistischen Bindungen, die gemäß dem Abschnitt [[Stochastische_Signaltheorie/Einige_grundlegende_Definitionen|Einige grundlegende Definitionen1]]  durch die $M$ Auftrittswahrscheinlichkeiten $p_μ =$ Pr( $z = z_μ$) vollständig charakterisiert sind. Per Definition ist die Summe über alle $M$ Wahrscheinlichkeiten gleich $1$.
+
*At any time&nbsp; $ν$ &nbsp; the random variable&nbsp; $z_ν$&nbsp; can take can take one of a total of&nbsp; $M$&nbsp; different values.&nbsp; We use the following nomenclature for this:
 +
:$$z_\nu \in z_\mu \hspace{0.3cm} {\rm with} \hspace{0.3cm} \nu = 1,\hspace{0.1cm}\text{...} \hspace{0.1cm}, N \hspace{0.3cm} {\rm and} \hspace{0.3cm} \mu = 1,\hspace{0.1cm}\text{...} \hspace{0.1cm} , M.$$
 +
*If the process is&nbsp; [[Theory_of_Stochastic_Signals/Auto-Correlation_Function_(ACF)#Ergodic_random_processes|&raquo;$\text{ergodic}$&laquo;]],&nbsp; then each random sequence&nbsp; $\langle z_ν\rangle$&nbsp; has the same statistical properties and can be used as a representative for the entire random process.
 +
   
 +
*We first assume that there are no statistical bindings between the individual sequence elements,&nbsp; that is,&nbsp; it holds for the&nbsp; [[Theory_of_Stochastic_Signals/Statistical_Dependence_and_Independence#Conditional_probability|&raquo;$\text{conditional probabilities}$&laquo;]]:
 +
:$${\rm Pr}(z_\nu | z_{\nu \rm{ -1}} \hspace{0.1cm}\text{...} \hspace{0.1cm}z_{\rm 1})={\rm Pr}(z_\nu).$$
  
Dagegen ist die Wahrscheinlichkeit ${\rm Pr}(z = z_μ)$ dafür, dass eine kontinuierliche Zufallsgröße $z$ einen ganz bestimmten Wert $z_μ$ annimmt, identisch Null. Hier muss, wie im folgenden Kapitel [[Stochastische_Signaltheorie/Wahrscheinlichkeitsdichtefunktion_(WDF)|Kontinuierliche Zufallsgrößen]] beschrieben wird, auf die Wahrscheinlichkeitsdichtefunktion (WDF) übergegangen werden.  
+
More and especially more detailed information about the characterization of random processes can be found in the later chapter&nbsp; [[Theory_of_Stochastic_Signals/Auto-Correlation_Function_(ACF)|&raquo;Autocorrelation Function&laquo;]].  
  
==Zufallsprozess und Zufallsfolge==
+
{{GraueBox|TEXT=
Ein '''Zufallsprozess''' unterscheidet sich von dem bisher betrachteten Zufallsexperiment dadurch, dass er nicht nur ein Ergebnis (Ereignis) liefert, sondern eine ''zeitliche Folge von Ergebnissen'' (Ereignissen). Damit kommt man zur '''Zufallsfolge'''  $\langle z_ν\rangle$ mitden  folgenden in unserer Darstellung festgelegten Eigenschaften:  
+
$\text{Example 1:}$&nbsp;
*Die Laufvariable $ν$ beschreibt den zeitlichen Prozessablauf und kann Werte zwischen $1$ und $N$ annehmen. Häufig wird eine solche Folge auch als N-dimensionaler Vektor dargestellt.
+
If we repeat the random experiment&nbsp; &raquo;throwing a roulette ball&laquo;&nbsp; ten times,&nbsp; we get,&nbsp; for example,&nbsp; the following random sequence:  
*Zu jeder Zeit $ν$ kann die Zufallsgröße $z_ν$ einen von $M$ verschiedenen Werten annehmen. Wir verwenden hierfür folgende Nomenklatur:
+
:$$\langle z_ν\rangle = \langle \ 8; \ 23; \ 0; \ 17; \ 36; \ 0; \ 33; \ 11; \ 25 ; \ 5 \ \rangle.$$  
:$$z_\nu \in z_\mu \hspace{0.3cm} {\rm mit} \hspace{0.3cm} \nu = 1, ... \hspace{0.05cm}, N \hspace{0.3cm} {\rm und} \hspace{0.3cm} \mu = 1, ...\hspace{0.05cm} , M.$$
+
At any point in time,&nbsp; all random variables between&nbsp; $0$&nbsp; and&nbsp; $36$&nbsp; are nevertheless possible &ndash; regardless of the past &ndash; and also equally probable,&nbsp; but this cannot be read from such a short sequence.}}
*Ist der Prozess [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Ergodische_Zufallsprozesse|ergodisch]], so weist jede Zufallsfolge $\langle z_ν\rangle$ gleiche statistische Eigenschaften auf und kann als Repräsentant für den gesamten Prozess herangezogen werden.
 
*Wir setzen hier voraus, dass zwischen den einzelnen Folgenelementen keine statistischen Bindungen bestehen, das heißt, es gilt für die [[Stochastische_Signaltheorie/Statistische_Abhängigkeit_und_Unabhängigkeit#Bedingte_Wahrscheinlichkeit|bedingten Wahrscheinlichkeiten]]:
 
:$${\rm Pr}(z_\nu  | z_{\nu \rm{ -1}} \hspace{0.1cm}... \hspace{0.1cm}z_{\rm 1})={\rm Pr}(z_\nu).$$
 
  
 +
==Bernoulli's law of large numbers==
 +
<br>
 +
{{BlueBox|TEXT= 
 +
$\text{Definitions:}$&nbsp; To describe an&nbsp; $M$&ndash;level discrete random variable,&nbsp; one uses the following descriptive variables whose sums over&nbsp; $μ = 1,\hspace{0.1cm}\text{...} \hspace{0.1cm} , M$&nbsp; each yield the value&nbsp; $1$: 
 +
*The&nbsp; &raquo;'''probabilities'''&laquo;&nbsp; $p_μ = {\rm Pr}(z = z_μ)$&nbsp; provide predictions about the expected outcome of a statistical experiment and are thus so-called&nbsp; &raquo;a-priori characteristics&laquo;.
 +
 +
*The&nbsp; &raquo;'''relative frequencies'''&laquo;&nbsp; $h_μ^{(N)}$&nbsp; are&nbsp; &raquo;a-posteriori characteristics&laquo;&nbsp; and allow statistical statements to be made with respect to a previously conducted experiment.&nbsp; They are determined as follows:
 +
:$$h_{\mu}^{(N)} = \frac{n_{\mu} }{N}=
 +
\frac{ {\rm number \hspace{0.15cm}of \hspace{0.15cm}experiments \hspace{0.15cm}with \hspace{0.15cm}outcome\hspace{0.15cm} }z_{\mu} }
 +
{ {\rm number \hspace{0.15cm}of \hspace{0.15cm}all \hspace{0.15cm}attempts } } \hspace{1cm}(\mu=1,\hspace{0.1cm}\text{...} \hspace{0.1cm},M).$$}}
  
Mehr und vor allem Genaueres zu der Charakterisierung von Zufallsprozessen finden Sie im späteren Kapitel [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)|Autokorrelationsfunktion]].
 
  
{{Beispiel}}
+
Only in the limiting case&nbsp; $N → ∞$ &nbsp; the relative frequencies do coincide&nbsp; exactly&nbsp; with the corresponding probabilities,&nbsp; at least in the statistical sense.&nbsp; In contrast,&nbsp; according to the&nbsp; &raquo;law of large numbers&laquo;&nbsp; formulated by&nbsp; [https://en.wikipedia.org/wiki/Jacob_Bernoulli &raquo;$\text{Jacob Bernoulli}$&laquo;]&nbsp; for finite values of&nbsp; $N$:  
Wiederholt man das Zufallsexperiment &bdquo;Werfen einer Roulettekugel&rdquo; zehnmal, so ergibt sich zum Beispiel folgende Zufallsfolge:  
+
:$$\rm Pr \left( \it \mid h_\mu^{(N)} - p_\mu\mid \hspace{0.1cm} \ge \varepsilon \hspace{0.1cm} \right) \le \frac{1}{\rm 4\cdot \it N\cdot \varepsilon^{\rm 2}}.$$
$$\langle z_ν\rangle = \langle 8; \ 23; \ 0; \ 17; \ 36; \ 0; \ 33; \ 11; \ 11; \ 25 \rangle.$$  
 
Zu jedem Zeitpunkt sind trotzdem – unabhängig von der Vergangenheit – alle Zufallsgrößen zwischen $0$ und $36$ möglich und auch gleichwahrscheinlich, was aber aus einer solch kurzen Folge nicht abgelesen werden kann.
 
{{end}}
 
  
==Bernoullisches Gesetz der großen Zahlen==
+
It also follows that for infinite random sequences&nbsp; $(N → ∞)$&nbsp; the relative frequencies&nbsp; $h_μ^{(N)}$&nbsp; and the probabilities&nbsp; $p_μ$&nbsp; are identical with probability&nbsp; $1$&nbsp;.  
Zur Beschreibung einer $M$&ndash;stufigen Zufallsgröße verwendet man folgende Beschreibungsgrößen, deren Summe über alle $μ = 1, ... , M$ jeweils den Wert $1$ ergeben: 
+
{{GraueBox|TEXT=
*Die '''Wahrscheinlichkeiten''' $p_μ = {\rm Pr}(z = z_μ)$ liefern Vorhersagen über das zu erwartende Ergebnis eines statistischen Versuchs und sind somit so genannte ''A-priori-Kenngrößen.''
+
$\text{Example 2:}$&nbsp; A binary data file consists of&nbsp; $N = 10^6$&nbsp; binary symbols&nbsp; $($&raquo;bits&laquo;$)$, where the&nbsp; &raquo;zeros&laquo;&nbsp; and&nbsp; &raquo;ones&laquo;&nbsp; are equally probable: &nbsp; $p_0 = p_1 = 0.5$.  
*Die '''relativen Häufigkeiten''' $h_μ^{(N)}$ sind ''A-posteriori-Kenngrößen'' und erlauben statistische Aussagen bezüglich eines vorher durchgeführten Versuches. Sie werden wie folgt ermittelt:
 
:$$h_{\mu}^{(N)} = \frac{n_{\mu}}{N}=  
 
\frac{{\rm Anzahl \hspace{0.15cm}der \hspace{0.15cm}Versuche \hspace{0.15cm}mit \hspace{0.15cm}dem\hspace{0.15cm} Ergebnis\hspace{0.15cm}}z_{\mu}}
 
{{\rm Anzahl \hspace{0.15cm}aller \hspace{0.15cm}Versuche }} \hspace{1cm}(\mu=1,...,M).$$
 
  
 +
:Bernoulli's law of large numbers&nbsp; $($with&nbsp; $\varepsilon = 0.01)$&nbsp; now states that the probability of the event&nbsp; &raquo;the number of ones in the file is between&nbsp; $495&nbsp; \hspace{0.05cm}000$&nbsp; and&nbsp; $505\hspace{0.05cm}000$&laquo;&nbsp;&nbsp; is greater than or equal to&nbsp;
 +
:$$1 - 1/400 = 99.75\%.$$ }}
  
Nur im Grenzfall $N → ∞$ stimmen die relativen Häufigkeiten mit den entsprechenden Wahrscheinlichkeiten exakt überein, zumindest im statistischen Sinne. Dagegen giltnach dem von [https://de.wikipedia.org/wiki/Jakob_I._Bernoulli Jakob I. Bernoulli]  formulierten &bdquo;Gesetz der großen Zahlen&rdquo;  für endliche Werte von $N$ :
 
:$$\rm Pr \left( \it \mid h_\mu^{(N)} - p_\mu\mid  \hspace{0.1cm} \ge  \varepsilon \hspace{0.1cm} \right) \le  \frac{1}{\rm 4\cdot \it N\cdot \varepsilon^{\rm 2}}.$$
 
  
Daraus folgt auch die Aussage, dass bei unendlich langen Zufallsfolgen $(N → ∞)$ die relativen Häufigkeiten $h_μ^{(N)}$ und die Wahrscheinlichkeiten $p_μ$ mit der Wahrscheinlichkeit $1$ identisch sind.  
+
According to the above equation,&nbsp; the probability that the relative frequency&nbsp; $h_μ^{(N)}$&nbsp; of an event&nbsp; $E_μ$&nbsp; and the associated probability&nbsp; $p_μ$&nbsp; differ in magnitude by more than a value&nbsp; $\varepsilon$&nbsp; is not greater than&nbsp; $1/(4 \cdot N \cdot ε^2)$.&nbsp; For a given&nbsp; $\varepsilon$&nbsp; and a probability to be guaranteed,&nbsp; the minimum required value of&nbsp; $N$&nbsp; can be calculated from this.  
  
{{Beispiel}}
+
Further, it should be noted:
Eine Binärdatei besteht aus $N = 10^6$ Binärsymbolen (Bit), wobei die Nullen und Einsen gleichwahrscheinlich sind: $p_0 = p_1 = 0.5$. Das Bernoullische Gesetz der großen Zahlen (mit $\varepsilon = 0.01$) besagt nun, dass die Wahrscheinlichkeit des Ereignisses „die Anzahl der Einsen in der Datei liegt zwischen 495000 und 505000” größer oder gleich $1 – 1/400 = 99.75\%$ ist.  
+
#The monotonic decay with&nbsp; $N$&nbsp; is valid only in the statistical sense and not for each individual realization.&nbsp;
{{end}}
+
# Thus,&nbsp; in the&nbsp; &raquo;coin toss&laquo;&nbsp; experiment,&nbsp; after&nbsp; $N = 1000$&nbsp; tosses,&nbsp; the relative frequencies of&nbsp; &raquo;heads&laquo;&nbsp; and&nbsp; &raquo;tails&laquo;&nbsp; may well be exactly equal&nbsp; $50\%$&nbsp; $($if&nbsp; $n_{\rm heads} = n_{\rm tails} = 500$$)$&nbsp; and after&nbsp; $N = 2000$&nbsp; tosses deviate from it again more or less strongly.  
 +
#If several subjects perform the experiment&nbsp; &raquo;coin toss&laquo;&nbsp; in parallel and the relative frequency is plotted as a function of&nbsp; $N$,&nbsp; the result is a curve which tends to decrease,&nbsp; but not monotonously.  
 +
#If,&nbsp; however,&nbsp; one calculates the mean value over an infinite number of such curves,&nbsp; one obtains the monotonically with&nbsp; $N$&nbsp; decreasing course according to the Bernouillian prediction. 
  
  
Die Wahrscheinlichkeit, dass sich die relative Häufigkeit $h_μ^{(N)}$ eines Ereignisses $E_μ$ und die zugehörige Wahrscheinlichkeit $p_μ$ betragsmäßig um mehr als einen Wert $\varepsilon$ unterscheiden, ist also nicht größer als $1/(4 · N · ε²$). Für ein gegebenes $\varepsilon$ und eine zu garantierende Wahrscheinlichkeit kann daraus der minimal erforderliche Wert von $N$ berechnet werden. Weiter ist anzumerken:
+
&rArr; &nbsp; This topic,&nbsp; specifically the experiment of&nbsp; [https://en.wikipedia.org/wiki/Karl_Pearson &raquo;$\text{Karl Pearson}$&laquo;],&nbsp; is dealt with in the&nbsp; $($German language$)$&nbsp; learning video &nbsp;
*Der monotone Abfall mit $N$ gilt nur im statistischen Sinne und nicht für jede einzelne Realisierung. So können beim Experiment &bdquo;Münzwurf&rdquo; durchaus nach $N = 1000$ Würfen die relative Häufigkeiten von &bdquo;Zahl&rdquo; und &bdquo;Bild&rdquo; exakt gleich $0.5$ sein (wenn $n_{\rm Zahl} = n_{\rm Bild} = 500$ ist) und nach $N = 2000$ Würfen wieder mehr oder weniger stark davon abweichen.
+
*Führen mehrere Probanden parallel dass Experiment &bdquo;Münzwurf&rdquo; durch und stellt man jeweils die relative Häufigkeit in Abhängigkeit von $N$ dar, so ergeben sich dementsprechend Kurvenverläufe, die zwar tendenziell, aber nicht monoton abfallen.
+
::[[Bernoullisches_Gesetz_der_großen_Zahlen_(Lernvideo)|&raquo;Bernoullisches Gesetz der großen Zahlen&raquo;]] &nbsp; $\Rightarrow$ &nbsp; Bernoulli's Law of Large Numbers.
*Berechnet man aber den Mittelwert über unendlich viele solcher Kurven, so erhält man den monoton mit $N$ abfallenden Verlauf gemäß der Bernouillischen Vorhersage.  
 
  
Mit dieser Thematik, speziell mit dem Experiment von [https://de.wikipedia.org/wiki/Karl_Pearson Karl Pearson],  beschäftigt sich das folgende  Lernvideo:  
+
==Exercises for the chapter==
[[Das Bernoullische Gesetz der großen Zahlen]]
+
<br>
 +
[[Aufgaben:Exercise_2.1:_Election_Demand|Exercise 2.1: Election Demand]]
  
==Aufgaben zum Kapitel==
+
[[Aufgaben:Exercise_2.1Z:_Different_Signal_Courses|Exercise 2.1Z: Different Signal Courses]]
 
 
[[Aufgaben:2.1 Wahlnachfrage|Aufgabe 2.1: &nbsp; Wahlnachfrage]]
 
 
 
[[Aufgaben:2.1Z_Signalverläufe|Zusatzaufgabe 2.1Z: &nbsp; Signalverläufe]]
 
  
  
 
{{Display}}
 
{{Display}}

Latest revision as of 18:09, 6 February 2024

# OVERVIEW OF THE SECOND MAIN CHAPTER #


This chapter is intended to familiarize you with  »discrete random variables«  assuming them to be statistically independent.  Such random variables are needed in Communications Engineering,  for example,  for the simulation of a binary or multi-level digital signal,  but equally for the emulation of a channel with statistically independent errors by a digital model,  for example,  the BSC model.

In detail, it covers:

  1. the  »relationship between probability and relative frequency«,
  2. the  »expected values and moments«,
  3. the  »binomial and Poisson distributions«  as special cases of discrete distributions,
  4. the  »generation of pseudo-random binary symbols«  using  »PN generators«,  and
  5. the  »generation of multi-level random variables«  on a digital computer.


On the concept of random variables


In the first chapter of this book,  the term  »$\text{random experiment}$«  has already been explained.  By this is meant an experiment

  • that can be repeated any number of times under the same conditions with an uncertain outcome  $E$, 
  • but in which the set  $\{E_μ \}$  of possible outcomes is specifiable.


Often the experimental outcomes are numerical values,  as for example in the random experiment  »throwing a die«.  In contrast,  the experiment  »coin toss«  yields the possible outcomes  »heads«  and  »tails».

For a uniform description of different kinds of experiments and also because of the better manageability one uses the term  »random variable«.

Definition of a random variable

$\text{Definition:}$ 

  • A  »random variable«  $z$  is a one-to-one mapping of the outcome set  $\{E_μ \}$  onto the set of real numbers. 


  • Complementary to this definition, it is still allowed that the random variable has a unit in addition to the numerical value.


Some examples of random variables are given below:

  1. In the random experiment  »throwing a roulette ball»,  a distinction between  $E$  and  $z$  has no practical implications,  but may be useful for formal reasons.  Thus,  $E_μ = 8$  denotes that the ball has come to rest in the spot of the roulette wheel marked  »$8$«.  Arithmetic operations  $($e.g. an expected value formation$)$  are not possible on the basis of the outcomes.     In contrast,  the random variable  $z$  actually denotes a numerical value  $($here integer between  $0$  and  $36)$,  from which the expected value of the random variable  $($here  $18)$  can be determined.  Quite possible but not useful would be,  for example,  the assignment  $E_μ = 8$    ⇔   $z_μ ≠ 8$.
  2. In the  »coin toss«  experiment,  the possible outcomes are  »heads«  and  »tails«,  to which no arithmetic operations can be applied per se.   Only by the arbitrary but unambiguous assignment between the event set  $\{E_μ\} = \{$»heads«, »tails«$ \}$  and the number set  $\{z_μ\} = \{0,\ 1\}$  a characteristic value can be given here at all.   Similarly,  however,  one could also specify the assignment  »heads«   ⇔   $1$   and   »tails«   ⇔   $0$.
  3. In circuit technology,  one designates the two possible logical states of a memory cell  $($»flip-flops«$)$  according to the possible voltage levels with  $\rm L$  $($Low$)$  and  $\rm H$  $($High$)$.  We adopt these designations here also for binary symbols.  For practical work,  one usually maps these symbols back to random variables,  although this mapping is also arbitrary,  but should make sense.
  4. In coding theory,  it is useful to map  $\{ \text{L,  H}\}$  to  $\{0,\ 1\}$  in order to be able to use the possibilities of modulo algebra.  On the other hand,  to describe modulation with bipolar  $($»antipodal»$)$  signals,  it is better to choose the mapping  $\{ \text{L,  H}\}$ ⇔ $ \{-1, +1\}$.


Continuous and discrete random variables


$\text{Definition:}$  According to the possible numerical values  $z_μ = z(E_μ)$  we distinguish between value–continuous and value–discrete random variables:

  • A  »continuous random variable«  $z$  can  – at least in certain ranges –  assume infinitely many different values.  More precisely:   For such variables the set of admissible values is also uncountable.
  • Examples for continuous random variables are the speed of a car  $($at appropriate driving between  $v = 0$  and  $v = 120 \ \rm km/h)$  or also the noise voltage at a communication system.  Both random variables have besides a numerical value also a unit.
  • If the set  $\{z_μ\}$  is countable,  it is a  »discrete random variable«.  Usually,  the number of possible values of  $z$  is limited to  $M$.  In Communications Engineering,  $M$  is called the  »symbol set size«  $($in the sense of coding theory$)$  or the  »level number«  $($from the viewpoint of transmission engineering$)$.


First,  we restrict ourselves to discrete,  $M$ level random variables with no internal statistical bindings, which are fully characterized by the  $M$  probabilities 

$$p_μ ={\rm Pr}(z = z_μ)$$

according to the section  »Some Basic Definitions«.  By definition,  the sum over all  $M$  probabilities is equal to  $1$.

In contrast,  the probability  ${\rm Pr}(z = z_μ)$  for a continuous random variable  $z$  to take on a very specific value  $z_μ$  is identically zero.   Here,  as will be described in the following chapter  »Continuous Random Variables«  we must move to the  probability density function  $\rm (PDF)$.

Random process and random sequence


$\text{Definition:}$  A  »random process«  differs from the  »random experiment»  considered so far

  • in that it yields not just only one outcome,
  • but a  »temporal sequence of outcomes«.


This brings us to the  »random sequence«  $\langle z_ν\rangle$  with the following properties established for our representation:

  • The index  $ν$   describes the temporal process sequence and can take values between  $1$  and  $N$.  Often such a sequence is also represented as  $N$–dimensional vector.
  • At any time  $ν$   the random variable  $z_ν$  can take can take one of a total of  $M$  different values.  We use the following nomenclature for this:
$$z_\nu \in z_\mu \hspace{0.3cm} {\rm with} \hspace{0.3cm} \nu = 1,\hspace{0.1cm}\text{...} \hspace{0.1cm}, N \hspace{0.3cm} {\rm and} \hspace{0.3cm} \mu = 1,\hspace{0.1cm}\text{...} \hspace{0.1cm} , M.$$
  • If the process is  »$\text{ergodic}$«,  then each random sequence  $\langle z_ν\rangle$  has the same statistical properties and can be used as a representative for the entire random process.
$${\rm Pr}(z_\nu | z_{\nu \rm{ -1}} \hspace{0.1cm}\text{...} \hspace{0.1cm}z_{\rm 1})={\rm Pr}(z_\nu).$$

More and especially more detailed information about the characterization of random processes can be found in the later chapter  »Autocorrelation Function«.

$\text{Example 1:}$  If we repeat the random experiment  »throwing a roulette ball«  ten times,  we get,  for example,  the following random sequence:

$$\langle z_ν\rangle = \langle \ 8; \ 23; \ 0; \ 17; \ 36; \ 0; \ 33; \ 11; \ 25 ; \ 5 \ \rangle.$$

At any point in time,  all random variables between  $0$  and  $36$  are nevertheless possible – regardless of the past – and also equally probable,  but this cannot be read from such a short sequence.

Bernoulli's law of large numbers


$\text{Definitions:}$  To describe an  $M$–level discrete random variable,  one uses the following descriptive variables whose sums over  $μ = 1,\hspace{0.1cm}\text{...} \hspace{0.1cm} , M$  each yield the value  $1$:

  • The  »probabilities«  $p_μ = {\rm Pr}(z = z_μ)$  provide predictions about the expected outcome of a statistical experiment and are thus so-called  »a-priori characteristics«.
  • The  »relative frequencies«  $h_μ^{(N)}$  are  »a-posteriori characteristics«  and allow statistical statements to be made with respect to a previously conducted experiment.  They are determined as follows:
$$h_{\mu}^{(N)} = \frac{n_{\mu} }{N}= \frac{ {\rm number \hspace{0.15cm}of \hspace{0.15cm}experiments \hspace{0.15cm}with \hspace{0.15cm}outcome\hspace{0.15cm} }z_{\mu} } { {\rm number \hspace{0.15cm}of \hspace{0.15cm}all \hspace{0.15cm}attempts } } \hspace{1cm}(\mu=1,\hspace{0.1cm}\text{...} \hspace{0.1cm},M).$$


Only in the limiting case  $N → ∞$   the relative frequencies do coincide  exactly  with the corresponding probabilities,  at least in the statistical sense.  In contrast,  according to the  »law of large numbers«  formulated by  »$\text{Jacob Bernoulli}$«  for finite values of  $N$:

$$\rm Pr \left( \it \mid h_\mu^{(N)} - p_\mu\mid \hspace{0.1cm} \ge \varepsilon \hspace{0.1cm} \right) \le \frac{1}{\rm 4\cdot \it N\cdot \varepsilon^{\rm 2}}.$$

It also follows that for infinite random sequences  $(N → ∞)$  the relative frequencies  $h_μ^{(N)}$  and the probabilities  $p_μ$  are identical with probability  $1$ .

$\text{Example 2:}$  A binary data file consists of  $N = 10^6$  binary symbols  $($»bits«$)$, where the  »zeros«  and  »ones«  are equally probable:   $p_0 = p_1 = 0.5$.

Bernoulli's law of large numbers  $($with  $\varepsilon = 0.01)$  now states that the probability of the event  »the number of ones in the file is between  $495  \hspace{0.05cm}000$  and  $505\hspace{0.05cm}000$«   is greater than or equal to 
$$1 - 1/400 = 99.75\%.$$


According to the above equation,  the probability that the relative frequency  $h_μ^{(N)}$  of an event  $E_μ$  and the associated probability  $p_μ$  differ in magnitude by more than a value  $\varepsilon$  is not greater than  $1/(4 \cdot N \cdot ε^2)$.  For a given  $\varepsilon$  and a probability to be guaranteed,  the minimum required value of  $N$  can be calculated from this.

Further, it should be noted:

  1. The monotonic decay with  $N$  is valid only in the statistical sense and not for each individual realization. 
  2. Thus,  in the  »coin toss«  experiment,  after  $N = 1000$  tosses,  the relative frequencies of  »heads«  and  »tails«  may well be exactly equal  $50\%$  $($if  $n_{\rm heads} = n_{\rm tails} = 500$$)$  and after  $N = 2000$  tosses deviate from it again more or less strongly.
  3. If several subjects perform the experiment  »coin toss«  in parallel and the relative frequency is plotted as a function of  $N$,  the result is a curve which tends to decrease,  but not monotonously.
  4. If,  however,  one calculates the mean value over an infinite number of such curves,  one obtains the monotonically with  $N$  decreasing course according to the Bernouillian prediction.


⇒   This topic,  specifically the experiment of  »$\text{Karl Pearson}$«,  is dealt with in the  $($German language$)$  learning video  

»Bernoullisches Gesetz der großen Zahlen»   $\Rightarrow$   Bernoulli's Law of Large Numbers.

Exercises for the chapter


Exercise 2.1: Election Demand

Exercise 2.1Z: Different Signal Courses