Difference between revisions of "Theory of Stochastic Signals/Gaussian Distributed Random Variables"

From LNTwww
Line 3: Line 3:
 
|Untermenü=Continuous Random Variables
 
|Untermenü=Continuous Random Variables
 
|Vorherige Seite=Uniformly Distributed Random Variables
 
|Vorherige Seite=Uniformly Distributed Random Variables
|Nächste Seite=Exponentialverteilte Zufallsgrößen
+
|Nächste Seite=Exponentially Distributed Random Variables
 
}}
 
}}
==Allgemeine Beschreibung==
+
==General description==
 
<br>
 
<br>
Zufallsgrößen mit Gaußscher Wahrscheinlichkeitsdichtefunktion – die Namensgebung geht dabei auf den bedeutenden Mathematiker, Physiker und Astronomen&nbsp; [https://de.wikipedia.org/wiki/Carl_Friedrich_Gau%C3%9F Carl Friedrich Gauß]&nbsp; zurück – sind wirklichkeitsnahe Modelle für viele physikalische Größen und haben auch für die Nachrichtentechnik eine große Bedeutung.  
+
Random variables with Gaussian probability density function - the name goes back to the important mathematician, physicist and astronomer&nbsp; [https://en.wikipedia.org/wiki/Carl_Friedrich_Gauss Carl Friedrich Gauss]&nbsp; - are realistic models for many physical quantities and are also of great importance for communications engineering.  
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
 
$\text{Definition:}$&nbsp;  
 
$\text{Definition:}$&nbsp;  
Zur Beschreibung der Gaußverteilung betrachten wir eine Summe aus&nbsp; $I$&nbsp; statistischen Größen:  
+
To describe the Gaussian distribution, we consider a sum of&nbsp; $I$&nbsp; statistical quantities:  
 
:$$x=\sum\limits_{i=\rm 1}^{\it I}x_i .$$
 
:$$x=\sum\limits_{i=\rm 1}^{\it I}x_i .$$
  
*Nach dem&nbsp; [https://de.wikipedia.org/wiki/Zentraler_Grenzwertsatz zentralen Grenzwertsatz der Statistik]&nbsp; besitzt diese Summe im Grenzfall&nbsp; $(I → ∞)$&nbsp; eine Gaußsche WDF, so lange die einzelnen Komponenten&nbsp; $x_i$&nbsp; keine statistischen Bindungen besitzen.&nbsp; Dies gilt (nahezu) für alle Dichtefunktionen der einzelnen Summanden.  
+
*According to the&nbsp; [https://en.wikipedia.org/wiki/Central_limit_theorem central limit theorem of statistics]&nbsp; this sum has a Gaussian PDF in the limiting case&nbsp; $(I → ∞)$&nbsp; as long as the individual components&nbsp; $x_i$&nbsp; have no statistical ties.&nbsp; This holds (almost) for all density functions of the individual summands.  
*Viele&nbsp; ''Rauschprozesse''&nbsp; erfüllen genau diese Voraussetzung,&nbsp; das heißt,&nbsp; sie setzen sich additiv aus einer großen Anzahl voneinander unabhängiger Einzelbeiträge zusammen, so dass ihre Musterfunktionen (Rauschsignale) eine Gaußsche Amplitudenverteilung aufweisen.  
+
*Many&nbsp; ''noise processes''&nbsp; fulfill exactly this condition,&nbsp; that is,&nbsp; they are additively composed of a large number of independent individual contributions, so that their pattern functions (noise signals) exhibit a Gaussian amplitude distribution.  
*Legt man ein gaußverteiltes Signal zur spektralen Formung an ein lineares Filter, so ist das Ausgangssignal ebenfalls gaußverteilt.&nbsp; Es ändern sich nur die Verteilungsparameter wie Mittelwert und Streuung sowie die inneren statistischen Bindungen der Abtastwerte.}}  
+
*If one applies a Gaussian distributed signal to a linear filter for spectral shaping, the output signal is also Gaussian distributed. &nbsp; Only the distribution parameters such as mean and rms change, as well as the internal statistical ties of the samples}}.
  
  
[[File:P_ID68__Sto_T_3_5_S1_neu.png |right|frame|Gaußverteiltes und gleichverteiltes Zufallssignal]]
+
[[File:P_ID68__Sto_T_3_5_S1_neu.png |right|frame|Gaussian distributed and uniformly distributed random signal]]
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 1:}$&nbsp;  
+
$\text{Example 1:}$&nbsp;  
Die Grafik zeigt im Vergleich
+
The graph shows in comparison.
*links ein Gaußsches Zufallssignal&nbsp; $x_1(t)$&nbsp; und
+
*on the left a Gaussian random signal&nbsp; $x_1(t)$&nbsp; and
*rechts ein gleichverteiltes Signal&nbsp; $x_2(t)$&nbsp; mit
+
*right an equally distributed signal&nbsp; $x_2(t)$&nbsp; with
  
  
gleichem Mittelwert&nbsp; $m_1$&nbsp; und gleicher Streuung&nbsp; $σ$.  
+
equal mean&nbsp; $m_1$&nbsp; and equal rms&nbsp; $σ$.  
  
Man erkennt, dass bei der Gaußverteilung im Gegensatz zur Gleichverteilung
+
It can be seen that with the Gaussian distribution, in contrast to the uniform distribution.
*beliebig große und beliebig kleine Amplitudenwerte auftreten können,  
+
*any large and any small amplitude values can occur,  
*auch wenn diese unwahrscheinlich sind im Vergleich zum mittleren Amplitudenbereich.}}
+
*even if they are improbable compared to the mean amplitude range}}.
  
  
Line 39: Line 39:
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
 
$\text{Definition:}$&nbsp;  
 
$\text{Definition:}$&nbsp;  
Die&nbsp; '''Wahrscheinlichkeitsdichtefunktion'''&nbsp; (WDF)&nbsp; einer gaußverteilten Zufallsgröße lautet allgemein:
+
The&nbsp; '''probability density function'''&nbsp; (PDF)&nbsp; of a Gaussian distributed random variable is generally:
  
[[File:P_ID65__Sto_T_3_5_S2_neu.png |right|frame| WDF und VTF einer gaußverteilten Zufallsgröße]]
+
[[File:P_ID65__Sto_T_3_5_S2_neu.png |right|frame| PDF and CDF of a Gaussian distributed random variable]]
 
$$\hspace{0.4cm}f_x(x) = \frac{1}{\sqrt{2\pi}\cdot\sigma}\cdot {\rm e}^{-(x-m_1)^2 /(2\sigma^2) }.$$
 
$$\hspace{0.4cm}f_x(x) = \frac{1}{\sqrt{2\pi}\cdot\sigma}\cdot {\rm e}^{-(x-m_1)^2 /(2\sigma^2) }.$$
Die Parameter einer solchen Gaußschen WDF sind
+
The parameters of such a Gaussian PDF are.
*$m_1$&nbsp; (Mittelwert bzw. Gleichanteil),  
+
*$m_1$&nbsp; (mean or DC component),  
*$σ$&nbsp; (Streuung bzw. Effektivwert).
+
*$σ$&nbsp; (rms).
  
  
Ist&nbsp; $m_1 = 0$&nbsp; und&nbsp; $σ = 1$, so spricht man oft auch von der ''Normalverteilung''.  
+
If&nbsp; $m_1 = 0$&nbsp; and&nbsp; $σ = 1$, it is often referred to as the ''normal distribution''.  
 
}}  
 
}}  
 
<br clear=all>
 
<br clear=all>
Aus der linken Darstellung der oberen Grafik geht hervor, dass die Streuung&nbsp; $σ$&nbsp; als der Abstand von Maximalwert und Wendepunkt aus der glockenförmigen WDF&nbsp; $f_{x}(x)$&nbsp; auch grafisch ermittelt werden kann.
+
From the left plot of the top graph, it can be seen that the dispersion&nbsp; $σ$&nbsp; can also be determined graphically as the distance from the maximum value and the inflection point from the bell-shaped WDF&nbsp; $f_{x}(x)$&nbsp; .
  
Rechts ist die&nbsp; '''Verteilungsfunktion'''&nbsp; $F_{x}(r)$&nbsp; der gaußverteilten Zufallsgröße dargestellt. Man erkennt:  
+
On the right is shown the&nbsp; '''cumulative distribution function'''&nbsp; $F_{x}(r)$&nbsp; of the Gaussian distributed random variable. It can be seen:  
*Die VTF ist punktsymmetrisch um den Mittelwert&nbsp; $m_1$.  
+
*The CDF is point symmetric about the mean&nbsp; $m_1$.  
*Durch Integration über die Gaußsche WDF erhält man:  
+
*By integration over the Gaussian PDF one obtains:  
:$$F_x(r)= \phi(\frac{\it r-m_{\rm 1}}{\sigma})\hspace{0.5cm}\rm mit\hspace{0.5cm}\rm \phi (\it x\rm ) = \frac{\rm 1}{\sqrt{\rm 2\it \pi}}\int_{-\rm\infty}^{\it x} \rm e^{\it -u^{\rm 2}/\rm 2}\,\, d \it u.$$
+
:$$F_x(r)= \phi(\frac{\it r-m_{\rm 1}}{\sigma})\hspace{0.5cm}\rm with\hspace{0.5cm}\rm \phi (\it x\rm ) = \frac{\rm 1}{\sqrt{\rm 2\it \pi}}\int_{-\rm\infty}^{\it x} \rm e^{\it -u^{\rm 2}/\rm 2}\,\, d \it u.$$
  
Man bezeichnet&nbsp; $ϕ(x)$&nbsp; als das&nbsp; '''Gaußsche Fehlerintegral'''.  
+
One calls&nbsp; $ϕ(x)$&nbsp; the&nbsp; '''Gaussian error integral'''.  
*Dessen Funktionsverlauf ist analytisch nicht berechenbar und muss deshalb aus Tabellen entnommen werden.  
+
*Whose function progression cannot be calculated analytically and must therefore be taken from tables.  
*$ϕ(x)$&nbsp; lässt sich durch eine Taylorreihe annähern oder aus der in Programmbibliotheken oft vorhandenen Funktion&nbsp; ${\rm erfc}(x)$&nbsp; berechnen.  
+
*$ϕ(x)$&nbsp; can be approximated by a Taylor series or calculated from the function&nbsp; ${\rm erfc}(x)$&nbsp; often available in program libraries.  
  
  
Weitere Informationen zu den gaußverteilten Zufallsgrößen liefert das Lernvideo&nbsp; [[Der_AWGN-Kanal_(Lernvideo)|Der AWGN–Kanal]], insbesondere im zweiten Teil.  
+
The topic of this chapter is illustrated with examples in the  (German language)  learning video&nbsp; [[Der_AWGN-Kanal_(Lernvideo)|Der AWGN Kanal]] $\Rightarrow$ The AWGN channel , especially in the second part.  
  
 
==Exceeding probability==
 
==Exceeding probability==
 
<br>
 
<br>
Bei der Untersuchung digitaler Übertragungssysteme muss oft die Wahrscheinlichkeit bestimmt werden, dass eine (mittelwertfreie) gaußverteilte Zufallsgröße&nbsp; $x$&nbsp; mit Varianz&nbsp; $σ^2$&nbsp; einen vorgegebenen Wert&nbsp; $x_0$&nbsp; überschreitet.  
+
In the study of digital transmission systems, it is often necessary to determine the probability that a (zero mean) Gaussian distributed random variable&nbsp; $x$&nbsp; with variance&nbsp; $σ^2$&nbsp; exceeds a given value&nbsp; $x_0$&nbsp;.  
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Für diese&nbsp; '''Überschreitungswahrscheinlichkeit'''&nbsp; gilt:  
+
$\text{Definition:}$&nbsp; For this&nbsp; '''exceeding probability'''&nbsp; holds:  
[[File:P_ID621__Sto_T_3_5_S3neu.png |right|frame| Komplementäres Gaußsches Fehlerintegral&nbsp; ${\rm Q}(x)$]]
+
[[File:P_ID621__Sto_T_3_5_S3neu.png |right|frame| Complementary Gaussian error integral&nbsp; ${\rm Q}(x)$]]
 
:$${\rm Pr}(x > x_{\rm 0})={\rm Q}({x_{\rm 0} }/{\sigma}).$$
 
:$${\rm Pr}(x > x_{\rm 0})={\rm Q}({x_{\rm 0} }/{\sigma}).$$
*Hierbei bezeichnet&nbsp; ${\rm Q}(x) = 1 {\rm ϕ}(x)$&nbsp; die Komplementärfunktion zu&nbsp; $ {\rm ϕ}(x)$.&nbsp;  
+
*Here,&nbsp; ${\rm Q}(x) = 1 - {\rm ϕ}(x)$&nbsp; denotes the complementary function to&nbsp; $ {\rm ϕ}(x)$.&nbsp;  
*Man nennt diese Funktion das&nbsp; '''Komplementäre Gaußsche Fehlerintegral'''&nbsp; und es gilt folgende Berechnungsvorschrift:  
+
*This function is called the&nbsp; '''Complementary Gaussian error integral''''&nbsp; and the following calculation rule applies:  
  
:$$\rm Q (\it x\rm ) = \rm 1- \phi (\it x)$$
+
:$$\rm Q (\it x\rm ) = \rm 1- \phi (\it x)$$
 
:$$\Rightarrow \hspace{0.3cm}\rm Q (\it x\rm ) = \frac{\rm 1}{\sqrt{\rm 2\pi} }\int_{\it x}^{\rm +\infty}\hspace{-0.4cm}\rm e^{\it - u^{\rm 2}/\hspace{0.05cm} \rm 2}\,d \it u .$$
 
:$$\Rightarrow \hspace{0.3cm}\rm Q (\it x\rm ) = \frac{\rm 1}{\sqrt{\rm 2\pi} }\int_{\it x}^{\rm +\infty}\hspace{-0.4cm}\rm e^{\it - u^{\rm 2}/\hspace{0.05cm} \rm 2}\,d \it u .$$
  
${\rm Q}(x)$&nbsp; ist wie&nbsp; ${\rm \phi}(x)$&nbsp; nicht analytisch lösbar und muss aus Tabellen entnommen werden.  
+
${\rm Q}(x)$&nbsp; like&nbsp; ${\rm \phi}(x)$&nbsp; is not analytically solvable and must be taken from tables.  
  
In Bibliotheken findet man oft die Funktion&nbsp; ${\rm erfc}(x)$, die mit&nbsp; ${\rm Q}(x)$&nbsp; wie folgt zusammenhängt:  
+
In libraries one often finds the function&nbsp; ${\rm erfc}(x)$ related to&nbsp; ${\rm Q}(x)$&nbsp; as follows:  
 
:$${\rm Q}(x)={\rm 1}/\hspace{0.05cm}{\rm 2}\cdot \rm erfc({\it x}/{\sqrt{\rm 2} }).$$}}
 
:$${\rm Q}(x)={\rm 1}/\hspace{0.05cm}{\rm 2}\cdot \rm erfc({\it x}/{\sqrt{\rm 2} }).$$}}
  
  
Speziell für größere&nbsp; $x$–Werte&nbsp; (also für kleine Fehlerwahrscheinlichkeiten)&nbsp; liefern die nachfolgend angegebenen Schranken brauchbare Abschätzungen für das Komplementäre Gaußsche Fehlerintegral:  
+
Especially for larger&nbsp; $x$-values&nbsp; (i.e., for small error probabilities)&nbsp; the bounds given below provide useful estimates for the complementary Gaussian error integral:  
*Obere Schranke:  
+
*Upper bound:  
:$${\rm Q_o}(x ) \ge {\rm Q}(x)=\frac{ 1}{\sqrt{2\pi}\cdot x}\cdot {\rm e}^{- x^{2}/\hspace{0.05cm}2}. $$
+
:$${\rm Q_o}(x ) \ge {\rm Q}(x)=\frac{ 1}{\sqrt{2\pi}\cdot x}\cdot {\rm e}^{- x^{2}/\hspace{0.05cm}2}. $$
*Untere Schranke:
+
*Lower bound:
 
:$${\rm Q_u}(x  )\le {\rm Q}(x)=\frac{\rm 1-{\rm 1}/{\it x^{\rm 2}}}{\sqrt{\rm 2\pi}\cdot \it x}\cdot \rm e^{-\it x^{\rm 2}/\hspace{0.05cm}\rm 2} =\rm Q_0(\it x \rm ) \cdot \left(\rm 1-{\rm 1}/{\it x^{\rm 2}}\right) .$$
 
:$${\rm Q_u}(x  )\le {\rm Q}(x)=\frac{\rm 1-{\rm 1}/{\it x^{\rm 2}}}{\sqrt{\rm 2\pi}\cdot \it x}\cdot \rm e^{-\it x^{\rm 2}/\hspace{0.05cm}\rm 2} =\rm Q_0(\it x \rm ) \cdot \left(\rm 1-{\rm 1}/{\it x^{\rm 2}}\right) .$$
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Fazit:}$&nbsp;  
+
$\text{Conclusion:}$&nbsp;  
Das Grafik zeigt die&nbsp; $\rm Q$-Funktion in logarithmischer Darstellung für lineare (obere Achse) und logarithmische Abszissenwerte (untere Achse).  
+
The graph shows the&nbsp; $\rm Q$ function in logarithmic representation for linear (upper axis) and logarithmic abscissa values (lower axis).  
*Die obere Schranke (rote Kreise) ist ab ca.&nbsp; $x = 1$&nbsp; brauchbar, die untere Schranke (grüne Rauten) ab&nbsp; $x ≈ 2$.  
+
*The upper bound (red circles) is useful from about&nbsp; $x = 1$&nbsp; the lower bound (green diamonds) from&nbsp; $x ≈ 2$.  
*Für&nbsp; $x ≥ 4$&nbsp; sind beide Schranken innerhalb der Zeichengenauigkeit vom tatsächlichen Verlauf&nbsp; ${\rm Q}(x)$&nbsp; nicht mehr zu unterscheiden. }}
+
*For&nbsp; $x ≥ 4$&nbsp; both bounds are indistinguishable from the actual course&nbsp; ${\rm Q}(x)$&nbsp; within character precision. }}
  
  
Das interaktive Applet&nbsp; [[Applets:Komplementäre_Gaußsche_Fehlerfunktionen|Komplementäre Gaußsche Fehlerfunktionen]]&nbsp; liefert
+
The interactive applet&nbsp; [[Applets:Complementary_Gaussian_Error_Functions|Complementary Gaussian error functions]]&nbsp; provides.
*die Zahlenwerte der Funktionen&nbsp; ${\rm Q}(x)$&nbsp; und&nbsp; $1/2 \cdot {\rm erfc}(x)$&nbsp;  
+
*the numerical values of the functions&nbsp; ${\rm Q}(x)$&nbsp; and&nbsp; $1/2 \cdot {\rm erfc}(x)$&nbsp;  
*inklusive der hier angegebenen Schranken.  
+
*including the bounds given here.  
  
  
  
==Zentralmomente und Momente==
+
==Central moments and moments==
 
<br>
 
<br>
Die Kenngrößen der Gaußverteilung weisen folgende Eigenschaften auf:  
+
The characteristics of the Gaussian distribution have the following properties:  
*Die Zentralmomente&nbsp; $\mu_k$&nbsp; $($identisch mit den Momenten&nbsp; $m_k$&nbsp; der äquivalenten mittelwertfreien Zufallsgröße&nbsp; $x - m_1$&nbsp; sind bei der Gaußschen WDF wie auch bei der Gleichverteilung aufgrund der symmetrischen Verhältnisse für ungerade Werte von&nbsp; $k$&nbsp; identisch Null.  
+
*The central moments&nbsp; $\mu_k$&nbsp; $($identical to the moments&nbsp; $m_k$&nbsp; of the equivalent zero mean random variable&nbsp; $x - m_1$&nbsp; are identically zero for the Gaussian PDF as well as for the uniform distribution due to the symmetric relations for odd values of&nbsp; $k$&nbsp;.  
*Das zweite Zentralmoment  ist definitionsgemäß gleich&nbsp; $\mu_2 = σ^2$.  
+
*The second central moment is by definition equal to&nbsp; $\mu_2 = σ^2$.  
*Alle höheren Zentralmomente mit geradzahligen Werten von&nbsp; $k$&nbsp; lassen sich bei gaußförmiger WDF – wohlgemerkt:&nbsp; ausschließlich bei dieser – durch die Varianz&nbsp; $σ^2$&nbsp; ausdrücken:  
+
*All higher central moments with even values of&nbsp; $k$&nbsp; can be expressed by the variance&nbsp; $σ^2$&nbsp; for Gaussian PDF - mind you:&nbsp; exclusively for this one:  
:$$\mu_{k}=(k- 1)\cdot (k- 3) \ \cdots \   3\cdot 1\cdot\sigma^k\hspace{0.2cm}\rm (falls\hspace{0.1cm}\it k\hspace{0.1cm}\rm gerade).$$
+
:$$\mu_{k}=(k- 1)\cdot (k- 3) \ \cdots \ 3\cdot 1\cdot\sigma^k\hspace{0.2cm}\rm (if\hspace{0.1cm}\it k\hspace{0.1cm}\rm even).$$
*Daraus können die nichtzentrierten Momente&nbsp; $m_k$&nbsp; wie folgt bestimmt werden:  
+
*From this, the noncentered moments&nbsp; $m_k$&nbsp; can be determined as follows:  
:$$m_k = \sum\limits_{\kappa= 0}^{k} \left(         \begin{array}{*{2}{c}} k \\kappa \\end{array}   \right)\cdot \mu_\kappa \cdot {m_1}^{k-\kappa}.$$
+
:$$m_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \ \kappa \ \end{array} \right)\cdot \mu_\kappa \cdot {m_1}^{k-\kappa}.$$
:Diese Gleichung gilt allgemein, also für beliebige Verteilungen.  
+
:This equation holds in general, i.e., for arbitrary distributions.  
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Fazit:}$&nbsp;  
+
$\text{Conclusion:}$&nbsp;  
*Aus der oberen Gleichung folgt direkt&nbsp; $\mu_4 = 3 \cdot σ^4$&nbsp; und daraus für die Kurtosis der Wert&nbsp; $K = 3$.  
+
*From the above equation it follows directly&nbsp; $\mu_4 = 3 \cdot σ^4$&nbsp; and from it for the kurtosis the value&nbsp; $K = 3$.  
*Man  bezeichnet deshalb auch häufig&nbsp; $K-3$&nbsp; als die&nbsp; ''Gaußabweichung''&nbsp; oder als den&nbsp; ''Excess''.  
+
*For this reason, one often refers to&nbsp; $K-3$&nbsp; as the&nbsp; ''Gaussian deviation''&nbsp; or as the&nbsp; ''excess''.  
*Ist die Gaußabweichung negativ, so erfolgt der WDF-Abfall schneller als bei der Gaußverteilung. Beispielsweise hat bei einer Gleichverteilung die Gaußabweichung stets den Zahlenwert&nbsp; $1.8 - 3 = -1.2$. }}
+
*If the Gaussian deviation is negative, the PDF decay is faster than for the Gaussian distribution. For example, for a uniform distribution, the Gaussian deviation always has the numerical value&nbsp; $1.8 - 3 = -1.2$. }}
  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 2:}$&nbsp; Die ersten Zentralmomente einer Gaußschen Zufallsgröße mit Streuung&nbsp; $σ = 1/2$&nbsp; sind:  
+
$\text{Example 2:}$&nbsp; The first central moments of a Gaussian random variable with dispersion&nbsp; $σ = 1/2$&nbsp; are:  
 
:$$\mu_2 = \frac{1}{4}, \hspace{0.4cm}\mu_4 = \frac{3}{16},\hspace{0.4cm}\mu_6 = \frac{15}{64}, \hspace{0.4cm}\mu_8 = \frac{105}{256}.$$
 
:$$\mu_2 = \frac{1}{4}, \hspace{0.4cm}\mu_4 = \frac{3}{16},\hspace{0.4cm}\mu_6 = \frac{15}{64}, \hspace{0.4cm}\mu_8 = \frac{105}{256}.$$
Alle Zentralmomente mit ungeradem Index sind identisch Null.}}
+
All central moments with odd index are identically zero}}.
  
  
Das interaktive Applet&nbsp; [[Applets:WDF,_VTF_und_Momente_spezieller_Verteilungen_(Applet)|WDF, VTF und Momente spezieller Verteilungen]]&nbsp; gibt u.a. die Kenngrößen der Gaußverteilung an.  
+
The interactive applet&nbsp; [[Applets:PDF,_CDF_and_Moments_of_Special_Distributions|PDF, CDF and moments of special distributions]]&nbsp; gives, among other things, the characteristics of the Gaussian distribution.  
  
  
==Gauß&ndash;Erzeugung mittels Additionsmethode==
+
==Gaussian generation by addition method==
 
<br>
 
<br>
Dieses einfache, auf dem&nbsp; [https://de.wikipedia.org/wiki/Zentraler_Grenzwertsatz zentralen Grenzwertsatz der Statistik]&nbsp; basierende Verfahren zur rechnertechnischen Generierung einer Gaußschen Zufallsgröße soll hier nur stichpunktartig skizziert werden:  
+
This simple procedure, based on the&nbsp; [https://en.wikipedia.org/wiki/Central_limit_theorem central limit theorem of statistics]&nbsp; for the computational generation of a Gaussian random variable, shall be outlined here only in a bullet point fashion:  
  
  
'''(1)''' &nbsp; Man geht von (zwischen&nbsp; $0$&nbsp; und&nbsp; $1)$&nbsp; gleichverteilten und statistisch voneinander unabhängigen Zufallsgrößen&nbsp; $u_i$&nbsp; aus &nbsp; ⇒ &nbsp; Mittelwert&nbsp; $m_u = 1/2$,&nbsp; Varianz&nbsp; $\sigma_u^2 = 1/12.$  
+
'''(1)''' &nbsp; One assumes (between&nbsp; $0$&nbsp; and&nbsp; $1)$&nbsp; equally distributed and statistically independent random variables&nbsp; $u_i$&nbsp; &nbsp; ⇒ &nbsp; mean&nbsp; $m_u = 1/2$,&nbsp; variance&nbsp; $\sigma_u^2 = 1/12.$  
  
'''(2)''' &nbsp; Man bildet nun die Summe über&nbsp; $I$&nbsp; Summanden, wobei&nbsp; $I$&nbsp; hinreichend groß gewählt werden muss:  
+
'''(2)''' &nbsp; One now forms the sum over&nbsp; $I$&nbsp; summands, where&nbsp; $I$&nbsp; must be chosen sufficiently large:  
 
:$$s=\sum\limits_{i=1}^{I}u_i.$$
 
:$$s=\sum\limits_{i=1}^{I}u_i.$$
  
'''(3)''' &nbsp; Nach dem zentralen Grenzwertsatz ist die Zufallsgröße&nbsp; $s$&nbsp; mit guter Näherung gaußverteilt, wenn&nbsp; $I$&nbsp; hinreichend groß ist.&nbsp; Dagegen ergibt sich beispielsweise für&nbsp; $I =2$&nbsp; nur eine amplitudenbegrenzte Dreieck–WDF&nbsp; $($mit Werten zwischen&nbsp; $0$&nbsp; und&nbsp; $2)$&nbsp; &nbsp; &rArr; &nbsp; Faltung zweier Rechtecke.  
+
'''(3)''' &nbsp; According to the central limit theorem, the random variable&nbsp; $s$&nbsp; is Gaussian distributed with good approximation if&nbsp; $I$&nbsp; is sufficiently large. &nbsp; In contrast, for&nbsp; $I =2$&nbsp; for example, only an amplitude-limited triangle PDF&nbsp; $($with values between&nbsp; $0$&nbsp; and&nbsp; $2)$&nbsp; &nbsp; &rArr; &nbsp; convolution of two rectangles results.  
  
'''(4)''' &nbsp; Der Mittelwert der Zufallsgröße&nbsp; $s$&nbsp; ist somit&nbsp; $m_s = I/2$.&nbsp; Da die gleichverteilten Zufallsgrößen&nbsp; $u_i$&nbsp; als statistisch voneinander unabhängig vorausgesetzt wurden, können auch ihre Varianzen addiert werden, so dass sich für die Varianz von&nbsp; $s$&nbsp; der Wert&nbsp; $\sigma_s^2 = I/12$&nbsp; ergibt.  
+
'''(4)''' &nbsp; Thus, the mean of the random variable&nbsp; $s$&nbsp; is&nbsp; $m_s = I/2$.&nbsp; Since the equally distributed random variables&nbsp; $u_i$&nbsp; were assumed to be statistically independent of each other, their variances can also be added, yielding for the variance of&nbsp; $s$&nbsp; the value&nbsp; $\sigma_s^2 = I/12$&nbsp; .  
  
'''(5)''' &nbsp; Soll eine gaußverteilte Zufallsgröße&nbsp; $x$&nbsp; mit anderem Mittelwert&nbsp; $m_x$&nbsp; und anderer Streuung&nbsp; $σ_x$&nbsp; erzeugt werden, so muss noch folgende lineare Transformation durchgeführt werden:  
+
'''(5)''' &nbsp; If a Gaussian distributed random variable&nbsp; $x$&nbsp; with different mean&nbsp; $m_x$&nbsp; and different rms&nbsp; $σ_x$&nbsp; is to be generated, the following linear transformation must still be performed:  
 
:$$x=m_x+\frac{\sigma_x}{\sqrt{I/\rm 12}}\cdot \bigg[\big (\sum\limits_{\it i=\rm 1}^{\it I}u_i\big )-{I}/{\rm 2}\bigg].$$
 
:$$x=m_x+\frac{\sigma_x}{\sqrt{I/\rm 12}}\cdot \bigg[\big (\sum\limits_{\it i=\rm 1}^{\it I}u_i\big )-{I}/{\rm 2}\bigg].$$
  
'''(6)''' &nbsp; Mit dem Parameter&nbsp; $I =12$&nbsp; vereinfacht sich die Generierungsvorschrift, was man insbesondere bei rechenzeitkritischen Anwendungen ausnutzen kann, zum Beispiel bei einer Echtzeitsimulation:
+
'''(6)''' &nbsp; With the parameter&nbsp; $I =12$&nbsp; the generation rule simplifies, which can be exploited especially in computationally time-critical applications, for example in a real-time simulation:
 
:$$x=m_x+\sigma_x\cdot \left [\big(\sum\limits_{i=\rm 1}^{12}\it u_i \rm \big )-\rm 6 \right ].$$  
 
:$$x=m_x+\sigma_x\cdot \left [\big(\sum\limits_{i=\rm 1}^{12}\it u_i \rm \big )-\rm 6 \right ].$$  
  
{{BlaueBox|TEXT=   
+
{{BlueBox|TEXT=.  
$\text{Fazit:}$&nbsp; Die nach der Additionsmethode&nbsp; $($mit Parameter&nbsp; $I)$&nbsp; approximierte Gaußsche Zufallsgröße liefert allerdings nur Werte in einem begrenzten Bereich um den Mittelwert&nbsp; $m_x$. Allgemein gilt:
+
$\text{Conclusion:}$&nbsp; However, the Gaussian random variable approximated by the addition method&nbsp; $($with parameter&nbsp; $I)$&nbsp; yields values only in a limited range around the mean&nbsp; $m_x$. In general:
 
:$$m_x-\sqrt{3 I}\cdot \sigma_x\le x \le m_x+\sqrt{3 I}\cdot \sigma_x.$$
 
:$$m_x-\sqrt{3 I}\cdot \sigma_x\le x \le m_x+\sqrt{3 I}\cdot \sigma_x.$$
  
*Der Fehler gegenüber der theoretischen Gaußverteilung ist an diesen Grenzen am größten und wird für steigendes&nbsp; $I$&nbsp; kleiner.  
+
*The error with respect to the theoretical Gaussian distribution is largest at these limits and becomes smaller for increasing&nbsp; $I$&nbsp;.  
*Diesen Sachverhalt können Sie sich anhand des Lernvideos&nbsp; [[Prinzip_der_Additionsmethode_(Lernvideo)|Prinzip der Additionsmethode]]&nbsp; verdeutlichen.}}  
+
*The topic of this chapter is illustrated with examples in the  (German language)  learning video&nbsp; [[Prinzip_der_Additionsmethode_(Lernvideo)|Prinzip der Additionsmethode]]&nbsp; $\Rightarrow$ Principle of the addition method }}  
 
   
 
   
  
==Gauß&ndash;Erzeugung mit dem Box/Muller&ndash;Verfahren==
+
==Gaussian generation with the Box/Muller method==
 
<br>
 
<br>
Bei dieser Methode werden zwei statistisch voneinander unabhängige gaußverteilte Zufallsgrößen&nbsp; $x$&nbsp; und&nbsp; $y$&nbsp; aus den beiden zwischen&nbsp; $0$&nbsp; und&nbsp; $1$&nbsp; gleichverteilten und statistisch unabhängigen Zufallsgrößen&nbsp; $u$&nbsp; und&nbsp; $v$&nbsp; durch nichtlineare&nbsp; [[Theory_of_Stochastic_Signals/Exponentialverteilte_Zufallsgrößen#Transformation_von_Zufallsgr.C3.B6.C3.9Fen|Transformation]]&nbsp; (approximativ) erzeugt:  
+
In this method, two statistically independent Gaussian distributed random variables&nbsp; $x$&nbsp; and&nbsp; $y$&nbsp; are generated from the two between&nbsp; $0$&nbsp; and&nbsp; $1$&nbsp; equally distributed and statistically independent random variables&nbsp; $u$&nbsp; and&nbsp; $v$&nbsp; by nonlinear&nbsp; [[Theory_of_Stochastic_Signals/Exponentially_Distributed_Random_Variables#Transformation_of_random_variables|transformation]]&nbsp; (approximate) generated:  
 
:$$x=m_x+\sigma_{x}\cdot \cos(2 \pi u)\cdot\sqrt{-2\cdot \ln(v)},$$
 
:$$x=m_x+\sigma_{x}\cdot \cos(2 \pi u)\cdot\sqrt{-2\cdot \ln(v)},$$
 
:$$y=m_y+\sigma_{y}\cdot \sin(2 \pi u)\cdot\sqrt{-2\cdot \ln(v)}.$$
 
:$$y=m_y+\sigma_{y}\cdot \sin(2 \pi u)\cdot\sqrt{-2\cdot \ln(v)}.$$
  
Das Verfahren nach Box und Muller – im Folgenden mit&nbsp; "BM"&nbsp; abgekürzt – kann wie folgt charakterisiert werden:  
+
The Box and Muller method - hereafter abbreviated to&nbsp; "BM"&nbsp; - can be characterized as follows:  
*Der theoretische Hintergrund für die Gültigkeit obiger Generierungsvorschriften basiert auf den Gesetzmäßigkeiten für&nbsp; [[Theory_of_Stochastic_Signals/Zweidimensionale_Zufallsgrößen|zweidimensionale Zufallsgrößen]].  
+
*The theoretical background for the validity of above generation rules is based on the regularities for&nbsp; [[Theory_of_Stochastic_Signals/Two-Dimensional_Random_Variables|two-dimensional random variables]].  
*Obige Gleichungen liefern sukszessive zwei Gaußwerte ohne statistische Bindungen.&nbsp; Diese Tatsache kann man zur Verkürzung der Simulationszeit nutzen, indem man bei jedem Funktionsaufruf ein Tupel&nbsp; $(x, \ y)$&nbsp; von Gaußwerten generiert.
+
*Obvious equations successively yield two Gaussian values without statistical bindings.&nbsp; This fact can be used to reduce simulation time by generating a tuple&nbsp; $(x, \ y)$&nbsp; of Gaussian values at each function call.
*Ein Vergleich der Rechenzeiten zeigt, dass – bei jeweils bestmöglicher Implementierung – das BM-Verfahren der Additionsmethode mit&nbsp; $I =12$&nbsp; etwa um den Faktor&nbsp; $3$&nbsp; überlegen ist.
+
*A comparison of the computation times shows that - with the best possible implementation in each case - the BM method is superior to the addition method with&nbsp; $I =12$&nbsp; by a factor of&nbsp; $3$&nbsp; approximately.
*Der Wertebereich ist beim BM-Verfahren weniger begrenzt als bei der Additionsmethode, so dass auch kleine Wahrscheinlichkeiten genauer simuliert werden.&nbsp; Aber auch mit dem BM-Verfahren lassen sich keine beliebig kleinen Fehlerwahrscheinlichkeiten simulieren.
+
*The range of values is less limited in the BM method than in the addition method, so that even small probabilities are simulated more accurately.&nbsp; But even with the BM method, it is not possible to simulate arbitrarily small error probabilities.
  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 3:}$&nbsp;  
+
$\text{Example 3:}$&nbsp;  
Für die nachfolgende Abschätzung setzen wir die Parameter&nbsp; $m_x = m_y = 0$&nbsp; und&nbsp; $σ_x = σ_y = 1$&nbsp; voraus.
+
For the following estimation, we assume the parameters&nbsp; $m_x = m_y = 0$&nbsp; and&nbsp; $σ_x = σ_y = 1$&nbsp; .
*Bei einem 32 Bit-Rechner ist die kleinste darstellbare Floatzahl&nbsp; $2^{-31} ≈ 0.466 · 10^{-9}$.&nbsp; Der Maximalwert des Wurzelausdrucks in der Generierungsvorschrift des BM-Verfahrens kann somit nicht größer als ca.&nbsp; $6.55$&nbsp; werden und ist zudem äußerst unwahrscheinlich.  
+
*For a 32-bit calculator, the smallest float number that can be represented&nbsp; $2^{-31} ≈ 0.466 - 10^{-9}$.&nbsp; Thus, the maximum value of the root expression in the generation rule of the BM method cannot become larger than approximately&nbsp; $6.55$&nbsp; and is also extremely improbable.  
*Da sowohl die Cosinus&ndash; als auch die Sinusfunktion betragsmäßig auf&nbsp; $1$&nbsp; beschränkt ist, wäre das gleichzeitig der maximal mögliche Wert für&nbsp; $x$&nbsp; und&nbsp; $y$.  
+
*Since both the cosine and sine functions are limited in amount to&nbsp; $1$&nbsp;, this would also be the maximum possible value for&nbsp; $x$&nbsp; and&nbsp; $y$.  
  
  
Eine in&nbsp; [ES96]<ref name='ES96'>Eck, P.; Söder, G.: ''Tabulated Inversion, a Fast Method for White Gaussian Noise Simulation.'' In:&nbsp; AEÜ Int. J. Electron. Commun. 50 (1996), S. 41-48.</ref>&nbsp; dokumentierte Simulation über&nbsp; $10^{9}$&nbsp; Abtastwerte hat aber gezeigt, dass das BM-Verfahren nur bis zu Fehlerwahrscheinlichkeiten von&nbsp; $10^{-5}$&nbsp; die Q-Funktion sehr gut approximiert, dann aber  der Kurvenverlauf steil abbricht.  
+
An in&nbsp; [ES96]<ref name='ES96'>Eck, P.; Söder, G.: ''Tabulated Inversion, a Fast Method for White Gaussian Noise Simulation.'' In:&nbsp; AEÜ Int. J. Electron. Commun. 50 (1996), pp. 41-48.</ref>&nbsp; However, documented simulation over&nbsp; $10^{9}$&nbsp; samples has shown that the BM method approximates the Q function very well only up to error probabilities of&nbsp; $10^{-5}$&nbsp; but then the curve shape breaks off steeply.  
*Der maximal auftretende Wert des Wurzelausdrucks war dabei nicht&nbsp; $6.55$, sondern aufgrund der aktuellen Zufallsgrößen&nbsp; $u$&nbsp; und&nbsp; $v$&nbsp; nur etwa&nbsp; $4.6$, womit sich der schlagartige Abfall ab etwa&nbsp; $10^{–5}$&nbsp; erklären lässt.  
+
*The maximum occurring value of the root expression was not&nbsp; $6.55$, but due to the current random variables&nbsp; $u$&nbsp; and&nbsp; $v$&nbsp; only about&nbsp; $4.6$, which explains the abrupt drop from about&nbsp; $10^{-5}$&nbsp; on.  
*Bei 64 Bit-Rechenoperationen arbeitet dieses Verfahren natürlich deutlich besser.}}
+
*Of course, this method works much better with 64 bit arithmetic operations}}.
  
==Gauß&ndash;Erzeugung gemäß „Tabulated Inversion”==
+
==Gaussian generation as per„Tabulated Inversion”==
 
<br>
 
<br>
Bei diesem von Peter Eck und Günter Söder entwickelten Verfahren&nbsp; [ES96]<ref name='ES96'/>&nbsp; wird wie folgt vorgegangen:  
+
In this method developed by Peter Eck and Günter Söder&nbsp; [ES96]<ref name='ES96'/>&nbsp; the following procedure is followed:  
  
'''(1)''' &nbsp; Die Gauß–WDF wird in&nbsp; $J$&nbsp; Intervalle mit gleichen Flächeninhalten – und dementsprechend unterschiedlicher Breite – aufgeteilt, wobei&nbsp; $J$&nbsp; eine Zweierpotenz darstellt.  
+
'''(1)''' &nbsp; The Gaussian PDF is divided into&nbsp; $J$&nbsp; intervals with equal area contents - and correspondingly different widths - where&nbsp; $J$&nbsp; represents a power of two.  
  
'''(2)''' &nbsp; Dem Intervall mit Index&nbsp; $j$&nbsp; wird ein charakteristischer Wert&nbsp; $C_j$&nbsp; zugeordnet. Somit genügt es, für jeden neuen  Funktionswert nur einen Integer-Zahlengenerator aufzurufen, der die ganzzahligen Werte&nbsp; $j = ±1, \hspace{0.1cm}\text{...} \hspace{0.1cm}, ±J/2$&nbsp; mit gleicher Wahrscheinlichkeit liefert und damit eines der&nbsp; $C_j$&nbsp; auswählt.  
+
'''(2)''' &nbsp; A characteristic value&nbsp; $C_j$&nbsp; is assigned to the interval with index&nbsp; $j$&nbsp;. Thus, for each new function value, it is sufficient to call only one integer number generator, which will generate the integer values&nbsp; $j = ±1, \hspace{0.1cm}\text{...} \hspace{0.1cm}, ±J/2$&nbsp; with equal probability and thus selects one of&nbsp; $C_j$&nbsp;.  
  
'''(3)''' &nbsp; Wird&nbsp; $J$&nbsp; hinreichend groß gewählt, zum Beispiel&nbsp; $J = 2^{15} = 32\hspace{0.03cm}768,$ so können die&nbsp; $C_j$&nbsp; vereinfachend gleich den Intervallmittelwerten gesetzt werden.&nbsp; Diese Werte muss man nur einmal berechnen und können bereits vor der eigentlichen Simulation in einer Datei abgelegt werden.  
+
'''(3)''' &nbsp; If&nbsp; $J$&nbsp; is chosen sufficiently large, for example&nbsp; $J = 2^{15} = 32\hspace{0.03cm}768,$ then the&nbsp; $C_j$&nbsp; can be set equal to the interval averages for simplicity.&nbsp; These values need to be calculated only once and can be stored in a file before the actual simulation.  
  
'''(4)''' &nbsp; Die Randbereiche sind dagegen problematisch und müssen gesondert behandelt werden.&nbsp; Mittels&nbsp; [[Theory_of_Stochastic_Signals/Exponentialverteilte_Zufallsgrößen#Transformation_von_Zufallsgr.C3.B6.C3.9Fen|nichtlinearer Transformation]]&nbsp; wird hierfür ein Floatwert gemäß den Ausläufern der Gauß-WDF bestimmt.  
+
'''(4)''' &nbsp; On the other hand, the boundary regions are problematic and must be treated separately.&nbsp; By means of&nbsp; [[Theory_of_Stochastic_Signals/Exponentially_Distributed_Random_Variables#Transformation_of_random_variables|nonlinear transformation]]&nbsp; a float value is determined for this according to the outliers of the Gaussian PDF.  
  
  
[[File:EN_Sto_T_3_5_S9.png |right|frame|Zur Verdeutlichung des Verfahrens „Tabulated Inversion”]]
+
[[File:EN_Sto_T_3_5_S9.png |right|frame|To illustrate the "Tabulated Inversion" procedure]]
{{GraueBox|TEXT=
+
{{GraueBox|TEXT=
$\text{Beispiel 4:}$&nbsp;  
+
$\text{Example 4:}$&nbsp;  
Die Skizze zeigt die WDF–Aufteilung für&nbsp; $J = 16$&nbsp; durch die Grenzen&nbsp; $I_{–7}$, ... , $ I_7$.  
+
The sketch shows the PDF splitting for&nbsp; $J = 16$&nbsp; by the boundaries&nbsp; $I_{-7}$, ... , $ I_7$.  
*Diese Intervallgrenzen wurden so gewählt, dass jedes Intervall die gleiche Fläche&nbsp; $p_j = 1/J = 1/16$&nbsp; aufweist.  
+
*These interval boundaries were chosen so that each interval has the same area&nbsp; $p_j = 1/J = 1/16$&nbsp; .  
*Der charakteristische Wert&nbsp; $C_j$&nbsp; eines jeden Intervalls liegt genau in der Mitte zwischen&nbsp; $I_{j–1}$&nbsp; und&nbsp; $I_j$.  
+
*The characteristic value&nbsp; $C_j$&nbsp; of each interval lies exactly midway between&nbsp; $I_{j-1}$&nbsp; and&nbsp; $I_j$.  
  
  
Man erzeugt nun eine gleichverteilte diskrete Zufallsgröße&nbsp; $k$&nbsp; $($mit Werten zwischen&nbsp; $1$&nbsp; und&nbsp; $8)$&nbsp; und zusätzlich ein Vorzeichenbit.  
+
One now generates an equally distributed discrete random variable&nbsp; $k$&nbsp; $($with values between&nbsp; $1$&nbsp; and&nbsp; $8)$&nbsp; and additionally a sign bit.  
*Bei negativem Vorzeichenbit und&nbsp; $k =4$&nbsp; wird beispielsweise  folgender Wert  ausgegeben:  
+
*For example, if the sign bit is negative and&nbsp; $k =4$&nbsp; the following value is output:  
 
:$$C_{-4} = -C_4 =-(0.49+0.67)/2 =-0.58.$$  
 
:$$C_{-4} = -C_4 =-(0.49+0.67)/2 =-0.58.$$  
*Bei&nbsp; $k =8$&nbsp; tritt der Sonderfall ein, dass man den Zufallswert&nbsp; $C_8$&nbsp; durch nichtlineare Transformation entsprechend den Ausläufern der Gaußkurve ermitteln muss.}}
+
*For&nbsp; $k =8$&nbsp; the special case occurs that one must determine the random value&nbsp; $C_8$&nbsp; by nonlinear transformation corresponding to the outliers of the Gaussian curve.}}
  
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Fazit:}$&nbsp; Die Eigenschaften von „Tabulated Inversion” können wie folgt zusammengefasst werden:  
+
$\text{Conclusion:}$&nbsp; The properties of "Tabulated Inversion" can be summarized as follows:  
*Diese Methode ist mit&nbsp; $J = 2^{15}$&nbsp; bei vergleichbarer Simulationsgenauigkeit etwa um den Faktor&nbsp; $8$&nbsp; schneller als das BM-Verfahren.  
+
*This method is faster by&nbsp; $J = 2^{15}$&nbsp; a factor of about&nbsp; $8$&nbsp; than the BM method, with comparable simulation accuracy.  
*Nachteilig ist, dass nun die Überschreitungswahrscheinlichkeit&nbsp; ${\rm Pr}(x > r)$&nbsp; in den inneren Bereichen nicht mehr kontinuierlich ist, sondern sich aufgrund der Diskretisierung eine Treppenkurve ergibt.&nbsp; Dieses Manko kann man durch ein größeres&nbsp; $J$&nbsp; ausgleichen.&nbsp;  
+
*Disadvantageous is that now the exceedance probability&nbsp; ${\rm Pr}(x > r)$&nbsp; is no longer continuous in the inner regions, but a staircase curve results due to the discretization.&nbsp; This shortcoming can be compensated by a larger&nbsp; $J$&nbsp; ;
*Durch die Sonderbehandlung der Ränder eignet sich das Verfahren auch für sehr kleine Fehlerwahrscheinlichkeiten.}}
+
*The special treatment of the edges makes the method suitable for very small error probabilities.&nbsp; }}
  
 
==Aufgaben zum Kapitel==
 
==Aufgaben zum Kapitel==

Revision as of 00:20, 1 January 2022

General description


Random variables with Gaussian probability density function - the name goes back to the important mathematician, physicist and astronomer  Carl Friedrich Gauss  - are realistic models for many physical quantities and are also of great importance for communications engineering.

$\text{Definition:}$  To describe the Gaussian distribution, we consider a sum of  $I$  statistical quantities:

$$x=\sum\limits_{i=\rm 1}^{\it I}x_i .$$
  • According to the  central limit theorem of statistics  this sum has a Gaussian PDF in the limiting case  $(I → ∞)$  as long as the individual components  $x_i$  have no statistical ties.  This holds (almost) for all density functions of the individual summands.
  • Many  noise processes  fulfill exactly this condition,  that is,  they are additively composed of a large number of independent individual contributions, so that their pattern functions (noise signals) exhibit a Gaussian amplitude distribution.
  • If one applies a Gaussian distributed signal to a linear filter for spectral shaping, the output signal is also Gaussian distributed.   Only the distribution parameters such as mean and rms change, as well as the internal statistical ties of the samples

.


Gaussian distributed and uniformly distributed random signal

$\text{Example 1:}$  The graph shows in comparison.

  • on the left a Gaussian random signal  $x_1(t)$  and
  • right an equally distributed signal  $x_2(t)$  with


equal mean  $m_1$  and equal rms  $σ$.

It can be seen that with the Gaussian distribution, in contrast to the uniform distribution.

  • any large and any small amplitude values can occur,
  • even if they are improbable compared to the mean amplitude range

.


Probability density function & cumulative density function


$\text{Definition:}$  The  probability density function  (PDF)  of a Gaussian distributed random variable is generally:

PDF and CDF of a Gaussian distributed random variable

$$\hspace{0.4cm}f_x(x) = \frac{1}{\sqrt{2\pi}\cdot\sigma}\cdot {\rm e}^{-(x-m_1)^2 /(2\sigma^2) }.$$ The parameters of such a Gaussian PDF are.

  • $m_1$  (mean or DC component),
  • $σ$  (rms).


If  $m_1 = 0$  and  $σ = 1$, it is often referred to as the normal distribution.


From the left plot of the top graph, it can be seen that the dispersion  $σ$  can also be determined graphically as the distance from the maximum value and the inflection point from the bell-shaped WDF  $f_{x}(x)$  .

On the right is shown the  cumulative distribution function  $F_{x}(r)$  of the Gaussian distributed random variable. It can be seen:

  • The CDF is point symmetric about the mean  $m_1$.
  • By integration over the Gaussian PDF one obtains:
$$F_x(r)= \phi(\frac{\it r-m_{\rm 1}}{\sigma})\hspace{0.5cm}\rm with\hspace{0.5cm}\rm \phi (\it x\rm ) = \frac{\rm 1}{\sqrt{\rm 2\it \pi}}\int_{-\rm\infty}^{\it x} \rm e^{\it -u^{\rm 2}/\rm 2}\,\, d \it u.$$

One calls  $ϕ(x)$  the  Gaussian error integral.

  • Whose function progression cannot be calculated analytically and must therefore be taken from tables.
  • $ϕ(x)$  can be approximated by a Taylor series or calculated from the function  ${\rm erfc}(x)$  often available in program libraries.


The topic of this chapter is illustrated with examples in the (German language) learning video  Der AWGN Kanal $\Rightarrow$ The AWGN channel , especially in the second part.

Exceeding probability


In the study of digital transmission systems, it is often necessary to determine the probability that a (zero mean) Gaussian distributed random variable  $x$  with variance  $σ^2$  exceeds a given value  $x_0$ .

$\text{Definition:}$  For this  exceeding probability  holds:

Complementary Gaussian error integral  ${\rm Q}(x)$
$${\rm Pr}(x > x_{\rm 0})={\rm Q}({x_{\rm 0} }/{\sigma}).$$
  • Here,  ${\rm Q}(x) = 1 - {\rm ϕ}(x)$  denotes the complementary function to  $ {\rm ϕ}(x)$. 
  • This function is called the  Complementary Gaussian error integral'  and the following calculation rule applies:
$$\rm Q (\it x\rm ) = \rm 1- \phi (\it x)$$
$$\Rightarrow \hspace{0.3cm}\rm Q (\it x\rm ) = \frac{\rm 1}{\sqrt{\rm 2\pi} }\int_{\it x}^{\rm +\infty}\hspace{-0.4cm}\rm e^{\it - u^{\rm 2}/\hspace{0.05cm} \rm 2}\,d \it u .$$

${\rm Q}(x)$  like  ${\rm \phi}(x)$  is not analytically solvable and must be taken from tables.

In libraries one often finds the function  ${\rm erfc}(x)$ related to  ${\rm Q}(x)$  as follows:

$${\rm Q}(x)={\rm 1}/\hspace{0.05cm}{\rm 2}\cdot \rm erfc({\it x}/{\sqrt{\rm 2} }).$$


Especially for larger  $x$-values  (i.e., for small error probabilities)  the bounds given below provide useful estimates for the complementary Gaussian error integral:

  • Upper bound:
$${\rm Q_o}(x ) \ge {\rm Q}(x)=\frac{ 1}{\sqrt{2\pi}\cdot x}\cdot {\rm e}^{- x^{2}/\hspace{0.05cm}2}. $$
  • Lower bound:
$${\rm Q_u}(x )\le {\rm Q}(x)=\frac{\rm 1-{\rm 1}/{\it x^{\rm 2}}}{\sqrt{\rm 2\pi}\cdot \it x}\cdot \rm e^{-\it x^{\rm 2}/\hspace{0.05cm}\rm 2} =\rm Q_0(\it x \rm ) \cdot \left(\rm 1-{\rm 1}/{\it x^{\rm 2}}\right) .$$

$\text{Conclusion:}$  The graph shows the  $\rm Q$ function in logarithmic representation for linear (upper axis) and logarithmic abscissa values (lower axis).

  • The upper bound (red circles) is useful from about  $x = 1$  the lower bound (green diamonds) from  $x ≈ 2$.
  • For  $x ≥ 4$  both bounds are indistinguishable from the actual course  ${\rm Q}(x)$  within character precision.


The interactive applet  Complementary Gaussian error functions  provides.

  • the numerical values of the functions  ${\rm Q}(x)$  and  $1/2 \cdot {\rm erfc}(x)$ 
  • including the bounds given here.


Central moments and moments


The characteristics of the Gaussian distribution have the following properties:

  • The central moments  $\mu_k$  $($identical to the moments  $m_k$  of the equivalent zero mean random variable  $x - m_1$  are identically zero for the Gaussian PDF as well as for the uniform distribution due to the symmetric relations for odd values of  $k$ .
  • The second central moment is by definition equal to  $\mu_2 = σ^2$.
  • All higher central moments with even values of  $k$  can be expressed by the variance  $σ^2$  for Gaussian PDF - mind you:  exclusively for this one:
$$\mu_{k}=(k- 1)\cdot (k- 3) \ \cdots \ 3\cdot 1\cdot\sigma^k\hspace{0.2cm}\rm (if\hspace{0.1cm}\it k\hspace{0.1cm}\rm even).$$
  • From this, the noncentered moments  $m_k$  can be determined as follows:
$$m_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \ \kappa \ \end{array} \right)\cdot \mu_\kappa \cdot {m_1}^{k-\kappa}.$$
This equation holds in general, i.e., for arbitrary distributions.

$\text{Conclusion:}$ 

  • From the above equation it follows directly  $\mu_4 = 3 \cdot σ^4$  and from it for the kurtosis the value  $K = 3$.
  • For this reason, one often refers to  $K-3$  as the  Gaussian deviation  or as the  excess.
  • If the Gaussian deviation is negative, the PDF decay is faster than for the Gaussian distribution. For example, for a uniform distribution, the Gaussian deviation always has the numerical value  $1.8 - 3 = -1.2$.


$\text{Example 2:}$  The first central moments of a Gaussian random variable with dispersion  $σ = 1/2$  are:

$$\mu_2 = \frac{1}{4}, \hspace{0.4cm}\mu_4 = \frac{3}{16},\hspace{0.4cm}\mu_6 = \frac{15}{64}, \hspace{0.4cm}\mu_8 = \frac{105}{256}.$$

All central moments with odd index are identically zero

.


The interactive applet  PDF, CDF and moments of special distributions  gives, among other things, the characteristics of the Gaussian distribution.


Gaussian generation by addition method


This simple procedure, based on the  central limit theorem of statistics  for the computational generation of a Gaussian random variable, shall be outlined here only in a bullet point fashion:


(1)   One assumes (between  $0$  and  $1)$  equally distributed and statistically independent random variables  $u_i$    ⇒   mean  $m_u = 1/2$,  variance  $\sigma_u^2 = 1/12.$

(2)   One now forms the sum over  $I$  summands, where  $I$  must be chosen sufficiently large:

$$s=\sum\limits_{i=1}^{I}u_i.$$

(3)   According to the central limit theorem, the random variable  $s$  is Gaussian distributed with good approximation if  $I$  is sufficiently large.   In contrast, for  $I =2$  for example, only an amplitude-limited triangle PDF  $($with values between  $0$  and  $2)$    ⇒   convolution of two rectangles results.

(4)   Thus, the mean of the random variable  $s$  is  $m_s = I/2$.  Since the equally distributed random variables  $u_i$  were assumed to be statistically independent of each other, their variances can also be added, yielding for the variance of  $s$  the value  $\sigma_s^2 = I/12$  .

(5)   If a Gaussian distributed random variable  $x$  with different mean  $m_x$  and different rms  $σ_x$  is to be generated, the following linear transformation must still be performed:

$$x=m_x+\frac{\sigma_x}{\sqrt{I/\rm 12}}\cdot \bigg[\big (\sum\limits_{\it i=\rm 1}^{\it I}u_i\big )-{I}/{\rm 2}\bigg].$$

(6)   With the parameter  $I =12$  the generation rule simplifies, which can be exploited especially in computationally time-critical applications, for example in a real-time simulation:

$$x=m_x+\sigma_x\cdot \left [\big(\sum\limits_{i=\rm 1}^{12}\it u_i \rm \big )-\rm 6 \right ].$$

. $\text{Conclusion:}$  However, the Gaussian random variable approximated by the addition method  $($with parameter  $I)$  yields values only in a limited range around the mean  $m_x$. In general:

$$m_x-\sqrt{3 I}\cdot \sigma_x\le x \le m_x+\sqrt{3 I}\cdot \sigma_x.$$
  • The error with respect to the theoretical Gaussian distribution is largest at these limits and becomes smaller for increasing  $I$ .
  • The topic of this chapter is illustrated with examples in the (German language) learning video  Prinzip der Additionsmethode  $\Rightarrow$ Principle of the addition method


Gaussian generation with the Box/Muller method


In this method, two statistically independent Gaussian distributed random variables  $x$  and  $y$  are generated from the two between  $0$  and  $1$  equally distributed and statistically independent random variables  $u$  and  $v$  by nonlinear  transformation  (approximate) generated:

$$x=m_x+\sigma_{x}\cdot \cos(2 \pi u)\cdot\sqrt{-2\cdot \ln(v)},$$
$$y=m_y+\sigma_{y}\cdot \sin(2 \pi u)\cdot\sqrt{-2\cdot \ln(v)}.$$

The Box and Muller method - hereafter abbreviated to  "BM"  - can be characterized as follows:

  • The theoretical background for the validity of above generation rules is based on the regularities for  two-dimensional random variables.
  • Obvious equations successively yield two Gaussian values without statistical bindings.  This fact can be used to reduce simulation time by generating a tuple  $(x, \ y)$  of Gaussian values at each function call.
  • A comparison of the computation times shows that - with the best possible implementation in each case - the BM method is superior to the addition method with  $I =12$  by a factor of  $3$  approximately.
  • The range of values is less limited in the BM method than in the addition method, so that even small probabilities are simulated more accurately.  But even with the BM method, it is not possible to simulate arbitrarily small error probabilities.


$\text{Example 3:}$  For the following estimation, we assume the parameters  $m_x = m_y = 0$  and  $σ_x = σ_y = 1$  .

  • For a 32-bit calculator, the smallest float number that can be represented  $2^{-31} ≈ 0.466 - 10^{-9}$.  Thus, the maximum value of the root expression in the generation rule of the BM method cannot become larger than approximately  $6.55$  and is also extremely improbable.
  • Since both the cosine and sine functions are limited in amount to  $1$ , this would also be the maximum possible value for  $x$  and  $y$.


An in  [ES96][1]  However, documented simulation over  $10^{9}$  samples has shown that the BM method approximates the Q function very well only up to error probabilities of  $10^{-5}$  but then the curve shape breaks off steeply.

  • The maximum occurring value of the root expression was not  $6.55$, but due to the current random variables  $u$  and  $v$  only about  $4.6$, which explains the abrupt drop from about  $10^{-5}$  on.
  • Of course, this method works much better with 64 bit arithmetic operations

.

Gaussian generation as per„Tabulated Inversion”


In this method developed by Peter Eck and Günter Söder  [ES96][1]  the following procedure is followed:

(1)   The Gaussian PDF is divided into  $J$  intervals with equal area contents - and correspondingly different widths - where  $J$  represents a power of two.

(2)   A characteristic value  $C_j$  is assigned to the interval with index  $j$ . Thus, for each new function value, it is sufficient to call only one integer number generator, which will generate the integer values  $j = ±1, \hspace{0.1cm}\text{...} \hspace{0.1cm}, ±J/2$  with equal probability and thus selects one of  $C_j$ .

(3)   If  $J$  is chosen sufficiently large, for example  $J = 2^{15} = 32\hspace{0.03cm}768,$ then the  $C_j$  can be set equal to the interval averages for simplicity.  These values need to be calculated only once and can be stored in a file before the actual simulation.

(4)   On the other hand, the boundary regions are problematic and must be treated separately.  By means of  nonlinear transformation  a float value is determined for this according to the outliers of the Gaussian PDF.


To illustrate the "Tabulated Inversion" procedure

$\text{Example 4:}$  The sketch shows the PDF splitting for  $J = 16$  by the boundaries  $I_{-7}$, ... , $ I_7$.

  • These interval boundaries were chosen so that each interval has the same area  $p_j = 1/J = 1/16$  .
  • The characteristic value  $C_j$  of each interval lies exactly midway between  $I_{j-1}$  and  $I_j$.


One now generates an equally distributed discrete random variable  $k$  $($with values between  $1$  and  $8)$  and additionally a sign bit.

  • For example, if the sign bit is negative and  $k =4$  the following value is output:
$$C_{-4} = -C_4 =-(0.49+0.67)/2 =-0.58.$$
  • For  $k =8$  the special case occurs that one must determine the random value  $C_8$  by nonlinear transformation corresponding to the outliers of the Gaussian curve.


$\text{Conclusion:}$  The properties of "Tabulated Inversion" can be summarized as follows:

  • This method is faster by  $J = 2^{15}$  a factor of about  $8$  than the BM method, with comparable simulation accuracy.
  • Disadvantageous is that now the exceedance probability  ${\rm Pr}(x > r)$  is no longer continuous in the inner regions, but a staircase curve results due to the discretization.  This shortcoming can be compensated by a larger  $J$  ;
  • The special treatment of the edges makes the method suitable for very small error probabilities. 

Aufgaben zum Kapitel


Aufgabe 3.6: Verrauschtes Gleichsignal

Aufgabe 3.6Z: Prüfungskorrektur

Aufgabe 3.7: Bitfehlerquote (BER)

Aufgabe 3.7Z: Error Performance


Quellenverzeichnis

  1. 1.0 1.1 Eck, P.; Söder, G.: Tabulated Inversion, a Fast Method for White Gaussian Noise Simulation. In:  AEÜ Int. J. Electron. Commun. 50 (1996), pp. 41-48.