Difference between revisions of "Theory of Stochastic Signals/Expected Values and Moments"

From LNTwww
 
(52 intermediate revisions by 6 users not shown)
Line 1: Line 1:
 
   
 
   
 
{{Header
 
{{Header
|Untermenü=Kontinuierliche Zufallsgrößen
+
|Untermenü=Continuous Random Variables
|Vorherige Seite=Verteilungsfunktion (VTF)
+
|Vorherige Seite=Cumulative Distribution Function
|Nächste Seite=Gleichverteilte Zufallsgröße
+
|Nächste Seite=Uniformly Distributed Random Variables
 
}}
 
}}
==Momentenberechnung als Scharmittelwert==
+
==Moment calculation as ensemble average==
Die Wahrscheinlichkeitsdichtefunktion (WDF) bietet ebenso wie die Verteilungsfunktion (VTF) sehr weitreichende Informationen über die betrachtete Zufallsgröße. Weniger Informationen liefern die so genannten ''Erwartungswerte'' und ''Momente.''
+
<br>
 +
The probability density function&nbsp; $\rm (PDF)$,&nbsp; like the cumulative distribution function&nbsp; $\rm (CDF)$,&nbsp; provides very extensive information about the random variable under consideration.&nbsp; Less,&nbsp; but more compact information is provided by the so-called&nbsp; &raquo;expected values&laquo;&nbsp; and&nbsp; &raquo;moments&laquo;.  
  
Für diskrete Zufallsgrößen wurden deren Berechnungsmöglichkeiten bereits im Kapitel [[Stochastische_Signaltheorie/Momente_einer_diskreten_Zufallsgröße|Momente einer diskreten Zufallsgröße]] angegeben. Nun werden diese integrativen Beschreibungsgrößen ''Erwartungswert'' bzw. ''Moment'' allgemeiner und im Zusammenhang mit der Wahrscheinlichkeitsdichtefunktion betrachtet.
+
*Their calculation possibilities have already been given for value-discrete random variables in the chapter&nbsp; [[Theory_of_Stochastic_Signals/Moments_of_a_Discrete_Random_Variable|&raquo;Moments of a Discrete Random Variable&laquo;]].  
  
{{Definition}}
+
*Now these integrative descriptive quantities&nbsp; &raquo;expected value&laquo;&nbsp; and&nbsp; &raquo;moment&laquo;&nbsp; are considered in the context of the probability density function&nbsp; $\rm (PDF)$&nbsp; of value-continuous random variables and thus formulated more generally.
Der '''Erwartungswert''' bezüglich einer beliebigen Gewichtungsfunktion $g(x)$ kann mit der WDF $f_{\rm x}(x)$ in folgender Weise berechnet werden:
 
$${\rm E}[g (x ) ] = \int_{-\infty}^{+\infty} g(x)\cdot f_{x}(x) \,{\rm d}x.$$
 
Setzt man in diese Gleichung für $g(x) = x^k$ ein, so erhält man das '''Moment $k$-ter Ordnung''':
 
$$m_k = {\rm E}[x^k  ] = \int_{-\infty}^{+\infty} x^k\cdot f_{x} \rm (x ) \, {\rm d}x.$$
 
{{end}}
 
  
  
Aus dieser Gleichung folgt
+
{{BlaueBox|TEXT= 
*mit $k = 1$ für den ''linearen Mittelwert:''
+
$\text{Definitions:}$&nbsp;
:$$m_1 = {\rm E}[x ] = \int_{-\infty}^{ \rm +\infty} x\cdot f_{x} (x ) \,{\rm d}x,$$
+
*The&nbsp; &raquo;'''expected value'''&laquo;&nbsp; with respect to any weighting function&nbsp; $g(x)$&nbsp; can be calculated with the PDF $f_{\rm x}(x)$&nbsp; in the following way:
*mit $k = 2$ für den ''quadratischen Mittelwert:''
+
:$${\rm E}\big[g (x ) \big] = \int_{-\infty}^{+\infty} g(x)\cdot f_{x}(x) \,{\rm d}x.$$
:$$m_2 = {\rm E}[x^{\rm 2} ] = \int_{-\infty}^{ \rm +\infty} x^{ 2}\cdot f_{ x} (x) \,{\rm d}x.$$
+
*Substituting into this equation for&nbsp; $g(x) = x^k$&nbsp; we get the&nbsp; &raquo;'''moment of $k$-th order'''&laquo;:
 +
:$$m_k = {\rm E}\big[x^k \big] = \int_{-\infty}^{+\infty} x^k\cdot f_{x} (x ) \, {\rm d}x.$$}}
  
  
Bei einer diskreten, $M$-stufigen Zufallsgröße erhält man auch mit den hier angegebenen Formeln wieder die bereits im zweiten  Kapitel angegebenen Gleichungen (Berechnung als Scharmittelwert):  
+
From this equation follows.
$$m_1 = \sum\limits_{\mu=1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu,\hspace{0.5cm}
+
*with&nbsp; $k = 1$&nbsp; for the&nbsp; &raquo;first order moment&laquo; &nbsp; &rArr; &nbsp; &raquo;$($linear$)$&nbsp; mean&laquo;:
m_2 = \sum\limits_{\mu= 1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu^2.$$
+
:$$m_1 = {\rm E}\big[x \big] = \int_{-\infty}^{ \rm +\infty} x\cdot f_{x} (x ) \,{\rm d}x,$$
 +
*with&nbsp; $k = 2$&nbsp; for the&nbsp; &raquo;second order moment&laquo;:
 +
:$$m_2 = {\rm E}\big[x^{\rm 2} \big] = \int_{-\infty}^{ \rm +\infty} x^{ 2}\cdot f_{ x} (x) \,{\rm d}x.$$
  
Hierbei ist berücksichtigt, dass das Integral über die Diracfunktion $δ(x)$ gleich $1$ ist.  
+
For a&nbsp;  $M$&ndash;level random variable,&nbsp; the formulas given here again yield the equations already given in the second chapter&nbsp; $($&raquo;Calculation as an ensemble average&laquo;$)$:
 +
:$$m_1 = \sum\limits_{\mu=1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu,$$
 +
:$$m_2 = \sum\limits_{\mu= 1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu^2.$$
  
In Zusammenhang mit Signalen sind auch folgende Bezeichnungen üblich:  
+
Here it is taken into account that the integral over the Dirac delta function&nbsp; $δ(x)$&nbsp; is equal to&nbsp; $1$.&nbsp; In relation to signals,&nbsp; the following terms are also common:  
* $m_1$ gibt den '''Gleichanteil''' an,
+
* $m_1$&nbsp; indicates the&nbsp; &raquo;DC component&laquo;.
* $m_2$ entspricht der (auf den Einheitswiderstand 1 \ Ω bezogenen) '''Signalleistung'''.  
+
 +
* $m_2$&nbsp; corresponds to the&nbsp; &raquo;signal power&laquo;&nbsp;  $($referred to the unit resistance&nbsp; $1 \ Ω)$.  
  
  
Bezeichnet $x$ beispielsweise eine Spannung, so hat $m_1$ die Einheit ${\rm V}$ und $m_2$ die Einheit ${\rm V}^2.$ Will man die Leistung in „Watt” angeben, so muss $m_2$ noch durch den Widerstandswert $R$ dividiert werden.  
+
For example,&nbsp; if&nbsp; $x$&nbsp; denotes a voltage, then according to these equations&nbsp; $m_1$&nbsp; has the unit&nbsp; "${\rm V}$"&nbsp; and&nbsp; $m_2$&nbsp; the unit&nbsp; "${\rm V}^2$".&nbsp; If one wants to indicate the power in&nbsp;  &raquo;Watt&laquo;&nbsp; $\rm (W)$,&nbsp; then&nbsp; $m_2$&nbsp; must still be divided by the resistance value&nbsp; $R$.  
  
==Zentralmomente==
 
Eine besonders große Bedeutung haben in der Statistik die Zentralmomente, die im Gegensatz zu den herkömmlichen Momenten jeweils auf den Mittelwert $m_1$ bezogen sind:
 
  
$$\mu_k = {\rm E}[(x-m_{\rm 1})^k] = \int_{-\infty}^{+\infty} (x-m_{\rm 1})^k\cdot f_x(x) \,\rm d \it x.$$
+
==Central moments==
 +
<br>
 +
{{BlaueBox|TEXT=
 +
$\text{Definition:}$&nbsp; Especially important in statistics are the&nbsp; &raquo;'''central moments'''&laquo;,&nbsp;  which  in contrast to the conventional moments  are each related to the mean&nbsp; $m_1$:
  
$$\mu_k = {\rm E}[ (x-m_{\rm 1} )^k ] = \int_{-\infty}^{\rm +\infty} (x-m_{\rm 1})^k\cdot f_{ x}(x) \,\rm d \it x.$$
+
:$$\mu_k = {\rm E}\big[(x-m_{\rm 1})^k\big] = \int_{-\infty}^{+\infty} (x-m_{\rm 1})^k\cdot f_x(x) \,\rm d \it x.$$}}
  
$$\mu_k = {\rm E}[(x-m_{1})^k] = \int_{-\infty}^{+\infty} (x-m_{\rm 1})^k\cdot f_x(x) \,\rm d \it x.$$
 
  
$$\mu_k = {\rm E}[(x-m_1)^k] = \int_{-\infty}^{+\infty} (x-m_1)^k\cdot f_x(x) \,{\rm d} x$$
 
  
Die nichtzentrierten Momente $m_k$ kann man direkt in die zentrierten Momente $\mu_k$ umrechnen:  
+
The non&ndash;centered moments&nbsp; $m_k$&nbsp; can be directly converted to the centered moments&nbsp; $\mu_k$:  
$$\mu_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \\ \kappa \\ \end{array} \right)\cdot m_\kappa \cdot (-m_1)^{k-\kappa}.$$
+
:$$\mu_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c} } k \\ \kappa \\ \end{array} \right)\cdot m_\kappa \cdot (-m_1)^{k-\kappa}.$$
  
Nach den allgemein gültigen Gleichungen der [[Stochastische_Signaltheorie/Erwartungswerte_und_Momente#Momentenberechnung_als_Scharmittelwert|letzten Seite]] ergeben sich die formalen Größen $m_0 = 1$ und $\mu_0 = 1$. Für das Zentralmoment erster Ordnung gilt nach obiger Definition stets $\mu_1 = 0$.  
+
*According to the general equations of the&nbsp; [[Theory_of_Stochastic_Signals/Expected_Values_and_Moments#Moment_calculation_as_ensemble_average|&raquo;last section&laquo;]]&nbsp; the formal quantities&nbsp; $m_0 = 1$&nbsp; and&nbsp; $\mu_0 = 1$&nbsp; result.
 +
 +
*For the first order central moment,&nbsp; according to the above definition always holds: &nbsp; $\mu_1 = 0$.  
  
In der Gegenrichtung gelten folgende Gleichungen für $k = 1$, $k = 2$, usw.:
 
$$m_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}}  k \\ \kappa \\ \end{array} \right)\cdot \mu_\kappa \cdot {m_1}^{k-\kappa}.$$
 
  
{{Beispiel}}
+
In the opposite direction,&nbsp; the following equations hold for&nbsp; $k = 1$,&nbsp; $k = 2$,&nbsp; and so on:
Bei einer binären Zufallsgröße mit den Wahrscheinlichkeiten ${\rm Pr}(0) = 1 – p$ und ${\rm Pr}(1) = p$ haben alle Momente den genau gleichen Wert $p$:  
+
:$$m_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}}  k \\ \kappa \\ \end{array} \right)\cdot \mu_\kappa \cdot {m_1}^{k-\kappa}.$$  
$$m_1 = m_2 = m_3 = m_4 = ... \hspace{0.05cm}= p.$$
 
Mit den obigen Gleichungen erhält man dann für die ersten drei Zentralmomente:
 
$$\begin{align*} \mu_2 & = m_2 - m_1^2 = p -p^2, \\ \mu_3 & = m_3 - 3 \cdot m_2 \cdot m_1 + 2 \cdot m_1^3 = p - 3 \cdot p^2 + 2 \cdot p^3, \\ \mu_4 & = m_4 - 4 \cdot m_3 \cdot m_1 + 6 \cdot m_2 \cdot m_1^2 - 3 \cdot m_1^4 = p - 4 \cdot p^2 + 6 \cdot p^3- 3 \cdot p^4. \end{align*}$$
 
{{end}}
 
  
==Einige häufig benutzte Zentralmomente==
+
{{GraueBox|TEXT=
Aus der Definition auf der [[Stochastische_Signaltheorie/Erwartungswerte_und_Momente#Zentralmomente|letzten Seite]] können folgende Kenngrößen abgeleitet werden:  
+
$\text{Example 1:}$&nbsp; All moments of a binary random variable with probabilities&nbsp; ${\rm Pr}(0) = 1 - p$&nbsp; &nbsp;and&nbsp; ${\rm Pr}(1) = p$&nbsp; are of equal value:
*Die '''Varianz''' $σ^2$ der betrachteten Zufallsgröße ist das Zentralmoment zweiter Ordnung &nbsp; &rArr; &nbsp; $\mu_2.$ Die Varianz $σ^2$ entspricht physikalisch der ''Wechselleistung'' und die Streuung $σ$ gibt den ''Effektivwert'' an. Aus dem linearen und dem quadratischen Mittelwert ist die Varianz nach dem in folgender Weise berechenbar  ⇒  Satz von Steiner:  
+
:$$m_1 = m_2 = m_3 = m_4 = \hspace{0.05cm}\text{...} \hspace{0.05cm}= p.$$
:$$\sigma^{2} = m_2 - m_1^{2}.$$
+
Using the above equations,&nbsp; we then obtain for the first three central moments:
*Die sog. '''Charliersche Schiefe''' $S$ bezeichnet das auf $σ^3$ bezogene dritte Zentralmoment. Bei symmetrischer Dichtefunktion ist diese Kenngröße immer $S=0$. Je größer $S = \mu_3/σ^3$ ist, um so unsymmetrischer verläuft die WDF um den Mittelwert $m_1$. Beispielsweise ergibt sich für die  [[Stochastische_Signaltheorie/Exponentialverteilte_Zufallsgrößen#Einseitige_Exponentialverteilung|Exponentialverteilung]]  (unabhängig vom Verteilungsparameter $λ$) die Schiefe $S =2$.
+
:$$\mu_2 = m_2 - m_1^2 = p -p^2, $$
*Auch das Zentralmoment vierter Ordnung spielt für die Analyse statistischer Größen eine Rolle. Als '''Kurtosis''' bezeichnet man den Quotienten $K = \mu_4/σ^4.$ Bei einer [[Stochastische_Signaltheorie/Gaußverteilte_Zufallsgröße#Wahrscheinlichkeitsdichte-_und_Verteilungsfunktion|gaußverteilten Zufallsgröße]]  ergibt sich hierfür immer der Wert $K = 3$. Anhand dieser Kenngröße kann man beispielsweise überprüfen, ob eine vorliegende Zufallsgröße tatsächlich gaußisch ist.
+
:$$\mu_3 = m_3 - 3 \cdot m_2 \cdot m_1 + 2 \cdot m_1^3 = p - 3 \cdot p^2 + 2 \cdot p^3, $$
*Weist die WDF weniger Ausläufer auf als die Gaußverteilung, so ist die Kurtosis $K < 3$, zum Beispiel gilt für die Gleichverteilung $K = 1.8$. Dagegen weist $K > 3$ darauf hin, dass die Ausläufer ausgeprägter als bei der Gaußverteilung sind. Für die  [[Stochastische_Signaltheorie/Exponentialverteilte_Zufallsgrößen#Erzeugung_einer_exponentialverteilten_Zufallsgr.C3.B6.C3.9Fe|Laplaceverteilung]]  ⇒  zweiseitige Exponentialverteilung ergibt sich beispielsweise der Wert $K = 6$.
+
:$$ \mu_4 = m_4 - 4 \cdot m_3 \cdot m_1 + 6 \cdot m_2 \cdot m_1^2 - 3 \cdot m_1^4 = p - 4 \cdot p^2 + 6 \cdot p^3- 3 \cdot p^4. $$}}
  
==Momentenberechnung als Zeitmittelwert==
+
==Some common central moments==
Die Erwartungswertberechnung nach den bisherigen Gleichungen dieses Abschnitts entspricht einer ''Scharmittelung,'' das heißt einer Mittelung über alle möglichen Werte $x_\mu$.
+
<br>
 +
From the&nbsp; [[Theory_of_Stochastic_Signals/Expected_Values_and_Moments#Central_moments|&raquo;last definition&laquo;]]&nbsp; the following additional characteristics can be derived:
  
Die Momente $m_k$ können aber auch als '''Zeitmittelwerte''' bestimmt werden, wenn der die Zufallsgröße erzeugende stochastische Prozess stationär und ergodisch ist. Die genaue Definition für einen solchen Zufallsprozess finden Sie in [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Zufallsprozesse_.281.29|Kapitel 4.4]].  Eine Zeitmittelung wird im Folgenden stets durch eine überstreichende Linie gekennzeichnet.  
+
{{BlaueBox|TEXT= 
 +
$\text{Definition:}$&nbsp; The&nbsp; &raquo;'''variance'''&laquo;&nbsp; $σ^2$&nbsp; of the considered random variable is the second order central moment &nbsp; &rArr; &nbsp; $\mu_2.$
 +
#The variance&nbsp; $σ^2$&nbsp; corresponds physically to the&nbsp; &raquo;alternating current power&laquo;&nbsp; and&nbsp; $σ$&nbsp; gives the&nbsp; standard deviation.
 +
#From the first and the second moment,&nbsp; the variance can be calculated according to&nbsp; &raquo;Steiner's theorem&laquo;&nbsp; in the following way:
 +
::$$\sigma^{2} = m_2 - m_1^{2}.$$}}
  
Bei zeitdiskreter Betrachtung wird das Zufallssignal $x(t)$ durch die Zufallsfolge $〈x_ν〉$ ersetzt. Bei endlicher Folgenlänge lauten diese Zeitmittelwerte mit $ν = 1, 2, ... , N$:
 
$$m_k=\overline{x_{\nu}^{k}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{k},$$
 
$$m_1=\overline{x_{\nu}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu},$$
 
$$m_2=\overline{x_{\nu}^{2}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{2}.$$
 
  
Sollen die Momente (oder Erwartungswerte) per Simulation bestimmt werden, so geschieht dies in der Praxis meist durch eine Zeitmittelung. Der entsprechende Berechnungsalgorithmus unterscheidet sich bei diskreten bzw. kontinuierlichen Zufallsgrößen nur mariginal.  
+
{{BlaueBox|TEXT= 
 +
$\text{Definition:}$&nbsp; The&nbsp; &raquo;'''Charlier's skewness'''&laquo;&nbsp; $S$&nbsp; denotes the third central moment related to&nbsp; $σ^3$.
 +
#For symmetrical probability density function,&nbsp; this parameter is always&nbsp; $S=0$.
 +
#The larger&nbsp; $S = \mu_3/σ^3$,&nbsp; the more asymmetrical is the PDF around the mean&nbsp; $m_1$.
 +
#For example,&nbsp; for the&nbsp; [[Theory_of_Stochastic_Signals/Exponentially_Distributed_Random_Variables#One-sided_exponential_distribution|&raquo;exponential distribution&laquo;]]&nbsp; the&nbsp; $($positive$)$&nbsp; skewness&nbsp; $S =2$,&nbsp; and this is independent of the distribution parameter&nbsp; $λ$.
 +
#For positive skewness&nbsp; $(S > 0)$&nbsp; one speaks of a&nbsp; &raquo;right&ndash;skewed&laquo;&nbsp; or of a&nbsp; &raquo;left&ndash;sloping distribution&laquo;;&nbsp; this slopes flatter on the right side than on the left.
 +
#When the skewness&nbsp; $S < 0$&nbsp; there is a&nbsp; &raquo;left&ndash;skewed&laquo;&nbsp; or a&nbsp; &raquo;right&ndash;steep distribution&laquo;;&nbsp; such a distribution falls flatter on the left side than on the right.}}
 +
   
  
Die in diesem Abschnitt behandelte Thematik ist in einem Lernvideo zusammengefasst:
+
{{BlueBox|TEXT= 
 +
$\text{Definition:}$&nbsp; The fourth-order central moment is also used for statistical analysis;&nbsp; The quotient&nbsp; $K = \mu_4/σ^4$ is called&nbsp; &raquo;'''kurtosis'''&laquo;.
 +
#For a&nbsp;[[Theory_of_Stochastic_Signals/Gaussian_Distributed_Random_Variables#Probability_density_function_.E2.80.93_Cumulative_density_function|&raquo;Gaussian distributed random variable&laquo;]]&nbsp; this always yields the value&nbsp; $K = 3$.
 +
#Using also the so-called&nbsp; &raquo;'''excess'''&laquo;&nbsp; $\gamma = K - 3$,&nbsp; also known under the term&nbsp; &raquo;overkurtosis&laquo;.
 +
#This parameter can be used,&nbsp; for example,&nbsp; to check whether a random variable at hand is approximately Gaussian &nbsp; &rArr; &nbsp; excess&nbsp; $\gamma \approx 0$. }}
  
[[Momente von diskreten Zufallsgrößen]] 
 
  
==Charakteristische Funktion==
+
{{GraueBox|TEXT=
Ein weiterer Sonderfall eines Erwartungswertes ist die '''charakteristische Funktion''', wobei hier für die Bewertungsfunktion $g(x) = {\rm e}^{\hspace{0.03cm}{\rm j} \hspace{0.03cm}{\it Ω}\hspace{0.05cm}x}$ zu setzen ist:
+
$\text{Example 2:}$&nbsp;
$$C_x({\it \Omega}) = {\rm E}[{\rm e}^{{\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} x}] = \int_{-\infty}^{+\infty} {\rm e}^{{\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} x}\cdot f_{\rm x}(x) \hspace{0.1cm}{\rm d}x.$$
+
*If the PDF has fewer offshoots than the Gaussian distribution,&nbsp; the kurtosis&nbsp; $K < 3$.&nbsp; For example,&nbsp; for the [[Theory_of_Stochastic_Signals/Uniformly_Distributed_Random_Variables|&raquo;uniform distribution&laquo;]]:&nbsp; $K = 1.8$&nbsp; &rArr; &nbsp; $\gamma = - 1.2$.
 +
 +
*In contrast,&nbsp; $K > 3$&nbsp; indicates that the offshoots are more pronounced than for the Gaussian distribution.&nbsp;For example,&nbsp; for the&nbsp; [[Theory_of_Stochastic_Signals/Exponentially_Distributed_Random_Variables#One-sided_exponential_distribution|&raquo;exponential distribution&laquo;]]:&nbsp;&nbsp; $K = 9$.
 +
   
 +
*The&nbsp; [[Theory_of_Stochastic_Signals/Exponentially_Distributed_Random_Variables#Two-sided_exponential_distribution_-_Laplace_distribution|&raquo;Laplace distribution&laquo;]]&nbsp; ⇒ &nbsp; &raquo;two-sided exponential distribution&laquo;&nbsp; results in a slightly smaller kurtosis&nbsp; $K = 6$ &nbsp; &rArr; excess &nbsp; $\gamma = 3$.}}
  
Ein Vergleich mit dem Kapitel [[Signaldarstellung/Fouriertransformation_und_-rücktransformation|Fouriertransformation und -rücktransformation]]  im Buch &bdquo;Signaldarstellung&rdquo; zeigt, dass die charakteristische Funktion als die Fourierrücktransformierte der Wahrscheinlichkeitsdichtefunktion interpretiert werden kann:
+
==Moment calculation as time average==
$$C_x ({\it \Omega}) \hspace{0.3cm}  \circ \!\!-\!\!\!-\!\!\!-\!\! \bullet  \hspace{0.3cm} f_{\rm x}(x).$$
+
<br>
 +
The expected value calculation according to the previous equations of this section corresponds to a&nbsp; &raquo;'''ensemble averaging'''&laquo;,&nbsp; that is,&nbsp; averaging over all possible values&nbsp; $x_\mu$.  
  
Ist die Zufallsgröße $x$ dimensionslos, so ist auch das Argument $\it Ω$ der charakteristischen Funktion ohne Einheit.  
+
However,&nbsp; the moments&nbsp; $m_k$&nbsp; can also be determined as&nbsp; &raquo;'''time averages'''&laquo;&nbsp; if the stochastic process generating the random variable is stationary and ergodic:
*Das Symbol $\it Ω$ wurde gewählt, da das Argument hier einen gewissen Bezug zur Kreisfrequenz beim zweiten Fourierintegral aufweist (gegenüber der Darstellung im $f$-Bereich fehlt allerdings der Faktor $2\pi$ im Exponenten).
+
#The exact definition for such a stationary and ergodic random process can be found in&nbsp; [[Theory_of_Stochastic_Signals/Auto-Correlation_Function#Random_processes|$\text{Chapter 4.4}$]].
*Es wird aber nochmals eindringlich darauf hingewiesen, dass – wenn man einen Bezug zur Systemtheorie herstellen will – $C_x(\it Ω)$ der „Zeitfunktion” und $f_{\rm x}(x)$ der „Spektralfunktion” entspricht.
+
#In the following&nbsp; &raquo;time-averaging&laquo;&nbsp; is always denoted by a sweeping line.
 +
#For discrete time,&nbsp; the random signal&nbsp; $x(t)$&nbsp; is replaced by the random sequence&nbsp; $〈x_ν〉$.
 +
#For finite sequence length,&nbsp; these time averages are with&nbsp; $ν = 1, 2,\hspace{0.05cm}\text{...}\hspace{0.05cm} , N$:
 +
::$$m_k=\overline{x_{\nu}^{k}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{k},$$
 +
::$$m_1=\overline{x_{\nu}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu},$$
 +
::$$m_2=\overline{x_{\nu}^{2}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{2}.$$
  
 +
If the moments&nbsp; $($or expected values$)$&nbsp; are to be determined by simulation,&nbsp; in practice this is usually done by time averaging.&nbsp; The corresponding computational algorithm differs only mariginally for value-discrete and value-continuous random variables.
  
Entwickelt man die komplexe Funktion ${\rm e}^{\hspace{0.03cm}{\rm j} \hspace{0.03cm}{\it Ω}\hspace{0.05cm}x}$  in eine Potenzreihe und vertauscht Summation und Erwartungswertbildung, so folgt die Reihendarstellung der charakteristischen Funktion:
+
&rArr; &nbsp; The topic of this chapter is illustrated with examples in the&nbsp; (German language)&nbsp; learning video<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;  [[Momentenberechnung_bei_diskreten_Zufallsgrößen_(Lernvideo)|&raquo;Momentenberechnung bei diskreten Zufallsgrößen&raquo;]] &nbsp; $\Rightarrow$ &nbsp; &raquo;Moment calculation for discrete random variables&laquo;.
$$C_x ( {\it \Omega}) = 1 + \sum_{k=1}^{\infty}\hspace{0.2cm}\frac{m_k}{k!} \cdot ({\rm j} \hspace{0.01cm}{\it \Omega})^k .$$
 
Die [[Aufgaben:3.4_Charakteristische_Funktion|Aufgabe 3.4]] zeigt weitere Eigenschaften der charakteristischen Funktion auf.  
 
  
{{Beispiel}}
 
Bei einer symmetrischen binären (zweipunktverteilten) Zufallsgröße $x ∈$ {–1, +1} mit den Wahrscheinlichkeiten Pr(–1) = Pr(+1) = 1/2 verläuft die charakteristische Funktion cosinusförmig. Das Analogon in der Systemtheorie ist, dass das Spektrum eines Cosinussignals mit der Kreisfrequenz $Ω_0$ aus zwei Diracfunktionen bei $±Ω_0$ besteht.
 
  
Eine Gleichverteilung zwischen $±y_0$ besitzt nach den Gesetzen der Fouriertransformation – Näheres im Buch [[Signaldarstellung]], Kapitel 3.1 – die folgende charakteristische Funktion:  
+
 
$$\begin{align*} C_y({\it \Omega}) = \frac{1}{2 y_0} \cdot \int_{-y_0}^{+y_0} {\rm e}^{{\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} y} \,{\rm d}y &= \frac{ {\rm e}^{ {\rm j} \hspace{0.05cm} y_0 \hspace{0.05cm}{\it \Omega} } - {\rm e}^{-{\rm j} \hspace{0.05cm} y_0 \hspace{0.05cm} {\it \Omega} } }{2 {\rm j} \cdot y_0 \cdot {\it \Omega} } = \frac{ {\rm sin}(y_0 \cdot {\it \Omega})}{ y_0 \cdot {\it \Omega} } = {\rm si}(y_0 \cdot {\it \Omega}). \end{align*}$$
+
==Characteristic function==
Die Funktion si( $x) = \sin(x)/x$ kennen wir bereits aus dem Buch [[Signaldarstellung]]. Sie ist auch unter dem Namen ''Spaltfunktion'' bekannt.  
+
<br>
{{end}}
+
{{BlaueBox|TEXT=
 +
$\text{Definition:}$&nbsp; Another special case of an expected value is the&nbsp; &raquo;'''characteristic function'''&laquo;,&nbsp; where  for the valuation function is to be set&nbsp; $g(x) = {\rm e}^{\hspace{0.03cm}{\rm j} \hspace{0.03cm}{\it Ω}\hspace{0.05cm}x}$:
 +
:$$C_x({\it \Omega}) = {\rm E}\big[{\rm e}^{ {\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} x}\big] = \int_{-\infty}^{+\infty} {\rm e}^{ {\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} x}\cdot f_{\rm x}(x) \hspace{0.1cm}{\rm d}x.$$
 +
 
 +
* A comparison with the chapter&nbsp; [[Signal_Representation/Fourier_Transform_and_its_Inverse|&raquo;Fourier Transform and Inverse Fourier Transform&laquo;]]&nbsp; in the book&nbsp;  &raquo;Signal Representation&laquo;&nbsp; shows that the characteristic function can be interpreted as the&nbsp; &raquo;inverse Fourier transform of the probability density function&laquo;:
 +
:$$C_x ({\it \Omega}) \hspace{0.3cm}  \circ\!\!-\!\!\!-\!\!\!-\!\!\bullet \hspace{0.3cm} f_{x}(x).$$}}
 +
 
 +
 
 +
If the random variable&nbsp; $x$&nbsp; is dimensionless,&nbsp; then the argument&nbsp; $\it Ω$&nbsp; of the characteristic function is also without unit.
 +
#The symbol&nbsp; $\it Ω$&nbsp; was chosen because the argument here has some relation to the angular frequency in the second Fourier integral&nbsp; <br>$($compared to the representation in the&nbsp; $f$&ndash;domain,&nbsp; however,&nbsp; the factor&nbsp; $2\pi$&nbsp; is missing in the exponent$)$.
 +
#But it is again insistently pointed out that&nbsp;  $C_x({\it Ω})$&nbsp; would correspond to the&nbsp; &raquo;time function&laquo;&nbsp; and&nbsp; $f_{x}(x)$&nbsp; to the&nbsp; &raquo;spectral function&laquo;, if one wants to establish a relation to systems theory.  
 +
 
 +
 
 +
{{BlaueBox|TEXT=  
 +
$\text{Calculation possibility:}$&nbsp;
 +
 
 +
*Developing the complex function&nbsp; ${\rm e}^{\hspace{0.03cm}{\rm j} \hspace{0.03cm}{\it Ω}\hspace{0.05cm}x }$&nbsp; into a&nbsp; &raquo;power series&raquo;&nbsp; and interchanges expectation value formation and summation,&nbsp; the series representation of the characteristic function follows:  
 +
::$$C_x ( {\it \Omega}) = 1 + \sum_{k=1}^{\infty}\hspace{0.2cm}\frac{m_k}{k!} \cdot ({\rm j} \hspace{0.01cm}{\it \Omega})^k .$$
 +
*More properties of the characteristic function can be found in&nbsp; [[Aufgaben:Exercise_3.4:_Characteristic_Function|$\text{Exercise 3.4}$]]. }}
 +
 
 +
 
 +
{{GraueBox|TEXT=
 +
$\text{Example 3:}$&nbsp; For a symmetric binary&nbsp; $($two&ndash;point distributed$)$&nbsp; random variable&nbsp; $x ∈ \{\pm1\}$&nbsp; with probabilities&nbsp;
 +
:$${\rm Pr}(-1) = {\rm Pr}(+1) = 1/2$$
 +
the characteristic function is cosine.&nbsp; The analogue in systems theory is that the spectrum of a cosine signal with angular frequency&nbsp; ${\it Ω}_{\hspace{0.03cm}0}$&nbsp; consists of two Dirac delta functions at&nbsp; $±{\it Ω}_{\hspace{0.03cm}0}$. }}
 +
 
 +
 
 +
{{GraueBox|TEXT= 
 +
$\text{Example 4:}$&nbsp; A uniform distribution between&nbsp; $±y_0$&nbsp; has the following characteristic function according to the&nbsp; [[Signal_Representation/Fourier_Transform_Theorems|&raquo;Fourier transform laws&laquo;]]:
 +
:$$C_y({\it \Omega}) = \frac{1}{2 y_0} \cdot \int_{-y_0}^{+y_0} {\rm e}^{ {\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} y} \,{\rm d}y = \frac{ {\rm e}^{ {\rm j} \hspace{0.05cm} y_0 \hspace{0.05cm}{\it \Omega} } - {\rm e}^{ - {\rm j} \hspace{0.05cm} y_0 \hspace{0.05cm} {\it \Omega} } }{2 {\rm j} \cdot y_0 \cdot {\it \Omega} } = \frac{ {\rm sin}(y_0 \cdot {\it \Omega})}{ y_0 \cdot {\it \Omega} } = {\rm si}(y_0 \cdot {\it \Omega}).  
 +
$$
 +
We already know the function&nbsp; ${\rm si}(x) = \sin(x)/x = {\rm sinc}(x/\pi) $&nbsp; from the book&nbsp; [[Signal_Representation/Special_Cases_of_Pulses#Rectangular_pulse|&raquo;Signal Representation&laquo;]].}}
 +
 
 +
==Exercises for the chapter==
 +
<br>
 +
[[Aufgaben:Exercise_3.3:_Moments_for_Cosine-square_PDF|Exercise 3.3: Moments for Cosine-square PDF]]
 +
 
 +
[[Aufgaben:Exercise_3.3Z:_Moments_for_Triangular_PDF|Exercise 3.3Z: Moments for Triangular PDF]]
 +
 
 +
[[Aufgaben:Exercise_3.4:_Characteristic_Function|Exercise 3.4: Characteristic Function]]
 +
 
  
 
{{Display}}
 
{{Display}}

Latest revision as of 18:37, 19 February 2024

Moment calculation as ensemble average


The probability density function  $\rm (PDF)$,  like the cumulative distribution function  $\rm (CDF)$,  provides very extensive information about the random variable under consideration.  Less,  but more compact information is provided by the so-called  »expected values«  and  »moments«.

  • Now these integrative descriptive quantities  »expected value«  and  »moment«  are considered in the context of the probability density function  $\rm (PDF)$  of value-continuous random variables and thus formulated more generally.


$\text{Definitions:}$ 

  • The  »expected value«  with respect to any weighting function  $g(x)$  can be calculated with the PDF $f_{\rm x}(x)$  in the following way:
$${\rm E}\big[g (x ) \big] = \int_{-\infty}^{+\infty} g(x)\cdot f_{x}(x) \,{\rm d}x.$$
  • Substituting into this equation for  $g(x) = x^k$  we get the  »moment of $k$-th order«:
$$m_k = {\rm E}\big[x^k \big] = \int_{-\infty}^{+\infty} x^k\cdot f_{x} (x ) \, {\rm d}x.$$


From this equation follows.

  • with  $k = 1$  for the  »first order moment«   ⇒   »$($linear$)$  mean«:
$$m_1 = {\rm E}\big[x \big] = \int_{-\infty}^{ \rm +\infty} x\cdot f_{x} (x ) \,{\rm d}x,$$
  • with  $k = 2$  for the  »second order moment«:
$$m_2 = {\rm E}\big[x^{\rm 2} \big] = \int_{-\infty}^{ \rm +\infty} x^{ 2}\cdot f_{ x} (x) \,{\rm d}x.$$

For a  $M$–level random variable,  the formulas given here again yield the equations already given in the second chapter  $($»Calculation as an ensemble average«$)$:

$$m_1 = \sum\limits_{\mu=1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu,$$
$$m_2 = \sum\limits_{\mu= 1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu^2.$$

Here it is taken into account that the integral over the Dirac delta function  $δ(x)$  is equal to  $1$.  In relation to signals,  the following terms are also common:

  • $m_1$  indicates the  »DC component«.
  • $m_2$  corresponds to the  »signal power«  $($referred to the unit resistance  $1 \ Ω)$.


For example,  if  $x$  denotes a voltage, then according to these equations  $m_1$  has the unit  "${\rm V}$"  and  $m_2$  the unit  "${\rm V}^2$".  If one wants to indicate the power in  »Watt«  $\rm (W)$,  then  $m_2$  must still be divided by the resistance value  $R$.


Central moments


$\text{Definition:}$  Especially important in statistics are the  »central moments«,  which in contrast to the conventional moments are each related to the mean  $m_1$:

$$\mu_k = {\rm E}\big[(x-m_{\rm 1})^k\big] = \int_{-\infty}^{+\infty} (x-m_{\rm 1})^k\cdot f_x(x) \,\rm d \it x.$$


The non–centered moments  $m_k$  can be directly converted to the centered moments  $\mu_k$:

$$\mu_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c} } k \\ \kappa \\ \end{array} \right)\cdot m_\kappa \cdot (-m_1)^{k-\kappa}.$$
  • According to the general equations of the  »last section«  the formal quantities  $m_0 = 1$  and  $\mu_0 = 1$  result.
  • For the first order central moment,  according to the above definition always holds:   $\mu_1 = 0$.


In the opposite direction,  the following equations hold for  $k = 1$,  $k = 2$,  and so on:

$$m_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \\ \kappa \\ \end{array} \right)\cdot \mu_\kappa \cdot {m_1}^{k-\kappa}.$$

$\text{Example 1:}$  All moments of a binary random variable with probabilities  ${\rm Pr}(0) = 1 - p$   and  ${\rm Pr}(1) = p$  are of equal value:

$$m_1 = m_2 = m_3 = m_4 = \hspace{0.05cm}\text{...} \hspace{0.05cm}= p.$$

Using the above equations,  we then obtain for the first three central moments:

$$\mu_2 = m_2 - m_1^2 = p -p^2, $$
$$\mu_3 = m_3 - 3 \cdot m_2 \cdot m_1 + 2 \cdot m_1^3 = p - 3 \cdot p^2 + 2 \cdot p^3, $$
$$ \mu_4 = m_4 - 4 \cdot m_3 \cdot m_1 + 6 \cdot m_2 \cdot m_1^2 - 3 \cdot m_1^4 = p - 4 \cdot p^2 + 6 \cdot p^3- 3 \cdot p^4. $$

Some common central moments


From the  »last definition«  the following additional characteristics can be derived:

$\text{Definition:}$  The  »variance«  $σ^2$  of the considered random variable is the second order central moment   ⇒   $\mu_2.$

  1. The variance  $σ^2$  corresponds physically to the  »alternating current power«  and  $σ$  gives the  standard deviation.
  2. From the first and the second moment,  the variance can be calculated according to  »Steiner's theorem«  in the following way:
$$\sigma^{2} = m_2 - m_1^{2}.$$


$\text{Definition:}$  The  »Charlier's skewness«  $S$  denotes the third central moment related to  $σ^3$.

  1. For symmetrical probability density function,  this parameter is always  $S=0$.
  2. The larger  $S = \mu_3/σ^3$,  the more asymmetrical is the PDF around the mean  $m_1$.
  3. For example,  for the  »exponential distribution«  the  $($positive$)$  skewness  $S =2$,  and this is independent of the distribution parameter  $λ$.
  4. For positive skewness  $(S > 0)$  one speaks of a  »right–skewed«  or of a  »left–sloping distribution«;  this slopes flatter on the right side than on the left.
  5. When the skewness  $S < 0$  there is a  »left–skewed«  or a  »right–steep distribution«;  such a distribution falls flatter on the left side than on the right.


$\text{Definition:}$  The fourth-order central moment is also used for statistical analysis;  The quotient  $K = \mu_4/σ^4$ is called  »kurtosis«.

  1. For a »Gaussian distributed random variable«  this always yields the value  $K = 3$.
  2. Using also the so-called  »excess«  $\gamma = K - 3$,  also known under the term  »overkurtosis«.
  3. This parameter can be used,  for example,  to check whether a random variable at hand is approximately Gaussian   ⇒   excess  $\gamma \approx 0$.


$\text{Example 2:}$ 

  • If the PDF has fewer offshoots than the Gaussian distribution,  the kurtosis  $K < 3$.  For example,  for the »uniform distribution«:  $K = 1.8$  ⇒   $\gamma = - 1.2$.
  • In contrast,  $K > 3$  indicates that the offshoots are more pronounced than for the Gaussian distribution. For example,  for the  »exponential distribution«:   $K = 9$.
  • The  »Laplace distribution«  ⇒   »two-sided exponential distribution«  results in a slightly smaller kurtosis  $K = 6$   ⇒ excess   $\gamma = 3$.

Moment calculation as time average


The expected value calculation according to the previous equations of this section corresponds to a  »ensemble averaging«,  that is,  averaging over all possible values  $x_\mu$.

However,  the moments  $m_k$  can also be determined as  »time averages«  if the stochastic process generating the random variable is stationary and ergodic:

  1. The exact definition for such a stationary and ergodic random process can be found in  $\text{Chapter 4.4}$.
  2. In the following  »time-averaging«  is always denoted by a sweeping line.
  3. For discrete time,  the random signal  $x(t)$  is replaced by the random sequence  $〈x_ν〉$.
  4. For finite sequence length,  these time averages are with  $ν = 1, 2,\hspace{0.05cm}\text{...}\hspace{0.05cm} , N$:
$$m_k=\overline{x_{\nu}^{k}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{k},$$
$$m_1=\overline{x_{\nu}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu},$$
$$m_2=\overline{x_{\nu}^{2}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{2}.$$

If the moments  $($or expected values$)$  are to be determined by simulation,  in practice this is usually done by time averaging.  The corresponding computational algorithm differs only mariginally for value-discrete and value-continuous random variables.

⇒   The topic of this chapter is illustrated with examples in the  (German language)  learning video
            »Momentenberechnung bei diskreten Zufallsgrößen»   $\Rightarrow$   »Moment calculation for discrete random variables«.


Characteristic function


$\text{Definition:}$  Another special case of an expected value is the  »characteristic function«,  where for the valuation function is to be set  $g(x) = {\rm e}^{\hspace{0.03cm}{\rm j} \hspace{0.03cm}{\it Ω}\hspace{0.05cm}x}$:

$$C_x({\it \Omega}) = {\rm E}\big[{\rm e}^{ {\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} x}\big] = \int_{-\infty}^{+\infty} {\rm e}^{ {\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} x}\cdot f_{\rm x}(x) \hspace{0.1cm}{\rm d}x.$$
  • A comparison with the chapter  »Fourier Transform and Inverse Fourier Transform«  in the book  »Signal Representation«  shows that the characteristic function can be interpreted as the  »inverse Fourier transform of the probability density function«:
$$C_x ({\it \Omega}) \hspace{0.3cm} \circ\!\!-\!\!\!-\!\!\!-\!\!\bullet \hspace{0.3cm} f_{x}(x).$$


If the random variable  $x$  is dimensionless,  then the argument  $\it Ω$  of the characteristic function is also without unit.

  1. The symbol  $\it Ω$  was chosen because the argument here has some relation to the angular frequency in the second Fourier integral 
    $($compared to the representation in the  $f$–domain,  however,  the factor  $2\pi$  is missing in the exponent$)$.
  2. But it is again insistently pointed out that  $C_x({\it Ω})$  would correspond to the  »time function«  and  $f_{x}(x)$  to the  »spectral function«, if one wants to establish a relation to systems theory.


$\text{Calculation possibility:}$ 

  • Developing the complex function  ${\rm e}^{\hspace{0.03cm}{\rm j} \hspace{0.03cm}{\it Ω}\hspace{0.05cm}x }$  into a  »power series»  and interchanges expectation value formation and summation,  the series representation of the characteristic function follows:
$$C_x ( {\it \Omega}) = 1 + \sum_{k=1}^{\infty}\hspace{0.2cm}\frac{m_k}{k!} \cdot ({\rm j} \hspace{0.01cm}{\it \Omega})^k .$$


$\text{Example 3:}$  For a symmetric binary  $($two–point distributed$)$  random variable  $x ∈ \{\pm1\}$  with probabilities 

$${\rm Pr}(-1) = {\rm Pr}(+1) = 1/2$$

the characteristic function is cosine.  The analogue in systems theory is that the spectrum of a cosine signal with angular frequency  ${\it Ω}_{\hspace{0.03cm}0}$  consists of two Dirac delta functions at  $±{\it Ω}_{\hspace{0.03cm}0}$.


$\text{Example 4:}$  A uniform distribution between  $±y_0$  has the following characteristic function according to the  »Fourier transform laws«:

$$C_y({\it \Omega}) = \frac{1}{2 y_0} \cdot \int_{-y_0}^{+y_0} {\rm e}^{ {\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} y} \,{\rm d}y = \frac{ {\rm e}^{ {\rm j} \hspace{0.05cm} y_0 \hspace{0.05cm}{\it \Omega} } - {\rm e}^{ - {\rm j} \hspace{0.05cm} y_0 \hspace{0.05cm} {\it \Omega} } }{2 {\rm j} \cdot y_0 \cdot {\it \Omega} } = \frac{ {\rm sin}(y_0 \cdot {\it \Omega})}{ y_0 \cdot {\it \Omega} } = {\rm si}(y_0 \cdot {\it \Omega}). $$

We already know the function  ${\rm si}(x) = \sin(x)/x = {\rm sinc}(x/\pi) $  from the book  »Signal Representation«.

Exercises for the chapter


Exercise 3.3: Moments for Cosine-square PDF

Exercise 3.3Z: Moments for Triangular PDF

Exercise 3.4: Characteristic Function