Difference between revisions of "Theory of Stochastic Signals/Expected Values and Moments"

From LNTwww
m (Text replacement - "”" to """)
Line 1: Line 1:
 
   
 
   
 
{{Header
 
{{Header
|Untermenü=Kontinuierliche Zufallsgrößen
+
|Untermenü=Continuous Random Variables
|Vorherige Seite=Verteilungsfunktion (VTF)
+
|Vorherige Seite=Cumulative Distribution Function
|Nächste Seite=Gleichverteilte Zufallsgröße
+
|Nächste Seite=Uniformly Distributed Random Variables
 
}}
 
}}
==Momentenberechnung als Scharmittelwert==
+
==Moment calculation as ensemble average==
 
<br>
 
<br>
Die Wahrscheinlichkeitsdichtefunktion (WDF) bietet ebenso wie die Verteilungsfunktion (VTF) sehr weitreichende Informationen über die betrachtete Zufallsgröße.&nbsp; Weniger, aber dafür kompaktere  Informationen liefern die so genannten&nbsp; ''Erwartungswerte''&nbsp; und&nbsp; ''Momente.''  
+
The probability density function (PDF), like the distribution function (CDF), provides very extensive information about the random variable under consideration.&nbsp; Less, but more compact information is provided by the so-called&nbsp; ''expected values''&nbsp; and&nbsp; ''moments.''  
  
*Deren Berechnungsmöglichkeiten wurden für diskrete Zufallsgrößen  bereits im Kapitel&nbsp; [[Theory_of_Stochastic_Signals/Momente_einer_diskreten_Zufallsgröße|Momente einer diskreten Zufallsgröße]]&nbsp; angegeben.  
+
*Their calculation possibilities have already been given for discrete random variables in the chapter&nbsp; [[Theory_of_Stochastic_Signals/Moments_of_a_Discrete_Random_Variable|moments of a discrete random variable]]&nbsp;.  
*Nun werden diese integrativen Beschreibungsgrößen "Erwartungswert" und "Moment" im Zusammenhang mit der Wahrscheinlichkeitsdichtefunktion (WDF) kontinuierlicher Zufallsgrößen betrachtet und dadurch allgemeiner formuliert.
+
*Now these integrative descriptive quantities "expected value" and "moment" are considered in the context of the probability density function (PDF) of continuous random variables and thus formulated more generally.
  
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Der&nbsp; '''Erwartungswert'''&nbsp; bezüglich einer beliebigen Gewichtungsfunktion $g(x)$ kann mit der WDF&nbsp; $f_{\rm x}(x)$&nbsp; in folgender Weise berechnet werden:
+
$\text{Definition:}$&nbsp; The&nbsp; '''expected value'''&nbsp; with respect to any weighting function $g(x)$ can be calculated with the PDF&nbsp; $f_{\rm x}(x)$&nbsp; in the following way:
 
:$${\rm E}\big[g (x ) \big] = \int_{-\infty}^{+\infty} g(x)\cdot f_{x}(x) \,{\rm d}x.$$
 
:$${\rm E}\big[g (x ) \big] = \int_{-\infty}^{+\infty} g(x)\cdot f_{x}(x) \,{\rm d}x.$$
Setzt man in diese Gleichung für&nbsp; $g(x) = x^k$&nbsp; ein, so erhält man das&nbsp; '''Moment $k$-ter Ordnung''':  
+
Substituting into this equation for&nbsp; $g(x) = x^k$&nbsp; we get the&nbsp; '''moment of $k$-th order''':  
:$$m_k = {\rm E}\big[x^k \big] = \int_{-\infty}^{+\infty} x^k\cdot f_{x} (x ) \, {\rm d}x.$$}}
+
:$$m_k = {\rm E}\big[x^k \big] = \int_{-\infty}^{+\infty} x^k\cdot f_{x} (x ) \, {\rm d}x.$$}}
  
  
Aus dieser Gleichung folgt
+
From this equation follows.
*mit&nbsp; $k = 1$&nbsp; für den&nbsp; ''linearen Mittelwert'':
+
*with&nbsp; $k = 1$&nbsp; for the&nbsp; ''linear mean'':
 
:$$m_1 = {\rm E}\big[x \big] = \int_{-\infty}^{ \rm +\infty} x\cdot f_{x} (x ) \,{\rm d}x,$$
 
:$$m_1 = {\rm E}\big[x \big] = \int_{-\infty}^{ \rm +\infty} x\cdot f_{x} (x ) \,{\rm d}x,$$
*mit&nbsp; $k = 2$&nbsp; für den&nbsp; ''quadratischen Mittelwert'':
+
*with&nbsp; $k = 2$&nbsp; for the&nbsp; ''root mean square'':
 
:$$m_2 = {\rm E}\big[x^{\rm 2} \big] = \int_{-\infty}^{ \rm +\infty} x^{ 2}\cdot f_{ x} (x) \,{\rm d}x.$$
 
:$$m_2 = {\rm E}\big[x^{\rm 2} \big] = \int_{-\infty}^{ \rm +\infty} x^{ 2}\cdot f_{ x} (x) \,{\rm d}x.$$
  
Bei einer diskreten, $M$&ndash;stufigen Zufallsgröße erhält man auch mit den hier angegebenen Formeln wieder die bereits im zweiten  Kapitel angegebenen Gleichungen (Berechnung als Scharmittelwert):  
+
For a discrete, $M$&ndash;-level random variable, the formulas given here again yield the equations already given in the second chapter (calculation as a ensemble average):  
 
:$$m_1 = \sum\limits_{\mu=1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu,$$
 
:$$m_1 = \sum\limits_{\mu=1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu,$$
 
:$$m_2 = \sum\limits_{\mu= 1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu^2.$$
 
:$$m_2 = \sum\limits_{\mu= 1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu^2.$$
  
Hierbei ist berücksichtigt, dass das Integral über die Diracfunktion&nbsp; $δ(x)$&nbsp; gleich&nbsp; $1$&nbsp; ist.  
+
Here it is taken into account that the integral over the Dirac function&nbsp; $δ(x)$&nbsp; is equal&nbsp; $1$&nbsp;.  
  
In Zusammenhang mit Signalen sind auch folgende Bezeichnungen üblich:  
+
In connection with signals, the following terms are also common:  
* $m_1$&nbsp; gibt den ''Gleichanteil''&nbsp; an,  
+
* $m_1$&nbsp; indicates the ''DC component''&nbsp;,  
* $m_2$&nbsp; entspricht der&nbsp; (auf den Einheitswiderstand&nbsp; $1 \ Ω$&nbsp; bezogenen)&nbsp; ''Signalleistung''.  
+
* $m_2$&nbsp; corresponds to the&nbsp; (referred to the unit resistance&nbsp; $1 \ Ω$&nbsp;)&nbsp; ''signal power''.  
  
  
Bezeichnet&nbsp; $x$&nbsp; beispielsweise eine Spannung, so hat nach diesen Gleichungen&nbsp;
+
For example, if&nbsp; $x$&nbsp; denotes a voltage, then according to these equations&nbsp;
* $m_1$&nbsp; die Einheit&nbsp; ${\rm V}$&nbsp; und&nbsp;  
+
*$m_1$&nbsp; has the unit&nbsp; ${\rm V}$&nbsp; and&nbsp;  
*$m_2$&nbsp; die Einheit&nbsp; ${\rm V}^2$.&nbsp;  
+
*$m_2$&nbsp; the unit&nbsp; ${\rm V}^2$.&nbsp;  
  
  
Will man die Leistung in „Watt”&nbsp; $\rm (W)$&nbsp; angeben, so muss&nbsp; $m_2$&nbsp; noch durch den Widerstandswert&nbsp; $R$&nbsp; dividiert werden.  
+
If one wants to indicate the power in "Watt"&nbsp; $\rm (W)$&nbsp;, then&nbsp; $m_2$&nbsp; must still be divided by the resistance value&nbsp; $R$&nbsp;.  
  
==Zentralmomente==
+
 
 +
==Central moments==
 
<br>
 
<br>
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Besonders große Bedeutung haben in der Statistik die&nbsp; '''Zentralmomente''', die im Gegensatz zu den herkömmlichen Momenten jeweils auf den Mittelwert&nbsp; $m_1$&nbsp; bezogen sind:  
+
$\text{Definition:}$&nbsp; Especially important in statistics are the&nbsp; '''central moments''', which, in contrast to the conventional moments, are each related to the mean&nbsp; $m_1$&nbsp; :  
  
 
:$$\mu_k = {\rm E}\big[(x-m_{\rm 1})^k\big] = \int_{-\infty}^{+\infty} (x-m_{\rm 1})^k\cdot f_x(x) \,\rm d \it x.$$}}
 
:$$\mu_k = {\rm E}\big[(x-m_{\rm 1})^k\big] = \int_{-\infty}^{+\infty} (x-m_{\rm 1})^k\cdot f_x(x) \,\rm d \it x.$$}}
Line 53: Line 54:
  
  
Die nichtzentrierten Momente&nbsp; $m_k$&nbsp; kann man direkt in die zentrierten Momente&nbsp; $\mu_k$&nbsp; umrechnen:  
+
The noncentered moments&nbsp; $m_k$&nbsp; can be directly converted to the centered moments&nbsp; $\mu_k$&nbsp; :  
:$$\mu_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \\ \kappa \\ \end{array} \right)\cdot m_\kappa \cdot (-m_1)^{k-\kappa}.$$
+
:$$\mu_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \ \kappa \ \end{array} \right)\cdot m_\kappa \cdot (-m_1)^{k-\kappa}.$$
  
Nach den allgemein gültigen Gleichungen der&nbsp; [[Theory_of_Stochastic_Signals/Erwartungswerte_und_Momente#Momentenberechnung_als_Scharmittelwert|letzten Seite]]&nbsp; ergeben sich die formalen Größen&nbsp; $m_0 = 1$&nbsp; und&nbsp; $\mu_0 = 1$. Für das Zentralmoment erster Ordnung gilt nach obiger Definition stets&nbsp; $\mu_1 = 0$.  
+
According to the general equations of&nbsp; [[Theory_of_Stochastic_Signals/Expected_Values_and_Moments#Moment_calculation_as_ensemble_average|last page]]&nbsp; the formal quantities&nbsp; $m_0 = 1$&nbsp; and&nbsp; $\mu_0 = 1$ result. For the first order central moment, according to the above definition, always&nbsp; $\mu_1 = 0$ holds.  
  
In der Gegenrichtung gelten folgende Gleichungen für&nbsp; $k = 1$,&nbsp; $k = 2$,&nbsp; usw.:  
+
In the opposite direction, the following equations hold for&nbsp; $k = 1$,&nbsp; $k = 2$,&nbsp; and so on:  
:$$m_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \\ \kappa \\ \end{array} \right)\cdot \mu_\kappa \cdot {m_1}^{k-\kappa}.$$
+
:$$m_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \ \kappa \ \end{array} \right)\cdot \mu_\kappa \cdot {m_1}^{k-\kappa}.$$
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 1:}$&nbsp; Alle Momente  einer binären Zufallsgröße mit den Wahrscheinlichkeiten&nbsp; ${\rm Pr}(0) = 1 p$&nbsp; &nbsp;und&nbsp; ${\rm Pr}(1) = p$&nbsp; sind gleich groß:  
+
$\text{Example 1:}$&nbsp; All moments of a binary random variable with probabilities&nbsp; ${\rm Pr}(0) = 1 - p$&nbsp; &nbsp;and&nbsp; ${\rm Pr}(1) = p$&nbsp; are of equal value:  
 
:$$m_1 = m_2 = m_3 = m_4 = \hspace{0.05cm}\text{...} \hspace{0.05cm}= p.$$
 
:$$m_1 = m_2 = m_3 = m_4 = \hspace{0.05cm}\text{...} \hspace{0.05cm}= p.$$
Mit obigen Gleichungen erhält man dann für die ersten drei Zentralmomente:
+
Using the above equations, we then obtain for the first three central moments:
 
:$$\mu_2 = m_2 - m_1^2 = p -p^2, $$
 
:$$\mu_2 = m_2 - m_1^2 = p -p^2, $$
:$$\mu_3 = m_3 - 3 \cdot m_2 \cdot m_1 + 2 \cdot m_1^3 = p - 3 \cdot p^2 + 2 \cdot p^3, $$
+
:$$\mu_3 = m_3 - 3 \cdot m_2 \cdot m_1 + 2 \cdot m_1^3 = p - 3 \cdot p^2 + 2 \cdot p^3, $$
:$$ \mu_4 = m_4 - 4 \cdot m_3 \cdot m_1 + 6 \cdot m_2 \cdot m_1^2 - 3 \cdot m_1^4 = p - 4 \cdot p^2 + 6 \cdot p^3- 3 \cdot p^4. $$}}
+
:$$ \mu_4 = m_4 - 4 \cdot m_3 \cdot m_1 + 6 \cdot m_2 \cdot m_1^2 - 3 \cdot m_1^4 = p - 4 \cdot p^2 + 6 \cdot p^3- 3 \cdot p^4. $$}}
  
 
==Some common central moments==
 
==Some common central moments==
 
<br>
 
<br>
Aus der&nbsp; [[Theory_of_Stochastic_Signals/Erwartungswerte_und_Momente#Zentralmomente|letzten Definition]]&nbsp; können folgende weitere Kenngrößen abgeleitet werden:  
+
From the&nbsp; [[Theory_of_Stochastic_Signals/Expected_Values_and_Moments#Central_moments|last definition]]&nbsp; the following additional characteristics can be derived:  
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Die&nbsp; '''Varianz'''&nbsp; $σ^2$&nbsp; der betrachteten Zufallsgröße ist das Zentralmoment zweiter Ordnung &nbsp; &rArr; &nbsp; $\mu_2.$  
+
$\text{Definition:}$&nbsp; The&nbsp; '''variance'''&nbsp; $σ^2$&nbsp; of the considered random variable is the second order central moment &nbsp; &rArr; &nbsp; $\mu_2.$  
*Die Varianz&nbsp; $σ^2$&nbsp; entspricht physikalisch der ''Wechselleistung''&nbsp; und die Streuung&nbsp; $σ$&nbsp; gibt den ''Effektivwert''&nbsp; an.  
+
*The variance&nbsp; $σ^2$&nbsp; physically corresponds to the ''alternating power''&nbsp; and the dispersion&nbsp; $σ$&nbsp; gives the ''rms value''&nbsp; .  
*Aus dem linearen und dem quadratischen Mittelwert ist die Varianz nach dem ''Satz von Steiner''&nbsp; in folgender Weise berechenbar:  
+
*From the linear and the quadratic mean, the variance can be calculated according to Steiner's ''theorem''&nbsp; in the following way:  
 
:$$\sigma^{2} = m_2 - m_1^{2}.$$}}
 
:$$\sigma^{2} = m_2 - m_1^{2}.$$}}
  
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Die&nbsp; '''Charliersche Schiefe'''&nbsp; $S$ bezeichnet das auf&nbsp; $σ^3$&nbsp; bezogene dritte Zentralmoment.  
+
$\text{Definition:}$&nbsp; The&nbsp; '''Charlier's skewness''''&nbsp; $S$ denotes the third central moment related to&nbsp; $σ^3$&nbsp; .  
*Bei symmetrischer Dichtefunktion ist diese Kenngröße immer&nbsp; $S=0$.  
+
*For symmetric density function, this parameter is always&nbsp; $S=0$.  
*Je größer&nbsp; $S = \mu_3/σ^3$&nbsp; ist, um so unsymmetrischer verläuft die WDF um den Mittelwert&nbsp; $m_1$.  
+
*The larger&nbsp; $S = \mu_3/σ^3$&nbsp; is, the more asymmetric is the WDF around the mean&nbsp; $m_1$.  
*Beispielsweise ergibt sich für die&nbsp; [[Theory_of_Stochastic_Signals/Exponentialverteilte_Zufallsgrößen#Einseitige_Exponentialverteilung|Exponentialverteilung]]&nbsp; die (positive) Schiefe $S =2$, und zwar unabhängig vom Verteilungsparameter&nbsp; $λ$.
+
*For example, for the&nbsp; [[Theory_of_Stochastic_Signals/Exponentially_Distributed_Random_Variables#One-sided_exponential_distribution|exponential distribution]]&nbsp; the (positive) skewness $S =2$, and this is independent of the distribution parameter&nbsp; $λ$.
*Bei positiver Schiefe&nbsp; $(S > 0)$&nbsp; spricht man von "einer rechtsschiefen oder linkssteilen Verteilung";&nbsp; diese fällt auf der rechten Seite flacher ab als auf der linken.
+
*For positive skewness&nbsp; $(S > 0)$&nbsp; one speaks of "a right-skewed or left-sloping distribution";&nbsp; this slopes flatter on the right side than on the left.
*Bei negativer Schiefe&nbsp; $(S < 0)$&nbsp; liegt eine "linksschiefe oder rechtssteile Verteilung" vor;&nbsp; eine solche fällt auf der linken Seite flacher ab als auf der rechten.}}
+
*When the skewness is negative&nbsp; $(S < 0)$&nbsp; there is a "left-skewed or right-steep distribution";&nbsp; such a distribution falls flatter on the left side than on the right}}
 
      
 
      
  
{{BlaueBox|TEXT=   
+
{{BlueBox|TEXT=.  
$\text{Definition:}$&nbsp; Auch das Zentralmoment vierter Ordnung wird für  statistische Analysen herangezogen.&nbsp; Als&nbsp; '''Kurtosis'''&nbsp; bezeichnet man den Quotienten&nbsp; $K = \mu_4/σ^4.$
+
$\text{Definition:}$&nbsp; The fourth-order central moment is also used for statistical analyses;&nbsp; The quotient&nbsp; $K = \mu_4/σ^4$ is called&nbsp; '''kurtosis'''&nbsp; .  
*Bei einer&nbsp; [[Theory_of_Stochastic_Signals/Gaußverteilte_Zufallsgröße#Wahrscheinlichkeitsdichte-_und_Verteilungsfunktion|gaußverteilten Zufallsgröße]]&nbsp; ergibt sich hierfür immer der Wert&nbsp; $K = 3$.
+
*For a&nbsp;[[Theory_of_Stochastic_Signals/Gaussian_Distributed_Random_Variables#Probability_density_function_.26_cumulative_density_function|Gaussian distributed random variable]]&nbsp; this always yields the value&nbsp; $K = 3$.
*Verwendet wird auch der sogenannte&nbsp; '''Exzess'''&nbsp; $\gamma = K - 3$&nbsp;,&nbsp; auch bekannt unter dem Begriff "Überkurtosis".  
+
*Using also the so-called&nbsp; '''excess'''&nbsp; $\gamma = K - 3$&nbsp;,&nbsp; also known under the term "overkurtosis".  
*Anhand dieser Kenngröße kann man beispielsweise überprüfen, ob eine vorliegende Zufallsgröße näherungsweise gaußisch ist:&nbsp; $\gamma \approx 0$. }}
+
*This parameter can be used, for example, to check whether a random variable at hand is approximately Gaussian:&nbsp; $\gamma \approx 0$. }}
  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 2:}$&nbsp;  
+
$\text{Example 2:}$&nbsp;  
*Weist die WDF weniger Ausläufer auf als die Gaußverteilung, so ist die Kurtosis&nbsp; $K < 3$.&nbsp; Zum Beispiel ergibt sich für die [[Theory_of_Stochastic_Signals/Gleichverteilte_Zufallsgrößen|Gleichverteilung]]&nbsp; $K = 1.8$&nbsp; &rArr; &nbsp; $\gamma = - 1.2$.  
+
*If the PDF has fewer offshoots than the Gaussian distribution, the kurtosis&nbsp; $K < 3$.&nbsp; For example, for the [[Theory_of_Stochastic_Signals/Uniformly_Distributed_Random_Variables|uniformly distributed]]&nbsp; $K = 1.8$&nbsp; &rArr; &nbsp; $\gamma = - 1.2$.  
*Dagegen weist&nbsp; $K > 3$&nbsp; darauf hin, dass die Ausläufer ausgeprägter sind als bei der Gaußverteilung.&nbsp;Zum Beispiel gilt für die&nbsp; [[Theory_of_Stochastic_Signals/Exponentialverteilte_Zufallsgrößen#Einseitige_Exponentialverteilung|Exponentialverteilung]]&nbsp;&nbsp; $K = 9$.  
+
*In contrast,&nbsp; $K > 3$&nbsp; indicates that the spurs are more pronounced than for the Gaussian distribution.&nbsp;For example, for the&nbsp; [[Theory_of_Stochastic_Signals/Exponentially_Distributed_Random_Variables#One-sided_exponential_distribution|exponential distribution]]&nbsp;&nbsp; $K = 9$.  
*Für die&nbsp; [[Theory_of_Stochastic_Signals/Exponentialverteilte_Zufallsgrößen#Zweiseitige_Exponentialverteilung_.E2.80.93_Laplaceverteilung|Laplaceverteilung]]&nbsp;   ⇒ &nbsp; zweiseitige Exponentialverteilung ergibt sich eine etwas kleinere Kurtosis&nbsp; $K = 6$&nbsp; und der Exzess $\gamma = 3$.}}
+
*For the&nbsp; [[Theory_of_Stochastic_Signals/Exponentially_Distributed_Random_Variables#Two-sided_exponential_distribution_-_Laplace_distribution|Laplace distribution]]&nbsp; ⇒ &nbsp; two-sided exponential distribution results in a slightly smaller kurtosis&nbsp; $K = 6$&nbsp; and the excess $\gamma = 3$.}}
  
==Momentenberechnung als Zeitmittelwert==
+
==Moment calculation as time average==
 
<br>
 
<br>
Die Erwartungswertberechnung nach den bisherigen Gleichungen dieses Abschnitts entspricht einer&nbsp; ''Scharmittelung,'' das heißt der Mittelung über alle möglichen Werte&nbsp; $x_\mu$.  
+
The expected value calculation according to the previous equations of this section corresponds to a&nbsp; ''ensemble averaging,'' that is, averaging over all possible values&nbsp; $x_\mu$.  
  
Die Momente&nbsp; $m_k$&nbsp; können aber auch als&nbsp; '''Zeitmittelwerte'''&nbsp; bestimmt werden, wenn der die Zufallsgröße erzeugende stochastische Prozess stationär und ergodisch ist:  
+
However, the moments&nbsp; $m_k$&nbsp; can also be determined as&nbsp; '''time averages'''&nbsp; if the stochastic process generating the random variable is stationary and ergodic:  
*Die genaue Definition für einen solchen stationären und ergodischen Zufallsprozess finden Sie im&nbsp; [[Theory_of_Stochastic_Signals/Autokorrelationsfunktion_(AKF)#Zufallsprozesse_.281.29|Kapitel 4.4]].   
+
*The exact definition for such a stationary and ergodic random process can be found in&nbsp; [[Theory_of_Stochastic_Signals/Auto-Correlation_Function_(ACF)#Zufallsprozesse|Chapter 4.4]].   
*Eine Zeitmittelung wird im Folgenden stets durch eine überstreichende Linie gekennzeichnet.  
+
*A time-averaging is always denoted by a sweeping line in the following.  
*Bei zeitdiskreter Betrachtung wird das Zufallssignal&nbsp; $x(t)$&nbsp; durch die Zufallsfolge&nbsp; $〈x_ν〉$&nbsp; ersetzt.  
+
*For discrete time, the random signal&nbsp; $x(t)$&nbsp; is replaced by the random sequence&nbsp; $〈x_ν〉$&nbsp;.  
*Bei endlicher Folgenlänge lauten diese Zeitmittelwerte mit&nbsp; $ν = 1, 2,\hspace{0.05cm}\text{...}\hspace{0.05cm} , N$:
+
*For finite sequence length, these time averages are with&nbsp; $ν = 1, 2,\hspace{0.05cm}\text{...}\hspace{0.05cm} , N$:
 
:$$m_k=\overline{x_{\nu}^{k}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{k},$$
 
:$$m_k=\overline{x_{\nu}^{k}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{k},$$
 
:$$m_1=\overline{x_{\nu}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu},$$
 
:$$m_1=\overline{x_{\nu}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu},$$
 
:$$m_2=\overline{x_{\nu}^{2}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{2}.$$
 
:$$m_2=\overline{x_{\nu}^{2}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{2}.$$
  
Sollen die Momente (oder Erwartungswerte) per Simulation bestimmt werden, so geschieht dies in der Praxis meist durch Zeitmittelung.&nbsp; Der entsprechende Berechnungsalgorithmus unterscheidet sich bei diskreten und kontinuierlichen Zufallsgrößen nur mariginal.  
+
If the moments (or expected values) are to be determined by simulation, in practice this is usually done by time averaging.&nbsp; The corresponding computational algorithm differs only mariginally for discrete and continuous random variables.  
  
Die in diesem Abschnitt behandelte Thematik ist im Lernvideo&nbsp; [[Momentenberechnung_bei_diskreten_Zufallsgrößen_(Lernvideo)|Momentenberechnung bei diskreten Zufallsgrößen]]&nbsp; zusammengefasst.
+
The topic of this chapter is illustrated with examples in the (German language) learning video&nbsp; [[Momentenberechnung_bei_diskreten_Zufallsgrößen_(Lernvideo)|Momentenberechnung bei diskreten Zufallsgrößen]]&nbsp; $\Rightarrow$ Moment calculation for discrete random variables.
  
  

Revision as of 21:51, 26 December 2021

Moment calculation as ensemble average


The probability density function (PDF), like the distribution function (CDF), provides very extensive information about the random variable under consideration.  Less, but more compact information is provided by the so-called  expected values  and  moments.

  • Their calculation possibilities have already been given for discrete random variables in the chapter  moments of a discrete random variable .
  • Now these integrative descriptive quantities "expected value" and "moment" are considered in the context of the probability density function (PDF) of continuous random variables and thus formulated more generally.


$\text{Definition:}$  The  expected value  with respect to any weighting function $g(x)$ can be calculated with the PDF  $f_{\rm x}(x)$  in the following way:

$${\rm E}\big[g (x ) \big] = \int_{-\infty}^{+\infty} g(x)\cdot f_{x}(x) \,{\rm d}x.$$

Substituting into this equation for  $g(x) = x^k$  we get the  moment of $k$-th order:

$$m_k = {\rm E}\big[x^k \big] = \int_{-\infty}^{+\infty} x^k\cdot f_{x} (x ) \, {\rm d}x.$$


From this equation follows.

  • with  $k = 1$  for the  linear mean:
$$m_1 = {\rm E}\big[x \big] = \int_{-\infty}^{ \rm +\infty} x\cdot f_{x} (x ) \,{\rm d}x,$$
  • with  $k = 2$  for the  root mean square:
$$m_2 = {\rm E}\big[x^{\rm 2} \big] = \int_{-\infty}^{ \rm +\infty} x^{ 2}\cdot f_{ x} (x) \,{\rm d}x.$$

For a discrete, $M$–-level random variable, the formulas given here again yield the equations already given in the second chapter (calculation as a ensemble average):

$$m_1 = \sum\limits_{\mu=1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu,$$
$$m_2 = \sum\limits_{\mu= 1}^{ M}\hspace{0.15cm}p_\mu\cdot x_\mu^2.$$

Here it is taken into account that the integral over the Dirac function  $δ(x)$  is equal  $1$ .

In connection with signals, the following terms are also common:

  • $m_1$  indicates the DC component ,
  • $m_2$  corresponds to the  (referred to the unit resistance  $1 \ Ω$ )  signal power.


For example, if  $x$  denotes a voltage, then according to these equations 

  • $m_1$  has the unit  ${\rm V}$  and 
  • $m_2$  the unit  ${\rm V}^2$. 


If one wants to indicate the power in "Watt"  $\rm (W)$ , then  $m_2$  must still be divided by the resistance value  $R$ .


Central moments


$\text{Definition:}$  Especially important in statistics are the  central moments, which, in contrast to the conventional moments, are each related to the mean  $m_1$  :

$$\mu_k = {\rm E}\big[(x-m_{\rm 1})^k\big] = \int_{-\infty}^{+\infty} (x-m_{\rm 1})^k\cdot f_x(x) \,\rm d \it x.$$


The noncentered moments  $m_k$  can be directly converted to the centered moments  $\mu_k$  :

$$\mu_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \ \kappa \ \end{array} \right)\cdot m_\kappa \cdot (-m_1)^{k-\kappa}.$$

According to the general equations of  last page  the formal quantities  $m_0 = 1$  and  $\mu_0 = 1$ result. For the first order central moment, according to the above definition, always  $\mu_1 = 0$ holds.

In the opposite direction, the following equations hold for  $k = 1$,  $k = 2$,  and so on:

$$m_k = \sum\limits_{\kappa= 0}^{k} \left( \begin{array}{*{2}{c}} k \ \kappa \ \end{array} \right)\cdot \mu_\kappa \cdot {m_1}^{k-\kappa}.$$

$\text{Example 1:}$  All moments of a binary random variable with probabilities  ${\rm Pr}(0) = 1 - p$   and  ${\rm Pr}(1) = p$  are of equal value:

$$m_1 = m_2 = m_3 = m_4 = \hspace{0.05cm}\text{...} \hspace{0.05cm}= p.$$

Using the above equations, we then obtain for the first three central moments:

$$\mu_2 = m_2 - m_1^2 = p -p^2, $$
$$\mu_3 = m_3 - 3 \cdot m_2 \cdot m_1 + 2 \cdot m_1^3 = p - 3 \cdot p^2 + 2 \cdot p^3, $$
$$ \mu_4 = m_4 - 4 \cdot m_3 \cdot m_1 + 6 \cdot m_2 \cdot m_1^2 - 3 \cdot m_1^4 = p - 4 \cdot p^2 + 6 \cdot p^3- 3 \cdot p^4. $$

Some common central moments


From the  last definition  the following additional characteristics can be derived:

$\text{Definition:}$  The  variance  $σ^2$  of the considered random variable is the second order central moment   ⇒   $\mu_2.$

  • The variance  $σ^2$  physically corresponds to the alternating power  and the dispersion  $σ$  gives the rms value  .
  • From the linear and the quadratic mean, the variance can be calculated according to Steiner's theorem  in the following way:
$$\sigma^{2} = m_2 - m_1^{2}.$$


$\text{Definition:}$  The  Charlier's skewness'  $S$ denotes the third central moment related to  $σ^3$  .

  • For symmetric density function, this parameter is always  $S=0$.
  • The larger  $S = \mu_3/σ^3$  is, the more asymmetric is the WDF around the mean  $m_1$.
  • For example, for the  exponential distribution  the (positive) skewness $S =2$, and this is independent of the distribution parameter  $λ$.
  • For positive skewness  $(S > 0)$  one speaks of "a right-skewed or left-sloping distribution";  this slopes flatter on the right side than on the left.
  • When the skewness is negative  $(S < 0)$  there is a "left-skewed or right-steep distribution";  such a distribution falls flatter on the left side than on the right


. $\text{Definition:}$  The fourth-order central moment is also used for statistical analyses;  The quotient  $K = \mu_4/σ^4$ is called  kurtosis  .

  • For a Gaussian distributed random variable  this always yields the value  $K = 3$.
  • Using also the so-called  excess  $\gamma = K - 3$ ,  also known under the term "overkurtosis".
  • This parameter can be used, for example, to check whether a random variable at hand is approximately Gaussian:  $\gamma \approx 0$.


$\text{Example 2:}$ 

  • If the PDF has fewer offshoots than the Gaussian distribution, the kurtosis  $K < 3$.  For example, for the uniformly distributed  $K = 1.8$  ⇒   $\gamma = - 1.2$.
  • In contrast,  $K > 3$  indicates that the spurs are more pronounced than for the Gaussian distribution. For example, for the  exponential distribution   $K = 9$.
  • For the  Laplace distribution  ⇒   two-sided exponential distribution results in a slightly smaller kurtosis  $K = 6$  and the excess $\gamma = 3$.

Moment calculation as time average


The expected value calculation according to the previous equations of this section corresponds to a  ensemble averaging, that is, averaging over all possible values  $x_\mu$.

However, the moments  $m_k$  can also be determined as  time averages  if the stochastic process generating the random variable is stationary and ergodic:

  • The exact definition for such a stationary and ergodic random process can be found in  Chapter 4.4.
  • A time-averaging is always denoted by a sweeping line in the following.
  • For discrete time, the random signal  $x(t)$  is replaced by the random sequence  $〈x_ν〉$ .
  • For finite sequence length, these time averages are with  $ν = 1, 2,\hspace{0.05cm}\text{...}\hspace{0.05cm} , N$:
$$m_k=\overline{x_{\nu}^{k}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{k},$$
$$m_1=\overline{x_{\nu}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu},$$
$$m_2=\overline{x_{\nu}^{2}}=\frac{1}{N} \cdot \sum\limits_{\nu=1}^{N}x_{\nu}^{2}.$$

If the moments (or expected values) are to be determined by simulation, in practice this is usually done by time averaging.  The corresponding computational algorithm differs only mariginally for discrete and continuous random variables.

The topic of this chapter is illustrated with examples in the (German language) learning video  Momentenberechnung bei diskreten Zufallsgrößen  $\Rightarrow$ Moment calculation for discrete random variables.


Charakteristische Funktion


$\text{Definition:}$  Ein weiterer Sonderfall eines Erwartungswertes ist die  charakteristische Funktion, wobei hier für die Bewertungsfunktion  $g(x) = {\rm e}^{\hspace{0.03cm}{\rm j} \hspace{0.03cm}{\it Ω}\hspace{0.05cm}x}$  zu setzen ist:

$$C_x({\it \Omega}) = {\rm E}\big[{\rm e}^{ {\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} x}\big] = \int_{-\infty}^{+\infty} {\rm e}^{ {\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} x}\cdot f_{\rm x}(x) \hspace{0.1cm}{\rm d}x.$$

Ein Vergleich mit dem Kapitel  Fouriertransformation und Fourierrücktransformation  im Buch "Signaldarstellung" zeigt, dass die charakteristische Funktion als die Fourierrücktransformierte der Wahrscheinlichkeitsdichtefunktion interpretiert werden kann:

$$C_x ({\it \Omega}) \hspace{0.3cm} \circ \!\!-\!\!\!-\!\!\!-\!\! \bullet \hspace{0.3cm} f_{x}(x).$$


Ist die Zufallsgröße  $x$  dimensionslos, so ist auch das Argument  $\it Ω$  der charakteristischen Funktion ohne Einheit.

  • Das Symbol  $\it Ω$  wurde gewählt, da das Argument hier einen gewissen Bezug zur Kreisfrequenz beim zweiten Fourierintegral aufweist  (gegenüber der Darstellung im  $f$–Bereich fehlt allerdings der Faktor  $2\pi$  im Exponenten).
  • Es wird aber nochmals eindringlich darauf hingewiesen, dass – wenn man einen Bezug zur Systemtheorie herstellen will – $C_x({\it Ω})$  der „Zeitfunktion” und  $f_{x}(x)$  der „Spektralfunktion” entsprechen würde.


$\text{Berechnungsmöglichkeit:}$  Entwickelt man die komplexe Funktion  ${\rm e}^{\hspace{0.03cm}{\rm j} \hspace{0.03cm}{\it Ω}\hspace{0.05cm}x}$  in eine Potenzreihe  und vertauscht Erwartungswertbildung und Summation, so folgt die Reihendarstellung der charakteristischen Funktion:

$$C_x ( {\it \Omega}) = 1 + \sum_{k=1}^{\infty}\hspace{0.2cm}\frac{m_k}{k!} \cdot ({\rm j} \hspace{0.01cm}{\it \Omega})^k .$$

Die  Aufgabe 3.4  zeigt weitere Eigenschaften der charakteristischen Funktion auf.


$\text{Beispiel 3:}$ 

  • Bei einer symmetrischen binären (zweipunktverteilten) Zufallsgröße  $x ∈ \{\pm1\}$  mit den Wahrscheinlichkeiten  ${\rm Pr}(–1) = {\rm Pr}(+1) = 1/2$  verläuft die charakteristische Funktion cosinusförmig.
  • Das Analogon in der Systemtheorie ist, dass das Spektrum eines Cosinussignals mit der Kreisfrequenz  ${\it Ω}_{\hspace{0.03cm}0}$  aus zwei Diracfunktionen bei  $±{\it Ω}_{\hspace{0.03cm}0}$  besteht.


$\text{Beispiel 4:}$ 

$$C_y({\it \Omega}) = \frac{1}{2 y_0} \cdot \int_{-y_0}^{+y_0} {\rm e}^{ {\rm j} \hspace{0.05cm} {\it \Omega} \hspace{0.05cm} y} \,{\rm d}y = \frac{ {\rm e}^{ {\rm j} \hspace{0.05cm} y_0 \hspace{0.05cm}{\it \Omega} } - {\rm e}^{ - {\rm j} \hspace{0.05cm} y_0 \hspace{0.05cm} {\it \Omega} } }{2 {\rm j} \cdot y_0 \cdot {\it \Omega} } = \frac{ {\rm sin}(y_0 \cdot {\it \Omega})}{ y_0 \cdot {\it \Omega} } = {\rm si}(y_0 \cdot {\it \Omega}). $$
  • Die Funktion  ${\rm si}(x) = \sin(x)/x$  kennen wir bereits aus dem Buch  Signaldarstellung.
  • Sie ist auch unter dem Namen  Spaltfunktion  bekannt.

Aufgaben zum Kapitel


Aufgabe 3.3: Momente bei $\cos^2$–WDF

Aufgabe 3.3Z: Momente bei Dreieck–WDF

Aufgabe 3.4: Charakteristische Funktion