Difference between revisions of "Theory of Stochastic Signals/Generalization to N-Dimensional Random Variables"

From LNTwww
Line 1: Line 1:
 
   
 
   
 
{{Header
 
{{Header
|Untermenü=Zufallsgrößen mit statistischen Bindungen
+
|Untermenü=Random Variables with Statistical Dependence
|Vorherige Seite=Kreuzkorrelationsfunktion und Kreuzleistungsdichte
+
|Vorherige Seite=Cross-Correlation Function and Cross Power Density
|Nächste Seite=Stochastische Systemtheorie
+
|Nächste Seite=Stochastic System Theory
 
}}
 
}}
==Korrelationsmatrix==
+
==Correlation matrix==
 
<br>
 
<br>
Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet.&nbsp; Für den allgemeineren Fall einer Zufallsgröße mit&nbsp; $N$&nbsp; Dimensionen bietet sich zweckmäßigerweise eine Vektor&ndash; bzw. Matrixdarstellung an.  
+
So far, only statistical bindings between two (scalar) random variables have been considered&nbsp; For the more general case of a random variable with&nbsp; $N$&nbsp; dimensions, a vector&ndash; or matrix representation is convenient.  
  
Für die folgende Beschreibung wird vorausgesetzt:  
+
For the following description it is assumed:  
*Die&nbsp; $N$–dimensionale Zufallsgröße wird als Vektor dargestellt:  
+
*The&nbsp; $N$-dimensional random variable is represented as a vector:  
 
:$${\mathbf{x}} = \big[\hspace{0.03cm}x_1, \hspace{0.03cm}x_2,
 
:$${\mathbf{x}} = \big[\hspace{0.03cm}x_1, \hspace{0.03cm}x_2,
 
\hspace{0.1cm}\text{...} \hspace{0.1cm}, \hspace{0.03cm}x_N \big]^{\rm T}.$$
 
\hspace{0.1cm}\text{...} \hspace{0.1cm}, \hspace{0.03cm}x_N \big]^{\rm T}.$$
:Hierbei ist&nbsp; $\mathbf{x}$&nbsp; ein Spaltenvektor, was aus dem Zusatz&nbsp; $\rm T$&nbsp; – dies steht für „transponiert” – des angegebenen Zeilenvektors hervorgeht.  
+
:Here&nbsp; $\mathbf{x}$&nbsp; is a column vector, which can be seen from the addition&nbsp; $\rm T$&nbsp; - this stands for "transposed" - of the specified row vector.  
*Die&nbsp; $N$&nbsp; Komponenten&nbsp; $x_i$&nbsp; seien jeweils eindimensionale reelle Gaußsche Zufallsgrößen.  
+
*Let&nbsp; $N$&nbsp; components&nbsp; $x_i$&nbsp; each be one-dimensional real Gaussian random variables.  
  
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp;  
+
$\text{definition:}$&nbsp;  
Statistische Bindungen zwischen den&nbsp; $N$&nbsp; Zufallsgrößen werden durch die&nbsp; '''Korrelationsmatrix'''&nbsp; vollständig beschrieben:  
+
Statistical bindings between the&nbsp; $N$&nbsp; random variables are fully described by the&nbsp; '''correlation matrix'''&nbsp; :  
:$${\mathbf{R} } =\big[ R_{ij} \big] = \left[ \begin{array}{cccc}R_{11} & R_{12} & \cdots & R_{1N} \\ R_{21} & R_{22}& \cdots & R_{2N} \\ \cdots & \cdots & \cdots &\cdots \\ R_{N1} & R_{N2} & \cdots & R_{NN}  \end{array} \right] .$$
+
:$${\mathbf{R} } =\big[ R_{ij} \big] = \left[ \begin{array}{cccc}R_{11} & R_{12} & \cdots & R_{1N} \ R_{21} & R_{22}& \cdots & R_{2N} \ \cdots & \cdots & \cdots \ R_{N1} & R_{N2} & \cdots & R_{NN}  \end{array} \right] .$$
Die $N^2$ Elemente dieser $N×N$-Matrix geben jeweils das gemeinsame Moment erster Ordnung zwischen zwei Komponenten an:
+
The $N^2$ elements of this $N×N$ matrix each indicate the first-order joint moment between two components:
 
:$$R_{ij}= { {\rm E}\big[x_i \cdot x_j \big] } = R_{ji} .$$
 
:$$R_{ij}= { {\rm E}\big[x_i \cdot x_j \big] } = R_{ji} .$$
In Vektorschreibweise lautet somit die Korrelationsmatrix:  
+
Thus, in vector notation, the correlation matrix is:  
 
:$$\mathbf{R}= {\rm E\big[\mathbf{x} \cdot {\mathbf{x} }^{\rm T} \big] } .$$}}
 
:$$\mathbf{R}= {\rm E\big[\mathbf{x} \cdot {\mathbf{x} }^{\rm T} \big] } .$$}}
  
  
Bitte beachten Sie:
+
Please note:
*$\mathbf{x}$&nbsp; ist ein Spaltenvektor mit&nbsp; $N$&nbsp; Dimensionen ist und der transponierte Vektor&nbsp; $\mathbf{x}^{\rm T}$&nbsp; ein Zeilenvektor gleicher Länge &nbsp; &rArr; &nbsp; das Produkt&nbsp; $\mathbf{x} · \mathbf{x}^{\rm T}$&nbsp; ergibt eine&nbsp; $N×N$&ndash;Matrix.  
+
*$\mathbf{x}$&nbsp; is a column vector with&nbsp; $N$&nbsp; dimensions and the transposed vector&nbsp; $\mathbf{x}^{\rm T}$&nbsp; a row vector of equal length&nbsp; &rArr; &nbsp; the product&nbsp; $\mathbf{x} - \mathbf{x}^{\rm T}$&nbsp; gives a&nbsp; $N×N$&ndash;matrix.  
*Dagegen wäre&nbsp; $\mathbf{x}^{\rm T}· \mathbf{x}$&nbsp; eine&nbsp; $1×1$&ndash;Matrix, also ein Skalar.  
+
*In contrast&nbsp; $\mathbf{x}^{\rm T}- \mathbf{x}$&nbsp; would be a&nbsp; $1×1$&ndash;matrix, i.e. a scalar.  
*Für den hier nicht weiter betrachteten Sonderfall komplexer Komponenten&nbsp; $x_i$&nbsp; sind auch die Matrixelemente komplex:  
+
*For the special case of complex components&nbsp; $x_i$&nbsp; not considered further here, the matrix elements are also complex:  
 
:$$R_{ij}= {{\rm E}\big[x_i \cdot x_j^{\star} \big]} = R_{ji}^{\star} .$$
 
:$$R_{ij}= {{\rm E}\big[x_i \cdot x_j^{\star} \big]} = R_{ji}^{\star} .$$
*Die Realteile der Korrelationsmatrix&nbsp; ${\mathbf{R} }$&nbsp; sind weiterhin symmetrisch zur Hauptdiagonalen, während sich die  Imaginärteile durch das Vorzeichen unterscheiden.  
+
*The real parts of the correlation matrix&nbsp; ${\mathbf{R} }$&nbsp; are still symmetric about the main diagonal, while the imaginary parts differ by sign.  
  
  
 
+
==Covariance matrix==
==Kovarianzmatrix==
 
 
<br>
 
<br>
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Man kommt von der Korrelationsmatrix&nbsp; $\mathbf{R} =\left[ R_{ij} \right]$&nbsp; zur so genannten&nbsp; '''Kovarianzmatrix'''  
+
$\text{Definition:}$&nbsp; One moves from the correlation matrix&nbsp; $\mathbf{R} =\left[ R_{ij} \right]$&nbsp; to the so-called&nbsp; '''covariance matrix'''  
:$${\mathbf{K} } =\big[ K_{ij} \big] = \left[ \begin{array}{cccc}K_{11} & K_{12} & \cdots & K_{1N} \\ K_{21} & K_{22}& \cdots & K_{2N} \\ \cdots & \cdots & \cdots &\cdots \\ K_{N1} & K_{N2} & \cdots & K_{NN}  \end{array} \right] ,$$
+
:$${\mathbf{K} } =\big[ K_{ij} \big] = \left[ \begin{array}{cccc}K_{11} & K_{12} & \cdots & K_{1N} \ K_{21} & K_{22}& \cdots & K_{2N} \ \cdots & \cdots & \cdots \ K_{N1} & K_{N2} & \cdots & K_{NN}  \end{array} \right] ,$$
  
wenn die Matrixelemente&nbsp; $K_{ij} = {\rm E}\big[(x_i m_i) · (x_j m_j)\big]$&nbsp; jeweils ein&nbsp; [[Theory_of_Stochastic_Signals/Erwartungswerte_und_Momente#Zentralmomente|Zentralmoment erster Ordnung]]&nbsp; angeben.  
+
if the matrix elements&nbsp; $K_{ij} = {\rm E}\big[(x_i - m_i) - (x_j - m_j)\big]$&nbsp; each specify a&nbsp; [[Theory_of_Stochastic_Signals/Expected_Values_and_Moments#Central_moments|first order central moment]]&nbsp; .  
  
Mit dem Vektor&nbsp; $\mathbf{m} = [m_1, m_2$, ... , $m_N]^{\rm T}$&nbsp; kann somit auch geschrieben werden:  
+
Thus, with the vector&nbsp; $\mathbf{m} = [m_1, m_2$, ... , $m_N]^{\rm T}$&nbsp; can also be written:  
:$$\mathbf{K}= { {\rm E}\big[(\mathbf{x} - \mathbf{m}) (\mathbf{x} - \mathbf{m})^{\rm T} \big] } .$$
+
:$$\mathbf{K}= { {\rm E}\big[(\mathbf{x} - \mathbf{m}) (\mathbf{x} - \mathbf{m})^{\rm T} \big] } .$$
  
Es sei ausdrücklich darauf hingewiesen, dass&nbsp; $m_1$&nbsp; den Mittelwert der Komponente&nbsp; $x_1$&nbsp; und&nbsp; $m_2$&nbsp; den Mittelwert&nbsp; von $x_2$&nbsp; bezeichnet – nicht etwa das Moment erster bzw. zweiter Ordnung. }}
+
It should be explicitly noted that&nbsp; $m_1$&nbsp; denotes the mean value of the component&nbsp; $x_1$&nbsp; and&nbsp; $m_2$&nbsp; denotes the mean value&nbsp; of $x_2$&nbsp; - not, for example, the first or second order moment. }}
  
  
Die Kovarianzmatrix&nbsp; $\mathbf{K}$&nbsp; zeigt bei reellen mittelwertfreien Gauß–Größen folgende weitere Eigenschaften:  
+
The covariance matrix&nbsp; $\mathbf{K}$&nbsp; shows the following further properties for real mean-free Gaussian quantities:  
*Das Element der&nbsp; $i$-ten Zeile und&nbsp; $j$-ten Spalte lautet mit den beiden Streuungen&nbsp; $σ_i$&nbsp; und&nbsp; $σ_j$&nbsp; und dem&nbsp; [[Theory_of_Stochastic_Signals/Zweidimensionale_Zufallsgrößen#Korrelationskoeffizient|Korrelationskoeffizienten]]&nbsp; $ρ_{ij}$:
+
*The element of&nbsp; $i$-th row and&nbsp; $j$-th column is with the two scatterers&nbsp; $σ_i$&nbsp; and&nbsp; $σ_j$&nbsp; and the&nbsp; [[Theory_of_Stochastic_Signals/Two-Dimensional_Random_Variables#Correlation_coefficient|Correlation coefficient]]&nbsp; $ρ_{ij}$:
:$$K_{ij} = σ_i · σ_j · ρ_{ij} = K_{ji}.$$  
+
:$$K_{ij} = σ_i - σ_j - ρ_{ij} = K_{ji}.$$  
*Berücksichtigt man noch die Beziehung&nbsp; $ρ_{ii} = 1$, so erhält man für die Kovarianzmatrix:  
+
*Adding the relation&nbsp; $ρ_{ii} = 1$, we obtain for the covariance matrix:  
 
:$${\mathbf{K}} =\left[ K_{ij} \right] = \left[ \begin{array}{cccc}
 
:$${\mathbf{K}} =\left[ K_{ij} \right] = \left[ \begin{array}{cccc}
 
\sigma_{1}^2 & \sigma_{1}\cdot \sigma_{2}\cdot\rho_{12} & \cdots & \sigma_{1}\cdot \sigma_{N} \cdot \rho_{1N} \\
 
\sigma_{1}^2 & \sigma_{1}\cdot \sigma_{2}\cdot\rho_{12} & \cdots & \sigma_{1}\cdot \sigma_{N} \cdot \rho_{1N} \\
\sigma_{2} \cdot \sigma_{1} \cdot \rho_{21} & \sigma_{2}^2& \cdots & \sigma_{2} \cdot \sigma_{N} \cdot\rho_{2N} \\ \cdots & \cdots & \cdots & \cdots \\ \sigma_{N} \cdot \sigma_{1} \cdot \rho_{N1} & \sigma_{N}\cdot \sigma_{2} \cdot\rho_{N2} &
+
\sigma_{2} \cdot \sigma_{1} \cdot \rho_{21} & \sigma_{2}^2& \cdots & \sigma_{2} \cdot \sigma_{N} \cdot\rho_{2N} \cdot \cdots & \cdots & \cdots \sigma_{N} \cdot \sigma_{1} \cdot \rho_{N1} & \sigma_{N}\cdot \sigma_{2} \cdot\rho_{N2} &
 
\cdots & \sigma_{N}^2 \end{array} \right] .$$
 
\cdots & \sigma_{N}^2 \end{array} \right] .$$
*Aufgrund der Beziehung&nbsp; $ρ_{ij} = ρ_{ji}$&nbsp; ist die Kovarianzmatrix bei reellen Größen stets symmetrisch zur Hauptdiagonalen.&nbsp; Bei komplexen Größen würde&nbsp; $ρ_{ij} = ρ_{ji}^{\star}$&nbsp; gelten.  
+
*Because of the relation&nbsp; $ρ_{ij} = ρ_{ji}$&nbsp; the covariance matrix is always symmetric about the main diagonal for real quantities.&nbsp; For complex quantities,&nbsp; $ρ_{ij} = ρ_{ji}^{\star}$&nbsp; would hold.  
  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 1:}$&nbsp; Wir betrachten die drei Kovarianzmatrizen:  
+
$\text{Example 1:}$&nbsp; We consider the three covariance matrices:  
 
:$${\mathbf{K}_2} = \left[ \begin{array}{cc}
 
:$${\mathbf{K}_2} = \left[ \begin{array}{cc}
 
1 & -0.5 \\
 
1 & -0.5 \\
Line 80: Line 79:
 
\end{array} \right].$$
 
\end{array} \right].$$
  
* $\mathbf{K}_2$&nbsp; beschreibt eine 2D–Zufallsgröße, wobei der Korrelationskoeffizient&nbsp; $ρ$&nbsp; zwischen den zwei Komponenten&nbsp; $-0.5$&nbsp; beträgt und beide Komponenten die Streuung&nbsp; $σ = 1$&nbsp; aufweisen.  
+
* $\mathbf{K}_2$&nbsp; describes a 2D random variable, where the correlation coefficient&nbsp; $ρ$&nbsp; between the two components&nbsp; is $-0.5$&nbsp; and both components have dispersion&nbsp; $σ = 1$&nbsp;.  
*Bei der 3D-Zufallsgröße gemäß&nbsp; $\mathbf{K}_3$&nbsp; haben alle Komponenten die gleiche Streuung&nbsp; $σ = 2$&nbsp;(bitte Vorfaktor beachten).&nbsp; Die stärksten Bindungen bestehen  hier zwischen&nbsp; $x_2$&nbsp; und&nbsp; $x_3$, wobei&nbsp; $ρ_{23} = 3/4$&nbsp; gilt.  
+
*For the 3D random variable according to&nbsp; $\mathbf{K}_3$&nbsp; all components have the same scattering&nbsp; $σ = 2$&nbsp;(please note prefactor).&nbsp; The strongest bindings here are between&nbsp; $x_2$&nbsp; and&nbsp; $x_3$, where&nbsp; $ρ_{23} = 3/4$&nbsp; holds.  
*Die vier Komponenten der durch&nbsp; $\mathbf{K}_4$&nbsp; gekennzeichneten Zufallsgröße sind unkorreliert, bei Gaußscher WDF auch statistisch unabhängig.&nbsp; Die Varianzen sind&nbsp; $σ_i^2 = i^2$&nbsp; für&nbsp; $i = 1$, ... , $4$&nbsp; &nbsp; &rArr; &nbsp; Streuungen $σ_i = i$. }}
+
*The four components of the random variable denoted by&nbsp; $\mathbf{K}_4$&nbsp; are uncorrelated, with Gaussian WDF also statistically independent.&nbsp; The variances are&nbsp; $σ_i^2 = i^2$&nbsp; for&nbsp; $i = 1$, ... , $4$&nbsp; &nbsp; &rArr; &nbsp; variances $σ_i = i$. }}
  
==Zusammenhang zwischen Kovarianzmatrix und WDF==
+
==Relationship between covariance matrix and PDF==
 
<br>
 
<br>
{{BlaueBox|TEXT=
+
{{BlaueBox|TEXT=  
$\text{Definition:}$&nbsp; Die&nbsp; '''Wahrscheinlichkeitsdichtefunktion'''&nbsp; (WDF) einer&nbsp; $N$-dimensionalen Gaußschen Zufallsgröße&nbsp; $\mathbf{x}$&nbsp; lautet:  
+
$\text{Definition:}$&nbsp; The&nbsp; '''probability density function'''&nbsp; (PDF) of an&nbsp; $N$-dimensional Gaussian random variable&nbsp; $\mathbf{x}$&nbsp; is:  
 
:$$f_\mathbf{x}(\mathbf{x})= \frac{1}{\sqrt{(2 \pi)^N \cdot  
 
:$$f_\mathbf{x}(\mathbf{x})= \frac{1}{\sqrt{(2 \pi)^N \cdot  
 
\vert\mathbf{K}\vert } }\hspace{0.05cm}\cdot \hspace{0.05cm} {\rm e}^{-1/2\hspace{0.05cm}\cdot \hspace{0.05cm}(\mathbf{x} -
 
\vert\mathbf{K}\vert } }\hspace{0.05cm}\cdot \hspace{0.05cm} {\rm e}^{-1/2\hspace{0.05cm}\cdot \hspace{0.05cm}(\mathbf{x} -
Line 93: Line 92:
 
\mathbf{m}) } .$$
 
\mathbf{m}) } .$$
  
Hierbei bezeichnen:  
+
Here denote:  
* $\mathbf{x}$&nbsp; den Spaltenvektor der betrachteten&nbsp; $N$&ndash;dimensionalen Zufallsgröße,  
+
* $\mathbf{x}$&nbsp; the column vector of the considered&nbsp; $N$&ndash;dimensional random variable,  
* $\mathbf{m}$&nbsp; den Spaltenvektor der zugehörigen Mittelwerte,  
+
* $\mathbf{m}$&nbsp; the column vector of the associated mean values,  
* $\vert \mathbf{K}\vert$&nbsp; die Determinante der&nbsp; $N×N$–Kovarianzmatrix&nbsp; $\mathbf{K}$ – eine skalare Größe,  
+
* $\mathbf{K}\vert$&nbsp; the determinant of the&nbsp; $N×N$-covariance matrix&nbsp; $\mathbf{K}$ - a scalar quantity,  
* $\mathbf{K}^{−1}$&nbsp; die Inverse von&nbsp; $\mathbf{K}$;&nbsp; diese ist ebenfalls eine&nbsp; $N×N$-Matrix.}}  
+
* $\mathbf{K}^{-1}$&nbsp; the inverse of&nbsp; $\mathbf{K}$;&nbsp; this is also an&nbsp; $N×N$-matrix.}}  
  
  
Die Multiplikationen des Zeilenvektors&nbsp; $(\mathbf{x} \mathbf{m})^{\rm T}$, der inversen Matrix&nbsp; $\mathbf{K}^{–1}$&nbsp; und des&nbsp; Spaltenvektors $(\mathbf{x} \mathbf{m})$&nbsp; ergibt im Argument der Exponentialfunktion  ein Skalar.  
+
The multiplications of the row vector&nbsp; $(\mathbf{x} - \mathbf{m})^{\rm T}$, the inverse matrix&nbsp; $\mathbf{K}^{-1}$&nbsp; and the&nbsp; column vector $(\mathbf{x} - \mathbf{m})$&nbsp; yields a scalar in the argument of the exponential function.  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 2:}$&nbsp; Wir betrachten wie im&nbsp; [[Theory_of_Stochastic_Signals/Verallgemeinerung_auf_N-dimensionale_Zufallsgrößen#Kovarianzmatrix|$\text{Beispiel 1}$]]&nbsp; wieder eine 4D-Zufallsgröße&nbsp; $\mathbf{x}$, deren Kovarianzmatrix nur auf der Hauptdiagonalen besetzt ist:  
+
$\text{Example 2:}$&nbsp; We consider as in&nbsp; [[Theory_of_Stochastic_Signals/Generalization_to_N-Dimensional_Random_Variables#Covariance_matrix|$\text{Example 1}$]]&nbsp; again a 4D random variable&nbsp; $\mathbf{x}$ whose covariance matrix is occupied only on the main diagonal:  
 
;$${\mathbf{K} } = \left[
 
;$${\mathbf{K} } = \left[
 
\begin{array}{cccc}
 
\begin{array}{cccc}
\sigma_{1}^2 & 0 & 0 & 0 \\
+
\sigma_{1}^2 & 0 & 0 & 0 \.
0 & \sigma_{2}^2 & 0 & 0 \\
+
0 & \sigma_{2}^2 & 0 & 0 \
0 & 0 & \sigma_{3}^2 & 0 \\
+
0 & 0 & \sigma_{3}^2 & 0 \
 
0 & 0 & 0 & \sigma_{4}^2
 
0 & 0 & 0 & \sigma_{4}^2
 
\end{array} \right].$$
 
\end{array} \right].$$
Deren Determinante ist&nbsp; $\vert \mathbf{K}\vert = σ_1^2 · σ_2^2 · σ_3^2 · σ_4^2$.&nbsp; Die inverse Kovarianzmatrix ergibt sich zu:  
+
Their determinant is&nbsp; $\vert \mathbf{K}\vert = σ_1^2 - σ_2^2 - σ_3^2 - σ_4^2$.&nbsp; The inverse covariance matrix results to:  
 
:$${\mathbf{K} }^{-1} \cdot {\mathbf{K } } = \left[
 
:$${\mathbf{K} }^{-1} \cdot {\mathbf{K } } = \left[
 
\begin{array}{cccc}
 
\begin{array}{cccc}
Line 119: Line 118:
 
0 & 0 & 0 & 1
 
0 & 0 & 0 & 1
 
\end{array} \right]
 
\end{array} \right]
\hspace{0.5cm}\Rightarrow \hspace{0.5cm} {\mathbf{K} }^{-1} =
+
\hspace{0.5cm}\rightarrow \hspace{0.5cm} {\mathbf{K} }^{-1} =
 
\left[
 
\left[
 
\begin{array}{cccc}
 
\begin{array}{cccc}
\sigma_{1}^{-2} & 0 & 0 & 0 \\
+
\sigma_{1}^{-2} & 0 & 0 & 0 \.
0 & \sigma_{2}^{-2} & 0 & 0 \\
+
0 & \sigma_{2}^{-2} & 0 & 0 \
0 & 0 & \sigma_{3}^{-2} & 0 \\
+
0 & 0 & \sigma_{3}^{-2} & 0 \
 
0 & 0 & 0 & \sigma_{4}^{-2}
 
0 & 0 & 0 & \sigma_{4}^{-2}
 
\end{array} \right].$$
 
\end{array} \right].$$
  
Für mittelwertfreie Größen&nbsp; $(\mathbf{m = 0})$&nbsp; lautet somit die WDF:
+
Thus, for zero mean quantities&nbsp; $(\mathbf{m = 0})$&nbsp; the WDF is:
 
:$$\mathbf{ f_{\rm x} }(\mathbf{x})= \frac{1}{ {(2 \pi)^2 \cdot \sigma_1\cdot
 
:$$\mathbf{ f_{\rm x} }(\mathbf{x})= \frac{1}{ {(2 \pi)^2 \cdot \sigma_1\cdot
 
\sigma_2\cdot \sigma_3\cdot \sigma_4} }\cdot {\rm
 
\sigma_2\cdot \sigma_3\cdot \sigma_4} }\cdot {\rm
Line 134: Line 133:
 
\hspace{0.1cm}+\hspace{0.1cm}{x_2^2}/{2\sigma_2^2}\hspace{0.1cm}+\hspace{0.1cm}{x_3^2}/{2\sigma_3^2}\hspace{0.1cm}+\hspace{0.1cm}{x_4^2}/{2\sigma_4^2})
 
\hspace{0.1cm}+\hspace{0.1cm}{x_2^2}/{2\sigma_2^2}\hspace{0.1cm}+\hspace{0.1cm}{x_3^2}/{2\sigma_3^2}\hspace{0.1cm}+\hspace{0.1cm}{x_4^2}/{2\sigma_4^2})
 
} .$$
 
} .$$
Ein Vergleich mit dem Kapitel  &nbsp;[[Theory_of_Stochastic_Signals/Zweidimensionale_Gaußsche_Zufallsgrößen#Wahrscheinlichkeitsdichte-_und_Verteilungsfunktion|Wahrscheinlichkeitsdichte- und Verteilungsfunktion]]&nbsp; zeigt, dass es sich um eine 4D-Zufallsgröße mit statistisch unabhängigen und unkorrelierten Komponenten handelt, da folgende Bedingung erfüllt ist:  
+
A comparison with the chapter &nbsp;[[Theory_of_Stochastic_Signals/Two-Dimensional_Gaussian_Random_Variables#Probability_density_function_and_cumulative_distribution_function|Probability density function and cumulative distribution function]]&nbsp; shows that it is a 4D random variable with statistically independent and uncorrelated components, since the following condition is satisfied:  
 
:$$\mathbf{f_x}(\mathbf{x})= \mathbf{f_{x1 } }(\mathbf{x_1}) \cdot \mathbf{f_{x2} }(\mathbf{x_2})
 
:$$\mathbf{f_x}(\mathbf{x})= \mathbf{f_{x1 } }(\mathbf{x_1}) \cdot \mathbf{f_{x2} }(\mathbf{x_2})
 
\cdot \mathbf{f_{x3} }(\mathbf{x_3} ) \cdot \mathbf{f_{x4} }(\mathbf{x_4} )
 
\cdot \mathbf{f_{x3} }(\mathbf{x_3} ) \cdot \mathbf{f_{x4} }(\mathbf{x_4} )
 
  .$$
 
  .$$
  
Der Fall korrelierter Komponenten wird in den  &nbsp;[[Theory_of_Stochastic_Signals/Verallgemeinerung_auf_N-dimensionale_Zufallsgrößen#Aufgaben_zum_Kapitel|Aufgaben zu diesem Kapitel]]&nbsp; eingehend behandelt.}}
+
The case of correlated components is discussed in detail in the &nbsp;[[Theory_of_Stochastic_Signals/Generalization_to_N-Dimensional_Random_Variables#Exercises_on_the_chapter|exercises on the chapter]]&nbsp; }}.
 +
 
  
 +
The following links refer to two pages at the end of the chapter with basics of matrix calculus:
  
Die folgenden Links verweisen auf zwei Seiten  am Kapitelende mit Grundlagen der Matrizenrechnung:
+
*[[Theory_of_Stochastic_Signals/Generalization_to_N-dimensional_Random_Variables#Basics_of_matrix_operations:_Determinant_of_a_matrix|Determinant of a Matrix]]
 +
*[[Theory_of_Stochastic_Signals/Generalization_to_N-dimensional_Random_Variables#Basics_of_Matrix_operations:_Inverse_of_a_Matrix|Inverse of a Matrix]]
  
*[[Theory_of_Stochastic_Signals/Verallgemeinerung_auf_N-dimensionale_Zufallsgrößen#Grundlagen_der_Matrizenrechnung:_Determinante_einer_Matrix|Determinante einer Matrix]]
 
*[[Theory_of_Stochastic_Signals/Verallgemeinerung_auf_N-dimensionale_Zufallsgrößen#Grundlagen_der_Matrizenrechnung:_Inverse_einer_Matrix|Inverse einer Matrix]]
 
  
 
==Eigenwerte und Eigenvektoren==
 
==Eigenwerte und Eigenvektoren==
Line 225: Line 225:
 
Die Problemlösung mit Eigenwert und Eigenvektor ist äußerst elegant und problemlos auf beliebig große Dimensionen&nbsp; $N$&nbsp; erweiterbar. }}
 
Die Problemlösung mit Eigenwert und Eigenvektor ist äußerst elegant und problemlos auf beliebig große Dimensionen&nbsp; $N$&nbsp; erweiterbar. }}
  
==Grundlagen der Matrizenrechnung: Determinante einer Matrix==
+
==Basics of matrix operations: Determinant of a matrix==
 
<br>
 
<br>
 
Wir betrachten die beiden quadratischen Matrizen mit Dimension&nbsp; $N = 2$&nbsp; &nbsp;bzw.&nbsp; $N = 3$:  
 
Wir betrachten die beiden quadratischen Matrizen mit Dimension&nbsp; $N = 2$&nbsp; &nbsp;bzw.&nbsp; $N = 3$:  
Line 273: Line 273:
 
*Entwickelt man&nbsp; $\mathbf{B}$&nbsp; nach einer anderen Zeile oder Spalte, so ergibt sich für&nbsp; $\vert \mathbf{B} \vert$&nbsp; natürlich der gleiche Zahlenwert.}}
 
*Entwickelt man&nbsp; $\mathbf{B}$&nbsp; nach einer anderen Zeile oder Spalte, so ergibt sich für&nbsp; $\vert \mathbf{B} \vert$&nbsp; natürlich der gleiche Zahlenwert.}}
  
==Grundlagen der Matrizenrechnung: Inverse einer Matrix==
+
==Basics of matrix operations: Inverse of a matrix==
 
<br>
 
<br>
 
Häufig benötigt man die Inverse&nbsp;  $\mathbf{M}^{–1}$&nbsp; der quadratischen Matrix&nbsp; $\mathbf{M}$.&nbsp; Die inverse Matrix $\mathbf{M}^{–1}$&nbsp; besitzt die gleiche Dimension&nbsp; $N$&nbsp; wie&nbsp; $\mathbf{M}$&nbsp; und ist wie folgt definiert, wobei&nbsp; $\mathbf{E}$&nbsp; wieder die&nbsp; ''Einheitsmatrix''&nbsp; (Diagonalmatrix) bezeichnet:  
 
Häufig benötigt man die Inverse&nbsp;  $\mathbf{M}^{–1}$&nbsp; der quadratischen Matrix&nbsp; $\mathbf{M}$.&nbsp; Die inverse Matrix $\mathbf{M}^{–1}$&nbsp; besitzt die gleiche Dimension&nbsp; $N$&nbsp; wie&nbsp; $\mathbf{M}$&nbsp; und ist wie folgt definiert, wobei&nbsp; $\mathbf{E}$&nbsp; wieder die&nbsp; ''Einheitsmatrix''&nbsp; (Diagonalmatrix) bezeichnet:  
Line 312: Line 312:
 
*Zu beachten ist die Vertauschung der Zeilen und Spalten bei der Inversen.}}  
 
*Zu beachten ist die Vertauschung der Zeilen und Spalten bei der Inversen.}}  
  
==Aufgaben zum Kapitel==
+
==Exercises on the chapter==
 
<br>
 
<br>
 
[[Aufgaben:4.15 WDF und Korrelationsmatrix|Aufgabe 4.15: WDF und Korrelationsmatrix]]
 
[[Aufgaben:4.15 WDF und Korrelationsmatrix|Aufgabe 4.15: WDF und Korrelationsmatrix]]

Revision as of 14:01, 14 March 2022

Correlation matrix


So far, only statistical bindings between two (scalar) random variables have been considered  For the more general case of a random variable with  $N$  dimensions, a vector– or matrix representation is convenient.

For the following description it is assumed:

  • The  $N$-dimensional random variable is represented as a vector:
$${\mathbf{x}} = \big[\hspace{0.03cm}x_1, \hspace{0.03cm}x_2, \hspace{0.1cm}\text{...} \hspace{0.1cm}, \hspace{0.03cm}x_N \big]^{\rm T}.$$
Here  $\mathbf{x}$  is a column vector, which can be seen from the addition  $\rm T$  - this stands for "transposed" - of the specified row vector.
  • Let  $N$  components  $x_i$  each be one-dimensional real Gaussian random variables.


$\text{definition:}$  Statistical bindings between the  $N$  random variables are fully described by the  correlation matrix  :

$${\mathbf{R} } =\big[ R_{ij} \big] = \left[ \begin{array}{cccc}R_{11} & R_{12} & \cdots & R_{1N} \ R_{21} & R_{22}& \cdots & R_{2N} \ \cdots & \cdots & \cdots \ R_{N1} & R_{N2} & \cdots & R_{NN} \end{array} \right] .$$

The $N^2$ elements of this $N×N$ matrix each indicate the first-order joint moment between two components:

$$R_{ij}= { {\rm E}\big[x_i \cdot x_j \big] } = R_{ji} .$$

Thus, in vector notation, the correlation matrix is:

$$\mathbf{R}= {\rm E\big[\mathbf{x} \cdot {\mathbf{x} }^{\rm T} \big] } .$$


Please note:

  • $\mathbf{x}$  is a column vector with  $N$  dimensions and the transposed vector  $\mathbf{x}^{\rm T}$  a row vector of equal length  ⇒   the product  $\mathbf{x} - \mathbf{x}^{\rm T}$  gives a  $N×N$–matrix.
  • In contrast  $\mathbf{x}^{\rm T}- \mathbf{x}$  would be a  $1×1$–matrix, i.e. a scalar.
  • For the special case of complex components  $x_i$  not considered further here, the matrix elements are also complex:
$$R_{ij}= {{\rm E}\big[x_i \cdot x_j^{\star} \big]} = R_{ji}^{\star} .$$
  • The real parts of the correlation matrix  ${\mathbf{R} }$  are still symmetric about the main diagonal, while the imaginary parts differ by sign.


Covariance matrix


$\text{Definition:}$  One moves from the correlation matrix  $\mathbf{R} =\left[ R_{ij} \right]$  to the so-called  covariance matrix

$${\mathbf{K} } =\big[ K_{ij} \big] = \left[ \begin{array}{cccc}K_{11} & K_{12} & \cdots & K_{1N} \ K_{21} & K_{22}& \cdots & K_{2N} \ \cdots & \cdots & \cdots \ K_{N1} & K_{N2} & \cdots & K_{NN} \end{array} \right] ,$$

if the matrix elements  $K_{ij} = {\rm E}\big[(x_i - m_i) - (x_j - m_j)\big]$  each specify a  first order central moment  .

Thus, with the vector  $\mathbf{m} = [m_1, m_2$, ... , $m_N]^{\rm T}$  can also be written:

$$\mathbf{K}= { {\rm E}\big[(\mathbf{x} - \mathbf{m}) (\mathbf{x} - \mathbf{m})^{\rm T} \big] } .$$

It should be explicitly noted that  $m_1$  denotes the mean value of the component  $x_1$  and  $m_2$  denotes the mean value  of $x_2$  - not, for example, the first or second order moment.


The covariance matrix  $\mathbf{K}$  shows the following further properties for real mean-free Gaussian quantities:

  • The element of  $i$-th row and  $j$-th column is with the two scatterers  $σ_i$  and  $σ_j$  and the  Correlation coefficient  $ρ_{ij}$:
$$K_{ij} = σ_i - σ_j - ρ_{ij} = K_{ji}.$$
  • Adding the relation  $ρ_{ii} = 1$, we obtain for the covariance matrix:
$${\mathbf{K}} =\left[ K_{ij} \right] = \left[ \begin{array}{cccc} \sigma_{1}^2 & \sigma_{1}\cdot \sigma_{2}\cdot\rho_{12} & \cdots & \sigma_{1}\cdot \sigma_{N} \cdot \rho_{1N} \\ \sigma_{2} \cdot \sigma_{1} \cdot \rho_{21} & \sigma_{2}^2& \cdots & \sigma_{2} \cdot \sigma_{N} \cdot\rho_{2N} \cdot \cdots & \cdots & \cdots \sigma_{N} \cdot \sigma_{1} \cdot \rho_{N1} & \sigma_{N}\cdot \sigma_{2} \cdot\rho_{N2} & \cdots & \sigma_{N}^2 \end{array} \right] .$$
  • Because of the relation  $ρ_{ij} = ρ_{ji}$  the covariance matrix is always symmetric about the main diagonal for real quantities.  For complex quantities,  $ρ_{ij} = ρ_{ji}^{\star}$  would hold.


$\text{Example 1:}$  We consider the three covariance matrices:

$${\mathbf{K}_2} = \left[ \begin{array}{cc} 1 & -0.5 \\ -0.5 & 1 \end{array} \right], \hspace{0.9cm}{\mathbf{K}_3} = 4 \cdot \left[ \begin{array}{ccc} 1 & 1/2 & 1/4\\ 1/2 & 1 & 3/4 \\ 1/4 & 3/4 & 1 \end{array}\right], \hspace{0.9cm}{\mathbf{K}_4} = \left[ \begin{array}{cccc} 1 & 0 & 0 & 0 \\ 0 & 4 & 0 & 0 \\ 0 & 0 & 9 & 0 \\ 0 & 0 & 0 & 16 \end{array} \right].$$
  • $\mathbf{K}_2$  describes a 2D random variable, where the correlation coefficient  $ρ$  between the two components  is $-0.5$  and both components have dispersion  $σ = 1$ .
  • For the 3D random variable according to  $\mathbf{K}_3$  all components have the same scattering  $σ = 2$ (please note prefactor).  The strongest bindings here are between  $x_2$  and  $x_3$, where  $ρ_{23} = 3/4$  holds.
  • The four components of the random variable denoted by  $\mathbf{K}_4$  are uncorrelated, with Gaussian WDF also statistically independent.  The variances are  $σ_i^2 = i^2$  for  $i = 1$, ... , $4$    ⇒   variances $σ_i = i$.

Relationship between covariance matrix and PDF


$\text{Definition:}$  The  probability density function  (PDF) of an  $N$-dimensional Gaussian random variable  $\mathbf{x}$  is:

$$f_\mathbf{x}(\mathbf{x})= \frac{1}{\sqrt{(2 \pi)^N \cdot \vert\mathbf{K}\vert } }\hspace{0.05cm}\cdot \hspace{0.05cm} {\rm e}^{-1/2\hspace{0.05cm}\cdot \hspace{0.05cm}(\mathbf{x} - \mathbf{m})^{\rm T}\hspace{0.05cm}\cdot \hspace{0.05cm}\mathbf{K}^{-1} \hspace{0.05cm}\cdot \hspace{0.05cm}(\mathbf{x} - \mathbf{m}) } .$$

Here denote:

  • $\mathbf{x}$  the column vector of the considered  $N$–dimensional random variable,
  • $\mathbf{m}$  the column vector of the associated mean values,
  • $\mathbf{K}\vert$  the determinant of the  $N×N$-covariance matrix  $\mathbf{K}$ - a scalar quantity,
  • $\mathbf{K}^{-1}$  the inverse of  $\mathbf{K}$;  this is also an  $N×N$-matrix.


The multiplications of the row vector  $(\mathbf{x} - \mathbf{m})^{\rm T}$, the inverse matrix  $\mathbf{K}^{-1}$  and the  column vector $(\mathbf{x} - \mathbf{m})$  yields a scalar in the argument of the exponential function.

$\text{Example 2:}$  We consider as in  $\text{Example 1}$  again a 4D random variable  $\mathbf{x}$ whose covariance matrix is occupied only on the main diagonal:

$${\mathbf{K} } = \left[ \begin{array}{cccc} \sigma_{1}^2 & 0 & 0 & 0 \. 0 & \sigma_{2}^2 & 0 & 0 \ 0 & 0 & \sigma_{3}^2 & 0 \ 0 & 0 & 0 & \sigma_{4}^2 \end{array} \right].$$

Their determinant is  $\vert \mathbf{K}\vert = σ_1^2 - σ_2^2 - σ_3^2 - σ_4^2$.  The inverse covariance matrix results to:

$${\mathbf{K} }^{-1} \cdot {\mathbf{K } } = \left[ \begin{array}{cccc} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{array} \right] \hspace{0.5cm}\rightarrow \hspace{0.5cm} {\mathbf{K} }^{-1} = \left[ \begin{array}{cccc} \sigma_{1}^{-2} & 0 & 0 & 0 \. 0 & \sigma_{2}^{-2} & 0 & 0 \ 0 & 0 & \sigma_{3}^{-2} & 0 \ 0 & 0 & 0 & \sigma_{4}^{-2} \end{array} \right].$$

Thus, for zero mean quantities  $(\mathbf{m = 0})$  the WDF is:

$$\mathbf{ f_{\rm x} }(\mathbf{x})= \frac{1}{ {(2 \pi)^2 \cdot \sigma_1\cdot \sigma_2\cdot \sigma_3\cdot \sigma_4} }\cdot {\rm e}^{-({x_1^2}/{2\sigma_1^2} \hspace{0.1cm}+\hspace{0.1cm}{x_2^2}/{2\sigma_2^2}\hspace{0.1cm}+\hspace{0.1cm}{x_3^2}/{2\sigma_3^2}\hspace{0.1cm}+\hspace{0.1cm}{x_4^2}/{2\sigma_4^2}) } .$$

A comparison with the chapter  Probability density function and cumulative distribution function  shows that it is a 4D random variable with statistically independent and uncorrelated components, since the following condition is satisfied:

$$\mathbf{f_x}(\mathbf{x})= \mathbf{f_{x1 } }(\mathbf{x_1}) \cdot \mathbf{f_{x2} }(\mathbf{x_2}) \cdot \mathbf{f_{x3} }(\mathbf{x_3} ) \cdot \mathbf{f_{x4} }(\mathbf{x_4} ) .$$

The case of correlated components is discussed in detail in the  exercises on the chapter 

.


The following links refer to two pages at the end of the chapter with basics of matrix calculus:


Eigenwerte und Eigenvektoren


Wir gehen weiter von einer  $N×N$–Kovarianzmatrix  $\mathbf{K}$  aus.

$\text{Definition:}$  Aus der  $N×N$–Kovarianzmatrix  $\mathbf{K}$  lassen sich die  $N$  Eigenwerte  $λ_1$, ... , $λ_N$  wie folgt berechnen:

$$\vert {\mathbf{K} } - \lambda \cdot {\mathbf{E} }\vert = 0.$$

$\mathbf{E}$ ist die Einheits-Diagonalmatrix der Dimension $N$.


$\text{Beispiel 3:}$  Ausgehend von einer  2×2-Matrix $\mathbf{K}$  mit  $K_{11} = K_{22} = 1$  und  $K_{12} = K_{21} = 0.8$  erhält man als Bestimmungsgleichung:

$${\rm det}\left[ \begin{array}{cc} 1- \lambda & 0.8 \\ 0.8 & 1- \lambda \end{array} \right] = 0 \hspace{0.5cm}\Rightarrow \hspace{0.5cm} (1- \lambda)^2 - 0.64 = 0.$$

Die beiden Eigenwerte sind somit  $λ_1 = 1.8$  und  $λ_2 = 0.2$.


$\text{Definition:}$  Mit den so ermittelten Eigenwerten  $λ_i \ (i = 1$, ... , $N)$  kann man die dazugehörigen  Eigenvektoren  $\boldsymbol{\xi_i}$  berechnen.

  • Die  $N$  vektoriellen Bestimmungsgleichungen lauten dabei:
$$({\mathbf{K} } - \lambda_i \cdot {\mathbf{E} }) \cdot {\boldsymbol{\xi_i} } = 0\hspace{0.5cm}(i= 1, \hspace{0.1cm}\text{...} \hspace{0.1cm} , N).$$


$\text{Beispiel 4:}$  In Fortsetzung der Rechnung im  $\text{Beispiel 3}$  ergeben sich die beiden folgenden Eigenvektoren:

$$\left[ \begin{array}{cc} 1- 1.8 & 0.8 \\ 0.8 & 1- 1.8 \end{array} \right]\cdot{\boldsymbol{\xi_1} } = 0 \hspace{0.5cm}\Rightarrow \hspace{0.5cm} {\boldsymbol{\xi_1} } = {\rm const.} \cdot\left[ \begin{array}{c} +1 \\ +1 \end{array} \right],$$
$$\left[ \begin{array}{cc} 1- 0.2 & 0.8 \\ 0.8 & 1- 0.2 \end{array} \right]\cdot{\boldsymbol{\xi_2} } = 0 \hspace{0.5cm}\Rightarrow \hspace{0.5cm} {\boldsymbol{\xi_2} } = {\rm const.} \cdot\left[ \begin{array}{c} -1 \\ +1 \end{array} \right].$$

Bringt man die Eigenvektoren in die so genannte Orthonormalfom  $($jeweils mit Betrag  $1)$,  so lauten sie:

$${\boldsymbol{\xi_1} } = \frac{1}{\sqrt{2} } \cdot\left[ \begin{array}{c} +1 \\ +1 \end{array} \right], \hspace{0.5cm}{\boldsymbol{\xi_2} } = \frac{1}{\sqrt{2} } \cdot\left[ \begin{array}{c} -1 \\ +1 \end{array} \right].$$

Nutzung von Eigenwerten in der Informationstechnik


rechts

Abschließend soll diskutiert werden, wie Eigenwert und Eigenvektor in der Informationstechnik genutzt werden können, beispielsweise zum Zwecke der Datenreduktion.

Wir gehen von den gleichen Parameterwerten wie in  $\text{Beispiel 3}$  und  $\text{Beispiel 4}$  aus.

  • Mit  $σ_1 = σ_2 = 1$  und  $ρ = 0.8$  ergibt sich die rechts skizzierte 2D-WDF mit elliptischen Höhenlinien.
  • Die Ellipsenhauptachse liegt hier wegen  $σ_1 = σ_2$  unter einem Winkel  von $45^\circ$.


In der Grafik ist zusätzlich das  $(ξ_1, ξ_2)$-Koordinatensystem eingezeichnet, das durch die Eigenvektoren  $\mathbf{ξ}_1$  und  $\mathbf{ξ}_2$  der Korrelationsmatrix aufgespannt wird:

  • Die Eigenwerte  $λ_1 = 1.8$  und  $λ_2 = 0.2$  geben die Varianzen bezüglich des neuen Koordinatensystems an.
  • Die Streuungen sind somit  $σ_1 = \sqrt{1.8} ≈ 1.341$  und  $σ_2 = \sqrt{0.2} ≈ 0.447$.


$\text{Beispiel 5:}$  Soll eine 2D-Zufallsgröße  $\mathbf{x}$  in seinen beiden Dimensionen  $x_1$  und  $x_2$  im Bereich zwischen  $–5σ$  und  $+5σ$  im Abstand  $Δx = 0.01$  quantisiert werden, so gibt es  $\rm 10^6$  mögliche Quantisierungswerte  $(σ_1 = σ_2 = σ = 1$  vorausgesetzt$)$.

  • Dagegen ist die Anzahl der möglichen Quantisierungswerte bei der gedrehten Zufallsgröße  $\mathbf{ξ}$  um den Faktor  $1.341 · 0.447 ≈ 0.6$  geringer.
  • Das bedeutet:   Allein durch die Drehung des Koordinatensystems um  $45^\circ$   ⇒   Transformation der 2D–Zufallsgröße  wird die Datenmenge um ca.  $40\%$  reduziert.


Die Ausrichtung entsprechend den Hauptdiagonalen wurde für den zweidimensionalen Fall bereits auf der Seite  Drehung des Koordinatensystems  behandelt, und zwar basierend auf geometrischen und trigonometrischen Überlegungen.

Die Problemlösung mit Eigenwert und Eigenvektor ist äußerst elegant und problemlos auf beliebig große Dimensionen  $N$  erweiterbar.

Basics of matrix operations: Determinant of a matrix


Wir betrachten die beiden quadratischen Matrizen mit Dimension  $N = 2$   bzw.  $N = 3$:

$${\mathbf{A}} = \left[ \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \end{array} \right], \hspace{0.5cm}{\mathbf{B}} = \left[ \begin{array}{ccc} b_{11} & b_{12} & b_{13}\\ b_{21} & b_{22} & b_{23}\\ b_{31} & b_{32} & b_{33} \end{array}\right].$$

Die Determinanten dieser beiden Matrizen lauten:

$$|{\mathbf{A}}| = a_{11} \cdot a_{22} - a_{12} \cdot a_{21},$$
$$|{\mathbf{B}}| = b_{11} \cdot b_{22} \cdot b_{33} + b_{12} \cdot b_{23} \cdot b_{31} + b_{13} \cdot b_{21} \cdot b_{32} - b_{11} \cdot b_{23} \cdot b_{32} - b_{12} \cdot b_{21} \cdot b_{33}- b_{13} \cdot b_{22} \cdot b_{31}.$$

$\text{Bitte beachten Sie:}$ 

  • Die Determinante von  $\mathbf{A}$  entspricht geometrisch der Fläche des durch die Zeilenvektoren  $(a_{11}, a_{12})$  und  $(a_{21}, a_{22})$  aufgespannten Parallelogramms.
  • Die Fläche des durch die beiden Spaltenvektoren  $(a_{11}, a_{21})^{\rm T}$  und  $(a_{12}, a_{22})^{\rm T}$  festgelegten Parallelogramms ist ebenfalls  $\vert \mathbf{A}\vert$.
  • Dagegen ist die Determinante der Matrix  $\mathbf{B}$  bei analoger geometrischer Interpretation als Volumen zu verstehen.


Für  $N > 2$  ist es möglich, sogenannte  Unterdeterminanten  zu bilden.

  • Die Unterdeterminante einer  $N×N$–Matrix bezüglich der Stelle  $(i, j)$  ist die Determinante der  $(N–1)×(N–1)$–Matrix, die sich ergibt, wenn man die  $i$-te Zeile und die  $j$-te Spalte streicht.
  • Als Kofaktor bezeichnet man dann den Wert der Unterdeterminante gewichtet mit dem Vorzeichen  $(–1)^{i+j}$.


$\text{Beispiel 6:}$  Ausgehend von der  $3×3$–Matrix $\mathbf{B}$  lauten die Kofaktoren der zweiten Zeile:

$$B_{21} = -(b_{12} \cdot b_{23} - b_{13} \cdot b_{32})\hspace{0.3cm}{\rm da}\hspace{0.3cm} i+j =3,$$
$$B_{22} = +(b_{11} \cdot b_{23} - b_{13} \cdot b_{31})\hspace{0.3cm}{\rm da}\hspace{0.3cm} i+j=4,$$
$$B_{23} = -(b_{11} \cdot b_{32} - b_{12} \cdot b_{31})\hspace{0.3cm}{\rm da}\hspace{0.3cm} i+j=5.$$

Die Determinante von  $\mathbf{B}$  ergibt sich mit diesen Kofaktoren zu:

$$\vert {\mathbf{B} } \vert = b_{21} \cdot B_{21} +b_{22} \cdot B_{22} +b_{23} \cdot B_{23}.$$
  • Die Determinante wurde hier nach der zweiten Zeile entwickelt.
  • Entwickelt man  $\mathbf{B}$  nach einer anderen Zeile oder Spalte, so ergibt sich für  $\vert \mathbf{B} \vert$  natürlich der gleiche Zahlenwert.

Basics of matrix operations: Inverse of a matrix


Häufig benötigt man die Inverse  $\mathbf{M}^{–1}$  der quadratischen Matrix  $\mathbf{M}$.  Die inverse Matrix $\mathbf{M}^{–1}$  besitzt die gleiche Dimension  $N$  wie  $\mathbf{M}$  und ist wie folgt definiert, wobei  $\mathbf{E}$  wieder die  Einheitsmatrix  (Diagonalmatrix) bezeichnet:

$${\mathbf{M}}^{-1} \cdot {\mathbf{M}} ={\mathbf{E}} = \left[ \begin{array}{cccc} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \cdots & \cdots & \cdots & \cdots \\ 0 & 0 & \cdots & 1 \end{array} \right] .$$

$\text{Beispiel 7:}$  Die Inverse der  $2×2$–Matrix $\mathbf{A}$  lautet demnach:

$$\left[ \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \end{array} \right]^{-1} = \frac{1}{\vert{\mathbf{A} }\vert} \hspace{0.1cm}\cdot \left[ \begin{array}{cc} a_{22} & -a_{12} \\ -a_{21} & a_{11} \end{array} \right].$$

Hierbei gibt  $\vert\mathbf{A}\vert = a_{11} · a_{22} - a_{12} · a_{21}$  die  Determinante  an.


$\text{Beispiel 8:}$  Entsprechend gilt für die  $3×3$–Matrix  $\mathbf{B}$:

$$\left[ \begin{array}{ccc} b_{11} & b_{12} & b_{13}\\ b_{21} & b_{22} & b_{23}\\ b_{31} & b_{32} & b_{33} \end{array}\right]^{-1} = \frac{1}{\vert{\mathbf{B} }\vert} \hspace{0.1cm}\cdot\left[ \begin{array}{ccc} B_{11} & B_{21} & B_{31}\\ B_{12} & B_{22} & B_{32}\\ B_{13} & B_{23} & B_{33} \end{array}\right].$$
  • Die Determinante  $\vert\mathbf{B}\vert$  einer  $3×3$–Matrix wurde auf der letzten Seite angegeben, ebenso wie die Berechnungsvorschrift der Kofaktoren  $B_{ij}$:
  • Diese beschreiben die Unterdeterminanten von  $\mathbf{B}$, gewichtet mit den Positionsvorzeichen  $(–1)^{i+j}$.
  • Zu beachten ist die Vertauschung der Zeilen und Spalten bei der Inversen.

Exercises on the chapter


Aufgabe 4.15: WDF und Korrelationsmatrix

Aufgabe 4.15Z: Aussagen der Kovarianzmatrix

Aufgabe 4.16: Eigenwerte und Eigenvektoren

Aufgabe 4.16Z: 2D- und 3D-Datenreduktion