<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://en.lntwww.de/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Oezdemir</id>
	<title>LNTwww - User contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://en.lntwww.de/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Oezdemir"/>
	<link rel="alternate" type="text/html" href="https://en.lntwww.de/Special:Contributions/Oezdemir"/>
	<updated>2026-05-03T07:17:48Z</updated>
	<subtitle>User contributions</subtitle>
	<generator>MediaWiki 1.34.1</generator>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Channel_Models_and_Decision_Structures&amp;diff=36247</id>
		<title>Channel Coding/Channel Models and Decision Structures</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Channel_Models_and_Decision_Structures&amp;diff=36247"/>
		<updated>2021-02-22T12:14:19Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
 &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Binäre Blockcodes zur Kanalcodierung&lt;br /&gt;
|Vorherige Seite=Zielsetzung der Kanalcodierung&lt;br /&gt;
|Nächste Seite=Beispiele binärer Blockcodes&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== AWGN–Channel At Binary Input ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
We consider the well-known time-discrete&amp;amp;nbsp; [[Modulationsverfahren/Qualit%C3%A4tskriterien#Einige_Anmerkungen_zum_AWGN.E2.80.93Kanalmodell| AWGN Channel model]]&amp;amp;nbsp; according to the lower left graph:&lt;br /&gt;
*The binary and discrete-time message signal&amp;amp;nbsp; $x$&amp;amp;nbsp; takes the values&amp;amp;nbsp; $0$&amp;amp;nbsp; and&amp;amp;nbsp; $1$&amp;amp;nbsp; with equal probability; that is, it is&amp;amp;nbsp; ${\rm Pr}(x = 0) = {\rm Pr}(\tilde{x} =+1) = 1/2$&amp;amp;nbsp; and&amp;amp;nbsp; ${\rm Pr}(x = 1) = {\rm Pr}(\tilde{x} =-1) = 1/2$. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Transmission is affected by&amp;amp;nbsp; [[Digitalsignalübertragung/Systemkomponenten_eines_Basisbandübertragungssystems#.C3.9Cbertragungskanal_und_St.C3.B6rungen| additive white gaussian noise]]&amp;amp;nbsp; (AWGN)&amp;amp;nbsp; $n$&amp;amp;nbsp; with the (normalised) noise power&amp;amp;nbsp; $\sigma^2 = N_0/E_{\rm B}$&amp;amp;nbsp;. The dispersion of the Gaussian&amp;amp;ndash;WDF is&amp;amp;nbsp; $\sigma$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Because of the Gaussian WDF, the output signal&amp;amp;nbsp; $y = \tilde{x} +n$&amp;amp;nbsp; can take on any real value in the range&amp;amp;nbsp; $-\infty$&amp;amp;nbsp; to&amp;amp;nbsp; $+\infty$&amp;amp;nbsp;. The signal value&amp;amp;nbsp; $y$&amp;amp;nbsp; is therefore discrete in time like&amp;amp;nbsp; $x$&amp;amp;nbsp; &amp;amp;nbsp;$($bzw. $\tilde{x})$&amp;amp;nbsp; but in contrast to the latter it is continuous in value.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2340 KC T 1 2 S1 v2.png|right|frame|PDF of the AWGN Channel|class=fit]]&lt;br /&gt;
&lt;br /&gt;
The graph on the right shows (in blue and red respectively) the conditional probability density functions:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;f_{y \hspace{0.03cm}| \hspace{0.03cm}x=0 } \hspace{0.05cm} (y \hspace{0.05cm}| \hspace{0.05cm}x=0 )\hspace{-0.1cm} =  \hspace{-0.1cm}&lt;br /&gt;
\frac {1}{\sqrt{2\pi} \cdot \sigma } \cdot {\rm e}^{ -  (y-1)^2/(2\sigma^2) }\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;f_{y \hspace{0.03cm}| \hspace{0.03cm}x=1 } \hspace{0.05cm} (y \hspace{0.05cm}| \hspace{0.05cm}x=1 )\hspace{-0.1cm} =  \hspace{-0.1cm}&lt;br /&gt;
\frac {1}{\sqrt{2\pi} \cdot \sigma } \cdot {\rm e}^{ -  (y+1)^2/(2\sigma^2) }\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Not shown is the total (unconditional) WDF, for which applies in the case of equally probable symbols:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;f_y(y) = {1}/{2} \cdot  \left [ f_{y \hspace{0.03cm}| \hspace{0.03cm}x=0 } \hspace{0.05cm} (y \hspace{0.05cm}| \hspace{0.05cm}x=0 ) +  &lt;br /&gt;
f_{y \hspace{0.03cm}| \hspace{0.03cm}x=1 } \hspace{0.05cm} (y \hspace{0.05cm}| \hspace{0.05cm}x=1 )\right ]\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
The two shaded areas &amp;amp;nbsp;$($each &amp;amp;nbsp;$\varepsilon)$&amp;amp;nbsp; mark decision errors under the condition&amp;amp;nbsp; $x=0$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $\tilde{x} = +1$&amp;amp;nbsp; (blue) &amp;amp;nbsp; and respectively $x=1$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $\tilde{x} = -1$&amp;amp;nbsp; (red) when hard decisions are made:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;z = \left\{ \begin{array}{c} 0\\&lt;br /&gt;
 1   \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{1}c} {\rm if} \hspace{0.15cm} y &amp;gt; 0\hspace{0.05cm},\\&lt;br /&gt;
{\rm if} \hspace{0.15cm}y &amp;lt; 0\hspace{0.05cm}.\\ \end{array}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
For equally probable input symbols, the mean bit error probability&amp;amp;nbsp; ${\rm Pr}(z \ne x)$&amp;amp;nbsp; is then also equal&amp;amp;nbsp; $\varepsilon$. With the&amp;amp;nbsp; [[Theory_of_Stochastic_Signals/Gaußverteilte_Zufallsgrößen#.C3.9Cberschreitungswahrscheinlichkeit|complementary gaussian error integral]]&amp;amp;nbsp; ${\rm Q}(x)$ the following holds:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\varepsilon = {\rm Q}(1/\sigma) = {\rm Q}(\sqrt{\rho}) = &lt;br /&gt;
\frac {1}{\sqrt{2\pi} } \cdot \int_{\sqrt{\rho}}^{\infty}{\rm e}^{- \alpha^2/2} \hspace{0.1cm}{\rm d}\alpha&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
where&amp;amp;nbsp; $\rho = 1/\sigma^2 = 2 \cdot E_{\rm S}/N_0$&amp;amp;nbsp; denotes the signal&amp;amp;ndash;to&amp;amp;ndash;noise ratio (SNR) before the decision maker, using the following system quantities:&lt;br /&gt;
*$E_{\rm S}$&amp;amp;nbsp; is the signal energy per symbol (without coding equal &amp;amp;nbsp;$E_{\rm B}$, thus equal to the signal energy per bit),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*$N_0$&amp;amp;nbsp; denotes the constant (one-sided) noise power density of the AWGN&amp;amp;ndash;channel.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
''Notes'':&amp;amp;nbsp;The presented facts are clarified with the interactive applet&amp;amp;nbsp;  [[Applets:FehlerwahrscheinlichkeitS|Symbol error probability of digital systems]]&lt;br /&gt;
== Binary Symmetric Channel – BSC ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The AWGN&amp;amp;ndash;channel model is not a digital channel model as we have presupposed in the paragraph&amp;amp;nbsp;  [[Channel_Coding/Zielsetzung_der_Kanalcodierung#Blockschaltbild_und_Voraussetzungen|block diagram and prerequisities]]&amp;amp;nbsp; for the introductory description of channel coding methods. However, if we take into account a hard decision, we arrive at the digital model&amp;amp;nbsp; &amp;lt;i&amp;gt;Binary Symmetric Channel&amp;lt;/i&amp;gt;&amp;amp;nbsp; (BSC):&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2341 KC T 1 2 S2 v2.png|center|frame|BSC–Model und Relation with The AWGN Model|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Choosing the falsification probabilities&amp;amp;nbsp; ${\rm Pr}(y = 1\hspace{0.05cm}|\hspace{0.05cm} x=0)$&amp;amp;nbsp; respectively,&amp;amp;nbsp; ${\rm Pr}(y = 0\hspace{0.05cm}|\hspace{0.05cm} x=1)$&amp;amp;nbsp; respectively to be&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\varepsilon =  {\rm Q}(\sqrt{\rho})\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
then the connection to the&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang |AWGN&amp;amp;ndash;Kanalmodell]]&amp;amp;nbsp; &amp;amp;nbsp; is established. The decision boundary is at&amp;amp;nbsp; $G = 0$, which also gives rise to the property &amp;amp;bdquo;symmetrical&amp;amp;rdquo;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;i&amp;gt;Hinweis:&amp;lt;/i&amp;gt;&amp;amp;nbsp; Beim AWGN&amp;amp;ndash;Modell haben wir die binäre Ausgangsgröße (nach Schwellenwertentscheidung) mit&amp;amp;nbsp; $z \in \{0, \hspace{0.05cm}1\}$&amp;amp;nbsp; bezeichnet. Bei den digitalen Kanalmodellen (BSC, BEC, BSEC) bezeichnen wir nun den wertdiskreten Ausgang wieder mit&amp;amp;nbsp; $y$. Um Verwechslungen zu vermeiden, nennen wir das Ausgangssignal des AWGN&amp;amp;ndash;Modells nun&amp;amp;nbsp; $y_{\rm A}$. Für das analoge Empfangssignal gilt dann&amp;amp;nbsp; $y_{\rm A} = \tilde{x} +n$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das BSC&amp;amp;ndash;Modell liefert eine statistisch unabhängige Fehlerfolge und eignet sich somit zur Modellierung gedächtnisloser rückkopplungsfreier Kanäle, die in diesem Buch ausnahmslos betrachtet werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zur Beschreibung gedächtnisbehafteter Kanäle müssen andere Modelle herangezogen werden, die im fünften Hauptkapitel  des Buches &amp;amp;bdquo;Digitalsignalübertragung&amp;amp;rdquo; behandelt werden, zum Beispiel Bündelfehlerkanäle nach &lt;br /&gt;
*dem&amp;amp;nbsp; [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_Gilbert.E2.80.93Elliott| Gilbert&amp;amp;ndash;Elliott&amp;amp;ndash;Modell]],&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*dem&amp;amp;nbsp; [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_McCullough| McCullough&amp;amp;ndash;Modell]].&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2342 KC T 1 2 S2b.png|right|frame|Statistisch unabhängige Fehler (links) und Bündelfehler (rechts) |class=fit]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp;  Die Abbildung zeigt &lt;br /&gt;
*statistisch unabhängige Fehler nach dem BSC&amp;amp;ndash;Modell (links), und &lt;br /&gt;
*so genannte Bündelfehler gemäß Gilbert&amp;amp;ndash;Elliott (rechts).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Bitfehlerrate beträgt in beiden Fällen&amp;amp;nbsp; $10\%$. Aus der rechten Grafik ist anhand der Bündelstörungen zu erkennen, dass das Bild zeilenweise übertragen wurde.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Binary Erasure Channel – BEC ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Das BSC&amp;amp;ndash;Modell liefert nur die Aussagen &amp;amp;bdquo;richtig&amp;amp;rdquo; und &amp;amp;bdquo;falsch&amp;amp;rdquo;. Manche Empfänger &amp;amp;ndash; so zum Beispiel die so genannten&amp;amp;nbsp; [[Channel_Coding/Soft%E2%80%93in_Soft%E2%80%93out_Decoder#Hard_Decision_vs._Soft_Decision|Soft&amp;amp;ndash;in Soft&amp;amp;ndash;out Decoder]]&amp;amp;nbsp; &amp;amp;ndash; können jedoch auch gewisse Informationen über die Sicherheit der Entscheidung liefern, wobei sie natürlich darüber informiert werden müssen, welche ihrer Eingangswerte sicher sind und welche eher unsicher.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2343 KC T 1 2 S3 v2.png|center|frame|Binary Erasure Channel (BEC) und Zusammenhang mit dem AWGN–Modell|class=fit]]&lt;br /&gt;
Der&amp;amp;nbsp; &amp;lt;i&amp;gt;Binary Erasure Channel&amp;lt;/i&amp;gt;&amp;amp;nbsp; (BEC) liefert eine solche Information. Anhand der Grafik erkennt man:&lt;br /&gt;
*Das Eingangsalphabet des BEC&amp;amp;ndash;Kanalmodells ist binär &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp;  $x &amp;amp;#8712; \{0, \hspace{0.05cm}1\}$ und das Ausgangsalphabet ternär &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp;  $y &amp;amp;#8712; \{0, \hspace{0.05cm}1, \hspace{0.05cm}\rm E\}$. Ein&amp;amp;nbsp; $\rm E$&amp;amp;nbsp; kennzeichnet eine unsichere Entscheidung. Dieses neue &amp;amp;bdquo;Symbol&amp;amp;rdquo; steht für &amp;lt;i&amp;gt;Erasure&amp;lt;/i&amp;gt;, zu deutsch: &amp;amp;nbsp;Auslöschung.&lt;br /&gt;
&lt;br /&gt;
*Bitfehler werden durch das BEC&amp;amp;ndash;Modell per se ausgeschlossen. Eine unsichere Entscheidung&amp;amp;nbsp; $\rm (E)$&amp;amp;nbsp; wird mit der Wahrscheinlichkeit $\lambda$ getroffen, während die Wahrscheinlichkeit für  eine richtige (und gleichzeitig sichere) Entscheidung&amp;amp;nbsp; $1-\lambda$&amp;amp;nbsp; beträgt.&lt;br /&gt;
&lt;br /&gt;
*Rechts oben ist der Zusammenhang zwischen BEC&amp;amp;ndash; und AWGN&amp;amp;ndash;Kanalmodell dargestellt, wobei das Erasure&amp;amp;ndash;Entscheidungsgebiet&amp;amp;nbsp; $\rm (E)$&amp;amp;nbsp; grau hinterlegt ist. Im Gegensatz zum BSC&amp;amp;ndash;Modell gibt es nun zwei Entscheidungsgrenzen&amp;amp;nbsp; $G_0 = G$ &amp;amp;nbsp;und&amp;amp;nbsp; $G_1 = -G$. Es gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\lambda =  {\rm Q}\big[\sqrt{\rho} \cdot (1 - G)\big]\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wir weisen hier nochmals auf die folgenden Applets hin: &lt;br /&gt;
*[[Applets:Fehlerwahrscheinlichkeit|Symbolfehlerwahrscheinlichkeit von Digitalsystemen]],&lt;br /&gt;
*[[Applets:Komplementäre_Gaußsche_Fehlerfunktionen|Komplementäre Gaußsche Fehlerfunktion]].&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
== Binary Symmetric Error &amp;amp; Erasure Channel – BSEC ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Das BEC&amp;amp;ndash;Modell &amp;amp;nbsp;$($Fehlerwahrscheinlichkeit $0)$&amp;amp;nbsp; ist eher unrealistisch und nur eine Näherung für ein extrem großes Signal&amp;amp;ndash;zu&amp;amp;ndash;Rausch&amp;amp;ndash;Leistungsverhältnis (kurz SNR)&amp;amp;nbsp; $\rho$. &lt;br /&gt;
&lt;br /&gt;
Stärkere Störungen &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; ein kleineres&amp;amp;nbsp; $\rho$&amp;amp;nbsp; sollten besser durch den&amp;amp;nbsp; &amp;lt;i&amp;gt;Binary Symmetric Error &amp;amp; Erasure Channel&amp;lt;/i&amp;gt;&amp;amp;nbsp; (BSEC) mit den zwei Parametern&lt;br /&gt;
*Verfälschungswahrscheinlichkeit &amp;amp;nbsp; $\varepsilon = {\rm Pr}(y = 1\hspace{0.05cm}|\hspace{0.05cm} x=0)= {\rm Pr}(y = 0\hspace{0.05cm}|\hspace{0.05cm} x=1)$,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Erasure&amp;amp;ndash;Wahrscheinlichkeit &amp;amp;nbsp; $\lambda = {\rm Pr}(y = {\rm E}\hspace{0.05cm}|\hspace{0.05cm} x=0)= {\rm Pr}(y = {\rm E}\hspace{0.05cm}|\hspace{0.05cm} x=1)$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
modelliert werden. Wie beim BEC&amp;amp;ndash;Modell gilt auch hier&amp;amp;nbsp; $x &amp;amp;#8712; \{0, \hspace{0.05cm}1\}$ &amp;amp;nbsp;und&amp;amp;nbsp; $y &amp;amp;#8712; \{0, \hspace{0.05cm}1, \hspace{0.05cm}\rm E\}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:KC_T_1_2_S4_version2.png|center|frame|Binary Symmetric Error &amp;amp; Erasure Channel (BSEC) &amp;amp; Zusammenhang mit dem AWGN–Modell|class=fit]]&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp;  Wir betrachten das BSEC&amp;amp;ndash;Modell mit den beiden Entscheidungsgeraden&amp;amp;nbsp; $G_0 = G = 0.5$&amp;amp;nbsp; und&amp;amp;nbsp; $G_1 = -G = -0.5$, dessen Parameter&amp;amp;nbsp; $\varepsilon$&amp;amp;nbsp; und&amp;amp;nbsp; $\lambda$&amp;amp;nbsp; durch das SNR&amp;amp;nbsp; $\rho=1/\sigma^2$&amp;amp;nbsp; des vergleichbaren AWGN&amp;amp;ndash;Kanals festgelegt sind. Dann gilt &lt;br /&gt;
*für&amp;amp;nbsp; $\sigma = 0.5$  &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $\rho = 4$:&lt;br /&gt;
::&amp;lt;math&amp;gt;\varepsilon = {\rm Q}\big[\sqrt{\rho} \cdot (1 + G)\big] = {\rm Q}(3) \approx 0.14\%\hspace{0.05cm},\hspace{0.6cm}&lt;br /&gt;
{\it \lambda} =  {\rm Q}\big[\sqrt{\rho} \cdot (1 - G)\big] -  \varepsilon = {\rm Q}(1) - {\rm Q}(3) \approx 15.87\% -  0.14\% = 15.73\%\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*für&amp;amp;nbsp; $\sigma = 0.25$  &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $\rho = 16$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\varepsilon  = {\rm Q}(6) \approx 10^{-10}\hspace{0.05cm},\hspace{0.6cm} &lt;br /&gt;
{\it \lambda} = {\rm Q}(2)  \approx 2.27\%\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für die rechts dargestellte WDF wurde&amp;amp;nbsp; $\rho = 4$&amp;amp;nbsp; vorausgesetzt. Für&amp;amp;nbsp; $\rho = 16$&amp;amp;nbsp; könnte das BSEC&amp;amp;ndash;Modell durch die einfachere BEC&amp;amp;ndash;Variante ersetzt werden, ohne dass es zu gravierenden Unterschieden kommt.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Maximum-a-posteriori– und Maximum-Likelihood–Kriterium ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir gehen nun von dem nachfolgend skizzierten Modell aus und wenden die bereits im Kapitel&amp;amp;nbsp; [[Digitalsignal%C3%BCbertragung/Struktur_des_optimalen_Empf%C3%A4ngers| Struktur des optimalen Empfängers]]&amp;amp;nbsp; des Buches &amp;amp;bdquo;Digitalsignalübertragung&amp;amp;rdquo; genannten Entscheidungskriterien auf den Decodiervorgang an.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2345 KC T 1 2 S5 v2.png|center|frame|Modell zur Beschreibung von MAP– und ML–Decodierung|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Aufgabe des Kanaldecodierers&amp;amp;nbsp; (oder Kanaldecoders) ist es, den Vektor&amp;amp;nbsp; $\underline{v}$&amp;amp;nbsp; so zu bestimmen, dass dieser &amp;amp;bdquo;möglichst gut&amp;amp;rdquo; mit dem Informationswort&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; übereinstimmt. &lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Etwas genauer formuliert:}$&amp;amp;nbsp;  &lt;br /&gt;
*Es soll die&amp;amp;nbsp; '''Blockfehlerwahrscheinlichkeit'''&amp;amp;nbsp; ${\rm Pr(Blockfehler)} = {\rm Pr}(\underline{v} \ne \underline{u}) $&amp;amp;nbsp; bezogen auf die Vektoren&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{v}$&amp;amp;nbsp; der Länge&amp;amp;nbsp; $k$&amp;amp;nbsp; möglichst gering sein. &lt;br /&gt;
&lt;br /&gt;
*Aufgrund der eindeutigen Zuordnung&amp;amp;nbsp; $\underline{x} = {\rm enc}(\underline{u})$&amp;amp;nbsp; durch den Kanalcoder bzw. empfängerseitig&amp;amp;nbsp; $\underline{v} = {\rm enc}^{-1}(\underline{z})$&amp;amp;nbsp; gilt in gleicher Weise:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr(Blockfehler)} = {\rm Pr}(\underline{z} \ne \underline{x})\hspace{0.05cm}. &amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Der Kanaldecoder in obigem Modell besteht aus zwei Teilen:&lt;br /&gt;
*Der&amp;amp;nbsp; &amp;lt;i&amp;gt;Codewortschätzer&amp;lt;/i&amp;gt;&amp;amp;nbsp; ermittelt aus dem Empfangsvektor&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; einen Schätzwert&amp;amp;nbsp; $\underline{z} \in \mathcal{C}$&amp;amp;nbsp; gemäß einem vorgegebenen Kriterium.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Aus dem (empfangenen) Codewort&amp;amp;nbsp; $\underline{z}$&amp;amp;nbsp; wird das Informationswort&amp;amp;nbsp;  $\underline{v}$&amp;amp;nbsp; durch&amp;amp;nbsp; &amp;lt;i&amp;gt;einfaches Mapping&amp;lt;/i&amp;gt;&amp;amp;nbsp; ermittelt. Dieses sollte mit&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; übereinstimmen.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für den Codewortschätzer gibt es insgesamt vier unterschiedliche Varianten, nämlich&lt;br /&gt;
*den Maximum&amp;amp;ndash;a&amp;amp;ndash;posteriori&amp;amp;ndash;Empfänger (MAP&amp;amp;ndash;Empfänger) für das gesamte Codewort&amp;amp;nbsp; $\underline{x}$,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*den Maximum&amp;amp;ndash;a&amp;amp;ndash;posteriori&amp;amp;ndash;Empfänger (MAP&amp;amp;ndash;Empfänger) für die einzelnen Codebits&amp;amp;nbsp; $x_i$,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*den Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Empfänger (ML&amp;amp;ndash;Empfänger)  für das gesamte Codewort&amp;amp;nbsp; $\underline{x}$,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*den Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Empfänger (ML&amp;amp;ndash;Empfänger)  für die einzelnen Codebits&amp;amp;nbsp; $x_i$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Deren Definitionen folgen auf der nächsten Seite. Vorab aber gleich das wesentliche Unterscheidungsmerkmal zwischen MAP und ML:&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp;  &lt;br /&gt;
*Ein MAP&amp;amp;ndash;Empfänger berücksichtigt im Gegensatz zum ML&amp;amp;ndash;Empfänger auch unterschiedliche Auftrittswahrscheinlichkeiten für das gesamte Codewort bzw. für deren einzelne Bits.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Sind alle  Codeworte&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; und damit auch alle Bits&amp;amp;nbsp; $x_i$&amp;amp;nbsp; der Codeworte gleichwahrscheinlich, so ist der einfachere ML&amp;amp;ndash;Empfänger  äquivalent zum entsprechenden MAP&amp;amp;ndash;Empfänger.}}&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Definitionen der verschiedenen Optimalempfänger ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Der&amp;amp;nbsp; '''Maximum&amp;amp;ndash;a&amp;amp;ndash;posteriori&amp;amp;ndash;Empfänger auf Blockebene'''&amp;amp;nbsp; &amp;amp;ndash; kurz: &amp;amp;nbsp;&amp;lt;b&amp;gt;block&amp;amp;ndash;wise MAP&amp;lt;/b&amp;gt; &amp;amp;ndash;  entscheidet sich unter den&amp;amp;nbsp; $2^k$&amp;amp;nbsp; Codeworten&amp;amp;nbsp; $\underline{x}_i \in \mathcal{C}$&amp;amp;nbsp; für das Codewort mit der größten Rückschlusswahrscheinlichkeit (englisch: &amp;amp;nbsp; &amp;lt;i&amp;gt;a&amp;amp;ndash;posteriori probability&amp;lt;/i&amp;gt;, APP):&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.03cm} \in \hspace{0.05cm} \mathcal{C} } \hspace{0.1cm} {\rm Pr}( \underline{x}_{\hspace{0.03cm}i} \vert\hspace{0.05cm} \underline{y} ) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
${\rm Pr}( \underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm}\vert \hspace{0.05cm} \underline{y} )$&amp;amp;nbsp; ist die&amp;amp;nbsp; [[Theory_of_Stochastic_Signals/Statistische_Abh%C3%A4ngigkeit_und_Unabh%C3%A4ngigkeit#Bedingte_Wahrscheinlichkeit| bedingte Wahrscheinlichkeit]], dass&amp;amp;nbsp; $\underline{x}_i$&amp;amp;nbsp; gesendet wurde, wenn&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; empfangen wird.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wir versuchen nun, diese Entscheidungsregel schrittweise zu vereinfachen. Die Rückschlusswahrscheinlichkeit kann  nach dem &amp;amp;bdquo;Satz von Bayes&amp;amp;rdquo; wie folgt umgeformt werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}( \underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm}\vert \hspace{0.05cm} \underline{y} ) = &lt;br /&gt;
 \frac{{\rm Pr}( \underline{y} \hspace{0.08cm} |\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} ) \cdot {\rm Pr}( \underline{x}_{\hspace{0.03cm}i}  )}{{\rm Pr}( \underline{y}  )} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Wahrscheinlichkeit&amp;amp;nbsp; ${\rm Pr}( \underline{y}) $&amp;amp;nbsp;  ist unabhängig von&amp;amp;nbsp; $\underline{x}_i$&amp;amp;nbsp; und muss bei der Maximierung nicht berücksichtigt werden. Sind zudem alle&amp;amp;nbsp; $2^k$&amp;amp;nbsp; Informationsworte&amp;amp;nbsp; $\underline{u}_i$&amp;amp;nbsp; gleichwahrscheinlich, so kann man bei der Maximierung auch auf den Beitrag&amp;amp;nbsp; ${\rm Pr}( \underline{x}_{\hspace{0.03cm}i}  ) = 2^{-k}$&amp;amp;nbsp; im Zähler verzichten.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;  Der&amp;amp;nbsp; '''Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Empfänger  auf Blockebene'''&amp;amp;nbsp; &amp;amp;ndash; kurz: &amp;amp;nbsp;'''block&amp;amp;ndash;wise ML'''&amp;amp;nbsp; &amp;amp;ndash; entscheidet sich unter den&amp;amp;nbsp; $2^k$&amp;amp;nbsp; zulässigen Codeworten&amp;amp;nbsp; $\underline{x}_i \in \mathcal{C}$&amp;amp;nbsp; für das Codewort mit der größten  Übergangswahrscheinlichkeit:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C} } \hspace{0.1cm} {\rm Pr}( \underline{y}  \hspace{0.05cm}\vert\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} ) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die bedingte Wahrscheinlichkeit&amp;amp;nbsp; ${\rm Pr}( \underline{y}  \hspace{0.05cm}\vert\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} )$&amp;amp;nbsp; ist nun in Vorwärtsrichtung zu verstehen, nämlich als die Wahrscheinlichkeit, dass der Vektor&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; empfangen wird, wenn das Codewort&amp;amp;nbsp; $\underline{x}_i$&amp;amp;nbsp; gesendet wurde.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Folgenden verwenden wir auf Blockebene stets den Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Empfänger. Aufgrund der vorausgesetzten gleichwahrscheinlichen Informationsworte liefert auch dieser stets die bestmögliche Entscheidung.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Anders sieht es jedoch auf Bitebene aus. Ziel einer iterativen Decodierung ist es gerade, für alle Codebits&amp;amp;nbsp; $x_i \in  \{0, 1\}$&amp;amp;nbsp; Wahrscheinlichkeiten zu schätzen und diese an die nächste Stufe weiterzugeben. Hierzu benötigt man einen MAP&amp;amp;ndash;Empfänger.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;  Der&amp;amp;nbsp; '''Maximum&amp;amp;ndash;a&amp;amp;ndash;posteriori&amp;amp;ndash;Empfänger auf Bitebene'''&amp;amp;nbsp; (kurz:&amp;amp;nbsp; '''bit&amp;amp;ndash;wise MAP''') wählt für jedes einzelne Codebit&amp;amp;nbsp; $x_i$&amp;amp;nbsp; den Wert &amp;amp;nbsp;$(0$ oder $1)$&amp;amp;nbsp; mit der größten Rückschlusswahrscheinlichkeit&amp;amp;nbsp; ${\rm Pr}( {x}_{\hspace{0.03cm}i}\vert \hspace{0.05cm} \underline{y} )$&amp;amp;nbsp; aus:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg}\hspace{-0.1cm}{ \max_{ {x}_{\hspace{0.03cm}i} \hspace{0.03cm} \in \hspace{0.05cm} \{0, 1\} } \hspace{0.03cm} {\rm Pr}( {x}_{\hspace{0.03cm}i}\vert \hspace{0.05cm} \underline{y} ) \hspace{0.05cm} }.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Maximum-Likelihood–Entscheidung beim BSC–Kanal ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir wenden nun das Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Kriterium auf den gedächtnislosen&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC|BSC&amp;amp;ndash;Kanal]]&amp;amp;nbsp; an. Dann gilt:&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}( \underline{y}  \hspace{0.05cm}|\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} ) =&lt;br /&gt;
\prod\limits_{l=1}^{n} {\rm Pr}( y_l  \hspace{0.05cm}|\hspace{0.05cm} x_l ) \hspace{0.2cm}{\rm mit}\hspace{0.2cm}&lt;br /&gt;
{\rm Pr}( y_l  \hspace{0.05cm}|\hspace{0.05cm} x_l ) = &lt;br /&gt;
 \left\{ \begin{array}{c} 1 - \varepsilon\\&lt;br /&gt;
  \varepsilon  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{1}c} {\rm falls} \hspace{0.15cm} y_l = x_l \hspace{0.05cm},\\&lt;br /&gt;
{\rm falls} \hspace{0.15cm}y_l \ne x_l\hspace{0.05cm}.\\ \end{array}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} {\rm Pr}( \underline{y}  \hspace{0.05cm}|\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} ) =&lt;br /&gt;
\varepsilon^{d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})} \cdot&lt;br /&gt;
(1-\varepsilon)^{n-d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})} &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Beweis:}$&amp;amp;nbsp;  Dieses Ergebnis lässt sich wie folgt begründen:&lt;br /&gt;
*Die&amp;amp;nbsp; [[Channel_Coding/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung|Hamming&amp;amp;ndash;Distanz]]&amp;amp;nbsp; $d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})$&amp;amp;nbsp; gibt die Anzahl der Bitpositionen an, in denen sich die Worte&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{x}_{\hspace{0.03cm}i}$&amp;amp;nbsp; mit jeweils&amp;amp;nbsp; $n$&amp;amp;nbsp; binären Elementen unterscheiden. Beispiel: &amp;amp;nbsp; Die Hamming&amp;amp;ndash;Distanz zwischen&amp;amp;nbsp; $\underline{y}= (0, 1, 0, 1, 0, 1, 1)$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{x}_{\hspace{0.03cm}i} = (0, 1, 0, 0, 1, 1, 1)$&amp;amp;nbsp; ist&amp;amp;nbsp; $2$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*In&amp;amp;nbsp; $n - d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})$&amp;amp;nbsp; Positionen unterscheiden sich demnach die beiden Vektoren&amp;amp;nbsp;  $\underline{y}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{x}_{\hspace{0.03cm}i}$&amp;amp;nbsp; nicht. Im obigen Beispiel sind fünf der&amp;amp;nbsp; $n = 7$&amp;amp;nbsp; Bit identisch. &lt;br /&gt;
*Zu obiger Gleichung kommt man schließlich durch Einsetzen der Verfälschungswahrscheinlichkeit&amp;amp;nbsp; $\varepsilon$&amp;amp;nbsp; bzw. deren Ergänzung&amp;amp;nbsp; $1-\varepsilon$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Vorgehensweise bei der Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Detektion ist, dasjenige Codewort&amp;amp;nbsp; $\underline{x}_{\hspace{0.03cm}i}$&amp;amp;nbsp; zu finden, das die Übergangswahrscheinlichkeit&amp;amp;nbsp; ${\rm Pr}( \underline{y}  \hspace{0.05cm}|\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} )$&amp;amp;nbsp; maximiert:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm} &lt;br /&gt;
\left [ &lt;br /&gt;
\varepsilon^{d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})} \cdot&lt;br /&gt;
(1-\varepsilon)^{n-d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})}&lt;br /&gt;
\right ] \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Da der Logarithmus eine monoton steigende Funktion ist, erhält man das gleiche Ergebnis nach folgender Maximierung:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm}&lt;br /&gt;
L(\underline{x}_{\hspace{0.03cm}i})\hspace{0.5cm} {\rm mit}\hspace{0.5cm} L(\underline{x}_{\hspace{0.03cm}i})  = \ln \left [ &lt;br /&gt;
\varepsilon^{d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})} \cdot&lt;br /&gt;
(1-\varepsilon)^{n-d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})}&lt;br /&gt;
\right ] &amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \Rightarrow \hspace{0.3cm} L(\underline{x}_{\hspace{0.03cm}i}) = d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i}) \cdot \ln &lt;br /&gt;
\hspace{0.05cm} \varepsilon + \big [n -d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})\big ] \cdot \ln &lt;br /&gt;
\hspace{0.05cm} (1- \varepsilon) = \ln \frac{\varepsilon}{1-\varepsilon} \cdot d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i}) + n \cdot \ln &lt;br /&gt;
\hspace{0.05cm} (1- \varepsilon)&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hierbei ist zu berücksichtigen:&lt;br /&gt;
*Der zweite Term dieser Gleichung ist unabhängig von&amp;amp;nbsp; $\underline{x}_{\hspace{0.03cm}i}$&amp;amp;nbsp; und muss für die Maximierung nicht weiter betrachtet werden. &lt;br /&gt;
*Auch der Faktor vor der Hamming&amp;amp;ndash;Distanz ist für alle&amp;amp;nbsp;  $\underline{x}_{\hspace{0.03cm}i}$&amp;amp;nbsp; gleich. &lt;br /&gt;
*Da&amp;amp;nbsp; $\ln \, {\varepsilon}/(1-\varepsilon)$&amp;amp;nbsp; negativ ist (zumindest für&amp;amp;nbsp; $\varepsilon &amp;lt;0.5$, was ohne große Einschränkung vorausgestzt werden kann), wird aus der Maximierung eine Minimierung, und man erhält folgendes Endergebnis:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Maximum&amp;amp;ndash;Likelihood-Entscheidung beim BSC-Kanal:}$&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
Wähle von den&amp;amp;nbsp; $2^k$&amp;amp;nbsp; zulässigen Codeworten&amp;amp;nbsp; $\underline{x}_{\hspace{0.03cm}i}$&amp;amp;nbsp; dasjenige mit der &amp;lt;i&amp;gt;geringsten Hamming&amp;amp;ndash;Distanz&amp;lt;/i&amp;gt;&amp;amp;nbsp; $d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})$&amp;amp;nbsp; zum Empfangsvektor&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; aus:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \min_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C} } \hspace{0.1cm}&lt;br /&gt;
d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})\hspace{0.05cm}, \hspace{0.2cm}&lt;br /&gt;
\underline{y} \in {\rm GF}(2^n) \hspace{0.05cm}, \hspace{0.2cm}\underline{x}_{\hspace{0.03cm}i}\in {\rm GF}(2^n) \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Anwendungen der ML/BSC&amp;amp;ndash;Entscheidung finden Sie auf den folgenden Seiten:&lt;br /&gt;
*[[Channel_Coding/Beispiele_bin%C3%A4rer_Blockcodes#Single_Parity.E2.80.93check_Codes|Single Parity&amp;amp;ndash;check Code]]&amp;amp;nbsp; (SPC)&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*[[Channel_Coding/Beispiele_binärer_Blockcodes#Wiederholungscodes|Wiederholungscode]]&amp;amp;nbsp; (englisch: &amp;amp;nbsp; &amp;lt;i&amp;gt;Repetition Code&amp;lt;/i&amp;gt;, RC).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Maximum-Likelihood–Entscheidung beim AWGN–Kanal ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Das AWGN&amp;amp;ndash;Modell für einen&amp;amp;nbsp; $(n, k)$&amp;amp;ndash;Blockcode unterscheidet sich vom&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang| Modell]]&amp;amp;nbsp; auf der ersten Kapitelseite dadurch, dass für&amp;amp;nbsp; $x$, &amp;amp;nbsp;$\tilde{x}$&amp;amp;nbsp; und &amp;amp;nbsp;$y$&amp;amp;nbsp; nun die entsprechenden Vektoren&amp;amp;nbsp; $\underline{x}$, &amp;amp;nbsp;$\underline{\tilde{x}}$&amp;amp;nbsp; und &amp;amp;nbsp;$\underline{y}$&amp;amp;nbsp; verwendet werden müssen, jeweils bestehend aus&amp;amp;nbsp; $n$&amp;amp;nbsp; Elementen. &lt;br /&gt;
&lt;br /&gt;
Die Schritte zur Herleitung des Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Entscheiders bei AWGN werden nachfolgend nur stichpunktartig angegeben:&lt;br /&gt;
*Der AWGN&amp;amp;ndash;Kanal ist per se gedächtnislos (hierfür steht das &amp;amp;bdquo;White&amp;amp;rdquo; im Namen). Für die bedingte Wahrscheinlichkeitsdichtefunktion kann somit geschrieben werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;f( \underline{y}  \hspace{0.05cm}|\hspace{0.05cm} \underline{\tilde{x}} ) =&lt;br /&gt;
\prod\limits_{l=1}^{n} f( y_l  \hspace{0.05cm}|\hspace{0.05cm} \tilde{x}_l ) &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die bedingte WDF ist für jedes einzelne Codeelement&amp;amp;nbsp; $(l = 1, \hspace{0.05cm}\text{...} \hspace{0.05cm}, n)$&amp;amp;nbsp; ''gaußisch''. Damit genügt auch die gesamte WDF einer (eindimensionalen) Gaußverteilung:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;f({y_l \hspace{0.03cm}| \hspace{0.03cm}\tilde{x}_l }) = &lt;br /&gt;
\frac {1}{\sqrt{2\pi} \cdot \sigma } \cdot \exp \left [ -  \frac {(y_l - \tilde{x}_l)^2}{2\sigma^2} \right ]\hspace{0.3cm} &lt;br /&gt;
\Rightarrow \hspace{0.3cm}  f( \underline{y}  \hspace{0.05cm}|\hspace{0.05cm} \underline{\tilde{x}} ) =&lt;br /&gt;
\frac {1}{(2\pi)^{n/2} \cdot \sigma^n } \cdot \exp \left [ -  \frac {1}{2\sigma^2} \cdot &lt;br /&gt;
\sum_{l=1}^{n} \hspace{0.2cm}(y_l - \tilde{x}_l)^2&lt;br /&gt;
 \right ] \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Da&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; nun nicht mehr wie beim BSC&amp;amp;ndash;Modell wertdiskret ist, sondern wertkontinuierlich, müssen jetzt nach der ML&amp;amp;ndash;Entscheidungsregel&amp;amp;nbsp; &amp;lt;i&amp;gt;Wahrscheinlichkeitsdichten&amp;lt;/i&amp;gt;&amp;amp;nbsp; untersucht werden und nicht mehr Wahrscheinlichkeiten. Das optimale Ergebnis lautet:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm}&lt;br /&gt;
f( \underline{y}  \hspace{0.05cm}|\hspace{0.05cm} \underline{\tilde{x}}_i )\hspace{0.05cm}, \hspace{0.5cm}&lt;br /&gt;
\underline{y} \in R^n\hspace{0.05cm}, \hspace{0.2cm}\underline{x}_{\hspace{0.03cm}i}\in {\rm GF}(2^n) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*In der Algebra bezeichnet man den Abstand zweier Punkte&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{\tilde{x}}$&amp;amp;nbsp; im&amp;amp;nbsp; $n$&amp;amp;ndash;dimensionalen Raum als die&amp;amp;nbsp; [https://de.wikipedia.org/wiki/Euklidischer_Abstand Euklidische Distanz], benannt nach dem griechischen Mathematiker&amp;amp;nbsp; [https://de.wikipedia.org/wiki/Euklid Euklid], der im dritten Jahrhundert vor Christus lebte:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;d_{\rm E}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{\tilde{x}}) =&lt;br /&gt;
\sqrt{\sum_{l=1}^{n} \hspace{0.2cm}(y_l - \tilde{x}_l)^2}\hspace{0.05cm},\hspace{0.8cm}&lt;br /&gt;
\underline{y} \in R^n\hspace{0.05cm}, \hspace{0.2cm}\underline{x}_{\hspace{0.03cm}i}\in \mathcal{C}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Damit lautet die ML&amp;amp;ndash;Entscheidungsregel beim AWGN&amp;amp;ndash;Kanal für einen jeden Blockcode unter Berücksichtigung der Tatsache, dass der erste Faktor der WDF&amp;amp;nbsp; $f( \underline{y}  \hspace{0.05cm}|\hspace{0.05cm} \underline{\tilde{x}_i} )$&amp;amp;nbsp; konstant ist:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm}&lt;br /&gt;
\exp \left [ -  \frac {d_{\rm E}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{\tilde{x}}_i)}{2\sigma^2} &lt;br /&gt;
 \right ]\hspace{0.05cm}, \hspace{0.8cm}&lt;br /&gt;
\underline{y} \in R^n\hspace{0.05cm}, \hspace{0.2cm}\underline{x}_{\hspace{0.03cm}i}\in {\rm GF}(2^n) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nach einigen weiteren Zwischenschritten kommt man zum Ergebnis:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Maximum&amp;amp;ndash;Likelihood-Entscheidung beim AWGN-Kanal:}$&amp;amp;nbsp;&lt;br /&gt;
 &lt;br /&gt;
Wähle von den&amp;amp;nbsp; $2^k$&amp;amp;nbsp; zulässigen Codeworten&amp;amp;nbsp; $\underline{x}_{\hspace{0.03cm}i}$&amp;amp;nbsp; dasjenige mit der &amp;lt;i&amp;gt;kleinsten Euklidischen Distanz&amp;lt;/i&amp;gt;&amp;amp;nbsp; $d_{\rm E}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})$&amp;amp;nbsp; zum Empfangsvektor  &amp;amp;nbsp;$\underline{y}$&amp;amp;nbsp; aus:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \min_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C} } \hspace{0.1cm}&lt;br /&gt;
d_{\rm E}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})\hspace{0.05cm}, \hspace{0.8cm}&lt;br /&gt;
\underline{y} \in R^n\hspace{0.05cm}, \hspace{0.2cm}\underline{x}_{\hspace{0.03cm}i}\in {\rm GF}(2^n) \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Aufgabe_1.3:_Kanalmodelle_BSC–BEC–BSEC–AWGN|Aufgabe 1.3: Kanalmodelle BSC–BEC–BSEC–AWGN]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.4 Maximum–Likelihood–Entscheidung|Aufgabe 1.4: Maximum–Likelihood–Entscheidung]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Channel_Models_and_Decision_Structures&amp;diff=36246</id>
		<title>Channel Coding/Channel Models and Decision Structures</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Channel_Models_and_Decision_Structures&amp;diff=36246"/>
		<updated>2021-02-22T12:08:53Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
 &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Binäre Blockcodes zur Kanalcodierung&lt;br /&gt;
|Vorherige Seite=Zielsetzung der Kanalcodierung&lt;br /&gt;
|Nächste Seite=Beispiele binärer Blockcodes&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== AWGN–Channel At Binary Input ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
We consider the well-known time-discrete&amp;amp;nbsp; [[Modulationsverfahren/Qualit%C3%A4tskriterien#Einige_Anmerkungen_zum_AWGN.E2.80.93Kanalmodell| AWGN Channel model]]&amp;amp;nbsp; according to the lower left graph:&lt;br /&gt;
*The binary and discrete-time message signal&amp;amp;nbsp; $x$&amp;amp;nbsp; takes the values&amp;amp;nbsp; $0$&amp;amp;nbsp; and&amp;amp;nbsp; $1$&amp;amp;nbsp; with equal probability; that is, it is&amp;amp;nbsp; ${\rm Pr}(x = 0) = {\rm Pr}(\tilde{x} =+1) = 1/2$&amp;amp;nbsp; and&amp;amp;nbsp; ${\rm Pr}(x = 1) = {\rm Pr}(\tilde{x} =-1) = 1/2$. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Transmission is affected by&amp;amp;nbsp; [[Digitalsignalübertragung/Systemkomponenten_eines_Basisbandübertragungssystems#.C3.9Cbertragungskanal_und_St.C3.B6rungen| additive white gaussian noise]]&amp;amp;nbsp; (AWGN)&amp;amp;nbsp; $n$&amp;amp;nbsp; with the (normalised) noise power&amp;amp;nbsp; $\sigma^2 = N_0/E_{\rm B}$&amp;amp;nbsp;. The dispersion of the Gaussian&amp;amp;ndash;WDF is&amp;amp;nbsp; $\sigma$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Because of the Gaussian WDF, the output signal&amp;amp;nbsp; $y = \tilde{x} +n$&amp;amp;nbsp; can take on any real value in the range&amp;amp;nbsp; $-\infty$&amp;amp;nbsp; to&amp;amp;nbsp; $+\infty$&amp;amp;nbsp;. The signal value&amp;amp;nbsp; $y$&amp;amp;nbsp; is therefore discrete in time like&amp;amp;nbsp; $x$&amp;amp;nbsp; &amp;amp;nbsp;$($bzw. $\tilde{x})$&amp;amp;nbsp; but in contrast to the latter it is continuous in value.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2340 KC T 1 2 S1 v2.png|right|frame|PDF of the AWGN Channel|class=fit]]&lt;br /&gt;
&lt;br /&gt;
The graph on the right shows (in blue and red respectively) the conditional probability density functions:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;f_{y \hspace{0.03cm}| \hspace{0.03cm}x=0 } \hspace{0.05cm} (y \hspace{0.05cm}| \hspace{0.05cm}x=0 )\hspace{-0.1cm} =  \hspace{-0.1cm}&lt;br /&gt;
\frac {1}{\sqrt{2\pi} \cdot \sigma } \cdot {\rm e}^{ -  (y-1)^2/(2\sigma^2) }\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;f_{y \hspace{0.03cm}| \hspace{0.03cm}x=1 } \hspace{0.05cm} (y \hspace{0.05cm}| \hspace{0.05cm}x=1 )\hspace{-0.1cm} =  \hspace{-0.1cm}&lt;br /&gt;
\frac {1}{\sqrt{2\pi} \cdot \sigma } \cdot {\rm e}^{ -  (y+1)^2/(2\sigma^2) }\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Not shown is the total (unconditional) WDF, for which applies in the case of equally probable symbols:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;f_y(y) = {1}/{2} \cdot  \left [ f_{y \hspace{0.03cm}| \hspace{0.03cm}x=0 } \hspace{0.05cm} (y \hspace{0.05cm}| \hspace{0.05cm}x=0 ) +  &lt;br /&gt;
f_{y \hspace{0.03cm}| \hspace{0.03cm}x=1 } \hspace{0.05cm} (y \hspace{0.05cm}| \hspace{0.05cm}x=1 )\right ]\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
The two shaded areas &amp;amp;nbsp;$($each &amp;amp;nbsp;$\varepsilon)$&amp;amp;nbsp; mark decision errors under the condition&amp;amp;nbsp; $x=0$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $\tilde{x} = +1$&amp;amp;nbsp; (blue) &amp;amp;nbsp; respectively. $x=1$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $\tilde{x} = -1$&amp;amp;nbsp; (red) when hard decisions are made:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;z = \left\{ \begin{array}{c} 0\\&lt;br /&gt;
 1   \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{1}c} {\rm falls} \hspace{0.15cm} y &amp;gt; 0\hspace{0.05cm},\\&lt;br /&gt;
{\rm falls} \hspace{0.15cm}y &amp;lt; 0\hspace{0.05cm}.\\ \end{array}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Bei gleichwahrscheinlichen Eingangssymbolen ist dann die mittlere Bitfehlerwahrscheinlichkeit&amp;amp;nbsp; ${\rm Pr}(z \ne x)$&amp;amp;nbsp; ebenfalls gleich&amp;amp;nbsp; $\varepsilon$. Mit dem&amp;amp;nbsp; [[Theory_of_Stochastic_Signals/Gaußverteilte_Zufallsgrößen#.C3.9Cberschreitungswahrscheinlichkeit|komplementären Gaußschen Fehlerintergral]]&amp;amp;nbsp; ${\rm Q}(x)$ gilt dabei:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\varepsilon = {\rm Q}(1/\sigma) = {\rm Q}(\sqrt{\rho}) = &lt;br /&gt;
\frac {1}{\sqrt{2\pi} } \cdot \int_{\sqrt{\rho}}^{\infty}{\rm e}^{- \alpha^2/2} \hspace{0.1cm}{\rm d}\alpha&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hierbei bezeichnet&amp;amp;nbsp; $\rho = 1/\sigma^2 =  2 \cdot E_{\rm S}/N_0$&amp;amp;nbsp; das Signal&amp;amp;ndash;zu&amp;amp;ndash;Rauschverhältnis (SNR) vor dem Entscheider, wobei folgende Systemgrößen verwendet werden:&lt;br /&gt;
*$E_{\rm S}$&amp;amp;nbsp; ist die Signalenergie pro Symbol (ohne Codierung gleich &amp;amp;nbsp;$E_{\rm B}$, also gleich der Signalenergie pro Bit),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*$N_0$&amp;amp;nbsp; bezeichnet die konstante (einseitige) Rauschleistungsdichte des AWGN&amp;amp;ndash;Kanals.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
''Hinweis'':&amp;amp;nbsp; Der dargelegte Sachverhalt wird mit dem  interaktiven Applet&amp;amp;nbsp; [[Applets:Fehlerwahrscheinlichkeit|Symbolfehlerwahrscheinlichkeit von Digitalsystemen]]&amp;amp;nbsp; verdeutlicht.&lt;br /&gt;
&lt;br /&gt;
== Binary Symmetric Channel – BSC ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Das AWGN&amp;amp;ndash;Kanalmodell ist kein digitales Kanalmodell, wie wir es im Abscnitt&amp;amp;nbsp; [[Channel_Coding/Zielsetzung_der_Kanalcodierung#Blockschaltbild_und_Voraussetzungen|Blockschaltbild und Voraussetzungen]]&amp;amp;nbsp; zur einführenden Beschreibung der Kanalcodierverfahren vorausgesetzt haben. Berücksichtigen wir aber eine harte Entscheidung, so kommen wir zum digitalen Modell&amp;amp;nbsp; &amp;lt;i&amp;gt;Binary Symmetric Channel&amp;lt;/i&amp;gt;&amp;amp;nbsp; (BSC):&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2341 KC T 1 2 S2 v2.png|center|frame|BSC–Modell und Zusammenhang mit dem AWGN–Modell|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Wählt man die Verfälschungswahrscheinlichkeiten&amp;amp;nbsp; ${\rm Pr}(y = 1\hspace{0.05cm}|\hspace{0.05cm} x=0)$&amp;amp;nbsp;  bzw.&amp;amp;nbsp; ${\rm Pr}(y = 0\hspace{0.05cm}|\hspace{0.05cm} x=1)$&amp;amp;nbsp; jeweils zu&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\varepsilon =  {\rm Q}(\sqrt{\rho})\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
so ist der Zusammenhang zum&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang |AWGN&amp;amp;ndash;Kanalmodell]]&amp;amp;nbsp; hergestellt. Die Entscheidungsgrenze liegt bei&amp;amp;nbsp; $G = 0$, wodurch auch die Eigenschaft &amp;amp;bdquo;symmetrisch&amp;amp;rdquo; begründet ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;i&amp;gt;Hinweis:&amp;lt;/i&amp;gt;&amp;amp;nbsp; Beim AWGN&amp;amp;ndash;Modell haben wir die binäre Ausgangsgröße (nach Schwellenwertentscheidung) mit&amp;amp;nbsp; $z \in \{0, \hspace{0.05cm}1\}$&amp;amp;nbsp; bezeichnet. Bei den digitalen Kanalmodellen (BSC, BEC, BSEC) bezeichnen wir nun den wertdiskreten Ausgang wieder mit&amp;amp;nbsp; $y$. Um Verwechslungen zu vermeiden, nennen wir das Ausgangssignal des AWGN&amp;amp;ndash;Modells nun&amp;amp;nbsp; $y_{\rm A}$. Für das analoge Empfangssignal gilt dann&amp;amp;nbsp; $y_{\rm A} = \tilde{x} +n$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das BSC&amp;amp;ndash;Modell liefert eine statistisch unabhängige Fehlerfolge und eignet sich somit zur Modellierung gedächtnisloser rückkopplungsfreier Kanäle, die in diesem Buch ausnahmslos betrachtet werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zur Beschreibung gedächtnisbehafteter Kanäle müssen andere Modelle herangezogen werden, die im fünften Hauptkapitel  des Buches &amp;amp;bdquo;Digitalsignalübertragung&amp;amp;rdquo; behandelt werden, zum Beispiel Bündelfehlerkanäle nach &lt;br /&gt;
*dem&amp;amp;nbsp; [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_Gilbert.E2.80.93Elliott| Gilbert&amp;amp;ndash;Elliott&amp;amp;ndash;Modell]],&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*dem&amp;amp;nbsp; [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_McCullough| McCullough&amp;amp;ndash;Modell]].&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2342 KC T 1 2 S2b.png|right|frame|Statistisch unabhängige Fehler (links) und Bündelfehler (rechts) |class=fit]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp;  Die Abbildung zeigt &lt;br /&gt;
*statistisch unabhängige Fehler nach dem BSC&amp;amp;ndash;Modell (links), und &lt;br /&gt;
*so genannte Bündelfehler gemäß Gilbert&amp;amp;ndash;Elliott (rechts).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Bitfehlerrate beträgt in beiden Fällen&amp;amp;nbsp; $10\%$. Aus der rechten Grafik ist anhand der Bündelstörungen zu erkennen, dass das Bild zeilenweise übertragen wurde.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Binary Erasure Channel – BEC ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Das BSC&amp;amp;ndash;Modell liefert nur die Aussagen &amp;amp;bdquo;richtig&amp;amp;rdquo; und &amp;amp;bdquo;falsch&amp;amp;rdquo;. Manche Empfänger &amp;amp;ndash; so zum Beispiel die so genannten&amp;amp;nbsp; [[Channel_Coding/Soft%E2%80%93in_Soft%E2%80%93out_Decoder#Hard_Decision_vs._Soft_Decision|Soft&amp;amp;ndash;in Soft&amp;amp;ndash;out Decoder]]&amp;amp;nbsp; &amp;amp;ndash; können jedoch auch gewisse Informationen über die Sicherheit der Entscheidung liefern, wobei sie natürlich darüber informiert werden müssen, welche ihrer Eingangswerte sicher sind und welche eher unsicher.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2343 KC T 1 2 S3 v2.png|center|frame|Binary Erasure Channel (BEC) und Zusammenhang mit dem AWGN–Modell|class=fit]]&lt;br /&gt;
Der&amp;amp;nbsp; &amp;lt;i&amp;gt;Binary Erasure Channel&amp;lt;/i&amp;gt;&amp;amp;nbsp; (BEC) liefert eine solche Information. Anhand der Grafik erkennt man:&lt;br /&gt;
*Das Eingangsalphabet des BEC&amp;amp;ndash;Kanalmodells ist binär &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp;  $x &amp;amp;#8712; \{0, \hspace{0.05cm}1\}$ und das Ausgangsalphabet ternär &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp;  $y &amp;amp;#8712; \{0, \hspace{0.05cm}1, \hspace{0.05cm}\rm E\}$. Ein&amp;amp;nbsp; $\rm E$&amp;amp;nbsp; kennzeichnet eine unsichere Entscheidung. Dieses neue &amp;amp;bdquo;Symbol&amp;amp;rdquo; steht für &amp;lt;i&amp;gt;Erasure&amp;lt;/i&amp;gt;, zu deutsch: &amp;amp;nbsp;Auslöschung.&lt;br /&gt;
&lt;br /&gt;
*Bitfehler werden durch das BEC&amp;amp;ndash;Modell per se ausgeschlossen. Eine unsichere Entscheidung&amp;amp;nbsp; $\rm (E)$&amp;amp;nbsp; wird mit der Wahrscheinlichkeit $\lambda$ getroffen, während die Wahrscheinlichkeit für  eine richtige (und gleichzeitig sichere) Entscheidung&amp;amp;nbsp; $1-\lambda$&amp;amp;nbsp; beträgt.&lt;br /&gt;
&lt;br /&gt;
*Rechts oben ist der Zusammenhang zwischen BEC&amp;amp;ndash; und AWGN&amp;amp;ndash;Kanalmodell dargestellt, wobei das Erasure&amp;amp;ndash;Entscheidungsgebiet&amp;amp;nbsp; $\rm (E)$&amp;amp;nbsp; grau hinterlegt ist. Im Gegensatz zum BSC&amp;amp;ndash;Modell gibt es nun zwei Entscheidungsgrenzen&amp;amp;nbsp; $G_0 = G$ &amp;amp;nbsp;und&amp;amp;nbsp; $G_1 = -G$. Es gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\lambda =  {\rm Q}\big[\sqrt{\rho} \cdot (1 - G)\big]\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wir weisen hier nochmals auf die folgenden Applets hin: &lt;br /&gt;
*[[Applets:Fehlerwahrscheinlichkeit|Symbolfehlerwahrscheinlichkeit von Digitalsystemen]],&lt;br /&gt;
*[[Applets:Komplementäre_Gaußsche_Fehlerfunktionen|Komplementäre Gaußsche Fehlerfunktion]].&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
== Binary Symmetric Error &amp;amp; Erasure Channel – BSEC ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Das BEC&amp;amp;ndash;Modell &amp;amp;nbsp;$($Fehlerwahrscheinlichkeit $0)$&amp;amp;nbsp; ist eher unrealistisch und nur eine Näherung für ein extrem großes Signal&amp;amp;ndash;zu&amp;amp;ndash;Rausch&amp;amp;ndash;Leistungsverhältnis (kurz SNR)&amp;amp;nbsp; $\rho$. &lt;br /&gt;
&lt;br /&gt;
Stärkere Störungen &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; ein kleineres&amp;amp;nbsp; $\rho$&amp;amp;nbsp; sollten besser durch den&amp;amp;nbsp; &amp;lt;i&amp;gt;Binary Symmetric Error &amp;amp; Erasure Channel&amp;lt;/i&amp;gt;&amp;amp;nbsp; (BSEC) mit den zwei Parametern&lt;br /&gt;
*Verfälschungswahrscheinlichkeit &amp;amp;nbsp; $\varepsilon = {\rm Pr}(y = 1\hspace{0.05cm}|\hspace{0.05cm} x=0)= {\rm Pr}(y = 0\hspace{0.05cm}|\hspace{0.05cm} x=1)$,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Erasure&amp;amp;ndash;Wahrscheinlichkeit &amp;amp;nbsp; $\lambda = {\rm Pr}(y = {\rm E}\hspace{0.05cm}|\hspace{0.05cm} x=0)= {\rm Pr}(y = {\rm E}\hspace{0.05cm}|\hspace{0.05cm} x=1)$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
modelliert werden. Wie beim BEC&amp;amp;ndash;Modell gilt auch hier&amp;amp;nbsp; $x &amp;amp;#8712; \{0, \hspace{0.05cm}1\}$ &amp;amp;nbsp;und&amp;amp;nbsp; $y &amp;amp;#8712; \{0, \hspace{0.05cm}1, \hspace{0.05cm}\rm E\}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:KC_T_1_2_S4_version2.png|center|frame|Binary Symmetric Error &amp;amp; Erasure Channel (BSEC) &amp;amp; Zusammenhang mit dem AWGN–Modell|class=fit]]&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp;  Wir betrachten das BSEC&amp;amp;ndash;Modell mit den beiden Entscheidungsgeraden&amp;amp;nbsp; $G_0 = G = 0.5$&amp;amp;nbsp; und&amp;amp;nbsp; $G_1 = -G = -0.5$, dessen Parameter&amp;amp;nbsp; $\varepsilon$&amp;amp;nbsp; und&amp;amp;nbsp; $\lambda$&amp;amp;nbsp; durch das SNR&amp;amp;nbsp; $\rho=1/\sigma^2$&amp;amp;nbsp; des vergleichbaren AWGN&amp;amp;ndash;Kanals festgelegt sind. Dann gilt &lt;br /&gt;
*für&amp;amp;nbsp; $\sigma = 0.5$  &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $\rho = 4$:&lt;br /&gt;
::&amp;lt;math&amp;gt;\varepsilon = {\rm Q}\big[\sqrt{\rho} \cdot (1 + G)\big] = {\rm Q}(3) \approx 0.14\%\hspace{0.05cm},\hspace{0.6cm}&lt;br /&gt;
{\it \lambda} =  {\rm Q}\big[\sqrt{\rho} \cdot (1 - G)\big] -  \varepsilon = {\rm Q}(1) - {\rm Q}(3) \approx 15.87\% -  0.14\% = 15.73\%\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*für&amp;amp;nbsp; $\sigma = 0.25$  &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $\rho = 16$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\varepsilon  = {\rm Q}(6) \approx 10^{-10}\hspace{0.05cm},\hspace{0.6cm} &lt;br /&gt;
{\it \lambda} = {\rm Q}(2)  \approx 2.27\%\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für die rechts dargestellte WDF wurde&amp;amp;nbsp; $\rho = 4$&amp;amp;nbsp; vorausgesetzt. Für&amp;amp;nbsp; $\rho = 16$&amp;amp;nbsp; könnte das BSEC&amp;amp;ndash;Modell durch die einfachere BEC&amp;amp;ndash;Variante ersetzt werden, ohne dass es zu gravierenden Unterschieden kommt.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Maximum-a-posteriori– und Maximum-Likelihood–Kriterium ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir gehen nun von dem nachfolgend skizzierten Modell aus und wenden die bereits im Kapitel&amp;amp;nbsp; [[Digitalsignal%C3%BCbertragung/Struktur_des_optimalen_Empf%C3%A4ngers| Struktur des optimalen Empfängers]]&amp;amp;nbsp; des Buches &amp;amp;bdquo;Digitalsignalübertragung&amp;amp;rdquo; genannten Entscheidungskriterien auf den Decodiervorgang an.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2345 KC T 1 2 S5 v2.png|center|frame|Modell zur Beschreibung von MAP– und ML–Decodierung|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Aufgabe des Kanaldecodierers&amp;amp;nbsp; (oder Kanaldecoders) ist es, den Vektor&amp;amp;nbsp; $\underline{v}$&amp;amp;nbsp; so zu bestimmen, dass dieser &amp;amp;bdquo;möglichst gut&amp;amp;rdquo; mit dem Informationswort&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; übereinstimmt. &lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Etwas genauer formuliert:}$&amp;amp;nbsp;  &lt;br /&gt;
*Es soll die&amp;amp;nbsp; '''Blockfehlerwahrscheinlichkeit'''&amp;amp;nbsp; ${\rm Pr(Blockfehler)} = {\rm Pr}(\underline{v} \ne \underline{u}) $&amp;amp;nbsp; bezogen auf die Vektoren&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{v}$&amp;amp;nbsp; der Länge&amp;amp;nbsp; $k$&amp;amp;nbsp; möglichst gering sein. &lt;br /&gt;
&lt;br /&gt;
*Aufgrund der eindeutigen Zuordnung&amp;amp;nbsp; $\underline{x} = {\rm enc}(\underline{u})$&amp;amp;nbsp; durch den Kanalcoder bzw. empfängerseitig&amp;amp;nbsp; $\underline{v} = {\rm enc}^{-1}(\underline{z})$&amp;amp;nbsp; gilt in gleicher Weise:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr(Blockfehler)} = {\rm Pr}(\underline{z} \ne \underline{x})\hspace{0.05cm}. &amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Der Kanaldecoder in obigem Modell besteht aus zwei Teilen:&lt;br /&gt;
*Der&amp;amp;nbsp; &amp;lt;i&amp;gt;Codewortschätzer&amp;lt;/i&amp;gt;&amp;amp;nbsp; ermittelt aus dem Empfangsvektor&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; einen Schätzwert&amp;amp;nbsp; $\underline{z} \in \mathcal{C}$&amp;amp;nbsp; gemäß einem vorgegebenen Kriterium.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Aus dem (empfangenen) Codewort&amp;amp;nbsp; $\underline{z}$&amp;amp;nbsp; wird das Informationswort&amp;amp;nbsp;  $\underline{v}$&amp;amp;nbsp; durch&amp;amp;nbsp; &amp;lt;i&amp;gt;einfaches Mapping&amp;lt;/i&amp;gt;&amp;amp;nbsp; ermittelt. Dieses sollte mit&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; übereinstimmen.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für den Codewortschätzer gibt es insgesamt vier unterschiedliche Varianten, nämlich&lt;br /&gt;
*den Maximum&amp;amp;ndash;a&amp;amp;ndash;posteriori&amp;amp;ndash;Empfänger (MAP&amp;amp;ndash;Empfänger) für das gesamte Codewort&amp;amp;nbsp; $\underline{x}$,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*den Maximum&amp;amp;ndash;a&amp;amp;ndash;posteriori&amp;amp;ndash;Empfänger (MAP&amp;amp;ndash;Empfänger) für die einzelnen Codebits&amp;amp;nbsp; $x_i$,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*den Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Empfänger (ML&amp;amp;ndash;Empfänger)  für das gesamte Codewort&amp;amp;nbsp; $\underline{x}$,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*den Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Empfänger (ML&amp;amp;ndash;Empfänger)  für die einzelnen Codebits&amp;amp;nbsp; $x_i$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Deren Definitionen folgen auf der nächsten Seite. Vorab aber gleich das wesentliche Unterscheidungsmerkmal zwischen MAP und ML:&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp;  &lt;br /&gt;
*Ein MAP&amp;amp;ndash;Empfänger berücksichtigt im Gegensatz zum ML&amp;amp;ndash;Empfänger auch unterschiedliche Auftrittswahrscheinlichkeiten für das gesamte Codewort bzw. für deren einzelne Bits.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Sind alle  Codeworte&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; und damit auch alle Bits&amp;amp;nbsp; $x_i$&amp;amp;nbsp; der Codeworte gleichwahrscheinlich, so ist der einfachere ML&amp;amp;ndash;Empfänger  äquivalent zum entsprechenden MAP&amp;amp;ndash;Empfänger.}}&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Definitionen der verschiedenen Optimalempfänger ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Der&amp;amp;nbsp; '''Maximum&amp;amp;ndash;a&amp;amp;ndash;posteriori&amp;amp;ndash;Empfänger auf Blockebene'''&amp;amp;nbsp; &amp;amp;ndash; kurz: &amp;amp;nbsp;&amp;lt;b&amp;gt;block&amp;amp;ndash;wise MAP&amp;lt;/b&amp;gt; &amp;amp;ndash;  entscheidet sich unter den&amp;amp;nbsp; $2^k$&amp;amp;nbsp; Codeworten&amp;amp;nbsp; $\underline{x}_i \in \mathcal{C}$&amp;amp;nbsp; für das Codewort mit der größten Rückschlusswahrscheinlichkeit (englisch: &amp;amp;nbsp; &amp;lt;i&amp;gt;a&amp;amp;ndash;posteriori probability&amp;lt;/i&amp;gt;, APP):&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.03cm} \in \hspace{0.05cm} \mathcal{C} } \hspace{0.1cm} {\rm Pr}( \underline{x}_{\hspace{0.03cm}i} \vert\hspace{0.05cm} \underline{y} ) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
${\rm Pr}( \underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm}\vert \hspace{0.05cm} \underline{y} )$&amp;amp;nbsp; ist die&amp;amp;nbsp; [[Theory_of_Stochastic_Signals/Statistische_Abh%C3%A4ngigkeit_und_Unabh%C3%A4ngigkeit#Bedingte_Wahrscheinlichkeit| bedingte Wahrscheinlichkeit]], dass&amp;amp;nbsp; $\underline{x}_i$&amp;amp;nbsp; gesendet wurde, wenn&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; empfangen wird.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wir versuchen nun, diese Entscheidungsregel schrittweise zu vereinfachen. Die Rückschlusswahrscheinlichkeit kann  nach dem &amp;amp;bdquo;Satz von Bayes&amp;amp;rdquo; wie folgt umgeformt werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}( \underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm}\vert \hspace{0.05cm} \underline{y} ) = &lt;br /&gt;
 \frac{{\rm Pr}( \underline{y} \hspace{0.08cm} |\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} ) \cdot {\rm Pr}( \underline{x}_{\hspace{0.03cm}i}  )}{{\rm Pr}( \underline{y}  )} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Wahrscheinlichkeit&amp;amp;nbsp; ${\rm Pr}( \underline{y}) $&amp;amp;nbsp;  ist unabhängig von&amp;amp;nbsp; $\underline{x}_i$&amp;amp;nbsp; und muss bei der Maximierung nicht berücksichtigt werden. Sind zudem alle&amp;amp;nbsp; $2^k$&amp;amp;nbsp; Informationsworte&amp;amp;nbsp; $\underline{u}_i$&amp;amp;nbsp; gleichwahrscheinlich, so kann man bei der Maximierung auch auf den Beitrag&amp;amp;nbsp; ${\rm Pr}( \underline{x}_{\hspace{0.03cm}i}  ) = 2^{-k}$&amp;amp;nbsp; im Zähler verzichten.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;  Der&amp;amp;nbsp; '''Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Empfänger  auf Blockebene'''&amp;amp;nbsp; &amp;amp;ndash; kurz: &amp;amp;nbsp;'''block&amp;amp;ndash;wise ML'''&amp;amp;nbsp; &amp;amp;ndash; entscheidet sich unter den&amp;amp;nbsp; $2^k$&amp;amp;nbsp; zulässigen Codeworten&amp;amp;nbsp; $\underline{x}_i \in \mathcal{C}$&amp;amp;nbsp; für das Codewort mit der größten  Übergangswahrscheinlichkeit:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C} } \hspace{0.1cm} {\rm Pr}( \underline{y}  \hspace{0.05cm}\vert\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} ) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die bedingte Wahrscheinlichkeit&amp;amp;nbsp; ${\rm Pr}( \underline{y}  \hspace{0.05cm}\vert\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} )$&amp;amp;nbsp; ist nun in Vorwärtsrichtung zu verstehen, nämlich als die Wahrscheinlichkeit, dass der Vektor&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; empfangen wird, wenn das Codewort&amp;amp;nbsp; $\underline{x}_i$&amp;amp;nbsp; gesendet wurde.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Folgenden verwenden wir auf Blockebene stets den Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Empfänger. Aufgrund der vorausgesetzten gleichwahrscheinlichen Informationsworte liefert auch dieser stets die bestmögliche Entscheidung.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Anders sieht es jedoch auf Bitebene aus. Ziel einer iterativen Decodierung ist es gerade, für alle Codebits&amp;amp;nbsp; $x_i \in  \{0, 1\}$&amp;amp;nbsp; Wahrscheinlichkeiten zu schätzen und diese an die nächste Stufe weiterzugeben. Hierzu benötigt man einen MAP&amp;amp;ndash;Empfänger.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;  Der&amp;amp;nbsp; '''Maximum&amp;amp;ndash;a&amp;amp;ndash;posteriori&amp;amp;ndash;Empfänger auf Bitebene'''&amp;amp;nbsp; (kurz:&amp;amp;nbsp; '''bit&amp;amp;ndash;wise MAP''') wählt für jedes einzelne Codebit&amp;amp;nbsp; $x_i$&amp;amp;nbsp; den Wert &amp;amp;nbsp;$(0$ oder $1)$&amp;amp;nbsp; mit der größten Rückschlusswahrscheinlichkeit&amp;amp;nbsp; ${\rm Pr}( {x}_{\hspace{0.03cm}i}\vert \hspace{0.05cm} \underline{y} )$&amp;amp;nbsp; aus:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg}\hspace{-0.1cm}{ \max_{ {x}_{\hspace{0.03cm}i} \hspace{0.03cm} \in \hspace{0.05cm} \{0, 1\} } \hspace{0.03cm} {\rm Pr}( {x}_{\hspace{0.03cm}i}\vert \hspace{0.05cm} \underline{y} ) \hspace{0.05cm} }.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Maximum-Likelihood–Entscheidung beim BSC–Kanal ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir wenden nun das Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Kriterium auf den gedächtnislosen&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC|BSC&amp;amp;ndash;Kanal]]&amp;amp;nbsp; an. Dann gilt:&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}( \underline{y}  \hspace{0.05cm}|\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} ) =&lt;br /&gt;
\prod\limits_{l=1}^{n} {\rm Pr}( y_l  \hspace{0.05cm}|\hspace{0.05cm} x_l ) \hspace{0.2cm}{\rm mit}\hspace{0.2cm}&lt;br /&gt;
{\rm Pr}( y_l  \hspace{0.05cm}|\hspace{0.05cm} x_l ) = &lt;br /&gt;
 \left\{ \begin{array}{c} 1 - \varepsilon\\&lt;br /&gt;
  \varepsilon  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{1}c} {\rm falls} \hspace{0.15cm} y_l = x_l \hspace{0.05cm},\\&lt;br /&gt;
{\rm falls} \hspace{0.15cm}y_l \ne x_l\hspace{0.05cm}.\\ \end{array}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} {\rm Pr}( \underline{y}  \hspace{0.05cm}|\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} ) =&lt;br /&gt;
\varepsilon^{d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})} \cdot&lt;br /&gt;
(1-\varepsilon)^{n-d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})} &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Beweis:}$&amp;amp;nbsp;  Dieses Ergebnis lässt sich wie folgt begründen:&lt;br /&gt;
*Die&amp;amp;nbsp; [[Channel_Coding/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung|Hamming&amp;amp;ndash;Distanz]]&amp;amp;nbsp; $d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})$&amp;amp;nbsp; gibt die Anzahl der Bitpositionen an, in denen sich die Worte&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{x}_{\hspace{0.03cm}i}$&amp;amp;nbsp; mit jeweils&amp;amp;nbsp; $n$&amp;amp;nbsp; binären Elementen unterscheiden. Beispiel: &amp;amp;nbsp; Die Hamming&amp;amp;ndash;Distanz zwischen&amp;amp;nbsp; $\underline{y}= (0, 1, 0, 1, 0, 1, 1)$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{x}_{\hspace{0.03cm}i} = (0, 1, 0, 0, 1, 1, 1)$&amp;amp;nbsp; ist&amp;amp;nbsp; $2$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*In&amp;amp;nbsp; $n - d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})$&amp;amp;nbsp; Positionen unterscheiden sich demnach die beiden Vektoren&amp;amp;nbsp;  $\underline{y}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{x}_{\hspace{0.03cm}i}$&amp;amp;nbsp; nicht. Im obigen Beispiel sind fünf der&amp;amp;nbsp; $n = 7$&amp;amp;nbsp; Bit identisch. &lt;br /&gt;
*Zu obiger Gleichung kommt man schließlich durch Einsetzen der Verfälschungswahrscheinlichkeit&amp;amp;nbsp; $\varepsilon$&amp;amp;nbsp; bzw. deren Ergänzung&amp;amp;nbsp; $1-\varepsilon$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Vorgehensweise bei der Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Detektion ist, dasjenige Codewort&amp;amp;nbsp; $\underline{x}_{\hspace{0.03cm}i}$&amp;amp;nbsp; zu finden, das die Übergangswahrscheinlichkeit&amp;amp;nbsp; ${\rm Pr}( \underline{y}  \hspace{0.05cm}|\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} )$&amp;amp;nbsp; maximiert:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm} &lt;br /&gt;
\left [ &lt;br /&gt;
\varepsilon^{d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})} \cdot&lt;br /&gt;
(1-\varepsilon)^{n-d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})}&lt;br /&gt;
\right ] \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Da der Logarithmus eine monoton steigende Funktion ist, erhält man das gleiche Ergebnis nach folgender Maximierung:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm}&lt;br /&gt;
L(\underline{x}_{\hspace{0.03cm}i})\hspace{0.5cm} {\rm mit}\hspace{0.5cm} L(\underline{x}_{\hspace{0.03cm}i})  = \ln \left [ &lt;br /&gt;
\varepsilon^{d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})} \cdot&lt;br /&gt;
(1-\varepsilon)^{n-d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})}&lt;br /&gt;
\right ] &amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \Rightarrow \hspace{0.3cm} L(\underline{x}_{\hspace{0.03cm}i}) = d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i}) \cdot \ln &lt;br /&gt;
\hspace{0.05cm} \varepsilon + \big [n -d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})\big ] \cdot \ln &lt;br /&gt;
\hspace{0.05cm} (1- \varepsilon) = \ln \frac{\varepsilon}{1-\varepsilon} \cdot d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i}) + n \cdot \ln &lt;br /&gt;
\hspace{0.05cm} (1- \varepsilon)&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hierbei ist zu berücksichtigen:&lt;br /&gt;
*Der zweite Term dieser Gleichung ist unabhängig von&amp;amp;nbsp; $\underline{x}_{\hspace{0.03cm}i}$&amp;amp;nbsp; und muss für die Maximierung nicht weiter betrachtet werden. &lt;br /&gt;
*Auch der Faktor vor der Hamming&amp;amp;ndash;Distanz ist für alle&amp;amp;nbsp;  $\underline{x}_{\hspace{0.03cm}i}$&amp;amp;nbsp; gleich. &lt;br /&gt;
*Da&amp;amp;nbsp; $\ln \, {\varepsilon}/(1-\varepsilon)$&amp;amp;nbsp; negativ ist (zumindest für&amp;amp;nbsp; $\varepsilon &amp;lt;0.5$, was ohne große Einschränkung vorausgestzt werden kann), wird aus der Maximierung eine Minimierung, und man erhält folgendes Endergebnis:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Maximum&amp;amp;ndash;Likelihood-Entscheidung beim BSC-Kanal:}$&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
Wähle von den&amp;amp;nbsp; $2^k$&amp;amp;nbsp; zulässigen Codeworten&amp;amp;nbsp; $\underline{x}_{\hspace{0.03cm}i}$&amp;amp;nbsp; dasjenige mit der &amp;lt;i&amp;gt;geringsten Hamming&amp;amp;ndash;Distanz&amp;lt;/i&amp;gt;&amp;amp;nbsp; $d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})$&amp;amp;nbsp; zum Empfangsvektor&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; aus:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \min_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C} } \hspace{0.1cm}&lt;br /&gt;
d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})\hspace{0.05cm}, \hspace{0.2cm}&lt;br /&gt;
\underline{y} \in {\rm GF}(2^n) \hspace{0.05cm}, \hspace{0.2cm}\underline{x}_{\hspace{0.03cm}i}\in {\rm GF}(2^n) \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Anwendungen der ML/BSC&amp;amp;ndash;Entscheidung finden Sie auf den folgenden Seiten:&lt;br /&gt;
*[[Channel_Coding/Beispiele_bin%C3%A4rer_Blockcodes#Single_Parity.E2.80.93check_Codes|Single Parity&amp;amp;ndash;check Code]]&amp;amp;nbsp; (SPC)&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*[[Channel_Coding/Beispiele_binärer_Blockcodes#Wiederholungscodes|Wiederholungscode]]&amp;amp;nbsp; (englisch: &amp;amp;nbsp; &amp;lt;i&amp;gt;Repetition Code&amp;lt;/i&amp;gt;, RC).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Maximum-Likelihood–Entscheidung beim AWGN–Kanal ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Das AWGN&amp;amp;ndash;Modell für einen&amp;amp;nbsp; $(n, k)$&amp;amp;ndash;Blockcode unterscheidet sich vom&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang| Modell]]&amp;amp;nbsp; auf der ersten Kapitelseite dadurch, dass für&amp;amp;nbsp; $x$, &amp;amp;nbsp;$\tilde{x}$&amp;amp;nbsp; und &amp;amp;nbsp;$y$&amp;amp;nbsp; nun die entsprechenden Vektoren&amp;amp;nbsp; $\underline{x}$, &amp;amp;nbsp;$\underline{\tilde{x}}$&amp;amp;nbsp; und &amp;amp;nbsp;$\underline{y}$&amp;amp;nbsp; verwendet werden müssen, jeweils bestehend aus&amp;amp;nbsp; $n$&amp;amp;nbsp; Elementen. &lt;br /&gt;
&lt;br /&gt;
Die Schritte zur Herleitung des Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Entscheiders bei AWGN werden nachfolgend nur stichpunktartig angegeben:&lt;br /&gt;
*Der AWGN&amp;amp;ndash;Kanal ist per se gedächtnislos (hierfür steht das &amp;amp;bdquo;White&amp;amp;rdquo; im Namen). Für die bedingte Wahrscheinlichkeitsdichtefunktion kann somit geschrieben werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;f( \underline{y}  \hspace{0.05cm}|\hspace{0.05cm} \underline{\tilde{x}} ) =&lt;br /&gt;
\prod\limits_{l=1}^{n} f( y_l  \hspace{0.05cm}|\hspace{0.05cm} \tilde{x}_l ) &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die bedingte WDF ist für jedes einzelne Codeelement&amp;amp;nbsp; $(l = 1, \hspace{0.05cm}\text{...} \hspace{0.05cm}, n)$&amp;amp;nbsp; ''gaußisch''. Damit genügt auch die gesamte WDF einer (eindimensionalen) Gaußverteilung:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;f({y_l \hspace{0.03cm}| \hspace{0.03cm}\tilde{x}_l }) = &lt;br /&gt;
\frac {1}{\sqrt{2\pi} \cdot \sigma } \cdot \exp \left [ -  \frac {(y_l - \tilde{x}_l)^2}{2\sigma^2} \right ]\hspace{0.3cm} &lt;br /&gt;
\Rightarrow \hspace{0.3cm}  f( \underline{y}  \hspace{0.05cm}|\hspace{0.05cm} \underline{\tilde{x}} ) =&lt;br /&gt;
\frac {1}{(2\pi)^{n/2} \cdot \sigma^n } \cdot \exp \left [ -  \frac {1}{2\sigma^2} \cdot &lt;br /&gt;
\sum_{l=1}^{n} \hspace{0.2cm}(y_l - \tilde{x}_l)^2&lt;br /&gt;
 \right ] \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Da&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; nun nicht mehr wie beim BSC&amp;amp;ndash;Modell wertdiskret ist, sondern wertkontinuierlich, müssen jetzt nach der ML&amp;amp;ndash;Entscheidungsregel&amp;amp;nbsp; &amp;lt;i&amp;gt;Wahrscheinlichkeitsdichten&amp;lt;/i&amp;gt;&amp;amp;nbsp; untersucht werden und nicht mehr Wahrscheinlichkeiten. Das optimale Ergebnis lautet:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm}&lt;br /&gt;
f( \underline{y}  \hspace{0.05cm}|\hspace{0.05cm} \underline{\tilde{x}}_i )\hspace{0.05cm}, \hspace{0.5cm}&lt;br /&gt;
\underline{y} \in R^n\hspace{0.05cm}, \hspace{0.2cm}\underline{x}_{\hspace{0.03cm}i}\in {\rm GF}(2^n) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*In der Algebra bezeichnet man den Abstand zweier Punkte&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{\tilde{x}}$&amp;amp;nbsp; im&amp;amp;nbsp; $n$&amp;amp;ndash;dimensionalen Raum als die&amp;amp;nbsp; [https://de.wikipedia.org/wiki/Euklidischer_Abstand Euklidische Distanz], benannt nach dem griechischen Mathematiker&amp;amp;nbsp; [https://de.wikipedia.org/wiki/Euklid Euklid], der im dritten Jahrhundert vor Christus lebte:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;d_{\rm E}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{\tilde{x}}) =&lt;br /&gt;
\sqrt{\sum_{l=1}^{n} \hspace{0.2cm}(y_l - \tilde{x}_l)^2}\hspace{0.05cm},\hspace{0.8cm}&lt;br /&gt;
\underline{y} \in R^n\hspace{0.05cm}, \hspace{0.2cm}\underline{x}_{\hspace{0.03cm}i}\in \mathcal{C}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Damit lautet die ML&amp;amp;ndash;Entscheidungsregel beim AWGN&amp;amp;ndash;Kanal für einen jeden Blockcode unter Berücksichtigung der Tatsache, dass der erste Faktor der WDF&amp;amp;nbsp; $f( \underline{y}  \hspace{0.05cm}|\hspace{0.05cm} \underline{\tilde{x}_i} )$&amp;amp;nbsp; konstant ist:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm}&lt;br /&gt;
\exp \left [ -  \frac {d_{\rm E}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{\tilde{x}}_i)}{2\sigma^2} &lt;br /&gt;
 \right ]\hspace{0.05cm}, \hspace{0.8cm}&lt;br /&gt;
\underline{y} \in R^n\hspace{0.05cm}, \hspace{0.2cm}\underline{x}_{\hspace{0.03cm}i}\in {\rm GF}(2^n) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nach einigen weiteren Zwischenschritten kommt man zum Ergebnis:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Maximum&amp;amp;ndash;Likelihood-Entscheidung beim AWGN-Kanal:}$&amp;amp;nbsp;&lt;br /&gt;
 &lt;br /&gt;
Wähle von den&amp;amp;nbsp; $2^k$&amp;amp;nbsp; zulässigen Codeworten&amp;amp;nbsp; $\underline{x}_{\hspace{0.03cm}i}$&amp;amp;nbsp; dasjenige mit der &amp;lt;i&amp;gt;kleinsten Euklidischen Distanz&amp;lt;/i&amp;gt;&amp;amp;nbsp; $d_{\rm E}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})$&amp;amp;nbsp; zum Empfangsvektor  &amp;amp;nbsp;$\underline{y}$&amp;amp;nbsp; aus:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \min_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C} } \hspace{0.1cm}&lt;br /&gt;
d_{\rm E}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})\hspace{0.05cm}, \hspace{0.8cm}&lt;br /&gt;
\underline{y} \in R^n\hspace{0.05cm}, \hspace{0.2cm}\underline{x}_{\hspace{0.03cm}i}\in {\rm GF}(2^n) \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Aufgabe_1.3:_Kanalmodelle_BSC–BEC–BSEC–AWGN|Aufgabe 1.3: Kanalmodelle BSC–BEC–BSEC–AWGN]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.4 Maximum–Likelihood–Entscheidung|Aufgabe 1.4: Maximum–Likelihood–Entscheidung]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Objective_of_Channel_Coding&amp;diff=35733</id>
		<title>Channel Coding/Objective of Channel Coding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Objective_of_Channel_Coding&amp;diff=35733"/>
		<updated>2021-01-17T18:22:16Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{FirstPage}}&lt;br /&gt;
{{Header|&lt;br /&gt;
Untermenü=Binary Block Codes for Channel Coding&lt;br /&gt;
|Nächste Seite=Channel Models and Decision Structures&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== # Overview on The First Main Chapter # ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The first chapter deals with block codes for error detection and error correction and provides the basics for describing more effective codes such as the&amp;amp;nbsp; ''Reed-Solomon codes''&amp;amp;nbsp; (see Chapter 2), the&amp;amp;nbsp; ''convolutional codes''&amp;amp;nbsp; (Chapter 3), and the&amp;amp;nbsp; ''iteratively decodable product codes''&amp;amp;nbsp; (''turbo codes'') and&amp;amp;nbsp; ''low-density parity-check codes''&amp;amp;nbsp; (Chapter 4). We restrict ourselves here to binary codes.&lt;br /&gt;
&lt;br /&gt;
This specific field is called&amp;amp;nbsp; ''channel coding''&amp;amp;nbsp; in contrast to&amp;amp;nbsp; ''source coding''&amp;amp;nbsp; (redundancy reduction for reasons of data compression) and to&amp;amp;nbsp; ''line coding''&amp;amp;nbsp; (additional redundancy to adapt the digital signal to the spectral characteristics of the transmission medium).&lt;br /&gt;
&lt;br /&gt;
In detail, it covers:&lt;br /&gt;
&lt;br /&gt;
*Definitions and introductory examples of error detection and error correction,&lt;br /&gt;
*a brief review of appropriate channel models and decision maker structures,&lt;br /&gt;
*known binary block codes such as single parity-check code, repetition code and Hamming code,&lt;br /&gt;
*the general description of linear codes using generator matrix and check matrix,&lt;br /&gt;
*the decoding possibilities for block codes, including syndrome decoding,&lt;br /&gt;
*simple approximations and upper bounds for block error probability, and&lt;br /&gt;
*an information-theoretic bound on channel coding.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Error Detection and Error Correction ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Transmission errors occur in every message transmission system. It is possible to keep the probability&amp;amp;nbsp; $p_{\rm S}$&amp;amp;nbsp; of such a symbol error very small, for example by using a very large signal energy. However, the symbol error probability&amp;amp;nbsp; $p_{\rm S} = 0$&amp;amp;nbsp; is never achievable because of the Gaussian WDF of the thermal noise that is always present.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Particularly in the case of heavily disturbed channels and also for safety-critical applications, it is therefore essential to provide special protection for the data to be transmitted, adapted to the application and channel. For this purpose, redundancy is added at the transmitter and this redundancy is used at the receiver to reduce the number of decoding errors. &lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definitions:}$&lt;br /&gt;
&lt;br /&gt;
*'''Error Detection'''&amp;amp;nbsp; : &amp;amp;nbsp; The decoder checks the integrity of the received blocks and marks any errors found. If necessary, the receiver informs the transmitter about erroneous blocks via the return channel, so that the transmitter sends the corresponding block again.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*'''Error Correction''' &amp;amp;nbsp; The decoder detects one (or more) bit errors and provides further information for them, for example their positions in the transmitted block. In this way, it may be possible to completely correct the errors that have occurred.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*The&amp;amp;nbsp; '''Channel Coding'''&amp;amp;nbsp; includes procedures for error detection as well as those for error correction.&amp;lt;br&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
All '''ARQ''' (Automatic Repeat Request) procedures use error detection only. Less redundancy is required for error detection than for error correction. One disadvantage of ARQ is its low throughput when channel quality is poor, i.e. when entire blocks of data must be frequently re-requested by the receiver.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In this book we mostly deal with&amp;amp;nbsp; '''Forward Error Correction'''&amp;amp;nbsp;  which leads to very small error rates if the channel is sufficiently good (large SNR). With worse channel conditions, nothing changes in the throughput, i.e. the same amount of information is transmitted. However, the error rate can then assume very large values.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Often FEC and ARQ methods are combined, and the redundancy is divided between them in such a way,&lt;br /&gt;
*so that a small number of errors can still be corrected,&lt;br /&gt;
but *when there are many errors, a repeat of the block is requested.&lt;br /&gt;
&lt;br /&gt;
== Some Introductory Examples of Error Detection ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 1: &amp;amp;nbsp; Single Parity&amp;amp;ndash;Check Code (SPC)}$&lt;br /&gt;
&amp;lt;br&amp;gt;If one adds&amp;amp;nbsp; $k = 4$&amp;amp;nbsp; bit by a so-called check bit (English: &amp;amp;nbsp; &amp;lt;i&amp;gt;Parity Bit&amp;lt;/i&amp;gt;&amp;amp;nbsp;) in such a way that the sum of all ones is even, for example (with bold check bits)&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
:$$0000\boldsymbol{0}, 0001\boldsymbol{1}, \text{...} , 1111\boldsymbol{0}, \text{...}\ ,$$&lt;br /&gt;
&lt;br /&gt;
it is very easy to recognise a single error. Two errors within a code word, on the other hand, remain undetected. }}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 2: &amp;amp;nbsp International Standard Book Number (ISBN)}$&lt;br /&gt;
&amp;lt;br&amp;gt;Since the 1960s, all books have been given 10-digit codes (''ISBN&amp;amp;ndash;10''&amp;amp;nbsp;). Since 2007, the specification according to ''ISBN&amp;amp;ndash;13''&amp;amp;nbsp; is additionally obligatory. For example, these are for the reference book [Söd93]&amp;lt;ref name ='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen''. Berlin - Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*$\boldsymbol{3&amp;amp;ndash;540&amp;amp;ndash;57215&amp;amp;ndash;5}$&amp;amp;nbsp; (for ISBN&amp;amp;ndash;10), bzw. &lt;br /&gt;
*$\boldsymbol{978&amp;amp;ndash;3&amp;amp;ndash;54057215&amp;amp;ndash;2}$&amp;amp;nbsp; (for ISBN&amp;amp;ndash;13).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The last digit&amp;amp;nbsp; $z_{10}$&amp;amp;nbsp; for ISBN&amp;amp;ndash;10 results from the previous digits&amp;amp;nbsp; $z_1 = 3$,&amp;amp;nbsp; $z_2 = 5$, ... ,&amp;amp;nbsp; $z_9 = 5$&amp;amp;nbsp; according to the following calculation rule:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;z_{10} = \left ( \sum_{i=1}^{9} \hspace{0.2cm} i \cdot z_i \right ) \hspace{-0.3cm} \mod 11 = &lt;br /&gt;
(1 \cdot 3 + 2 \cdot 5 + ... + 9 \cdot 5 ) \hspace{-0.2cm} \mod 11 = 5 &lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Note that&amp;amp;nbsp; $z_{10} = 10$&amp;amp;nbsp; must be written as&amp;amp;nbsp; $z_{10} = \rm X$&amp;amp;nbsp; (Roman numeral representation of &amp;amp;bdquo;10&amp;amp;rdquo;), since the number&amp;amp;nbsp; $10$&amp;amp;nbsp; cannot be represented as a digit in the decimal system.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
The same applies to the check digit for ISBN&amp;amp;ndash;13:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;z_{13}= 10 - \left ( \sum_{i=1}^{12} \hspace{0.2cm}  z_i  \cdot 3^{(i+1) \hspace{-0.2cm} \mod 2}  \right ) \hspace{-0.3cm} \mod 10 = 10 \hspace{-0.05cm}- \hspace{-0.05cm} \big [(9\hspace{-0.05cm}+\hspace{-0.05cm}8\hspace{-0.05cm}+\hspace{-0.05cm}5\hspace{-0.05cm}+\hspace{-0.05cm}0\hspace{-0.05cm}+\hspace{-0.05cm}7\hspace{-0.05cm}+\hspace{-0.05cm}1) \cdot 1 + (7\hspace{-0.05cm}+\hspace{-0.05cm}3\hspace{-0.05cm}+\hspace{-0.05cm}4\hspace{-0.05cm}+\hspace{-0.05cm}5\hspace{-0.05cm}+\hspace{-0.05cm}2\hspace{-0.05cm}+\hspace{-0.05cm}5) \cdot 3\big ] \hspace{-0.2cm} \mod 10 &amp;lt;/math&amp;gt;&lt;br /&gt;
:: &amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} z_{13}=  10 - (108 \hspace{-0.2cm} \mod 10) = 10 - 8 = 2&lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
With both variants, in contrast to the above parity check code (SPC), number twists such as&amp;amp;nbsp; $57 \, \leftrightarrow 75$&amp;amp;nbsp; are also recognised, since different positions are weighted differently here}}&amp;lt;br&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 3: &amp;amp;nbsp; Barcode (one-dimensional)}$&lt;br /&gt;
&amp;lt;br&amp;gt;The most widely used error-detecting code worldwide is the bar code or bar code (English: &amp;amp;nbsp; &amp;lt;i&amp;gt;Bar Code&amp;lt;/i&amp;gt;) for marking products, for example according to&amp;amp;nbsp; EAN&amp;amp;ndash;13&amp;amp;nbsp; (&amp;lt;i&amp;gt;European Article Number&amp;lt;/i&amp;gt;&amp;amp;nbsp;) with 13 digits. &lt;br /&gt;
[[File:P ID2330 KC T 1 1 S2.png|right|frame|1D&amp;amp;ndash;Barcode]]&lt;br /&gt;
*These are represented by bars and gaps of different widths and can be easily decoded with an opto&amp;amp;ndash;cial reader. &lt;br /&gt;
*The first three digits indicate the country (for example Germany: &amp;amp;nbsp; between 400 and 440), the next four or five digits the manufacturer and the product. &lt;br /&gt;
*The last digit is the check digit&amp;amp;nbsp; $z_{13}$, which is calculated exactly as for ISBN&amp;amp;ndash;13.}}&lt;br /&gt;
&lt;br /&gt;
== Some Introductory Examples of Error Correction==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 4: &amp;amp;nbsp; 2D&amp;amp;ndash;Barcodes For Online&amp;amp;ndash;Tickets}$&lt;br /&gt;
&amp;lt;br&amp;gt;If you book a Deutsche Bahn ticket online and print it out, you will find an example of a two-dimensional barcode, namely the&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Aztec_Code Aztec&amp;amp;ndash;Code] developed in 1995 by Andy Longacre at the Welch Allyn company in the USA, with which amounts of data up to&amp;amp;nbsp; $3000$&amp;amp;nbsp; characters can be encoded. Due to the&amp;amp;nbsp; [[Channel_Coding/Definition_und_Eigenschaften_von_Reed–Solomon–Codes|Reed&amp;amp;ndash;Solomon&amp;amp;ndash;error correction]]&amp;amp;nbsp; &amp;amp;nbsp; reconstruction of the data content is still possible even if up to&amp;amp;nbsp; $40\%$&amp;amp;nbsp; of the code has been destroyed, for example by bending the ticket or by coffee stains.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2332 KC T 1 1 S2a.png|center|frame|2D–Barcodes: Aztec– And QR–Code|class=fit]]&lt;br /&gt;
&lt;br /&gt;
On the right is a $\rm QR&amp;amp;ndash;Code$&amp;amp;nbsp; (&amp;lt;i&amp;gt;Quick Response&amp;lt;/i&amp;gt;) with associated content. The QR&amp;amp;ndash;code was developed in 1994 for the automotive industry in Japan to mark components and also allows error correction. In the meantime, the use of the QR&amp;amp;ndash;code has become very diverse. In Japan, it can be found on almost every advertising poster and on every business card. It is also becoming more and more popular in Germany.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
All 2D&amp;amp;ndash;barcodes have square markings to calibrate the reader. You can find details on this in [KM+09]&amp;lt;ref&amp;gt;Kötter, R.; Mayer, T.; Tüchler, M.; Schreckenbach, F.; Brauchle, J.: ''Channel Coding''. Lecture Notes, Lehrstuhl für Nachrichtentechnik, TU München, 2008.&amp;lt;/ref&amp;gt;.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 5: &amp;amp;nbsp; Codes For Satellites&amp;amp;ndash; And Space Communications}$&lt;br /&gt;
&amp;lt;br&amp;gt;One of the first areas of application of error correction methods was communication from/to satellites and space shuttles, i.e. transmission routes characterised by low transmission powers and large path losses. As early as 1977, channel coding was used in the&amp;amp;nbsp; &amp;lt;i&amp;gt;space&amp;amp;ndash;mission Voyager 1&amp;lt;/i&amp;gt;&amp;amp;nbsp; to Neptune and Uranus, in the form of serial concatenation of a&amp;amp;nbsp; [[Channel_Coding/Definition_und_Eigenschaften_von_Reed–Solomon–Codes|Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code]]&amp;amp;nbsp; and a&amp;amp;nbsp; [[Channel_Coding/Grundlagen_der_Faltungscodierung|convolutional code]].&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Thus, the power parameter&amp;amp;nbsp; $10 &amp;amp;middot; \lg \; E_{\rm B}/N_0 \approx 2 \, \rm dB$ was already sufficient to achieve the required error rate&amp;amp;nbsp; $5 &amp;amp;middot; 10^{-5}$&amp;amp;nbsp; (related to the compressed data after source coding). Without channel coding, on the other hand, almost&amp;amp;nbsp; $9 \, \rm dB$&amp;amp;nbsp; are required for the same error rate, i.e. a factor&amp;amp;nbsp; $10^{0.7} &amp;amp;asymp; 5$&amp;amp;nbsp; greater transmission power.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
The planned Mars project (data transmission from Mars to Earth with&amp;amp;nbsp; $\rm 5W$&amp;amp;ndash;lasers) will also only be successful with a sophisticated coding scheme}}&amp;lt;br&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 6: &amp;amp;nbsp; Channel Codes For Mobile Communikations}$&lt;br /&gt;
&amp;lt;br&amp;gt;A further and particularly high-turnover application area that would not function without channel coding is mobile communication. Here, unfavourable conditions without coding would result in error rates in the percentage range and, due to shadowing and multipath propagation (echoes), the errors often occur in bundles. The error bundle length is sometimes several hundred bits.&lt;br /&gt;
*For voice transmission in the GSM&amp;amp;ndash;system, the&amp;amp;nbsp; $182$&amp;amp;nbsp; most important (class 1a and 1b) of the total&amp;amp;nbsp; 260&amp;amp;nbsp; bits of a voice frame&amp;amp;nbsp; $(20 \, \rm ms)$&amp;amp;nbsp; together with a few parity&amp;amp;ndash; and tailbits are convolutionally coded&amp;amp;nbsp;$($with memory&amp;amp;nbsp; $m = 4$&amp;amp;nbsp; and rate&amp;amp;nbsp;$R = 1/2)$&amp;amp;nbsp; and scrambled. Together with the&amp;amp;nbsp; $78$&amp;amp;nbsp; less important and therefore uncoded bits of class 2, this results in the bit rate increasing from&amp;amp;nbsp; $13 \, \rm kbit/s$&amp;amp;nbsp; to&amp;amp;nbsp; $22.4 \, \rm kbit/s$&amp;amp;nbsp;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*One uses the (relative) redundancy of $r = (22.4 - 13)/22.4 &amp;amp;asymp; 0.42$&amp;amp;nbsp; for error correction. It should be noted that&amp;amp;nbsp; $r = 0.42$&amp;amp;nbsp; because of the definition used here, $42\%$&amp;amp;nbsp; of the encoded bits are redundant. With the reference value &amp;amp;bdquo;bit rate of the uncoded sequence&amp;amp;rdquo; we would get&amp;amp;nbsp; $r = 9.4/13 \approx 0.72$&amp;amp;nbsp; with the statement: &amp;amp;nbsp; To the information bits are added&amp;amp;nbsp; $72\%$&amp;amp;nbsp; check bits. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*For&amp;amp;nbsp; [[Examples_of_Communication_Systems/Allgemeine_Beschreibung_von_UMTS|UMTS]]&amp;amp;nbsp; (&amp;lt;i&amp;gt;Universal Mobile Telecommunications System&amp;lt;/i&amp;gt;),&amp;amp;nbsp; [[Channel_Coding/Grundlagen_der_Faltungscodierung|Convolutional Codes]]&amp;amp;nbsp;  with the rates&amp;amp;nbsp; $R = 1/2$&amp;amp;nbsp; or&amp;amp;nbsp; $R = 1/3$&amp;amp;nbsp; are used. In the UMTS&amp;amp;ndash;modes for higher data rates and correspondingly lower spreading factors, on the other hand, one uses&amp;amp;nbsp;  [[Channel_Coding/Grundlegendes_zu_den_Turbocodes|Turbo&amp;amp;ndash;Codes]]&amp;amp;nbsp; of the rate&amp;amp;nbsp; $R = 1/3$&amp;amp;nbsp; and iterative decoding. Depending on the number of iterations, gains of up to&amp;amp;nbsp; $3 \, \rm dB$ can be achieved compared to convolutional coding.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 7: &amp;amp;nbsp; Error Protection of the Compact Disc}$&lt;br /&gt;
&amp;lt;br&amp;gt;For a CD (&amp;lt;i&amp;gt;Compact Disc&amp;lt;/i&amp;gt;), one uses &amp;lt;i&amp;gt;cross&amp;amp;ndash;interleaved&amp;lt;/i&amp;gt;&amp;amp;nbsp; [[Channel_Coding/Definition_und_Eigenschaften_von_Reed–Solomon–Codes|Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes]]&amp;amp;nbsp; (RS) and then a so-called &amp;amp;nbsp; [https://en.wikipedia.org/wiki/Eight-to-fourteen_modulation Eight&amp;amp;ndash;to&amp;amp;ndash;Fourteen&amp;amp;ndash;Modulation]. Redundancy is used for error detection and correction. This coding scheme shows the following characteristics:&lt;br /&gt;
*The common code rate of the two RS&amp;amp;ndash;component codes is&amp;amp;nbsp; $R_{\rm RS} = 24/28 &amp;amp;middot; 28/32 = 3/4$. Through the 8&amp;amp;ndash;to&amp;amp;ndash;14&amp;amp;ndash;modulation and some control bits, one arrives at the total code rate&amp;amp;nbsp; $R &amp;amp;asymp; 1/3$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*In the case of statistically independent errors according to the&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC|BSC&amp;amp;ndash;model]]&amp;amp;nbsp; (&amp;lt;i&amp;gt;Binary Symmetric Channel&amp;lt;/i&amp;gt;&amp;amp;nbsp;),a complete correction is possible as long as the bit error rate does not exceed the value&amp;amp;nbsp; $10^{-3}$&amp;amp;nbsp;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*The CD&amp;amp;ndash;specific&amp;amp;nbsp; &amp;lt;i&amp;gt;Cross Interleaver&amp;lt;/i&amp;gt;&amp;amp;nbsp; scrambles&amp;amp;nbsp; $108$&amp;amp;nbsp; blocks together so that the&amp;amp;nbsp; $588$&amp;amp;nbsp; bits of a block &amp;amp;nbsp;$($each bit corresponds to approx. &amp;amp;nbsp; $0.28 \, \rm {&amp;amp;micro; m})$&amp;amp;nbsp; are distributed over approximately&amp;amp;nbsp; $1.75\, \rm cm$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*With the code rate&amp;amp;nbsp; $R &amp;amp;asymp; 1/3$&amp;amp;nbsp; one can correct approx.&amp;amp;nbsp; $10\%$&amp;amp;nbsp; &amp;amp;bdquo;Erasures&amp;amp;rdquo;. The lost values can be reconstructed (approximately) by interpolation &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp;&amp;lt;i&amp;gt;Error concealment&amp;lt;/i&amp;gt;.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In summary, if a CD has a scratch of&amp;amp;nbsp; $1. 75\, \rm mm$&amp;amp;nbsp; in length in the direction of play (i.e. more than&amp;amp;nbsp; $6000$&amp;amp;nbsp; consecutive erasures), still&amp;amp;nbsp; $90\%$&amp;amp;nbsp; of all the bits in a block are error-free, so that even the missing&amp;amp;nbsp; $10\%$&amp;amp;nbsp; can be reconstructed, or at least the erasures can be disguised so that they are not audible.&amp;lt;br&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
A demonstration of the CD's ability to correct follows on the next page}}&amp;lt;br&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
== The &amp;quot;Slit CD&amp;quot; - A Demonstration By The LNT of TUM ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
At the end of the 1990s, staff of the&amp;amp;nbsp;  [https://www.lnt.ei.tum.de/startseite/ Chair of Communications Engineering] of the  [https://www.tum.de/die-tum/ Technical University of Munich]&amp;amp;nbsp; led by professor&amp;amp;nbsp; [[Biographies_and_Bibliographies/Lehrstuhlinhaber_des_LNT#Prof._Dr.-Ing._Dr.-Ing._E.h._Joachim_Hagenauer_.281993-2006.29|Joachim Hagenauer]]&amp;amp;nbsp; eliberately damaged a music&amp;amp;ndash;CD by cutting a total of three slits, each more than one millimetre wide. Thus, almost&amp;amp;nbsp; $4000$&amp;amp;nbsp; consecutive bits of audio coding are missing with each defect.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2333 KC T 1 1 S2b.png|right|frame|„A Slit CD”  of The&amp;amp;nbsp; $\rm LNT/TUM$]]&lt;br /&gt;
&lt;br /&gt;
The diagram shows the &amp;amp;bdquo;slit CD&amp;amp;rdquo;: &lt;br /&gt;
*Both track 3 and track 14 have two such defective areas on each revolution. &lt;br /&gt;
*You can visualise the music quality with the help of the two audio players (playback time approx. 15 seconds each). &lt;br /&gt;
*The theory of this audio&amp;amp;ndash;demo can be found in the&amp;amp;nbsp; $\text{Example 7}$&amp;amp;nbsp; on the previous page.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Track 14:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;lntmedia&amp;gt;file:A_ID59__14_1.mp3&amp;lt;/lntmedia&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Track 3:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;lntmedia&amp;gt;file:A_ID60__3_1.mp3&amp;lt;/lntmedia&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Summary of this audio demo:&amp;lt;/b&amp;gt;&lt;br /&gt;
*The CD's error correction is based on two serial&amp;amp;ndash;concatenated&amp;amp;nbsp; [[Channel_Coding/Definition_und_Eigenschaften_von_Reed–Solomon–Codes|Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes]]&amp;amp;nbsp; and one&amp;amp;nbsp;  [https://en.wikipedia.org/wiki/Eight-to-fourteen_modulation Eight&amp;amp;ndash;to&amp;amp;ndash;Fourteen&amp;amp;ndash;Modulation].The total code rate for RS&amp;amp;ndash;error correction is&amp;amp;nbsp; $R = 3/4$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*As important for the functioning of the CD as the codes is the interposed interleaver, which distributes the erased bits (&amp;amp;bdquo;Erasures&amp;amp;rdquo;) over a length of almost&amp;amp;nbsp; $2 \, \rm cm$&amp;amp;nbsp;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*In&amp;amp;nbsp; '''Track 14'''&amp;amp;nbsp; the two defective areas are sufficiently far apart. Therefore, the Reed&amp;amp;ndash;Solomon&amp;amp;ndash;decoder is able to reconstruct the missing data.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*In&amp;amp;nbsp; '''Track 3'''&amp;amp;nbsp; the two error blocks follow each other in a very short distance, so that the correction algorithm fails. The result is an almost periodic clacking noise.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
We would like to thank Rainer Bauer,&amp;amp;nbsp; [[Biographies_and_Bibliographies/An_LNTwww_beteiligte_Mitarbeiter_und_Dozenten#Dr.-Ing._Thomas_Hindelang_.28am_LNT_von_1994-2000_und_2007-2012.29|Thomas Hindelang]]&amp;amp;nbsp; and&amp;amp;nbsp; [[Biographies_and_Bibliographies/An_LNTwww_beteiligte_Mitarbeiter_und_Dozenten#Manfred_J.C3.BCrgens_.28am_LNT_von_1981-2010.29|Manfred Jürgens]]for the permission to use this audio&amp;amp;ndash;demo.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Interplay Between Source and Channel Coding ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Message transmission of natural sources such as speech, music, images, videos, etc. is usually done according to the discrete-time model outlined below.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2334 KC T 1 1 S3a v2.png|center|frame|Image Transmission With Source and Channel Coding|class=fit]]&lt;br /&gt;
&lt;br /&gt;
From [Liv10]&amp;lt;ref name ='Liv10'&amp;gt;Liva, G.: ''Channel Coding.'' Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010.&amp;lt;/ref&amp;gt; the following should be noted:&lt;br /&gt;
*Source and sink are digitised and represented by (approximately equal numbers of ) zeros and ones.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*The source encoder compresses the binary data &amp;amp;ndash; in the example a digital photo &amp;amp;ndash; and thus reduces the redundancy of the source.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*The channel encoder adds redundancy again, and specifically so that some of the errors that occurred on the channel can be corrected in the channel decoder.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*A discrete-time model with binary input and output is used here for the channel, which should also suitably take into account the components of the technical transmit&amp;amp;ndash; and receive equipment (modulator, decision maker, clock recovery).&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
With correct dimensioning of sources&amp;amp;ndash; and channel coding, the quality of the received photo is sufficiently good, even if the sink symbol sequence will not exactly match the source symbol sequence due to error patterns that cannot be corrected. One can detect a (red marked) bit error within the sink symbol sequence.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 8:}$&amp;amp;nbsp; For the above graph, it was assumed, as an example and for the sake of simplicity, that &lt;br /&gt;
*the source symbol sequence has only the length&amp;amp;nbsp; $40$&amp;amp;nbsp;,&lt;br /&gt;
*the source encoder compresses the data by a factor of&amp;amp;nbsp; $40/16 = 2.5$&amp;amp;nbsp; and &lt;br /&gt;
*the channel encoder&amp;amp;nbsp; $50\%$&amp;amp;nbsp; adds redundancy. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Thus, only&amp;amp;nbsp; $24$&amp;amp;nbsp; encoder symbols have to be transmitted instead of&amp;amp;nbsp; $40$&amp;amp;nbsp; source symbols, which reduces the overall transmission rate by&amp;amp;nbsp; $40\%$&amp;amp;nbsp;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
If one were to dispense with source encoding by transmitting the original photo in BMP&amp;amp;ndash;format rather than the compressed JPG&amp;amp;ndash;image, the quality would be comparable, but a bit rate higher by a factor&amp;amp;nbsp; $2.5$&amp;amp;nbsp; and thus much more effort would be required.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 9:}$&amp;amp;nbsp; If one were to dispense with both source&amp;amp;ndash; and channel coding, i.e. transmit the BMP&amp;amp;ndash;data directly without error protection, the result would be extremely poor despite&amp;amp;nbsp; $($by a factor&amp;amp;nbsp; $40/24)$&amp;amp;nbsp; greater bit rate.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2335 KC T 1 1 S3b v2.png|center|frame|Image Transmission Without Source and Channel Coding |class=fit]]}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 10:}$&amp;amp;nbsp; Now let's consider the case of directly transferring the compressed data (for example JPG) without error-proofing measures. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2336 KC T 1 1 S3c v2.png|center|frame|Image Transmission With Source Coding  and Without Channel Coding | |class=fit]]&lt;br /&gt;
&lt;br /&gt;
*Since the compressed source has little redundancy left, any single transmission error will cause entire blocks of images to be decoded incorrectly.&amp;lt;br&amp;gt;&lt;br /&gt;
*This coding scheme (source coding but no channel coding) should be avoided at all costs}}.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Block Diagram and Requirements ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
In the further sections, we will start from the sketched block diagram with channel encoder, digital channel and channel decoder. &lt;br /&gt;
&lt;br /&gt;
[[File:P ID2337 KC T 1 1 S4 v2.png|center|frame|Block Diagram Describing Channel Coding|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Dabei gelten folgende Voraussetzungen:&lt;br /&gt;
The following conditions apply:&lt;br /&gt;
*The vector&amp;amp;nbsp; $\underline{u} = (u_1, u_2, \text{...} \hspace{0.05cm}, u_k)$&amp;amp;nbsp; denotes an&amp;amp;nbsp; '''information block'''&amp;amp;nbsp; with&amp;amp;nbsp; $k$&amp;amp;nbsp; symbols. &lt;br /&gt;
*Mostly we restrict ourselves to binary symbols (bits) &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $u_i \in \{0, \, 1\}$ for $i = 1, 2, \text{...} \hspace{0.05cm}, k$&amp;amp;nbsp; with equal occurrence probabilities for zeros and ones.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Each information block&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; is represented by a&amp;amp;nbsp; '''codeword'''&amp;amp;nbsp; (or a&amp;amp;nbsp; &amp;lt;i&amp;gt;codeblock&amp;lt;/i&amp;gt;)&amp;amp;nbsp; $\underline{x} = (x_1, x_2, \text{. ..} \hspace{0.05cm}, x_n)$&amp;amp;nbsp; with&amp;amp;nbsp; $n \ge k$, $x_i \in \{0, \, 1\}$&amp;amp;nbsp; represented. One then speaks of a binary&amp;amp;nbsp; $(n, k)$&amp;amp;ndash;block code&amp;amp;nbsp; $C$. We denote the assignment by&amp;amp;nbsp; $\underline{x} = {\rm enc}(\underline{u})$, where &amp;amp;bdquo;enc&amp;amp;rdquo; stands for &amp;amp;bdquo;encoder&amp;amp;ndash;function&amp;amp;rdquo;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*The&amp;amp;nbsp; '''receive word''' $\underline{y}$&amp;amp;nbsp; results from the codeword&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; by&amp;amp;nbsp;  [https://en.wikipedia.org/wiki/Modular_arithmetic Modulo&amp;amp;ndash;2&amp;amp;ndash;Addition]&amp;amp;nbsp;with the likewise binary error vector&amp;amp;nbsp; $\underline{e} = (e_1, e_2, \text{. ..} \hspace{0.05cm}, e_n)$, where &amp;amp;bdquo;$e= 1$&amp;amp;rdquo; represents a transmission error and &amp;amp;bdquo;$e= 0$&amp;amp;rdquo; indicates that the&amp;amp;nbsp; $i$&amp;amp;ndash;th bit of the codeword was transmitted correctly. The following therefore applies:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{y} = \underline{x} \oplus \underline{e} \hspace{0.05cm}, \hspace{0.5cm} y_i  =   x_i \oplus e_i \hspace{0.05cm}, \hspace{0.2cm} i = 1, \text{...} \hspace{0.05cm}  , n\hspace{0.05cm}, x_i \hspace{-0.05cm} \in  \hspace{-0.05cm} \{ 0, 1 \}\hspace{0.05cm}, \hspace{0.5cm}e_i \in  \{ 0, 1 \}\hspace{0.5cm}&lt;br /&gt;
\Rightarrow \hspace{0.5cm}y_i  \in   \{ 0, 1 \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The description by the&amp;amp;nbsp; '''Digital Channel Model'''&amp;amp;nbsp; &amp;amp;ndash; i.e. with binary input and output &amp;amp;ndash; is, however, only applicable if the transmission system makes hard decisions &amp;amp;ndash; see&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang| AWGN&amp;amp;ndash;Channel at Binary Input]]. Systems with&amp;amp;nbsp;  [[Channel_Coding/Decodierung_linearer_Blockcodes#Codiergewinn_.E2.80.93_Bitfehlerrate_bei_AWGN|soft decision]]&amp;amp;nbsp; cannot be modelled with this simple model.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*The vector&amp;amp;nbsp; $\underline{v}$&amp;amp;nbsp; after&amp;amp;nbsp; '''channel decoding'''&amp;amp;nbsp; has the same length&amp;amp;nbsp; $k$&amp;amp;nbsp; as the information block&amp;amp;nbsp; $\underline{u}$. We describe the decoding process with the &amp;amp;bdquo;decoder&amp;amp;ndash;function&amp;amp;rdquo; as&amp;amp;nbsp; $\underline{v} = {\rm enc}^{-1}(\underline{y}) = {\rm dec}(\underline{y})$. In the error-free case, analogous to&amp;amp;nbsp; $\underline{x} = {\rm enc}(\underline{u})$&amp;amp;nbsp; also&amp;amp;nbsp; $\underline{v} = {\rm enc}^{-1}(\underline{y})$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*If the error vector&amp;amp;nbsp; $\underline{e} \ne \underline{0}$, then&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; is usually not a valid element of the block code used, and the decoding is then not a pure mapping&amp;amp;nbsp; $\underline{y} \rightarrow \underline{v}$, but an estimate of&amp;amp;nbsp; $\underline{v}$ based on maximum match (mimimum error probability).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Important Definitions for Block Coding ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
We now consider the exemplary binary block code&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathcal{C} = \{ (0, 0, 0, 0, 0) \hspace{0.05cm},\hspace{0.15cm} (0, 1, 0, 1, 0) \hspace{0.05cm},\hspace{0.15cm}(1, 0, 1, 0, 1) \hspace{0.05cm},\hspace{0.15cm}(1, 1, 1, 1, 1) \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
This code would be unsuitable for the purpose of error detection or &amp;amp;ndash;correction. But it is constructed in such a way that it clearly illustrates the calculation of important descriptive variables:&lt;br /&gt;
*Each individual codeword&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; is described by five bits. Throughout the book, we express this fact by the&amp;amp;nbsp; '''codeword length'''&amp;amp;nbsp; (English: &amp;amp;nbsp;&amp;lt;i&amp;gt;Code Length&amp;lt;/i&amp;gt;&amp;amp;nbsp;)&amp;amp;nbsp; $n = 5$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*The above code contains four elements. Thus the&amp;amp;nbsp; '''code size'''&amp;amp;nbsp; (English: &amp;amp;nbsp; &amp;lt;i&amp;gt;Size&amp;lt;/i&amp;gt;&amp;amp;nbsp;)&amp;amp;nbsp; $|C| = 4$. Accordingly, there are also four unique mappings (English: &amp;amp;nbsp;&amp;lt;i&amp;gt;Mappings&amp;lt;/i&amp;gt;&amp;amp;nbsp;) between&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; and&amp;amp;nbsp; $\underline{x}$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*The length of an information block&amp;amp;nbsp; $\underline{u}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''Information block length'''&amp;amp;nbsp; is denoted by&amp;amp;nbsp; $k$&amp;amp;nbsp;. Since for all binary codes&amp;amp;nbsp; $|C| = 2^k$&amp;amp;nbsp; holds, it follows from&amp;amp;nbsp; $|C| = 4$&amp;amp;nbsp; that&amp;amp;nbsp; $k = 2$. The assignments between&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; and&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; in the above code are&amp;amp;nbsp; $C$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u_0} = (0, 0) \hspace{0.2cm}\leftrightarrow \hspace{0.2cm}(0, 0, 0, 0, 0) = \underline{x_0}\hspace{0.05cm}, \hspace{0.8cm}&lt;br /&gt;
\underline{u_1} = (0, 1) \hspace{0.2cm}\leftrightarrow \hspace{0.2cm}(0, 1, 0, 1, 0) = \underline{x_1}\hspace{0.05cm}, &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u_2} = (1, 0)\hspace{0.2cm} \leftrightarrow \hspace{0.2cm}(1, 0, 1, 0, 1) = \underline{x_2}\hspace{0.05cm}, \hspace{0.8cm}&lt;br /&gt;
\underline{u_3} = (1, 1) \hspace{0.2cm} \leftrightarrow \hspace{0.2cm}(1, 1, 1, 1, 1) = \underline{x_3}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*The code has the&amp;amp;nbsp; '''code rate'''&amp;amp;nbsp; $R = k/n = 2/5$&amp;amp;nbsp;. Accordingly, its redundancy is&amp;amp;nbsp; $1-R$, that is&amp;amp;nbsp; $60\%$. Without error protection&amp;amp;nbsp;$($so for the case&amp;amp;nbsp; $n = k)$&amp;amp;nbsp; the code rate&amp;amp;nbsp; $R = 1$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*A small code rate indicates that of the&amp;amp;nbsp; $n$&amp;amp;nbsp; bits of a codeword, very few actually carry information. For example, a repetition code&amp;amp;nbsp; $(k = 1)$&amp;amp;nbsp; with&amp;amp;nbsp; $n = 10$&amp;amp;nbsp; has a code rate&amp;amp;nbsp; $R = 0.1$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*The&amp;amp;nbsp; '''Hamming&amp;amp;ndash;weight'''&amp;amp;nbsp; $w_{\rm H}(\underline{x})$&amp;amp;nbsp; of the codeword&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; indicates the number of codeword elements&amp;amp;nbsp; $x_i \ne 0$&amp;amp;nbsp;. For a binary code&amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $x_i \ne 0$&amp;amp;nbsp; $w_{\rm H}(\underline{x})$&amp;amp;nbsp; is equal to the sum&amp;amp;nbsp; $x_1 + x_2 + \hspace{0.05cm}\text{...} \hspace{0.05cm}+ x_n$. In the example:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;w_{\rm H}(\underline{x}_0) = 0\hspace{0.05cm}, \hspace{0.4cm}w_{\rm H}(\underline{x}_1) = 2\hspace{0.05cm}, \hspace{0.4cm} w_{\rm H}(\underline{x}_2) = 3\hspace{0.05cm}, \hspace{0.4cm}w_{\rm H}(\underline{x}_3) = 5\hspace{0.05cm}. &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*The&amp;amp;nbsp; '''Hamming&amp;amp;ndash;distance'''&amp;amp;nbsp; $d_{\rm H}(\underline{x}, \ \underline{x}\hspace{0.03cm}')$&amp;amp;nbsp; between the codewords&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; and&amp;amp;nbsp; $\underline{x}\hspace{0.03cm}'$&amp;amp;nbsp; denotes the number of bit positions in which the two codewords differ:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;d_{\rm H}(\underline{x}_0, \hspace{0.05cm}\underline{x}_1) = 2\hspace{0.05cm}, \hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_0, \hspace{0.05cm}\underline{x}_2) = 3\hspace{0.05cm}, \hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_0, \hspace{0.05cm}\underline{x}_3) = 5\hspace{0.05cm},\hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_1, \hspace{0.05cm}\underline{x}_2) = 5\hspace{0.05cm}, \hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_1, \hspace{0.05cm}\underline{x}_3) = 3\hspace{0.05cm}, \hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_2, \hspace{0.05cm}\underline{x}_3) = 2\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*An important property of a code $C$ that significantly affects its ability to be corrected is the&amp;amp;nbsp; '''minimum distance'''&amp;amp;nbsp; between any two code words:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;d_{\rm min}(\mathcal{C}) =&lt;br /&gt;
			\min_{\substack{\underline{x},\hspace{0.05cm}\underline{x}' \hspace{0.05cm}\in \hspace{0.05cm} \mathcal{C} \\ {\underline{x}} \hspace{0.05cm}\ne \hspace{0.05cm} \underline{x}'}}\hspace{0.1cm}d_{\rm H}(\underline{x}, \hspace{0.05cm}\underline{x}')\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT= &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; A&amp;amp;nbsp; $(n, \hspace{0.05cm}k, \hspace{0.05cm}d_{\rm min})\text{ &amp;amp;ndash; block code}$&amp;amp;nbsp; has the codeword length&amp;amp;nbsp; $n$, the information block length&amp;amp;nbsp; $k$&amp;amp;nbsp; and the minimum distance&amp;amp;nbsp; $d_{\rm min}$.&lt;br /&gt;
*According to this nomenclature, the example considered here is a&amp;amp;nbsp; $(5, \hspace{0.05cm}2,\hspace{0.05cm} 2)$ &amp;amp;ndash; block code.&lt;br /&gt;
*Sometimes one omits the specification of&amp;amp;nbsp; $d_{\rm min}$&amp;amp;nbsp; and then speaks of a&amp;amp;nbsp; $(n,\hspace{0.05cm} k)$ &amp;amp;ndash; block code.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Examples of Error Detection and Correction ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The variables just defined are now to be illustrated by two examples.&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 11:}$&amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp;$\text{(4, 2, 2)&amp;amp;ndash;block code}$ &lt;br /&gt;
&lt;br /&gt;
In the graphic, the arrows pointing to the right or left illustrate the coding process or decoding:&lt;br /&gt;
&lt;br /&gt;
:$$\underline{u_0} = (0, 0) \leftrightarrow (0, 0, 0, 0) = \underline{x_0}\hspace{0.05cm},\hspace{0.5cm}&lt;br /&gt;
\underline{u_1} = (0, 1) \leftrightarrow (0, 1, 0, 1) = \underline{x_1}\hspace{0.05cm},$$&lt;br /&gt;
:$$\underline{u_2} = (1, 0) \leftrightarrow (1, 0, 1, 0) = \underline{x_2}\hspace{0.05cm},\hspace{0.5cm}&lt;br /&gt;
\underline{u_3} = (1, 1) \leftrightarrow (1, 1, 1, 1) = \underline{x_3}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2532 KC T 1 1 S5a v2.png|center|frame|(4, 2, 2)–Block Code For Error Detection|class=fit]]&lt;br /&gt;
&lt;br /&gt;
On the right, all&amp;amp;nbsp; $2^4 = 16$&amp;amp;nbsp; possible receive words&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; are shown:&lt;br /&gt;
*Of these,&amp;amp;nbsp; $2^n - 2^k = 12$&amp;amp;nbsp; can only be due to bit errors. &lt;br /&gt;
*If the decoder receives such a &amp;amp;bdquo;white&amp;amp;rdquo; code word, it detects an error, but it cannot correct it because&amp;amp;nbsp; $d_{\rm min} = 2$&amp;amp;nbsp;. &lt;br /&gt;
*For example, if it receives&amp;amp;nbsp; $\underline{y} = (0, 0, 0, 1)$, then with equal probability&amp;amp;nbsp; $\underline{x_0} = (0, 0, 0, 0)$&amp;amp;nbsp; or&amp;amp;nbsp; $\underline{x_1} = (0, 1, 0, 1)$ may have been sent}&amp;lt;br&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2533 KC T 1 1 S5b v2.png|right|frame|(5, 2, 3)–Block Code For Error Correction|class=fit]]&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 11:}$&amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp;$\text{(5, 2, 3)&amp;amp;ndash;Block Code}$ &lt;br /&gt;
&lt;br /&gt;
Here, because of $k=2$, there are four valid code words :&lt;br /&gt;
:$$\underline{x_0} = (0, 0, 0, 0, 0)\hspace{0.05cm},\hspace{0.5cm} \underline{x_1} =(0, 1, 0, 1, 1)\hspace{0.05cm},$$&lt;br /&gt;
:$$\underline{x_2} =(1, 0, 1, 1, 0)\hspace{0.05cm},\hspace{0.5cm}\underline{x_3} =(1, 1, 1, 0, 1).$$ &lt;br /&gt;
&lt;br /&gt;
The graphic shows the receiver side, where you can recognise falsified bits by the italics.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt; &lt;br /&gt;
*Of the&amp;amp;nbsp; $2^n - 2^k = 28$&amp;amp;nbsp; invalid codewords, now&amp;amp;nbsp; $20$&amp;amp;nbsp; can be assigned to a valid codeword (fill colour: &amp;amp;nbsp; red, green, blue or ochre), assuming that a single bit error is more likely than their two or more. &lt;br /&gt;
*For each valid codeword, there are five invalid codewords, each with only one corruption &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; Hamming&amp;amp;ndash;Distance&amp;amp;nbsp; $d_{\rm H} =1$. These are indicated in the respective square with red, green, blue or ochre background colour. &lt;br /&gt;
*Error correction is possible for these due to the minimum distance&amp;amp;nbsp; $d_{\rm min} = 3$&amp;amp;nbsp; between the codewords. &lt;br /&gt;
*Eight receive words are not decodable. For example, the receive word&amp;amp;nbsp; $\underline{y} = (0, 0, 1, 0, 1)$&amp;amp;nbsp; could have arisen from the codeword&amp;amp;nbsp; $\underline{x}_0 = (0, 0, 0, 0)$&amp;amp;nbsp; but also from the codeword&amp;amp;nbsp; $\underline{x}_3 = (1, 1, 1, 0, 1)$. In both cases, two bit errors would have occurred.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== On the Nomenclature in This Book ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
One of the objectives of our learning tutorial $\rm LNTww$&amp;amp;nbsp; was to describe the entire field of communications engineering and the associated basic subjects with uniform nomenclature. In this most recently tackled book &amp;amp;bdquo; Channel Coding&amp;amp;rdquo; some changes have to be made with regard to the nomenclature after all. The reasons for this are:&lt;br /&gt;
*Coding theory is a largely self-contained subject and few authors of relevant reference books on the subject attempt to relate it to other aspects of digital signal transmission.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*The authors of the most important books on channel coding &amp;amp;ndash; English-language and German &amp;amp;ndash; largely use a uniform nomenclature. We therefore do not take the liberty of squeezing the designations for channel coding into our communication technology&amp;amp;ndash;scheme.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Some nomenclature changes compared to the other&amp;amp;nbsp; $\rm LNTww$&amp;amp;ndash;books shall be mentioned here:&lt;br /&gt;
*All signals are represented by sequences of symbols in vector notation. For example&amp;amp;nbsp; $\underline{u} = (u_1, u_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, u_k)$&amp;amp;nbsp; the &amp;amp;nbsp; &amp;lt;i&amp;gt;Quellensymbolfolge&amp;lt;/i&amp;gt;&amp;amp;nbsp; and&amp;amp;nbsp; $\underline{v} = (v_1, v_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, v_k)$&amp;amp;nbsp; the &amp;lt;i&amp;gt;sink symbol sequence&amp;lt;/i&amp;gt;. Previously, these symbol sequences were designated&amp;amp;nbsp; $\langle q_\nu \rangle$&amp;amp;nbsp; and&amp;amp;nbsp; $\langle v_\nu \rangle$&amp;amp;nbsp; respectively.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*The vector $\underline{x} = (x_1, x_2, \hspace{0.05cm}\text{...} \hspace{0.05cm}, x_n)$ &amp;amp;nbsp; now denotes the discrete-time equivalent to the transmit signal&amp;amp;nbsp; $s(t)$, while the receive signal&amp;amp;nbsp; $r(t)$ is described by the vector&amp;amp;nbsp; $\underline{y} = (y_1, y_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, y_n)$&amp;amp;nbsp;. The code rate is the quotient &amp;lt;/i&amp;gt;&amp;amp;nbsp; $R=k/n$ &amp;amp;nbsp; with &amp;amp;nbsp; $0 \le R \le 1$ and the number of check bits is given by&amp;amp;nbsp; $m = n-k$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*In the first main chapter the elements&amp;amp;nbsp; $u_i$&amp;amp;nbsp; and&amp;amp;nbsp; $v_i$&amp;amp;nbsp; &amp;amp;nbsp;$($each with index&amp;amp;nbsp; $i = 1, \hspace{0.05cm}\text{...} \hspace{0.05cm}, k)$&amp;amp;nbsp; of the vectors&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; and&amp;amp;nbsp; $\underline{v}$&amp;amp;nbsp; always binary&amp;amp;nbsp; $(0$&amp;amp;nbsp; or &amp;amp;nbsp;$1)$, as are the&amp;amp;nbsp; $n$&amp;amp;nbsp; elements&amp;amp;nbsp; $x_i$&amp;amp;nbsp; of the codeword&amp;amp;nbsp; $\underline{x}$. For digital channel model&amp;amp;nbsp; ([[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC|BSC]],&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Erasure_Channel_.E2.80.93_BEC|BEC]],&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Error_.26_Erasure_Channel_.E2.80.93_BSEC|BSEC]]) also applies to the&amp;amp;nbsp; $n$&amp;amp;nbsp; received values&amp;amp;nbsp; $y_i \in \{0, 1\}$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*The &amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang|AWGN&amp;amp;ndash;Channel]]&amp;amp;nbsp; is characterised by real-valued output values&amp;amp;nbsp; $y_i$&amp;amp;nbsp;. The &amp;lt;i&amp;gt;code word estimator&amp;lt;/i&amp;gt; in this case extracts from the vector&amp;amp;nbsp;$\underline{y} = (y_1, y_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, y_n)$ &amp;amp;nbsp; the binary vector&amp;amp;nbsp; $\underline{z} = (z_1, z_2, \hspace{0.05cm}\text{...} \hspace{0.05cm}, z_n)$ to be compared with the codeword&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*The transition from&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; to&amp;amp;nbsp; $\underline{z}$&amp;amp;nbsp; is done by threshold decision &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;i&amp;gt;Hard Decision&amp;lt;/i&amp;gt; or according to the MAP&amp;amp;ndash;criterion &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;i&amp;gt;Soft Decision&amp;lt;/i&amp;gt;. For equally likely input symbols, the &amp;amp;bdquo;Maximum Likelihood&amp;amp;rdquo;&amp;amp;ndash;estimation also leads to the minimum error rate.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*In the context of the AWGN&amp;amp;ndash;model, it makes sense to represent binary code symbols $x_i$ bipolar (i.e. $\pm1$). This does not change the statistical properties. In the following, we mark the bipolar signalling with a tilde. Then applies:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\tilde{x}_i = 1 - 2 x_i  = \left\{ \begin{array}{c} +1\\&lt;br /&gt;
 -1   \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{1}c} {\rm if} \hspace{0.15cm} x_i = 0\hspace{0.05cm},\\&lt;br /&gt;
{\rm if} \hspace{0.15cm}x_i = 1\hspace{0.05cm}.\\ \end{array}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Exercises For The Chapter ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:1.1 Zur Kennzeichnung aller Bücher|Aufgabe 1.1: Zur Kennzeichnung aller Bücher]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.2 Einfacher binärer Kanalcode|Aufgabe 1.2: Einfacher binärer Kanalcode]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.2Z_3D–Darstellung_von_Codes|Aufgabe 1.2Z: 3D–Darstellung von Codes]]&lt;br /&gt;
&lt;br /&gt;
==Sources==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Objective_of_Channel_Coding&amp;diff=35698</id>
		<title>Channel Coding/Objective of Channel Coding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Objective_of_Channel_Coding&amp;diff=35698"/>
		<updated>2021-01-15T18:41:43Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{FirstPage}}&lt;br /&gt;
{{Header|&lt;br /&gt;
Untermenü=Binary Block Codes for Channel Coding&lt;br /&gt;
|Nächste Seite=Channel Models and Decision Structures&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== # Overview on The First Main Chapter # ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The first chapter deals with block codes for error detection and error correction and provides the basics for describing more effective codes such as the&amp;amp;nbsp; ''Reed-Solomon codes''&amp;amp;nbsp; (see Chapter 2), the&amp;amp;nbsp; ''convolutional codes''&amp;amp;nbsp; (Chapter 3), and the&amp;amp;nbsp; ''iteratively decodable product codes''&amp;amp;nbsp; (''turbo codes'') and&amp;amp;nbsp; ''low-density parity-check codes''&amp;amp;nbsp; (Chapter 4). We restrict ourselves here to binary codes.&lt;br /&gt;
&lt;br /&gt;
This specific field is called&amp;amp;nbsp; ''channel coding''&amp;amp;nbsp; in contrast to&amp;amp;nbsp; ''source coding''&amp;amp;nbsp; (redundancy reduction for reasons of data compression) and to&amp;amp;nbsp; ''line coding''&amp;amp;nbsp; (additional redundancy to adapt the digital signal to the spectral characteristics of the transmission medium).&lt;br /&gt;
&lt;br /&gt;
In detail, it covers:&lt;br /&gt;
&lt;br /&gt;
*Definitions and introductory examples of error detection and error correction,&lt;br /&gt;
*a brief review of appropriate channel models and decision maker structures,&lt;br /&gt;
*known binary block codes such as single parity-check code, repetition code and Hamming code,&lt;br /&gt;
*the general description of linear codes using generator matrix and check matrix,&lt;br /&gt;
*the decoding possibilities for block codes, including syndrome decoding,&lt;br /&gt;
*simple approximations and upper bounds for block error probability, and&lt;br /&gt;
*an information-theoretic bound on channel coding.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Error Detection and Error Correction ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Transmission errors occur in every message transmission system. It is possible to keep the probability&amp;amp;nbsp; $p_{\rm S}$&amp;amp;nbsp; of such a symbol error very small, for example by using a very large signal energy. However, the symbol error probability&amp;amp;nbsp; $p_{\rm S} = 0$&amp;amp;nbsp; is never achievable because of the Gaussian WDF of the thermal noise that is always present.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Particularly in the case of heavily disturbed channels and also for safety-critical applications, it is therefore essential to provide special protection for the data to be transmitted, adapted to the application and channel. For this purpose, redundancy is added at the transmitter and this redundancy is used at the receiver to reduce the number of decoding errors. &lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definitions:}$&lt;br /&gt;
&lt;br /&gt;
*'''Error Detection'''&amp;amp;nbsp; : &amp;amp;nbsp; The decoder checks the integrity of the received blocks and marks any errors found. If necessary, the receiver informs the transmitter about erroneous blocks via the return channel, so that the transmitter sends the corresponding block again.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*'''Error Correction''' &amp;amp;nbsp; The decoder detects one (or more) bit errors and provides further information for them, for example their positions in the transmitted block. In this way, it may be possible to completely correct the errors that have occurred.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*The&amp;amp;nbsp; '''Channel Coding'''&amp;amp;nbsp; includes procedures for error detection as well as those for error correction.&amp;lt;br&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
All '''ARQ''' (Automatic Repeat Request) procedures use error detection only. Less redundancy is required for error detection than for error correction. One disadvantage of ARQ is its low throughput when channel quality is poor, i.e. when entire blocks of data must be frequently re-requested by the receiver.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In this book we mostly deal with&amp;amp;nbsp; '''Forward Error Correction'''&amp;amp;nbsp;  which leads to very small error rates if the channel is sufficiently good (large SNR). With worse channel conditions, nothing changes in the throughput, i.e. the same amount of information is transmitted. However, the error rate can then assume very large values.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Often FEC and ARQ methods are combined, and the redundancy is divided between them in such a way,&lt;br /&gt;
*so that a small number of errors can still be corrected,&lt;br /&gt;
but *when there are many errors, a repeat of the block is requested.&lt;br /&gt;
&lt;br /&gt;
== Some Introductory Examples of Error Detection ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 1: &amp;amp;nbsp; Single Parity&amp;amp;ndash;Check Code (SPC)}$&lt;br /&gt;
&amp;lt;br&amp;gt;If one adds&amp;amp;nbsp; $k = 4$&amp;amp;nbsp; bit by a so-called check bit (English: &amp;amp;nbsp; &amp;lt;i&amp;gt;Parity Bit&amp;lt;/i&amp;gt;&amp;amp;nbsp;) in such a way that the sum of all ones is even, for example (with bold check bits)&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
:$$0000\boldsymbol{0}, 0001\boldsymbol{1}, \text{...} , 1111\boldsymbol{0}, \text{...}\ ,$$&lt;br /&gt;
&lt;br /&gt;
it is very easy to recognise a single error. Two errors within a code word, on the other hand, remain undetected. }}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 2: &amp;amp;nbsp International Standard Book Number (ISBN)}$&lt;br /&gt;
&amp;lt;br&amp;gt;Since the 1960s, all books have been given 10-digit codes (''ISBN&amp;amp;ndash;10''&amp;amp;nbsp;). Since 2007, the specification according to ''ISBN&amp;amp;ndash;13''&amp;amp;nbsp; is additionally obligatory. For example, these are for the reference book [Söd93]&amp;lt;ref name ='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen''. Berlin - Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*$\boldsymbol{3&amp;amp;ndash;540&amp;amp;ndash;57215&amp;amp;ndash;5}$&amp;amp;nbsp; (for ISBN&amp;amp;ndash;10), bzw. &lt;br /&gt;
*$\boldsymbol{978&amp;amp;ndash;3&amp;amp;ndash;54057215&amp;amp;ndash;2}$&amp;amp;nbsp; (for ISBN&amp;amp;ndash;13).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The last digit&amp;amp;nbsp; $z_{10}$&amp;amp;nbsp; for ISBN&amp;amp;ndash;10 results from the previous digits&amp;amp;nbsp; $z_1 = 3$,&amp;amp;nbsp; $z_2 = 5$, ... ,&amp;amp;nbsp; $z_9 = 5$&amp;amp;nbsp; according to the following calculation rule:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;z_{10} = \left ( \sum_{i=1}^{9} \hspace{0.2cm} i \cdot z_i \right ) \hspace{-0.3cm} \mod 11 = &lt;br /&gt;
(1 \cdot 3 + 2 \cdot 5 + ... + 9 \cdot 5 ) \hspace{-0.2cm} \mod 11 = 5 &lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Note that&amp;amp;nbsp; $z_{10} = 10$&amp;amp;nbsp; must be written as&amp;amp;nbsp; $z_{10} = \rm X$&amp;amp;nbsp; (Roman numeral representation of &amp;amp;bdquo;10&amp;amp;rdquo;), since the number&amp;amp;nbsp; $10$&amp;amp;nbsp; cannot be represented as a digit in the decimal system.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
The same applies to the check digit for ISBN&amp;amp;ndash;13:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;z_{13}= 10 - \left ( \sum_{i=1}^{12} \hspace{0.2cm}  z_i  \cdot 3^{(i+1) \hspace{-0.2cm} \mod 2}  \right ) \hspace{-0.3cm} \mod 10 = 10 \hspace{-0.05cm}- \hspace{-0.05cm} \big [(9\hspace{-0.05cm}+\hspace{-0.05cm}8\hspace{-0.05cm}+\hspace{-0.05cm}5\hspace{-0.05cm}+\hspace{-0.05cm}0\hspace{-0.05cm}+\hspace{-0.05cm}7\hspace{-0.05cm}+\hspace{-0.05cm}1) \cdot 1 + (7\hspace{-0.05cm}+\hspace{-0.05cm}3\hspace{-0.05cm}+\hspace{-0.05cm}4\hspace{-0.05cm}+\hspace{-0.05cm}5\hspace{-0.05cm}+\hspace{-0.05cm}2\hspace{-0.05cm}+\hspace{-0.05cm}5) \cdot 3\big ] \hspace{-0.2cm} \mod 10 &amp;lt;/math&amp;gt;&lt;br /&gt;
:: &amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} z_{13}=  10 - (108 \hspace{-0.2cm} \mod 10) = 10 - 8 = 2&lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
With both variants, in contrast to the above parity check code (SPC), number twists such as&amp;amp;nbsp; $57 \, \leftrightarrow 75$&amp;amp;nbsp; are also recognised, since different positions are weighted differently here}}&amp;lt;br&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 3: &amp;amp;nbsp; Barcode (one-dimensional)}$&lt;br /&gt;
&amp;lt;br&amp;gt;The most widely used error-detecting code worldwide is the bar code or bar code (English: &amp;amp;nbsp; &amp;lt;i&amp;gt;Bar Code&amp;lt;/i&amp;gt;) for marking products, for example according to&amp;amp;nbsp; EAN&amp;amp;ndash;13&amp;amp;nbsp; (&amp;lt;i&amp;gt;European Article Number&amp;lt;/i&amp;gt;&amp;amp;nbsp;) with 13 digits. &lt;br /&gt;
[[File:P ID2330 KC T 1 1 S2.png|right|frame|1D&amp;amp;ndash;Barcode]]&lt;br /&gt;
*These are represented by bars and gaps of different widths and can be easily decoded with an opto&amp;amp;ndash;cial reader. &lt;br /&gt;
*The first three digits indicate the country (for example Germany: &amp;amp;nbsp; between 400 and 440), the next four or five digits the manufacturer and the product. &lt;br /&gt;
*The last digit is the check digit&amp;amp;nbsp; $z_{13}$, which is calculated exactly as for ISBN&amp;amp;ndash;13.}}&lt;br /&gt;
&lt;br /&gt;
== Some Introductory Examples of Error Correction==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 4: &amp;amp;nbsp; 2D&amp;amp;ndash;Barcodes For Online&amp;amp;ndash;Tickets}$&lt;br /&gt;
&amp;lt;br&amp;gt;If you book a Deutsche Bahn ticket online and print it out, you will find an example of a two-dimensional barcode, namely the&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Aztec_Code Aztec&amp;amp;ndash;Code] developed in 1995 by Andy Longacre at the Welch Allyn company in the USA, with which amounts of data up to&amp;amp;nbsp; $3000$&amp;amp;nbsp; characters can be encoded. Due to the&amp;amp;nbsp; [[Channel_Coding/Definition_und_Eigenschaften_von_Reed–Solomon–Codes|Reed&amp;amp;ndash;Solomon&amp;amp;ndash;error correction]]&amp;amp;nbsp; &amp;amp;nbsp; reconstruction of the data content is still possible even if up to&amp;amp;nbsp; $40\%$&amp;amp;nbsp; of the code has been destroyed, for example by bending the ticket or by coffee stains.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2332 KC T 1 1 S2a.png|center|frame|2D–Barcodes: Aztec– And QR–Code|class=fit]]&lt;br /&gt;
&lt;br /&gt;
On the right is a $\rm QR&amp;amp;ndash;Code$&amp;amp;nbsp; (&amp;lt;i&amp;gt;Quick Response&amp;lt;/i&amp;gt;) with associated content. The QR&amp;amp;ndash;code was developed in 1994 for the automotive industry in Japan to mark components and also allows error correction. In the meantime, the use of the QR&amp;amp;ndash;code has become very diverse. In Japan, it can be found on almost every advertising poster and on every business card. It is also becoming more and more popular in Germany.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
All 2D&amp;amp;ndash;barcodes have square markings to calibrate the reader. You can find details on this in [KM+09]&amp;lt;ref&amp;gt;Kötter, R.; Mayer, T.; Tüchler, M.; Schreckenbach, F.; Brauchle, J.: ''Channel Coding''. Lecture Notes, Lehrstuhl für Nachrichtentechnik, TU München, 2008.&amp;lt;/ref&amp;gt;.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 5: &amp;amp;nbsp; Codes For Satellites&amp;amp;ndash; And Space Communications}$&lt;br /&gt;
&amp;lt;br&amp;gt;One of the first areas of application of error correction methods was communication from/to satellites and space shuttles, i.e. transmission routes characterised by low transmission powers and large path losses. As early as 1977, channel coding was used in the&amp;amp;nbsp; &amp;lt;i&amp;gt;space&amp;amp;ndash;mission Voyager 1&amp;lt;/i&amp;gt;&amp;amp;nbsp; to Neptune and Uranus, in the form of serial concatenation of a&amp;amp;nbsp; [[Channel_Coding/Definition_und_Eigenschaften_von_Reed–Solomon–Codes|Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code]]&amp;amp;nbsp; and a&amp;amp;nbsp; [[Channel_Coding/Grundlagen_der_Faltungscodierung|convolutional code]].&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Thus, the power parameter&amp;amp;nbsp; $10 &amp;amp;middot; \lg \; E_{\rm B}/N_0 \approx 2 \, \rm dB$ was already sufficient to achieve the required error rate&amp;amp;nbsp; $5 &amp;amp;middot; 10^{-5}$&amp;amp;nbsp; (related to the compressed data after source coding). Without channel coding, on the other hand, almost&amp;amp;nbsp; $9 \, \rm dB$&amp;amp;nbsp; are required for the same error rate, i.e. a factor&amp;amp;nbsp; $10^{0.7} &amp;amp;asymp; 5$&amp;amp;nbsp; greater transmission power.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
The planned Mars project (data transmission from Mars to Earth with&amp;amp;nbsp; $\rm 5W$&amp;amp;ndash;lasers) will also only be successful with a sophisticated coding scheme}}&amp;lt;br&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 6: &amp;amp;nbsp; Channel Codes For Mobile Communikations}$&lt;br /&gt;
&amp;lt;br&amp;gt;A further and particularly high-turnover application area that would not function without channel coding is mobile communication. Here, unfavourable conditions without coding would result in error rates in the percentage range and, due to shadowing and multipath propagation (echoes), the errors often occur in bundles. The error bundle length is sometimes several hundred bits.&lt;br /&gt;
*For voice transmission in the GSM&amp;amp;ndash;system, the&amp;amp;nbsp; $182$&amp;amp;nbsp; most important (class 1a and 1b) of the total&amp;amp;nbsp; 260&amp;amp;nbsp; bits of a voice frame&amp;amp;nbsp; $(20 \, \rm ms)$&amp;amp;nbsp; together with a few parity&amp;amp;ndash; and tailbits are convolutionally coded&amp;amp;nbsp;$($with memory&amp;amp;nbsp; $m = 4$&amp;amp;nbsp; and rate&amp;amp;nbsp;$R = 1/2)$&amp;amp;nbsp; and scrambled. Together with the&amp;amp;nbsp; $78$&amp;amp;nbsp; less important and therefore uncoded bits of class 2, this results in the bit rate increasing from&amp;amp;nbsp; $13 \, \rm kbit/s$&amp;amp;nbsp; to&amp;amp;nbsp; $22.4 \, \rm kbit/s$&amp;amp;nbsp;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*One uses the (relative) redundancy of $r = (22.4 - 13)/22.4 &amp;amp;asymp; 0.42$&amp;amp;nbsp; for error correction. It should be noted that&amp;amp;nbsp; $r = 0.42$&amp;amp;nbsp; because of the definition used here, $42\%$&amp;amp;nbsp; of the encoded bits are redundant. With the reference value &amp;amp;bdquo;bit rate of the uncoded sequence&amp;amp;rdquo; we would get&amp;amp;nbsp; $r = 9.4/13 \approx 0.72$&amp;amp;nbsp; with the statement: &amp;amp;nbsp; To the information bits are added&amp;amp;nbsp; $72\%$&amp;amp;nbsp; check bits. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*For&amp;amp;nbsp; [[Examples_of_Communication_Systems/Allgemeine_Beschreibung_von_UMTS|UMTS]]&amp;amp;nbsp; (&amp;lt;i&amp;gt;Universal Mobile Telecommunications System&amp;lt;/i&amp;gt;),&amp;amp;nbsp; [[Channel_Coding/Grundlagen_der_Faltungscodierung|Convolutional Codes]]&amp;amp;nbsp;  with the rates&amp;amp;nbsp; $R = 1/2$&amp;amp;nbsp; or&amp;amp;nbsp; $R = 1/3$&amp;amp;nbsp; are used. In the UMTS&amp;amp;ndash;modes for higher data rates and correspondingly lower spreading factors, on the other hand, one uses&amp;amp;nbsp;  [[Channel_Coding/Grundlegendes_zu_den_Turbocodes|Turbo&amp;amp;ndash;Codes]]&amp;amp;nbsp; of the rate&amp;amp;nbsp; $R = 1/3$&amp;amp;nbsp; and iterative decoding. Depending on the number of iterations, gains of up to&amp;amp;nbsp; $3 \, \rm dB$ can be achieved compared to convolutional coding.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 7: &amp;amp;nbsp; Error Protection of the Compact Disc}$&lt;br /&gt;
&amp;lt;br&amp;gt;For a CD (&amp;lt;i&amp;gt;Compact Disc&amp;lt;/i&amp;gt;), one uses &amp;lt;i&amp;gt;cross&amp;amp;ndash;interleaved&amp;lt;/i&amp;gt;&amp;amp;nbsp; [[Channel_Coding/Definition_und_Eigenschaften_von_Reed–Solomon–Codes|Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes]]&amp;amp;nbsp; (RS) and then a so-called &amp;amp;nbsp; [https://en.wikipedia.org/wiki/Eight-to-fourteen_modulation Eight&amp;amp;ndash;to&amp;amp;ndash;Fourteen&amp;amp;ndash;Modulation]. Redundancy is used for error detection and correction. This coding scheme shows the following characteristics:&lt;br /&gt;
*The common code rate of the two RS&amp;amp;ndash;component codes is&amp;amp;nbsp; $R_{\rm RS} = 24/28 &amp;amp;middot; 28/32 = 3/4$. Through the 8&amp;amp;ndash;to&amp;amp;ndash;14&amp;amp;ndash;modulation and some control bits, one arrives at the total code rate&amp;amp;nbsp; $R &amp;amp;asymp; 1/3$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*In the case of statistically independent errors according to the&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC|BSC&amp;amp;ndash;model]]&amp;amp;nbsp; (&amp;lt;i&amp;gt;Binary Symmetric Channel&amp;lt;/i&amp;gt;&amp;amp;nbsp;),a complete correction is possible as long as the bit error rate does not exceed the value&amp;amp;nbsp; $10^{-3}$&amp;amp;nbsp;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*The CD&amp;amp;ndash;specific&amp;amp;nbsp; &amp;lt;i&amp;gt;Cross Interleaver&amp;lt;/i&amp;gt;&amp;amp;nbsp; scrambles&amp;amp;nbsp; $108$&amp;amp;nbsp; blocks together so that the&amp;amp;nbsp; $588$&amp;amp;nbsp; bits of a block &amp;amp;nbsp;$($each bit corresponds to approx. &amp;amp;nbsp; $0.28 \, \rm {&amp;amp;micro; m})$&amp;amp;nbsp; are distributed over approximately&amp;amp;nbsp; $1.75\, \rm cm$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*With the code rate&amp;amp;nbsp; $R &amp;amp;asymp; 1/3$&amp;amp;nbsp; one can correct approx.&amp;amp;nbsp; $10\%$&amp;amp;nbsp; &amp;amp;bdquo;Erasures&amp;amp;rdquo;. The lost values can be reconstructed (approximately) by interpolation &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp;&amp;lt;i&amp;gt;Error concealment&amp;lt;/i&amp;gt;.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In summary, if a CD has a scratch of&amp;amp;nbsp; $1. 75\, \rm mm$&amp;amp;nbsp; in length in the direction of play (i.e. more than&amp;amp;nbsp; $6000$&amp;amp;nbsp; consecutive erasures), still&amp;amp;nbsp; $90\%$&amp;amp;nbsp; of all the bits in a block are error-free, so that even the missing&amp;amp;nbsp; $10\%$&amp;amp;nbsp; can be reconstructed, or at least the erasures can be disguised so that they are not audible.&amp;lt;br&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
A demonstration of the CD's ability to correct follows on the next page}}&amp;lt;br&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
== The &amp;quot;Slotted CD&amp;quot; - A Demonstration By The LNT of TUM ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Ende der 1990er Jahre haben Mitarbeiter des&amp;amp;nbsp;  [https://www.lnt.ei.tum.de/startseite/ Chair of Communications Engineering] der [https://www.tum.de/die-tum/ TU München]&amp;amp;nbsp; unter Leitung von Professor&amp;amp;nbsp; [[Biographies_and_Bibliographies/Lehrstuhlinhaber_des_LNT#Prof._Dr.-Ing._Dr.-Ing._E.h._Joachim_Hagenauer_.281993-2006.29|Joachim Hagenauer]]&amp;amp;nbsp; eine Musik&amp;amp;ndash;CD gezielt beschädigt, indem insgesamt drei Schlitze von jeweils mehr als einem Millimeter Breite eingefräst wurden. Damit fehlen bei jedem Defekt fast&amp;amp;nbsp; $4000$&amp;amp;nbsp; fortlaufende Bit der Audiocodierung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2333 KC T 1 1 S2b.png|right|frame|„Geschlitzte CD”  des&amp;amp;nbsp; $\rm LNT/TUM$]]&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt die &amp;amp;bdquo;geschlitzte CD&amp;amp;rdquo;: &lt;br /&gt;
*Sowohl in der Spur 3 als auch in der Spur 14 gibt es bei jeder Umdrehung zwei solcher fehlerhafter Bereiche. &lt;br /&gt;
*Sie können sich die Musikqualität mit Hilfe der beiden Audioplayer (Abspielzeit jeweils ca. 15 Sekunden) verdeutlichen. &lt;br /&gt;
*Die Theorie zu dieser Audio&amp;amp;ndash;Demo finden Sie im&amp;amp;nbsp; $\text{Beispiel 7}$&amp;amp;nbsp; auf der vorherigen Seite.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Spur 14:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;lntmedia&amp;gt;file:A_ID59__14_1.mp3&amp;lt;/lntmedia&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Spur 3:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;lntmedia&amp;gt;file:A_ID60__3_1.mp3&amp;lt;/lntmedia&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Resumee dieser Audiodemo:&amp;lt;/b&amp;gt;&lt;br /&gt;
*Die Fehlerkorrektur der CD basiert auf zwei seriell&amp;amp;ndash;verketteten&amp;amp;nbsp; [[Channel_Coding/Definition_und_Eigenschaften_von_Reed–Solomon–Codes|Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes]]&amp;amp;nbsp; sowie einer&amp;amp;nbsp;  [https://de.wikipedia.org/wiki/Eight-to-Fourteen-Modulation Eight&amp;amp;ndash;to&amp;amp;ndash;Fourteen&amp;amp;ndash;Modulation]. Die Gesamtcoderate zur RS&amp;amp;ndash;Fehlerkorrektur beträgt&amp;amp;nbsp; $R = 3/4$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ebenso wichtig für die Funktionsfähigkeit der CD wie die Codes ist der dazwischen geschaltete Interleaver, der die ausgelöschten Bits (&amp;amp;bdquo;Erasures&amp;amp;rdquo;) über eine Länge von fast&amp;amp;nbsp; $2 \, \rm cm$&amp;amp;nbsp; verteilt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei der&amp;amp;nbsp; '''Spur 14'''&amp;amp;nbsp; liegen die beiden defekten Bereiche genügend weit auseinander. Deshalb ist der Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Decoder in der Lage, die fehlenden Daten zu rekonstruieren.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei der&amp;amp;nbsp; '''Spur 3'''&amp;amp;nbsp; folgen die beiden Fehlerblöcke in sehr kurzem Abstand aufeinander, so dass der Korrekturalgorithmus versagt. Das Resultat ist ein fast periodisches Klackgeräusch.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wir bedanken uns bei Rainer Bauer,&amp;amp;nbsp; [[Biographies_and_Bibliographies/An_LNTwww_beteiligte_Mitarbeiter_und_Dozenten#Dr.-Ing._Thomas_Hindelang_.28am_LNT_von_1994-2000_und_2007-2012.29|Thomas Hindelang]]&amp;amp;nbsp; und&amp;amp;nbsp; [[Biographies_and_Bibliographies/An_LNTwww_beteiligte_Mitarbeiter_und_Dozenten#Manfred_J.C3.BCrgens_.28am_LNT_von_1981-2010.29|Manfred Jürgens]], diese Audio&amp;amp;ndash;Demo verwenden zu dürfen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zusammenspiel zwischen Quellen– und Kanalcodierung ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Nachrichtenübertragung natürlicher Quellen wie Sprache, Musik, Bilder, Videos, usw. geschieht meist entsprechend dem nachfolgend skizzierten zeitdiskreten Modell.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2334 KC T 1 1 S3a v2.png|center|frame|Bildübertragung mit Quellen– und Kanalcodierung|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Zu dieser aus [Liv10]&amp;lt;ref name ='Liv10'&amp;gt;Liva, G.: ''Channel Coding.'' Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010.&amp;lt;/ref&amp;gt; entnommenen Grafik ist Folgendes anzumerken:&lt;br /&gt;
*Quelle und Sinke sind digitalisiert und werden durch (etwa gleich viele ) Nullen und Einsen repräsentiert.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der Quellencodierer komprimiert die binären Daten &amp;amp;ndash; im Beispiel ein Digitalfoto &amp;amp;ndash; und reduziert somit die Redundanz der Quelle.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der Kanalcodierer fügt wieder Redundanz hinzu und zwar gezielt, so dass einige der auf dem Kanal entstandenen Fehler im Kanaldecoder korrigiert werden können.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Für den Kanal wird hier ein zeitdiskretes Modell mit binärem Eingang und Ausgang verwendet, das auch die Komponenten der technischen Sende&amp;amp;ndash; und Empfangseinrichtungen (Modulator, Entscheider, Taktwiedergewinnung) geeignet berücksichtigen sollte.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Bei richtiger Dimensionierung von Quellen&amp;amp;ndash; und Kanalcodierung ist die Qualität des empfangenen Fotos hinreichend gut, auch wenn die Sinkensymbolfolge aufgrund nicht korrigierbarer Fehlermuster nicht exakt mit der Quellensymbolfolge übereinstimmen wird. Man erkennt innerhalb der Sinkensymbolfolge einen (rot markierten) Bitfehler.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 8:}$&amp;amp;nbsp; Für obige Grafik wurde beispielhaft und stark vereinfachend angenommen, dass &lt;br /&gt;
*die Quellensymbolfolge nur die Länge&amp;amp;nbsp; $40$&amp;amp;nbsp; hat,&lt;br /&gt;
*der Quellencodierer die Daten um den Faktor&amp;amp;nbsp; $40/16 = 2.5$&amp;amp;nbsp; komprimiert, und &lt;br /&gt;
*der Kanalcoder&amp;amp;nbsp; $50\%$&amp;amp;nbsp; Redundanz hinzufügt. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Übertragen werden müssen also nur&amp;amp;nbsp; $24$&amp;amp;nbsp; Codersymbole statt&amp;amp;nbsp; $40$&amp;amp;nbsp; Quellensymbole, was die Übertragungsrate insgesamt um&amp;amp;nbsp; $40\%$&amp;amp;nbsp; reduziert.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Würde man auf die Quellencodierung verzichten, in dem man das ursprüngliche Foto im BMP&amp;amp;ndash;Format übertragen würde und nicht das komprimierte JPG&amp;amp;ndash;Bild, so wäre die Qualität vergleichbar, aber eine um den Faktor&amp;amp;nbsp; $2.5$&amp;amp;nbsp; höhere Bitrate und damit sehr viel mehr Aufwand erforderlich.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 9:}$&amp;amp;nbsp; Würde man sowohl auf die Quellen&amp;amp;ndash; als auch auf die Kanalcodierung verzichten, also direkt die BMP&amp;amp;ndash;Daten ohne Fehlerschutz übertragen, so wäre das Ergebnis trotz&amp;amp;nbsp; $($um den Faktor&amp;amp;nbsp; $40/24)$&amp;amp;nbsp; größerer Bitrate äußerst dürftig.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2335 KC T 1 1 S3b v2.png|center|frame|Bildübertragung ohne Quellen– und Kanalcodierung |class=fit]]}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 10:}$&amp;amp;nbsp; Nun betrachten wir den Fall, dass man die komprimierten Daten (zum Beispiel JPG) ohne Fehlersicherungsmaßnahmen direkt überträgt. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2336 KC T 1 1 S3c v2.png|center|frame|Bildübertragung mit Quellencodierung, ohne Kanalcodierung |class=fit]]&lt;br /&gt;
&lt;br /&gt;
*Da die komprimierte Quelle nur noch wenig Redundanz besitzt, führt jeder einzelne Übertragungsfehler dazu, dass ganze Bildblöcke falsch decodiert werden.&amp;lt;br&amp;gt;&lt;br /&gt;
*Dieses Codierschema (Quellencodierung, aber keine Kanalcodierung) sollte auf jeden Fall vermieden werden.}}&lt;br /&gt;
&lt;br /&gt;
== Blockschaltbild und Voraussetzungen ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Im weiteren Verlauf gehen wir von dem skizzierten Blockschaltbild mit Kanalcodierer, Digitalem Kanal und Kanaldecoder aus. &lt;br /&gt;
&lt;br /&gt;
[[File:P ID2337 KC T 1 1 S4 v2.png|center|frame|Blockschaltbild zur Beschreibung der Kanalcodierung|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Dabei gelten folgende Voraussetzungen:&lt;br /&gt;
*Der Vektor&amp;amp;nbsp; $\underline{u} = (u_1, u_2, \text{...} \hspace{0.05cm}, u_k)$&amp;amp;nbsp;  kennzeichnet einen&amp;amp;nbsp; '''Informationsblock'''&amp;amp;nbsp; mit&amp;amp;nbsp; $k$&amp;amp;nbsp; Symbolen. &lt;br /&gt;
*Meist beschränken wir uns auf Binärsymbole (Bits) &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $u_i \in  \{0, \, 1\}$ für $i = 1, 2, \text{...} \hspace{0.05cm}, k$&amp;amp;nbsp; mit gleichen Auftrittswahrscheinlichkeiten für Nullen und Einsen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Jeder Informationsblock&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; wird durch ein&amp;amp;nbsp; '''Codewort'''&amp;amp;nbsp; (oder einen&amp;amp;nbsp; &amp;lt;i&amp;gt;Codeblock&amp;lt;/i&amp;gt;)&amp;amp;nbsp; $\underline{x} = (x_1, x_2, \text{...} \hspace{0.05cm}, x_n)$&amp;amp;nbsp; mit&amp;amp;nbsp; $n \ge k$, $x_i \in  \{0, \, 1\}$&amp;amp;nbsp;  dargestellt. Man spricht dann von einem binären&amp;amp;nbsp; $(n, k)$&amp;amp;ndash;Blockcode&amp;amp;nbsp; $C$. Die Zuordnung bezeichnen wir mit&amp;amp;nbsp; $\underline{x} = {\rm enc}(\underline{u})$, wobei &amp;amp;bdquo;enc&amp;amp;rdquo; für &amp;amp;bdquo;Encoder&amp;amp;ndash;Funktion&amp;amp;rdquo; steht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Das&amp;amp;nbsp; '''Empfangswort''' $\underline{y}$&amp;amp;nbsp; ergibt sich aus dem Codewort&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; durch&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Modular_arithmetic Modulo&amp;amp;ndash;2&amp;amp;ndash;Addition]&amp;amp;nbsp; mit dem ebenfalls binären Fehlervektor&amp;amp;nbsp; $\underline{e} = (e_1, e_2, \text{...} \hspace{0.05cm}, e_n)$, wobei &amp;amp;bdquo;$e= 1$&amp;amp;rdquo; für einen Übertragungfehler steht und &amp;amp;bdquo;$e= 0$&amp;amp;rdquo; anzeigt, dass das&amp;amp;nbsp; $i$&amp;amp;ndash;te Bit des Codewortes richtig übertragen wurde. Es gilt also:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{y} = \underline{x} \oplus \underline{e} \hspace{0.05cm}, \hspace{0.5cm} y_i  =   x_i \oplus e_i \hspace{0.05cm}, \hspace{0.2cm} i = 1, \text{...} \hspace{0.05cm}  , n\hspace{0.05cm}, x_i \hspace{-0.05cm} \in  \hspace{-0.05cm} \{ 0, 1 \}\hspace{0.05cm}, \hspace{0.5cm}e_i \in  \{ 0, 1 \}\hspace{0.5cm}&lt;br /&gt;
\Rightarrow \hspace{0.5cm}y_i  \in   \{ 0, 1 \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Die Beschreibung durch das&amp;amp;nbsp; '''Digitale Kanalmodell'''&amp;amp;nbsp; &amp;amp;ndash; also mit binärem Eingang und Ausgang &amp;amp;ndash; ist allerdings nur dann anwendbar, wenn das Übertragungssystem harte Entscheidungen trifft &amp;amp;ndash; siehe&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang| AWGN&amp;amp;ndash;Kanal bei binärem Eingang]]. Systeme mit&amp;amp;nbsp; [[Channel_Coding/Decodierung_linearer_Blockcodes#Codiergewinn_.E2.80.93_Bitfehlerrate_bei_AWGN|Soft Decision]]&amp;amp;nbsp; sind mit diesem einfachen Modell nicht modellierbar.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Der Vektor&amp;amp;nbsp; $\underline{v}$&amp;amp;nbsp; nach der&amp;amp;nbsp; '''Kanaldecodierung'''&amp;amp;nbsp; hat die gleiche Länge&amp;amp;nbsp; $k$&amp;amp;nbsp; wie der Informationsblock&amp;amp;nbsp;  $\underline{u}$. Den Decodiervorgang beschreiben wir mit der &amp;amp;bdquo;Decoder&amp;amp;ndash;Funktion&amp;amp;rdquo; als&amp;amp;nbsp; $\underline{v} = {\rm enc}^{-1}(\underline{y}) = {\rm dec}(\underline{y})$. Im fehlerfreien Fall gilt analog zu&amp;amp;nbsp; $\underline{x} = {\rm enc}(\underline{u})$&amp;amp;nbsp; auch&amp;amp;nbsp;  $\underline{v} = {\rm enc}^{-1}(\underline{y})$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Ist der Fehlervektor&amp;amp;nbsp; $\underline{e} \ne \underline{0}$, so ist&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; meist kein gültiges Element des verwendeten Blockcodes, und die Decodierung ist dann keine reine Zuordnung&amp;amp;nbsp; $\underline{y} \rightarrow  \underline{v}$, sondern eine auf maximale Übereinstimmung (mimimale Fehlerwahrscheinlichkeit) basierende Schätzung von&amp;amp;nbsp; $\underline{v}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einige wichtige Definitionen zur Blockcodierung ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir betrachten nun den beispielhaften binären Blockcode&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathcal{C} = \{ (0, 0, 0, 0, 0) \hspace{0.05cm},\hspace{0.15cm} (0, 1, 0, 1, 0) \hspace{0.05cm},\hspace{0.15cm}(1, 0, 1, 0, 1) \hspace{0.05cm},\hspace{0.15cm}(1, 1, 1, 1, 1) \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dieser Code wäre zum Zwecke der Fehlererkennung oder &amp;amp;ndash;korrektur ungeeignet. Aber er ist so konstruiert, dass er die Berechnung wichtiger Beschreibungsgrößen anschaulich verdeutlicht:&lt;br /&gt;
*Jedes einzelne Codewort&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; wird durch fünf Bit beschrieben. Im gesamten Buch drücken wir diesen Sachverhalt durch die&amp;amp;nbsp; '''Codewortlänge'''&amp;amp;nbsp; (englisch: &amp;amp;nbsp;&amp;lt;i&amp;gt;Code Length&amp;lt;/i&amp;gt;&amp;amp;nbsp;)&amp;amp;nbsp; $n = 5$ aus.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Der obige Code beinhaltet vier Elemente. Damit ist der&amp;amp;nbsp; '''Codeumfang'''&amp;amp;nbsp; (englisch: &amp;amp;nbsp; &amp;lt;i&amp;gt;Size&amp;lt;/i&amp;gt;&amp;amp;nbsp;)&amp;amp;nbsp; $|C| = 4$. Entsprechend gibt es auch vier eindeutige Zuordnungen (englisch: &amp;amp;nbsp;&amp;lt;i&amp;gt;Mappings&amp;lt;/i&amp;gt;&amp;amp;nbsp;) zwischen&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{x}$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Die Länge eines  Informationsblocks&amp;amp;nbsp;  $\underline{u}$  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''Informationsblocklänge'''&amp;amp;nbsp; wird mit&amp;amp;nbsp; $k$&amp;amp;nbsp; bezeichnet. Da bei allen binären Codes&amp;amp;nbsp; $|C| = 2^k$&amp;amp;nbsp; gilt, folgt aus&amp;amp;nbsp; $|C| = 4$&amp;amp;nbsp; der Wert&amp;amp;nbsp; $k = 2$. Die Zuordnungen zwischen&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; lauten bei obigem Code&amp;amp;nbsp; $C$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u_0} = (0, 0) \hspace{0.2cm}\leftrightarrow \hspace{0.2cm}(0, 0, 0, 0, 0) = \underline{x_0}\hspace{0.05cm}, \hspace{0.8cm}&lt;br /&gt;
\underline{u_1} = (0, 1) \hspace{0.2cm}\leftrightarrow \hspace{0.2cm}(0, 1, 0, 1, 0) = \underline{x_1}\hspace{0.05cm}, &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u_2} = (1, 0)\hspace{0.2cm} \leftrightarrow \hspace{0.2cm}(1, 0, 1, 0, 1) = \underline{x_2}\hspace{0.05cm}, \hspace{0.8cm}&lt;br /&gt;
\underline{u_3} = (1, 1) \hspace{0.2cm} \leftrightarrow \hspace{0.2cm}(1, 1, 1, 1, 1) = \underline{x_3}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Der Code weist die&amp;amp;nbsp; '''Coderate'''&amp;amp;nbsp; $R = k/n = 2/5$&amp;amp;nbsp; auf. Dementsprechend beträgt seine Redundanz&amp;amp;nbsp; $1-R$, also&amp;amp;nbsp; $60\%$. Ohne Fehlerschutz &amp;amp;nbsp;$($also für den Fall&amp;amp;nbsp; $n = k)$&amp;amp;nbsp; wäre die Coderate&amp;amp;nbsp; $R = 1$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Eine kleine Coderate  zeigt an, dass von den&amp;amp;nbsp; $n$&amp;amp;nbsp; Bits eines Codewortes nur sehr wenige tatsächlich Information tragen. Beispielsweise hat ein Wiederholungscode&amp;amp;nbsp; $(k = 1)$&amp;amp;nbsp; mit&amp;amp;nbsp; $n = 10$&amp;amp;nbsp; die  Coderate&amp;amp;nbsp; $R = 0.1$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Das&amp;amp;nbsp; '''Hamming&amp;amp;ndash;Gewicht'''&amp;amp;nbsp; $w_{\rm H}(\underline{x})$&amp;amp;nbsp; des Codewortes&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; gibt die Zahl der Codewortelemente&amp;amp;nbsp; $x_i \ne 0$&amp;amp;nbsp; an. Bei einem binären Code &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $x_i \in  \{0, \, 1\}$&amp;amp;nbsp; ist $w_{\rm H}(\underline{x})$&amp;amp;nbsp; gleich der Summe&amp;amp;nbsp; $x_1 + x_2 + \hspace{0.05cm}\text{...} \hspace{0.05cm}+ x_n$. Im Beispiel:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;w_{\rm H}(\underline{x}_0) = 0\hspace{0.05cm}, \hspace{0.4cm}w_{\rm H}(\underline{x}_1) = 2\hspace{0.05cm}, \hspace{0.4cm} w_{\rm H}(\underline{x}_2) = 3\hspace{0.05cm}, \hspace{0.4cm}w_{\rm H}(\underline{x}_3) = 5\hspace{0.05cm}. &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Die&amp;amp;nbsp; '''Hamming&amp;amp;ndash;Distanz'''&amp;amp;nbsp; $d_{\rm H}(\underline{x}, \ \underline{x}\hspace{0.03cm}')$&amp;amp;nbsp; zwischen den Codeworten&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{x}\hspace{0.03cm}'$&amp;amp;nbsp; bezeichnet die Anzahl der Bitpositionen, in denen sich die beiden Codeworte unterscheiden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;d_{\rm H}(\underline{x}_0, \hspace{0.05cm}\underline{x}_1) = 2\hspace{0.05cm}, \hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_0, \hspace{0.05cm}\underline{x}_2) = 3\hspace{0.05cm}, \hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_0, \hspace{0.05cm}\underline{x}_3) = 5\hspace{0.05cm},\hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_1, \hspace{0.05cm}\underline{x}_2) = 5\hspace{0.05cm}, \hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_1, \hspace{0.05cm}\underline{x}_3) = 3\hspace{0.05cm}, \hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_2, \hspace{0.05cm}\underline{x}_3) = 2\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Eine wichtige Eigenschaft eines Codes $C$, die seine Korrekturfähigkeit wesentlich beeinflusst, ist die&amp;amp;nbsp; '''minimale Distanz'''&amp;amp;nbsp; zwischen zwei beliebigen Codeworten:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;d_{\rm min}(\mathcal{C}) =&lt;br /&gt;
			\min_{\substack{\underline{x},\hspace{0.05cm}\underline{x}' \hspace{0.05cm}\in \hspace{0.05cm} \mathcal{C} \\ {\underline{x}} \hspace{0.05cm}\ne \hspace{0.05cm} \underline{x}'}}\hspace{0.1cm}d_{\rm H}(\underline{x}, \hspace{0.05cm}\underline{x}')\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT= &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ein&amp;amp;nbsp; $(n, \hspace{0.05cm}k, \hspace{0.05cm}d_{\rm min})\text{ &amp;amp;ndash; Blockcode}$&amp;amp;nbsp; besitzt die Codewortlänge&amp;amp;nbsp; $n$, die Informationsblocklänge&amp;amp;nbsp; $k$&amp;amp;nbsp; und die minimale Distanz&amp;amp;nbsp; $d_{\rm min}$.&lt;br /&gt;
*Nach dieser Nomenklatur handelt es sich im hier betrachteten Beispiel um einen&amp;amp;nbsp; $(5, \hspace{0.05cm}2,\hspace{0.05cm} 2)$ &amp;amp;ndash; Blockcode.&lt;br /&gt;
*Manchmal verzichtet man auf die Angabe von&amp;amp;nbsp; $d_{\rm min}$&amp;amp;nbsp; und spricht dann von einem&amp;amp;nbsp; $(n,\hspace{0.05cm} k)$ &amp;amp;ndash; Blockcode.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Beispiele für Fehlererkennung und Fehlerkorrektur ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die eben definierten Größen sollen nun an zwei Beispielen verdeutlicht werden.&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 11:}$&amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp;$\text{(4, 2, 2)&amp;amp;ndash;Blockcode}$ &lt;br /&gt;
&lt;br /&gt;
In der Grafik  verdeutlichen die nach rechts bzw. links zeigenden Pfeile den Codiervorgang bzw. die Decodierung:&lt;br /&gt;
&lt;br /&gt;
:$$\underline{u_0} = (0, 0) \leftrightarrow (0, 0, 0, 0) = \underline{x_0}\hspace{0.05cm},\hspace{0.5cm}&lt;br /&gt;
\underline{u_1} = (0, 1) \leftrightarrow (0, 1, 0, 1) = \underline{x_1}\hspace{0.05cm},$$&lt;br /&gt;
:$$\underline{u_2} = (1, 0) \leftrightarrow (1, 0, 1, 0) = \underline{x_2}\hspace{0.05cm},\hspace{0.5cm}&lt;br /&gt;
\underline{u_3} = (1, 1) \leftrightarrow (1, 1, 1, 1) = \underline{x_3}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2532 KC T 1 1 S5a v2.png|center|frame|(4, 2, 2)–Blockcode zur Fehlererkennung|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Rechts sind alle&amp;amp;nbsp; $2^4 = 16$&amp;amp;nbsp; möglichen Empfangsworte&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; dargestellt:&lt;br /&gt;
* Von diesen können&amp;amp;nbsp; $2^n - 2^k = 12$&amp;amp;nbsp; nur durch Bitfehler entstanden sein. &lt;br /&gt;
*Empfängt der Decoder ein solches &amp;amp;bdquo;weißes&amp;amp;rdquo; Codewort, so erkennt er zwar einen Fehler, er kann diesen aber wegen&amp;amp;nbsp; $d_{\rm min} = 2$&amp;amp;nbsp; nicht korrigieren. &lt;br /&gt;
*Empfängt er beispielsweise&amp;amp;nbsp; $\underline{y} = (0, 0, 0, 1)$, so kann nämlich mit gleicher Wahrscheinlichkeit&amp;amp;nbsp; $\underline{x_0} = (0, 0, 0, 0)$&amp;amp;nbsp; oder&amp;amp;nbsp; $\underline{x_1} = (0, 1, 0, 1)$ gesendet worden sein.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2533 KC T 1 1 S5b v2.png|right|frame|(5, 2, 3)–Blockcode zur Fehlerkorrektur|class=fit]]&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 11:}$&amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp;$\text{(5, 2, 3)&amp;amp;ndash;Blockcode}$ &lt;br /&gt;
&lt;br /&gt;
Hier gibt es wegen $k=2$ vier gültige Codeworte :&lt;br /&gt;
:$$\underline{x_0} = (0, 0, 0, 0, 0)\hspace{0.05cm},\hspace{0.5cm} \underline{x_1} =(0, 1, 0, 1, 1)\hspace{0.05cm},$$&lt;br /&gt;
:$$\underline{x_2} =(1, 0, 1, 1, 0)\hspace{0.05cm},\hspace{0.5cm}\underline{x_3} =(1, 1, 1, 0, 1).$$ &lt;br /&gt;
&lt;br /&gt;
In der Grafik dargestellt ist die Empfängerseite, wobei man verfälschte Bit an der Kursivschrift erkennt.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt; &lt;br /&gt;
*Von den&amp;amp;nbsp; $2^n - 2^k = 28$&amp;amp;nbsp; unzulässigen Codeworten lassen sich nun&amp;amp;nbsp; $20$&amp;amp;nbsp; einem gültigen Codewort (Füllfarbe: &amp;amp;nbsp; rot, grün, blau oder ocker) zuordnen, wenn man davon ausgeht, dass ein einziger  Bitfehler wahrscheinlicher ist als deren zwei oder mehr. &lt;br /&gt;
*Zu jedem gültigen Codewort  gibt es fünf unzulässige Codeworte mit jeweils nur einer Verfälschung &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; Hamming&amp;amp;ndash;Distanz&amp;amp;nbsp; $d_{\rm H} =1$. Diese sind in dem jeweiligen Quadrat  mit roter, grüner, blauer oder ockerfarbenen Hintergrundfarbe angegeben. &lt;br /&gt;
*Die Fehlerkorrektur ist für diese aufgrund der minimalen Distanz&amp;amp;nbsp; $d_{\rm min} = 3$&amp;amp;nbsp; zwischen den Codeworten möglich. &lt;br /&gt;
*Acht Empfangsworte sind nicht decodierbar. Beispielsweise könnte das Empfangswort&amp;amp;nbsp; $\underline{y} = (0, 0, 1, 0, 1)$&amp;amp;nbsp; aus dem Codewort&amp;amp;nbsp; $\underline{x}_0 = (0, 0, 0, 0, 0)$&amp;amp;nbsp; entstanden sein, aber auch aus dem Codewort&amp;amp;nbsp;  $\underline{x}_3 = (1, 1, 1, 0, 1)$. In beiden Fällen wären zwei Bitfehler aufgetreten.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zur Nomenklatur in diesem Buch ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Eine Zielvorgabe unseres Lerntutorials&amp;amp;nbsp; $\rm LNTwww$&amp;amp;nbsp; war, das gesamte Fachgebiet der Nachrichtentechnik und der zugehörigen Grundlagenfächer mit einheitlicher Nomenklatur zu beschreiben. In diesem zuletzt in Angriff genommenen Buch &amp;amp;bdquo; Kanalcodierung&amp;amp;rdquo; müssen nun doch einige Änderungen hinsichtlich der Nomenklatur vorgenommen werden. Die Gründe hierfür sind:&lt;br /&gt;
*Die Codierungstheorie ist ein weitgehend in sich abgeschlossenes Fachgebiet und nur wenige Autoren von einschlägigen Fachbüchern zu diesem Gebiet versuchen, einen Zusammenhang mit anderen Aspekten der Digitalsignalübertragung herzustellen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Autoren der wichtigsten Bücher zur Kanalcodierung &amp;amp;ndash; englischsprachige und deutsche &amp;amp;ndash; verwenden weitgehend eine einheitliche Nomenklatur. Wir erlauben uns deshalb nicht, die Bezeichnungen zur Kanalcodierung in unser Übertragungstechnik&amp;amp;ndash;Schema zu pressen.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Einige Nomenklaturänderungen gegenüber den anderen&amp;amp;nbsp; $\rm LNTwww$&amp;amp;ndash;Büchern sollen hier genannt werden:&lt;br /&gt;
*Alle Signale werden durch Symbolfolgen in Vektorschreibweise dargestellt. Beispielsweise kennzeichnet&amp;amp;nbsp; $\underline{u} = (u_1, u_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, u_k)$&amp;amp;nbsp; die&amp;amp;nbsp; &amp;lt;i&amp;gt;Quellensymbolfolge&amp;lt;/i&amp;gt;&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{v} = (v_1, v_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, v_k)$&amp;amp;nbsp; die &amp;lt;i&amp;gt;Sinkensymbolfolge&amp;lt;/i&amp;gt;. Bisher wurden diese Symbolfolgen mit&amp;amp;nbsp; $\langle q_\nu \rangle$&amp;amp;nbsp; bzw.&amp;amp;nbsp; $\langle v_\nu \rangle$&amp;amp;nbsp; bezeichnet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Der Vektor $\underline{x} = (x_1, x_2, \hspace{0.05cm}\text{...} \hspace{0.05cm}, x_n)$&amp;amp;nbsp; bezeichnet nun das zeitdiskrete Äquivalent zum Sendesignal&amp;amp;nbsp; $s(t)$, während das Empfangssignal&amp;amp;nbsp; $r(t)$ durch den Vektor&amp;amp;nbsp; $\underline{y} = (y_1, y_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, y_n)$&amp;amp;nbsp; beschrieben wird. Die Coderate ist der Quotient &amp;lt;/i&amp;gt;&amp;amp;nbsp; $R=k/n$ &amp;amp;nbsp; mit &amp;amp;nbsp; $0 \le R \le 1$ und die Anzahl der Prüfbits ergibt sich zu&amp;amp;nbsp; $m = n-k$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Im ersten Hauptkapitel sind die Elemente&amp;amp;nbsp; $u_i$&amp;amp;nbsp; und&amp;amp;nbsp; $v_i$&amp;amp;nbsp; &amp;amp;nbsp;$($jeweils mit Index&amp;amp;nbsp; $i = 1, \hspace{0.05cm}\text{...} \hspace{0.05cm}, k)$&amp;amp;nbsp; der Vektoren&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{v}$&amp;amp;nbsp; stets binär&amp;amp;nbsp; $(0$&amp;amp;nbsp; oder &amp;amp;nbsp;$1)$, ebenso wie die&amp;amp;nbsp; $n$&amp;amp;nbsp; Elemente&amp;amp;nbsp; $x_i$&amp;amp;nbsp; des Codewortes&amp;amp;nbsp; $\underline{x}$. Bei digitalem Kanalmodell&amp;amp;nbsp; ([[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC|BSC]],&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Erasure_Channel_.E2.80.93_BEC|BEC]],&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Error_.26_Erasure_Channel_.E2.80.93_BSEC|BSEC]]) gilt auch für die&amp;amp;nbsp; $n$&amp;amp;nbsp; Empfangswerte&amp;amp;nbsp; $y_i \in \{0, 1\}$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Das&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang|AWGN&amp;amp;ndash;Kanalmodell]]&amp;amp;nbsp; ist durch reellwertige Ausgangswerte&amp;amp;nbsp;  $y_i$&amp;amp;nbsp; gekennzeichnet. Der &amp;lt;i&amp;gt;Codewortschätzer&amp;lt;/i&amp;gt; gewinnt in diesem Fall aus dem Vektor&amp;amp;nbsp; $\underline{y} = (y_1, y_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, y_n)$&amp;amp;nbsp; den binären Vektor&amp;amp;nbsp; $\underline{z} = (z_1, z_2, \hspace{0.05cm}\text{...} \hspace{0.05cm}, z_n)$, der mit dem Codewort&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; zu vergleichen ist.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Der Übergang von&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; auf&amp;amp;nbsp; $\underline{z}$&amp;amp;nbsp; erfolgt durch Schwellenwertentscheidung &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;i&amp;gt;Hard Decision&amp;lt;/i&amp;gt; oder nach dem MAP&amp;amp;ndash;Kriterium &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;i&amp;gt;Soft Decision&amp;lt;/i&amp;gt;. Bei gleichwahrscheinlichen Eingangssymbolen  führt die  &amp;amp;bdquo;Maximum Likelihood&amp;amp;rdquo;&amp;amp;ndash;Schätzung ebenfalls zur minimalen Fehlerrate.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Im Zusammenhang mit dem AWGN&amp;amp;ndash;Modell macht es Sinn, binäre Codesymbole $x_i$ bipolar (also $\pm1$) darzustellen. An den statistischen Eigenschaften ändert sich dadurch nichts. Wir kennzeichnen im Folgenden die bipolare Signalisierung durch eine Tilde. Dann gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\tilde{x}_i = 1 - 2 x_i  = \left\{ \begin{array}{c} +1\\&lt;br /&gt;
 -1   \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{1}c} {\rm falls} \hspace{0.15cm} x_i = 0\hspace{0.05cm},\\&lt;br /&gt;
{\rm falls} \hspace{0.15cm}x_i = 1\hspace{0.05cm}.\\ \end{array}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:1.1 Zur Kennzeichnung aller Bücher|Aufgabe 1.1: Zur Kennzeichnung aller Bücher]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.2 Einfacher binärer Kanalcode|Aufgabe 1.2: Einfacher binärer Kanalcode]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.2Z_3D–Darstellung_von_Codes|Aufgabe 1.2Z: 3D–Darstellung von Codes]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Objective_of_Channel_Coding&amp;diff=35697</id>
		<title>Channel Coding/Objective of Channel Coding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Objective_of_Channel_Coding&amp;diff=35697"/>
		<updated>2021-01-15T17:53:23Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{FirstPage}}&lt;br /&gt;
{{Header|&lt;br /&gt;
Untermenü=Binary Block Codes for Channel Coding&lt;br /&gt;
|Nächste Seite=Channel Models and Decision Structures&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== # Overview on The First Main Chapter # ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The first chapter deals with block codes for error detection and error correction and provides the basics for describing more effective codes such as the&amp;amp;nbsp; ''Reed-Solomon codes''&amp;amp;nbsp; (see Chapter 2), the&amp;amp;nbsp; ''convolutional codes''&amp;amp;nbsp; (Chapter 3), and the&amp;amp;nbsp; ''iteratively decodable product codes''&amp;amp;nbsp; (''turbo codes'') and&amp;amp;nbsp; ''low-density parity-check codes''&amp;amp;nbsp; (Chapter 4). We restrict ourselves here to binary codes.&lt;br /&gt;
&lt;br /&gt;
This specific field is called&amp;amp;nbsp; ''channel coding''&amp;amp;nbsp; in contrast to&amp;amp;nbsp; ''source coding''&amp;amp;nbsp; (redundancy reduction for reasons of data compression) and to&amp;amp;nbsp; ''line coding''&amp;amp;nbsp; (additional redundancy to adapt the digital signal to the spectral characteristics of the transmission medium).&lt;br /&gt;
&lt;br /&gt;
In detail, it covers:&lt;br /&gt;
&lt;br /&gt;
*Definitions and introductory examples of error detection and error correction,&lt;br /&gt;
*a brief review of appropriate channel models and decision maker structures,&lt;br /&gt;
*known binary block codes such as single parity-check code, repetition code and Hamming code,&lt;br /&gt;
*the general description of linear codes using generator matrix and check matrix,&lt;br /&gt;
*the decoding possibilities for block codes, including syndrome decoding,&lt;br /&gt;
*simple approximations and upper bounds for block error probability, and&lt;br /&gt;
*an information-theoretic bound on channel coding.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Error Detection and Error Correction ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Transmission errors occur in every message transmission system. It is possible to keep the probability&amp;amp;nbsp; $p_{\rm S}$&amp;amp;nbsp; of such a symbol error very small, for example by using a very large signal energy. However, the symbol error probability&amp;amp;nbsp; $p_{\rm S} = 0$&amp;amp;nbsp; is never achievable because of the Gaussian WDF of the thermal noise that is always present.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Particularly in the case of heavily disturbed channels and also for safety-critical applications, it is therefore essential to provide special protection for the data to be transmitted, adapted to the application and channel. For this purpose, redundancy is added at the transmitter and this redundancy is used at the receiver to reduce the number of decoding errors. &lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definitions:}$&lt;br /&gt;
&lt;br /&gt;
*'''Error Detection'''&amp;amp;nbsp; : &amp;amp;nbsp; The decoder checks the integrity of the received blocks and marks any errors found. If necessary, the receiver informs the transmitter about erroneous blocks via the return channel, so that the transmitter sends the corresponding block again.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*'''Error Correction''' &amp;amp;nbsp; The decoder detects one (or more) bit errors and provides further information for them, for example their positions in the transmitted block. In this way, it may be possible to completely correct the errors that have occurred.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*The&amp;amp;nbsp; '''Channel Coding'''&amp;amp;nbsp; includes procedures for error detection as well as those for error correction.&amp;lt;br&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
All '’’ARQ’’' (Automatic Repeat Request) procedures use error detection only. Less redundancy is required for error detection than for error correction. One disadvantage of ARQ is its low throughput when channel quality is poor, i.e. when entire blocks of data must be frequently re-requested by the receiver.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In this book we mostly deal with&amp;amp;nbsp; '''Forward Error Correction'''&amp;amp;nbsp;  which leads to very small error rates if the channel is sufficiently good (large SNR). With worse channel conditions, nothing changes in the throughput, i.e. the same amount of information is transmitted. However, the error rate can then assume very large values.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Often FEC and ARQ methods are combined, and the redundancy is divided between them in such a way,&lt;br /&gt;
*so that a small number of errors can still be corrected,&lt;br /&gt;
but *when there are many errors, a repeat of the block is requested.&lt;br /&gt;
&lt;br /&gt;
== Some Introductory Examples of Error Detection ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 1: &amp;amp;nbsp; Single Parity&amp;amp;ndash;Check Code (SPC)}$&lt;br /&gt;
&amp;lt;br&amp;gt;If one adds&amp;amp;nbsp; $k = 4$&amp;amp;nbsp; bit by a so-called check bit (English: &amp;amp;nbsp; &amp;lt;i&amp;gt;Parity Bit&amp;lt;/i&amp;gt;&amp;amp;nbsp;) in such a way that the sum of all ones is even, for example (with bold check bits)&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
:$$0000\boldsymbol{0}, 0001\boldsymbol{1}, \text{...} , 1111\boldsymbol{0}, \text{...}\ ,$$&lt;br /&gt;
&lt;br /&gt;
it is very easy to recognise a single error. Two errors within a code word, on the other hand, remain undetected. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 2: &amp;amp;nbsp International Standard Book Number (ISBN)}$&lt;br /&gt;
&amp;lt;br&amp;gt;Since the 1960s, all books have been given 10-digit codes (''ISBN&amp;amp;ndash;10''&amp;amp;nbsp;). Since 2007, the specification according to ''ISBN&amp;amp;ndash;13''&amp;amp;nbsp; is additionally obligatory. For example, these are for the reference book [Söd93]&amp;lt;ref name ='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen''. Berlin - Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*$\boldsymbol{3&amp;amp;ndash;540&amp;amp;ndash;57215&amp;amp;ndash;5}$&amp;amp;nbsp; (for ISBN&amp;amp;ndash;10), bzw. &lt;br /&gt;
*$\boldsymbol{978&amp;amp;ndash;3&amp;amp;ndash;54057215&amp;amp;ndash;2}$&amp;amp;nbsp; (for ISBN&amp;amp;ndash;13).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The last digit&amp;amp;nbsp; $z_{10}$&amp;amp;nbsp; for ISBN&amp;amp;ndash;10 results from the previous digits&amp;amp;nbsp; $z_1 = 3$,&amp;amp;nbsp; $z_2 = 5$, ... ,&amp;amp;nbsp; $z_9 = 5$&amp;amp;nbsp; according to the following calculation rule:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;z_{10} = \left ( \sum_{i=1}^{9} \hspace{0.2cm} i \cdot z_i \right ) \hspace{-0.3cm} \mod 11 = &lt;br /&gt;
(1 \cdot 3 + 2 \cdot 5 + ... + 9 \cdot 5 ) \hspace{-0.2cm} \mod 11 = 5 &lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Note that&amp;amp;nbsp; $z_{10} = 10$&amp;amp;nbsp; must be written as&amp;amp;nbsp; $z_{10} = \rm X$&amp;amp;nbsp; (Roman numeral representation of &amp;amp;bdquo;10&amp;amp;rdquo;), since the number&amp;amp;nbsp; $10$&amp;amp;nbsp; cannot be represented as a digit in the decimal system.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
The same applies to the check digit for ISBN&amp;amp;ndash;13:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;z_{13}= 10 - \left ( \sum_{i=1}^{12} \hspace{0.2cm}  z_i  \cdot 3^{(i+1) \hspace{-0.2cm} \mod 2}  \right ) \hspace{-0.3cm} \mod 10 = 10 \hspace{-0.05cm}- \hspace{-0.05cm} \big [(9\hspace{-0.05cm}+\hspace{-0.05cm}8\hspace{-0.05cm}+\hspace{-0.05cm}5\hspace{-0.05cm}+\hspace{-0.05cm}0\hspace{-0.05cm}+\hspace{-0.05cm}7\hspace{-0.05cm}+\hspace{-0.05cm}1) \cdot 1 + (7\hspace{-0.05cm}+\hspace{-0.05cm}3\hspace{-0.05cm}+\hspace{-0.05cm}4\hspace{-0.05cm}+\hspace{-0.05cm}5\hspace{-0.05cm}+\hspace{-0.05cm}2\hspace{-0.05cm}+\hspace{-0.05cm}5) \cdot 3\big ] \hspace{-0.2cm} \mod 10 &amp;lt;/math&amp;gt;&lt;br /&gt;
:: &amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} z_{13}=  10 - (108 \hspace{-0.2cm} \mod 10) = 10 - 8 = 2&lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
With both variants, in contrast to the above parity check code (SPC), number twists such as&amp;amp;nbsp; $57 \, \leftrightarrow 75$&amp;amp;nbsp; are also recognised, since different positions are weighted differently here}}&amp;lt;br&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Example 3: &amp;amp;nbsp; Strichcode (eindimensionaler Barcode)}$&lt;br /&gt;
&amp;lt;br&amp;gt;Der am weitesten verbreitete fehlererkennende Code weltweit ist der Strichcode oder Balkencode (englisch: &amp;amp;nbsp; &amp;lt;i&amp;gt;Bar Code&amp;lt;/i&amp;gt;) zur Kennzeichnung von Produkten, zum Beispiel nach&amp;amp;nbsp; EAN&amp;amp;ndash;13&amp;amp;nbsp; (&amp;lt;i&amp;gt;European Article Number&amp;lt;/i&amp;gt;&amp;amp;nbsp;) mit 13 Ziffern. &lt;br /&gt;
[[File:P ID2330 KC T 1 1 S2.png|right|frame|1D&amp;amp;ndash;Barcode]]&lt;br /&gt;
*Diese werden durch verschieden breite Balken und Lücken dargestellt und können mit einem opto&amp;amp;ndash;elektronischen Lesegerät leicht entschlüsselt werden. &lt;br /&gt;
*Die ersten drei Ziffern kennzeichnen das Land (beispielsweise Deutschland: &amp;amp;nbsp; zwischen 400 und 440), die nächsten vier bzw. fünf Stellen den Hersteller und das Produkt. &lt;br /&gt;
*Die letzte Ziffer ist die Prüfziffer&amp;amp;nbsp; $z_{13}$, die sich genau so berechnet wie bei ISBN&amp;amp;ndash;13.}}&lt;br /&gt;
&lt;br /&gt;
== Einige einführende Beispiele zur Fehlerkorrektur==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 4: &amp;amp;nbsp; 2D&amp;amp;ndash;Barcodes für Online&amp;amp;ndash;Tickets}$&lt;br /&gt;
&amp;lt;br&amp;gt;Wenn Sie eine Fahrkarte der Deutschen Bahn online buchen und ausdrucken, finden Sie ein Beispiel eines zweidimensionalen Barcodes, nämlich den 1995 von Andy Longacre bei der Firma Welch Allyn in den USA entwickelten&amp;amp;nbsp; [https://de.wikipedia.org/wiki/Aztec-Code Aztec&amp;amp;ndash;Code], mit dem Datenmengen bis zu&amp;amp;nbsp; $3000$&amp;amp;nbsp; Zeichen codiert werden können. Aufgrund der&amp;amp;nbsp; [[Channel_Coding/Definition_und_Eigenschaften_von_Reed–Solomon–Codes|Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Fehlerkorrektur]]&amp;amp;nbsp; ist die Rekonstruktion des Dateninhalts auch dann noch möglich, wenn bis zu&amp;amp;nbsp; $40\%$&amp;amp;nbsp; des Codes zerstört wurden, zum Beispiel durch Knicken der Fahrkarte oder durch Kaffeeflecken.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2332 KC T 1 1 S2a.png|center|frame|2D–Barcodes: Aztec– und QR–Code|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Rechts ist ein&amp;amp;nbsp; $\rm QR&amp;amp;ndash;Code$&amp;amp;nbsp; (&amp;lt;i&amp;gt;Quick Response&amp;lt;/i&amp;gt;) mit zugehörigem Inhalt dargestellt. Der QR&amp;amp;ndash;Code wurde 1994 für die Autoindustrie in Japan zur Kennzeichnung von Bauteilen entwickelt und erlaubt ebenfalls eine Fehlerkorrektur. Inzwischen ist der Einsatz des QR&amp;amp;ndash;Codes sehr vielfältig. In Japan findet man ihn auf nahezu jedem Werbeplakat und auf jeder Visitenkarte. Auch in Deutschland setzt er sich mehr und mehr durch.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Bei allen 2D&amp;amp;ndash;Barcodes gibt es quadratische Markierungen zur Kalibrierung des Lesegerätes. Details hierzu finden Sie in [KM+09]&amp;lt;ref&amp;gt;Kötter, R.; Mayer, T.; Tüchler, M.; Schreckenbach, F.; Brauchle, J.: ''Channel Coding''. Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, TU München, 2008.&amp;lt;/ref&amp;gt;.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 5: &amp;amp;nbsp; Codes für die Satelliten&amp;amp;ndash; und Weltraumkommunikation}$&lt;br /&gt;
&amp;lt;br&amp;gt;Eines der ersten Einsatzgebiete von Fehlerkorrekturverfahren war die Kommunikation von/zu Satelliten und Raumfähren, also Übertragungsstrecken, die durch niedrige Sendeleistungen und große Pfadverluste gekennzeichnet sind. Schon 1977 wurde bei der&amp;amp;nbsp; &amp;lt;i&amp;gt;Raum&amp;amp;ndash;Mission Voyager 1&amp;lt;/i&amp;gt;&amp;amp;nbsp; zu Neptun und Uranus Kanalcodierung eingesetzt, und zwar in Form der seriellen Verkettung eines&amp;amp;nbsp; [[Channel_Coding/Definition_und_Eigenschaften_von_Reed–Solomon–Codes|Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes]]&amp;amp;nbsp; und eines&amp;amp;nbsp; [[Channel_Coding/Grundlagen_der_Faltungscodierung|Faltungscodes]].&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit genügte schon der Leistungskennwert&amp;amp;nbsp; $10 &amp;amp;middot; \lg \; E_{\rm B}/N_0 \approx 2 \, \rm dB$, um die geforderte Fehlerrate&amp;amp;nbsp; $5 &amp;amp;middot; 10^{-5}$&amp;amp;nbsp; (bezogen auf die komprimierten Daten nach der Quellencodierung) zu erreichen. Ohne Kanalcodierung sind dagegen für die gleiche Fehlerrate fast&amp;amp;nbsp;  $9 \, \rm dB$&amp;amp;nbsp; erforderlich, also eine um den Faktor&amp;amp;nbsp; $10^{0.7} &amp;amp;asymp; 5$&amp;amp;nbsp; größere Sendeleistung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Auch das geplante Marsprojekt (die Datenübertragung vom Mars zur Erde mit&amp;amp;nbsp; $\rm 5W$&amp;amp;ndash;Lasern) wird nur mit einem ausgeklügelten Codierschema erfolgreich sein.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 6: &amp;amp;nbsp; Kanalcodes für die Mobilkommunikation}$&lt;br /&gt;
&amp;lt;br&amp;gt;Ein weiteres und besonders umsatzstarkes Anwendungsgebiet, das ohne Kanalcodierung nicht funktionieren würde, ist die Mobilkommunikation. Hier ergäben sich bei ungünstigen Bedingungen ohne Codierung Fehlerraten im Prozentbereich und aufgrund von Abschattungen und Mehrwegeausbreitung (Echos) treten die Fehler oft gebündelt auf. Die Fehlerbündellänge beträgt dabei manchmal einige Hundert Bit.&lt;br /&gt;
*Bei der Sprachübertragung im GSM&amp;amp;ndash;System werden die&amp;amp;nbsp; $182$&amp;amp;nbsp; wichtigsten (Klasse 1a und 1b) der insgesamt&amp;amp;nbsp; 260&amp;amp;nbsp; Bit eines Sprachrahmens&amp;amp;nbsp; $(20 \, \rm ms)$&amp;amp;nbsp; zusammen mit einigen wenigen Paritäts&amp;amp;ndash; und Tailbits faltungscodiert &amp;amp;nbsp;$($mit Memory&amp;amp;nbsp; $m = 4$&amp;amp;nbsp; und Rate &amp;amp;nbsp;$R = 1/2)$&amp;amp;nbsp; und verwürfelt. Zusammen mit den&amp;amp;nbsp; $78$&amp;amp;nbsp; weniger wichtigen und deshalb uncodierten Bits der Klasse 2 führt dies dazu, dass die Bitrate von&amp;amp;nbsp; $13 \, \rm kbit/s$&amp;amp;nbsp; auf&amp;amp;nbsp; $22.4 \, \rm kbit/s$&amp;amp;nbsp; ansteigt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Man nutzt die (relative) Redundanz von&amp;amp;nbsp; $r = (22.4 - 13)/22.4 &amp;amp;asymp; 0.42$&amp;amp;nbsp; zur Fehlerkorrektur. Anzumerken ist, dass&amp;amp;nbsp; $r = 0.42$&amp;amp;nbsp; aufgrund der hier verwendeten Definition aussagt, das&amp;amp;nbsp; $42\%$&amp;amp;nbsp; der codierten Bits redundant sind. Mit dem Bezugswert &amp;amp;bdquo;Bitrate der uncodierten Folge&amp;amp;rdquo; ergäbe sich&amp;amp;nbsp; $r = 9.4/13 \approx 0.72$&amp;amp;nbsp; mit der Aussage: &amp;amp;nbsp; Zu den Informationsbits werden&amp;amp;nbsp; $72\%$&amp;amp;nbsp; Prüfbits hinzugefügt. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei&amp;amp;nbsp; [[Examples_of_Communication_Systems/Allgemeine_Beschreibung_von_UMTS|UMTS]]&amp;amp;nbsp; (&amp;lt;i&amp;gt;Universal Mobile Telecommunications System&amp;lt;/i&amp;gt;) werden&amp;amp;nbsp; [[Channel_Coding/Grundlagen_der_Faltungscodierung|Faltungscodes]]&amp;amp;nbsp; mit den Raten&amp;amp;nbsp; $R = 1/2$&amp;amp;nbsp; bzw.&amp;amp;nbsp; $R = 1/3$&amp;amp;nbsp; eingesetzt. Bei den UMTS&amp;amp;ndash;Modi für höhere Datenraten und entsprechend geringeren Spreizfaktoren verwendet man dagegen&amp;amp;nbsp; [[Channel_Coding/Grundlegendes_zu_den_Turbocodes|Turbo&amp;amp;ndash;Codes]]&amp;amp;nbsp; der Rate&amp;amp;nbsp; $R = 1/3$&amp;amp;nbsp; und iterative Decodierung. Abhängig von der Anzahl der Iterationen erzielt man gegenüber der Faltungscodierung hiermit Gewinne von bis zu&amp;amp;nbsp; $3 \, \rm dB$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 7: &amp;amp;nbsp; Fehlerschutz der Compact Disc}$&lt;br /&gt;
&amp;lt;br&amp;gt;Bei einer CD (&amp;lt;i&amp;gt;Compact Disc&amp;lt;/i&amp;gt;) verwendet man einen &amp;lt;i&amp;gt;cross&amp;amp;ndash;interleaved&amp;lt;/i&amp;gt;&amp;amp;nbsp; [[Channel_Coding/Definition_und_Eigenschaften_von_Reed–Solomon–Codes|Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code]]&amp;amp;nbsp; (RS) und anschließend eine so genannte&amp;amp;nbsp; [https://de.wikipedia.org/wiki/Eight-to-Fourteen-Modulation Eight&amp;amp;ndash;to&amp;amp;ndash;Fourteen&amp;amp;ndash;Modulation]. Die Redundanz nutzt man zur Fehlererkennung und &amp;amp;ndash;korrektur. Dieses Codierschema zeigt folgende Charakteristika:&lt;br /&gt;
*Die gemeinsame Coderate der zwei RS&amp;amp;ndash;Komponentencodes beträgt&amp;amp;nbsp; $R_{\rm RS} = 24/28 &amp;amp;middot; 28/32  = 3/4$. Durch die 8&amp;amp;ndash;to&amp;amp;ndash;14&amp;amp;ndash;Modulation und einiger Kontrollbits kommt man zur Gesamtcoderate&amp;amp;nbsp; $R &amp;amp;asymp; 1/3$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei statistisch unabhängigen Fehlern gemäß dem&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC|BSC&amp;amp;ndash;Modell]]&amp;amp;nbsp; (&amp;lt;i&amp;gt;Binary Symmetric Channel&amp;lt;/i&amp;gt;&amp;amp;nbsp;) ist eine vollständige Korrektur möglich, so lange die Bitfehlerrate den Wert&amp;amp;nbsp; $10^{-3}$&amp;amp;nbsp; nicht überschreitet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der CD&amp;amp;ndash;spezifische&amp;amp;nbsp; &amp;lt;i&amp;gt;Cross Interleaver&amp;lt;/i&amp;gt;&amp;amp;nbsp; verwürfelt&amp;amp;nbsp; $108$&amp;amp;nbsp; Blöcke miteinander, so dass die&amp;amp;nbsp; $588$&amp;amp;nbsp; Bit eines Blockes  &amp;amp;nbsp;$($jedes Bit entspricht ca.&amp;amp;nbsp; $0.28 \, \rm {&amp;amp;micro; m})$&amp;amp;nbsp; auf etwa&amp;amp;nbsp; $1.75\, \rm  cm$ verteilt werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Mit der Coderate&amp;amp;nbsp; $R &amp;amp;asymp; 1/3$&amp;amp;nbsp; kann man ca.&amp;amp;nbsp; $10\%$&amp;amp;nbsp; &amp;amp;bdquo;Erasures&amp;amp;rdquo; korrigieren. Die verloren gegangenen Werte lassen sich durch Interpolation (näherungsweise) rekonstruieren &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp;&amp;lt;i&amp;gt;Fehlerverschleierung&amp;lt;/i&amp;gt;.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend lässt sich sagen: &amp;amp;nbsp; Weist eine CD einen Kratzer von&amp;amp;nbsp; $1.75\, \rm  mm$&amp;amp;nbsp; Länge in Abspielrichtung auf (also mehr als&amp;amp;nbsp; $6000$&amp;amp;nbsp; aufeinanderfolgende Erasures), so sind immer noch&amp;amp;nbsp; $90\%$&amp;amp;nbsp; aller Bits eines Blockes fehlerfrei, so dass sich auch die fehlenden&amp;amp;nbsp; $10\%$&amp;amp;nbsp; rekonstruieren lassen, oder dass die Auslöschungen zumindest so verschleiert werden können, dass sie nicht hörbar sind.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Auf der nächsten Seite folgt eine Demonstration zur Korrekturfähigkeit der CD.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Die „Geschlitzte CD” – eine Demonstration des LNT der TUM ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Ende der 1990er Jahre haben Mitarbeiter des&amp;amp;nbsp;  [https://www.lnt.ei.tum.de/startseite/ Lehrstuhls für Nachrichtentechnik] der [https://www.tum.de/die-tum/ TU München]&amp;amp;nbsp; unter Leitung von Professor&amp;amp;nbsp; [[Biographies_and_Bibliographies/Lehrstuhlinhaber_des_LNT#Prof._Dr.-Ing._Dr.-Ing._E.h._Joachim_Hagenauer_.281993-2006.29|Joachim Hagenauer]]&amp;amp;nbsp; eine Musik&amp;amp;ndash;CD gezielt beschädigt, indem insgesamt drei Schlitze von jeweils mehr als einem Millimeter Breite eingefräst wurden. Damit fehlen bei jedem Defekt fast&amp;amp;nbsp; $4000$&amp;amp;nbsp; fortlaufende Bit der Audiocodierung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2333 KC T 1 1 S2b.png|right|frame|„Geschlitzte CD”  des&amp;amp;nbsp; $\rm LNT/TUM$]]&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt die &amp;amp;bdquo;geschlitzte CD&amp;amp;rdquo;: &lt;br /&gt;
*Sowohl in der Spur 3 als auch in der Spur 14 gibt es bei jeder Umdrehung zwei solcher fehlerhafter Bereiche. &lt;br /&gt;
*Sie können sich die Musikqualität mit Hilfe der beiden Audioplayer (Abspielzeit jeweils ca. 15 Sekunden) verdeutlichen. &lt;br /&gt;
*Die Theorie zu dieser Audio&amp;amp;ndash;Demo finden Sie im&amp;amp;nbsp; $\text{Beispiel 7}$&amp;amp;nbsp; auf der vorherigen Seite.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Spur 14:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;lntmedia&amp;gt;file:A_ID59__14_1.mp3&amp;lt;/lntmedia&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Spur 3:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;lntmedia&amp;gt;file:A_ID60__3_1.mp3&amp;lt;/lntmedia&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Resumee dieser Audiodemo:&amp;lt;/b&amp;gt;&lt;br /&gt;
*Die Fehlerkorrektur der CD basiert auf zwei seriell&amp;amp;ndash;verketteten&amp;amp;nbsp; [[Channel_Coding/Definition_und_Eigenschaften_von_Reed–Solomon–Codes|Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes]]&amp;amp;nbsp; sowie einer&amp;amp;nbsp;  [https://de.wikipedia.org/wiki/Eight-to-Fourteen-Modulation Eight&amp;amp;ndash;to&amp;amp;ndash;Fourteen&amp;amp;ndash;Modulation]. Die Gesamtcoderate zur RS&amp;amp;ndash;Fehlerkorrektur beträgt&amp;amp;nbsp; $R = 3/4$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ebenso wichtig für die Funktionsfähigkeit der CD wie die Codes ist der dazwischen geschaltete Interleaver, der die ausgelöschten Bits (&amp;amp;bdquo;Erasures&amp;amp;rdquo;) über eine Länge von fast&amp;amp;nbsp; $2 \, \rm cm$&amp;amp;nbsp; verteilt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei der&amp;amp;nbsp; '''Spur 14'''&amp;amp;nbsp; liegen die beiden defekten Bereiche genügend weit auseinander. Deshalb ist der Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Decoder in der Lage, die fehlenden Daten zu rekonstruieren.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei der&amp;amp;nbsp; '''Spur 3'''&amp;amp;nbsp; folgen die beiden Fehlerblöcke in sehr kurzem Abstand aufeinander, so dass der Korrekturalgorithmus versagt. Das Resultat ist ein fast periodisches Klackgeräusch.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wir bedanken uns bei Rainer Bauer,&amp;amp;nbsp; [[Biographies_and_Bibliographies/An_LNTwww_beteiligte_Mitarbeiter_und_Dozenten#Dr.-Ing._Thomas_Hindelang_.28am_LNT_von_1994-2000_und_2007-2012.29|Thomas Hindelang]]&amp;amp;nbsp; und&amp;amp;nbsp; [[Biographies_and_Bibliographies/An_LNTwww_beteiligte_Mitarbeiter_und_Dozenten#Manfred_J.C3.BCrgens_.28am_LNT_von_1981-2010.29|Manfred Jürgens]], diese Audio&amp;amp;ndash;Demo verwenden zu dürfen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zusammenspiel zwischen Quellen– und Kanalcodierung ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Nachrichtenübertragung natürlicher Quellen wie Sprache, Musik, Bilder, Videos, usw. geschieht meist entsprechend dem nachfolgend skizzierten zeitdiskreten Modell.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2334 KC T 1 1 S3a v2.png|center|frame|Bildübertragung mit Quellen– und Kanalcodierung|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Zu dieser aus [Liv10]&amp;lt;ref name ='Liv10'&amp;gt;Liva, G.: ''Channel Coding.'' Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010.&amp;lt;/ref&amp;gt; entnommenen Grafik ist Folgendes anzumerken:&lt;br /&gt;
*Quelle und Sinke sind digitalisiert und werden durch (etwa gleich viele ) Nullen und Einsen repräsentiert.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der Quellencodierer komprimiert die binären Daten &amp;amp;ndash; im Beispiel ein Digitalfoto &amp;amp;ndash; und reduziert somit die Redundanz der Quelle.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der Kanalcodierer fügt wieder Redundanz hinzu und zwar gezielt, so dass einige der auf dem Kanal entstandenen Fehler im Kanaldecoder korrigiert werden können.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Für den Kanal wird hier ein zeitdiskretes Modell mit binärem Eingang und Ausgang verwendet, das auch die Komponenten der technischen Sende&amp;amp;ndash; und Empfangseinrichtungen (Modulator, Entscheider, Taktwiedergewinnung) geeignet berücksichtigen sollte.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Bei richtiger Dimensionierung von Quellen&amp;amp;ndash; und Kanalcodierung ist die Qualität des empfangenen Fotos hinreichend gut, auch wenn die Sinkensymbolfolge aufgrund nicht korrigierbarer Fehlermuster nicht exakt mit der Quellensymbolfolge übereinstimmen wird. Man erkennt innerhalb der Sinkensymbolfolge einen (rot markierten) Bitfehler.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 8:}$&amp;amp;nbsp; Für obige Grafik wurde beispielhaft und stark vereinfachend angenommen, dass &lt;br /&gt;
*die Quellensymbolfolge nur die Länge&amp;amp;nbsp; $40$&amp;amp;nbsp; hat,&lt;br /&gt;
*der Quellencodierer die Daten um den Faktor&amp;amp;nbsp; $40/16 = 2.5$&amp;amp;nbsp; komprimiert, und &lt;br /&gt;
*der Kanalcoder&amp;amp;nbsp; $50\%$&amp;amp;nbsp; Redundanz hinzufügt. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Übertragen werden müssen also nur&amp;amp;nbsp; $24$&amp;amp;nbsp; Codersymbole statt&amp;amp;nbsp; $40$&amp;amp;nbsp; Quellensymbole, was die Übertragungsrate insgesamt um&amp;amp;nbsp; $40\%$&amp;amp;nbsp; reduziert.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Würde man auf die Quellencodierung verzichten, in dem man das ursprüngliche Foto im BMP&amp;amp;ndash;Format übertragen würde und nicht das komprimierte JPG&amp;amp;ndash;Bild, so wäre die Qualität vergleichbar, aber eine um den Faktor&amp;amp;nbsp; $2.5$&amp;amp;nbsp; höhere Bitrate und damit sehr viel mehr Aufwand erforderlich.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 9:}$&amp;amp;nbsp; Würde man sowohl auf die Quellen&amp;amp;ndash; als auch auf die Kanalcodierung verzichten, also direkt die BMP&amp;amp;ndash;Daten ohne Fehlerschutz übertragen, so wäre das Ergebnis trotz&amp;amp;nbsp; $($um den Faktor&amp;amp;nbsp; $40/24)$&amp;amp;nbsp; größerer Bitrate äußerst dürftig.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2335 KC T 1 1 S3b v2.png|center|frame|Bildübertragung ohne Quellen– und Kanalcodierung |class=fit]]}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 10:}$&amp;amp;nbsp; Nun betrachten wir den Fall, dass man die komprimierten Daten (zum Beispiel JPG) ohne Fehlersicherungsmaßnahmen direkt überträgt. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2336 KC T 1 1 S3c v2.png|center|frame|Bildübertragung mit Quellencodierung, ohne Kanalcodierung |class=fit]]&lt;br /&gt;
&lt;br /&gt;
*Da die komprimierte Quelle nur noch wenig Redundanz besitzt, führt jeder einzelne Übertragungsfehler dazu, dass ganze Bildblöcke falsch decodiert werden.&amp;lt;br&amp;gt;&lt;br /&gt;
*Dieses Codierschema (Quellencodierung, aber keine Kanalcodierung) sollte auf jeden Fall vermieden werden.}}&lt;br /&gt;
&lt;br /&gt;
== Blockschaltbild und Voraussetzungen ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Im weiteren Verlauf gehen wir von dem skizzierten Blockschaltbild mit Kanalcodierer, Digitalem Kanal und Kanaldecoder aus. &lt;br /&gt;
&lt;br /&gt;
[[File:P ID2337 KC T 1 1 S4 v2.png|center|frame|Blockschaltbild zur Beschreibung der Kanalcodierung|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Dabei gelten folgende Voraussetzungen:&lt;br /&gt;
*Der Vektor&amp;amp;nbsp; $\underline{u} = (u_1, u_2, \text{...} \hspace{0.05cm}, u_k)$&amp;amp;nbsp;  kennzeichnet einen&amp;amp;nbsp; '''Informationsblock'''&amp;amp;nbsp; mit&amp;amp;nbsp; $k$&amp;amp;nbsp; Symbolen. &lt;br /&gt;
*Meist beschränken wir uns auf Binärsymbole (Bits) &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $u_i \in  \{0, \, 1\}$ für $i = 1, 2, \text{...} \hspace{0.05cm}, k$&amp;amp;nbsp; mit gleichen Auftrittswahrscheinlichkeiten für Nullen und Einsen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Jeder Informationsblock&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; wird durch ein&amp;amp;nbsp; '''Codewort'''&amp;amp;nbsp; (oder einen&amp;amp;nbsp; &amp;lt;i&amp;gt;Codeblock&amp;lt;/i&amp;gt;)&amp;amp;nbsp; $\underline{x} = (x_1, x_2, \text{...} \hspace{0.05cm}, x_n)$&amp;amp;nbsp; mit&amp;amp;nbsp; $n \ge k$, $x_i \in  \{0, \, 1\}$&amp;amp;nbsp;  dargestellt. Man spricht dann von einem binären&amp;amp;nbsp; $(n, k)$&amp;amp;ndash;Blockcode&amp;amp;nbsp; $C$. Die Zuordnung bezeichnen wir mit&amp;amp;nbsp; $\underline{x} = {\rm enc}(\underline{u})$, wobei &amp;amp;bdquo;enc&amp;amp;rdquo; für &amp;amp;bdquo;Encoder&amp;amp;ndash;Funktion&amp;amp;rdquo; steht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Das&amp;amp;nbsp; '''Empfangswort''' $\underline{y}$&amp;amp;nbsp; ergibt sich aus dem Codewort&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; durch&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Modular_arithmetic Modulo&amp;amp;ndash;2&amp;amp;ndash;Addition]&amp;amp;nbsp; mit dem ebenfalls binären Fehlervektor&amp;amp;nbsp; $\underline{e} = (e_1, e_2, \text{...} \hspace{0.05cm}, e_n)$, wobei &amp;amp;bdquo;$e= 1$&amp;amp;rdquo; für einen Übertragungfehler steht und &amp;amp;bdquo;$e= 0$&amp;amp;rdquo; anzeigt, dass das&amp;amp;nbsp; $i$&amp;amp;ndash;te Bit des Codewortes richtig übertragen wurde. Es gilt also:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{y} = \underline{x} \oplus \underline{e} \hspace{0.05cm}, \hspace{0.5cm} y_i  =   x_i \oplus e_i \hspace{0.05cm}, \hspace{0.2cm} i = 1, \text{...} \hspace{0.05cm}  , n\hspace{0.05cm}, x_i \hspace{-0.05cm} \in  \hspace{-0.05cm} \{ 0, 1 \}\hspace{0.05cm}, \hspace{0.5cm}e_i \in  \{ 0, 1 \}\hspace{0.5cm}&lt;br /&gt;
\Rightarrow \hspace{0.5cm}y_i  \in   \{ 0, 1 \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Die Beschreibung durch das&amp;amp;nbsp; '''Digitale Kanalmodell'''&amp;amp;nbsp; &amp;amp;ndash; also mit binärem Eingang und Ausgang &amp;amp;ndash; ist allerdings nur dann anwendbar, wenn das Übertragungssystem harte Entscheidungen trifft &amp;amp;ndash; siehe&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang| AWGN&amp;amp;ndash;Kanal bei binärem Eingang]]. Systeme mit&amp;amp;nbsp; [[Channel_Coding/Decodierung_linearer_Blockcodes#Codiergewinn_.E2.80.93_Bitfehlerrate_bei_AWGN|Soft Decision]]&amp;amp;nbsp; sind mit diesem einfachen Modell nicht modellierbar.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Der Vektor&amp;amp;nbsp; $\underline{v}$&amp;amp;nbsp; nach der&amp;amp;nbsp; '''Kanaldecodierung'''&amp;amp;nbsp; hat die gleiche Länge&amp;amp;nbsp; $k$&amp;amp;nbsp; wie der Informationsblock&amp;amp;nbsp;  $\underline{u}$. Den Decodiervorgang beschreiben wir mit der &amp;amp;bdquo;Decoder&amp;amp;ndash;Funktion&amp;amp;rdquo; als&amp;amp;nbsp; $\underline{v} = {\rm enc}^{-1}(\underline{y}) = {\rm dec}(\underline{y})$. Im fehlerfreien Fall gilt analog zu&amp;amp;nbsp; $\underline{x} = {\rm enc}(\underline{u})$&amp;amp;nbsp; auch&amp;amp;nbsp;  $\underline{v} = {\rm enc}^{-1}(\underline{y})$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Ist der Fehlervektor&amp;amp;nbsp; $\underline{e} \ne \underline{0}$, so ist&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; meist kein gültiges Element des verwendeten Blockcodes, und die Decodierung ist dann keine reine Zuordnung&amp;amp;nbsp; $\underline{y} \rightarrow  \underline{v}$, sondern eine auf maximale Übereinstimmung (mimimale Fehlerwahrscheinlichkeit) basierende Schätzung von&amp;amp;nbsp; $\underline{v}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einige wichtige Definitionen zur Blockcodierung ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir betrachten nun den beispielhaften binären Blockcode&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathcal{C} = \{ (0, 0, 0, 0, 0) \hspace{0.05cm},\hspace{0.15cm} (0, 1, 0, 1, 0) \hspace{0.05cm},\hspace{0.15cm}(1, 0, 1, 0, 1) \hspace{0.05cm},\hspace{0.15cm}(1, 1, 1, 1, 1) \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dieser Code wäre zum Zwecke der Fehlererkennung oder &amp;amp;ndash;korrektur ungeeignet. Aber er ist so konstruiert, dass er die Berechnung wichtiger Beschreibungsgrößen anschaulich verdeutlicht:&lt;br /&gt;
*Jedes einzelne Codewort&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; wird durch fünf Bit beschrieben. Im gesamten Buch drücken wir diesen Sachverhalt durch die&amp;amp;nbsp; '''Codewortlänge'''&amp;amp;nbsp; (englisch: &amp;amp;nbsp;&amp;lt;i&amp;gt;Code Length&amp;lt;/i&amp;gt;&amp;amp;nbsp;)&amp;amp;nbsp; $n = 5$ aus.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Der obige Code beinhaltet vier Elemente. Damit ist der&amp;amp;nbsp; '''Codeumfang'''&amp;amp;nbsp; (englisch: &amp;amp;nbsp; &amp;lt;i&amp;gt;Size&amp;lt;/i&amp;gt;&amp;amp;nbsp;)&amp;amp;nbsp; $|C| = 4$. Entsprechend gibt es auch vier eindeutige Zuordnungen (englisch: &amp;amp;nbsp;&amp;lt;i&amp;gt;Mappings&amp;lt;/i&amp;gt;&amp;amp;nbsp;) zwischen&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{x}$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Die Länge eines  Informationsblocks&amp;amp;nbsp;  $\underline{u}$  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''Informationsblocklänge'''&amp;amp;nbsp; wird mit&amp;amp;nbsp; $k$&amp;amp;nbsp; bezeichnet. Da bei allen binären Codes&amp;amp;nbsp; $|C| = 2^k$&amp;amp;nbsp; gilt, folgt aus&amp;amp;nbsp; $|C| = 4$&amp;amp;nbsp; der Wert&amp;amp;nbsp; $k = 2$. Die Zuordnungen zwischen&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; lauten bei obigem Code&amp;amp;nbsp; $C$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u_0} = (0, 0) \hspace{0.2cm}\leftrightarrow \hspace{0.2cm}(0, 0, 0, 0, 0) = \underline{x_0}\hspace{0.05cm}, \hspace{0.8cm}&lt;br /&gt;
\underline{u_1} = (0, 1) \hspace{0.2cm}\leftrightarrow \hspace{0.2cm}(0, 1, 0, 1, 0) = \underline{x_1}\hspace{0.05cm}, &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u_2} = (1, 0)\hspace{0.2cm} \leftrightarrow \hspace{0.2cm}(1, 0, 1, 0, 1) = \underline{x_2}\hspace{0.05cm}, \hspace{0.8cm}&lt;br /&gt;
\underline{u_3} = (1, 1) \hspace{0.2cm} \leftrightarrow \hspace{0.2cm}(1, 1, 1, 1, 1) = \underline{x_3}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Der Code weist die&amp;amp;nbsp; '''Coderate'''&amp;amp;nbsp; $R = k/n = 2/5$&amp;amp;nbsp; auf. Dementsprechend beträgt seine Redundanz&amp;amp;nbsp; $1-R$, also&amp;amp;nbsp; $60\%$. Ohne Fehlerschutz &amp;amp;nbsp;$($also für den Fall&amp;amp;nbsp; $n = k)$&amp;amp;nbsp; wäre die Coderate&amp;amp;nbsp; $R = 1$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Eine kleine Coderate  zeigt an, dass von den&amp;amp;nbsp; $n$&amp;amp;nbsp; Bits eines Codewortes nur sehr wenige tatsächlich Information tragen. Beispielsweise hat ein Wiederholungscode&amp;amp;nbsp; $(k = 1)$&amp;amp;nbsp; mit&amp;amp;nbsp; $n = 10$&amp;amp;nbsp; die  Coderate&amp;amp;nbsp; $R = 0.1$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Das&amp;amp;nbsp; '''Hamming&amp;amp;ndash;Gewicht'''&amp;amp;nbsp; $w_{\rm H}(\underline{x})$&amp;amp;nbsp; des Codewortes&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; gibt die Zahl der Codewortelemente&amp;amp;nbsp; $x_i \ne 0$&amp;amp;nbsp; an. Bei einem binären Code &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $x_i \in  \{0, \, 1\}$&amp;amp;nbsp; ist $w_{\rm H}(\underline{x})$&amp;amp;nbsp; gleich der Summe&amp;amp;nbsp; $x_1 + x_2 + \hspace{0.05cm}\text{...} \hspace{0.05cm}+ x_n$. Im Beispiel:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;w_{\rm H}(\underline{x}_0) = 0\hspace{0.05cm}, \hspace{0.4cm}w_{\rm H}(\underline{x}_1) = 2\hspace{0.05cm}, \hspace{0.4cm} w_{\rm H}(\underline{x}_2) = 3\hspace{0.05cm}, \hspace{0.4cm}w_{\rm H}(\underline{x}_3) = 5\hspace{0.05cm}. &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Die&amp;amp;nbsp; '''Hamming&amp;amp;ndash;Distanz'''&amp;amp;nbsp; $d_{\rm H}(\underline{x}, \ \underline{x}\hspace{0.03cm}')$&amp;amp;nbsp; zwischen den Codeworten&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{x}\hspace{0.03cm}'$&amp;amp;nbsp; bezeichnet die Anzahl der Bitpositionen, in denen sich die beiden Codeworte unterscheiden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;d_{\rm H}(\underline{x}_0, \hspace{0.05cm}\underline{x}_1) = 2\hspace{0.05cm}, \hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_0, \hspace{0.05cm}\underline{x}_2) = 3\hspace{0.05cm}, \hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_0, \hspace{0.05cm}\underline{x}_3) = 5\hspace{0.05cm},\hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_1, \hspace{0.05cm}\underline{x}_2) = 5\hspace{0.05cm}, \hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_1, \hspace{0.05cm}\underline{x}_3) = 3\hspace{0.05cm}, \hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_2, \hspace{0.05cm}\underline{x}_3) = 2\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Eine wichtige Eigenschaft eines Codes $C$, die seine Korrekturfähigkeit wesentlich beeinflusst, ist die&amp;amp;nbsp; '''minimale Distanz'''&amp;amp;nbsp; zwischen zwei beliebigen Codeworten:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;d_{\rm min}(\mathcal{C}) =&lt;br /&gt;
			\min_{\substack{\underline{x},\hspace{0.05cm}\underline{x}' \hspace{0.05cm}\in \hspace{0.05cm} \mathcal{C} \\ {\underline{x}} \hspace{0.05cm}\ne \hspace{0.05cm} \underline{x}'}}\hspace{0.1cm}d_{\rm H}(\underline{x}, \hspace{0.05cm}\underline{x}')\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT= &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ein&amp;amp;nbsp; $(n, \hspace{0.05cm}k, \hspace{0.05cm}d_{\rm min})\text{ &amp;amp;ndash; Blockcode}$&amp;amp;nbsp; besitzt die Codewortlänge&amp;amp;nbsp; $n$, die Informationsblocklänge&amp;amp;nbsp; $k$&amp;amp;nbsp; und die minimale Distanz&amp;amp;nbsp; $d_{\rm min}$.&lt;br /&gt;
*Nach dieser Nomenklatur handelt es sich im hier betrachteten Beispiel um einen&amp;amp;nbsp; $(5, \hspace{0.05cm}2,\hspace{0.05cm} 2)$ &amp;amp;ndash; Blockcode.&lt;br /&gt;
*Manchmal verzichtet man auf die Angabe von&amp;amp;nbsp; $d_{\rm min}$&amp;amp;nbsp; und spricht dann von einem&amp;amp;nbsp; $(n,\hspace{0.05cm} k)$ &amp;amp;ndash; Blockcode.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Beispiele für Fehlererkennung und Fehlerkorrektur ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die eben definierten Größen sollen nun an zwei Beispielen verdeutlicht werden.&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 11:}$&amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp;$\text{(4, 2, 2)&amp;amp;ndash;Blockcode}$ &lt;br /&gt;
&lt;br /&gt;
In der Grafik  verdeutlichen die nach rechts bzw. links zeigenden Pfeile den Codiervorgang bzw. die Decodierung:&lt;br /&gt;
&lt;br /&gt;
:$$\underline{u_0} = (0, 0) \leftrightarrow (0, 0, 0, 0) = \underline{x_0}\hspace{0.05cm},\hspace{0.5cm}&lt;br /&gt;
\underline{u_1} = (0, 1) \leftrightarrow (0, 1, 0, 1) = \underline{x_1}\hspace{0.05cm},$$&lt;br /&gt;
:$$\underline{u_2} = (1, 0) \leftrightarrow (1, 0, 1, 0) = \underline{x_2}\hspace{0.05cm},\hspace{0.5cm}&lt;br /&gt;
\underline{u_3} = (1, 1) \leftrightarrow (1, 1, 1, 1) = \underline{x_3}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2532 KC T 1 1 S5a v2.png|center|frame|(4, 2, 2)–Blockcode zur Fehlererkennung|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Rechts sind alle&amp;amp;nbsp; $2^4 = 16$&amp;amp;nbsp; möglichen Empfangsworte&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; dargestellt:&lt;br /&gt;
* Von diesen können&amp;amp;nbsp; $2^n - 2^k = 12$&amp;amp;nbsp; nur durch Bitfehler entstanden sein. &lt;br /&gt;
*Empfängt der Decoder ein solches &amp;amp;bdquo;weißes&amp;amp;rdquo; Codewort, so erkennt er zwar einen Fehler, er kann diesen aber wegen&amp;amp;nbsp; $d_{\rm min} = 2$&amp;amp;nbsp; nicht korrigieren. &lt;br /&gt;
*Empfängt er beispielsweise&amp;amp;nbsp; $\underline{y} = (0, 0, 0, 1)$, so kann nämlich mit gleicher Wahrscheinlichkeit&amp;amp;nbsp; $\underline{x_0} = (0, 0, 0, 0)$&amp;amp;nbsp; oder&amp;amp;nbsp; $\underline{x_1} = (0, 1, 0, 1)$ gesendet worden sein.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2533 KC T 1 1 S5b v2.png|right|frame|(5, 2, 3)–Blockcode zur Fehlerkorrektur|class=fit]]&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 11:}$&amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp;$\text{(5, 2, 3)&amp;amp;ndash;Blockcode}$ &lt;br /&gt;
&lt;br /&gt;
Hier gibt es wegen $k=2$ vier gültige Codeworte :&lt;br /&gt;
:$$\underline{x_0} = (0, 0, 0, 0, 0)\hspace{0.05cm},\hspace{0.5cm} \underline{x_1} =(0, 1, 0, 1, 1)\hspace{0.05cm},$$&lt;br /&gt;
:$$\underline{x_2} =(1, 0, 1, 1, 0)\hspace{0.05cm},\hspace{0.5cm}\underline{x_3} =(1, 1, 1, 0, 1).$$ &lt;br /&gt;
&lt;br /&gt;
In der Grafik dargestellt ist die Empfängerseite, wobei man verfälschte Bit an der Kursivschrift erkennt.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt; &lt;br /&gt;
*Von den&amp;amp;nbsp; $2^n - 2^k = 28$&amp;amp;nbsp; unzulässigen Codeworten lassen sich nun&amp;amp;nbsp; $20$&amp;amp;nbsp; einem gültigen Codewort (Füllfarbe: &amp;amp;nbsp; rot, grün, blau oder ocker) zuordnen, wenn man davon ausgeht, dass ein einziger  Bitfehler wahrscheinlicher ist als deren zwei oder mehr. &lt;br /&gt;
*Zu jedem gültigen Codewort  gibt es fünf unzulässige Codeworte mit jeweils nur einer Verfälschung &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; Hamming&amp;amp;ndash;Distanz&amp;amp;nbsp; $d_{\rm H} =1$. Diese sind in dem jeweiligen Quadrat  mit roter, grüner, blauer oder ockerfarbenen Hintergrundfarbe angegeben. &lt;br /&gt;
*Die Fehlerkorrektur ist für diese aufgrund der minimalen Distanz&amp;amp;nbsp; $d_{\rm min} = 3$&amp;amp;nbsp; zwischen den Codeworten möglich. &lt;br /&gt;
*Acht Empfangsworte sind nicht decodierbar. Beispielsweise könnte das Empfangswort&amp;amp;nbsp; $\underline{y} = (0, 0, 1, 0, 1)$&amp;amp;nbsp; aus dem Codewort&amp;amp;nbsp; $\underline{x}_0 = (0, 0, 0, 0, 0)$&amp;amp;nbsp; entstanden sein, aber auch aus dem Codewort&amp;amp;nbsp;  $\underline{x}_3 = (1, 1, 1, 0, 1)$. In beiden Fällen wären zwei Bitfehler aufgetreten.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zur Nomenklatur in diesem Buch ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Eine Zielvorgabe unseres Lerntutorials&amp;amp;nbsp; $\rm LNTwww$&amp;amp;nbsp; war, das gesamte Fachgebiet der Nachrichtentechnik und der zugehörigen Grundlagenfächer mit einheitlicher Nomenklatur zu beschreiben. In diesem zuletzt in Angriff genommenen Buch &amp;amp;bdquo; Kanalcodierung&amp;amp;rdquo; müssen nun doch einige Änderungen hinsichtlich der Nomenklatur vorgenommen werden. Die Gründe hierfür sind:&lt;br /&gt;
*Die Codierungstheorie ist ein weitgehend in sich abgeschlossenes Fachgebiet und nur wenige Autoren von einschlägigen Fachbüchern zu diesem Gebiet versuchen, einen Zusammenhang mit anderen Aspekten der Digitalsignalübertragung herzustellen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Autoren der wichtigsten Bücher zur Kanalcodierung &amp;amp;ndash; englischsprachige und deutsche &amp;amp;ndash; verwenden weitgehend eine einheitliche Nomenklatur. Wir erlauben uns deshalb nicht, die Bezeichnungen zur Kanalcodierung in unser Übertragungstechnik&amp;amp;ndash;Schema zu pressen.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Einige Nomenklaturänderungen gegenüber den anderen&amp;amp;nbsp; $\rm LNTwww$&amp;amp;ndash;Büchern sollen hier genannt werden:&lt;br /&gt;
*Alle Signale werden durch Symbolfolgen in Vektorschreibweise dargestellt. Beispielsweise kennzeichnet&amp;amp;nbsp; $\underline{u} = (u_1, u_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, u_k)$&amp;amp;nbsp; die&amp;amp;nbsp; &amp;lt;i&amp;gt;Quellensymbolfolge&amp;lt;/i&amp;gt;&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{v} = (v_1, v_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, v_k)$&amp;amp;nbsp; die &amp;lt;i&amp;gt;Sinkensymbolfolge&amp;lt;/i&amp;gt;. Bisher wurden diese Symbolfolgen mit&amp;amp;nbsp; $\langle q_\nu \rangle$&amp;amp;nbsp; bzw.&amp;amp;nbsp; $\langle v_\nu \rangle$&amp;amp;nbsp; bezeichnet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Der Vektor $\underline{x} = (x_1, x_2, \hspace{0.05cm}\text{...} \hspace{0.05cm}, x_n)$&amp;amp;nbsp; bezeichnet nun das zeitdiskrete Äquivalent zum Sendesignal&amp;amp;nbsp; $s(t)$, während das Empfangssignal&amp;amp;nbsp; $r(t)$ durch den Vektor&amp;amp;nbsp; $\underline{y} = (y_1, y_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, y_n)$&amp;amp;nbsp; beschrieben wird. Die Coderate ist der Quotient &amp;lt;/i&amp;gt;&amp;amp;nbsp; $R=k/n$ &amp;amp;nbsp; mit &amp;amp;nbsp; $0 \le R \le 1$ und die Anzahl der Prüfbits ergibt sich zu&amp;amp;nbsp; $m = n-k$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Im ersten Hauptkapitel sind die Elemente&amp;amp;nbsp; $u_i$&amp;amp;nbsp; und&amp;amp;nbsp; $v_i$&amp;amp;nbsp; &amp;amp;nbsp;$($jeweils mit Index&amp;amp;nbsp; $i = 1, \hspace{0.05cm}\text{...} \hspace{0.05cm}, k)$&amp;amp;nbsp; der Vektoren&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{v}$&amp;amp;nbsp; stets binär&amp;amp;nbsp; $(0$&amp;amp;nbsp; oder &amp;amp;nbsp;$1)$, ebenso wie die&amp;amp;nbsp; $n$&amp;amp;nbsp; Elemente&amp;amp;nbsp; $x_i$&amp;amp;nbsp; des Codewortes&amp;amp;nbsp; $\underline{x}$. Bei digitalem Kanalmodell&amp;amp;nbsp; ([[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC|BSC]],&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Erasure_Channel_.E2.80.93_BEC|BEC]],&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Error_.26_Erasure_Channel_.E2.80.93_BSEC|BSEC]]) gilt auch für die&amp;amp;nbsp; $n$&amp;amp;nbsp; Empfangswerte&amp;amp;nbsp; $y_i \in \{0, 1\}$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Das&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang|AWGN&amp;amp;ndash;Kanalmodell]]&amp;amp;nbsp; ist durch reellwertige Ausgangswerte&amp;amp;nbsp;  $y_i$&amp;amp;nbsp; gekennzeichnet. Der &amp;lt;i&amp;gt;Codewortschätzer&amp;lt;/i&amp;gt; gewinnt in diesem Fall aus dem Vektor&amp;amp;nbsp; $\underline{y} = (y_1, y_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, y_n)$&amp;amp;nbsp; den binären Vektor&amp;amp;nbsp; $\underline{z} = (z_1, z_2, \hspace{0.05cm}\text{...} \hspace{0.05cm}, z_n)$, der mit dem Codewort&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; zu vergleichen ist.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Der Übergang von&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; auf&amp;amp;nbsp; $\underline{z}$&amp;amp;nbsp; erfolgt durch Schwellenwertentscheidung &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;i&amp;gt;Hard Decision&amp;lt;/i&amp;gt; oder nach dem MAP&amp;amp;ndash;Kriterium &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;i&amp;gt;Soft Decision&amp;lt;/i&amp;gt;. Bei gleichwahrscheinlichen Eingangssymbolen  führt die  &amp;amp;bdquo;Maximum Likelihood&amp;amp;rdquo;&amp;amp;ndash;Schätzung ebenfalls zur minimalen Fehlerrate.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Im Zusammenhang mit dem AWGN&amp;amp;ndash;Modell macht es Sinn, binäre Codesymbole $x_i$ bipolar (also $\pm1$) darzustellen. An den statistischen Eigenschaften ändert sich dadurch nichts. Wir kennzeichnen im Folgenden die bipolare Signalisierung durch eine Tilde. Dann gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\tilde{x}_i = 1 - 2 x_i  = \left\{ \begin{array}{c} +1\\&lt;br /&gt;
 -1   \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{1}c} {\rm falls} \hspace{0.15cm} x_i = 0\hspace{0.05cm},\\&lt;br /&gt;
{\rm falls} \hspace{0.15cm}x_i = 1\hspace{0.05cm}.\\ \end{array}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:1.1 Zur Kennzeichnung aller Bücher|Aufgabe 1.1: Zur Kennzeichnung aller Bücher]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.2 Einfacher binärer Kanalcode|Aufgabe 1.2: Einfacher binärer Kanalcode]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.2Z_3D–Darstellung_von_Codes|Aufgabe 1.2Z: 3D–Darstellung von Codes]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Objective_of_Channel_Coding&amp;diff=35696</id>
		<title>Channel Coding/Objective of Channel Coding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Objective_of_Channel_Coding&amp;diff=35696"/>
		<updated>2021-01-15T17:38:31Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{FirstPage}}&lt;br /&gt;
{{Header|&lt;br /&gt;
Untermenü=Binary Block Codes for Channel Coding&lt;br /&gt;
|Nächste Seite=Channel Models and Decision Structures&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== # ÜBERBLICK ZUM ERSTEN HAUPTKAPITEL # ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Das erste Kapitel behandelt Blockcodes zur Fehlererkennung und Fehlerkorrektur und liefert die Grundlagen zur Beschreibung effektiverer Codes wie zum Beispiel den&amp;amp;nbsp; ''Reed–Solomon–Codes''&amp;amp;nbsp; (siehe Kapitel 2), den&amp;amp;nbsp; ''Faltungscodes''&amp;amp;nbsp; (Kapitel 3) sowie den&amp;amp;nbsp; ''iterativ decodierbaren Produkt–Codes''&amp;amp;nbsp; (''Turbo–Codes'') und&amp;amp;nbsp; ''Low–density Parity–check Codes''&amp;amp;nbsp; (Kapitel 4). Wir beschränken uns hier auf binäre Codes.&lt;br /&gt;
&lt;br /&gt;
Man bezeichnet dieses spezifische Fachgebiet als&amp;amp;nbsp; ''Kanalcodierung''&amp;amp;nbsp; im Gegensatz zur&amp;amp;nbsp; ''Quellencodierung''&amp;amp;nbsp; (Redundanzminderung aus Gründen der Datenkomprimierung) und zur&amp;amp;nbsp; ''Leitungscodierung''&amp;amp;nbsp; (zusätzliche Redundanz zur Anpassung des Digitalsignals an die spektralen Eigenschaften des Übertragungsmediums).&lt;br /&gt;
&lt;br /&gt;
Im Einzelnen werden behandelt:&lt;br /&gt;
&lt;br /&gt;
*Definitionen und einführende Beispiele zur Fehlererkennung und Fehlererkorrektur,&lt;br /&gt;
*eine kurze Wiederholung geeigneter Kanalmodelle und Entscheiderstrukturen,&lt;br /&gt;
*bekannte binäre Blockcodes wie Single Parity-check Code, Wiederholungscode und Hamming–Code,&lt;br /&gt;
*die allgemeine Beschreibung linearer Codes mittels Generatormatrix und Prüfmatrix,&lt;br /&gt;
*die Decodiermöglichkeiten für Blockcodes, unter anderem die Syndromdecodierung,&lt;br /&gt;
*einfache Näherungen und obere Schranken für die Blockfehlerwahrscheinlichkeit, sowie&lt;br /&gt;
*eine informationstheoretische Grenze der Kanalcodierung.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Fehlererkennung und Fehlerkorrektur ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Bei einem jeden Nachrichtenübertragungssystem kommt es zu Übertragungsfehlern. Man kann zwar die Wahrscheinlichkeit&amp;amp;nbsp; $p_{\rm S}$&amp;amp;nbsp; für einen solchen Symbolfehler sehr klein halten, zum Beispiel durch eine sehr große Signalenergie. Die Symbolfehlerwahrscheinlichkeit&amp;amp;nbsp; $p_{\rm S} = 0$&amp;amp;nbsp; ist aber wegen der Gaußschen WDF des stets vorhandenen thermischen Rauschens nie erreichbar.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Insbesondere bei stark gestörten Kanälen und auch für sicherheitskritische Anwendungen ist es deshalb unumgänglich, die zu übertragenden Daten angepasst an Anwendung und Kanal besonders zu schützen. Dazu fügt man beim Sender Redundanz hinzu und nutzt diese Redundanz beim Empfänger, um die Anzahl der Decodierfehler zu verringern. &lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definitionen:}$&lt;br /&gt;
&lt;br /&gt;
*'''Fehlererkennung'''&amp;amp;nbsp; (englisch: &amp;amp;nbsp; ''Error Detection''): &amp;amp;nbsp; Der Decoder prüft die Integrität der empfangenen Blöcke und markiert gefundene Fehler. Eventuell informiert der Empfänger den Sender über fehlerhafte Blöcke via Rückkanal, so dass dieser den entsprechenden Block noch einmal sendet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*'''Fehlerkorrektur'''&amp;amp;nbsp; (englisch: &amp;amp;nbsp; ''Error Correction''): &amp;amp;nbsp; Der Decoder erkennt einen (oder mehrere) Bitfehler und liefert für diese weitere Informationen, zum Beispiel deren Positionen im übertragenen Block. Damit können unter Umständen die entstandenen Fehler vollständig korrigiert werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die&amp;amp;nbsp; '''Kanalcodierung'''&amp;amp;nbsp; (englisch: &amp;amp;nbsp; ''Channel Coding'' oder  ''Error–Control Coding'') umfasst sowohl Verfahren zur Fehlererkennung als auch solche zur Fehlerkorrektur.&amp;lt;br&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Alle&amp;amp;nbsp; '''ARQ'''–Verfahren (englisch: &amp;amp;nbsp; ''Automatic Repeat Request''&amp;amp;nbsp;) nutzen ausschließlich Fehlererkennung. Für die Fehlererkennung ist weniger Redundanz erforderlich als für eine Fehlerkorrektur. Ein Nachteil der ARQ ist der geringe Durchsatz bei schlechter Kanalqualität, also dann, wenn häufig ganze Datenblöcke vom Empfänger neu angefordert werden müssen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In diesem Buch behandeln wir größtenteils die&amp;amp;nbsp; '''Vorwärtsfehlerkorrektur'''&amp;amp;nbsp; (englisch: &amp;amp;nbsp; ''Forward Error Correction'', FEC), die bei einem ausreichend guten Kanal (großes SNR) zu sehr kleinen Fehlerraten führt. Bei schlechteren Kanalbedingungen ändert sich am Durchsatz nichts, das heißt, es wird die gleiche Informationsmenge übertragen. Allerdings kann dann die Fehlerrate sehr große Werte annehmen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Oft werden FEC– und ARQ–Verfahren kombiniert, und zwischen diesen die Redundanz so aufgeteilt,&lt;br /&gt;
*dass eine kleine Anzahl von Fehlern noch korrigierbar ist,&lt;br /&gt;
*bei vielen Fehlern aber eine Wiederholung des Blocks angefordert wird.&lt;br /&gt;
&lt;br /&gt;
== Einige einführende Beispiele zur Fehlererkennung ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1: &amp;amp;nbsp; Single Parity&amp;amp;ndash;check Code (SPC)}$&lt;br /&gt;
&amp;lt;br&amp;gt;Ergänzt man&amp;amp;nbsp; $k = 4$&amp;amp;nbsp; Bit um ein so genanntes Prüfbit (englisch: &amp;amp;nbsp; &amp;lt;i&amp;gt;Parity Bit&amp;lt;/i&amp;gt;&amp;amp;nbsp;) derart, dass die Summe aller Einsen geradzahlig ist, zum Beispiel (mit fettgedruckten Prüfbits)&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
:$$0000\boldsymbol{0}, 0001\boldsymbol{1}, \text{...} , 1111\boldsymbol{0}, \text{...}\ ,$$&lt;br /&gt;
&lt;br /&gt;
so kann man einen Einzelfehler sehr einfach erkennen. Zwei Fehler innerhalb eines Codewortes bleiben dagegen unerkannt. &lt;br /&gt;
&lt;br /&gt;
Die deutsche Bezeichnung hierfür ist &amp;lt;i&amp;gt;Paritätsprüfcode&amp;lt;/i&amp;gt;.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 2: &amp;amp;nbsp International Standard Book Number (ISBN)}$&lt;br /&gt;
&amp;lt;br&amp;gt;Seit den 1960er Jahren werden alle Bücher mit 10&amp;amp;ndash;stelligen Kennzahlen (''ISBN&amp;amp;ndash;10''&amp;amp;nbsp;) versehen. Seit 2007 ist zusätzlich noch die Angabe gemäß ''ISBN&amp;amp;ndash;13''&amp;amp;nbsp; verpflichtend. Beispielsweise lauten diese für das Fachbuch [Söd93]&amp;lt;ref name ='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen''. Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*$\boldsymbol{3&amp;amp;ndash;540&amp;amp;ndash;57215&amp;amp;ndash;5}$&amp;amp;nbsp; (für ISBN&amp;amp;ndash;10), bzw. &lt;br /&gt;
*$\boldsymbol{978&amp;amp;ndash;3&amp;amp;ndash;54057215&amp;amp;ndash;2}$&amp;amp;nbsp; (für ISBN&amp;amp;ndash;13).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die letzte Ziffer&amp;amp;nbsp; $z_{10}$&amp;amp;nbsp; ergibt sich bei ISBN&amp;amp;ndash;10 aus den vorherigen Ziffern&amp;amp;nbsp; $z_1 = 3$,&amp;amp;nbsp; $z_2 = 5$, ... ,&amp;amp;nbsp; $z_9 = 5$&amp;amp;nbsp; nach folgender Rechenregel:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;z_{10} = \left ( \sum_{i=1}^{9} \hspace{0.2cm} i \cdot z_i \right ) \hspace{-0.3cm} \mod 11 = &lt;br /&gt;
(1 \cdot 3 + 2 \cdot 5 + ... + 9 \cdot 5 ) \hspace{-0.2cm} \mod 11 = 5 &lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zu beachten ist, dass&amp;amp;nbsp; $z_{10} = 10$&amp;amp;nbsp; als&amp;amp;nbsp; $z_{10} = \rm X$&amp;amp;nbsp; geschrieben werden muss (römische Zahlendarstellung von &amp;amp;bdquo;10&amp;amp;rdquo;), da sich die Zahl&amp;amp;nbsp; $10$&amp;amp;nbsp; im Zehnersystem nicht als Ziffer darstellen lässt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Entsprechend gilt für die Prüfziffer bei ISBN&amp;amp;ndash;13:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;z_{13}= 10 - \left ( \sum_{i=1}^{12} \hspace{0.2cm}  z_i  \cdot 3^{(i+1) \hspace{-0.2cm} \mod 2}  \right ) \hspace{-0.3cm} \mod 10 = 10 \hspace{-0.05cm}- \hspace{-0.05cm} \big [(9\hspace{-0.05cm}+\hspace{-0.05cm}8\hspace{-0.05cm}+\hspace{-0.05cm}5\hspace{-0.05cm}+\hspace{-0.05cm}0\hspace{-0.05cm}+\hspace{-0.05cm}7\hspace{-0.05cm}+\hspace{-0.05cm}1) \cdot 1 + (7\hspace{-0.05cm}+\hspace{-0.05cm}3\hspace{-0.05cm}+\hspace{-0.05cm}4\hspace{-0.05cm}+\hspace{-0.05cm}5\hspace{-0.05cm}+\hspace{-0.05cm}2\hspace{-0.05cm}+\hspace{-0.05cm}5) \cdot 3\big ] \hspace{-0.2cm} \mod 10 &amp;lt;/math&amp;gt;&lt;br /&gt;
:: &amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} z_{13}=  10 - (108 \hspace{-0.2cm} \mod 10) = 10 - 8 = 2&lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Bei beiden Varianten werden im Gegensatz zum obigen Paritätsprüfcode (SPC) auch Zahlendreher wie&amp;amp;nbsp; $57 \, \leftrightarrow  75$&amp;amp;nbsp; erkannt, da hier unterschiedliche Positionen verschieden gewichtet werden.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 3: &amp;amp;nbsp; Strichcode (eindimensionaler Barcode)}$&lt;br /&gt;
&amp;lt;br&amp;gt;Der am weitesten verbreitete fehlererkennende Code weltweit ist der Strichcode oder Balkencode (englisch: &amp;amp;nbsp; &amp;lt;i&amp;gt;Bar Code&amp;lt;/i&amp;gt;) zur Kennzeichnung von Produkten, zum Beispiel nach&amp;amp;nbsp; EAN&amp;amp;ndash;13&amp;amp;nbsp; (&amp;lt;i&amp;gt;European Article Number&amp;lt;/i&amp;gt;&amp;amp;nbsp;) mit 13 Ziffern. &lt;br /&gt;
[[File:P ID2330 KC T 1 1 S2.png|right|frame|1D&amp;amp;ndash;Barcode]]&lt;br /&gt;
*Diese werden durch verschieden breite Balken und Lücken dargestellt und können mit einem opto&amp;amp;ndash;elektronischen Lesegerät leicht entschlüsselt werden. &lt;br /&gt;
*Die ersten drei Ziffern kennzeichnen das Land (beispielsweise Deutschland: &amp;amp;nbsp; zwischen 400 und 440), die nächsten vier bzw. fünf Stellen den Hersteller und das Produkt. &lt;br /&gt;
*Die letzte Ziffer ist die Prüfziffer&amp;amp;nbsp; $z_{13}$, die sich genau so berechnet wie bei ISBN&amp;amp;ndash;13.}}&lt;br /&gt;
&lt;br /&gt;
== Einige einführende Beispiele zur Fehlerkorrektur==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 4: &amp;amp;nbsp; 2D&amp;amp;ndash;Barcodes für Online&amp;amp;ndash;Tickets}$&lt;br /&gt;
&amp;lt;br&amp;gt;Wenn Sie eine Fahrkarte der Deutschen Bahn online buchen und ausdrucken, finden Sie ein Beispiel eines zweidimensionalen Barcodes, nämlich den 1995 von Andy Longacre bei der Firma Welch Allyn in den USA entwickelten&amp;amp;nbsp; [https://de.wikipedia.org/wiki/Aztec-Code Aztec&amp;amp;ndash;Code], mit dem Datenmengen bis zu&amp;amp;nbsp; $3000$&amp;amp;nbsp; Zeichen codiert werden können. Aufgrund der&amp;amp;nbsp; [[Channel_Coding/Definition_und_Eigenschaften_von_Reed–Solomon–Codes|Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Fehlerkorrektur]]&amp;amp;nbsp; ist die Rekonstruktion des Dateninhalts auch dann noch möglich, wenn bis zu&amp;amp;nbsp; $40\%$&amp;amp;nbsp; des Codes zerstört wurden, zum Beispiel durch Knicken der Fahrkarte oder durch Kaffeeflecken.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2332 KC T 1 1 S2a.png|center|frame|2D–Barcodes: Aztec– und QR–Code|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Rechts ist ein&amp;amp;nbsp; $\rm QR&amp;amp;ndash;Code$&amp;amp;nbsp; (&amp;lt;i&amp;gt;Quick Response&amp;lt;/i&amp;gt;) mit zugehörigem Inhalt dargestellt. Der QR&amp;amp;ndash;Code wurde 1994 für die Autoindustrie in Japan zur Kennzeichnung von Bauteilen entwickelt und erlaubt ebenfalls eine Fehlerkorrektur. Inzwischen ist der Einsatz des QR&amp;amp;ndash;Codes sehr vielfältig. In Japan findet man ihn auf nahezu jedem Werbeplakat und auf jeder Visitenkarte. Auch in Deutschland setzt er sich mehr und mehr durch.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Bei allen 2D&amp;amp;ndash;Barcodes gibt es quadratische Markierungen zur Kalibrierung des Lesegerätes. Details hierzu finden Sie in [KM+09]&amp;lt;ref&amp;gt;Kötter, R.; Mayer, T.; Tüchler, M.; Schreckenbach, F.; Brauchle, J.: ''Channel Coding''. Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, TU München, 2008.&amp;lt;/ref&amp;gt;.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 5: &amp;amp;nbsp; Codes für die Satelliten&amp;amp;ndash; und Weltraumkommunikation}$&lt;br /&gt;
&amp;lt;br&amp;gt;Eines der ersten Einsatzgebiete von Fehlerkorrekturverfahren war die Kommunikation von/zu Satelliten und Raumfähren, also Übertragungsstrecken, die durch niedrige Sendeleistungen und große Pfadverluste gekennzeichnet sind. Schon 1977 wurde bei der&amp;amp;nbsp; &amp;lt;i&amp;gt;Raum&amp;amp;ndash;Mission Voyager 1&amp;lt;/i&amp;gt;&amp;amp;nbsp; zu Neptun und Uranus Kanalcodierung eingesetzt, und zwar in Form der seriellen Verkettung eines&amp;amp;nbsp; [[Channel_Coding/Definition_und_Eigenschaften_von_Reed–Solomon–Codes|Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes]]&amp;amp;nbsp; und eines&amp;amp;nbsp; [[Channel_Coding/Grundlagen_der_Faltungscodierung|Faltungscodes]].&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit genügte schon der Leistungskennwert&amp;amp;nbsp; $10 &amp;amp;middot; \lg \; E_{\rm B}/N_0 \approx 2 \, \rm dB$, um die geforderte Fehlerrate&amp;amp;nbsp; $5 &amp;amp;middot; 10^{-5}$&amp;amp;nbsp; (bezogen auf die komprimierten Daten nach der Quellencodierung) zu erreichen. Ohne Kanalcodierung sind dagegen für die gleiche Fehlerrate fast&amp;amp;nbsp;  $9 \, \rm dB$&amp;amp;nbsp; erforderlich, also eine um den Faktor&amp;amp;nbsp; $10^{0.7} &amp;amp;asymp; 5$&amp;amp;nbsp; größere Sendeleistung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Auch das geplante Marsprojekt (die Datenübertragung vom Mars zur Erde mit&amp;amp;nbsp; $\rm 5W$&amp;amp;ndash;Lasern) wird nur mit einem ausgeklügelten Codierschema erfolgreich sein.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 6: &amp;amp;nbsp; Kanalcodes für die Mobilkommunikation}$&lt;br /&gt;
&amp;lt;br&amp;gt;Ein weiteres und besonders umsatzstarkes Anwendungsgebiet, das ohne Kanalcodierung nicht funktionieren würde, ist die Mobilkommunikation. Hier ergäben sich bei ungünstigen Bedingungen ohne Codierung Fehlerraten im Prozentbereich und aufgrund von Abschattungen und Mehrwegeausbreitung (Echos) treten die Fehler oft gebündelt auf. Die Fehlerbündellänge beträgt dabei manchmal einige Hundert Bit.&lt;br /&gt;
*Bei der Sprachübertragung im GSM&amp;amp;ndash;System werden die&amp;amp;nbsp; $182$&amp;amp;nbsp; wichtigsten (Klasse 1a und 1b) der insgesamt&amp;amp;nbsp; 260&amp;amp;nbsp; Bit eines Sprachrahmens&amp;amp;nbsp; $(20 \, \rm ms)$&amp;amp;nbsp; zusammen mit einigen wenigen Paritäts&amp;amp;ndash; und Tailbits faltungscodiert &amp;amp;nbsp;$($mit Memory&amp;amp;nbsp; $m = 4$&amp;amp;nbsp; und Rate &amp;amp;nbsp;$R = 1/2)$&amp;amp;nbsp; und verwürfelt. Zusammen mit den&amp;amp;nbsp; $78$&amp;amp;nbsp; weniger wichtigen und deshalb uncodierten Bits der Klasse 2 führt dies dazu, dass die Bitrate von&amp;amp;nbsp; $13 \, \rm kbit/s$&amp;amp;nbsp; auf&amp;amp;nbsp; $22.4 \, \rm kbit/s$&amp;amp;nbsp; ansteigt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Man nutzt die (relative) Redundanz von&amp;amp;nbsp; $r = (22.4 - 13)/22.4 &amp;amp;asymp; 0.42$&amp;amp;nbsp; zur Fehlerkorrektur. Anzumerken ist, dass&amp;amp;nbsp; $r = 0.42$&amp;amp;nbsp; aufgrund der hier verwendeten Definition aussagt, das&amp;amp;nbsp; $42\%$&amp;amp;nbsp; der codierten Bits redundant sind. Mit dem Bezugswert &amp;amp;bdquo;Bitrate der uncodierten Folge&amp;amp;rdquo; ergäbe sich&amp;amp;nbsp; $r = 9.4/13 \approx 0.72$&amp;amp;nbsp; mit der Aussage: &amp;amp;nbsp; Zu den Informationsbits werden&amp;amp;nbsp; $72\%$&amp;amp;nbsp; Prüfbits hinzugefügt. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei&amp;amp;nbsp; [[Examples_of_Communication_Systems/Allgemeine_Beschreibung_von_UMTS|UMTS]]&amp;amp;nbsp; (&amp;lt;i&amp;gt;Universal Mobile Telecommunications System&amp;lt;/i&amp;gt;) werden&amp;amp;nbsp; [[Channel_Coding/Grundlagen_der_Faltungscodierung|Faltungscodes]]&amp;amp;nbsp; mit den Raten&amp;amp;nbsp; $R = 1/2$&amp;amp;nbsp; bzw.&amp;amp;nbsp; $R = 1/3$&amp;amp;nbsp; eingesetzt. Bei den UMTS&amp;amp;ndash;Modi für höhere Datenraten und entsprechend geringeren Spreizfaktoren verwendet man dagegen&amp;amp;nbsp; [[Channel_Coding/Grundlegendes_zu_den_Turbocodes|Turbo&amp;amp;ndash;Codes]]&amp;amp;nbsp; der Rate&amp;amp;nbsp; $R = 1/3$&amp;amp;nbsp; und iterative Decodierung. Abhängig von der Anzahl der Iterationen erzielt man gegenüber der Faltungscodierung hiermit Gewinne von bis zu&amp;amp;nbsp; $3 \, \rm dB$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 7: &amp;amp;nbsp; Fehlerschutz der Compact Disc}$&lt;br /&gt;
&amp;lt;br&amp;gt;Bei einer CD (&amp;lt;i&amp;gt;Compact Disc&amp;lt;/i&amp;gt;) verwendet man einen &amp;lt;i&amp;gt;cross&amp;amp;ndash;interleaved&amp;lt;/i&amp;gt;&amp;amp;nbsp; [[Channel_Coding/Definition_und_Eigenschaften_von_Reed–Solomon–Codes|Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code]]&amp;amp;nbsp; (RS) und anschließend eine so genannte&amp;amp;nbsp; [https://de.wikipedia.org/wiki/Eight-to-Fourteen-Modulation Eight&amp;amp;ndash;to&amp;amp;ndash;Fourteen&amp;amp;ndash;Modulation]. Die Redundanz nutzt man zur Fehlererkennung und &amp;amp;ndash;korrektur. Dieses Codierschema zeigt folgende Charakteristika:&lt;br /&gt;
*Die gemeinsame Coderate der zwei RS&amp;amp;ndash;Komponentencodes beträgt&amp;amp;nbsp; $R_{\rm RS} = 24/28 &amp;amp;middot; 28/32  = 3/4$. Durch die 8&amp;amp;ndash;to&amp;amp;ndash;14&amp;amp;ndash;Modulation und einiger Kontrollbits kommt man zur Gesamtcoderate&amp;amp;nbsp; $R &amp;amp;asymp; 1/3$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei statistisch unabhängigen Fehlern gemäß dem&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC|BSC&amp;amp;ndash;Modell]]&amp;amp;nbsp; (&amp;lt;i&amp;gt;Binary Symmetric Channel&amp;lt;/i&amp;gt;&amp;amp;nbsp;) ist eine vollständige Korrektur möglich, so lange die Bitfehlerrate den Wert&amp;amp;nbsp; $10^{-3}$&amp;amp;nbsp; nicht überschreitet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der CD&amp;amp;ndash;spezifische&amp;amp;nbsp; &amp;lt;i&amp;gt;Cross Interleaver&amp;lt;/i&amp;gt;&amp;amp;nbsp; verwürfelt&amp;amp;nbsp; $108$&amp;amp;nbsp; Blöcke miteinander, so dass die&amp;amp;nbsp; $588$&amp;amp;nbsp; Bit eines Blockes  &amp;amp;nbsp;$($jedes Bit entspricht ca.&amp;amp;nbsp; $0.28 \, \rm {&amp;amp;micro; m})$&amp;amp;nbsp; auf etwa&amp;amp;nbsp; $1.75\, \rm  cm$ verteilt werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Mit der Coderate&amp;amp;nbsp; $R &amp;amp;asymp; 1/3$&amp;amp;nbsp; kann man ca.&amp;amp;nbsp; $10\%$&amp;amp;nbsp; &amp;amp;bdquo;Erasures&amp;amp;rdquo; korrigieren. Die verloren gegangenen Werte lassen sich durch Interpolation (näherungsweise) rekonstruieren &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp;&amp;lt;i&amp;gt;Fehlerverschleierung&amp;lt;/i&amp;gt;.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend lässt sich sagen: &amp;amp;nbsp; Weist eine CD einen Kratzer von&amp;amp;nbsp; $1.75\, \rm  mm$&amp;amp;nbsp; Länge in Abspielrichtung auf (also mehr als&amp;amp;nbsp; $6000$&amp;amp;nbsp; aufeinanderfolgende Erasures), so sind immer noch&amp;amp;nbsp; $90\%$&amp;amp;nbsp; aller Bits eines Blockes fehlerfrei, so dass sich auch die fehlenden&amp;amp;nbsp; $10\%$&amp;amp;nbsp; rekonstruieren lassen, oder dass die Auslöschungen zumindest so verschleiert werden können, dass sie nicht hörbar sind.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Auf der nächsten Seite folgt eine Demonstration zur Korrekturfähigkeit der CD.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Die „Geschlitzte CD” – eine Demonstration des LNT der TUM ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Ende der 1990er Jahre haben Mitarbeiter des&amp;amp;nbsp;  [https://www.lnt.ei.tum.de/startseite/ Lehrstuhls für Nachrichtentechnik] der [https://www.tum.de/die-tum/ TU München]&amp;amp;nbsp; unter Leitung von Professor&amp;amp;nbsp; [[Biographies_and_Bibliographies/Lehrstuhlinhaber_des_LNT#Prof._Dr.-Ing._Dr.-Ing._E.h._Joachim_Hagenauer_.281993-2006.29|Joachim Hagenauer]]&amp;amp;nbsp; eine Musik&amp;amp;ndash;CD gezielt beschädigt, indem insgesamt drei Schlitze von jeweils mehr als einem Millimeter Breite eingefräst wurden. Damit fehlen bei jedem Defekt fast&amp;amp;nbsp; $4000$&amp;amp;nbsp; fortlaufende Bit der Audiocodierung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2333 KC T 1 1 S2b.png|right|frame|„Geschlitzte CD”  des&amp;amp;nbsp; $\rm LNT/TUM$]]&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt die &amp;amp;bdquo;geschlitzte CD&amp;amp;rdquo;: &lt;br /&gt;
*Sowohl in der Spur 3 als auch in der Spur 14 gibt es bei jeder Umdrehung zwei solcher fehlerhafter Bereiche. &lt;br /&gt;
*Sie können sich die Musikqualität mit Hilfe der beiden Audioplayer (Abspielzeit jeweils ca. 15 Sekunden) verdeutlichen. &lt;br /&gt;
*Die Theorie zu dieser Audio&amp;amp;ndash;Demo finden Sie im&amp;amp;nbsp; $\text{Beispiel 7}$&amp;amp;nbsp; auf der vorherigen Seite.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Spur 14:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;lntmedia&amp;gt;file:A_ID59__14_1.mp3&amp;lt;/lntmedia&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Spur 3:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;lntmedia&amp;gt;file:A_ID60__3_1.mp3&amp;lt;/lntmedia&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;b&amp;gt;Resumee dieser Audiodemo:&amp;lt;/b&amp;gt;&lt;br /&gt;
*Die Fehlerkorrektur der CD basiert auf zwei seriell&amp;amp;ndash;verketteten&amp;amp;nbsp; [[Channel_Coding/Definition_und_Eigenschaften_von_Reed–Solomon–Codes|Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes]]&amp;amp;nbsp; sowie einer&amp;amp;nbsp;  [https://de.wikipedia.org/wiki/Eight-to-Fourteen-Modulation Eight&amp;amp;ndash;to&amp;amp;ndash;Fourteen&amp;amp;ndash;Modulation]. Die Gesamtcoderate zur RS&amp;amp;ndash;Fehlerkorrektur beträgt&amp;amp;nbsp; $R = 3/4$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ebenso wichtig für die Funktionsfähigkeit der CD wie die Codes ist der dazwischen geschaltete Interleaver, der die ausgelöschten Bits (&amp;amp;bdquo;Erasures&amp;amp;rdquo;) über eine Länge von fast&amp;amp;nbsp; $2 \, \rm cm$&amp;amp;nbsp; verteilt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei der&amp;amp;nbsp; '''Spur 14'''&amp;amp;nbsp; liegen die beiden defekten Bereiche genügend weit auseinander. Deshalb ist der Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Decoder in der Lage, die fehlenden Daten zu rekonstruieren.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei der&amp;amp;nbsp; '''Spur 3'''&amp;amp;nbsp; folgen die beiden Fehlerblöcke in sehr kurzem Abstand aufeinander, so dass der Korrekturalgorithmus versagt. Das Resultat ist ein fast periodisches Klackgeräusch.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wir bedanken uns bei Rainer Bauer,&amp;amp;nbsp; [[Biographies_and_Bibliographies/An_LNTwww_beteiligte_Mitarbeiter_und_Dozenten#Dr.-Ing._Thomas_Hindelang_.28am_LNT_von_1994-2000_und_2007-2012.29|Thomas Hindelang]]&amp;amp;nbsp; und&amp;amp;nbsp; [[Biographies_and_Bibliographies/An_LNTwww_beteiligte_Mitarbeiter_und_Dozenten#Manfred_J.C3.BCrgens_.28am_LNT_von_1981-2010.29|Manfred Jürgens]], diese Audio&amp;amp;ndash;Demo verwenden zu dürfen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zusammenspiel zwischen Quellen– und Kanalcodierung ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Nachrichtenübertragung natürlicher Quellen wie Sprache, Musik, Bilder, Videos, usw. geschieht meist entsprechend dem nachfolgend skizzierten zeitdiskreten Modell.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2334 KC T 1 1 S3a v2.png|center|frame|Bildübertragung mit Quellen– und Kanalcodierung|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Zu dieser aus [Liv10]&amp;lt;ref name ='Liv10'&amp;gt;Liva, G.: ''Channel Coding.'' Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010.&amp;lt;/ref&amp;gt; entnommenen Grafik ist Folgendes anzumerken:&lt;br /&gt;
*Quelle und Sinke sind digitalisiert und werden durch (etwa gleich viele ) Nullen und Einsen repräsentiert.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der Quellencodierer komprimiert die binären Daten &amp;amp;ndash; im Beispiel ein Digitalfoto &amp;amp;ndash; und reduziert somit die Redundanz der Quelle.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der Kanalcodierer fügt wieder Redundanz hinzu und zwar gezielt, so dass einige der auf dem Kanal entstandenen Fehler im Kanaldecoder korrigiert werden können.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Für den Kanal wird hier ein zeitdiskretes Modell mit binärem Eingang und Ausgang verwendet, das auch die Komponenten der technischen Sende&amp;amp;ndash; und Empfangseinrichtungen (Modulator, Entscheider, Taktwiedergewinnung) geeignet berücksichtigen sollte.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Bei richtiger Dimensionierung von Quellen&amp;amp;ndash; und Kanalcodierung ist die Qualität des empfangenen Fotos hinreichend gut, auch wenn die Sinkensymbolfolge aufgrund nicht korrigierbarer Fehlermuster nicht exakt mit der Quellensymbolfolge übereinstimmen wird. Man erkennt innerhalb der Sinkensymbolfolge einen (rot markierten) Bitfehler.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 8:}$&amp;amp;nbsp; Für obige Grafik wurde beispielhaft und stark vereinfachend angenommen, dass &lt;br /&gt;
*die Quellensymbolfolge nur die Länge&amp;amp;nbsp; $40$&amp;amp;nbsp; hat,&lt;br /&gt;
*der Quellencodierer die Daten um den Faktor&amp;amp;nbsp; $40/16 = 2.5$&amp;amp;nbsp; komprimiert, und &lt;br /&gt;
*der Kanalcoder&amp;amp;nbsp; $50\%$&amp;amp;nbsp; Redundanz hinzufügt. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Übertragen werden müssen also nur&amp;amp;nbsp; $24$&amp;amp;nbsp; Codersymbole statt&amp;amp;nbsp; $40$&amp;amp;nbsp; Quellensymbole, was die Übertragungsrate insgesamt um&amp;amp;nbsp; $40\%$&amp;amp;nbsp; reduziert.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Würde man auf die Quellencodierung verzichten, in dem man das ursprüngliche Foto im BMP&amp;amp;ndash;Format übertragen würde und nicht das komprimierte JPG&amp;amp;ndash;Bild, so wäre die Qualität vergleichbar, aber eine um den Faktor&amp;amp;nbsp; $2.5$&amp;amp;nbsp; höhere Bitrate und damit sehr viel mehr Aufwand erforderlich.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 9:}$&amp;amp;nbsp; Würde man sowohl auf die Quellen&amp;amp;ndash; als auch auf die Kanalcodierung verzichten, also direkt die BMP&amp;amp;ndash;Daten ohne Fehlerschutz übertragen, so wäre das Ergebnis trotz&amp;amp;nbsp; $($um den Faktor&amp;amp;nbsp; $40/24)$&amp;amp;nbsp; größerer Bitrate äußerst dürftig.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2335 KC T 1 1 S3b v2.png|center|frame|Bildübertragung ohne Quellen– und Kanalcodierung |class=fit]]}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 10:}$&amp;amp;nbsp; Nun betrachten wir den Fall, dass man die komprimierten Daten (zum Beispiel JPG) ohne Fehlersicherungsmaßnahmen direkt überträgt. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2336 KC T 1 1 S3c v2.png|center|frame|Bildübertragung mit Quellencodierung, ohne Kanalcodierung |class=fit]]&lt;br /&gt;
&lt;br /&gt;
*Da die komprimierte Quelle nur noch wenig Redundanz besitzt, führt jeder einzelne Übertragungsfehler dazu, dass ganze Bildblöcke falsch decodiert werden.&amp;lt;br&amp;gt;&lt;br /&gt;
*Dieses Codierschema (Quellencodierung, aber keine Kanalcodierung) sollte auf jeden Fall vermieden werden.}}&lt;br /&gt;
&lt;br /&gt;
== Blockschaltbild und Voraussetzungen ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Im weiteren Verlauf gehen wir von dem skizzierten Blockschaltbild mit Kanalcodierer, Digitalem Kanal und Kanaldecoder aus. &lt;br /&gt;
&lt;br /&gt;
[[File:P ID2337 KC T 1 1 S4 v2.png|center|frame|Blockschaltbild zur Beschreibung der Kanalcodierung|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Dabei gelten folgende Voraussetzungen:&lt;br /&gt;
*Der Vektor&amp;amp;nbsp; $\underline{u} = (u_1, u_2, \text{...} \hspace{0.05cm}, u_k)$&amp;amp;nbsp;  kennzeichnet einen&amp;amp;nbsp; '''Informationsblock'''&amp;amp;nbsp; mit&amp;amp;nbsp; $k$&amp;amp;nbsp; Symbolen. &lt;br /&gt;
*Meist beschränken wir uns auf Binärsymbole (Bits) &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $u_i \in  \{0, \, 1\}$ für $i = 1, 2, \text{...} \hspace{0.05cm}, k$&amp;amp;nbsp; mit gleichen Auftrittswahrscheinlichkeiten für Nullen und Einsen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Jeder Informationsblock&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; wird durch ein&amp;amp;nbsp; '''Codewort'''&amp;amp;nbsp; (oder einen&amp;amp;nbsp; &amp;lt;i&amp;gt;Codeblock&amp;lt;/i&amp;gt;)&amp;amp;nbsp; $\underline{x} = (x_1, x_2, \text{...} \hspace{0.05cm}, x_n)$&amp;amp;nbsp; mit&amp;amp;nbsp; $n \ge k$, $x_i \in  \{0, \, 1\}$&amp;amp;nbsp;  dargestellt. Man spricht dann von einem binären&amp;amp;nbsp; $(n, k)$&amp;amp;ndash;Blockcode&amp;amp;nbsp; $C$. Die Zuordnung bezeichnen wir mit&amp;amp;nbsp; $\underline{x} = {\rm enc}(\underline{u})$, wobei &amp;amp;bdquo;enc&amp;amp;rdquo; für &amp;amp;bdquo;Encoder&amp;amp;ndash;Funktion&amp;amp;rdquo; steht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Das&amp;amp;nbsp; '''Empfangswort''' $\underline{y}$&amp;amp;nbsp; ergibt sich aus dem Codewort&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; durch&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Modular_arithmetic Modulo&amp;amp;ndash;2&amp;amp;ndash;Addition]&amp;amp;nbsp; mit dem ebenfalls binären Fehlervektor&amp;amp;nbsp; $\underline{e} = (e_1, e_2, \text{...} \hspace{0.05cm}, e_n)$, wobei &amp;amp;bdquo;$e= 1$&amp;amp;rdquo; für einen Übertragungfehler steht und &amp;amp;bdquo;$e= 0$&amp;amp;rdquo; anzeigt, dass das&amp;amp;nbsp; $i$&amp;amp;ndash;te Bit des Codewortes richtig übertragen wurde. Es gilt also:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{y} = \underline{x} \oplus \underline{e} \hspace{0.05cm}, \hspace{0.5cm} y_i  =   x_i \oplus e_i \hspace{0.05cm}, \hspace{0.2cm} i = 1, \text{...} \hspace{0.05cm}  , n\hspace{0.05cm}, x_i \hspace{-0.05cm} \in  \hspace{-0.05cm} \{ 0, 1 \}\hspace{0.05cm}, \hspace{0.5cm}e_i \in  \{ 0, 1 \}\hspace{0.5cm}&lt;br /&gt;
\Rightarrow \hspace{0.5cm}y_i  \in   \{ 0, 1 \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Die Beschreibung durch das&amp;amp;nbsp; '''Digitale Kanalmodell'''&amp;amp;nbsp; &amp;amp;ndash; also mit binärem Eingang und Ausgang &amp;amp;ndash; ist allerdings nur dann anwendbar, wenn das Übertragungssystem harte Entscheidungen trifft &amp;amp;ndash; siehe&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang| AWGN&amp;amp;ndash;Kanal bei binärem Eingang]]. Systeme mit&amp;amp;nbsp; [[Channel_Coding/Decodierung_linearer_Blockcodes#Codiergewinn_.E2.80.93_Bitfehlerrate_bei_AWGN|Soft Decision]]&amp;amp;nbsp; sind mit diesem einfachen Modell nicht modellierbar.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Der Vektor&amp;amp;nbsp; $\underline{v}$&amp;amp;nbsp; nach der&amp;amp;nbsp; '''Kanaldecodierung'''&amp;amp;nbsp; hat die gleiche Länge&amp;amp;nbsp; $k$&amp;amp;nbsp; wie der Informationsblock&amp;amp;nbsp;  $\underline{u}$. Den Decodiervorgang beschreiben wir mit der &amp;amp;bdquo;Decoder&amp;amp;ndash;Funktion&amp;amp;rdquo; als&amp;amp;nbsp; $\underline{v} = {\rm enc}^{-1}(\underline{y}) = {\rm dec}(\underline{y})$. Im fehlerfreien Fall gilt analog zu&amp;amp;nbsp; $\underline{x} = {\rm enc}(\underline{u})$&amp;amp;nbsp; auch&amp;amp;nbsp;  $\underline{v} = {\rm enc}^{-1}(\underline{y})$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Ist der Fehlervektor&amp;amp;nbsp; $\underline{e} \ne \underline{0}$, so ist&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; meist kein gültiges Element des verwendeten Blockcodes, und die Decodierung ist dann keine reine Zuordnung&amp;amp;nbsp; $\underline{y} \rightarrow  \underline{v}$, sondern eine auf maximale Übereinstimmung (mimimale Fehlerwahrscheinlichkeit) basierende Schätzung von&amp;amp;nbsp; $\underline{v}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einige wichtige Definitionen zur Blockcodierung ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir betrachten nun den beispielhaften binären Blockcode&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathcal{C} = \{ (0, 0, 0, 0, 0) \hspace{0.05cm},\hspace{0.15cm} (0, 1, 0, 1, 0) \hspace{0.05cm},\hspace{0.15cm}(1, 0, 1, 0, 1) \hspace{0.05cm},\hspace{0.15cm}(1, 1, 1, 1, 1) \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dieser Code wäre zum Zwecke der Fehlererkennung oder &amp;amp;ndash;korrektur ungeeignet. Aber er ist so konstruiert, dass er die Berechnung wichtiger Beschreibungsgrößen anschaulich verdeutlicht:&lt;br /&gt;
*Jedes einzelne Codewort&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; wird durch fünf Bit beschrieben. Im gesamten Buch drücken wir diesen Sachverhalt durch die&amp;amp;nbsp; '''Codewortlänge'''&amp;amp;nbsp; (englisch: &amp;amp;nbsp;&amp;lt;i&amp;gt;Code Length&amp;lt;/i&amp;gt;&amp;amp;nbsp;)&amp;amp;nbsp; $n = 5$ aus.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Der obige Code beinhaltet vier Elemente. Damit ist der&amp;amp;nbsp; '''Codeumfang'''&amp;amp;nbsp; (englisch: &amp;amp;nbsp; &amp;lt;i&amp;gt;Size&amp;lt;/i&amp;gt;&amp;amp;nbsp;)&amp;amp;nbsp; $|C| = 4$. Entsprechend gibt es auch vier eindeutige Zuordnungen (englisch: &amp;amp;nbsp;&amp;lt;i&amp;gt;Mappings&amp;lt;/i&amp;gt;&amp;amp;nbsp;) zwischen&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{x}$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Die Länge eines  Informationsblocks&amp;amp;nbsp;  $\underline{u}$  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''Informationsblocklänge'''&amp;amp;nbsp; wird mit&amp;amp;nbsp; $k$&amp;amp;nbsp; bezeichnet. Da bei allen binären Codes&amp;amp;nbsp; $|C| = 2^k$&amp;amp;nbsp; gilt, folgt aus&amp;amp;nbsp; $|C| = 4$&amp;amp;nbsp; der Wert&amp;amp;nbsp; $k = 2$. Die Zuordnungen zwischen&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; lauten bei obigem Code&amp;amp;nbsp; $C$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u_0} = (0, 0) \hspace{0.2cm}\leftrightarrow \hspace{0.2cm}(0, 0, 0, 0, 0) = \underline{x_0}\hspace{0.05cm}, \hspace{0.8cm}&lt;br /&gt;
\underline{u_1} = (0, 1) \hspace{0.2cm}\leftrightarrow \hspace{0.2cm}(0, 1, 0, 1, 0) = \underline{x_1}\hspace{0.05cm}, &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u_2} = (1, 0)\hspace{0.2cm} \leftrightarrow \hspace{0.2cm}(1, 0, 1, 0, 1) = \underline{x_2}\hspace{0.05cm}, \hspace{0.8cm}&lt;br /&gt;
\underline{u_3} = (1, 1) \hspace{0.2cm} \leftrightarrow \hspace{0.2cm}(1, 1, 1, 1, 1) = \underline{x_3}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Der Code weist die&amp;amp;nbsp; '''Coderate'''&amp;amp;nbsp; $R = k/n = 2/5$&amp;amp;nbsp; auf. Dementsprechend beträgt seine Redundanz&amp;amp;nbsp; $1-R$, also&amp;amp;nbsp; $60\%$. Ohne Fehlerschutz &amp;amp;nbsp;$($also für den Fall&amp;amp;nbsp; $n = k)$&amp;amp;nbsp; wäre die Coderate&amp;amp;nbsp; $R = 1$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Eine kleine Coderate  zeigt an, dass von den&amp;amp;nbsp; $n$&amp;amp;nbsp; Bits eines Codewortes nur sehr wenige tatsächlich Information tragen. Beispielsweise hat ein Wiederholungscode&amp;amp;nbsp; $(k = 1)$&amp;amp;nbsp; mit&amp;amp;nbsp; $n = 10$&amp;amp;nbsp; die  Coderate&amp;amp;nbsp; $R = 0.1$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Das&amp;amp;nbsp; '''Hamming&amp;amp;ndash;Gewicht'''&amp;amp;nbsp; $w_{\rm H}(\underline{x})$&amp;amp;nbsp; des Codewortes&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; gibt die Zahl der Codewortelemente&amp;amp;nbsp; $x_i \ne 0$&amp;amp;nbsp; an. Bei einem binären Code &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $x_i \in  \{0, \, 1\}$&amp;amp;nbsp; ist $w_{\rm H}(\underline{x})$&amp;amp;nbsp; gleich der Summe&amp;amp;nbsp; $x_1 + x_2 + \hspace{0.05cm}\text{...} \hspace{0.05cm}+ x_n$. Im Beispiel:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;w_{\rm H}(\underline{x}_0) = 0\hspace{0.05cm}, \hspace{0.4cm}w_{\rm H}(\underline{x}_1) = 2\hspace{0.05cm}, \hspace{0.4cm} w_{\rm H}(\underline{x}_2) = 3\hspace{0.05cm}, \hspace{0.4cm}w_{\rm H}(\underline{x}_3) = 5\hspace{0.05cm}. &lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Die&amp;amp;nbsp; '''Hamming&amp;amp;ndash;Distanz'''&amp;amp;nbsp; $d_{\rm H}(\underline{x}, \ \underline{x}\hspace{0.03cm}')$&amp;amp;nbsp; zwischen den Codeworten&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{x}\hspace{0.03cm}'$&amp;amp;nbsp; bezeichnet die Anzahl der Bitpositionen, in denen sich die beiden Codeworte unterscheiden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;d_{\rm H}(\underline{x}_0, \hspace{0.05cm}\underline{x}_1) = 2\hspace{0.05cm}, \hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_0, \hspace{0.05cm}\underline{x}_2) = 3\hspace{0.05cm}, \hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_0, \hspace{0.05cm}\underline{x}_3) = 5\hspace{0.05cm},\hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_1, \hspace{0.05cm}\underline{x}_2) = 5\hspace{0.05cm}, \hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_1, \hspace{0.05cm}\underline{x}_3) = 3\hspace{0.05cm}, \hspace{0.4cm}&lt;br /&gt;
d_{\rm H}(\underline{x}_2, \hspace{0.05cm}\underline{x}_3) = 2\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Eine wichtige Eigenschaft eines Codes $C$, die seine Korrekturfähigkeit wesentlich beeinflusst, ist die&amp;amp;nbsp; '''minimale Distanz'''&amp;amp;nbsp; zwischen zwei beliebigen Codeworten:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;d_{\rm min}(\mathcal{C}) =&lt;br /&gt;
			\min_{\substack{\underline{x},\hspace{0.05cm}\underline{x}' \hspace{0.05cm}\in \hspace{0.05cm} \mathcal{C} \\ {\underline{x}} \hspace{0.05cm}\ne \hspace{0.05cm} \underline{x}'}}\hspace{0.1cm}d_{\rm H}(\underline{x}, \hspace{0.05cm}\underline{x}')\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT= &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ein&amp;amp;nbsp; $(n, \hspace{0.05cm}k, \hspace{0.05cm}d_{\rm min})\text{ &amp;amp;ndash; Blockcode}$&amp;amp;nbsp; besitzt die Codewortlänge&amp;amp;nbsp; $n$, die Informationsblocklänge&amp;amp;nbsp; $k$&amp;amp;nbsp; und die minimale Distanz&amp;amp;nbsp; $d_{\rm min}$.&lt;br /&gt;
*Nach dieser Nomenklatur handelt es sich im hier betrachteten Beispiel um einen&amp;amp;nbsp; $(5, \hspace{0.05cm}2,\hspace{0.05cm} 2)$ &amp;amp;ndash; Blockcode.&lt;br /&gt;
*Manchmal verzichtet man auf die Angabe von&amp;amp;nbsp; $d_{\rm min}$&amp;amp;nbsp; und spricht dann von einem&amp;amp;nbsp; $(n,\hspace{0.05cm} k)$ &amp;amp;ndash; Blockcode.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Beispiele für Fehlererkennung und Fehlerkorrektur ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die eben definierten Größen sollen nun an zwei Beispielen verdeutlicht werden.&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 11:}$&amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp;$\text{(4, 2, 2)&amp;amp;ndash;Blockcode}$ &lt;br /&gt;
&lt;br /&gt;
In der Grafik  verdeutlichen die nach rechts bzw. links zeigenden Pfeile den Codiervorgang bzw. die Decodierung:&lt;br /&gt;
&lt;br /&gt;
:$$\underline{u_0} = (0, 0) \leftrightarrow (0, 0, 0, 0) = \underline{x_0}\hspace{0.05cm},\hspace{0.5cm}&lt;br /&gt;
\underline{u_1} = (0, 1) \leftrightarrow (0, 1, 0, 1) = \underline{x_1}\hspace{0.05cm},$$&lt;br /&gt;
:$$\underline{u_2} = (1, 0) \leftrightarrow (1, 0, 1, 0) = \underline{x_2}\hspace{0.05cm},\hspace{0.5cm}&lt;br /&gt;
\underline{u_3} = (1, 1) \leftrightarrow (1, 1, 1, 1) = \underline{x_3}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2532 KC T 1 1 S5a v2.png|center|frame|(4, 2, 2)–Blockcode zur Fehlererkennung|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Rechts sind alle&amp;amp;nbsp; $2^4 = 16$&amp;amp;nbsp; möglichen Empfangsworte&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; dargestellt:&lt;br /&gt;
* Von diesen können&amp;amp;nbsp; $2^n - 2^k = 12$&amp;amp;nbsp; nur durch Bitfehler entstanden sein. &lt;br /&gt;
*Empfängt der Decoder ein solches &amp;amp;bdquo;weißes&amp;amp;rdquo; Codewort, so erkennt er zwar einen Fehler, er kann diesen aber wegen&amp;amp;nbsp; $d_{\rm min} = 2$&amp;amp;nbsp; nicht korrigieren. &lt;br /&gt;
*Empfängt er beispielsweise&amp;amp;nbsp; $\underline{y} = (0, 0, 0, 1)$, so kann nämlich mit gleicher Wahrscheinlichkeit&amp;amp;nbsp; $\underline{x_0} = (0, 0, 0, 0)$&amp;amp;nbsp; oder&amp;amp;nbsp; $\underline{x_1} = (0, 1, 0, 1)$ gesendet worden sein.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2533 KC T 1 1 S5b v2.png|right|frame|(5, 2, 3)–Blockcode zur Fehlerkorrektur|class=fit]]&lt;br /&gt;
{{GraueBox|TEXT= &lt;br /&gt;
$\text{Beispiel 11:}$&amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp;$\text{(5, 2, 3)&amp;amp;ndash;Blockcode}$ &lt;br /&gt;
&lt;br /&gt;
Hier gibt es wegen $k=2$ vier gültige Codeworte :&lt;br /&gt;
:$$\underline{x_0} = (0, 0, 0, 0, 0)\hspace{0.05cm},\hspace{0.5cm} \underline{x_1} =(0, 1, 0, 1, 1)\hspace{0.05cm},$$&lt;br /&gt;
:$$\underline{x_2} =(1, 0, 1, 1, 0)\hspace{0.05cm},\hspace{0.5cm}\underline{x_3} =(1, 1, 1, 0, 1).$$ &lt;br /&gt;
&lt;br /&gt;
In der Grafik dargestellt ist die Empfängerseite, wobei man verfälschte Bit an der Kursivschrift erkennt.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt; &lt;br /&gt;
*Von den&amp;amp;nbsp; $2^n - 2^k = 28$&amp;amp;nbsp; unzulässigen Codeworten lassen sich nun&amp;amp;nbsp; $20$&amp;amp;nbsp; einem gültigen Codewort (Füllfarbe: &amp;amp;nbsp; rot, grün, blau oder ocker) zuordnen, wenn man davon ausgeht, dass ein einziger  Bitfehler wahrscheinlicher ist als deren zwei oder mehr. &lt;br /&gt;
*Zu jedem gültigen Codewort  gibt es fünf unzulässige Codeworte mit jeweils nur einer Verfälschung &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; Hamming&amp;amp;ndash;Distanz&amp;amp;nbsp; $d_{\rm H} =1$. Diese sind in dem jeweiligen Quadrat  mit roter, grüner, blauer oder ockerfarbenen Hintergrundfarbe angegeben. &lt;br /&gt;
*Die Fehlerkorrektur ist für diese aufgrund der minimalen Distanz&amp;amp;nbsp; $d_{\rm min} = 3$&amp;amp;nbsp; zwischen den Codeworten möglich. &lt;br /&gt;
*Acht Empfangsworte sind nicht decodierbar. Beispielsweise könnte das Empfangswort&amp;amp;nbsp; $\underline{y} = (0, 0, 1, 0, 1)$&amp;amp;nbsp; aus dem Codewort&amp;amp;nbsp; $\underline{x}_0 = (0, 0, 0, 0, 0)$&amp;amp;nbsp; entstanden sein, aber auch aus dem Codewort&amp;amp;nbsp;  $\underline{x}_3 = (1, 1, 1, 0, 1)$. In beiden Fällen wären zwei Bitfehler aufgetreten.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Zur Nomenklatur in diesem Buch ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Eine Zielvorgabe unseres Lerntutorials&amp;amp;nbsp; $\rm LNTwww$&amp;amp;nbsp; war, das gesamte Fachgebiet der Nachrichtentechnik und der zugehörigen Grundlagenfächer mit einheitlicher Nomenklatur zu beschreiben. In diesem zuletzt in Angriff genommenen Buch &amp;amp;bdquo; Kanalcodierung&amp;amp;rdquo; müssen nun doch einige Änderungen hinsichtlich der Nomenklatur vorgenommen werden. Die Gründe hierfür sind:&lt;br /&gt;
*Die Codierungstheorie ist ein weitgehend in sich abgeschlossenes Fachgebiet und nur wenige Autoren von einschlägigen Fachbüchern zu diesem Gebiet versuchen, einen Zusammenhang mit anderen Aspekten der Digitalsignalübertragung herzustellen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Autoren der wichtigsten Bücher zur Kanalcodierung &amp;amp;ndash; englischsprachige und deutsche &amp;amp;ndash; verwenden weitgehend eine einheitliche Nomenklatur. Wir erlauben uns deshalb nicht, die Bezeichnungen zur Kanalcodierung in unser Übertragungstechnik&amp;amp;ndash;Schema zu pressen.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Einige Nomenklaturänderungen gegenüber den anderen&amp;amp;nbsp; $\rm LNTwww$&amp;amp;ndash;Büchern sollen hier genannt werden:&lt;br /&gt;
*Alle Signale werden durch Symbolfolgen in Vektorschreibweise dargestellt. Beispielsweise kennzeichnet&amp;amp;nbsp; $\underline{u} = (u_1, u_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, u_k)$&amp;amp;nbsp; die&amp;amp;nbsp; &amp;lt;i&amp;gt;Quellensymbolfolge&amp;lt;/i&amp;gt;&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{v} = (v_1, v_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, v_k)$&amp;amp;nbsp; die &amp;lt;i&amp;gt;Sinkensymbolfolge&amp;lt;/i&amp;gt;. Bisher wurden diese Symbolfolgen mit&amp;amp;nbsp; $\langle q_\nu \rangle$&amp;amp;nbsp; bzw.&amp;amp;nbsp; $\langle v_\nu \rangle$&amp;amp;nbsp; bezeichnet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Der Vektor $\underline{x} = (x_1, x_2, \hspace{0.05cm}\text{...} \hspace{0.05cm}, x_n)$&amp;amp;nbsp; bezeichnet nun das zeitdiskrete Äquivalent zum Sendesignal&amp;amp;nbsp; $s(t)$, während das Empfangssignal&amp;amp;nbsp; $r(t)$ durch den Vektor&amp;amp;nbsp; $\underline{y} = (y_1, y_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, y_n)$&amp;amp;nbsp; beschrieben wird. Die Coderate ist der Quotient &amp;lt;/i&amp;gt;&amp;amp;nbsp; $R=k/n$ &amp;amp;nbsp; mit &amp;amp;nbsp; $0 \le R \le 1$ und die Anzahl der Prüfbits ergibt sich zu&amp;amp;nbsp; $m = n-k$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Im ersten Hauptkapitel sind die Elemente&amp;amp;nbsp; $u_i$&amp;amp;nbsp; und&amp;amp;nbsp; $v_i$&amp;amp;nbsp; &amp;amp;nbsp;$($jeweils mit Index&amp;amp;nbsp; $i = 1, \hspace{0.05cm}\text{...} \hspace{0.05cm}, k)$&amp;amp;nbsp; der Vektoren&amp;amp;nbsp; $\underline{u}$&amp;amp;nbsp; und&amp;amp;nbsp; $\underline{v}$&amp;amp;nbsp; stets binär&amp;amp;nbsp; $(0$&amp;amp;nbsp; oder &amp;amp;nbsp;$1)$, ebenso wie die&amp;amp;nbsp; $n$&amp;amp;nbsp; Elemente&amp;amp;nbsp; $x_i$&amp;amp;nbsp; des Codewortes&amp;amp;nbsp; $\underline{x}$. Bei digitalem Kanalmodell&amp;amp;nbsp; ([[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC|BSC]],&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Erasure_Channel_.E2.80.93_BEC|BEC]],&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Error_.26_Erasure_Channel_.E2.80.93_BSEC|BSEC]]) gilt auch für die&amp;amp;nbsp; $n$&amp;amp;nbsp; Empfangswerte&amp;amp;nbsp; $y_i \in \{0, 1\}$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Das&amp;amp;nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang|AWGN&amp;amp;ndash;Kanalmodell]]&amp;amp;nbsp; ist durch reellwertige Ausgangswerte&amp;amp;nbsp;  $y_i$&amp;amp;nbsp; gekennzeichnet. Der &amp;lt;i&amp;gt;Codewortschätzer&amp;lt;/i&amp;gt; gewinnt in diesem Fall aus dem Vektor&amp;amp;nbsp; $\underline{y} = (y_1, y_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, y_n)$&amp;amp;nbsp; den binären Vektor&amp;amp;nbsp; $\underline{z} = (z_1, z_2, \hspace{0.05cm}\text{...} \hspace{0.05cm}, z_n)$, der mit dem Codewort&amp;amp;nbsp; $\underline{x}$&amp;amp;nbsp; zu vergleichen ist.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Der Übergang von&amp;amp;nbsp; $\underline{y}$&amp;amp;nbsp; auf&amp;amp;nbsp; $\underline{z}$&amp;amp;nbsp; erfolgt durch Schwellenwertentscheidung &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;i&amp;gt;Hard Decision&amp;lt;/i&amp;gt; oder nach dem MAP&amp;amp;ndash;Kriterium &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;i&amp;gt;Soft Decision&amp;lt;/i&amp;gt;. Bei gleichwahrscheinlichen Eingangssymbolen  führt die  &amp;amp;bdquo;Maximum Likelihood&amp;amp;rdquo;&amp;amp;ndash;Schätzung ebenfalls zur minimalen Fehlerrate.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Im Zusammenhang mit dem AWGN&amp;amp;ndash;Modell macht es Sinn, binäre Codesymbole $x_i$ bipolar (also $\pm1$) darzustellen. An den statistischen Eigenschaften ändert sich dadurch nichts. Wir kennzeichnen im Folgenden die bipolare Signalisierung durch eine Tilde. Dann gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\tilde{x}_i = 1 - 2 x_i  = \left\{ \begin{array}{c} +1\\&lt;br /&gt;
 -1   \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{1}c} {\rm falls} \hspace{0.15cm} x_i = 0\hspace{0.05cm},\\&lt;br /&gt;
{\rm falls} \hspace{0.15cm}x_i = 1\hspace{0.05cm}.\\ \end{array}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:1.1 Zur Kennzeichnung aller Bücher|Aufgabe 1.1: Zur Kennzeichnung aller Bücher]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.2 Einfacher binärer Kanalcode|Aufgabe 1.2: Einfacher binärer Kanalcode]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.2Z_3D–Darstellung_von_Codes|Aufgabe 1.2Z: 3D–Darstellung von Codes]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding&amp;diff=35694</id>
		<title>Channel Coding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding&amp;diff=35694"/>
		<updated>2021-01-15T17:19:02Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
Channel coding (also known as error-control coding) includes both &lt;br /&gt;
*Error detection procedures &lt;br /&gt;
*and forward error correction (FEC), which often make digital signal transmission possible with a bad channel (low SNR) and lead to very low error rates with a sufficiently good channel (high SNR).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Linear block codes, Reed-Solomon codes and convolutional and turbo codes as well as their (possibly iterative) decoding are described. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The scope of this book corresponds to a course with three semester hours (SWS) of lecture and two SWS of exercises.&lt;br /&gt;
&lt;br /&gt;
First of all, here is an overview of the contents based on the four main chapters with a total of 22 chapters. &lt;br /&gt;
&lt;br /&gt;
===Contents===&lt;br /&gt;
{{Collapsible-Kopf}}&lt;br /&gt;
{{Collapse1| header=Binary Block Codes for Channel Coding  | submenu= &lt;br /&gt;
*[[/Objective of Channel Coding/]]&lt;br /&gt;
*[[/Channel Models and Decision Structures/]]&lt;br /&gt;
*[[/Examples of Binary Block Codes/]]&lt;br /&gt;
*[[/General Description of Linear Block Codes/]]&lt;br /&gt;
*[[/Decoding of Linear Block Codes/]]&lt;br /&gt;
*[[/Limits for Block Error Probability/]]&lt;br /&gt;
*[[/Information Theoretical Limits of Channel Coding/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse2 | header=Reed–Solomon–Codes and Their Decoding &lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Some Basics of Algebra/]]&lt;br /&gt;
*[[/Extension Field/]]&lt;br /&gt;
*[[/Definition and Properties of Reed-Solomon Codes/]]&lt;br /&gt;
*[[/Reed-Solomon Decoding for the Erasure Channel/]]&lt;br /&gt;
*[[/Error Correction According to Reed-Solomon Coding/]]&lt;br /&gt;
*[[/Error Probability and Areas of Application/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse3 | header=Convolutional Codes and Their Decoding&lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Basics of Convolutional Coding/]]&lt;br /&gt;
*[[/Algebraic and Polynomial Description/]]&lt;br /&gt;
*[[/Code Description with State and Trellis Diagram/]]&lt;br /&gt;
*[[/Decoding of Convolutional Codes/]]&lt;br /&gt;
*[[/Distance Characteristics and Error Probability Barriers/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse4 | header=Iterative Decoding Methods &lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Soft-in Soft-Out Decoder/]]&lt;br /&gt;
*[[/The Basics of Product Codes/]]&lt;br /&gt;
*[[/The Basics of Turbo Codes/]]&lt;br /&gt;
*[[/The Basics of Low-Density Parity Check Codes/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapsible-Fuß}}&lt;br /&gt;
&lt;br /&gt;
In addition to these theory pages, we also offer tasks and multimedia modules that could help to clarify the topic:&lt;br /&gt;
*[https://en.lntwww.de/Kategorie:Aufgaben_zu_Kanalcodierung $\text{Exercises}$;]&lt;br /&gt;
*[[LNTwww:Lernvideos_zu_Kanalcodierung|$\text{Learning videos in german}$;]]&lt;br /&gt;
*[[LNTwww:HTML5-Applets_zu_Kanalcodierung|$\text{new designed applets}$]], based on HTML5, also executable on smartphones.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
$\text{Recommended Literature:}$&lt;br /&gt;
&lt;br /&gt;
*Böcherer, G.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl Für Nachrichtentechnkik, TU München, 2015&lt;br /&gt;
*Bossert, M.: Channel Coding for Telecommunications. Chichester: Wiley, 2000. ISBN 978-0-471-98277-7&lt;br /&gt;
*Bossert, M.: Kanalcodierung. Stuttgart: Vieweg+Teubner Verlag, 2014. ISBN 978-3-322-90917-6&lt;br /&gt;
*Cover, T. M.; Thomas, J. A.: Elements of Information Theory. 2. Aufl. Hoboken, N.J: Wiley-Interscience, 2006. ISBN 978-0-47124-195-9&lt;br /&gt;
*Friedrichs, B.: Kanalcodierung. Grundlagen und Anwendungen in modernen Kommunikationssystemen. Berlin u.a.: Springer, 1996. ISBN 3-540-58232-0&lt;br /&gt;
*Gallager, R. G.: Information Theory and Reliable Communication. New York NY u.a.: Wiley, 1968. ISBN 0-471-29048-3&lt;br /&gt;
*Hindelang, T.: Source-Controlled Channel Decoding and Decoding for Mobile Communications. Dissertation. Lehrstuhl für Nachrichtentechnik. &amp;lt;br&amp;gt;München: VDI Fortschritt-Berichte, Reihe 10, Nr. 695, 2002&lt;br /&gt;
*Huber, J.: Codierung für gedächtnisbehaftete Kanäle. Dissertation – Universität der Bundeswehr München, 1982&lt;br /&gt;
*Johannesson, R.; Zigangirov, K. S.: Fundamentals of Convolutional Coding. New York: IEEE Press, 1999. ISBN 978-0-470-27683-9&lt;br /&gt;
*Klimant, H.; Piotraschke, R.; Schönfeld, D.: Informations- und Kodierungstheorie. 2. Aufl. Wiesbaden (u.a.): Vieweg+Teubner Verlag, 2003. ISBN 978-3-51923-003-8&lt;br /&gt;
*Kötter, R.; Mayer, T.; Tüchler, M.; Schreckenbach, F.; Brauchle, J.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl für Nachrichtentechnik, TU München, 2008&lt;br /&gt;
*Liva, G.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl Für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010&lt;br /&gt;
*Ryan, W.; Lin, S.: Channel Codes. Classical and modern. Cambridge: Cambridge University Press, 2009. ISBN 978-0-52184-868-8&lt;br /&gt;
*Schönfeld, D.; Klimant, H.; Piotraschke, R.: Informations- und Kodierungstheorie. 4. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2012. ISBN 978-3-83480-647-5&lt;br /&gt;
*Schneider-Obermann, H.; Mildenberger, O.: Kanalcodierung. Theorie und Praxis fehlerkorrigierender Codes. Wiesbaden: Vieweg+Teubner Verlag, 1998. &amp;lt;br&amp;gt;ISBN 978-3-528-03101-5&lt;br /&gt;
*Schulz, R.-H.: Codierungstheorie. Eine Einführung. 2. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2003. ISBN 978-3-322-80328-3&lt;br /&gt;
*Shannon, C. E.; Weaver, W.: The Mathematical Theory of Communication. Urbana: Univ. of Illinois Press, 1998. ISBN 978-0-25272-548-7&lt;br /&gt;
*Tröndle, K.: Codier-und Decodiermethoden zur Fehlerkorrektur. Habilitationsschrift. München: TU München, 1974&lt;br /&gt;
*Wachter-Zeh, A.: Channel Coding. Vorlesungsmanuskript. Professur für Coding for Communications and Data Storage, TU München, 2017&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[LNTwww:Authors#Kanalcodierung|$\text{Notes on the authors and the materials used as a basis for the preparation of the book}$.]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding&amp;diff=35693</id>
		<title>Channel Coding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding&amp;diff=35693"/>
		<updated>2021-01-15T17:18:30Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
Channel coding (also known as error-control coding) includes both &lt;br /&gt;
*Error detection procedures &lt;br /&gt;
*and forward error correction (FEC), which often make digital signal transmission possible with a bad channel (low SNR) and lead to very low error rates with a sufficiently good channel (high SNR).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Linear block codes, Reed-Solomon codes and convolutional and turbo codes as well as their (possibly iterative) decoding are described. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The scope of this book corresponds to a course with three semester hours (SWS) of lecture and two SWS of exercises.&lt;br /&gt;
&lt;br /&gt;
First of all, here is an overview of the contents based on the four main chapters with a total of 22 chapters. &lt;br /&gt;
&lt;br /&gt;
===Contents===&lt;br /&gt;
{{Collapsible-Kopf}}&lt;br /&gt;
{{Collapse1| header=Binäre Blockcodes zur Kanalcodierung  | submenu= &lt;br /&gt;
*[[/Objective of Channel Coding/]]&lt;br /&gt;
*[[/Channel Models and Decision Structures/]]&lt;br /&gt;
*[[/Examples of Binary Block Codes/]]&lt;br /&gt;
*[[/General Description of Linear Block Codes/]]&lt;br /&gt;
*[[/Decoding of Linear Block Codes/]]&lt;br /&gt;
*[[/Limits for Block Error Probability/]]&lt;br /&gt;
*[[/Information Theoretical Limits of Channel Coding/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse2 | header=Reed–Solomon–Codes and Their Decoding &lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Some Basics of Algebra/]]&lt;br /&gt;
*[[/Extension Field/]]&lt;br /&gt;
*[[/Definition and Properties of Reed-Solomon Codes/]]&lt;br /&gt;
*[[/Reed-Solomon Decoding for the Erasure Channel/]]&lt;br /&gt;
*[[/Error Correction According to Reed-Solomon Coding/]]&lt;br /&gt;
*[[/Error Probability and Areas of Application/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse3 | header=Convolutional Codes and Their Decoding&lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Basics of Convolutional Coding/]]&lt;br /&gt;
*[[/Algebraic and Polynomial Description/]]&lt;br /&gt;
*[[/Code Description with State and Trellis Diagram/]]&lt;br /&gt;
*[[/Decoding of Convolutional Codes/]]&lt;br /&gt;
*[[/Distance Characteristics and Error Probability Barriers/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse4 | header=Iterative Decoding Methods &lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Soft-in Soft-Out Decoder/]]&lt;br /&gt;
*[[/The Basics of Product Codes/]]&lt;br /&gt;
*[[/The Basics of Turbo Codes/]]&lt;br /&gt;
*[[/The Basics of Low-Density Parity Check Codes/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapsible-Fuß}}&lt;br /&gt;
&lt;br /&gt;
In addition to these theory pages, we also offer tasks and multimedia modules that could help to clarify the topic:&lt;br /&gt;
*[https://en.lntwww.de/Kategorie:Aufgaben_zu_Kanalcodierung $\text{Exercises}$;]&lt;br /&gt;
*[[LNTwww:Lernvideos_zu_Kanalcodierung|$\text{Learning videos in german}$;]]&lt;br /&gt;
*[[LNTwww:HTML5-Applets_zu_Kanalcodierung|$\text{new designed applets}$]], based on HTML5, also executable on smartphones.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
$\text{Recommended Literature:}$&lt;br /&gt;
&lt;br /&gt;
*Böcherer, G.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl Für Nachrichtentechnkik, TU München, 2015&lt;br /&gt;
*Bossert, M.: Channel Coding for Telecommunications. Chichester: Wiley, 2000. ISBN 978-0-471-98277-7&lt;br /&gt;
*Bossert, M.: Kanalcodierung. Stuttgart: Vieweg+Teubner Verlag, 2014. ISBN 978-3-322-90917-6&lt;br /&gt;
*Cover, T. M.; Thomas, J. A.: Elements of Information Theory. 2. Aufl. Hoboken, N.J: Wiley-Interscience, 2006. ISBN 978-0-47124-195-9&lt;br /&gt;
*Friedrichs, B.: Kanalcodierung. Grundlagen und Anwendungen in modernen Kommunikationssystemen. Berlin u.a.: Springer, 1996. ISBN 3-540-58232-0&lt;br /&gt;
*Gallager, R. G.: Information Theory and Reliable Communication. New York NY u.a.: Wiley, 1968. ISBN 0-471-29048-3&lt;br /&gt;
*Hindelang, T.: Source-Controlled Channel Decoding and Decoding for Mobile Communications. Dissertation. Lehrstuhl für Nachrichtentechnik. &amp;lt;br&amp;gt;München: VDI Fortschritt-Berichte, Reihe 10, Nr. 695, 2002&lt;br /&gt;
*Huber, J.: Codierung für gedächtnisbehaftete Kanäle. Dissertation – Universität der Bundeswehr München, 1982&lt;br /&gt;
*Johannesson, R.; Zigangirov, K. S.: Fundamentals of Convolutional Coding. New York: IEEE Press, 1999. ISBN 978-0-470-27683-9&lt;br /&gt;
*Klimant, H.; Piotraschke, R.; Schönfeld, D.: Informations- und Kodierungstheorie. 2. Aufl. Wiesbaden (u.a.): Vieweg+Teubner Verlag, 2003. ISBN 978-3-51923-003-8&lt;br /&gt;
*Kötter, R.; Mayer, T.; Tüchler, M.; Schreckenbach, F.; Brauchle, J.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl für Nachrichtentechnik, TU München, 2008&lt;br /&gt;
*Liva, G.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl Für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010&lt;br /&gt;
*Ryan, W.; Lin, S.: Channel Codes. Classical and modern. Cambridge: Cambridge University Press, 2009. ISBN 978-0-52184-868-8&lt;br /&gt;
*Schönfeld, D.; Klimant, H.; Piotraschke, R.: Informations- und Kodierungstheorie. 4. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2012. ISBN 978-3-83480-647-5&lt;br /&gt;
*Schneider-Obermann, H.; Mildenberger, O.: Kanalcodierung. Theorie und Praxis fehlerkorrigierender Codes. Wiesbaden: Vieweg+Teubner Verlag, 1998. &amp;lt;br&amp;gt;ISBN 978-3-528-03101-5&lt;br /&gt;
*Schulz, R.-H.: Codierungstheorie. Eine Einführung. 2. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2003. ISBN 978-3-322-80328-3&lt;br /&gt;
*Shannon, C. E.; Weaver, W.: The Mathematical Theory of Communication. Urbana: Univ. of Illinois Press, 1998. ISBN 978-0-25272-548-7&lt;br /&gt;
*Tröndle, K.: Codier-und Decodiermethoden zur Fehlerkorrektur. Habilitationsschrift. München: TU München, 1974&lt;br /&gt;
*Wachter-Zeh, A.: Channel Coding. Vorlesungsmanuskript. Professur für Coding for Communications and Data Storage, TU München, 2017&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[LNTwww:Authors#Kanalcodierung|$\text{Notes on the authors and the materials used as a basis for the preparation of the book}$.]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding&amp;diff=35692</id>
		<title>Channel Coding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding&amp;diff=35692"/>
		<updated>2021-01-15T17:17:19Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
Channel coding (also known as error-control coding) includes both &lt;br /&gt;
*Error detection procedures &lt;br /&gt;
*and forward error correction (FEC), which often make digital signal transmission possible with a bad channel (low SNR) and lead to very low error rates with a sufficiently good channel (high SNR).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Linear block codes, Reed-Solomon codes and convolutional and turbo codes as well as their (possibly iterative) decoding are described. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The scope of this book corresponds to a course with three semester hours (SWS) of lecture and two SWS of exercises.&lt;br /&gt;
&lt;br /&gt;
First of all, here is an overview of the contents based on the four main chapters with a total of 22 chapters. &lt;br /&gt;
&lt;br /&gt;
===Contents===&lt;br /&gt;
{{Collapsible-Kopf}}&lt;br /&gt;
{{Collapse1| header=Binäre Blockcodes zur Kanalcodierung  | submenu= &lt;br /&gt;
*[[/Objective of Channel Coding/]]&lt;br /&gt;
*[[/Channel Models and Decision Structures/]]&lt;br /&gt;
*[[/Examples of Binary Block Codes/]]&lt;br /&gt;
*[[/General Description of Linear Block Codes/]]&lt;br /&gt;
*[[/Decoding of Linear Block Codes/]]&lt;br /&gt;
*[[/Limits for Block Error Probability/]]&lt;br /&gt;
*[[/Information Theoretical Limits of Channel Coding/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse2 | header=Reed–Solomon–Codes und deren Decodierung &lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Some Basics of Algebra/]]&lt;br /&gt;
*[[/Extension Field/]]&lt;br /&gt;
*[[/Definition and Properties of Reed-Solomon Codes/]]&lt;br /&gt;
*[[/Reed-Solomon Decoding for the Erasure Channel/]]&lt;br /&gt;
*[[/Error Correction According to Reed-Solomon Coding/]]&lt;br /&gt;
*[[/Error Probability and Areas of Application/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse3 | header=Faltungscodierung und geeignete Decoder&lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Basics of Convolutional Coding/]]&lt;br /&gt;
*[[/Algebraic and Polynomial Description/]]&lt;br /&gt;
*[[/Code Description with State and Trellis Diagram/]]&lt;br /&gt;
*[[/Decoding of Convolutional Codes/]]&lt;br /&gt;
*[[/Distance Characteristics and Error Probability Barriers/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse4 | header=Iterative Decodierverfahren &lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Soft-in Soft-Out Decoder/]]&lt;br /&gt;
*[[/The Basics of Product Codes/]]&lt;br /&gt;
*[[/The Basics of Turbo Codes/]]&lt;br /&gt;
*[[/The Basics of Low-Density Parity Check Codes/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapsible-Fuß}}&lt;br /&gt;
&lt;br /&gt;
In addition to these theory pages, we also offer tasks and multimedia modules that could help to clarify the topic:&lt;br /&gt;
*[https://en.lntwww.de/Kategorie:Aufgaben_zu_Kanalcodierung $\text{Exercises}$;]&lt;br /&gt;
*[[LNTwww:Lernvideos_zu_Kanalcodierung|$\text{Learning videos in german}$;]]&lt;br /&gt;
*[[LNTwww:HTML5-Applets_zu_Kanalcodierung|$\text{new designed applets}$]], based on HTML5, also executable on smartphones.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
$\text{Recommended Literature:}$&lt;br /&gt;
&lt;br /&gt;
*Böcherer, G.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl Für Nachrichtentechnkik, TU München, 2015&lt;br /&gt;
*Bossert, M.: Channel Coding for Telecommunications. Chichester: Wiley, 2000. ISBN 978-0-471-98277-7&lt;br /&gt;
*Bossert, M.: Kanalcodierung. Stuttgart: Vieweg+Teubner Verlag, 2014. ISBN 978-3-322-90917-6&lt;br /&gt;
*Cover, T. M.; Thomas, J. A.: Elements of Information Theory. 2. Aufl. Hoboken, N.J: Wiley-Interscience, 2006. ISBN 978-0-47124-195-9&lt;br /&gt;
*Friedrichs, B.: Kanalcodierung. Grundlagen und Anwendungen in modernen Kommunikationssystemen. Berlin u.a.: Springer, 1996. ISBN 3-540-58232-0&lt;br /&gt;
*Gallager, R. G.: Information Theory and Reliable Communication. New York NY u.a.: Wiley, 1968. ISBN 0-471-29048-3&lt;br /&gt;
*Hindelang, T.: Source-Controlled Channel Decoding and Decoding for Mobile Communications. Dissertation. Lehrstuhl für Nachrichtentechnik. &amp;lt;br&amp;gt;München: VDI Fortschritt-Berichte, Reihe 10, Nr. 695, 2002&lt;br /&gt;
*Huber, J.: Codierung für gedächtnisbehaftete Kanäle. Dissertation – Universität der Bundeswehr München, 1982&lt;br /&gt;
*Johannesson, R.; Zigangirov, K. S.: Fundamentals of Convolutional Coding. New York: IEEE Press, 1999. ISBN 978-0-470-27683-9&lt;br /&gt;
*Klimant, H.; Piotraschke, R.; Schönfeld, D.: Informations- und Kodierungstheorie. 2. Aufl. Wiesbaden (u.a.): Vieweg+Teubner Verlag, 2003. ISBN 978-3-51923-003-8&lt;br /&gt;
*Kötter, R.; Mayer, T.; Tüchler, M.; Schreckenbach, F.; Brauchle, J.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl für Nachrichtentechnik, TU München, 2008&lt;br /&gt;
*Liva, G.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl Für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010&lt;br /&gt;
*Ryan, W.; Lin, S.: Channel Codes. Classical and modern. Cambridge: Cambridge University Press, 2009. ISBN 978-0-52184-868-8&lt;br /&gt;
*Schönfeld, D.; Klimant, H.; Piotraschke, R.: Informations- und Kodierungstheorie. 4. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2012. ISBN 978-3-83480-647-5&lt;br /&gt;
*Schneider-Obermann, H.; Mildenberger, O.: Kanalcodierung. Theorie und Praxis fehlerkorrigierender Codes. Wiesbaden: Vieweg+Teubner Verlag, 1998. &amp;lt;br&amp;gt;ISBN 978-3-528-03101-5&lt;br /&gt;
*Schulz, R.-H.: Codierungstheorie. Eine Einführung. 2. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2003. ISBN 978-3-322-80328-3&lt;br /&gt;
*Shannon, C. E.; Weaver, W.: The Mathematical Theory of Communication. Urbana: Univ. of Illinois Press, 1998. ISBN 978-0-25272-548-7&lt;br /&gt;
*Tröndle, K.: Codier-und Decodiermethoden zur Fehlerkorrektur. Habilitationsschrift. München: TU München, 1974&lt;br /&gt;
*Wachter-Zeh, A.: Channel Coding. Vorlesungsmanuskript. Professur für Coding for Communications and Data Storage, TU München, 2017&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[LNTwww:Authors#Kanalcodierung|$\text{Notes on the authors and the materials used as a basis for the preparation of the book}$.]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding&amp;diff=35691</id>
		<title>Channel Coding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding&amp;diff=35691"/>
		<updated>2021-01-15T17:11:25Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
Channel coding (also known as error-control coding) includes both &lt;br /&gt;
*Error detection procedures &lt;br /&gt;
*and forward error correction (FEC), which often make digital signal transmission possible with a bad channel (low SNR) and lead to very low error rates with a sufficiently good channel (high SNR).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Linear block codes, Reed-Solomon codes and convolutional and turbo codes as well as their (possibly iterative) decoding are described. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The scope of this book corresponds to a course with three semester hours (SWS) of lecture and two SWS of exercises.&lt;br /&gt;
&lt;br /&gt;
First of all, here is an overview of the contents based on the four main chapters with a total of 22 chapters. &lt;br /&gt;
&lt;br /&gt;
===Contents===&lt;br /&gt;
{{Collapsible-Kopf}}&lt;br /&gt;
{{Collapse1| header=Binäre Blockcodes zur Kanalcodierung  | submenu= &lt;br /&gt;
*[[/Objective of Channel Coding/]]&lt;br /&gt;
*[[/Channel Models and Decision Structures/]]&lt;br /&gt;
*[[/Beispiele binärer Blockcodes/]]&lt;br /&gt;
*[[/Allgemeine Beschreibung linearer Blockcodes /]]&lt;br /&gt;
*[[/Decodierung linearer Blockcodes/]]&lt;br /&gt;
*[[/Schranken für die Blockfehlerwahrscheinlichkeit/]]&lt;br /&gt;
*[[/Informationstheoretische Grenzen der Kanalcodierung /]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse2 | header=Reed–Solomon–Codes und deren Decodierung &lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Einige Grundlagen der Algebra/]]&lt;br /&gt;
*[[/Erweiterungskörper/]]&lt;br /&gt;
*[[/Definition und Eigenschaften von Reed–Solomon–Codes/]]&lt;br /&gt;
*[[/Reed–Solomon–Decodierung beim Auslöschungskanal/]]&lt;br /&gt;
*[[/Fehlerkorrektur nach Reed–Solomon–Codierung/]]&lt;br /&gt;
*[[/Fehlerwahrscheinlichkeit und Anwendungsgebiete/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse3 | header=Faltungscodierung und geeignete Decoder&lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Grundlagen der Faltungscodierung/]]&lt;br /&gt;
*[[/Algebraische und polynomische Beschreibung/]]&lt;br /&gt;
*[[/Codebeschreibung mit Zustands– und Trellisdiagramm/]]&lt;br /&gt;
*[[/Decodierung von Faltungscodes/]]&lt;br /&gt;
*[[/Distanzeigenschaften und Fehlerwahrscheinlichkeitsschranken/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse4 | header=Iterative Decodierverfahren &lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Soft–in Soft–out Decoder/]]&lt;br /&gt;
*[[/Grundlegendes zu den Produktcodes/]]&lt;br /&gt;
*[[/Grundlegendes zu den Turbocodes/]]&lt;br /&gt;
*[[/Grundlegendes zu den Low–density Parity–check Codes/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapsible-Fuß}}&lt;br /&gt;
&lt;br /&gt;
Neben diesen Theorieseiten bieten wir auch Aufgaben und multimediale Module an, die zur Verdeutlichung des Lehrstoffes beitragen könnten:&lt;br /&gt;
*[https://en.lntwww.de/Kategorie:Aufgaben_zu_Kanalcodierung $\text{Aufgaben}$;]&lt;br /&gt;
*[[LNTwww:Lernvideos_zu_Kanalcodierung|$\text{Lernvideos}$;]]&lt;br /&gt;
*[[LNTwww:HTML5-Applets_zu_Kanalcodierung|$\text{neu gestaltete Applets}$]], basierend auf HTML5, auch auf Smartphones lauffähig.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
$\text{Empfohlene Literatur:}$&lt;br /&gt;
&lt;br /&gt;
*Böcherer, G.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl Für Nachrichtentechnkik, TU München, 2015&lt;br /&gt;
*Bossert, M.: Channel Coding for Telecommunications. Chichester: Wiley, 2000. ISBN 978-0-471-98277-7&lt;br /&gt;
*Bossert, M.: Kanalcodierung. Stuttgart: Vieweg+Teubner Verlag, 2014. ISBN 978-3-322-90917-6&lt;br /&gt;
*Cover, T. M.; Thomas, J. A.: Elements of Information Theory. 2. Aufl. Hoboken, N.J: Wiley-Interscience, 2006. ISBN 978-0-47124-195-9&lt;br /&gt;
*Friedrichs, B.: Kanalcodierung. Grundlagen und Anwendungen in modernen Kommunikationssystemen. Berlin u.a.: Springer, 1996. ISBN 3-540-58232-0&lt;br /&gt;
*Gallager, R. G.: Information Theory and Reliable Communication. New York NY u.a.: Wiley, 1968. ISBN 0-471-29048-3&lt;br /&gt;
*Hindelang, T.: Source-Controlled Channel Decoding and Decoding for Mobile Communications. Dissertation. Lehrstuhl für Nachrichtentechnik. &amp;lt;br&amp;gt;München: VDI Fortschritt-Berichte, Reihe 10, Nr. 695, 2002&lt;br /&gt;
*Huber, J.: Codierung für gedächtnisbehaftete Kanäle. Dissertation – Universität der Bundeswehr München, 1982&lt;br /&gt;
*Johannesson, R.; Zigangirov, K. S.: Fundamentals of Convolutional Coding. New York: IEEE Press, 1999. ISBN 978-0-470-27683-9&lt;br /&gt;
*Klimant, H.; Piotraschke, R.; Schönfeld, D.: Informations- und Kodierungstheorie. 2. Aufl. Wiesbaden (u.a.): Vieweg+Teubner Verlag, 2003. ISBN 978-3-51923-003-8&lt;br /&gt;
*Kötter, R.; Mayer, T.; Tüchler, M.; Schreckenbach, F.; Brauchle, J.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl für Nachrichtentechnik, TU München, 2008&lt;br /&gt;
*Liva, G.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl Für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010&lt;br /&gt;
*Ryan, W.; Lin, S.: Channel Codes. Classical and modern. Cambridge: Cambridge University Press, 2009. ISBN 978-0-52184-868-8&lt;br /&gt;
*Schönfeld, D.; Klimant, H.; Piotraschke, R.: Informations- und Kodierungstheorie. 4. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2012. ISBN 978-3-83480-647-5&lt;br /&gt;
*Schneider-Obermann, H.; Mildenberger, O.: Kanalcodierung. Theorie und Praxis fehlerkorrigierender Codes. Wiesbaden: Vieweg+Teubner Verlag, 1998. &amp;lt;br&amp;gt;ISBN 978-3-528-03101-5&lt;br /&gt;
*Schulz, R.-H.: Codierungstheorie. Eine Einführung. 2. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2003. ISBN 978-3-322-80328-3&lt;br /&gt;
*Shannon, C. E.; Weaver, W.: The Mathematical Theory of Communication. Urbana: Univ. of Illinois Press, 1998. ISBN 978-0-25272-548-7&lt;br /&gt;
*Tröndle, K.: Codier-und Decodiermethoden zur Fehlerkorrektur. Habilitationsschrift. München: TU München, 1974&lt;br /&gt;
*Wachter-Zeh, A.: Channel Coding. Vorlesungsmanuskript. Professur für Coding for Communications and Data Storage, TU München, 2017&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[LNTwww:Authors#Kanalcodierung|$\text{Hinweise zu den Autoren und den Materialien, von denen bei der Erstellung des Buches ausgegangen wurde}$.]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding&amp;diff=35690</id>
		<title>Channel Coding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding&amp;diff=35690"/>
		<updated>2021-01-15T17:11:07Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
Channel coding (also known as error-control coding) includes both &lt;br /&gt;
*Error detection procedures &lt;br /&gt;
*and forward error correction (FEC), which often make digital signal transmission possible with a bad channel (low SNR) and lead to very low error rates with a sufficiently good channel (high SNR).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Linear block codes, Reed-Solomon codes and convolutional and turbo codes as well as their (possibly iterative) decoding are described. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The scope of this book corresponds to a course with three semester hours (SWS) of lecture and two SWS of exercises.&lt;br /&gt;
&lt;br /&gt;
First of all, here is an overview of the contents based on the four main chapters with a total of 22 chapters. &lt;br /&gt;
&lt;br /&gt;
===Contents===&lt;br /&gt;
{{Collapsible-Kopf}}&lt;br /&gt;
{{Collapse1| header=Binäre Blockcodes zur Kanalcodierung  | submenu= &lt;br /&gt;
*[[/Objective of Channel Coding/]]&lt;br /&gt;
*[[/Kanalmodelle und Entscheiderstrukturen/]]&lt;br /&gt;
*[[/Beispiele binärer Blockcodes/]]&lt;br /&gt;
*[[/Allgemeine Beschreibung linearer Blockcodes /]]&lt;br /&gt;
*[[/Decodierung linearer Blockcodes/]]&lt;br /&gt;
*[[/Schranken für die Blockfehlerwahrscheinlichkeit/]]&lt;br /&gt;
*[[/Informationstheoretische Grenzen der Kanalcodierung /]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse2 | header=Reed–Solomon–Codes und deren Decodierung &lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Einige Grundlagen der Algebra/]]&lt;br /&gt;
*[[/Erweiterungskörper/]]&lt;br /&gt;
*[[/Definition und Eigenschaften von Reed–Solomon–Codes/]]&lt;br /&gt;
*[[/Reed–Solomon–Decodierung beim Auslöschungskanal/]]&lt;br /&gt;
*[[/Fehlerkorrektur nach Reed–Solomon–Codierung/]]&lt;br /&gt;
*[[/Fehlerwahrscheinlichkeit und Anwendungsgebiete/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse3 | header=Faltungscodierung und geeignete Decoder&lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Grundlagen der Faltungscodierung/]]&lt;br /&gt;
*[[/Algebraische und polynomische Beschreibung/]]&lt;br /&gt;
*[[/Codebeschreibung mit Zustands– und Trellisdiagramm/]]&lt;br /&gt;
*[[/Decodierung von Faltungscodes/]]&lt;br /&gt;
*[[/Distanzeigenschaften und Fehlerwahrscheinlichkeitsschranken/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse4 | header=Iterative Decodierverfahren &lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Soft–in Soft–out Decoder/]]&lt;br /&gt;
*[[/Grundlegendes zu den Produktcodes/]]&lt;br /&gt;
*[[/Grundlegendes zu den Turbocodes/]]&lt;br /&gt;
*[[/Grundlegendes zu den Low–density Parity–check Codes/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapsible-Fuß}}&lt;br /&gt;
&lt;br /&gt;
Neben diesen Theorieseiten bieten wir auch Aufgaben und multimediale Module an, die zur Verdeutlichung des Lehrstoffes beitragen könnten:&lt;br /&gt;
*[https://en.lntwww.de/Kategorie:Aufgaben_zu_Kanalcodierung $\text{Aufgaben}$;]&lt;br /&gt;
*[[LNTwww:Lernvideos_zu_Kanalcodierung|$\text{Lernvideos}$;]]&lt;br /&gt;
*[[LNTwww:HTML5-Applets_zu_Kanalcodierung|$\text{neu gestaltete Applets}$]], basierend auf HTML5, auch auf Smartphones lauffähig.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
$\text{Empfohlene Literatur:}$&lt;br /&gt;
&lt;br /&gt;
*Böcherer, G.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl Für Nachrichtentechnkik, TU München, 2015&lt;br /&gt;
*Bossert, M.: Channel Coding for Telecommunications. Chichester: Wiley, 2000. ISBN 978-0-471-98277-7&lt;br /&gt;
*Bossert, M.: Kanalcodierung. Stuttgart: Vieweg+Teubner Verlag, 2014. ISBN 978-3-322-90917-6&lt;br /&gt;
*Cover, T. M.; Thomas, J. A.: Elements of Information Theory. 2. Aufl. Hoboken, N.J: Wiley-Interscience, 2006. ISBN 978-0-47124-195-9&lt;br /&gt;
*Friedrichs, B.: Kanalcodierung. Grundlagen und Anwendungen in modernen Kommunikationssystemen. Berlin u.a.: Springer, 1996. ISBN 3-540-58232-0&lt;br /&gt;
*Gallager, R. G.: Information Theory and Reliable Communication. New York NY u.a.: Wiley, 1968. ISBN 0-471-29048-3&lt;br /&gt;
*Hindelang, T.: Source-Controlled Channel Decoding and Decoding for Mobile Communications. Dissertation. Lehrstuhl für Nachrichtentechnik. &amp;lt;br&amp;gt;München: VDI Fortschritt-Berichte, Reihe 10, Nr. 695, 2002&lt;br /&gt;
*Huber, J.: Codierung für gedächtnisbehaftete Kanäle. Dissertation – Universität der Bundeswehr München, 1982&lt;br /&gt;
*Johannesson, R.; Zigangirov, K. S.: Fundamentals of Convolutional Coding. New York: IEEE Press, 1999. ISBN 978-0-470-27683-9&lt;br /&gt;
*Klimant, H.; Piotraschke, R.; Schönfeld, D.: Informations- und Kodierungstheorie. 2. Aufl. Wiesbaden (u.a.): Vieweg+Teubner Verlag, 2003. ISBN 978-3-51923-003-8&lt;br /&gt;
*Kötter, R.; Mayer, T.; Tüchler, M.; Schreckenbach, F.; Brauchle, J.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl für Nachrichtentechnik, TU München, 2008&lt;br /&gt;
*Liva, G.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl Für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010&lt;br /&gt;
*Ryan, W.; Lin, S.: Channel Codes. Classical and modern. Cambridge: Cambridge University Press, 2009. ISBN 978-0-52184-868-8&lt;br /&gt;
*Schönfeld, D.; Klimant, H.; Piotraschke, R.: Informations- und Kodierungstheorie. 4. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2012. ISBN 978-3-83480-647-5&lt;br /&gt;
*Schneider-Obermann, H.; Mildenberger, O.: Kanalcodierung. Theorie und Praxis fehlerkorrigierender Codes. Wiesbaden: Vieweg+Teubner Verlag, 1998. &amp;lt;br&amp;gt;ISBN 978-3-528-03101-5&lt;br /&gt;
*Schulz, R.-H.: Codierungstheorie. Eine Einführung. 2. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2003. ISBN 978-3-322-80328-3&lt;br /&gt;
*Shannon, C. E.; Weaver, W.: The Mathematical Theory of Communication. Urbana: Univ. of Illinois Press, 1998. ISBN 978-0-25272-548-7&lt;br /&gt;
*Tröndle, K.: Codier-und Decodiermethoden zur Fehlerkorrektur. Habilitationsschrift. München: TU München, 1974&lt;br /&gt;
*Wachter-Zeh, A.: Channel Coding. Vorlesungsmanuskript. Professur für Coding for Communications and Data Storage, TU München, 2017&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[LNTwww:Authors#Kanalcodierung|$\text{Hinweise zu den Autoren und den Materialien, von denen bei der Erstellung des Buches ausgegangen wurde}$.]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding&amp;diff=35689</id>
		<title>Channel Coding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding&amp;diff=35689"/>
		<updated>2021-01-15T17:08:45Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
Channel coding (also known as error-control coding) includes both &lt;br /&gt;
*Error detection procedures &lt;br /&gt;
*and forward error correction (FEC), which often make digital signal transmission possible with a bad channel (low SNR) and lead to very low error rates with a sufficiently good channel (high SNR).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Linear block codes, Reed-Solomon codes and convolutional and turbo codes as well as their (possibly iterative) decoding are described. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The scope of this book corresponds to a course with three semester hours (SWS) of lecture and two SWS of exercises.&lt;br /&gt;
&lt;br /&gt;
First of all, here is an overview of the contents based on the four main chapters with a total of 22 chapters. &lt;br /&gt;
&lt;br /&gt;
===Contents===&lt;br /&gt;
{{Collapsible-Kopf}}&lt;br /&gt;
{{Collapse1| header=Binäre Blockcodes zur Kanalcodierung  | submenu= &lt;br /&gt;
*[[/Zielsetzung der Kanalcodierung/]]&lt;br /&gt;
*[[/Kanalmodelle und Entscheiderstrukturen/]]&lt;br /&gt;
*[[/Beispiele binärer Blockcodes/]]&lt;br /&gt;
*[[/Allgemeine Beschreibung linearer Blockcodes /]]&lt;br /&gt;
*[[/Decodierung linearer Blockcodes/]]&lt;br /&gt;
*[[/Schranken für die Blockfehlerwahrscheinlichkeit/]]&lt;br /&gt;
*[[/Informationstheoretische Grenzen der Kanalcodierung /]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse2 | header=Reed–Solomon–Codes und deren Decodierung &lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Einige Grundlagen der Algebra/]]&lt;br /&gt;
*[[/Erweiterungskörper/]]&lt;br /&gt;
*[[/Definition und Eigenschaften von Reed–Solomon–Codes/]]&lt;br /&gt;
*[[/Reed–Solomon–Decodierung beim Auslöschungskanal/]]&lt;br /&gt;
*[[/Fehlerkorrektur nach Reed–Solomon–Codierung/]]&lt;br /&gt;
*[[/Fehlerwahrscheinlichkeit und Anwendungsgebiete/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse3 | header=Faltungscodierung und geeignete Decoder&lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Grundlagen der Faltungscodierung/]]&lt;br /&gt;
*[[/Algebraische und polynomische Beschreibung/]]&lt;br /&gt;
*[[/Codebeschreibung mit Zustands– und Trellisdiagramm/]]&lt;br /&gt;
*[[/Decodierung von Faltungscodes/]]&lt;br /&gt;
*[[/Distanzeigenschaften und Fehlerwahrscheinlichkeitsschranken/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse4 | header=Iterative Decodierverfahren &lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Soft–in Soft–out Decoder/]]&lt;br /&gt;
*[[/Grundlegendes zu den Produktcodes/]]&lt;br /&gt;
*[[/Grundlegendes zu den Turbocodes/]]&lt;br /&gt;
*[[/Grundlegendes zu den Low–density Parity–check Codes/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapsible-Fuß}}&lt;br /&gt;
&lt;br /&gt;
Neben diesen Theorieseiten bieten wir auch Aufgaben und multimediale Module an, die zur Verdeutlichung des Lehrstoffes beitragen könnten:&lt;br /&gt;
*[https://en.lntwww.de/Kategorie:Aufgaben_zu_Kanalcodierung $\text{Aufgaben}$;]&lt;br /&gt;
*[[LNTwww:Lernvideos_zu_Kanalcodierung|$\text{Lernvideos}$;]]&lt;br /&gt;
*[[LNTwww:HTML5-Applets_zu_Kanalcodierung|$\text{neu gestaltete Applets}$]], basierend auf HTML5, auch auf Smartphones lauffähig.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
$\text{Empfohlene Literatur:}$&lt;br /&gt;
&lt;br /&gt;
*Böcherer, G.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl Für Nachrichtentechnkik, TU München, 2015&lt;br /&gt;
*Bossert, M.: Channel Coding for Telecommunications. Chichester: Wiley, 2000. ISBN 978-0-471-98277-7&lt;br /&gt;
*Bossert, M.: Kanalcodierung. Stuttgart: Vieweg+Teubner Verlag, 2014. ISBN 978-3-322-90917-6&lt;br /&gt;
*Cover, T. M.; Thomas, J. A.: Elements of Information Theory. 2. Aufl. Hoboken, N.J: Wiley-Interscience, 2006. ISBN 978-0-47124-195-9&lt;br /&gt;
*Friedrichs, B.: Kanalcodierung. Grundlagen und Anwendungen in modernen Kommunikationssystemen. Berlin u.a.: Springer, 1996. ISBN 3-540-58232-0&lt;br /&gt;
*Gallager, R. G.: Information Theory and Reliable Communication. New York NY u.a.: Wiley, 1968. ISBN 0-471-29048-3&lt;br /&gt;
*Hindelang, T.: Source-Controlled Channel Decoding and Decoding for Mobile Communications. Dissertation. Lehrstuhl für Nachrichtentechnik. &amp;lt;br&amp;gt;München: VDI Fortschritt-Berichte, Reihe 10, Nr. 695, 2002&lt;br /&gt;
*Huber, J.: Codierung für gedächtnisbehaftete Kanäle. Dissertation – Universität der Bundeswehr München, 1982&lt;br /&gt;
*Johannesson, R.; Zigangirov, K. S.: Fundamentals of Convolutional Coding. New York: IEEE Press, 1999. ISBN 978-0-470-27683-9&lt;br /&gt;
*Klimant, H.; Piotraschke, R.; Schönfeld, D.: Informations- und Kodierungstheorie. 2. Aufl. Wiesbaden (u.a.): Vieweg+Teubner Verlag, 2003. ISBN 978-3-51923-003-8&lt;br /&gt;
*Kötter, R.; Mayer, T.; Tüchler, M.; Schreckenbach, F.; Brauchle, J.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl für Nachrichtentechnik, TU München, 2008&lt;br /&gt;
*Liva, G.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl Für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010&lt;br /&gt;
*Ryan, W.; Lin, S.: Channel Codes. Classical and modern. Cambridge: Cambridge University Press, 2009. ISBN 978-0-52184-868-8&lt;br /&gt;
*Schönfeld, D.; Klimant, H.; Piotraschke, R.: Informations- und Kodierungstheorie. 4. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2012. ISBN 978-3-83480-647-5&lt;br /&gt;
*Schneider-Obermann, H.; Mildenberger, O.: Kanalcodierung. Theorie und Praxis fehlerkorrigierender Codes. Wiesbaden: Vieweg+Teubner Verlag, 1998. &amp;lt;br&amp;gt;ISBN 978-3-528-03101-5&lt;br /&gt;
*Schulz, R.-H.: Codierungstheorie. Eine Einführung. 2. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2003. ISBN 978-3-322-80328-3&lt;br /&gt;
*Shannon, C. E.; Weaver, W.: The Mathematical Theory of Communication. Urbana: Univ. of Illinois Press, 1998. ISBN 978-0-25272-548-7&lt;br /&gt;
*Tröndle, K.: Codier-und Decodiermethoden zur Fehlerkorrektur. Habilitationsschrift. München: TU München, 1974&lt;br /&gt;
*Wachter-Zeh, A.: Channel Coding. Vorlesungsmanuskript. Professur für Coding for Communications and Data Storage, TU München, 2017&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[LNTwww:Authors#Kanalcodierung|$\text{Hinweise zu den Autoren und den Materialien, von denen bei der Erstellung des Buches ausgegangen wurde}$.]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding&amp;diff=35688</id>
		<title>Channel Coding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding&amp;diff=35688"/>
		<updated>2021-01-15T17:06:53Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
Channel coding (also known as error-control coding) includes both &lt;br /&gt;
*Error detection procedures &lt;br /&gt;
*and forward error correction (FEC), which often make digital signal transmission possible with a bad channel (low SNR) and lead to very low error rates with a sufficiently good channel (high SNR).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Linear block codes, Reed-Solomon codes and convolutional and turbo codes as well as their (possibly iterative) decoding are described. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The scope of this book corresponds to a course with three semester hours (SWS) of lecture and two SWS of exercises.&lt;br /&gt;
&lt;br /&gt;
First of all, here is an overview of the contents based on the four main chapters with a total of 22 chapters. &lt;br /&gt;
&lt;br /&gt;
===Contents===&lt;br /&gt;
{{Collapsible-Kopf}}&lt;br /&gt;
{{Collapse1| header=Binary Block Codes | submenu= &lt;br /&gt;
*[[/Objective of Channel Coding/]]&lt;br /&gt;
*[[/Channel Models and Decision Maker Structures/]]&lt;br /&gt;
*[[/Binary Block Code Examples/]]&lt;br /&gt;
*[[/General Description of Linear Block Codes/]]&lt;br /&gt;
*[[/Decoding Linear Block Codes/]]&lt;br /&gt;
*[[/Block Error Probability Bounds/]]&lt;br /&gt;
*[[/Information-Theoretic Limits of Channel Coding /]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse2 | header=Reed–Solomon–Codes und deren Decodierung &lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Einige Grundlagen der Algebra/]]&lt;br /&gt;
*[[/Erweiterungskörper/]]&lt;br /&gt;
*[[/Definition und Eigenschaften von Reed–Solomon–Codes/]]&lt;br /&gt;
*[[/Reed–Solomon–Decodierung beim Auslöschungskanal/]]&lt;br /&gt;
*[[/Fehlerkorrektur nach Reed–Solomon–Codierung/]]&lt;br /&gt;
*[[/Fehlerwahrscheinlichkeit und Anwendungsgebiete/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse3 | header=Faltungscodierung und geeignete Decoder&lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Grundlagen der Faltungscodierung/]]&lt;br /&gt;
*[[/Algebraische und polynomische Beschreibung/]]&lt;br /&gt;
*[[/Codebeschreibung mit Zustands– und Trellisdiagramm/]]&lt;br /&gt;
*[[/Decodierung von Faltungscodes/]]&lt;br /&gt;
*[[/Distanzeigenschaften und Fehlerwahrscheinlichkeitsschranken/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapse4 | header=Iterative Decodierverfahren &lt;br /&gt;
|submenu=&lt;br /&gt;
*[[/Soft–in Soft–out Decoder/]]&lt;br /&gt;
*[[/Grundlegendes zu den Produktcodes/]]&lt;br /&gt;
*[[/Grundlegendes zu den Turbocodes/]]&lt;br /&gt;
*[[/Grundlegendes zu den Low–density Parity–check Codes/]]&lt;br /&gt;
}}&lt;br /&gt;
{{Collapsible-Fuß}}&lt;br /&gt;
&lt;br /&gt;
Neben diesen Theorieseiten bieten wir auch Aufgaben und multimediale Module an, die zur Verdeutlichung des Lehrstoffes beitragen könnten:&lt;br /&gt;
*[https://en.lntwww.de/Kategorie:Aufgaben_zu_Kanalcodierung $\text{Aufgaben}$;]&lt;br /&gt;
*[[LNTwww:Lernvideos_zu_Kanalcodierung|$\text{Lernvideos}$;]]&lt;br /&gt;
*[[LNTwww:HTML5-Applets_zu_Kanalcodierung|$\text{neu gestaltete Applets}$]], basierend auf HTML5, auch auf Smartphones lauffähig.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
$\text{Empfohlene Literatur:}$&lt;br /&gt;
&lt;br /&gt;
*Böcherer, G.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl Für Nachrichtentechnkik, TU München, 2015&lt;br /&gt;
*Bossert, M.: Channel Coding for Telecommunications. Chichester: Wiley, 2000. ISBN 978-0-471-98277-7&lt;br /&gt;
*Bossert, M.: Kanalcodierung. Stuttgart: Vieweg+Teubner Verlag, 2014. ISBN 978-3-322-90917-6&lt;br /&gt;
*Cover, T. M.; Thomas, J. A.: Elements of Information Theory. 2. Aufl. Hoboken, N.J: Wiley-Interscience, 2006. ISBN 978-0-47124-195-9&lt;br /&gt;
*Friedrichs, B.: Kanalcodierung. Grundlagen und Anwendungen in modernen Kommunikationssystemen. Berlin u.a.: Springer, 1996. ISBN 3-540-58232-0&lt;br /&gt;
*Gallager, R. G.: Information Theory and Reliable Communication. New York NY u.a.: Wiley, 1968. ISBN 0-471-29048-3&lt;br /&gt;
*Hindelang, T.: Source-Controlled Channel Decoding and Decoding for Mobile Communications. Dissertation. Lehrstuhl für Nachrichtentechnik. &amp;lt;br&amp;gt;München: VDI Fortschritt-Berichte, Reihe 10, Nr. 695, 2002&lt;br /&gt;
*Huber, J.: Codierung für gedächtnisbehaftete Kanäle. Dissertation – Universität der Bundeswehr München, 1982&lt;br /&gt;
*Johannesson, R.; Zigangirov, K. S.: Fundamentals of Convolutional Coding. New York: IEEE Press, 1999. ISBN 978-0-470-27683-9&lt;br /&gt;
*Klimant, H.; Piotraschke, R.; Schönfeld, D.: Informations- und Kodierungstheorie. 2. Aufl. Wiesbaden (u.a.): Vieweg+Teubner Verlag, 2003. ISBN 978-3-51923-003-8&lt;br /&gt;
*Kötter, R.; Mayer, T.; Tüchler, M.; Schreckenbach, F.; Brauchle, J.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl für Nachrichtentechnik, TU München, 2008&lt;br /&gt;
*Liva, G.: Channel Coding. Vorlesungsmanuskript. Lehrstuhl Für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010&lt;br /&gt;
*Ryan, W.; Lin, S.: Channel Codes. Classical and modern. Cambridge: Cambridge University Press, 2009. ISBN 978-0-52184-868-8&lt;br /&gt;
*Schönfeld, D.; Klimant, H.; Piotraschke, R.: Informations- und Kodierungstheorie. 4. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2012. ISBN 978-3-83480-647-5&lt;br /&gt;
*Schneider-Obermann, H.; Mildenberger, O.: Kanalcodierung. Theorie und Praxis fehlerkorrigierender Codes. Wiesbaden: Vieweg+Teubner Verlag, 1998. &amp;lt;br&amp;gt;ISBN 978-3-528-03101-5&lt;br /&gt;
*Schulz, R.-H.: Codierungstheorie. Eine Einführung. 2. Aufl. Wiesbaden: Vieweg+Teubner Verlag, 2003. ISBN 978-3-322-80328-3&lt;br /&gt;
*Shannon, C. E.; Weaver, W.: The Mathematical Theory of Communication. Urbana: Univ. of Illinois Press, 1998. ISBN 978-0-25272-548-7&lt;br /&gt;
*Tröndle, K.: Codier-und Decodiermethoden zur Fehlerkorrektur. Habilitationsschrift. München: TU München, 1974&lt;br /&gt;
*Wachter-Zeh, A.: Channel Coding. Vorlesungsmanuskript. Professur für Coding for Communications and Data Storage, TU München, 2017&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[LNTwww:Authors#Kanalcodierung|$\text{Hinweise zu den Autoren und den Materialien, von denen bei der Erstellung des Buches ausgegangen wurde}$.]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Equivalent_Low-Pass_Signal_and_its_Spectral_Function&amp;diff=35595</id>
		<title>Signal Representation/Equivalent Low-Pass Signal and its Spectral Function</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Equivalent_Low-Pass_Signal_and_its_Spectral_Function&amp;diff=35595"/>
		<updated>2021-01-04T14:24:09Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Bandpass Signals&lt;br /&gt;
|Vorherige Seite=Analytical Signal and Its Spectral Function&lt;br /&gt;
|Nächste Seite=Time Discrete Signal Representation&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Motivation for Describing in the Equivalent Low Pass Range==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The following figure shows a possible structure of a message transmission system:&lt;br /&gt;
*Often the low frequency source signal&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; is converted into a bandpass signal&amp;amp;nbsp; $s(t)$&amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''modulation''. &lt;br /&gt;
*After transmission, the received signal&amp;amp;nbsp; $r(t)$&amp;amp;nbsp; - compared to the transmit signal&amp;amp;nbsp; $s(t)$&amp;amp;nbsp; possibly distorted and with (noise) interference applied - must be reset to the original frequency range &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''Demodulation''. &lt;br /&gt;
*The sink signal&amp;amp;nbsp; $v(t)$, which should match the source signal&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; as closely as possible, is then again a low-pass signal.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_4_3_S1.png|center|frame|Block Diagram of a Bandpass Transmission System]]&lt;br /&gt;
&lt;br /&gt;
Modulation and demodulation are therefore fundamental components of a transmission system, which are dealt with in detail in the book&amp;amp;nbsp; [[Modulation_Methods]]&amp;amp;nbsp;. A short summary can be found in the first chapter&amp;amp;nbsp; &amp;amp;nbsp; [[Signal_Representation/Principles_of_Communication|Principles of Message Transmission]]&amp;amp;nbsp; of this book.&lt;br /&gt;
&lt;br /&gt;
The investigation, simulation, optimization, and dimensioning of bandpass systems are mostly done in the&amp;amp;nbsp; '''equivalent low-pass range'', for which the following reasons can be given&lt;br /&gt;
*If quality characteristics (bandwidth efficiency, signal-to-noise ratio, bit error rate, power requirements, etc.) of a low-pass system are known, the corresponding values of related bandpass systems can be derived from them relatively easily. Examples are the digital modulation methods&amp;amp;nbsp; [[Modulation_Methods/Lineare_digitale_Modulationsverfahren#ASK_.E2.80.93_Amplitude_Shift_Keying|Amplitude Shift Keying]]&amp;amp;nbsp; (ASK) and&amp;amp;nbsp; [[Modulation_Methods/Lineare_digitale_Modulationsverfahren#BPSK_.E2.80.93_Binary_Phase_Shift_Keying|Binary Phase Shift Keying]]&amp;amp;nbsp; (BPSK), whose performance variables can be &amp;quot;extrapolated&amp;quot; from the comparable&amp;amp;nbsp; [[Digital_Signal_Transmission/Systemkomponenten_eines_Basisbandübertragungssystems#Vereinfachtes_Systemmodell|baseband system]]&amp;amp;nbsp; (i.e., without modulator and demodulator).&lt;br /&gt;
&lt;br /&gt;
*Individual subchannels in a so-called [[Modulation_Methods/Zielsetzung_von_Modulation_und_Demodulation#B.C3.BCndelung_von_Kan.C3.A4len_.E2.80.93_Frequenzmultiplex|frequency division multiplex system]], which differ by different carrier frequencies, can often be considered qualitatively equivalent. Therefore, it is sufficient to limit the calculation and dimensioning to a single channel and to perform these investigations in the equivalent low-pass range - i.e. without considering the specific carrier frequency.&lt;br /&gt;
&lt;br /&gt;
*t is often the case that the bandwidth of a communication connection is orders of magnitude smaller than the carrier frequency. For example, in the&amp;amp;nbsp; [[Examples_of_Communication_Systems/Allgemeine_Beschreibung_von_GSM|GSM standard]]&amp;amp;nbsp the individual channels are located in the frequency range around&amp;amp;nbsp; $900\ \rm MHz$&amp;amp;nbsp; (&amp;amp;bdquo;D-Network&amp;amp;rdquo;) and &amp;amp;nbsp; $1800\ \rm MHz$&amp;amp;nbsp; (&amp;amp;bdquo;E-Network&amp;amp;rdquo;), while each channel has only a small bandwidth of&amp;amp;nbsp; $200\ \rm kHz$&amp;amp;nbsp; available. Therefore a simulation in the equivalent low-pass range is much less complex than a simulation of the corresponding bandpass signals.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Definition in the Frequency Domain==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
We consider a real bandpass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; with the spectrum&amp;amp;nbsp; $X(f)$. Furthermore we want to apply:&lt;br /&gt;
*The bandpass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; is said to result from the modulation of a low-frequency message signal&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; with the carrier signal&amp;amp;nbsp; $z(t)$&amp;amp;nbsp; the frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp;. The type of modulation (whether analog or digital, amplitudes&amp;amp;ndash; or angle modulation, single sideband or double sideband) is not specified.&lt;br /&gt;
*The spectral function&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; of the corresponding analytical signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; exists only for positive frequencies and is twice as large as&amp;amp;nbsp; $X(f)$. For the derivation of&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; the carrier frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; of the system does not need be known.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;&lt;br /&gt;
If the spectrum of the analytical signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; is shifted to the left for &amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; , the result is called the&amp;amp;nbsp; '''Spectrum of the Equivalent Low-Pass Signal''':&lt;br /&gt;
 &lt;br /&gt;
:$$X_{\rm TP}(f)  = X_{\rm +}(f + f_{\rm T}).$$&lt;br /&gt;
&lt;br /&gt;
In general&amp;amp;nbsp; $X(f)$,&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; and&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; are complex-valued. However, if&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; is purely real, then the spectral functions&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; and&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; are also purely real, because they result from&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; only from the operations &amp;quot;Cut and Double&amp;quot; or &amp;quot;Frequency Shift&amp;quot; respectively.}}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
For the calculation of the equivalent low-pass spectrum&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; - in contrast to&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; - the knowledge of the carrier frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; is absolutely necessary. For other values of&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; other low-pass spectra will also result.&lt;br /&gt;
&lt;br /&gt;
If one transforms the above equation into the time domain, one obtains after applying the&amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_Laws#Verschiebungssatz|shifting theorem]]:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm TP}(t) = x_{\rm +}(t)\cdot {\rm e}^{-{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm}2 \pi \cdot f_{\rm T}\cdot \hspace{0.05cm}t}.$$&lt;br /&gt;
&lt;br /&gt;
The relation&amp;amp;nbsp; $x(t) = \text{Re}\big[x_+(t)\big]$&amp;amp;nbsp; yields the procedure to determine the actual physical bandpass signal from the equivalent lowpass signal:&lt;br /&gt;
 &lt;br /&gt;
:$$x(t) = {\rm Re}[x_{\rm +}(t)] = {\rm Re}\big[x_{\rm TP}(t)\cdot {\rm e}^{\hspace{0.05cm}{\rm j} \hspace{0.05cm} \cdot 2\pi \hspace{0.05cm}\cdot\hspace{0.05cm} f_{\rm T}\hspace{0.05cm} \cdot \hspace{0.05cm} \hspace{0.05cm}t}\big].$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp;&lt;br /&gt;
The upper figure shows the purely real spectral function&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; of a bandpass signal&amp;amp;nbsp; $x(t)$ which is the result of modulating a low frequency signal&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; with the carrier frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp;.&lt;br /&gt;
[[File:P_ID749__Sig_T_4_3_S2_neu.png|right|frame|Construction of The Equivalent Low Pass Signals &amp;lt;br&amp;gt;in The Frequeny Domain]]&lt;br /&gt;
&lt;br /&gt;
Below that, the two likewise real spectral functions&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; and&amp;amp;nbsp; $X_{\rm TP}(f)$ are shown. Due to the asymmetries concerning the frequency origin&amp;amp;nbsp; $(f = 0)$&amp;amp;nbsp; the corresponding time functions are complex.&lt;br /&gt;
*The continuous green spectral function&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; is shifted to the left with respect to&amp;amp;nbsp; $X_{+}(f)$&amp;amp;nbsp; by the&amp;amp;nbsp; carrier frequency $f_{\rm T}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*If the spectrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; is the modulation result of another message signal&amp;amp;nbsp; $q\hspace{0.05cm}'(t)$&amp;amp;nbsp; with a different carrier frequency&amp;amp;nbsp; ${f_{\rm T} }\hspace{0.05cm}'$, this would also result in another equivalent TP signal&amp;amp;nbsp; ${X_{\rm TP} }\hspace{0.05cm}'(f)$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*An exemplary spectral function&amp;amp;nbsp; ${X_{\rm TP} }\hspace{0.05cm}'(f)$&amp;amp;nbsp; is drawn in the graphic with green-dashed lines.}}&lt;br /&gt;
&lt;br /&gt;
==Description in The Time Domain==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
To simplify the representation we now assume a line spectrum, so that the analytical signal can be represented as&amp;amp;nbsp; '''pointer compound'' &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; sum of complex rotating pointers:&lt;br /&gt;
 &lt;br /&gt;
:$$X_{+}(f) = \sum_{i=1}^{I} {A_i} \cdot {\rm e}^{-{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
\varphi_i}\cdot\delta (f - f_i)  \hspace{0.3cm}\bullet\!\!-\!\!\!-\!\!\!-\!\!\circ\, \hspace{0.3cm}&lt;br /&gt;
x_{+}(t) = \sum_{i=1}^{I} A_i \cdot {\rm e}^{{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}( 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm}f_i\hspace{0.05cm}\cdot \hspace{0.05cm} t&lt;br /&gt;
\hspace{0.05cm}-\hspace{0.05cm} \varphi_i)}.$$&lt;br /&gt;
&lt;br /&gt;
By shifting the frequency by&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; to the left the equivalent low-pass signal in frequency and time domain is thus:&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
:$$X_{\rm TP}(f) = \sum_{i=1}^{I} {A_i} \cdot {\rm e}^{-{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
\varphi_i}\cdot\delta (f - \nu_i)\hspace{0.3cm}\bullet\!\!-\!\!\!-\!\!\!-\!\!\circ\, \hspace{0.3cm} x_{\rm TP}(t) = \sum_{i=1}^{I} A_i \cdot {\rm e}^{{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}( 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
\nu_i \hspace{0.05cm}\cdot \hspace{0.05cm} t \hspace{0.05cm}-\hspace{0.05cm} \varphi_i)}.$$&lt;br /&gt;
&lt;br /&gt;
The following relation &amp;amp;nbsp; is valid between the frequency values &amp;amp;nbsp; $f_i$&amp;amp;nbsp; and&amp;amp;nbsp; $\nu_i$&amp;amp;nbsp;  $(i = 1, \ \text{...} \ , I)$:&lt;br /&gt;
 &lt;br /&gt;
:$$\nu_i =  f_i - f_{\rm T}  .$$&lt;br /&gt;
&lt;br /&gt;
These equations can be interpreted as follows:&lt;br /&gt;
*At time&amp;amp;nbsp; $t = 0$&amp;amp;nbsp; the equivalent low-pass signal is identical to the analytical signal:&lt;br /&gt;
:$$x_{\rm TP}(t = 0) = x_{\rm +}(t = 0)= \sum_{i=1}^{I} A_i \cdot {\rm e}^{{-\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm} \varphi_i}.$$&lt;br /&gt;
*At this point in time, the pointer group is thus defined by the&amp;amp;nbsp; $I$&amp;amp;nbsp; amplitude parameter&amp;amp;nbsp; $A_i$&amp;amp;nbsp; and the&amp;amp;nbsp; $I$&amp;amp;nbsp; phase positions&amp;amp;nbsp; $\varphi_i$&amp;amp;nbsp; alone.&lt;br /&gt;
*All pointers of the analytical signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; rotate for&amp;amp;nbsp; $t &amp;gt; 0$&amp;amp;nbsp; corresponding to the (always positive) frequencies&amp;amp;nbsp; $f_i$&amp;amp;nbsp; counterclockwise.&lt;br /&gt;
*For the equivalent low-pass signal, the rotation speeds are lower. Hands with&amp;amp;nbsp; $\nu_i &amp;gt; 0$&amp;amp;nbsp; turn in mathematically positive direction (counterclockwise), those with&amp;amp;nbsp; $\nu_i &amp;lt; 0$&amp;amp;nbsp; in counterclockwise direction (clockwise).&lt;br /&gt;
*If the frequency parameter is &amp;amp;nbsp; $\nu_i = 0$ for a pointer, this pointer rests in the complex plane corresponding to its initial position.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 2:}$&amp;amp;nbsp;&lt;br /&gt;
We consider a spectrum consisting of three spectral lines at&amp;amp;nbsp; $40\,\text{kHz}$,&amp;amp;nbsp; $50\,\text{kHz}$&amp;amp;nbsp; and $60\,\text{kHz}$&amp;amp;nbsp; consisting of spectrum&amp;amp;nbsp; $X_+(f)$. With the amplitude and phase parameters recognizable from the graphic you obtain the analytical signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; corresponding to the lower left sketch.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID739__Sig_T_4_3_S3neu.png|center|frame|Construction of The Equivalent Low Pass Signals in The Time Domain]]&lt;br /&gt;
&lt;br /&gt;
The snapshot of the lower left graph &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''analytical signal''' &amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; applies to the time&amp;amp;nbsp; $t = 0$. All hands then turn counterclockwise at a constant angular velocity.&lt;br /&gt;
*The blue pointer rotates with&amp;amp;nbsp; $60000$&amp;amp;nbsp; rotations per second are fastest and the green pointer rotates with the angular frequency&amp;amp;nbsp; $\omega_{40} = 2\pi \cdot 40000 \hspace{0.1cm} 1/\text{s}$&amp;amp;nbsp; is the slowest.&lt;br /&gt;
*The violet sum point of all three pointers moves for&amp;amp;nbsp; $t &amp;gt; 0$&amp;amp;nbsp; in the complex plane in a complicated manner, for the above numerical values first roughly in the direction drawn.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The graphics on the right describe the&amp;amp;nbsp; '''equivalent low-pass signal'''&amp;amp;nbsp; in the frequency domain (top) and in the time domain (bottom), valid for&amp;amp;nbsp; $f_{\rm T} = 50\,\text{kHz}$.&lt;br /&gt;
*The carrier is now at&amp;amp;nbsp; $f = 0$&amp;amp;nbsp; and the corresponding red rotating pointer does not move.&lt;br /&gt;
*The blue pointer (OSB) rotates here with&amp;amp;nbsp; $\omega_{10} = 2\pi \cdot 10000 \hspace{0.1cm}1/\text{s}$&amp;amp;nbsp; counterclockwise.&lt;br /&gt;
*The green pointer (USB) rotates counterclockwise at the same speed&amp;amp;nbsp; ($-\omega_{10}$).}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Definition of The Locus Curve==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;&lt;br /&gt;
As &amp;amp;nbsp; '''locus curve'''&amp;amp;nbsp; we call the curve on which the&amp;amp;nbsp; '''equivalent low-pass signal'''&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; moves in the&amp;amp;nbsp; ''' complex plane'''&amp;amp;nbsp; }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Notes:'' &amp;amp;nbsp;  In other technical literature this term is rarely used. Therefore, initially, an example is shown.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID744__Sig_T_4_3_S4_neu.png|right|frame|Definition of The Locus Curve]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 3:}$&amp;amp;nbsp;&lt;br /&gt;
We consider the equivalent low-pass signal&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; of&amp;amp;nbsp;  [[Signal_Representation/Equivalent_Low_Pass_Signal_and_Its_Spectral_Function#Beschreibung_im_Zeitbereich|$\text{Example 2}$]], &lt;br /&gt;
consisting of&lt;br /&gt;
*the resting pointer of length&amp;amp;nbsp; $3$&amp;amp;nbsp; (red)&lt;br /&gt;
*the pointer with&amp;amp;nbsp; $\omega_{10} = 2\pi \cdot 10000 \hspace{0.1cm} 1/\text{s}$&amp;amp;nbsp; in mathematical positive direction rotating blue pointer with the complex amplitude&amp;amp;nbsp; '''j''',&lt;br /&gt;
*the green pointer of length&amp;amp;nbsp; $2$, which is currently&amp;amp;nbsp; $t = 0$&amp;amp;nbsp; in the direction of the negative imaginary axis. This rotates with the same angular velocity&amp;amp;nbsp; $\omega_{10}$&amp;amp;nbsp; as the blue pointer, but in the opposite direction&amp;amp;nbsp; ($-\omega_{10}$).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The blue and the green pointer each require exactly one period duration&amp;amp;nbsp; $T_0 = 100 \,{\rm &amp;amp;micro;}\text{s}$ for one rotation. The further course of the process can be seen in the above illustration:&lt;br /&gt;
*The violet pointer sum is at time&amp;amp;nbsp; $t = 0$&amp;amp;nbsp; equals&amp;amp;nbsp; $3 - \text{j}$.&lt;br /&gt;
*After&amp;amp;nbsp; $t = T_0/4 = 25 \,{\rm &amp;amp;micro;}\text{s}$&amp;amp;nbsp; the resulting pointer group has the value &amp;amp;bdquo;Null&amp;amp;rdquo;, since now the two rotating pointers lie in the opposite direction to the carrier and compensate it exactly.&lt;br /&gt;
*After a period&amp;amp;nbsp; $(t = T_0 = 100 \,{\rm &amp;amp;micro;}\text{s})$&amp;amp;nbsp; the initial state is reached again: &amp;amp;nbsp; $x_{\rm TP}(t = T_0) = x_{\rm TP}(t=0) = 3 - \text{j}$.}}&lt;br /&gt;
&lt;br /&gt;
exactly.&lt;br /&gt;
*After a period&amp;amp;nbsp; $(t = T_0 = 100 \,{\rm &amp;amp;micro;}\text{s})$&amp;amp;nbsp; the initial state is reached again: &amp;amp;nbsp; $x_{\rm TP}(t = T_0) = x_{\rm TP}(t=0) = 3 - \text{j}$.}}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
In this example the locus curve is an ellipse, which is traversed by the equivalent low-pass signal once per period. &lt;br /&gt;
*The representation applies to the&amp;amp;nbsp; [[Modulation_Methods/Double Sideband Amplitude Modulation#ZSB-Amplitude Modulation_with_Tr.C3.A4ger|Double Sideband Amplitude Modulation with Carrier]]&amp;amp;nbsp; of a sinusoidal&amp;amp;nbsp; $10\ \rm kHz$ signal with a cosinusoidal carrier of any frequency, where the upper sideband (blue pointer) is attenuated.&lt;br /&gt;
*If the lengths of the blue and the green rotating pointer were equal, the locus curve would be a horizontal one on the real axis - see&amp;amp;nbsp; [[Tasks:Task_4.5:_Locus Curve_at_ZSB-AM|Task 4.5]]. &lt;br /&gt;
*In the book&amp;amp;nbsp; [[Modulation_Methods/Evelope Demodulation|Modulation Methods]]&amp;amp;nbsp; the locus curves of different system variants are treated in detail.&lt;br /&gt;
&lt;br /&gt;
In this example the locus curve is an ellipse, which is traversed by the equivalent low-pass signal once per period. &lt;br /&gt;
*The representation applies to the&amp;amp;nbsp;[[Modulation_Methods/Zweiseitenband-Amplitudenmodulation#ZSB-Amplitudenmodulation_mit_Tr.C3.A4ger|Double-Sideband–Amplitude Modulation with Carrier]]&amp;amp;nbsp; of a sinusoidal&amp;amp;nbsp; $10\ \rm kHz$ signal with a cosinusoidal carrier of any frequency, where the upper sideband (blue pointer) is attenuated.&lt;br /&gt;
*If the lengths of the blue and the green rotating pointer were equal, the locus curve would be a horizontal one on the real axis - see&amp;amp;nbsp; [[Aufgaben:Aufgabe_4.5:_Ortskurve_bei_ZSB-AM|Task 4.5]]. &lt;br /&gt;
*In the book&amp;amp;nbsp; [[Modulation_Methods/Hüllkurvendemodulation|Modulation Methods]]&amp;amp;nbsp;,the locus curves of different system variants are treated in detail.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Representing with Magnitude and Phase==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The equivalent low-pass signal of the band-pass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; is generally complex and can therefore be expressed in the form &lt;br /&gt;
:$$x_{\rm TP}(t) = a(t) \cdot {\rm e}^{{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
\phi(t)}$$.&lt;br /&gt;
&lt;br /&gt;
Note the plus sign in the argument of the exponential function, which differs from the&amp;amp;nbsp; &amp;amp;nbsp; [[Signal_Representation/Fourier_Series#Komplexe_Fourierreihe|Complex Fourier Series]]&amp;amp;nbsp;. This is because the equation with the positive sign for the phase is usually used to describe the modulation method for the physical signal as well:&lt;br /&gt;
 &lt;br /&gt;
:$$x(t) =  a(t) \cdot  {\cos} ( 2 \pi f_{\rm T} t + \phi(t)).$$&lt;br /&gt;
&lt;br /&gt;
In many textbooks this equation is used with plus or minus signs depending on the application, but always with the same &amp;amp;bdquo;phase identifier&amp;amp;rdquo;. By using two different symbols&amp;amp;nbsp; $(\varphi$&amp;amp;nbsp; and&amp;amp;nbsp; $\phi)$&amp;amp;nbsp; we try to avoid this ambiguity in our learning tutorial&amp;amp;nbsp; $\rm LNTww$.&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 4:}$&amp;amp;nbsp;The same prerequisites apply as in the&amp;amp;nbsp; [[Signal_Representation/Equivalent_Low_Pass_Signal_and_Its_Spectral_Function#Beschreibung_im_Zeitbereich|$\text{second example }$]]&amp;amp;nbsp; and in the&amp;amp;nbsp; &lt;br /&gt;
[[Signal_Representation/Equivalent_Low_Pass_Signal_and_Its_Spectral_Function#Definition_der_Ortskurve|$\text{third one}$]]. InHowever, instead of the complex function&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; the two real functions&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; are now displayed in the graphic.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID748__Sig_T_4_3_S5.png|center|frame|Magnitude and Phase of The Equivalent Lowpass-Signal]]&lt;br /&gt;
&lt;br /&gt;
It should be noted that this is a representation:&lt;br /&gt;
*The&amp;amp;nbsp; '''Magnitude function'''&amp;amp;nbsp; shows the time dependence of the pointer length:&lt;br /&gt;
 &lt;br /&gt;
:$$a(t)= \vert x_{\rm TP}(t)\vert =\sqrt{ {\rm Re}\left[x_{\rm TP}(t)\right]^2 +&lt;br /&gt;
{\rm Im}\left[x_{\rm TP}(t)\right]^2 }.$$&lt;br /&gt;
&lt;br /&gt;
:The magnitude function&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; is in this example like the complex equivalent low-pass signal&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; periodic with&amp;amp;nbsp; $T_0$&amp;amp;nbsp; and takes values between&amp;amp;nbsp; $0$&amp;amp;nbsp; and&amp;amp;nbsp; $6$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
*The&amp;amp;nbsp; '''phase function''' &amp;amp;nbsp; describes the time-dependent angle of the equivalent low-pass signal&amp;amp;nbsp; $x_{\rm TP}(t)$, related to the coordinate origin:&lt;br /&gt;
 &lt;br /&gt;
:$$\phi(t)= {\rm arc} \left[x_{\rm TP}(t)\right]= {\rm arctan}&lt;br /&gt;
\hspace{0.1cm}\frac{ {\rm Im}\left[x_{\rm TP}(t)\right]}{ {\rm&lt;br /&gt;
Re}\left[x_{\rm TP}(t)\right]}.$$&lt;br /&gt;
&lt;br /&gt;
Hier noch einige numerische Ergebnisse für die Phasenwerte:&lt;br /&gt;
Here are some numerical results for the phase values:&lt;br /&gt;
*The phase at start time is&amp;amp;nbsp; $\phi (t = 0) =\hspace{0.1cm} -\arctan (1/3) ≈ \hspace{0.1cm} -18.43^{\circ} = \hspace{0.1cm}-0.32\,\text{rad}$.&lt;br /&gt;
*At&amp;amp;nbsp; $t = 25\,{\rm &amp;amp;micro;}\text{s}$&amp;amp;nbsp; as well as at all equidistant times thereof in the distance&amp;amp;nbsp; $T_0 = 100 \,{\rm &amp;amp;micro;}\text{s}$&amp;amp;nbsp; is&amp;amp;nbsp; $x_{\rm TP}(t) = 0$ so that at these times the phase&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; changes abruptly from&amp;amp;nbsp; $-\pi /2$&amp;amp;nbsp; to&amp;amp;nbsp; $+\pi /2$&amp;amp;nbsp;.&lt;br /&gt;
*At the time&amp;amp;nbsp; $t = 60\,{\rm &amp;amp;micro;}\text{s}$&amp;amp;nbsp; the phase has a slightly positive value.&lt;br /&gt;
&amp;lt;br&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Relation Between Equivalent LP-Signal and BP-Signal==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
A bandpass signal&amp;amp;nbsp; $x(t)$ resulting from the modulation of a low-frequency message signal&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; with a carrier signal&amp;amp;nbsp; $z(t)$&amp;amp;nbsp; of frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; can be represented as follows:&lt;br /&gt;
&lt;br /&gt;
:$$x(t) = a(t) \cdot  {\cos} ( 2 \pi f_{\rm T} t + \phi(t))&lt;br /&gt;
\hspace{0.3cm}\Rightarrow\hspace{0.3cm}&lt;br /&gt;
x_{\rm TP}(t) = a(t) \cdot {\rm e}^{{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
\phi(t)}.$$&lt;br /&gt;
&lt;br /&gt;
It should be noted here:&lt;br /&gt;
* $a(t)$&amp;amp;nbsp; is the&amp;amp;nbsp; ''time-dependent amplitude'', which is often also called&amp;amp;nbsp; '''envelope'''&amp;amp;nbsp;. This is equal to the magnitude &amp;amp;nbsp; $|x_{\rm TP}(t)|$&amp;amp;nbsp; of the equivalent low-pass signal.&lt;br /&gt;
* $\phi(t)$&amp;amp;nbsp; is the&amp;amp;nbsp; '''phase function'', i.e., the&amp;amp;nbsp; ''time-dependent phase'', which can also be determined from the equivalent low-pass signal as the angle to the coordinate origin of the complex plane.&lt;br /&gt;
*In the physical signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp;, the phase&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; can be recognized by the&amp;amp;nbsp; '''zero crossings''. With&amp;amp;nbsp; $\phi(t) &amp;gt; 0$&amp;amp;nbsp; the zero crossing occurs in&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; in the range of time&amp;amp;nbsp; $t$&amp;amp;nbsp; earlier than with the carrier signal&amp;amp;nbsp; $z(t)$. In contrast,&amp;amp;nbsp; $\phi(t) &amp;lt; 0$&amp;amp;nbsp; means a shift of the zero crossing to a later time.&lt;br /&gt;
*One speaks of&amp;amp;nbsp; '''amplitude modulation'' if all information about the message signal is contained in the envelope&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; while&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; is constant. &lt;br /&gt;
*Conversely, with&amp;amp;nbsp; '''Phase modulation'''&amp;amp;nbsp; the phase function&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; contains all information about the message signal, while&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; is constant.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 5:}$&amp;amp;nbsp;&lt;br /&gt;
The upper part of the following figure describes the&amp;amp;nbsp;  [[Modulation_Methods/Zweiseitenband-Amplitudenmodulation#ZSB-Amplitudenmodulation_mit_Tr.C3.A4ger|Double Sideband Amplitude Modulation (DSB-AM) With Carrier]]:&lt;br /&gt;
*The equivalent TP signal&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; is here always real &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; the locus curve is a horizontal straight line.&lt;br /&gt;
*Therefore the zero crossings of the blue DSB-AM signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; correspond exactly to those of the red carrier signal&amp;amp;nbsp; $z(t)$&amp;amp;nbsp;. &lt;br /&gt;
*This means: &amp;amp;nbsp; the phase function&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; is identical to zero &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; the envelope&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; contains all information about the message signal.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_4_3_S6.png|center|frame|$x_{\rm TP}(t)$ For Double-Sideband Amplitude Modulation and Phase Modulation]]&lt;br /&gt;
&lt;br /&gt;
However, the lower part of the graphic applies to the&amp;amp;nbsp; [[Modulation_Methods/Phasenmodulation_(PM)|Phase Modulation (PM)]]: &lt;br /&gt;
*The PM signal&amp;amp;nbsp; $y(t)$&amp;amp;nbsp; always has a constant envelope &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; the locus curve is an arc. &lt;br /&gt;
*The phase value here is initially smaller than zero &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; the&amp;amp;nbsp; $y(t)$&amp;amp;ndash;zero crossings occur later than those of the carrier&amp;amp;nbsp; $z(t)$&amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; the zero crossings are &amp;quot;trailing&amp;quot;. &lt;br /&gt;
*For positive values of the message signal also&amp;amp;nbsp; $\phi (t) &amp;gt; 0$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; the zero crossings occur earlier than those of the carrier signal &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; they are &amp;quot;leading&amp;quot;. &lt;br /&gt;
*With phase modulation, therefore, all information about the message signal&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; is contained in the positions of the zero crossings.}}&lt;br /&gt;
&lt;br /&gt;
==Why Multiple Representations of The Same Signal Exist ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Finally, and hopefully not too late, we want to turn to the question why the two complex and less comprehensible signals&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; are actually necessary to describe the actual bandpass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp;. They were not introduced in communications engineering in order to unsettle students, but:&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp;&lt;br /&gt;
*The envelope curve&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; and the phase function&amp;amp;nbsp; $\phi (t)$&amp;amp;nbsp; can be extracted directly and easily from the actual, physical BP signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; only in some special cases&lt;br /&gt;
*The real non existing equivalent low-pass signal&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; is a mathematical tool to determine the time histories&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $\phi (t)$&amp;amp;nbsp; by simple geometrical considerations. We will come back to this later in the book&amp;amp;nbsp;  [[Modulation_Methods]]&amp;amp;nbsp;.&lt;br /&gt;
*The analytical signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; is an intermediate step in the transition from&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; to&amp;amp;nbsp; $x_{\rm TP}(t)$. While&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; is always complex,&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; can be real in special cases, for example, with ideal amplitude modulation according to the chapter&amp;amp;nbsp;  [[Modulation_Methods/Zweiseitenband-Amplitudenmodulation|Double-Sideband Amplitude Modulation]]&amp;amp;nbsp; (DSB-AM).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The same principle applies as often used in the natural sciences and technology: &lt;br /&gt;
&lt;br /&gt;
*The introduction of&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; brings rather a complication for simple problems. &lt;br /&gt;
*The advantages of this approach can only be seen in more difficult problems, which could not be solved with the physical bandpass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; alone or only with much more effort.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
For further clarification we provide two interactive applets:&lt;br /&gt;
  &lt;br /&gt;
*[[Applets:Physikalisches_Signal_%26_Analytisches_Signal|Physical &amp;amp; Analytical Signal]] &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; &amp;amp;bdquo;Vector Diagram&amp;amp;rdquo;,&lt;br /&gt;
*[[Applets:Physikalisches_Signal_%26_Äquivalentes_TP-Signal|Physical &amp;amp; Equivalent TP-Signal]] &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; &amp;amp;bdquo;Loot Curve&amp;amp;rdquo;. &lt;br /&gt;
&lt;br /&gt;
==Representation According to Real and Imaginary Part==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Especially for the description of&amp;amp;nbsp; [[Modulation_Methods/Quadratur–Amplitudenmodulation|Quadrature Amplitude Modulation]]&amp;amp;nbsp; (QAM), the representation of the equivalent low-pass signal according to real and imaginary part is suitable:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm TP}(t) = x_{\rm I}(t)+ {\rm j} \cdot x_{\rm Q}(t).$$&lt;br /&gt;
&lt;br /&gt;
In this representation, &lt;br /&gt;
*the real part&amp;amp;nbsp; $x_{\rm I}(t)$&amp;amp;nbsp; describes the&amp;amp;nbsp; '''in-phase component'''&amp;amp;nbsp; (normal component), whereas&lt;br /&gt;
*the imaginary part&amp;amp;nbsp; $x_{\rm Q}(t)$&amp;amp;nbsp; describes the&amp;amp;nbsp; '''quadrature component'' &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
of &amp;amp;nbsp; $x_{\rm TP}(t)$. With the absolute value function&amp;amp;nbsp; $a(t) = |x_{\rm TP}(t)|$&amp;amp;nbsp; and the&amp;amp;nbsp; phase function&amp;amp;nbsp; $\phi (t) = \text{arc}\,x_{\rm TP}(t)$&amp;amp;nbsp; according to the definitions on the previous pages:&lt;br /&gt;
&lt;br /&gt;
:$$\begin{align*}x_{\rm I}(t) &amp;amp; =  {\rm Re}[x_{\rm TP}(t)] = a(t) \cdot \cos&lt;br /&gt;
 (\phi(t)),\\&lt;br /&gt;
 x_{\rm Q}(t) &amp;amp; =  {\rm Im}[x_{\rm TP}(t)] = a(t) \cdot \sin&lt;br /&gt;
 (\phi(t)).\end{align*}$$&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1150__Sig_T_4_3_S7a_neu.png|right|frame|Real And Imaginary Part of The Equivalent Lowpass-Signal]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 6:}$&amp;amp;nbsp; At the considered time&amp;amp;nbsp; $t_0$&amp;amp;nbsp; applies to the equivalent low-pass signal:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm TP}(t = t_0) = 2\,{\rm V} \cdot {\rm e}^{- {\rm j \hspace{0.05cm}\cdot \hspace{0.05cm} 60&lt;br /&gt;
 ^\circ} }.$$&lt;br /&gt;
&lt;br /&gt;
With the&amp;amp;nbsp;  [[Signal_Representation/Calculating_With_Complex_Numbers#Darstellung_nach_Betrag_und_Phase|Euler's Theorem]]&amp;amp;nbsp;, it can be written like this:&lt;br /&gt;
&lt;br /&gt;
:$$x_{\rm TP}(t = t_0) =  2\,{\rm V} \cdot \cos(60 ^\circ) - {\rm j} \cdot 2\,{\rm V} \cdot \sin(60&lt;br /&gt;
 ^\circ).$$&lt;br /&gt;
&lt;br /&gt;
This applies to the in-phase and quadrature component: &lt;br /&gt;
&lt;br /&gt;
:$$x_{\rm I}(t = t_0) = 2\,{\rm V} \cdot \cos(60 ^\circ) = 1\text{V}, $$&lt;br /&gt;
:$$x_{\rm Q}(t = t_0) = \hspace{0.05cm} - {\rm j} \cdot 2\,{\rm V} \cdot \sin(60^\circ) =\hspace{0.05cm}-1.733\text{V}.$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
By applying trigonometric transformations it can be shown that the real, physical bandpass signal can also be represented in the following way:&lt;br /&gt;
 &lt;br /&gt;
:$$x(t)  =  a(t) \cdot \cos  (2 \pi \cdot f_{\rm T} \cdot t + \phi(t)) =  x_{\rm I}(t)\cdot \cos  (2 \pi \cdot f_{\rm T} \cdot t )-x_{\rm Q}(t)\cdot \sin  (2 \pi \cdot f_{\rm T} \cdot t ). $$&lt;br /&gt;
&lt;br /&gt;
The minus sign results from the use of the phase function&amp;amp;nbsp; $\phi (t)$. A comparison with the page&amp;amp;nbsp; [[ Signal_Representation/Harmonic_Oscillation#Darstellung_mit_Cosinus-_und_Sinusanteil|Representation With Cosine- and Sine Component]]&amp;amp;nbsp; in the second main chapter shows that instead of the difference, the sum results when referring to&amp;amp;nbsp; $\varphi (t) = -\phi (t)$&amp;amp;nbsp;. Adapted to our example, you then get&lt;br /&gt;
 &lt;br /&gt;
:$$x(t)  =  a(t) \cdot \cos  (2 \pi \cdot f_{\rm T} \cdot t - \varphi(t)) =  x_{\rm I}(t)\cdot \cos  (2 \pi \cdot f_{\rm T} \cdot t )+x_{\rm Q}(t)\cdot \sin  (2 \pi \cdot f_{\rm T} \cdot t ).$$&lt;br /&gt;
&lt;br /&gt;
The quadrature component&amp;amp;nbsp; $x_{\rm Q}(t)$&amp;amp;nbsp; thus differs from the above equation in the sign.&lt;br /&gt;
&lt;br /&gt;
==Determination of the equivalent TP signal from the BP signal==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The following figure shows two arrangements to determine the complex low-pass signal split into inphase and quadrature components from the real bandpass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; for display on an oscilloscope, for example Let us first look at the upper model: &lt;br /&gt;
&lt;br /&gt;
*The analytical signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; is first generated here by adding the&amp;amp;nbsp; [[Signal_Representation/Analytical_Signal_and_Its_Spectral_Function#Darstellung_mit_der_Hilberttransformation|Hilbert Transformed]]&amp;amp;nbsp;. &lt;br /&gt;
*Multiplication with the complex exponential function (with negative exponent!) yields the equivalent low-pass signal&amp;amp;nbsp; $x_{\rm TP}(t)$. &lt;br /&gt;
*The sought components&amp;amp;nbsp; $x_{\rm I}(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $x_{\rm Q}(t)$&amp;amp;nbsp; are then obtained by forming real or imaginary parts.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1151__Sig_T_4_3_S7b_neu.png|center|frame|Division of the Equivalent Low-Pass Signal Into In-phase and Quadrature Components]]&lt;br /&gt;
&lt;br /&gt;
With the lower (more practical) arrangement, you get for the upper or lower branch after the respective multiplications:&lt;br /&gt;
 &lt;br /&gt;
:$$a(t)\cdot \cos  (\omega_{\rm T} \cdot t + \phi(t)) \cdot 2 \cdot \cos  (\omega_{\rm T} \cdot t ) = a(t)\cdot \cos  ( \phi(t)) +  \varepsilon_{\rm oben}(t),$$&lt;br /&gt;
:$$a(t)\cdot \cos  (\omega_{\rm T} \cdot t + \phi(t)) \cdot (-2) \cdot \sin  (\omega_{\rm T} \cdot t ) = a(t)\cdot \sin  ( \phi(t)) + \varepsilon_{\rm unten}(t)).$$&lt;br /&gt;
&lt;br /&gt;
The respective second parts are in the range around twice the carrier frequency and are removed by the low-pass filters with the respective cut-off frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp;:&lt;br /&gt;
 &lt;br /&gt;
:$$\varepsilon_{\rm oben}(t)  = a(t)\cdot \cos  (2\omega_{\rm T} \cdot t +&lt;br /&gt;
 \phi(t)),\hspace{0.8cm}&lt;br /&gt;
 \varepsilon_{\rm unten}(t) = -  a(t)\cdot \sin  (2\omega_{\rm T} \cdot t +&lt;br /&gt;
 \phi(t)).$$&lt;br /&gt;
&lt;br /&gt;
A comparison with the above equations shows that the desired components&amp;amp;nbsp; $x_{\rm I}(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $x_{\rm Q}(t)$&amp;amp;nbsp; can be tapped at the output:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm I}(t)  = a(t)\cdot \cos  ( \phi(t)) ,$$&lt;br /&gt;
:$$x_{\rm Q}(t) = a(t)\cdot \sin  ( \phi(t)) .$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Power and Energy of a Bandpass Signal==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
We look at the (blue) bandpass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; according to the graph, which results for example from&amp;amp;nbsp; [[Modulation_Methods/Lineare_digitale_Modulationsverfahren#ASK_.E2.80.93_Amplitude_Shift_Keying|Binary Amplitude Shift Keying]]&amp;amp;nbsp;. This digital modulation method is also known as&amp;amp;nbsp; '''On-Off-Keying'''.&lt;br /&gt;
 &lt;br /&gt;
[[File:P_ID1152__Sig_T_4_3_S8a.png|right|frame|Power and Energy of a Bandpass Signal]] &lt;br /&gt;
&lt;br /&gt;
The signal power related to&amp;amp;nbsp; $1 \,\Omega$&amp;amp;nbsp; is given by the explanations on page&amp;amp;nbsp; [[Signal_Representation/Signal_classification#Energiebegrenzte_und_leistungsbegrenzte_Signale|Energy Limited and Power Limited Signals]]&amp;amp;nbsp; to&lt;br /&gt;
 &lt;br /&gt;
:$$P_x = \lim_{T_{\rm M} \to \infty} \frac{1}{T_{\rm M}} \cdot \int^{+T_{\rm M}/2} _{-T_{\rm M}/2}\hspace{-0.1cm} x^2(t)\,{\rm d}t.$$&lt;br /&gt;
&lt;br /&gt;
If the binary zeros and ones are equally probable, then the infinite integration range and the boundary crossing can be omitted, and you get for the above sketched pattern signal&amp;amp;nbsp; &lt;br /&gt;
 &lt;br /&gt;
:$$P_x = \frac{1}{2T} \cdot \int ^{2T} _{0} x^2(t)\,{\rm d}t =&lt;br /&gt;
 \frac{4\,{\rm V}^2}{2T} \cdot \int^{T} _{0} \cos^2(\omega_{\rm T} \cdot t)\,{\rm d}t= 1\,{\rm V}^2.$$&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
From the sketch below you can see that by averaging over the squared envelope&amp;amp;nbsp; $a^2(t)$&amp;amp;nbsp; - i.e. over the magnitude square of the equivalent lowpass signal&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; - you get a result twice as large. Therefore the same holds here likewise:&lt;br /&gt;
 &lt;br /&gt;
:$$P_x = { {1}/{2} \hspace{0.08cm}\cdot }\lim_{T_{\rm M} \to \infty} \frac{1}{T_{\rm M}}&lt;br /&gt;
 \cdot \int^{T_{\rm M}/2} _{-T_{\rm M}/2} |x_{\rm TP}(t)|^2\,{\rm&lt;br /&gt;
 d}t =&lt;br /&gt;
 {{1}/{2} \hspace{0.08cm}\cdot }\lim_{T_{\rm M} \to \infty} \frac{1}{T_{\rm M}}&lt;br /&gt;
 \cdot \int^{T_{\rm M}/2} _{-T_{\rm M}/2} a^2(t)\,{\rm d}t.$$&lt;br /&gt;
&lt;br /&gt;
This result can be generalized and applied to energy limited signals. In this case, the energy according to page&amp;amp;nbsp; [[Signal_Representation/Signal_classification#Energiebegrenzte_und_leistungsbegrenzte_Signale|Energy Limited and Power Limited Signals]]:&lt;br /&gt;
 &lt;br /&gt;
:$$E_x =   \int ^{+\infty} _{-\infty} x^2(t)\,{\rm&lt;br /&gt;
 d}t = { {1}/{2} \hspace{0.08cm}\cdot }\int ^{+\infty} _{-\infty} |x_{\rm TP}(t)|^2\,{\rm&lt;br /&gt;
 d}t = { {1}/{2} \hspace{0.08cm}\cdot }\int ^{+\infty} _{-\infty} a^2(t)\,{\rm&lt;br /&gt;
 d}t.$$&lt;br /&gt;
&lt;br /&gt;
However, this equation only applies exactly if the carrier frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; is much larger than the bandwidth&amp;amp;nbsp; $B_{\rm BP}$&amp;amp;nbsp; of the bandpass..&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 7:}$&amp;amp;nbsp;&lt;br /&gt;
We look at the bandpass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; with&amp;amp;nbsp; $A = 2\,\text{V}$,&amp;amp;nbsp; $B = 1\,\text{kHz}$&amp;amp;nbsp; and&amp;amp;nbsp; $f_{\rm T} = 10\,\text{kHz}$:&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1154__Sig_T_4_3_S8b_neu.png|right|frame|Power Calculation in the Equivalent Lowpass Range]]&lt;br /&gt;
 &lt;br /&gt;
:$$x(t) = A \cdot {\rm si}(\pi \cdot B \cdot t) \cdot \cos(2 \pi \cdot f_{\rm T}\cdot \hspace{0.05cm}t + \phi(t)).$$&lt;br /&gt;
&lt;br /&gt;
The magnitude spectrum&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; belonging to the signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; $\vert X(f) \vert$&amp;amp;nbsp; is displayed in the upper right corner. The blue label applies:&lt;br /&gt;
* $X(f)$&amp;amp;nbsp; is purely real due to the symmetry relations:  &lt;br /&gt;
:$$\vert X(f) \vert  = X(f).$$&lt;br /&gt;
&lt;br /&gt;
* $\vert X(f) \vert$&amp;amp;nbsp; s thus composed of two rectangles around&amp;amp;nbsp; $\pm f_{\rm T}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
* In the range around the carrier frequency applies:&lt;br /&gt;
$$\vert X(f) \vert = A/(2B) = 10^{-3}\text{V/Hz}.$$&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
The energy of this bandpass signal could in principle be calculated by the following equation:&lt;br /&gt;
 &lt;br /&gt;
:$$E_x =   \int^{+\infty} _{-\infty} A^2 \cdot \frac{ {\rm&lt;br /&gt;
sin}^2(\pi \cdot B \cdot t)}{ (\pi \cdot B \cdot t)^2}\cdot&lt;br /&gt;
\cos^2(2 \pi \cdot f_{\rm T}\cdot \hspace{0.05cm}t +&lt;br /&gt;
\phi(t))\,{\rm&lt;br /&gt;
 d}t .$$&lt;br /&gt;
&lt;br /&gt;
According to the above equations, with the envelope curve&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; but also with the envelope curve&amp;amp;nbsp drawn in red in the upper left corner:&lt;br /&gt;
 &lt;br /&gt;
:$$E_x  = { {1}/{2} \hspace{0.08cm}\cdot }\int^{+\infty} _{-\infty} a^2(t)\,{\rm&lt;br /&gt;
 d}t=   { {1}/{2} \hspace{0.08cm}\cdot }\int^{+\infty} _{-\infty} \vert A \cdot {\rm si}(\pi \cdot B \cdot t)\vert^2\,{\rm&lt;br /&gt;
 d}t $$&lt;br /&gt;
:$$\Rightarrow \hspace{0.3cm} E_x  =   A^2\cdot \int^{+\infty} _{0} {\rm si}^2(\pi \cdot B \cdot t)\,{\rm&lt;br /&gt;
 d}t =A^2\cdot \frac {\pi}{2}\cdot \frac {1}{\pi B} = \frac {A^2}{2 B}= 2 \cdot 10^{-3}\,{\rm V}^2/{\rm Hz}.$$&lt;br /&gt;
&lt;br /&gt;
According to the above equations, with the envelope&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; but also with the envelope drawn in red in the upper left corner:&lt;br /&gt;
&lt;br /&gt;
A second solution with the same result is offered by the &amp;amp;nbsp; [https://en.wikipedia.org/wiki/Parseval%27s_theorem Parseval's theorem]:&lt;br /&gt;
&lt;br /&gt;
:$$\int ^{+\infty} _{-\infty} a^2(t)\,{\rm  d}t= \int&lt;br /&gt;
^{+\infty} _{-\infty} \vert A(f) \vert ^2\,{\rm  d}f   \hspace{0.3cm} \Rightarrow \hspace{0.3cm}&lt;br /&gt;
E_x =  {1}/{2}\cdot ( {A}/{B})^2 \cdot B =  {A^2}/(2&lt;br /&gt;
B).$$&lt;br /&gt;
 &lt;br /&gt;
This is taken into account:&lt;br /&gt;
*The following applies&amp;amp;nbsp; $\vert A(f) \vert = \vert X_{\rm TP}(f) \vert $. &lt;br /&gt;
*Inside the bandwidth&amp;amp;nbsp; $B$&amp;amp;nbsp; around the frequency&amp;amp;nbsp; $f = 0$&amp;amp;nbsp; is&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; twice as large as&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; around the frequency&amp;amp;nbsp; $f = f_{\rm T}$, namely&amp;amp;nbsp; $A/B$. &lt;br /&gt;
*This is related to the definition of the spectrum&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; the analemic signal from which&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; is created by shifting.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Exercises for The Chapter==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 4.5: Locus Curve for DSB-AM|Exercise 4.5: Locus Curve for DSB-AM]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 4.5Z: Simple Phase Modulator|Exercise 4.5Z: Simple Phase Modulator]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 4.6: Loot Curve for ESB-AM|Exercise 4.6: Loot Curve for ESB-AM]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 4.6Z: Loot Curve  for Phase Modulation|Exercise 4.6Z: Loot Curve  for Phase Modulation]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Fast_Fourier_Transform_(FFT)&amp;diff=35581</id>
		<title>Signal Representation/Fast Fourier Transform (FFT)</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Fast_Fourier_Transform_(FFT)&amp;diff=35581"/>
		<updated>2021-01-04T02:29:48Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{LastPage}}&lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Time and Frequency-Discrete Signal Representation&lt;br /&gt;
|Vorherige Seite=Spectrum Analysis&lt;br /&gt;
|Nächste Seite=&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Complexity of DFT and IDFT==  &lt;br /&gt;
&amp;lt;br&amp;gt; 	&lt;br /&gt;
A disadvantage of the direct calculation of the (generally complex) DFT number sequences&lt;br /&gt;
&lt;br /&gt;
:$$\langle \hspace{0.1cm}D(\mu)\hspace{0.1cm}\rangle  \hspace{0.2cm}\bullet\!\!-\!\!\!-(N)\!-\!\!\!-\!\!\hspace{0.05cm}\circ\, \hspace{0.2cm} \langle \hspace{0.1cm}d(\nu)\hspace{0.1cm} \rangle$$&lt;br /&gt;
 &lt;br /&gt;
according to the equations given in chapter&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)|Discrete Fourier Transform (DFT)]]&amp;amp;nbsp;is the large computational cost.  We consider as an example the DFT, i.e. the calculation of the&amp;amp;nbsp; $D(\mu)$&amp;amp;nbsp; from the&amp;amp;nbsp; $d(\nu)$:&lt;br /&gt;
 &lt;br /&gt;
:$$N \cdot D(\mu)  =   \sum_{\nu = 0 }^{N-1}&lt;br /&gt;
 d(\nu) \cdot  {w}^{\hspace{0.03cm}\nu \hspace{0.03cm} \cdot \hspace{0.05cm}\mu}&lt;br /&gt;
 = &lt;br /&gt;
  d(0) \cdot w^{\hspace{0.03cm}0} + d(1) \cdot w^{\hspace{0.03cm}\mu}+ d(2) \cdot w^{\hspace{0.03cm}2\mu}+\hspace{0.05cm}\text{ ...} \hspace{0.05cm}+ d(N-1) \cdot w^{\hspace{0.03cm}(N-1)\cdot \mu}$$&lt;br /&gt;
&lt;br /&gt;
The computational effort required for this is to be estimated, assuming that the powers of the complex rotation factor&amp;amp;nbsp; $w = {\rm e}^{-{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm}2 \pi/N}$&amp;amp;nbsp; already exist in real and imaginary part form in a lookup table. To calculate a single coefficient, one then needs&amp;amp;nbsp; $N-1$&amp;amp;nbsp; complex multiplications and as many complex additions, observing: &lt;br /&gt;
*Each complex addition requires two real additions:&lt;br /&gt;
:$$(R_1 + {\rm j} \cdot I_1) + (R_2 + {\rm j} \cdot I_2) = (R_1 +&lt;br /&gt;
R_2) + {\rm j} \cdot (I_1 + I_2)\hspace{0.05cm}.$$ &lt;br /&gt;
*Each complex multiplication requires four real multiplications and two real additions (a subtraction is treated as an addition):&lt;br /&gt;
:$$(R_1 + {\rm j} \cdot I_1)  (R_2 + {\rm j} \cdot I_2) = (R_1 \cdot&lt;br /&gt;
R_2 - I_1 \cdot I_2) + {\rm j} \cdot (R_1 \cdot I_2 + R_2 \cdot&lt;br /&gt;
I_1)\hspace{0.05cm}.$$ &lt;br /&gt;
*Thus, the following number of real multiplications and the number of real additions are required to calculate all $N$ coefficients in total:&lt;br /&gt;
:$$M = 4 \cdot N \cdot (N-1),$$&lt;br /&gt;
:$$A = 2 \cdot N \cdot&lt;br /&gt;
(N-1)+2 \cdot N \cdot (N-1)=M \hspace{0.05cm}.$$ &lt;br /&gt;
*In today's computers, multiplications and additions/subtractions need about the same computing time. It is sufficient to consider the total number&amp;amp;nbsp; $\mathcal{O} = M + A$&amp;amp;nbsp; of all operations:&lt;br /&gt;
:$$\mathcal{O} = 8 \cdot N \cdot (N-1) \approx 8 \cdot N^2\hspace{0.05cm}.$$ &lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp; &lt;br /&gt;
*For a&amp;amp;nbsp; ''Discrete Fourier Transform''&amp;amp;nbsp; (DFT) with&amp;amp;nbsp; $N = 1000$&amp;amp;nbsp; one already needs almost eight million arithmetic operations. The same applies to an IDFT. &lt;br /&gt;
*With&amp;amp;nbsp; $N =16$&amp;amp;nbsp; still &amp;amp;nbsp;$1920$&amp;amp;nbsp; computational operations are required}}.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
If the parameter&amp;amp;nbsp; $N$&amp;amp;nbsp; is a power to the base&amp;amp;nbsp; $2$, more computationally efficient algorithms can be applied. The multitude of such methods known from the literature are summarised under the collective term&amp;amp;nbsp; '''Fast Fourier Transform'''&amp;amp;nbsp; - abbreviated&amp;amp;nbsp; '''FFT'''&amp;amp;nbsp; -. All these methods are based on the superposition theorem of the DFT.&lt;br /&gt;
 &lt;br /&gt;
==Superposition Theorem of the DFT==  	 	 &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The graph illustrates the so-called superposition theorem of the DFT using the example of $N = 16$. Shown here is the transition from the time domain to the spectral domain, i.e. the calculation of the spectral domain coefficients from the time domain coefficients: &amp;amp;nbsp;    $\langle \hspace{0.1cm}D(\mu)\hspace{0.1cm}\rangle  \hspace{0.2cm}\bullet\!\!-\!\!\!-(N)\!-\!\!\!-\!\!\hspace{0.05cm}\circ\, \hspace{0.2cm} \langle \hspace{0.1cm} d(\nu) \hspace{0.1cm}\rangle.$&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_5_S2.png|center|frame|Superposition Theorem of the DFT]]&lt;br /&gt;
&lt;br /&gt;
The algorithm described thereby is characterised by the following steps:&lt;br /&gt;
*The sequence&amp;amp;nbsp; $\langle \hspace{0.1cm}d(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp; of length&amp;amp;nbsp; $N$&amp;amp;nbsp; is divided into two subsequences$\langle \hspace{0.1cm} d_1(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp;  and&amp;amp;nbsp; $\langle \hspace{0.1cm} d_2(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp; each of half length (highlighted in yellow and green respectively in the garafic). With&amp;amp;nbsp; $0 \le \nu \lt N/2$&amp;amp;nbsp; one thus obtains the sequence elements&lt;br /&gt;
:$$d_1(\nu) = d(2\nu), $$&lt;br /&gt;
:$$d_2(\nu) = d(2\nu+1)&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
*The initial sequences&amp;amp;nbsp; $\langle \hspace{0.1cm}D_1(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; and&amp;amp;nbsp; $\langle \hspace{0.1cm}D_2(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; of the two sub-blocks result from this each by its own DFT, but now only with half length&amp;amp;nbsp; $N/2 = 8$:&lt;br /&gt;
:$$\langle \hspace{0.1cm}D_1(\mu) \hspace{0.1cm}\rangle  \hspace{0.2cm}\bullet\!\!-\!\!\!-(N/2)\!-\!\!\!-\!\!\hspace{0.05cm}\circ\, \hspace{0.2cm} \langle \hspace{0.1cm}d_1(\nu) \hspace{0.1cm}\rangle , $$&lt;br /&gt;
:$$ \langle \hspace{0.1cm}D_2(\mu)\hspace{0.1cm} \rangle \hspace{0.2cm}\bullet\!\!-\!\!\!-(N/2)\!-\!\!\!-\!\!\hspace{0.05cm}\circ\, \hspace{0.2cm} \langle \hspace{0.1cm}d_2(\nu) \hspace{0.1cm}\rangle \hspace{0.05cm}.$$ &lt;br /&gt;
*The initial values&amp;amp;nbsp; $\langle \hspace{0.1cm} D_2(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; of the lower (green) DFT $($with&amp;amp;nbsp; $0 \le \mu \lt N/2)$&amp;amp;nbsp; are then changed in the block outlined in red by complex rotation factors with respect to phase:&lt;br /&gt;
:$$D_2(\mu) \hspace{0.3cm} \Rightarrow \hspace{0.3cm}D_2(\mu) \cdot w^{\hspace{0.04cm}\mu}, \hspace{0.2cm}{\rm wobei}\hspace{0.1cm}w =&lt;br /&gt;
 {\rm e}^{-{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm}2 \pi/N} \hspace{0.05cm}.$$ &lt;br /&gt;
*Each single&amp;amp;nbsp; '''Butterfly'''&amp;amp;nbsp; in the blue bordered block (in the middle of the graph) yields two elements of the searched sequence by addition or subtraction. With&amp;amp;nbsp; $0 \le \mu \lt N/2$&amp;amp;nbsp; applies:&lt;br /&gt;
:$$D(\mu) =  {1}/{2}\cdot \big[D_1(\mu) + D_2(\mu) \cdot w^{\hspace{0.04cm}\mu}\big],$$&lt;br /&gt;
:$$D(\mu +{N}/{2})  =  {1}/{2}\cdot \big[D_1(\mu) - D_2(\mu) \cdot w^{\hspace{0.04cm}\mu}\big]\hspace{0.05cm}.$$ &lt;br /&gt;
&lt;br /&gt;
'''This first application of the superposition theorem thus roughly halves the computational effort.'''&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp;&lt;br /&gt;
Let the DFT coefficients&amp;amp;nbsp; $d(\nu)$&amp;amp;nbsp; for the description of the time course be &amp;quot;triangular&amp;quot; according to&amp;amp;nbsp; '''line 2'''&amp;amp;nbsp; of the following table. Note here the periodic continuation of the DFT, so that the linear increase for&amp;amp;nbsp; $t \lt 0$&amp;amp;nbsp; is given by the coefficients&amp;amp;nbsp; $d(8), \hspace{0.05cm}\text{ ...} \hspace{0.05cm}, d(15)$&amp;amp;nbsp; is expressed.&lt;br /&gt;
&lt;br /&gt;
Applying the DFT algorithm with&amp;amp;nbsp; $N = 16$&amp;amp;nbsp; one obtains the spectral coefficients&amp;amp;nbsp; $D(\mu )$ given in&amp;amp;nbsp; '''line 3'''&amp;amp;nbsp; which would be equal&amp;amp;nbsp; $D(\mu ) = 4 \cdot \text{si}^2(\pi \cdot \mu/2)$&amp;amp;nbsp; if the aliasing error were neglected. We can see that the aliasing error only affects the odd coefficients (shaded boxes). For example, $D(1) = 16/ \pi^2 \approx 1.621\neq 1.642$&amp;amp;nbsp; should be.&lt;br /&gt;
&lt;br /&gt;
[[File:Sig_T_5_5_S2b_Version2.png|center|frame|Result Table for &amp;amp;nbsp;$\text{Example 1}$&amp;amp;nbsp; for the Superposition Theorem of the DFT]]&lt;br /&gt;
&lt;br /&gt;
If we split the total sequence&amp;amp;nbsp; $\langle \hspace{0.1cm}d(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp; into two subsequences&amp;amp;nbsp; $\langle \hspace{0.1cm}{d_1}'(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp; and &amp;amp;nbsp; $\langle \hspace{0.1cm}{d_2}'(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp; such that the first subsequence (highlighted in yellow) has only even coefficients&amp;amp;nbsp; $(\nu = 0, 2, \hspace{0.03cm}\text{ ...} \hspace{0.1cm}, N–2)$&amp;amp;nbsp;  and the second (green background) contains only odd coefficients&amp;amp;nbsp; $(\nu = 1, 3, \hspace{0.03cm}\text{ ...} \hspace{0.1cm} , N-1)$&amp;amp;nbsp; and all others are set to zero, the corresponding sequences in the spectral domain are obtained:&lt;br /&gt;
 &lt;br /&gt;
:$$ \langle \hspace{0.1cm}{D_1}'(\mu)\hspace{0.1cm} \rangle  \hspace{0.2cm}\bullet\!\!-\!\!\!-(N)\!-\!\!\!-\!\!\hspace{0.05cm}\circ\, \hspace{0.2cm} \langle \hspace{0.1cm} {d_1}'(\nu) \hspace{0.1cm}\rangle , $$&lt;br /&gt;
:$$ \langle \hspace{0.1cm}{D_2}'(\mu) \hspace{0.1cm}\rangle \hspace{0.2cm}\bullet\!\!-\!\!\!-(N)\!-\!\!\!-\!\!\hspace{0.05cm}\circ\, \hspace{0.2cm} \langle\hspace{0.1cm} {d_2}'(\nu) \rangle \hspace{0.1cm}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
In the yellow or green lines&amp;amp;nbsp; $4\hspace{0.05cm}\text{ ...} \hspace{0.05cm}7$&amp;amp;nbsp; you can see:&lt;br /&gt;
*because&amp;amp;nbsp; $d(\nu) = {d_1}'(\nu) + {d_2}'(\nu)$&amp;amp;nbsp; also holds&amp;amp;nbsp; $D(\mu ) = {D_1}'(\mu ) + {D_2}'(\mu )$. This can be justified, for example, with the&amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_Laws#Multiplication_with_Factor_-_Addition Theorem|Addition Theorem of Linear Systems]]&amp;amp;nbsp;.&lt;br /&gt;
*The period of the sequence&amp;amp;nbsp; $\langle \hspace{0.1cm}{D_1}'(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; due to the zeroing of every second time coefficient is now&amp;amp;nbsp; $N/2$&amp;amp;nbsp; unlike the period&amp;amp;nbsp; $N$&amp;amp;nbsp; of the sequence&amp;amp;nbsp; $\langle \hspace{0.1cm} D(\mu )\hspace{0.1cm}\rangle$:&lt;br /&gt;
:$${D_1}'(\mu + {N}/{2}) ={D_1}'(\mu)\hspace{0.05cm}.$$ &lt;br /&gt;
* $\langle \hspace{0.1cm} {D_2}'(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; additionally contains a phase factor (shift by one sample) which causes a sign change of two coefficients separated by&amp;amp;nbsp; $N/2$&amp;amp;nbsp;:&lt;br /&gt;
:$${D_2}'(\mu + {N}/{2}) = - {D_2}'(\mu)\hspace{0.05cm}.$$ &lt;br /&gt;
*The calculation of&amp;amp;nbsp; $\langle \hspace{0.1cm}{D_1}'(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; and&amp;amp;nbsp; $\langle \hspace{0.1cm} {D_2}'(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; is, however, in each case as laborious as the determination of&amp;amp;nbsp; $\langle \hspace{0.1cm}D(\mu )\hspace{0.1cm}\rangle$, since&amp;amp;nbsp; $\langle \hspace{0.1cm}{d_1}'(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp; and&amp;amp;nbsp; $\langle \hspace{0.1cm}{d_2}'(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp;  also consist of&amp;amp;nbsp; $N$&amp;amp;nbsp; elements, even if some are zero.}} &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 2:}$&amp;amp;nbsp;&lt;br /&gt;
To continue the first example, the previous table is now extended by the rows &amp;amp;nbsp;$8$&amp;amp;nbsp; to &amp;amp;nbsp;$12$&amp;amp;nbsp;.&lt;br /&gt;
                       &lt;br /&gt;
[[File:Sig_T_5_5_S2c_Version2.png|center|frame|Result Table for &amp;amp;nbsp;$\text{Example 2}$&amp;amp;nbsp; For The Superposition Theorem of The DFT]]&lt;br /&gt;
&lt;br /&gt;
Omitting the coefficients&amp;amp;nbsp; ${d_1}'(\nu) = 0$&amp;amp;nbsp; with odd indices and&amp;amp;nbsp; ${d_2}'(\nu) = 0$&amp;amp;nbsp; with even indices, we arrive at the subsequences&amp;amp;nbsp; $\langle \hspace{0.1cm}d_1(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp; and&amp;amp;nbsp; $\langle \hspace{0.1cm}d_2(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp; corresponding to lines &amp;amp;nbsp;$9$&amp;amp;nbsp; and &amp;amp;nbsp;$11$&amp;amp;nbsp;. You can see:&lt;br /&gt;
*The time sequences&amp;amp;nbsp; $\langle \hspace{0.1cm}{d_1}(\nu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; and&amp;amp;nbsp; $\langle \hspace{0.1cm}{d_2}(\nu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; exhibit as well as the corresponding spectral sequences&amp;amp;nbsp; $\langle \hspace{0.1cm}{D_1}(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; and&amp;amp;nbsp; $\langle \hspace{0.1cm}{D_2}(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; only have the dimension $N/2$.&lt;br /&gt;
*A comparison of the lines&amp;amp;nbsp; $5$,&amp;amp;nbsp; $7$,&amp;amp;nbsp; $10$&amp;amp;nbsp; and&amp;amp;nbsp; $12$&amp;amp;nbsp; shows the following relationship for&amp;amp;nbsp; $0 \le \mu \lt N/2$&amp;amp;nbsp;:&lt;br /&gt;
:$${D_1}'(\mu) = {1}/{2}\cdot {D_1}(\mu)\hspace{0.05cm},$$&lt;br /&gt;
:$$ {D_2}'(\mu) = {1}/{2}\cdot {D_2}(\mu)\cdot w^{\hspace{0.04cm}\mu}\hspace{0.05cm}.$$ &lt;br /&gt;
*Correspondingly, for&amp;amp;nbsp; $N/2 \le \mu \lt N$:&lt;br /&gt;
:$${D_1}'(\mu)  =  {1}/{2}\cdot {D_1}(\mu - {N}/{2})\hspace{0.05cm},$$&lt;br /&gt;
:$$ {D_2}'(\mu) =  {1}/{2}\cdot {D_2}(\mu {-} {N}/{2})\cdot w^{\hspace{0.04cm}\mu}&lt;br /&gt;
= { - } {1}/{2}\cdot {D_2}(\mu-N/2)\cdot w^{\hspace{0.04cm}\mu {-} N/2}\hspace{0.05cm}.&lt;br /&gt;
$$&lt;br /&gt;
&lt;br /&gt;
*For example, with&amp;amp;nbsp; $N = 16$ &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $w = {\rm e}^{ - {\rm j}\hspace{0.04cm} \cdot \hspace{0.04cm}\pi/8}$&amp;amp;nbsp; for the indices&amp;amp;nbsp; $\mu = 1$&amp;amp;nbsp; respectively&amp;amp;nbsp; $\mu = 9$:&amp;amp;nbsp;&lt;br /&gt;
:$${D_1}'(1)  =   {1.708}/{2} = 0.854,\hspace{0.8cm}&lt;br /&gt;
 {D_2}'(1) ={1}/{2}\cdot (1.456 + {\rm j} 0.603) \cdot {\rm e}^{ - {\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
 \pi/8} = 0.788$$&lt;br /&gt;
:$$\Rightarrow  D(1) = {D_1}'(1)+ {D_2}'(1)= 1.642 \hspace{0.05cm}.$$ &lt;br /&gt;
:$${D_9}'(1)  =  {1.708}/{2} = 0.854,\hspace{0.8cm}&lt;br /&gt;
 {D_2}'(9) = - {1}/{2}\cdot (1.456 + {\rm j} 0.603) \cdot {\rm e}^{ - {\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
 \pi/8} = - 0.788$$&lt;br /&gt;
:$$\Rightarrow  D(9) = {D_1}'(9)+ {D_2}'(9)= 0.066 \hspace{0.05cm}.$$}}&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp;  &lt;br /&gt;
*This first application of the superposition theorem almost halves the computational effort. &lt;br /&gt;
*Instead of&amp;amp;nbsp; $\mathcal{O}= 1920$&amp;amp;nbsp; one only needs &amp;amp;nbsp;$\mathcal{O} = 2 - 448 + 8 \cdot (4+2) + 16 \cdot 2 = 976$&amp;amp;nbsp; real operations. &lt;br /&gt;
*The first summand accounts for the two DFT calculations with&amp;amp;nbsp; $N/2 = 8$. &lt;br /&gt;
*The remainder is needed for the eight complex multiplications and the&amp;amp;nbsp; $16$&amp;amp;nbsp; complex additions and subtractions, respectively.}}&lt;br /&gt;
&lt;br /&gt;
==Radix-2-Algorithm According to Cooley and Tukey==  	 &lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
Like other FFT algorithms, the method presented herenbsp; [CT65]&amp;lt;ref name ='CT65'&amp;gt;Cooley, J.W.; Tukey, J.W.: ''An Algorithm for the Machine Calculation of Complex Fourier Series''. In: Mathematics of Computation, Vol. 19, No. 90. (Apr., 1965), pp. 297-301.&amp;lt;/ref&amp;gt;&amp;amp;nbsp; from &amp;amp;nbsp; [https://en.wikipedia.org/wiki/James_Cooley James W. Cooley]&amp;amp;nbsp; and&amp;amp;nbsp; [https://en.wikipedia.org/wiki/John_Tukey John W. Tukey]&amp;amp;nbsp; on the superposition theorem of the DFT. It only works if the number of interpolation points is a power of two. &lt;br /&gt;
&lt;br /&gt;
The diagram illustrates the algorithm for&amp;amp;nbsp; $N = 8$, again showing the transformation from the time to the frequency domain.&lt;br /&gt;
[[File:P_ID1173__Sig_T_5_5_S3a_neu.png|right|frame|frame|Radix-2-Algorithm (Flow Diagram)]]&lt;br /&gt;
&lt;br /&gt;
*Before the actual FFT algorithm, the input values&amp;amp;nbsp; $d(0), \hspace{0.05cm}\text{...} \hspace{0.1cm}, d( N - 1)$&amp;amp;nbsp; be reordered in the grey block &amp;amp;bdquo;Bit Reverse Operation&amp;amp;rdquo;. &lt;br /&gt;
*The computation is done in&amp;amp;nbsp; $\text{log}_2 N = 3$&amp;amp;nbsp; stages, where in each stage&amp;amp;nbsp; $N/2 = 4$&amp;amp;nbsp; equal computations are performed with different&amp;amp;nbsp; $\mu$&amp;amp;ndash;values &amp;lt;br&amp;gt;(= exponent of the complex rotation factor). Such a basic operation is also called a&amp;amp;nbsp; '''butterfly'''.&lt;br /&gt;
*Each butterfly calculates from two (generally complex) input variables&amp;amp;nbsp; $A$&amp;amp;nbsp; and&amp;amp;nbsp; $B$&amp;amp;nbsp; the two output variables&amp;amp;nbsp; $A + B \cdot w^{\mu}$&amp;amp;nbsp; and&amp;amp;nbsp; $A - B \cdot w^{\mu}$&amp;amp;nbsp; according to the following sketch.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1174__Sig_T_5_5_S3b_neu.png|center|frame|Butterfly of The DFT-Algorithm]]&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp;  &lt;br /&gt;
The complex spectral coefficients&amp;amp;nbsp; $D(0), \hspace{0.05cm}\text{...} \hspace{0.1cm}, D( N - 1)$&amp;amp;nbsp; are obtained at the output of the last stage after division by&amp;amp;nbsp; $N$. &lt;br /&gt;
*As shown in the&amp;amp;nbsp; [[Aufgaben:Aufgabe_5.5Z:_Rechenaufwand_für_die_FFT|exercise 5.5Z]]&amp;amp;nbsp; compared to the DFT, this results in a much shorter computation time, for example for&amp;amp;nbsp; $N = 1024$&amp;amp;nbsp; by more than a factor&amp;amp;nbsp; $150$.&lt;br /&gt;
&lt;br /&gt;
*The inverse DFT for calculating the time&amp;amp;ndash; from the spectral coefficients is done with the same algorithm and only slight modifications.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_Programm.png|right|frame|Radix-2-Algorithm (C-Program)]]&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 3:}$&amp;amp;nbsp;  &lt;br /&gt;
Finally, a C program &amp;lt;br&amp;gt;&lt;br /&gt;
:$$\text{fft(N, Re, Im)}$$ &lt;br /&gt;
according to the Radix-2 algorithm described above is given:&lt;br /&gt;
&lt;br /&gt;
*When called, the two float arrays &amp;quot;Re&amp;quot; and &amp;quot;Im&amp;quot; contain the&amp;amp;nbsp; $N$&amp;amp;nbsp; real and imaginary parts of the complex time coefficients&amp;amp;nbsp; $d(0)$, ... , $d( N - 1)$.&lt;br /&gt;
*In the same fields &amp;quot;Re&amp;quot; and &amp;quot;Im&amp;quot; the complex coefficients&amp;amp;nbsp; $D(0)$, ... , $D( N - 1)$&amp;amp;nbsp; are returned to the calling program.&lt;br /&gt;
*Due to the &amp;quot;in-place&amp;quot; programming, complex memory locations are thus sufficient for this algorithm&amp;amp;nbsp; $N$&amp;amp;nbsp; but only if the input values are reordered at the beginning.&lt;br /&gt;
*This is done by the program &amp;quot;bit-reversal&amp;quot;, where the contents of&amp;amp;nbsp; ${\rm Re}( \nu)$&amp;amp;nbsp; and&amp;amp;nbsp; ${\rm Im}( \nu)$&amp;amp;nbsp; are entered into the elements&amp;amp;nbsp; ${\rm Re}( \kappa)$&amp;amp;nbsp; and&amp;amp;nbsp; ${\rm Im}( \kappa)$&amp;amp;nbsp;. $\text{Example 4}$&amp;amp;nbsp; illustrates the procedure.}} &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1176__Sig_T_5_5_S3d_neu.png|right|frame|Radix-2-Algorithm $($Bit reversing operation for&amp;amp;nbsp; $N = 8)$]]&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 4: Bit reversing operation}$&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
*The new index&amp;amp;nbsp; $\kappa$&amp;amp;nbsp; is obtained by writing the index&amp;amp;nbsp; $\nu$&amp;amp;nbsp; as a dual number and then representing the&amp;amp;nbsp; $\text{log}_2 \hspace{0.05cm} N$&amp;amp;nbsp; bits in reverse order.&lt;br /&gt;
*For example,&amp;amp;nbsp; $\nu = 3$&amp;amp;nbsp; becomes the new index&amp;amp;nbsp; $\kappa = 6$.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Exercises For the Chapter==  &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.5: Fast Fourier Transform|Exercise 5.5: Fast Fourier Transform]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.5Z: Complexity of The FFT|Exercise 5.5Z: Complexity of The FFT]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Spectrum_Analysis&amp;diff=35579</id>
		<title>Signal Representation/Spectrum Analysis</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Spectrum_Analysis&amp;diff=35579"/>
		<updated>2021-01-04T01:53:46Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Time and Frequency-Discrete Signal Representation&lt;br /&gt;
|Vorherige Seite=Possible Errors When Using DFT&lt;br /&gt;
|Nächste Seite=Fast Fourier Transform (FFT)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Spectral Leakage==&lt;br /&gt;
&amp;lt;br&amp;gt;  	 &lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; &lt;br /&gt;
The term '''spectral leakage effect''' is used to describe the distortion of the spectrum of a periodic and thus temporally unlimited signal due to the implicit time limit of the Discrete Fourier Transform (DFT). This means that, for example, a spectrum analyser&lt;br /&gt;
* fake frequency components that are not present in the time signal, and/or&lt;br /&gt;
*actually existing spectral components are hidden by side lobes}}.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The following&amp;amp;nbsp; $\text{example 1}$&amp;amp;nbsp;will show that for a periodic signal the application of the&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)|discrete  Fourier Transform]]&amp;amp;nbsp; &amp;amp;nbsp; (DFT) is not useful without additional measures. The quality of the spectral analysis - i.e. the correctness of the spectrum found - is mainly determined here by the (more or less successful) adaptation of the DFT parameters to the signal parameters at hand.&lt;br /&gt;
*If the period&amp;amp;nbsp; $T_0$&amp;amp;nbsp; of the signal is known, the duration&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; of the signal section used for the DFT should be an integer multiple of&amp;amp;nbsp; $T_0$&amp;amp;nbsp;. However, the task of spectral analysis is precisely to find arbitrary signal components, so that knowledge of&amp;amp;nbsp; $T_0$&amp;amp;nbsp; cannot generally be assumed.&lt;br /&gt;
*A measure to improve the spectral analysis is the windowing with a &amp;quot;suitable&amp;quot; time function&amp;amp;nbsp; $w(t)$. The product signal&amp;amp;nbsp; $x(t) \cdot w(t)$ is then analysed.&lt;br /&gt;
*A large number of such window functions&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; are known from the literature, which lead to good or less satisfactory results depending on the task.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
On the next pages the spectral leakage effect will be illustrated by examples and the advantages and disadvantages of the different window functions will be discussed. So much up front: '''There is no &amp;quot;best&amp;quot; window function for all applications'''.&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
&lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp; &lt;br /&gt;
The upper graph&amp;amp;nbsp; '''(a)'''&amp;amp;nbsp; from [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&amp;amp;nbsp; shows the time-discrete signal&amp;amp;nbsp; $d(\nu)$&amp;amp;nbsp; of a harmonic oscillation with frequency&amp;amp;nbsp; $f_0 = 125\,\text{ kHz}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; period&amp;amp;nbsp; $T_0 = 8 \,{\rm &amp;amp;micro; s}$. The distance between two successive time samples in this example is chosen to be&amp;amp;nbsp; $T_{\rm A} = 1 \,{\rm &amp;amp;micro; s}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
On the right is shown in logarithmic form (in dB) the frequency discrete spectrum&amp;amp;nbsp; $\vert D(\mu) \vert$&amp;amp;nbsp; after a DFT with&amp;amp;nbsp; $N = 32$&amp;amp;nbsp; samples, from which the further DFT parameters result as follows:&lt;br /&gt;
*Duration of the time segment: &amp;amp;nbsp; $T_{\rm P} = 32 \,{\rm &amp;amp;micro; s}$,&lt;br /&gt;
*gridding of the frequency axis: &amp;amp;nbsp; $f_{\rm A} = 31.25 \,\text{ kHz}$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Since the interval width&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; captures an integer multiple of the period duration&amp;amp;nbsp; $T_0$&amp;amp;nbsp;, the DFT delivers the correct result. The two Dirac functions lie exactly at&amp;amp;nbsp; $\pm4 \cdot f_{\rm A}$.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1160__Sig_T_5_4_S1_neu.png|center|frame|Example of Applying  Spectral Analysis]]&lt;br /&gt;
&lt;br /&gt;
If one measures an oscillation of frequency&amp;amp;nbsp; $f_0 = 109.375\,\text{ kHz}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; period $T_0 = 9.14 \,{\rm &amp;amp;micro; s}$&amp;amp;nbsp; corresponding to the graph below&amp;amp;nbsp; '''(b)''', significant distortions of the spectrum occur. &lt;br /&gt;
&lt;br /&gt;
*Since now&amp;amp;nbsp; $T_{\rm P}/T_0 = 3.5$&amp;amp;nbsp; is no longer an integer, the periodic continuation of the time section causes phase jumps, in our example by&amp;amp;nbsp; $\pi$.&lt;br /&gt;
*The spectral range now no longer consists of two Dirac functions as in the example&amp;amp;nbsp; '''(a)''', but of an approximately &amp;quot;continuous&amp;quot; frequency function with the maximum near the actual signal frequency and a series of further parts, which are called&amp;amp;nbsp; '''side lobes'''&amp;amp;nbsp;.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Describing Windowing from a Control Theory Perspective==  &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:EN_Sig_T_5_4_S2.png|right|frame|Rectangular Window and Bartlett Windows]]&lt;br /&gt;
The occurrence of such unwanted side lobes is now to be explained in terms of systems theory using the following diagram. This graphic was also taken from the book&amp;amp;nbsp; [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
First consider the upper graph&amp;amp;nbsp; '''(a)'''&amp;amp;nbsp; for the&amp;amp;nbsp; '''rectangular window'''.&lt;br /&gt;
*The time limit implicit in the DFT corresponds to the multiplication of the signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; by a rectangular&amp;amp;ndash;window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; of height&amp;amp;nbsp; $1$&amp;amp;nbsp; and duration&amp;amp;nbsp; $T_{\rm P}$. The upper left image shows the discrete-time representation of this rectangular function with the normalised time variable&amp;amp;nbsp; $\nu= t/T_{\rm A}$:&lt;br /&gt;
 &lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{for}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm else} \hspace{0.05cm}. \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
&lt;br /&gt;
*From the multiplication&amp;amp;nbsp; $y(t) = x(t) \cdot w(t)$&amp;amp;nbsp; of the signal to be analysed&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; and the window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; follows for the spectral function&amp;amp;nbsp; $Y(f) = X(f) \ast W(f)$, where for rectangular window function with&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm P}$&amp;amp;nbsp; holds (the function&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; is shown in logarithmic form in the upper right graph):&lt;br /&gt;
 &lt;br /&gt;
:$$W(f) = T_{\rm P} \cdot {\rm si}(\pi \cdot f \cdot T_{\rm P}) = {1}/{f_{\rm A}}\cdot {\rm si}(\pi \cdot {f}/{f_{\rm A}})\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*If all spectral components ofs&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; lie in the frequency grid&amp;amp;nbsp; $\mu \cdot f_{\rm A}$, the discrete frequency spectral values&amp;amp;nbsp; $D(\mu )$&amp;amp;nbsp; remain unchanged by the convolution with&amp;amp;nbsp; $W(f)$&amp;amp;nbsp;. &lt;br /&gt;
*Otherwise, convolution with&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; leads to distortions, since the zeros of the&amp;amp;nbsp; $\rm si$-function now no longer fit the discrete values of the input spectrum.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The discontinuities in the time domain caused by limitation and periodic continuation are reduced if, instead of the constant one weighting by the rectangle, the two edge areas of the window are weighted weaker than the centre.&lt;br /&gt;
&lt;br /&gt;
Consider the graph below&amp;amp;nbsp; '''(b)'''&amp;amp;nbsp; for the&amp;amp;nbsp; '''Bartlett window''' - also called triangular window:&lt;br /&gt;
*The time-discrete description of the Bartlett window is with&amp;amp;nbsp; $\nu = t/T_{\rm A}$:&lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 - {2  \hspace{0.05cm} \cdot  \hspace{0.05cm} |\nu|}/{N} \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{for}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm else} \hspace{0.05cm}. \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
*From this follows for the time-continuous window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; and the spectral representation&amp;amp;nbsp; $W(f)$:&lt;br /&gt;
:$${w} (t)   = \left\{ \begin{array}{c} 1 -{|t|}/{(T_{\rm P}/2)} \\&lt;br /&gt;
   0 \\ \end{array} \right.\hspace{0.05cm}&lt;br /&gt;
\begin{array}{*{20}c}&lt;br /&gt;
|t| \le  T_{\rm P}/2\\ &lt;br /&gt;
{\rm else}  \\&lt;br /&gt;
\end{array}\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\,&lt;br /&gt;
\hspace{0.2cm}W(f) ={1}/({2f_{\rm A}})\cdot {\rm si}^2(\pi \cdot&lt;br /&gt;
{f}/({2f_{\rm A}}))\hspace{0.05cm}.$$&lt;br /&gt;
*Due to the lower weighting of the edge regions, which are particularly problematic with unbounded signals, the (logarithmically drawn) spectrum&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; has lower side lobes than the&amp;amp;nbsp; $\rm si$ function in the upper image, which leads to lower leakage components.&lt;br /&gt;
*The better suppression of the side lobes, however, comes at the cost of a noticeable reduction and broadening of the main lobe, limiting the resolving power of the Bartlett window compared to the rectangular windowing.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Special Window Functions==&lt;br /&gt;
&amp;lt;br&amp;gt;  &lt;br /&gt;
[[File:EN_Sig_T_5_4_S3.png|right|frame|Hanning-, Hamming- and Kaiser-Bessel Windows]]	&lt;br /&gt;
Now some frequently used&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Window_function window functions], viz. &lt;br /&gt;
*the Hanning window, &lt;br /&gt;
*the Hamming window, and &lt;br /&gt;
*the Kaiser-Bessel window&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
will be described by means of graphs and equations contained therein. For the running variable in the time domain, $-N/2 ≤ \nu &amp;lt; N/2$ always applies. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Notes:''&lt;br /&gt;
*In the Kaiser-Bessel window, the functions in the time and frequency domain are each shown for&amp;amp;nbsp; $\alpha = 3.5$&amp;amp;nbsp;.&lt;br /&gt;
* ${\rm I}_0(.)$&amp;amp;nbsp; denotes the&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Bessel_function modified zero-order Bessel function].&lt;br /&gt;
*Further window functions such as the Blackman-Harris window, the&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Raised-cosine_filter cosine rolloff window]&amp;amp;nbsp; (also called Tukey window) and many more can be found in the book&amp;amp;nbsp; [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The suitability of these window functions for various tasks of spectral analysis is mentioned on the next page.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt; &lt;br /&gt;
==Goodness Criteria of Window Functions==&lt;br /&gt;
&amp;lt;br&amp;gt;  	&lt;br /&gt;
[[File:EN_Sig_T_5_4_S4_neu.png|right|frame|Compilation of Important Quality Criteria of Window Functions]]&lt;br /&gt;
The table shows quality criteria for the window functions described on the last pages. The selection of a suitable window function should be made according to the following aspects:&lt;br /&gt;
*The&amp;amp;nbsp; '''minimum distance between main lobe and side lobes'''&amp;amp;nbsp; should be as large as possible to keep the influence of the leakage effect low and to improve the amplitude resolution.&lt;br /&gt;
*For reasons of good frequency selectivity, the&amp;amp;nbsp; '''6dB bandwidth'''&amp;amp;nbsp; should be small. If it is too large, a dominant spectral line will mask smaller components in the surrounding area.&lt;br /&gt;
*The&amp;amp;nbsp; '''maximum process loss'''&amp;amp;nbsp; (in dB) includes the maximum scaling error and the equivalent noise bandwidth. This value should in no case exceed&amp;amp;nbsp; $\text{3.7 dB}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
These most important quality criteria are highlighted in red in the adjacent table.&lt;br /&gt;
*In each row, rather favourable window functions are highlighted in green and rather unfavourable ones in grey. &lt;br /&gt;
*From the distribution of the green and grey areas it is already evident that the optimal window function does not exist.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Now the quality criteria given in the table are described in more detail:&lt;br /&gt;
*The larger the ''minimum main-to-side lobe distance'' &amp;amp;nbsp; ⇒ &amp;amp;nbsp; ratio of the main lobe to the highest side lobe, the better the amplitude resolution of a window function. For the rectangle this distance is, as expected, smallest&amp;amp;nbsp; $\text{(13 dB)}$. The best result is achieved with&amp;amp;nbsp; $\text{92 dB}$&amp;amp;nbsp; the fourth-order Blackman-Harris window.&lt;br /&gt;
*However, since not only the highest but also all other side lobes contribute to the leakage effect, the&amp;amp;nbsp; '''side lobe drop'''&amp;amp;nbsp; is another measure for the resolving power. Of the given window functions, the Hanning window and the cosine rolloff window with rolloff&amp;amp;nbsp; $r = 0.5$&amp;amp;nbsp; have the most favourable values in this respect&amp;amp;nbsp; $\text{(18 dB/octave)}$.&lt;br /&gt;
*The&amp;amp;nbsp; '''6 dB bandwidth''', which can be read from the logarithmised spectral function, is an important measure of the frequency resolving power. Two spectral components present in the signal at&amp;amp;nbsp; $f_1$&amp;amp;nbsp; and&amp;amp;nbsp; $f_2$&amp;amp;nbsp; can only be resolved if the difference&amp;amp;nbsp; $f_2 - f_1$&amp;amp;nbsp; is greater than the&amp;amp;nbsp; $\text{6 dB}$-bandwidth of the window function used (see following right graph).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_4_S4b.png|center|frame|Illustrating the&amp;amp;nbsp; $\text{6 dB}$-bandwidth]]&lt;br /&gt;
*The&amp;amp;nbsp; '''window area'''&amp;amp;nbsp; of the function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; at the same time gives the height&amp;amp;nbsp; $W(0)$&amp;amp;nbsp; in the spectral domain. For all windows except the rectangle, a window area smaller than&amp;amp;nbsp; $1$&amp;amp;nbsp; and thus an error in the amplitude of the DFT result results due to the suppression of the outer samples, which, however, can be completely corrected if&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; is known.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp; &lt;br /&gt;
*A good compromise is the&amp;amp;nbsp; '''Hanning window'''&amp;amp;nbsp; (highlighted in blue in the table), which never scores &amp;quot;grey&amp;quot; with respect to the three main criteria (red markings).&lt;br /&gt;
*The&amp;amp;nbsp; '''Hamming window'''&amp;amp;nbsp; differs from this only slightly in the time domain, but considerably in the spectral domain. Thus, the side lobe drop per octave is only more&amp;amp;nbsp; $\text{6 dB}$&amp;amp;nbsp; $($instead of&amp;amp;nbsp; $\text{18 dB})$.}}&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Maximum Process Loss==&lt;br /&gt;
&amp;lt;br&amp;gt;  	 	&lt;br /&gt;
This combined quality criterion considers the&amp;amp;nbsp; '''maximum scaling error'''&amp;amp;nbsp; as well as the (normalised)&amp;amp;nbsp; '''equivalent noise bandwidth'''. The maximum process loss is usually given in&amp;amp;nbsp; $\text{dB}$&amp;amp;nbsp; and should be rather small according to its name:&lt;br /&gt;
 &lt;br /&gt;
:$$10 \cdot {\rm lg}\hspace{0.15cm}V_{\rm P}\hspace{0.15cm}{\rm (in}\hspace{0.15cm}{\rm dB)}= 20 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{|W(f=0)|}{|W(f=f_{\rm A}/2)|} + 10 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{\int_{-\infty}^{\infty}|W(f)|^2\hspace{0.05cm}{\rm d}f}{f_{\rm A} \cdot |W(f=0)|^2} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
From the&amp;amp;nbsp; &amp;amp;nbsp; [[Signal_Representation/Spectrum_Analysis#G.C3.BCtekriterien_von_Fensterfunktionen|table]]&amp;amp;nbsp; it can be seen that&amp;amp;nbsp; $V_{\rm P}$&amp;amp;nbsp; takes values between&amp;amp;nbsp; $\text{3 dB}$&amp;amp;nbsp; and&amp;amp;nbsp; $\text{4 dB}$&amp;amp;nbsp; for the window functions considered, where window functions with&amp;amp;nbsp; $V_{\rm P} &amp;gt; 3. 7 \,\text{dB}$&amp;amp;nbsp; (rectangle, Blackman-Harris, Kaiser-Bessel)&amp;amp;nbsp; should not be used. However, it is precisely these that are best with regard to the main-to-side lobe distance.&lt;br /&gt;
&lt;br /&gt;
The two proportions are to be interpreted as follows:&lt;br /&gt;
*The ''maximum scaling error''&amp;amp;nbsp; is the ratio by which the amplitude determined with the DFT differs from the actual signal amplitude. The amplitude error due to a window area smaller than&amp;amp;nbsp; $1$&amp;amp;nbsp; is assumed to be corrected.&lt;br /&gt;
*The wider the main lobe of the window function, the smaller this scaling error. The error is largest when the frequency&amp;amp;nbsp; $f_0$&amp;amp;nbsp; of a harmonic oscillation lies midway between two DFT support points &amp;amp;nbsp; ⇒ &amp;amp;nbsp; quotient $|W(f = 0)| / |W(f = f_{\rm A}/2)|$. &lt;br /&gt;
&lt;br /&gt;
*The ''equivalent noise bandwidth''&amp;amp;nbsp; of the window function used - calculable as the width of the equal-area rectangle with respect to the magnitude square&amp;amp;nbsp; $|W(f)|^2$&amp;amp;nbsp; of the spectral function - captures the disturbing influence of white noise and should be as small as possible.&lt;br /&gt;
*The smallest noise bandwidth results for the rectangle. All other window functions have a larger noise bandwidth and thus, in the presence of noise interference, also a (significantly) less favourable signal-to-noise power ratio.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp; &lt;br /&gt;
The results of this section can be summarised as follows:&lt;br /&gt;
*An ideal window function does not exist. Depending on the task&amp;amp;nbsp; (good amplitude or frequency resolution)&amp;amp;nbsp; different windows provide the best result in each case. It is therefore recommended that one always uses several window functions for spectral analysis or at least one window function with different parameters.&lt;br /&gt;
*A workable compromise with regard to all criteria is the&amp;amp;nbsp; '''Hamming window''', which only gives an unfavourable value for the side lobe drop&amp;amp;nbsp; $($only&amp;amp;nbsp; $\text{6 dB per octave})$&amp;amp;nbsp;. Although the&amp;amp;nbsp; '''Hanning window'''&amp;amp;nbsp; differs only marginally from the Hamming window in the time domain, in the spectral domain&amp;amp;nbsp; (minimum distance between main lobe and side lobes)&amp;amp;nbsp; the difference between the two is considerable.}}&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
==Exercises for The Chapter== &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.4: Comparison of Rectangular And Hanning Window |Exercise 5.4: Comparison of Rectangular And Hanning Window ]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.4Z: On The Hanning Window|Exercise 5.4Z: On The Hanning Window]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==References== &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Spectrum_Analysis&amp;diff=35578</id>
		<title>Signal Representation/Spectrum Analysis</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Spectrum_Analysis&amp;diff=35578"/>
		<updated>2021-01-04T01:53:28Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Time and Frequency-Discrete Signal Representation&lt;br /&gt;
|Vorherige Seite=Possible Errors When Using DFT&lt;br /&gt;
|Nächste Seite=Fast Fourier Transform (FFT)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Spectral Leakage==&lt;br /&gt;
&amp;lt;br&amp;gt;  	 &lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; &lt;br /&gt;
The term '''spectral leakage effect''' is used to describe the distortion of the spectrum of a periodic and thus temporally unlimited signal due to the implicit time limit of the Discrete Fourier Transform (DFT). This means that, for example, a spectrum analyser&lt;br /&gt;
* fake frequency components that are not present in the time signal, and/or&lt;br /&gt;
*actually existing spectral components are hidden by side lobes}}.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The following&amp;amp;nbsp; $\text{example 1}$&amp;amp;nbsp;will show that for a periodic signal the application of the&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)|discrete  Fourier Transform]]&amp;amp;nbsp; &amp;amp;nbsp; (DFT) is not useful without additional measures. The quality of the spectral analysis - i.e. the correctness of the spectrum found - is mainly determined here by the (more or less successful) adaptation of the DFT parameters to the signal parameters at hand.&lt;br /&gt;
*If the period&amp;amp;nbsp; $T_0$&amp;amp;nbsp; of the signal is known, the duration&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; of the signal section used for the DFT should be an integer multiple of&amp;amp;nbsp; $T_0$&amp;amp;nbsp;. However, the task of spectral analysis is precisely to find arbitrary signal components, so that knowledge of&amp;amp;nbsp; $T_0$&amp;amp;nbsp; cannot generally be assumed.&lt;br /&gt;
*A measure to improve the spectral analysis is the windowing with a &amp;quot;suitable&amp;quot; time function&amp;amp;nbsp; $w(t)$. The product signal&amp;amp;nbsp; $x(t) \cdot w(t)$ is then analysed.&lt;br /&gt;
*A large number of such window functions&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; are known from the literature, which lead to good or less satisfactory results depending on the task.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
On the next pages the spectral leakage effect will be illustrated by examples and the advantages and disadvantages of the different window functions will be discussed. So much up front: '''There is no &amp;quot;best&amp;quot; window function for all applications'''.&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
&lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp; &lt;br /&gt;
The upper graph&amp;amp;nbsp; '''(a)'''&amp;amp;nbsp; from [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&amp;amp;nbsp; shows the time-discrete signal&amp;amp;nbsp; $d(\nu)$&amp;amp;nbsp; of a harmonic oscillation with frequency&amp;amp;nbsp; $f_0 = 125\,\text{ kHz}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; period&amp;amp;nbsp; $T_0 = 8 \,{\rm &amp;amp;micro; s}$. The distance between two successive time samples in this example is chosen to be&amp;amp;nbsp; $T_{\rm A} = 1 \,{\rm &amp;amp;micro; s}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
On the right is shown in logarithmic form (in dB) the frequency discrete spectrum&amp;amp;nbsp; $\vert D(\mu) \vert$&amp;amp;nbsp; after a DFT with&amp;amp;nbsp; $N = 32$&amp;amp;nbsp; samples, from which the further DFT parameters result as follows:&lt;br /&gt;
*Duration of the time segment: &amp;amp;nbsp; $T_{\rm P} = 32 \,{\rm &amp;amp;micro; s}$,&lt;br /&gt;
*gridding of the frequency axis: &amp;amp;nbsp; $f_{\rm A} = 31.25 \,\text{ kHz}$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Since the interval width&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; captures an integer multiple of the period duration&amp;amp;nbsp; $T_0$&amp;amp;nbsp;, the DFT delivers the correct result. The two Dirac functions lie exactly at&amp;amp;nbsp; $\pm4 \cdot f_{\rm A}$.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1160__Sig_T_5_4_S1_neu.png|center|frame|Example of Applying  Spectral Analysis]]&lt;br /&gt;
&lt;br /&gt;
If one measures an oscillation of frequency&amp;amp;nbsp; $f_0 = 109.375\,\text{ kHz}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; period $T_0 = 9.14 \,{\rm &amp;amp;micro; s}$&amp;amp;nbsp; corresponding to the graph below&amp;amp;nbsp; '''(b)''', significant distortions of the spectrum occur. &lt;br /&gt;
&lt;br /&gt;
*Since now&amp;amp;nbsp; $T_{\rm P}/T_0 = 3.5$&amp;amp;nbsp; is no longer an integer, the periodic continuation of the time section causes phase jumps, in our example by&amp;amp;nbsp; $\pi$.&lt;br /&gt;
*The spectral range now no longer consists of two Dirac functions as in the example&amp;amp;nbsp; '''(a)''', but of an approximately &amp;quot;continuous&amp;quot; frequency function with the maximum near the actual signal frequency and a series of further parts, which are called&amp;amp;nbsp; '''side lobes'''&amp;amp;nbsp;.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Describing Windowing from a Control Theory Perspective==  &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:EN_Sig_T_5_4_S2.png|right|frame|Rectangular Window and Bartlett Windows]]&lt;br /&gt;
The occurrence of such unwanted side lobes is now to be explained in terms of systems theory using the following diagram. This graphic was also taken from the book&amp;amp;nbsp; [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
First consider the upper graph&amp;amp;nbsp; '''(a)'''&amp;amp;nbsp; for the&amp;amp;nbsp; '''rectangular window'''.&lt;br /&gt;
*The time limit implicit in the DFT corresponds to the multiplication of the signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; by a rectangular&amp;amp;ndash;window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; of height&amp;amp;nbsp; $1$&amp;amp;nbsp; and duration&amp;amp;nbsp; $T_{\rm P}$. The upper left image shows the discrete-time representation of this rectangular function with the normalised time variable&amp;amp;nbsp; $\nu= t/T_{\rm A}$:&lt;br /&gt;
 &lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{for}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm else} \hspace{0.05cm}. \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
&lt;br /&gt;
*From the multiplication&amp;amp;nbsp; $y(t) = x(t) \cdot w(t)$&amp;amp;nbsp; of the signal to be analysed&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; and the window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; follows for the spectral function&amp;amp;nbsp; $Y(f) = X(f) \ast W(f)$, where for rectangular window function with&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm P}$&amp;amp;nbsp; holds (the function&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; is shown in logarithmic form in the upper right graph):&lt;br /&gt;
 &lt;br /&gt;
:$$W(f) = T_{\rm P} \cdot {\rm si}(\pi \cdot f \cdot T_{\rm P}) = {1}/{f_{\rm A}}\cdot {\rm si}(\pi \cdot {f}/{f_{\rm A}})\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*If all spectral components ofs&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; lie in the frequency grid&amp;amp;nbsp; $\mu \cdot f_{\rm A}$, the discrete frequency spectral values&amp;amp;nbsp; $D(\mu )$&amp;amp;nbsp; remain unchanged by the convolution with&amp;amp;nbsp; $W(f)$&amp;amp;nbsp;. &lt;br /&gt;
*Otherwise, convolution with&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; leads to distortions, since the zeros of the&amp;amp;nbsp; $\rm si$-function now no longer fit the discrete values of the input spectrum.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The discontinuities in the time domain caused by limitation and periodic continuation are reduced if, instead of the constant one weighting by the rectangle, the two edge areas of the window are weighted weaker than the centre.&lt;br /&gt;
&lt;br /&gt;
Consider the graph below&amp;amp;nbsp; '''(b)'''&amp;amp;nbsp; for the&amp;amp;nbsp; '''Bartlett window''' - also called triangular window:&lt;br /&gt;
*The time-discrete description of the Bartlett window is with&amp;amp;nbsp; $\nu = t/T_{\rm A}$:&lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 - {2  \hspace{0.05cm} \cdot  \hspace{0.05cm} |\nu|}/{N} \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{for}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm else} \hspace{0.05cm}. \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
*From this follows for the time-continuous window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; and the spectral representation&amp;amp;nbsp; $W(f)$:&lt;br /&gt;
:$${w} (t)   = \left\{ \begin{array}{c} 1 -{|t|}/{(T_{\rm P}/2)} \\&lt;br /&gt;
   0 \\ \end{array} \right.\hspace{0.05cm}&lt;br /&gt;
\begin{array}{*{20}c}&lt;br /&gt;
|t| \le  T_{\rm P}/2\\ &lt;br /&gt;
{\rm else}  \\&lt;br /&gt;
\end{array}\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\,&lt;br /&gt;
\hspace{0.2cm}W(f) ={1}/({2f_{\rm A}})\cdot {\rm si}^2(\pi \cdot&lt;br /&gt;
{f}/({2f_{\rm A}}))\hspace{0.05cm}.$$&lt;br /&gt;
*Due to the lower weighting of the edge regions, which are particularly problematic with unbounded signals, the (logarithmically drawn) spectrum&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; has lower side lobes than the&amp;amp;nbsp; $\rm si$ function in the upper image, which leads to lower leakage components.&lt;br /&gt;
*The better suppression of the side lobes, however, comes at the cost of a noticeable reduction and broadening of the main lobe, limiting the resolving power of the Bartlett window compared to the rectangular windowing.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Special Window Functions==&lt;br /&gt;
&amp;lt;br&amp;gt;  &lt;br /&gt;
[[File:EN_Sig_T_5_4_S3.png|right|frame|Hanning-, Hamming- and Kaiser-Bessel Windows]]	&lt;br /&gt;
Now some frequently used&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Window_function window functions], viz. &lt;br /&gt;
*the Hanning window, &lt;br /&gt;
*the Hamming window, and &lt;br /&gt;
*the Kaiser-Bessel window&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
will be described by means of graphs and equations contained therein. For the running variable in the time domain, $-N/2 ≤ \nu &amp;lt; N/2$ always applies. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Notes:''&lt;br /&gt;
*In the Kaiser-Bessel window, the functions in the time and frequency domain are each shown for&amp;amp;nbsp; $\alpha = 3.5$&amp;amp;nbsp;.&lt;br /&gt;
* ${\rm I}_0(.)$&amp;amp;nbsp; denotes the&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Bessel_function modified zero-order Bessel function].&lt;br /&gt;
*Further window functions such as the Blackman-Harris window, the&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Raised-cosine_filter cosine rolloff window]&amp;amp;nbsp; (also called Tukey window) and many more can be found in the book&amp;amp;nbsp; [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The suitability of these window functions for various tasks of spectral analysis is mentioned on the next page.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt; &lt;br /&gt;
==Goodness criteria of window functions==&lt;br /&gt;
&amp;lt;br&amp;gt;  	&lt;br /&gt;
[[File:EN_Sig_T_5_4_S4_neu.png|right|frame|Compilation of Important Quality Criteria of Window Functions]]&lt;br /&gt;
The table shows quality criteria for the window functions described on the last pages. The selection of a suitable window function should be made according to the following aspects:&lt;br /&gt;
*The&amp;amp;nbsp; '''minimum distance between main lobe and side lobes'''&amp;amp;nbsp; should be as large as possible to keep the influence of the leakage effect low and to improve the amplitude resolution.&lt;br /&gt;
*For reasons of good frequency selectivity, the&amp;amp;nbsp; '''6dB bandwidth'''&amp;amp;nbsp; should be small. If it is too large, a dominant spectral line will mask smaller components in the surrounding area.&lt;br /&gt;
*The&amp;amp;nbsp; '''maximum process loss'''&amp;amp;nbsp; (in dB) includes the maximum scaling error and the equivalent noise bandwidth. This value should in no case exceed&amp;amp;nbsp; $\text{3.7 dB}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
These most important quality criteria are highlighted in red in the adjacent table.&lt;br /&gt;
*In each row, rather favourable window functions are highlighted in green and rather unfavourable ones in grey. &lt;br /&gt;
*From the distribution of the green and grey areas it is already evident that the optimal window function does not exist.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Now the quality criteria given in the table are described in more detail:&lt;br /&gt;
*The larger the ''minimum main-to-side lobe distance'' &amp;amp;nbsp; ⇒ &amp;amp;nbsp; ratio of the main lobe to the highest side lobe, the better the amplitude resolution of a window function. For the rectangle this distance is, as expected, smallest&amp;amp;nbsp; $\text{(13 dB)}$. The best result is achieved with&amp;amp;nbsp; $\text{92 dB}$&amp;amp;nbsp; the fourth-order Blackman-Harris window.&lt;br /&gt;
*However, since not only the highest but also all other side lobes contribute to the leakage effect, the&amp;amp;nbsp; '''side lobe drop'''&amp;amp;nbsp; is another measure for the resolving power. Of the given window functions, the Hanning window and the cosine rolloff window with rolloff&amp;amp;nbsp; $r = 0.5$&amp;amp;nbsp; have the most favourable values in this respect&amp;amp;nbsp; $\text{(18 dB/octave)}$.&lt;br /&gt;
*The&amp;amp;nbsp; '''6 dB bandwidth''', which can be read from the logarithmised spectral function, is an important measure of the frequency resolving power. Two spectral components present in the signal at&amp;amp;nbsp; $f_1$&amp;amp;nbsp; and&amp;amp;nbsp; $f_2$&amp;amp;nbsp; can only be resolved if the difference&amp;amp;nbsp; $f_2 - f_1$&amp;amp;nbsp; is greater than the&amp;amp;nbsp; $\text{6 dB}$-bandwidth of the window function used (see following right graph).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_4_S4b.png|center|frame|Illustrating the&amp;amp;nbsp; $\text{6 dB}$-bandwidth]]&lt;br /&gt;
*The&amp;amp;nbsp; '''window area'''&amp;amp;nbsp; of the function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; at the same time gives the height&amp;amp;nbsp; $W(0)$&amp;amp;nbsp; in the spectral domain. For all windows except the rectangle, a window area smaller than&amp;amp;nbsp; $1$&amp;amp;nbsp; and thus an error in the amplitude of the DFT result results due to the suppression of the outer samples, which, however, can be completely corrected if&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; is known.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp; &lt;br /&gt;
*A good compromise is the&amp;amp;nbsp; '''Hanning window'''&amp;amp;nbsp; (highlighted in blue in the table), which never scores &amp;quot;grey&amp;quot; with respect to the three main criteria (red markings).&lt;br /&gt;
*The&amp;amp;nbsp; '''Hamming window'''&amp;amp;nbsp; differs from this only slightly in the time domain, but considerably in the spectral domain. Thus, the side lobe drop per octave is only more&amp;amp;nbsp; $\text{6 dB}$&amp;amp;nbsp; $($instead of&amp;amp;nbsp; $\text{18 dB})$.}}&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Maximum Process Loss==&lt;br /&gt;
&amp;lt;br&amp;gt;  	 	&lt;br /&gt;
This combined quality criterion considers the&amp;amp;nbsp; '''maximum scaling error'''&amp;amp;nbsp; as well as the (normalised)&amp;amp;nbsp; '''equivalent noise bandwidth'''. The maximum process loss is usually given in&amp;amp;nbsp; $\text{dB}$&amp;amp;nbsp; and should be rather small according to its name:&lt;br /&gt;
 &lt;br /&gt;
:$$10 \cdot {\rm lg}\hspace{0.15cm}V_{\rm P}\hspace{0.15cm}{\rm (in}\hspace{0.15cm}{\rm dB)}= 20 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{|W(f=0)|}{|W(f=f_{\rm A}/2)|} + 10 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{\int_{-\infty}^{\infty}|W(f)|^2\hspace{0.05cm}{\rm d}f}{f_{\rm A} \cdot |W(f=0)|^2} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
From the&amp;amp;nbsp; &amp;amp;nbsp; [[Signal_Representation/Spectrum_Analysis#G.C3.BCtekriterien_von_Fensterfunktionen|table]]&amp;amp;nbsp; it can be seen that&amp;amp;nbsp; $V_{\rm P}$&amp;amp;nbsp; takes values between&amp;amp;nbsp; $\text{3 dB}$&amp;amp;nbsp; and&amp;amp;nbsp; $\text{4 dB}$&amp;amp;nbsp; for the window functions considered, where window functions with&amp;amp;nbsp; $V_{\rm P} &amp;gt; 3. 7 \,\text{dB}$&amp;amp;nbsp; (rectangle, Blackman-Harris, Kaiser-Bessel)&amp;amp;nbsp; should not be used. However, it is precisely these that are best with regard to the main-to-side lobe distance.&lt;br /&gt;
&lt;br /&gt;
The two proportions are to be interpreted as follows:&lt;br /&gt;
*The ''maximum scaling error''&amp;amp;nbsp; is the ratio by which the amplitude determined with the DFT differs from the actual signal amplitude. The amplitude error due to a window area smaller than&amp;amp;nbsp; $1$&amp;amp;nbsp; is assumed to be corrected.&lt;br /&gt;
*The wider the main lobe of the window function, the smaller this scaling error. The error is largest when the frequency&amp;amp;nbsp; $f_0$&amp;amp;nbsp; of a harmonic oscillation lies midway between two DFT support points &amp;amp;nbsp; ⇒ &amp;amp;nbsp; quotient $|W(f = 0)| / |W(f = f_{\rm A}/2)|$. &lt;br /&gt;
&lt;br /&gt;
*The ''equivalent noise bandwidth''&amp;amp;nbsp; of the window function used - calculable as the width of the equal-area rectangle with respect to the magnitude square&amp;amp;nbsp; $|W(f)|^2$&amp;amp;nbsp; of the spectral function - captures the disturbing influence of white noise and should be as small as possible.&lt;br /&gt;
*The smallest noise bandwidth results for the rectangle. All other window functions have a larger noise bandwidth and thus, in the presence of noise interference, also a (significantly) less favourable signal-to-noise power ratio.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp; &lt;br /&gt;
The results of this section can be summarised as follows:&lt;br /&gt;
*An ideal window function does not exist. Depending on the task&amp;amp;nbsp; (good amplitude or frequency resolution)&amp;amp;nbsp; different windows provide the best result in each case. It is therefore recommended that one always uses several window functions for spectral analysis or at least one window function with different parameters.&lt;br /&gt;
*A workable compromise with regard to all criteria is the&amp;amp;nbsp; '''Hamming window''', which only gives an unfavourable value for the side lobe drop&amp;amp;nbsp; $($only&amp;amp;nbsp; $\text{6 dB per octave})$&amp;amp;nbsp;. Although the&amp;amp;nbsp; '''Hanning window'''&amp;amp;nbsp; differs only marginally from the Hamming window in the time domain, in the spectral domain&amp;amp;nbsp; (minimum distance between main lobe and side lobes)&amp;amp;nbsp; the difference between the two is considerable.}}&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
==Exercises for The Chapter== &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.4: Comparison of Rectangular And Hanning Window |Exercise 5.4: Comparison of Rectangular And Hanning Window ]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.4Z: On The Hanning Window|Exercise 5.4Z: On The Hanning Window]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==References== &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Spectrum_Analysis&amp;diff=35572</id>
		<title>Signal Representation/Spectrum Analysis</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Spectrum_Analysis&amp;diff=35572"/>
		<updated>2021-01-02T16:49:21Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Time and Frequency-Discrete Signal Representation&lt;br /&gt;
|Vorherige Seite=Possible Errors When Using DFT&lt;br /&gt;
|Nächste Seite=Fast Fourier Transform (FFT)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Spectral Leakage==&lt;br /&gt;
&amp;lt;br&amp;gt;  	 &lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; &lt;br /&gt;
The term '''spectral leakage effect''' is used to describe the distortion of the spectrum of a periodic and thus temporally unlimited signal due to the implicit time limit of the Discrete Fourier Transform (DFT). This means that, for example, a spectrum analyser&lt;br /&gt;
* fake frequency components that are not present in the time signal, and/or&lt;br /&gt;
*actually existing spectral components are hidden by side lobes}}.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The following&amp;amp;nbsp; $\text{example 1}$&amp;amp;nbsp;will show that for a periodic signal the application of the&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)|discrete  Fourier Transform]]&amp;amp;nbsp; &amp;amp;nbsp; (DFT) is not useful without additional measures. The quality of the spectral analysis - i.e. the correctness of the spectrum found - is mainly determined here by the (more or less successful) adaptation of the DFT parameters to the signal parameters at hand.&lt;br /&gt;
*If the period&amp;amp;nbsp; $T_0$&amp;amp;nbsp; of the signal is known, the duration&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; of the signal section used for the DFT should be an integer multiple of&amp;amp;nbsp; $T_0$&amp;amp;nbsp;. However, the task of spectral analysis is precisely to find arbitrary signal components, so that knowledge of&amp;amp;nbsp; $T_0$&amp;amp;nbsp; cannot generally be assumed.&lt;br /&gt;
*A measure to improve the spectral analysis is the windowing with a &amp;quot;suitable&amp;quot; time function&amp;amp;nbsp; $w(t)$. The product signal&amp;amp;nbsp; $x(t) \cdot w(t)$ is then analysed.&lt;br /&gt;
*A large number of such window functions&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; are known from the literature, which lead to good or less satisfactory results depending on the task.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
On the next pages the spectral leakage effect will be illustrated by examples and the advantages and disadvantages of the different window functions will be discussed. So much up front: '''There is no &amp;quot;best&amp;quot; window function for all applications'''.&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
&lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp; &lt;br /&gt;
The upper graph&amp;amp;nbsp; '''(a)'''&amp;amp;nbsp; from [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&amp;amp;nbsp; shows the time-discrete signal&amp;amp;nbsp; $d(\nu)$&amp;amp;nbsp; of a harmonic oscillation with frequency&amp;amp;nbsp; $f_0 = 125\,\text{ kHz}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; period&amp;amp;nbsp; $T_0 = 8 \,{\rm &amp;amp;micro; s}$. The distance between two successive time samples in this example is chosen to be&amp;amp;nbsp; $T_{\rm A} = 1 \,{\rm &amp;amp;micro; s}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
On the right is shown in logarithmic form (in dB) the frequency discrete spectrum&amp;amp;nbsp; $\vert D(\mu) \vert$&amp;amp;nbsp; after a DFT with&amp;amp;nbsp; $N = 32$&amp;amp;nbsp; samples, from which the further DFT parameters result as follows:&lt;br /&gt;
*Duration of the time segment: &amp;amp;nbsp; $T_{\rm P} = 32 \,{\rm &amp;amp;micro; s}$,&lt;br /&gt;
*gridding of the frequency axis: &amp;amp;nbsp; $f_{\rm A} = 31.25 \,\text{ kHz}$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Since the interval width&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; captures an integer multiple of the period duration&amp;amp;nbsp; $T_0$&amp;amp;nbsp;, the DFT delivers the correct result. The two Dirac functions lie exactly at&amp;amp;nbsp; $\pm4 \cdot f_{\rm A}$.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1160__Sig_T_5_4_S1_neu.png|center|frame|Example of Applying  Spectral Analysis]]&lt;br /&gt;
&lt;br /&gt;
If one measures an oscillation of frequency&amp;amp;nbsp; $f_0 = 109.375\,\text{ kHz}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; period $T_0 = 9.14 \,{\rm &amp;amp;micro; s}$&amp;amp;nbsp; corresponding to the graph below&amp;amp;nbsp; '''(b)''', significant distortions of the spectrum occur. &lt;br /&gt;
&lt;br /&gt;
*Since now&amp;amp;nbsp; $T_{\rm P}/T_0 = 3.5$&amp;amp;nbsp; is no longer an integer, the periodic continuation of the time section causes phase jumps, in our example by&amp;amp;nbsp; $\pi$.&lt;br /&gt;
*The spectral range now no longer consists of two Dirac functions as in the example&amp;amp;nbsp; '''(a)''', but of an approximately &amp;quot;continuous&amp;quot; frequency function with the maximum near the actual signal frequency and a series of further parts, which are called&amp;amp;nbsp; '''side lobes'''&amp;amp;nbsp;.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Describing Windowing from a Control Theory Perspective==  &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:EN_Sig_T_5_4_S2.png|right|frame|Rectangular Window and Bartlett Windows]]&lt;br /&gt;
The occurrence of such unwanted side lobes is now to be explained in terms of systems theory using the following diagram. This graphic was also taken from the book&amp;amp;nbsp; [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
First consider the upper graph&amp;amp;nbsp; '''(a)'''&amp;amp;nbsp; for the&amp;amp;nbsp; '''rectangular window'''.&lt;br /&gt;
*The time limit implicit in the DFT corresponds to the multiplication of the signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; by a rectangular&amp;amp;ndash;window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; of height&amp;amp;nbsp; $1$&amp;amp;nbsp; and duration&amp;amp;nbsp; $T_{\rm P}$. The upper left image shows the discrete-time representation of this rectangular function with the normalised time variable&amp;amp;nbsp; $\nu= t/T_{\rm A}$:&lt;br /&gt;
 &lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{for}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm else} \hspace{0.05cm}. \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
&lt;br /&gt;
*From the multiplication&amp;amp;nbsp; $y(t) = x(t) \cdot w(t)$&amp;amp;nbsp; of the signal to be analysed&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; and the window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; follows for the spectral function&amp;amp;nbsp; $Y(f) = X(f) \ast W(f)$, where for rectangular window function with&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm P}$&amp;amp;nbsp; holds (the function&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; is shown in logarithmic form in the upper right graph):&lt;br /&gt;
 &lt;br /&gt;
:$$W(f) = T_{\rm P} \cdot {\rm si}(\pi \cdot f \cdot T_{\rm P}) = {1}/{f_{\rm A}}\cdot {\rm si}(\pi \cdot {f}/{f_{\rm A}})\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*If all spectral components ofs&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; lie in the frequency grid&amp;amp;nbsp; $\mu \cdot f_{\rm A}$, the discrete frequency spectral values&amp;amp;nbsp; $D(\mu )$&amp;amp;nbsp; remain unchanged by the convolution with&amp;amp;nbsp; $W(f)$&amp;amp;nbsp;. &lt;br /&gt;
*Otherwise, convolution with&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; leads to distortions, since the zeros of the&amp;amp;nbsp; $\rm si$-function now no longer fit the discrete values of the input spectrum.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The discontinuities in the time domain caused by limitation and periodic continuation are reduced if, instead of the constant one weighting by the rectangle, the two edge areas of the window are weighted weaker than the centre.&lt;br /&gt;
&lt;br /&gt;
Consider the graph below&amp;amp;nbsp; '''(b)'''&amp;amp;nbsp; for the&amp;amp;nbsp; '''Bartlett window''' - also called triangular window:&lt;br /&gt;
*The time-discrete description of the Bartlett window is with&amp;amp;nbsp; $\nu = t/T_{\rm A}$:&lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 - {2  \hspace{0.05cm} \cdot  \hspace{0.05cm} |\nu|}/{N} \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{for}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm else} \hspace{0.05cm}. \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
*From this follows for the time-continuous window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; and the spectral representation&amp;amp;nbsp; $W(f)$:&lt;br /&gt;
:$${w} (t)   = \left\{ \begin{array}{c} 1 -{|t|}/{(T_{\rm P}/2)} \\&lt;br /&gt;
   0 \\ \end{array} \right.\hspace{0.05cm}&lt;br /&gt;
\begin{array}{*{20}c}&lt;br /&gt;
|t| \le  T_{\rm P}/2\\ &lt;br /&gt;
{\rm else}  \\&lt;br /&gt;
\end{array}\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\,&lt;br /&gt;
\hspace{0.2cm}W(f) ={1}/({2f_{\rm A}})\cdot {\rm si}^2(\pi \cdot&lt;br /&gt;
{f}/({2f_{\rm A}}))\hspace{0.05cm}.$$&lt;br /&gt;
*Due to the lower weighting of the edge regions, which are particularly problematic with unbounded signals, the (logarithmically drawn) spectrum&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; has lower side lobes than the&amp;amp;nbsp; $\rm si$ function in the upper image, which leads to lower leakage components.&lt;br /&gt;
*The better suppression of the side lobes, however, comes at the cost of a noticeable reduction and broadening of the main lobe, limiting the resolving power of the Bartlett window compared to the rectangular windowing.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Special Window Functions==&lt;br /&gt;
&amp;lt;br&amp;gt;  &lt;br /&gt;
[[File:EN_Sig_T_5_4_S3.png|right|frame|Hanning-, Hamming- and Kaiser-Bessel Windows]]	&lt;br /&gt;
Now some frequently used&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Window_function window functions], viz. &lt;br /&gt;
*the Hanning window, &lt;br /&gt;
*the Hamming window, and &lt;br /&gt;
*the Kaiser-Bessel window&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
will be described by means of graphs and equations contained therein. For the running variable in the time domain, $-N/2 ≤ \nu &amp;lt; N/2$ always applies. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Notes:''&lt;br /&gt;
*In the Kaiser-Bessel window, the functions in the time and frequency domain are each shown for&amp;amp;nbsp; $\alpha = 3.5$&amp;amp;nbsp;.&lt;br /&gt;
* ${\rm I}_0(.)$&amp;amp;nbsp; denotes the&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Bessel_function modified zero-order Bessel function].&lt;br /&gt;
*Further window functions such as the Blackman-Harris window, the&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Raised-cosine_filter cosine rolloff window]&amp;amp;nbsp; (also called Tukey window) and many more can be found in the book&amp;amp;nbsp; [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The suitability of these window functions for various tasks of spectral analysis is mentioned on the next page.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt; &lt;br /&gt;
==Goodness criteria of window functions==&lt;br /&gt;
&amp;lt;br&amp;gt;  	&lt;br /&gt;
[[File:EN_Sig_T_5_4_S4_neu.png|right|frame|Compilation of Important Quality Criteria of Window Functions]]&lt;br /&gt;
The table shows quality criteria for the window functions described on the last pages. The selection of a suitable window function should be made according to the following aspects:&lt;br /&gt;
*The&amp;amp;nbsp; '''minimum distance between main lobe and side lobes'''&amp;amp;nbsp; should be as large as possible to keep the influence of the leakage effect low and to improve the amplitude resolution.&lt;br /&gt;
*For reasons of good frequency selectivity, the&amp;amp;nbsp; '''6dB bandwidth'''&amp;amp;nbsp; should be small. If it is too large, a dominant spectral line will mask smaller components in the surrounding area.&lt;br /&gt;
*The&amp;amp;nbsp; '''maximum process loss'''&amp;amp;nbsp; (in dB) includes the maximum scaling error and the equivalent noise bandwidth. This value should in no case exceed&amp;amp;nbsp; $\text{3.7 dB}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
These most important quality criteria are highlighted in red in the adjacent table.&lt;br /&gt;
*In each row, rather favourable window functions are highlighted in green and rather unfavourable ones in grey. &lt;br /&gt;
*From the distribution of the green and grey areas it is already evident that the optimal window function does not exist.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Now the quality criteria given in the table are described in more detail:&lt;br /&gt;
*The larger the ''minimum main-to-side lobe distance'' &amp;amp;nbsp; ⇒ &amp;amp;nbsp; ratio of the main lobe to the highest side lobe, the better the amplitude resolution of a window function. For the rectangle this distance is, as expected, smallest&amp;amp;nbsp; $\text{(13 dB)}$. The best result is achieved with&amp;amp;nbsp; $\text{92 dB}$&amp;amp;nbsp; the fourth-order Blackman-Harris window.&lt;br /&gt;
*However, since not only the highest but also all other side lobes contribute to the leakage effect, the&amp;amp;nbsp; '''side lobe drop'''&amp;amp;nbsp; is another measure for the resolving power. Of the given window functions, the Hanning window and the cosine rolloff window with rolloff&amp;amp;nbsp; $r = 0.5$&amp;amp;nbsp; have the most favourable values in this respect&amp;amp;nbsp; $\text{(18 dB/octave)}$.&lt;br /&gt;
*The&amp;amp;nbsp; '''6 dB bandwidth''', which can be read from the logarithmised spectral function, is an important measure of the frequency resolving power. Two spectral components present in the signal at&amp;amp;nbsp; $f_1$&amp;amp;nbsp; and&amp;amp;nbsp; $f_2$&amp;amp;nbsp; can only be resolved if the difference&amp;amp;nbsp; $f_2 - f_1$&amp;amp;nbsp; is greater than the&amp;amp;nbsp; $\text{6 dB}$-bandwidth of the window function used (see following right graph).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_4_S4b.png|center|frame|Illustrating the&amp;amp;nbsp; $\text{6 dB}$-bandwidth]]&lt;br /&gt;
*The&amp;amp;nbsp; '''window area'''&amp;amp;nbsp; of the function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; at the same time gives the height&amp;amp;nbsp; $W(0)$&amp;amp;nbsp; in the spectral domain. For all windows except the rectangle, a window area smaller than&amp;amp;nbsp; $1$&amp;amp;nbsp; and thus an error in the amplitude of the DFT result results due to the suppression of the outer samples, which, however, can be completely corrected if&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; is known.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp; &lt;br /&gt;
*A good compromise is the&amp;amp;nbsp; '''Hanning window'''&amp;amp;nbsp; (highlighted in blue in the table), which never scores &amp;quot;grey&amp;quot; with respect to the three main criteria (red markings).&lt;br /&gt;
*The&amp;amp;nbsp; '''Hamming window'''&amp;amp;nbsp; differs from this only slightly in the time domain, but considerably in the spectral domain. Thus, the side lobe drop per octave is only more&amp;amp;nbsp; $\text{6 dB}$&amp;amp;nbsp; $($instead of&amp;amp;nbsp; $\text{18 dB})$.}}&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Maximum process loss==&lt;br /&gt;
&amp;lt;br&amp;gt;  	 	&lt;br /&gt;
This combined quality criterion considers the&amp;amp;nbsp; '''maximum scaling error'''&amp;amp;nbsp; as well as the (normalised)&amp;amp;nbsp; '''equivalent noise bandwidth'''. The maximum process loss is usually given in&amp;amp;nbsp; $\text{dB}$&amp;amp;nbsp; and should be rather small according to its name:&lt;br /&gt;
 &lt;br /&gt;
:$$10 \cdot {\rm lg}\hspace{0.15cm}V_{\rm P}\hspace{0.15cm}{\rm (in}\hspace{0.15cm}{\rm dB)}= 20 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{|W(f=0)|}{|W(f=f_{\rm A}/2)|} + 10 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{\int_{-\infty}^{\infty}|W(f)|^2\hspace{0.05cm}{\rm d}f}{f_{\rm A} \cdot |W(f=0)|^2} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
From the&amp;amp;nbsp; &amp;amp;nbsp; [[Signal_Representation/Spectrum_Analysis#G.C3.BCtekriterien_von_Fensterfunktionen|table]]&amp;amp;nbsp; it can be seen that&amp;amp;nbsp; $V_{\rm P}$&amp;amp;nbsp; takes values between&amp;amp;nbsp; $\text{3 dB}$&amp;amp;nbsp; and&amp;amp;nbsp; $\text{4 dB}$&amp;amp;nbsp; for the window functions considered, where window functions with&amp;amp;nbsp; $V_{\rm P} &amp;gt; 3. 7 \,\text{dB}$&amp;amp;nbsp; (rectangle, Blackman-Harris, Kaiser-Bessel)&amp;amp;nbsp; should not be used. However, it is precisely these that are best with regard to the main-to-side lobe distance.&lt;br /&gt;
&lt;br /&gt;
The two proportions are to be interpreted as follows:&lt;br /&gt;
*The ''maximum scaling error''&amp;amp;nbsp; is the ratio by which the amplitude determined with the DFT differs from the actual signal amplitude. The amplitude error due to a window area smaller than&amp;amp;nbsp; $1$&amp;amp;nbsp; is assumed to be corrected.&lt;br /&gt;
*The wider the main lobe of the window function, the smaller this scaling error. The error is largest when the frequency&amp;amp;nbsp; $f_0$&amp;amp;nbsp; of a harmonic oscillation lies midway between two DFT support points &amp;amp;nbsp; ⇒ &amp;amp;nbsp; quotient $|W(f = 0)| / |W(f = f_{\rm A}/2)|$. &lt;br /&gt;
&lt;br /&gt;
*The ''equivalent noise bandwidth''&amp;amp;nbsp; of the window function used - calculable as the width of the equal-area rectangle with respect to the magnitude square&amp;amp;nbsp; $|W(f)|^2$&amp;amp;nbsp; of the spectral function - captures the disturbing influence of white noise and should be as small as possible.&lt;br /&gt;
*The smallest noise bandwidth results for the rectangle. All other window functions have a larger noise bandwidth and thus, in the presence of noise interference, also a (significantly) less favourable signal-to-noise power ratio.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp; &lt;br /&gt;
The results of this section can be summarised as follows:&lt;br /&gt;
*An ideal window function does not exist. Depending on the task&amp;amp;nbsp; (good amplitude or frequency resolution)&amp;amp;nbsp; different windows provide the best result in each case. It is therefore recommended that one always uses several window functions for spectral analysis or at least one window function with different parameters.&lt;br /&gt;
*A workable compromise with regard to all criteria is the&amp;amp;nbsp; '''Hamming window''', which only gives an unfavourable value for the side lobe drop&amp;amp;nbsp; $($only&amp;amp;nbsp; $\text{6 dB per octave})$&amp;amp;nbsp;. Although the&amp;amp;nbsp; '''Hanning window'''&amp;amp;nbsp; differs only marginally from the Hamming window in the time domain, in the spectral domain&amp;amp;nbsp; (minimum distance between main lobe and side lobes)&amp;amp;nbsp; the difference between the two is considerable.}}&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
==Exercises for The Chapter== &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.4: Comparison of Rectangular And Hanning Window |Exercise 5.4: Comparison of Rectangular And Hanning Window ]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.4Z: On The Hanning Window|Exercise 5.4Z: On The Hanning Window]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==References== &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Spectrum_Analysis&amp;diff=35571</id>
		<title>Signal Representation/Spectrum Analysis</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Spectrum_Analysis&amp;diff=35571"/>
		<updated>2021-01-02T16:48:32Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Time and Frequency-Discrete Signal Representation&lt;br /&gt;
|Vorherige Seite=Possible Errors When Using DFT&lt;br /&gt;
|Nächste Seite=Fast Fourier Transform (FFT)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Spectral Leakage==&lt;br /&gt;
&amp;lt;br&amp;gt;  	 &lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; &lt;br /&gt;
The term '''spectral leakage effect''' is used to describe the distortion of the spectrum of a periodic and thus temporally unlimited signal due to the implicit time limit of the Discrete Fourier Transform (DFT). This means that, for example, a spectrum analyser&lt;br /&gt;
* fake frequency components that are not present in the time signal, and/or&lt;br /&gt;
*actually existing spectral components are hidden by side lobes}}.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The following&amp;amp;nbsp; $\text{example 1}$&amp;amp;nbsp;will show that for a periodic signal the application of the&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)|discrete  Fourier Transform]]&amp;amp;nbsp; &amp;amp;nbsp; (DFT) is not useful without additional measures. The quality of the spectral analysis - i.e. the correctness of the spectrum found - is mainly determined here by the (more or less successful) adaptation of the DFT parameters to the signal parameters at hand.&lt;br /&gt;
*If the period&amp;amp;nbsp; $T_0$&amp;amp;nbsp; of the signal is known, the duration&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; of the signal section used for the DFT should be an integer multiple of&amp;amp;nbsp; $T_0$&amp;amp;nbsp;. However, the task of spectral analysis is precisely to find arbitrary signal components, so that knowledge of&amp;amp;nbsp; $T_0$&amp;amp;nbsp; cannot generally be assumed.&lt;br /&gt;
*A measure to improve the spectral analysis is the windowing with a &amp;quot;suitable&amp;quot; time function&amp;amp;nbsp; $w(t)$. The product signal&amp;amp;nbsp; $x(t) \cdot w(t)$ is then analysed.&lt;br /&gt;
*A large number of such window functions&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; are known from the literature, which lead to good or less satisfactory results depending on the task.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
On the next pages the spectral leakage effect will be illustrated by examples and the advantages and disadvantages of the different window functions will be discussed. So much up front: '''There is no &amp;quot;best&amp;quot; window function for all applications'''.&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
&lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp; &lt;br /&gt;
The upper graph&amp;amp;nbsp; '''(a)'''&amp;amp;nbsp; from [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&amp;amp;nbsp; shows the time-discrete signal&amp;amp;nbsp; $d(\nu)$&amp;amp;nbsp; of a harmonic oscillation with frequency&amp;amp;nbsp; $f_0 = 125\,\text{ kHz}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; period&amp;amp;nbsp; $T_0 = 8 \,{\rm &amp;amp;micro; s}$. The distance between two successive time samples in this example is chosen to be&amp;amp;nbsp; $T_{\rm A} = 1 \,{\rm &amp;amp;micro; s}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
On the right is shown in logarithmic form (in dB) the frequency discrete spectrum&amp;amp;nbsp; $\vert D(\mu) \vert$&amp;amp;nbsp; after a DFT with&amp;amp;nbsp; $N = 32$&amp;amp;nbsp; samples, from which the further DFT parameters result as follows:&lt;br /&gt;
*Duration of the time segment: &amp;amp;nbsp; $T_{\rm P} = 32 \,{\rm &amp;amp;micro; s}$,&lt;br /&gt;
*gridding of the frequency axis: &amp;amp;nbsp; $f_{\rm A} = 31.25 \,\text{ kHz}$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Since the interval width&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; captures an integer multiple of the period duration&amp;amp;nbsp; $T_0$&amp;amp;nbsp;, the DFT delivers the correct result. The two Dirac functions lie exactly at&amp;amp;nbsp; $\pm4 \cdot f_{\rm A}$.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1160__Sig_T_5_4_S1_neu.png|center|frame|Example of Applying  Spectral Analysis]]&lt;br /&gt;
&lt;br /&gt;
If one measures an oscillation of frequency&amp;amp;nbsp; $f_0 = 109.375\,\text{ kHz}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; period $T_0 = 9.14 \,{\rm &amp;amp;micro; s}$&amp;amp;nbsp; corresponding to the graph below&amp;amp;nbsp; '''(b)''', significant distortions of the spectrum occur. &lt;br /&gt;
&lt;br /&gt;
*Since now&amp;amp;nbsp; $T_{\rm P}/T_0 = 3.5$&amp;amp;nbsp; is no longer an integer, the periodic continuation of the time section causes phase jumps, in our example by&amp;amp;nbsp; $\pi$.&lt;br /&gt;
*The spectral range now no longer consists of two Dirac functions as in the example&amp;amp;nbsp; '''(a)''', but of an approximately &amp;quot;continuous&amp;quot; frequency function with the maximum near the actual signal frequency and a series of further parts, which are called&amp;amp;nbsp; '''side lobes'''&amp;amp;nbsp;.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Describing Windowing from a Control Theory Perspective==  &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:EN_Sig_T_5_4_S2.png|right|frame|Rectangular Window and Bartlett Windows]]&lt;br /&gt;
The occurrence of such unwanted side lobes is now to be explained in terms of systems theory using the following diagram. This graphic was also taken from the book&amp;amp;nbsp; [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
First consider the upper graph&amp;amp;nbsp; '''(a)'''&amp;amp;nbsp; for the&amp;amp;nbsp; '''rectangular window'''.&lt;br /&gt;
*The time limit implicit in the DFT corresponds to the multiplication of the signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; by a rectangular&amp;amp;ndash;window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; of height&amp;amp;nbsp; $1$&amp;amp;nbsp; and duration&amp;amp;nbsp; $T_{\rm P}$. The upper left image shows the discrete-time representation of this rectangular function with the normalised time variable&amp;amp;nbsp; $\nu= t/T_{\rm A}$:&lt;br /&gt;
 &lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{f\ddot{u}r}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm else} \hspace{0.05cm}. \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
&lt;br /&gt;
*From the multiplication&amp;amp;nbsp; $y(t) = x(t) \cdot w(t)$&amp;amp;nbsp; of the signal to be analysed&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; and the window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; follows for the spectral function&amp;amp;nbsp; $Y(f) = X(f) \ast W(f)$, where for rectangular window function with&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm P}$&amp;amp;nbsp; holds (the function&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; is shown in logarithmic form in the upper right graph):&lt;br /&gt;
 &lt;br /&gt;
:$$W(f) = T_{\rm P} \cdot {\rm si}(\pi \cdot f \cdot T_{\rm P}) = {1}/{f_{\rm A}}\cdot {\rm si}(\pi \cdot {f}/{f_{\rm A}})\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*If all spectral components ofs&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; lie in the frequency grid&amp;amp;nbsp; $\mu \cdot f_{\rm A}$, the discrete frequency spectral values&amp;amp;nbsp; $D(\mu )$&amp;amp;nbsp; remain unchanged by the convolution with&amp;amp;nbsp; $W(f)$&amp;amp;nbsp;. &lt;br /&gt;
*Otherwise, convolution with&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; leads to distortions, since the zeros of the&amp;amp;nbsp; $\rm si$-function now no longer fit the discrete values of the input spectrum.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The discontinuities in the time domain caused by limitation and periodic continuation are reduced if, instead of the constant one weighting by the rectangle, the two edge areas of the window are weighted weaker than the centre.&lt;br /&gt;
&lt;br /&gt;
Consider the graph below&amp;amp;nbsp; '''(b)'''&amp;amp;nbsp; for the&amp;amp;nbsp; '''Bartlett window''' - also called triangular window:&lt;br /&gt;
*The time-discrete description of the Bartlett window is with&amp;amp;nbsp; $\nu = t/T_{\rm A}$:&lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 - {2  \hspace{0.05cm} \cdot  \hspace{0.05cm} |\nu|}/{N} \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{f\ddot{u}r}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm else} \hspace{0.05cm}. \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
*From this follows for the time-continuous window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; and the spectral representation&amp;amp;nbsp; $W(f)$:&lt;br /&gt;
:$${w} (t)   = \left\{ \begin{array}{c} 1 -{|t|}/{(T_{\rm P}/2)} \\&lt;br /&gt;
   0 \\ \end{array} \right.\hspace{0.05cm}&lt;br /&gt;
\begin{array}{*{20}c}&lt;br /&gt;
|t| \le  T_{\rm P}/2\\ &lt;br /&gt;
{\rm else}  \\&lt;br /&gt;
\end{array}\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\,&lt;br /&gt;
\hspace{0.2cm}W(f) ={1}/({2f_{\rm A}})\cdot {\rm si}^2(\pi \cdot&lt;br /&gt;
{f}/({2f_{\rm A}}))\hspace{0.05cm}.$$&lt;br /&gt;
*Due to the lower weighting of the edge regions, which are particularly problematic with unbounded signals, the (logarithmically drawn) spectrum&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; has lower side lobes than the&amp;amp;nbsp; $\rm si$ function in the upper image, which leads to lower leakage components.&lt;br /&gt;
*The better suppression of the side lobes, however, comes at the cost of a noticeable reduction and broadening of the main lobe, limiting the resolving power of the Bartlett window compared to the rectangular windowing.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Special Window Functions==&lt;br /&gt;
&amp;lt;br&amp;gt;  &lt;br /&gt;
[[File:EN_Sig_T_5_4_S3.png|right|frame|Hanning-, Hamming- and Kaiser-Bessel Windows]]	&lt;br /&gt;
Now some frequently used&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Window_function window functions], viz. &lt;br /&gt;
*the Hanning window, &lt;br /&gt;
*the Hamming window, and &lt;br /&gt;
*the Kaiser-Bessel window&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
will be described by means of graphs and equations contained therein. For the running variable in the time domain, $-N/2 ≤ \nu &amp;lt; N/2$ always applies. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Notes:''&lt;br /&gt;
*In the Kaiser-Bessel window, the functions in the time and frequency domain are each shown for&amp;amp;nbsp; $\alpha = 3.5$&amp;amp;nbsp;.&lt;br /&gt;
* ${\rm I}_0(.)$&amp;amp;nbsp; denotes the&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Bessel_function modified zero-order Bessel function].&lt;br /&gt;
*Further window functions such as the Blackman-Harris window, the&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Raised-cosine_filter cosine rolloff window]&amp;amp;nbsp; (also called Tukey window) and many more can be found in the book&amp;amp;nbsp; [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The suitability of these window functions for various tasks of spectral analysis is mentioned on the next page.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt; &lt;br /&gt;
==Goodness criteria of window functions==&lt;br /&gt;
&amp;lt;br&amp;gt;  	&lt;br /&gt;
[[File:EN_Sig_T_5_4_S4_neu.png|right|frame|Compilation of Important Quality Criteria of Window Functions]]&lt;br /&gt;
The table shows quality criteria for the window functions described on the last pages. The selection of a suitable window function should be made according to the following aspects:&lt;br /&gt;
*The&amp;amp;nbsp; '''minimum distance between main lobe and side lobes'''&amp;amp;nbsp; should be as large as possible to keep the influence of the leakage effect low and to improve the amplitude resolution.&lt;br /&gt;
*For reasons of good frequency selectivity, the&amp;amp;nbsp; '''6dB bandwidth'''&amp;amp;nbsp; should be small. If it is too large, a dominant spectral line will mask smaller components in the surrounding area.&lt;br /&gt;
*The&amp;amp;nbsp; '''maximum process loss'''&amp;amp;nbsp; (in dB) includes the maximum scaling error and the equivalent noise bandwidth. This value should in no case exceed&amp;amp;nbsp; $\text{3.7 dB}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
These most important quality criteria are highlighted in red in the adjacent table.&lt;br /&gt;
*In each row, rather favourable window functions are highlighted in green and rather unfavourable ones in grey. &lt;br /&gt;
*From the distribution of the green and grey areas it is already evident that the optimal window function does not exist.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Now the quality criteria given in the table are described in more detail:&lt;br /&gt;
*The larger the ''minimum main-to-side lobe distance'' &amp;amp;nbsp; ⇒ &amp;amp;nbsp; ratio of the main lobe to the highest side lobe, the better the amplitude resolution of a window function. For the rectangle this distance is, as expected, smallest&amp;amp;nbsp; $\text{(13 dB)}$. The best result is achieved with&amp;amp;nbsp; $\text{92 dB}$&amp;amp;nbsp; the fourth-order Blackman-Harris window.&lt;br /&gt;
*However, since not only the highest but also all other side lobes contribute to the leakage effect, the&amp;amp;nbsp; '''side lobe drop'''&amp;amp;nbsp; is another measure for the resolving power. Of the given window functions, the Hanning window and the cosine rolloff window with rolloff&amp;amp;nbsp; $r = 0.5$&amp;amp;nbsp; have the most favourable values in this respect&amp;amp;nbsp; $\text{(18 dB/octave)}$.&lt;br /&gt;
*The&amp;amp;nbsp; '''6 dB bandwidth''', which can be read from the logarithmised spectral function, is an important measure of the frequency resolving power. Two spectral components present in the signal at&amp;amp;nbsp; $f_1$&amp;amp;nbsp; and&amp;amp;nbsp; $f_2$&amp;amp;nbsp; can only be resolved if the difference&amp;amp;nbsp; $f_2 - f_1$&amp;amp;nbsp; is greater than the&amp;amp;nbsp; $\text{6 dB}$-bandwidth of the window function used (see following right graph).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_4_S4b.png|center|frame|Illustrating the&amp;amp;nbsp; $\text{6 dB}$-bandwidth]]&lt;br /&gt;
*The&amp;amp;nbsp; '''window area'''&amp;amp;nbsp; of the function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; at the same time gives the height&amp;amp;nbsp; $W(0)$&amp;amp;nbsp; in the spectral domain. For all windows except the rectangle, a window area smaller than&amp;amp;nbsp; $1$&amp;amp;nbsp; and thus an error in the amplitude of the DFT result results due to the suppression of the outer samples, which, however, can be completely corrected if&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; is known.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp; &lt;br /&gt;
*A good compromise is the&amp;amp;nbsp; '''Hanning window'''&amp;amp;nbsp; (highlighted in blue in the table), which never scores &amp;quot;grey&amp;quot; with respect to the three main criteria (red markings).&lt;br /&gt;
*The&amp;amp;nbsp; '''Hamming window'''&amp;amp;nbsp; differs from this only slightly in the time domain, but considerably in the spectral domain. Thus, the side lobe drop per octave is only more&amp;amp;nbsp; $\text{6 dB}$&amp;amp;nbsp; $($instead of&amp;amp;nbsp; $\text{18 dB})$.}}&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Maximum process loss==&lt;br /&gt;
&amp;lt;br&amp;gt;  	 	&lt;br /&gt;
This combined quality criterion considers the&amp;amp;nbsp; '''maximum scaling error'''&amp;amp;nbsp; as well as the (normalised)&amp;amp;nbsp; '''equivalent noise bandwidth'''. The maximum process loss is usually given in&amp;amp;nbsp; $\text{dB}$&amp;amp;nbsp; and should be rather small according to its name:&lt;br /&gt;
 &lt;br /&gt;
:$$10 \cdot {\rm lg}\hspace{0.15cm}V_{\rm P}\hspace{0.15cm}{\rm (in}\hspace{0.15cm}{\rm dB)}= 20 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{|W(f=0)|}{|W(f=f_{\rm A}/2)|} + 10 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{\int_{-\infty}^{\infty}|W(f)|^2\hspace{0.05cm}{\rm d}f}{f_{\rm A} \cdot |W(f=0)|^2} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
From the&amp;amp;nbsp; &amp;amp;nbsp; [[Signal_Representation/Spectrum_Analysis#G.C3.BCtekriterien_von_Fensterfunktionen|table]]&amp;amp;nbsp; it can be seen that&amp;amp;nbsp; $V_{\rm P}$&amp;amp;nbsp; takes values between&amp;amp;nbsp; $\text{3 dB}$&amp;amp;nbsp; and&amp;amp;nbsp; $\text{4 dB}$&amp;amp;nbsp; for the window functions considered, where window functions with&amp;amp;nbsp; $V_{\rm P} &amp;gt; 3. 7 \,\text{dB}$&amp;amp;nbsp; (rectangle, Blackman-Harris, Kaiser-Bessel)&amp;amp;nbsp; should not be used. However, it is precisely these that are best with regard to the main-to-side lobe distance.&lt;br /&gt;
&lt;br /&gt;
The two proportions are to be interpreted as follows:&lt;br /&gt;
*The ''maximum scaling error''&amp;amp;nbsp; is the ratio by which the amplitude determined with the DFT differs from the actual signal amplitude. The amplitude error due to a window area smaller than&amp;amp;nbsp; $1$&amp;amp;nbsp; is assumed to be corrected.&lt;br /&gt;
*The wider the main lobe of the window function, the smaller this scaling error. The error is largest when the frequency&amp;amp;nbsp; $f_0$&amp;amp;nbsp; of a harmonic oscillation lies midway between two DFT support points &amp;amp;nbsp; ⇒ &amp;amp;nbsp; quotient $|W(f = 0)| / |W(f = f_{\rm A}/2)|$. &lt;br /&gt;
&lt;br /&gt;
*The ''equivalent noise bandwidth''&amp;amp;nbsp; of the window function used - calculable as the width of the equal-area rectangle with respect to the magnitude square&amp;amp;nbsp; $|W(f)|^2$&amp;amp;nbsp; of the spectral function - captures the disturbing influence of white noise and should be as small as possible.&lt;br /&gt;
*The smallest noise bandwidth results for the rectangle. All other window functions have a larger noise bandwidth and thus, in the presence of noise interference, also a (significantly) less favourable signal-to-noise power ratio.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp; &lt;br /&gt;
The results of this section can be summarised as follows:&lt;br /&gt;
*An ideal window function does not exist. Depending on the task&amp;amp;nbsp; (good amplitude or frequency resolution)&amp;amp;nbsp; different windows provide the best result in each case. It is therefore recommended that one always uses several window functions for spectral analysis or at least one window function with different parameters.&lt;br /&gt;
*A workable compromise with regard to all criteria is the&amp;amp;nbsp; '''Hamming window''', which only gives an unfavourable value for the side lobe drop&amp;amp;nbsp; $($only&amp;amp;nbsp; $\text{6 dB per octave})$&amp;amp;nbsp;. Although the&amp;amp;nbsp; '''Hanning window'''&amp;amp;nbsp; differs only marginally from the Hamming window in the time domain, in the spectral domain&amp;amp;nbsp; (minimum distance between main lobe and side lobes)&amp;amp;nbsp; the difference between the two is considerable.}}&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
==Exercises for The Chapter== &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.4: Comparison of Rectangular And Hanning Window |Exercise 5.4: Comparison of Rectangular And Hanning Window ]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.4Z: On The Hanning Window|Exercise 5.4Z: On The Hanning Window]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==References== &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Spectrum_Analysis&amp;diff=35570</id>
		<title>Signal Representation/Spectrum Analysis</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Spectrum_Analysis&amp;diff=35570"/>
		<updated>2021-01-02T16:47:59Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Time and Frequency-Discrete Signal Representation&lt;br /&gt;
|Vorherige Seite=Possible Errors When Using DFT&lt;br /&gt;
|Nächste Seite=Fast Fourier Transform (FFT)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Spectral Leakage==&lt;br /&gt;
&amp;lt;br&amp;gt;  	 &lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; &lt;br /&gt;
The term '''spectral leakage effect''' is used to describe the distortion of the spectrum of a periodic and thus temporally unlimited signal due to the implicit time limit of the Discrete Fourier Transform (DFT). This means that, for example, a spectrum analyser&lt;br /&gt;
* fake frequency components that are not present in the time signal, and/or&lt;br /&gt;
*actually existing spectral components are hidden by side lobes}}.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The following&amp;amp;nbsp; $\text{example 1}$&amp;amp;nbsp;will show that for a periodic signal the application of the&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)|discrete  Fourier Transform]]&amp;amp;nbsp; &amp;amp;nbsp; (DFT) is not useful without additional measures. The quality of the spectral analysis - i.e. the correctness of the spectrum found - is mainly determined here by the (more or less successful) adaptation of the DFT parameters to the signal parameters at hand.&lt;br /&gt;
*If the period&amp;amp;nbsp; $T_0$&amp;amp;nbsp; of the signal is known, the duration&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; of the signal section used for the DFT should be an integer multiple of&amp;amp;nbsp; $T_0$&amp;amp;nbsp;. However, the task of spectral analysis is precisely to find arbitrary signal components, so that knowledge of&amp;amp;nbsp; $T_0$&amp;amp;nbsp; cannot generally be assumed.&lt;br /&gt;
*A measure to improve the spectral analysis is the windowing with a &amp;quot;suitable&amp;quot; time function&amp;amp;nbsp; $w(t)$. The product signal&amp;amp;nbsp; $x(t) \cdot w(t)$ is then analysed.&lt;br /&gt;
*A large number of such window functions&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; are known from the literature, which lead to good or less satisfactory results depending on the task.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
On the next pages the spectral leakage effect will be illustrated by examples and the advantages and disadvantages of the different window functions will be discussed. So much up front: '''There is no &amp;quot;best&amp;quot; window function for all applications'''.&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
&lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp; &lt;br /&gt;
The upper graph&amp;amp;nbsp; '''(a)'''&amp;amp;nbsp; from [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&amp;amp;nbsp; shows the time-discrete signal&amp;amp;nbsp; $d(\nu)$&amp;amp;nbsp; of a harmonic oscillation with frequency&amp;amp;nbsp; $f_0 = 125\,\text{ kHz}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; period&amp;amp;nbsp; $T_0 = 8 \,{\rm &amp;amp;micro; s}$. The distance between two successive time samples in this example is chosen to be&amp;amp;nbsp; $T_{\rm A} = 1 \,{\rm &amp;amp;micro; s}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
On the right is shown in logarithmic form (in dB) the frequency discrete spectrum&amp;amp;nbsp; $\vert D(\mu) \vert$&amp;amp;nbsp; after a DFT with&amp;amp;nbsp; $N = 32$&amp;amp;nbsp; samples, from which the further DFT parameters result as follows:&lt;br /&gt;
*Duration of the time segment: &amp;amp;nbsp; $T_{\rm P} = 32 \,{\rm &amp;amp;micro; s}$,&lt;br /&gt;
*gridding of the frequency axis: &amp;amp;nbsp; $f_{\rm A} = 31.25 \,\text{ kHz}$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Since the interval width&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; captures an integer multiple of the period duration&amp;amp;nbsp; $T_0$&amp;amp;nbsp;, the DFT delivers the correct result. The two Dirac functions lie exactly at&amp;amp;nbsp; $\pm4 \cdot f_{\rm A}$.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1160__Sig_T_5_4_S1_neu.png|center|frame|Example of Applying  Spectral Analysis]]&lt;br /&gt;
&lt;br /&gt;
If one measures an oscillation of frequency&amp;amp;nbsp; $f_0 = 109.375\,\text{ kHz}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; period $T_0 = 9.14 \,{\rm &amp;amp;micro; s}$&amp;amp;nbsp; corresponding to the graph below&amp;amp;nbsp; '''(b)''', significant distortions of the spectrum occur. &lt;br /&gt;
&lt;br /&gt;
*Since now&amp;amp;nbsp; $T_{\rm P}/T_0 = 3.5$&amp;amp;nbsp; is no longer an integer, the periodic continuation of the time section causes phase jumps, in our example by&amp;amp;nbsp; $\pi$.&lt;br /&gt;
*The spectral range now no longer consists of two Dirac functions as in the example&amp;amp;nbsp; '''(a)''', but of an approximately &amp;quot;continuous&amp;quot; frequency function with the maximum near the actual signal frequency and a series of further parts, which are called&amp;amp;nbsp; '''side lobes'''&amp;amp;nbsp;.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Describing Windowing from a Control Theory Perspective==  &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:EN_Sig_T_5_4_S2.png|right|frame|Rectangular Window and Bartlett Windows]]&lt;br /&gt;
The occurrence of such unwanted side lobes is now to be explained in terms of systems theory using the following diagram. This graphic was also taken from the book&amp;amp;nbsp; [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
First consider the upper graph&amp;amp;nbsp; '''(a)'''&amp;amp;nbsp; for the&amp;amp;nbsp; '''rectangular window'''.&lt;br /&gt;
*The time limit implicit in the DFT corresponds to the multiplication of the signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; by a rectangular&amp;amp;ndash;window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; of height&amp;amp;nbsp; $1$&amp;amp;nbsp; and duration&amp;amp;nbsp; $T_{\rm P}$. The upper left image shows the discrete-time representation of this rectangular function with the normalised time variable&amp;amp;nbsp; $\nu= t/T_{\rm A}$:&lt;br /&gt;
 &lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{f\ddot{u}r}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm sonst} \hspace{0.05cm}. \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
&lt;br /&gt;
*From the multiplication&amp;amp;nbsp; $y(t) = x(t) \cdot w(t)$&amp;amp;nbsp; of the signal to be analysed&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; and the window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; follows for the spectral function&amp;amp;nbsp; $Y(f) = X(f) \ast W(f)$, where for rectangular window function with&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm P}$&amp;amp;nbsp; holds (the function&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; is shown in logarithmic form in the upper right graph):&lt;br /&gt;
 &lt;br /&gt;
:$$W(f) = T_{\rm P} \cdot {\rm si}(\pi \cdot f \cdot T_{\rm P}) = {1}/{f_{\rm A}}\cdot {\rm si}(\pi \cdot {f}/{f_{\rm A}})\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*If all spectral components ofs&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; lie in the frequency grid&amp;amp;nbsp; $\mu \cdot f_{\rm A}$, the discrete frequency spectral values&amp;amp;nbsp; $D(\mu )$&amp;amp;nbsp; remain unchanged by the convolution with&amp;amp;nbsp; $W(f)$&amp;amp;nbsp;. &lt;br /&gt;
*Otherwise, convolution with&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; leads to distortions, since the zeros of the&amp;amp;nbsp; $\rm si$-function now no longer fit the discrete values of the input spectrum.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The discontinuities in the time domain caused by limitation and periodic continuation are reduced if, instead of the constant one weighting by the rectangle, the two edge areas of the window are weighted weaker than the centre.&lt;br /&gt;
&lt;br /&gt;
Consider the graph below&amp;amp;nbsp; '''(b)'''&amp;amp;nbsp; for the&amp;amp;nbsp; '''Bartlett window''' - also called triangular window:&lt;br /&gt;
*The time-discrete description of the Bartlett window is with&amp;amp;nbsp; $\nu = t/T_{\rm A}$:&lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 - {2  \hspace{0.05cm} \cdot  \hspace{0.05cm} |\nu|}/{N} \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{f\ddot{u}r}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm sonst} \hspace{0.05cm}. \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
*From this follows for the time-continuous window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; and the spectral representation&amp;amp;nbsp; $W(f)$:&lt;br /&gt;
:$${w} (t)   = \left\{ \begin{array}{c} 1 -{|t|}/{(T_{\rm P}/2)} \\&lt;br /&gt;
   0 \\ \end{array} \right.\hspace{0.05cm}&lt;br /&gt;
\begin{array}{*{20}c}&lt;br /&gt;
|t| \le  T_{\rm P}/2\\ &lt;br /&gt;
{\rm sonst}  \\&lt;br /&gt;
\end{array}\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\,&lt;br /&gt;
\hspace{0.2cm}W(f) ={1}/({2f_{\rm A}})\cdot {\rm si}^2(\pi \cdot&lt;br /&gt;
{f}/({2f_{\rm A}}))\hspace{0.05cm}.$$&lt;br /&gt;
*Due to the lower weighting of the edge regions, which are particularly problematic with unbounded signals, the (logarithmically drawn) spectrum&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; has lower side lobes than the&amp;amp;nbsp; $\rm si$ function in the upper image, which leads to lower leakage components.&lt;br /&gt;
*The better suppression of the side lobes, however, comes at the cost of a noticeable reduction and broadening of the main lobe, limiting the resolving power of the Bartlett window compared to the rectangular windowing.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Special Window Functions==&lt;br /&gt;
&amp;lt;br&amp;gt;  &lt;br /&gt;
[[File:EN_Sig_T_5_4_S3.png|right|frame|Hanning-, Hamming- and Kaiser-Bessel Windows]]	&lt;br /&gt;
Now some frequently used&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Window_function window functions], viz. &lt;br /&gt;
*the Hanning window, &lt;br /&gt;
*the Hamming window, and &lt;br /&gt;
*the Kaiser-Bessel window&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
will be described by means of graphs and equations contained therein. For the running variable in the time domain, $-N/2 ≤ \nu &amp;lt; N/2$ always applies. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Notes:''&lt;br /&gt;
*In the Kaiser-Bessel window, the functions in the time and frequency domain are each shown for&amp;amp;nbsp; $\alpha = 3.5$&amp;amp;nbsp;.&lt;br /&gt;
* ${\rm I}_0(.)$&amp;amp;nbsp; denotes the&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Bessel_function modified zero-order Bessel function].&lt;br /&gt;
*Further window functions such as the Blackman-Harris window, the&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Raised-cosine_filter cosine rolloff window]&amp;amp;nbsp; (also called Tukey window) and many more can be found in the book&amp;amp;nbsp; [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The suitability of these window functions for various tasks of spectral analysis is mentioned on the next page.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt; &lt;br /&gt;
==Goodness criteria of window functions==&lt;br /&gt;
&amp;lt;br&amp;gt;  	&lt;br /&gt;
[[File:EN_Sig_T_5_4_S4_neu.png|right|frame|Compilation of Important Quality Criteria of Window Functions]]&lt;br /&gt;
The table shows quality criteria for the window functions described on the last pages. The selection of a suitable window function should be made according to the following aspects:&lt;br /&gt;
*The&amp;amp;nbsp; '''minimum distance between main lobe and side lobes'''&amp;amp;nbsp; should be as large as possible to keep the influence of the leakage effect low and to improve the amplitude resolution.&lt;br /&gt;
*For reasons of good frequency selectivity, the&amp;amp;nbsp; '''6dB bandwidth'''&amp;amp;nbsp; should be small. If it is too large, a dominant spectral line will mask smaller components in the surrounding area.&lt;br /&gt;
*The&amp;amp;nbsp; '''maximum process loss'''&amp;amp;nbsp; (in dB) includes the maximum scaling error and the equivalent noise bandwidth. This value should in no case exceed&amp;amp;nbsp; $\text{3.7 dB}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
These most important quality criteria are highlighted in red in the adjacent table.&lt;br /&gt;
*In each row, rather favourable window functions are highlighted in green and rather unfavourable ones in grey. &lt;br /&gt;
*From the distribution of the green and grey areas it is already evident that the optimal window function does not exist.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Now the quality criteria given in the table are described in more detail:&lt;br /&gt;
*The larger the ''minimum main-to-side lobe distance'' &amp;amp;nbsp; ⇒ &amp;amp;nbsp; ratio of the main lobe to the highest side lobe, the better the amplitude resolution of a window function. For the rectangle this distance is, as expected, smallest&amp;amp;nbsp; $\text{(13 dB)}$. The best result is achieved with&amp;amp;nbsp; $\text{92 dB}$&amp;amp;nbsp; the fourth-order Blackman-Harris window.&lt;br /&gt;
*However, since not only the highest but also all other side lobes contribute to the leakage effect, the&amp;amp;nbsp; '''side lobe drop'''&amp;amp;nbsp; is another measure for the resolving power. Of the given window functions, the Hanning window and the cosine rolloff window with rolloff&amp;amp;nbsp; $r = 0.5$&amp;amp;nbsp; have the most favourable values in this respect&amp;amp;nbsp; $\text{(18 dB/octave)}$.&lt;br /&gt;
*The&amp;amp;nbsp; '''6 dB bandwidth''', which can be read from the logarithmised spectral function, is an important measure of the frequency resolving power. Two spectral components present in the signal at&amp;amp;nbsp; $f_1$&amp;amp;nbsp; and&amp;amp;nbsp; $f_2$&amp;amp;nbsp; can only be resolved if the difference&amp;amp;nbsp; $f_2 - f_1$&amp;amp;nbsp; is greater than the&amp;amp;nbsp; $\text{6 dB}$-bandwidth of the window function used (see following right graph).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_4_S4b.png|center|frame|Illustrating the&amp;amp;nbsp; $\text{6 dB}$-bandwidth]]&lt;br /&gt;
*The&amp;amp;nbsp; '''window area'''&amp;amp;nbsp; of the function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; at the same time gives the height&amp;amp;nbsp; $W(0)$&amp;amp;nbsp; in the spectral domain. For all windows except the rectangle, a window area smaller than&amp;amp;nbsp; $1$&amp;amp;nbsp; and thus an error in the amplitude of the DFT result results due to the suppression of the outer samples, which, however, can be completely corrected if&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; is known.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp; &lt;br /&gt;
*A good compromise is the&amp;amp;nbsp; '''Hanning window'''&amp;amp;nbsp; (highlighted in blue in the table), which never scores &amp;quot;grey&amp;quot; with respect to the three main criteria (red markings).&lt;br /&gt;
*The&amp;amp;nbsp; '''Hamming window'''&amp;amp;nbsp; differs from this only slightly in the time domain, but considerably in the spectral domain. Thus, the side lobe drop per octave is only more&amp;amp;nbsp; $\text{6 dB}$&amp;amp;nbsp; $($instead of&amp;amp;nbsp; $\text{18 dB})$.}}&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Maximum process loss==&lt;br /&gt;
&amp;lt;br&amp;gt;  	 	&lt;br /&gt;
This combined quality criterion considers the&amp;amp;nbsp; '''maximum scaling error'''&amp;amp;nbsp; as well as the (normalised)&amp;amp;nbsp; '''equivalent noise bandwidth'''. The maximum process loss is usually given in&amp;amp;nbsp; $\text{dB}$&amp;amp;nbsp; and should be rather small according to its name:&lt;br /&gt;
 &lt;br /&gt;
:$$10 \cdot {\rm lg}\hspace{0.15cm}V_{\rm P}\hspace{0.15cm}{\rm (in}\hspace{0.15cm}{\rm dB)}= 20 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{|W(f=0)|}{|W(f=f_{\rm A}/2)|} + 10 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{\int_{-\infty}^{\infty}|W(f)|^2\hspace{0.05cm}{\rm d}f}{f_{\rm A} \cdot |W(f=0)|^2} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
From the&amp;amp;nbsp; &amp;amp;nbsp; [[Signal_Representation/Spectrum_Analysis#G.C3.BCtekriterien_von_Fensterfunktionen|table]]&amp;amp;nbsp; it can be seen that&amp;amp;nbsp; $V_{\rm P}$&amp;amp;nbsp; takes values between&amp;amp;nbsp; $\text{3 dB}$&amp;amp;nbsp; and&amp;amp;nbsp; $\text{4 dB}$&amp;amp;nbsp; for the window functions considered, where window functions with&amp;amp;nbsp; $V_{\rm P} &amp;gt; 3. 7 \,\text{dB}$&amp;amp;nbsp; (rectangle, Blackman-Harris, Kaiser-Bessel)&amp;amp;nbsp; should not be used. However, it is precisely these that are best with regard to the main-to-side lobe distance.&lt;br /&gt;
&lt;br /&gt;
The two proportions are to be interpreted as follows:&lt;br /&gt;
*The ''maximum scaling error''&amp;amp;nbsp; is the ratio by which the amplitude determined with the DFT differs from the actual signal amplitude. The amplitude error due to a window area smaller than&amp;amp;nbsp; $1$&amp;amp;nbsp; is assumed to be corrected.&lt;br /&gt;
*The wider the main lobe of the window function, the smaller this scaling error. The error is largest when the frequency&amp;amp;nbsp; $f_0$&amp;amp;nbsp; of a harmonic oscillation lies midway between two DFT support points &amp;amp;nbsp; ⇒ &amp;amp;nbsp; quotient $|W(f = 0)| / |W(f = f_{\rm A}/2)|$. &lt;br /&gt;
&lt;br /&gt;
*The ''equivalent noise bandwidth''&amp;amp;nbsp; of the window function used - calculable as the width of the equal-area rectangle with respect to the magnitude square&amp;amp;nbsp; $|W(f)|^2$&amp;amp;nbsp; of the spectral function - captures the disturbing influence of white noise and should be as small as possible.&lt;br /&gt;
*The smallest noise bandwidth results for the rectangle. All other window functions have a larger noise bandwidth and thus, in the presence of noise interference, also a (significantly) less favourable signal-to-noise power ratio.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp; &lt;br /&gt;
The results of this section can be summarised as follows:&lt;br /&gt;
*An ideal window function does not exist. Depending on the task&amp;amp;nbsp; (good amplitude or frequency resolution)&amp;amp;nbsp; different windows provide the best result in each case. It is therefore recommended that one always uses several window functions for spectral analysis or at least one window function with different parameters.&lt;br /&gt;
*A workable compromise with regard to all criteria is the&amp;amp;nbsp; '''Hamming window''', which only gives an unfavourable value for the side lobe drop&amp;amp;nbsp; $($only&amp;amp;nbsp; $\text{6 dB per octave})$&amp;amp;nbsp;. Although the&amp;amp;nbsp; '''Hanning window'''&amp;amp;nbsp; differs only marginally from the Hamming window in the time domain, in the spectral domain&amp;amp;nbsp; (minimum distance between main lobe and side lobes)&amp;amp;nbsp; the difference between the two is considerable.}}&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
==Exercises for The Chapter== &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.4: Comparison of Rectangular And Hanning Window |Exercise 5.4: Comparison of Rectangular And Hanning Window ]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.4Z: On The Hanning Window|Exercise 5.4Z: On The Hanning Window]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==References== &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Spectrum_Analysis&amp;diff=35569</id>
		<title>Signal Representation/Spectrum Analysis</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Spectrum_Analysis&amp;diff=35569"/>
		<updated>2021-01-02T16:46:52Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Time and Frequency-Discrete Signal Representation&lt;br /&gt;
|Vorherige Seite=Possible Errors When Using DFT&lt;br /&gt;
|Nächste Seite=Fast Fourier Transform (FFT)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Spectral Leakage==&lt;br /&gt;
&amp;lt;br&amp;gt;  	 &lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; &lt;br /&gt;
The term '''spectral leakage effect''' is used to describe the distortion of the spectrum of a periodic and thus temporally unlimited signal due to the implicit time limit of the Discrete Fourier Transform (DFT). This means that, for example, a spectrum analyser&lt;br /&gt;
* fake frequency components that are not present in the time signal, and/or&lt;br /&gt;
*actually existing spectral components are hidden by side lobes}}.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The following&amp;amp;nbsp; $\text{example 1}$&amp;amp;nbsp;will show that for a periodic signal the application of the&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)|discrete  Fourier Transform]]&amp;amp;nbsp; &amp;amp;nbsp; (DFT) is not useful without additional measures. The quality of the spectral analysis - i.e. the correctness of the spectrum found - is mainly determined here by the (more or less successful) adaptation of the DFT parameters to the signal parameters at hand.&lt;br /&gt;
*If the period&amp;amp;nbsp; $T_0$&amp;amp;nbsp; of the signal is known, the duration&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; of the signal section used for the DFT should be an integer multiple of&amp;amp;nbsp; $T_0$&amp;amp;nbsp;. However, the task of spectral analysis is precisely to find arbitrary signal components, so that knowledge of&amp;amp;nbsp; $T_0$&amp;amp;nbsp; cannot generally be assumed.&lt;br /&gt;
*A measure to improve the spectral analysis is the windowing with a &amp;quot;suitable&amp;quot; time function&amp;amp;nbsp; $w(t)$. The product signal&amp;amp;nbsp; $x(t) \cdot w(t)$ is then analysed.&lt;br /&gt;
*A large number of such window functions&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; are known from the literature, which lead to good or less satisfactory results depending on the task.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
On the next pages the spectral leakage effect will be illustrated by examples and the advantages and disadvantages of the different window functions will be discussed. So much up front: '''There is no &amp;quot;best&amp;quot; window function for all applications'''.&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
&lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp; &lt;br /&gt;
The upper graph&amp;amp;nbsp; '''(a)'''&amp;amp;nbsp; from [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&amp;amp;nbsp; shows the time-discrete signal&amp;amp;nbsp; $d(\nu)$&amp;amp;nbsp; of a harmonic oscillation with frequency&amp;amp;nbsp; $f_0 = 125\,\text{ kHz}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; period&amp;amp;nbsp; $T_0 = 8 \,{\rm &amp;amp;micro; s}$. The distance between two successive time samples in this example is chosen to be&amp;amp;nbsp; $T_{\rm A} = 1 \,{\rm &amp;amp;micro; s}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
On the right is shown in logarithmic form (in dB) the frequency discrete spectrum&amp;amp;nbsp; $\vert D(\mu) \vert$&amp;amp;nbsp; after a DFT with&amp;amp;nbsp; $N = 32$&amp;amp;nbsp; samples, from which the further DFT parameters result as follows:&lt;br /&gt;
*Duration of the time segment: &amp;amp;nbsp; $T_{\rm P} = 32 \,{\rm &amp;amp;micro; s}$,&lt;br /&gt;
*gridding of the frequency axis: &amp;amp;nbsp; $f_{\rm A} = 31.25 \,\text{ kHz}$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Since the interval width&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; captures an integer multiple of the period duration&amp;amp;nbsp; $T_0$&amp;amp;nbsp;, the DFT delivers the correct result. The two Dirac functions lie exactly at&amp;amp;nbsp; $\pm4 \cdot f_{\rm A}$.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1160__Sig_T_5_4_S1_neu.png|center|frame|Example of Applying  Spectral Analysis]]&lt;br /&gt;
&lt;br /&gt;
If one measures an oscillation of frequency&amp;amp;nbsp; $f_0 = 109.375\,\text{ kHz}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; period $T_0 = 9.14 \,{\rm &amp;amp;micro; s}$&amp;amp;nbsp; corresponding to the graph below&amp;amp;nbsp; '''(b)''', significant distortions of the spectrum occur. &lt;br /&gt;
&lt;br /&gt;
*Since now&amp;amp;nbsp; $T_{\rm P}/T_0 = 3.5$&amp;amp;nbsp; is no longer an integer, the periodic continuation of the time section causes phase jumps, in our example by&amp;amp;nbsp; $\pi$.&lt;br /&gt;
*The spectral range now no longer consists of two Dirac functions as in the example&amp;amp;nbsp; '''(a)''', but of an approximately &amp;quot;continuous&amp;quot; frequency function with the maximum near the actual signal frequency and a series of further parts, which are called&amp;amp;nbsp; '''side lobes'''&amp;amp;nbsp;.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Describing Windowing from a Control Theory Perspective==  &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:EN_Sig_T_5_4_S2.png|right|frame|Rectangular Window and Bartlett Windows]]&lt;br /&gt;
The occurrence of such unwanted side lobes is now to be explained in terms of systems theory using the following diagram. This graphic was also taken from the book&amp;amp;nbsp; [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
First consider the upper graph&amp;amp;nbsp; '''(a)'''&amp;amp;nbsp; for the&amp;amp;nbsp; '''rectangular window'''.&lt;br /&gt;
*The time limit implicit in the DFT corresponds to the multiplication of the signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; by a rectangular&amp;amp;ndash;window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; of height&amp;amp;nbsp; $1$&amp;amp;nbsp; and duration&amp;amp;nbsp; $T_{\rm P}$. The upper left image shows the discrete-time representation of this rectangular function with the normalised time variable&amp;amp;nbsp; $\nu= t/T_{\rm A}$:&lt;br /&gt;
 &lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{f\ddot{u}r}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm sonst} \hspace{0.05cm}. \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
&lt;br /&gt;
*From the multiplication&amp;amp;nbsp; $y(t) = x(t) \cdot w(t)$&amp;amp;nbsp; of the signal to be analysed&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; and the window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; follows for the spectral function&amp;amp;nbsp; $Y(f) = X(f) \ast W(f)$, where for rectangular window function with&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm P}$&amp;amp;nbsp; holds (the function&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; is shown in logarithmic form in the upper right graph):&lt;br /&gt;
 &lt;br /&gt;
:$$W(f) = T_{\rm P} \cdot {\rm si}(\pi \cdot f \cdot T_{\rm P}) = {1}/{f_{\rm A}}\cdot {\rm si}(\pi \cdot {f}/{f_{\rm A}})\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*If all spectral components ofs&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; lie in the frequency grid&amp;amp;nbsp; $\mu \cdot f_{\rm A}$, the discrete frequency spectral values&amp;amp;nbsp; $D(\mu )$&amp;amp;nbsp; remain unchanged by the convolution with&amp;amp;nbsp; $W(f)$&amp;amp;nbsp;. &lt;br /&gt;
*Otherwise, convolution with&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; leads to distortions, since the zeros of the&amp;amp;nbsp; $\rm si$-function now no longer fit the discrete values of the input spectrum.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The discontinuities in the time domain caused by limitation and periodic continuation are reduced if, instead of the constant one weighting by the rectangle, the two edge areas of the window are weighted weaker than the centre.&lt;br /&gt;
&lt;br /&gt;
Consider the graph below&amp;amp;nbsp; '''(b)'''&amp;amp;nbsp; for the&amp;amp;nbsp; '''Bartlett window''' - also called triangular window:&lt;br /&gt;
*The time-discrete description of the Bartlett window is with&amp;amp;nbsp; $\nu = t/T_{\rm A}$:&lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 - {2  \hspace{0.05cm} \cdot  \hspace{0.05cm} |\nu|}/{N} \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{f\ddot{u}r}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm sonst} \hspace{0.05cm}. \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
*From this follows for the time-continuous window function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; and the spectral representation&amp;amp;nbsp; $W(f)$:&lt;br /&gt;
:$${w} (t)   = \left\{ \begin{array}{c} 1 -{|t|}/{(T_{\rm P}/2)} \\&lt;br /&gt;
   0 \\ \end{array} \right.\hspace{0.05cm}&lt;br /&gt;
\begin{array}{*{20}c}&lt;br /&gt;
|t| \le  T_{\rm P}/2\\ &lt;br /&gt;
{\rm sonst}  \\&lt;br /&gt;
\end{array}\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\,&lt;br /&gt;
\hspace{0.2cm}W(f) ={1}/({2f_{\rm A}})\cdot {\rm si}^2(\pi \cdot&lt;br /&gt;
{f}/({2f_{\rm A}}))\hspace{0.05cm}.$$&lt;br /&gt;
*Due to the lower weighting of the edge regions, which are particularly problematic with unbounded signals, the (logarithmically drawn) spectrum&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; has lower side lobes than the&amp;amp;nbsp; $\rm si$ function in the upper image, which leads to lower leakage components.&lt;br /&gt;
*The better suppression of the side lobes, however, comes at the cost of a noticeable reduction and broadening of the main lobe, limiting the resolving power of the Bartlett window compared to the rectangular windowing.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Special Window Functions==&lt;br /&gt;
&amp;lt;br&amp;gt;  &lt;br /&gt;
[[File:EN_Sig_T_5_4_S3.png|right|frame|Hanning-, Hamming- and Kaiser-Bessel Windows]]	&lt;br /&gt;
Now some frequently used&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Window_function window functions], viz. &lt;br /&gt;
*the Hanning window, &lt;br /&gt;
*the Hamming window, and &lt;br /&gt;
*the Kaiser-Bessel window&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
will be described by means of graphs and equations contained therein. For the running variable in the time domain, $-N/2 ≤ \nu &amp;lt; N/2$ always applies. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Notes:''&lt;br /&gt;
*In the Kaiser-Bessel window, the functions in the time and frequency domain are each shown for&amp;amp;nbsp; $\alpha = 3.5$&amp;amp;nbsp;.&lt;br /&gt;
* ${\rm I}_0(.)$&amp;amp;nbsp; denotes the&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Bessel_function modified zero-order Bessel function].&lt;br /&gt;
*Further window functions such as the Blackman-Harris window, the&amp;amp;nbsp; [https://en.wikipedia.org/wiki/Raised-cosine_filter cosine rolloff window]&amp;amp;nbsp; (also called Tukey window) and many more can be found in the book&amp;amp;nbsp; [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The suitability of these window functions for various tasks of spectral analysis is mentioned on the next page.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt; &lt;br /&gt;
==Goodness criteria of window functions==&lt;br /&gt;
&amp;lt;br&amp;gt;  	&lt;br /&gt;
[[File:EN_Sig_T_5_4_S4_neu.png|right|frame|Compilation of Important Quality Criteria of Window Functions]]&lt;br /&gt;
The table shows quality criteria for the window functions described on the last pages. The selection of a suitable window function should be made according to the following aspects:&lt;br /&gt;
*The&amp;amp;nbsp; '''minimum distance between main lobe and side lobes'''&amp;amp;nbsp; should be as large as possible to keep the influence of the leakage effect low and to improve the amplitude resolution.&lt;br /&gt;
*For reasons of good frequency selectivity, the&amp;amp;nbsp; '''6dB bandwidth'''&amp;amp;nbsp; should be small. If it is too large, a dominant spectral line will mask smaller components in the surrounding area.&lt;br /&gt;
*The&amp;amp;nbsp; '''maximum process loss'''&amp;amp;nbsp; (in dB) includes the maximum scaling error and the equivalent noise bandwidth. This value should in no case exceed&amp;amp;nbsp; $\text{3.7 dB}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
These most important quality criteria are highlighted in red in the adjacent table.&lt;br /&gt;
*In each row, rather favourable window functions are highlighted in green and rather unfavourable ones in grey. &lt;br /&gt;
*From the distribution of the green and grey areas it is already evident that the optimal window function does not exist.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Now the quality criteria given in the table are described in more detail:&lt;br /&gt;
*The larger the ''minimum main-to-side lobe distance'' &amp;amp;nbsp; ⇒ &amp;amp;nbsp; ratio of the main lobe to the highest side lobe, the better the amplitude resolution of a window function. For the rectangle this distance is, as expected, smallest&amp;amp;nbsp; $\text{(13 dB)}$. The best result is achieved with&amp;amp;nbsp; $\text{92 dB}$&amp;amp;nbsp; the fourth-order Blackman-Harris window.&lt;br /&gt;
*However, since not only the highest but also all other side lobes contribute to the leakage effect, the&amp;amp;nbsp; '''side lobe drop'''&amp;amp;nbsp; is another measure for the resolving power. Of the given window functions, the Hanning window and the cosine rolloff window with rolloff&amp;amp;nbsp; $r = 0.5$&amp;amp;nbsp; have the most favourable values in this respect&amp;amp;nbsp; $\text{(18 dB/octave)}$.&lt;br /&gt;
*The&amp;amp;nbsp; '''6 dB bandwidth''', which can be read from the logarithmised spectral function, is an important measure of the frequency resolving power. Two spectral components present in the signal at&amp;amp;nbsp; $f_1$&amp;amp;nbsp; and&amp;amp;nbsp; $f_2$&amp;amp;nbsp; can only be resolved if the difference&amp;amp;nbsp; $f_2 - f_1$&amp;amp;nbsp; is greater than the&amp;amp;nbsp; $\text{6 dB}$-bandwidth of the window function used (see following right graph).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_4_S4b.png|center|frame|Zur Verdeutlichung der&amp;amp;nbsp; $\text{6 dB}$-Bandbreite]]&lt;br /&gt;
*The&amp;amp;nbsp; '''window area'''&amp;amp;nbsp; of the function&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; at the same time gives the height&amp;amp;nbsp; $W(0)$&amp;amp;nbsp; in the spectral domain. For all windows except the rectangle, a window area smaller than&amp;amp;nbsp; $1$&amp;amp;nbsp; and thus an error in the amplitude of the DFT result results due to the suppression of the outer samples, which, however, can be completely corrected if&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; is known.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp; &lt;br /&gt;
*A good compromise is the&amp;amp;nbsp; '''Hanning window'''&amp;amp;nbsp; (highlighted in blue in the table), which never scores &amp;quot;grey&amp;quot; with respect to the three main criteria (red markings).&lt;br /&gt;
*The&amp;amp;nbsp; '''Hamming window'''&amp;amp;nbsp; differs from this only slightly in the time domain, but considerably in the spectral domain. Thus, the side lobe drop per octave is only more&amp;amp;nbsp; $\text{6 dB}$&amp;amp;nbsp; $($instead of&amp;amp;nbsp; $\text{18 dB})$.}}&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Maximum process loss==&lt;br /&gt;
&amp;lt;br&amp;gt;  	 	&lt;br /&gt;
This combined quality criterion considers the&amp;amp;nbsp; '''maximum scaling error'''&amp;amp;nbsp; as well as the (normalised)&amp;amp;nbsp; '''equivalent noise bandwidth'''. The maximum process loss is usually given in&amp;amp;nbsp; $\text{dB}$&amp;amp;nbsp; and should be rather small according to its name:&lt;br /&gt;
 &lt;br /&gt;
:$$10 \cdot {\rm lg}\hspace{0.15cm}V_{\rm P}\hspace{0.15cm}{\rm (in}\hspace{0.15cm}{\rm dB)}= 20 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{|W(f=0)|}{|W(f=f_{\rm A}/2)|} + 10 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{\int_{-\infty}^{\infty}|W(f)|^2\hspace{0.05cm}{\rm d}f}{f_{\rm A} \cdot |W(f=0)|^2} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
From the&amp;amp;nbsp; &amp;amp;nbsp; [[Signal_Representation/Spectrum_Analysis#G.C3.BCtekriterien_von_Fensterfunktionen|table]]&amp;amp;nbsp; it can be seen that&amp;amp;nbsp; $V_{\rm P}$&amp;amp;nbsp; takes values between&amp;amp;nbsp; $\text{3 dB}$&amp;amp;nbsp; and&amp;amp;nbsp; $\text{4 dB}$&amp;amp;nbsp; for the window functions considered, where window functions with&amp;amp;nbsp; $V_{\rm P} &amp;gt; 3. 7 \,\text{dB}$&amp;amp;nbsp; (rectangle, Blackman-Harris, Kaiser-Bessel)&amp;amp;nbsp; should not be used. However, it is precisely these that are best with regard to the main-to-side lobe distance.&lt;br /&gt;
&lt;br /&gt;
The two proportions are to be interpreted as follows:&lt;br /&gt;
*The ''maximum scaling error''&amp;amp;nbsp; is the ratio by which the amplitude determined with the DFT differs from the actual signal amplitude. The amplitude error due to a window area smaller than&amp;amp;nbsp; $1$&amp;amp;nbsp; is assumed to be corrected.&lt;br /&gt;
*The wider the main lobe of the window function, the smaller this scaling error. The error is largest when the frequency&amp;amp;nbsp; $f_0$&amp;amp;nbsp; of a harmonic oscillation lies midway between two DFT support points &amp;amp;nbsp; ⇒ &amp;amp;nbsp; quotient $|W(f = 0)| / |W(f = f_{\rm A}/2)|$. &lt;br /&gt;
&lt;br /&gt;
*The ''equivalent noise bandwidth''&amp;amp;nbsp; of the window function used - calculable as the width of the equal-area rectangle with respect to the magnitude square&amp;amp;nbsp; $|W(f)|^2$&amp;amp;nbsp; of the spectral function - captures the disturbing influence of white noise and should be as small as possible.&lt;br /&gt;
*The smallest noise bandwidth results for the rectangle. All other window functions have a larger noise bandwidth and thus, in the presence of noise interference, also a (significantly) less favourable signal-to-noise power ratio.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp; &lt;br /&gt;
The results of this section can be summarised as follows:&lt;br /&gt;
*An ideal window function does not exist. Depending on the task&amp;amp;nbsp; (good amplitude or frequency resolution)&amp;amp;nbsp; different windows provide the best result in each case. It is therefore recommended that one always uses several window functions for spectral analysis or at least one window function with different parameters.&lt;br /&gt;
*A workable compromise with regard to all criteria is the&amp;amp;nbsp; '''Hamming window''', which only gives an unfavourable value for the side lobe drop&amp;amp;nbsp; $($only&amp;amp;nbsp; $\text{6 dB per octave})$&amp;amp;nbsp;. Although the&amp;amp;nbsp; '''Hanning window'''&amp;amp;nbsp; differs only marginally from the Hamming window in the time domain, in the spectral domain&amp;amp;nbsp; (minimum distance between main lobe and side lobes)&amp;amp;nbsp; the difference between the two is considerable.}}&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
==Exercises for The Chapter== &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.4: Comparison of Rectangular And Hanning Window |Exercise 5.4: Comparison of Rectangular And Hanning Window ]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.4Z: On The Hanning Window|Exercise 5.4Z: On The Hanning Window]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==References== &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Spectrum_Analysis&amp;diff=35568</id>
		<title>Signal Representation/Spectrum Analysis</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Spectrum_Analysis&amp;diff=35568"/>
		<updated>2021-01-02T16:23:02Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Time and Frequency-Discrete Signal Representation&lt;br /&gt;
|Vorherige Seite=Possible Errors When Using DFT&lt;br /&gt;
|Nächste Seite=Fast Fourier Transform (FFT)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Spectral Leak Effect==&lt;br /&gt;
&amp;lt;br&amp;gt;  	 &lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; &lt;br /&gt;
Als&amp;amp;nbsp; '''spektralen Leckeffekt'''&amp;amp;nbsp;  bezeichnet man die Verfälschung des Spektrums eines periodischen und damit zeitlich unbegrenzten Signals aufgrund der impliziten Zeitbegrenzung der Diskreten Fouriertransformation (DFT). Dadurch werden zum Beispiel von einem Spektrumanalyzer&lt;br /&gt;
*im Zeitsignal nicht vorhandene Frequenzanteile vorgetäuscht, und/oder&lt;br /&gt;
*tatsächlich vorhandene Spektralkomponenten durch Seitenkeulen verdeckt.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Das folgende&amp;amp;nbsp; $\text{Beispiel 1}$&amp;amp;nbsp; wird zeigen, dass bei einem periodischen Signal die Anwendung der&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)|Diskreten Fouriertransformation]]&amp;amp;nbsp; (DFT) ohne Zusatzmaßnahmen nicht sinnvoll ist. Die Güte der Spektralanalyse – das heißt die Richtigkeit des gefundenen Spektrums – wird hier hauptsächlich durch die (mehr oder weniger geglückte) Anpassung der DFT-Parameter an die vorliegenden Signalparameter bestimmt.&lt;br /&gt;
*Ist die Periodendauer&amp;amp;nbsp; $T_0$&amp;amp;nbsp; des Signals bekannt, so sollte die Dauer&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; des für die DFT verwendeten Signalausschnittes ein ganzzahliges Vielfaches von&amp;amp;nbsp; $T_0$&amp;amp;nbsp; betragen. Aufgabe der Spektralanalyse ist aber gerade das Auffinden beliebiger Signalanteile, so dass die Kenntnis von&amp;amp;nbsp; $T_0$&amp;amp;nbsp; im allgemeinen nicht vorausgesetzt werden kann.&lt;br /&gt;
*Eine Maßnahme zur Verbesserung des Spektralanalyse ist die Fensterung mit einer „geeigneten” Zeitfunktion&amp;amp;nbsp; $w(t)$. Analysiert wird dann das Produktsignal&amp;amp;nbsp; $x(t) \cdot w(t)$.&lt;br /&gt;
*Aus der Literatur sind eine Vielzahl solcher Fensterfunktionen&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; bekannt, die je nach Aufgabenstellung zu guten oder weniger befriedigenden Ergebnissen führen.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Auf den nächsten Seiten wird der spektrale Leckeffekt an Beispielen verdeutlicht und es wird auf die Vorteile und Nachteile der verschiedenen Fensterfunktionen eingegangen. So viel vorneweg: &amp;amp;nbsp; '''Es gibt keine „beste” Fensterfunktion für alle Anwendungen'''.&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; &lt;br /&gt;
Die obere Grafik&amp;amp;nbsp; '''(a)'''&amp;amp;nbsp; aus&amp;amp;nbsp; [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;&amp;amp;nbsp; zeigt das zeitdiskrete Signal&amp;amp;nbsp; $d(\nu)$&amp;amp;nbsp; einer harmonischen Schwingung mit der Frequenz&amp;amp;nbsp; $f_0 = 125\,\text{ kHz}$  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; Periodendauer&amp;amp;nbsp; $T_0 = 8 \,{\rm &amp;amp;micro; s}$. Der Abstand zweier aufeinanderfolgender Zeitabtastwerte ist bei diesem Beispiel zu&amp;amp;nbsp; $T_{\rm A} = 1 \,{\rm &amp;amp;micro; s}$&amp;amp;nbsp; gewählt.&lt;br /&gt;
&lt;br /&gt;
Rechts ist in logarithmierter Form (in dB) das frequenzdiskrete Spektrum&amp;amp;nbsp; $\vert D(\mu) \vert$&amp;amp;nbsp; nach einer DFT mit&amp;amp;nbsp; $N = 32$&amp;amp;nbsp; Abtastwerten dargestellt, woraus sich die weiteren DFT–Parameter wie folgt ergeben:&lt;br /&gt;
*Dauer des Zeitausschnitts: &amp;amp;nbsp; $T_{\rm P} = 32 \,{\rm &amp;amp;micro; s}$,&lt;br /&gt;
*Rasterung der Frequenzachse: &amp;amp;nbsp; $f_{\rm A} = 31.25 \,\text{ kHz}$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Da hier durch die Intervallbreite&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; ein ganzzahliges Vielfaches der Periodendauer&amp;amp;nbsp; $T_0$&amp;amp;nbsp; erfasst wird, liefert die DFT das richtige Ergebnis. Die beiden Diracfunktionen liegen genau bei&amp;amp;nbsp; $\pm4  \cdot f_{\rm A}$.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1160__Sig_T_5_4_S1_neu.png|center|frame|Beispiel für die Anwendung der Spektralanalyse]]&lt;br /&gt;
&lt;br /&gt;
Vermisst man mit der gleichen Anordnung eine Schwingung der Frequenz&amp;amp;nbsp; $f_0 = 109.375\,\text{ kHz}$  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; Periodendauer $T_0 = 9.14 \,{\rm &amp;amp;micro; s}$&amp;amp;nbsp; entsprechend der unteren Grafik&amp;amp;nbsp; '''(b)''', so kommt es zu signifikanten Verfälschungen des Spektrums. &lt;br /&gt;
&lt;br /&gt;
*Da nun&amp;amp;nbsp; $T_{\rm P}/T_0 = 3.5$&amp;amp;nbsp; nicht mehr ganzzahlig ist, entstehen durch die periodische Fortsetzung des Zeitausschnittes Phasensprünge, in unserem Beispiel um&amp;amp;nbsp; $\pi$.&lt;br /&gt;
*Der Spektralbereich besteht nun nicht mehr aus zwei Diracfunktionen wie im Beispiel&amp;amp;nbsp; '''(a)''', sondern aus einer annähernd „kontinuierlichen” Frequenzfunktion mit dem Maximum in der Nähe der tatsächlichen Signalfrequenz und einer Reihe weiterer Anteile, die man&amp;amp;nbsp; '''Seitenkeulen'''&amp;amp;nbsp; (englisch:&amp;amp;nbsp; ''Side Lobes'') nennt.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Systemtheoretische Beschreibung der Fensterung==  &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:EN_Sig_T_5_4_S2.png|right|frame|Rechteck-Fenster und Bartlett-Fenster]]&lt;br /&gt;
Das Zustandekommen solcher unerwünschter Seitenkeulen soll nun anhand der folgenden Grafik systemtheoretisch erklärt werden. Auch diese Grafik wurde dem Buch&amp;amp;nbsp;  [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;&amp;amp;nbsp;  entnommen.&lt;br /&gt;
&lt;br /&gt;
Betrachten Sie zunächst die obere Grafik&amp;amp;nbsp;  '''(a)'''&amp;amp;nbsp; für das&amp;amp;nbsp; '''Rechteckfenster'''.&lt;br /&gt;
*Die in der DFT implizit enthaltene Zeitbegrenzung entspricht der Multiplikation des Signals&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; mit einer Rechteck&amp;amp;ndash;Fensterfunktion&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; der Höhe&amp;amp;nbsp; $1$&amp;amp;nbsp; und der Dauer&amp;amp;nbsp; $T_{\rm P}$. Das linke obere Bild zeigt die zeitdiskrete Darstellung dieser Rechteckfunktion mit der normierten Zeitvariablen&amp;amp;nbsp; $\nu= t/T_{\rm A}$:&lt;br /&gt;
 &lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{f\ddot{u}r}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm sonst} \hspace{0.05cm}. \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
&lt;br /&gt;
*Aus der Multiplikation&amp;amp;nbsp; $y(t) = x(t) \cdot w(t)$&amp;amp;nbsp; des zu analysierenden Signals&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; und der Fensterfunktion&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; folgt für die Spektralfunktion&amp;amp;nbsp; $Y(f) = X(f) \ast W(f)$, wobei bei rechteckförmiger Fensterfunktion mit&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm P}$&amp;amp;nbsp; gilt (die Funktion&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; ist in der rechten oberen Grafik in logarithmierter Form dargestellt):&lt;br /&gt;
 &lt;br /&gt;
:$$W(f) = T_{\rm P} \cdot {\rm si}(\pi \cdot f \cdot T_{\rm P}) = {1}/{f_{\rm A}}\cdot {\rm si}(\pi \cdot {f}/{f_{\rm A}})\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Liegen alle Spektralanteile vons&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; im Frequenzraster&amp;amp;nbsp; $\mu \cdot f_{\rm A}$, so bleiben die frequenzdiskreten Spektralwerte&amp;amp;nbsp; $D(\mu )$&amp;amp;nbsp; durch die Faltung mit&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; unverändert. &lt;br /&gt;
*Andernfalls führt die Faltung mit&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; zu Verfälschungen, da die Nullstellen der&amp;amp;nbsp; $\rm si$–Funktion nun nicht mehr zu den diskreten Werten des Eingangsspektrums passen.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die durch Begrenzung und periodische Fortsetzung entstehendenen Unstetigkeiten im Zeitbereich werden vermindert, wenn statt der konstanten Eins–Bewertung durch das Rechteck die beiden Randbereiche des Fensters schwächer gewichtet werden als die Mitte.&lt;br /&gt;
&lt;br /&gt;
Betrachten Sie dazu die untere Grafik&amp;amp;nbsp; '''(b)'''&amp;amp;nbsp; für das&amp;amp;nbsp; '''Bartlett–Fenster''' – auch Dreieckfenster genannt:&lt;br /&gt;
*Die zeitdiskrete Beschreibung des Bartlett–Fensters lautet mit&amp;amp;nbsp; $\nu = t/T_{\rm A}$:&lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 - {2  \hspace{0.05cm} \cdot  \hspace{0.05cm} |\nu|}/{N} \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{f\ddot{u}r}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm sonst} \hspace{0.05cm}. \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
*Daraus folgt für die zeitkontinuierliche Fensterfunktion&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; und die Spektraldarstellung&amp;amp;nbsp; $W(f)$:&lt;br /&gt;
:$${w} (t)   = \left\{ \begin{array}{c} 1 -{|t|}/{(T_{\rm P}/2)} \\&lt;br /&gt;
   0 \\ \end{array} \right.\hspace{0.05cm}&lt;br /&gt;
\begin{array}{*{20}c}&lt;br /&gt;
|t| \le  T_{\rm P}/2\\ &lt;br /&gt;
{\rm sonst}  \\&lt;br /&gt;
\end{array}\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\,&lt;br /&gt;
\hspace{0.2cm}W(f) ={1}/({2f_{\rm A}})\cdot {\rm si}^2(\pi \cdot&lt;br /&gt;
{f}/({2f_{\rm A}}))\hspace{0.05cm}.$$&lt;br /&gt;
*Durch die geringere Bewertung der bei unbegrenzten Signalen besonders problematischen Randbereiche hat das (logarithmisch gezeichnete) Spektrum&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; geringere Seitenschwinger als die&amp;amp;nbsp; $\rm si$–Funktion im oberen Bild, was zu geringeren Leckkomponenten führt.&lt;br /&gt;
*Die bessere Unterdrückung der Seitenkeulen geht allerdings auf Kosten einer merkbaren Verkleinerung und Verbreiterung der Hauptkeule, wodurch das Auflösungsvermögen des Bartlett–Fensters gegenüber der Rechteck–Fensterung eingeschränkt wird.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Spezielle Fensterfunktionen==&lt;br /&gt;
&amp;lt;br&amp;gt;  &lt;br /&gt;
[[File:EN_Sig_T_5_4_S3.png|right|frame|Hanning-, Hamming- und Kaiser-Bessel-Fenster]]	&lt;br /&gt;
Nun werden einige häufig eingesetzte&amp;amp;nbsp; [https://de.m.wikipedia.org/wiki/Fensterfunktion Fensterfunktionen], nämlich &lt;br /&gt;
*das Hanning–Fenster, &lt;br /&gt;
*das Hamming–Fenster und &lt;br /&gt;
*das Kaiser–Bessel–Fenster&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
anhand von Grafiken und darin enthaltenen Gleichungen beschrieben. Für die Laufvariable im Zeitbereich gilt stets&amp;amp;nbsp; $–N/2 ≤ \nu &amp;lt; N/2$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Hinweise:''&lt;br /&gt;
*Beim Kaiser–Bessel–Fenster sind die Funktionen im Zeit– und Frequenzbereich jeweils für&amp;amp;nbsp; $\alpha = 3.5$&amp;amp;nbsp; dargestellt.&lt;br /&gt;
* ${\rm I}_0(.)$&amp;amp;nbsp; bezeichnet die&amp;amp;nbsp; [https://de.wikipedia.org/wiki/Besselsche_Differentialgleichung Modifizierte Besselfunktion nullter Ordnung].&lt;br /&gt;
*Weitere Fensterfunktionen wie das Blackman–Harris–Fenster, das&amp;amp;nbsp; [https://de.wikipedia.org/wiki/Raised-Cosine-Filter Cosinus–Rolloff–Fenster]&amp;amp;nbsp; (auch Tukey–Fenster genannt) und noch viele andere mehr finden Sie im Buch&amp;amp;nbsp; [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Eignung dieser Fensterfunktionen für verschiedenartige Aufgaben der Spektralanalyse nennen wir auf der nächsten Seite.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt; &lt;br /&gt;
==Gütekriterien von Fensterfunktionen==&lt;br /&gt;
&amp;lt;br&amp;gt;  	&lt;br /&gt;
[[File:EN_Sig_T_5_4_S4_neu.png|right|frame|Zusammenstellung wichtiger Gütekriterien von Fensterfunktionen]]&lt;br /&gt;
Die Tabelle gibt Gütekriterien für die auf den letzten Seiten beschriebenen Fensterfunktionen wieder. Die Auswahl einer geeigneten Fensterfunktion sollte nach folgenden Gesichtspunkten erfolgen:&lt;br /&gt;
*Der&amp;amp;nbsp; '''minimale Abstand zwischen Hauptkeule und Seitenkeulen'''&amp;amp;nbsp; sollte möglichst groß sein, um den Einfluss des Leckeffektes gering zu halten und die Amplitudenauflösung zu verbessern.&lt;br /&gt;
*Aus Gründen einer guten Frequenzselektivität sollte die&amp;amp;nbsp; '''6dB–Bandbreite'''&amp;amp;nbsp; gering sein. Ist diese zu groß, so überdeckt eine dominante Spektrallinie kleinere Anteile in der Umgebung.&lt;br /&gt;
*Der&amp;amp;nbsp; '''maximale Prozessverlust'''&amp;amp;nbsp; (in dB) beinhaltet den maximalen Skalierungsfehler und die äquivalente Rauschbandbreite. Diese Größe sollte auf keinen Fall&amp;amp;nbsp; $\text{3.7 dB}$&amp;amp;nbsp; überschreiten.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Diese wichtigsten Gütekriterien sind in nebenstehender Tabelle durch rote Schrift hervorgehoben.&lt;br /&gt;
*In jeder Zeile sind eher günstige Fensterfunktionen grün und eher ungünstigste grau hinterlegt. &lt;br /&gt;
*Aus der Verteilung der grünen und grauen Flächen ist bereits ersichtlich, dass es die optimale Fensterfunktion nicht gibt.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Nun werden die in der Tabelle angegebenen Gütekriterien etwas genauer beschrieben:&lt;br /&gt;
*Je größer der ''minimale Haupt–zu–Seitenkeulen–Abstand'' &amp;amp;nbsp; ⇒ &amp;amp;nbsp; Verhältnis der Hauptkeule zur höchsten Seitenkeule, desto besser ist die Amplitudenauflösung einer Fensterfunktion. Beim Rechteck ist dieser Abstand erwartungsgemäß am kleinsten&amp;amp;nbsp; $\text{(13 dB)}$. Das beste Ergebnis liefert mit&amp;amp;nbsp; $\text{92 dB}$&amp;amp;nbsp; das Blackman–Harris–Fenster vierter Ordnung.&lt;br /&gt;
*Da jedoch nicht nur die höchste, sondern auch alle weiteren Seitenkeulen zum Leckeffekt beitragen, ist der&amp;amp;nbsp; '''Seitenkeulenabfall'''&amp;amp;nbsp; ein weiteres Maß für das Auflösungsvermögen. Von den angegebenen Fensterfunktionen weisen diesbezüglich das Hanning–Fenster sowie das Cosinus–Rolloff–Fenster mit Rolloff&amp;amp;nbsp; $r = 0.5$&amp;amp;nbsp; die günstigsten Werte auf&amp;amp;nbsp; $\text{(18 dB/Oktave)}$.&lt;br /&gt;
*Die&amp;amp;nbsp; '''6 dB–Bandbreite''', die aus der logarithmierten Spektralfunktion abgelesen werden kann, ist ein wichtiges Maß für das Frequenzauflösungsvermögen. Zwei im Signal vorhandene Spektralanteile bei&amp;amp;nbsp; $f_1$&amp;amp;nbsp; und&amp;amp;nbsp; $f_2$&amp;amp;nbsp; können nur dann aufgelöst werden, wenn die Differenz&amp;amp;nbsp; $f_2 - f_1$&amp;amp;nbsp; größer als die&amp;amp;nbsp; $\text{6 dB}$–Bandbreite der verwendeten Fensterfunktion ist (siehe nachfolgende rechte Grafik).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_4_S4b.png|center|frame|Zur Verdeutlichung der&amp;amp;nbsp; $\text{6 dB}$-Bandbreite]]&lt;br /&gt;
*Die&amp;amp;nbsp; '''Fensterfläche'''&amp;amp;nbsp; der Funktion&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; gibt zugleich die Höhe&amp;amp;nbsp; $W(0)$&amp;amp;nbsp; im Spektralbereich an. Bei allen Fenstern mit Ausnahme des Rechtecks ergibt sich aufgrund der Unterdrückung der äußeren Abtastwerte eine Fensterfläche kleiner&amp;amp;nbsp; $1$&amp;amp;nbsp; und damit ein Fehler in der Amplitude des DFT–Ergebnisses, der jedoch bei Kenntnis von&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; vollständig korrigierbar ist.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; &lt;br /&gt;
*Ein guter Kompromiss ist das&amp;amp;nbsp; '''Hanning–Fenster'''&amp;amp;nbsp; (in der Tabelle blau hervorgehoben), das bezüglich der drei Hauptkriterien (rote Markierungen) nie mit „Grau” abschneidet.&lt;br /&gt;
*Das&amp;amp;nbsp; '''Hamming–Fenster'''&amp;amp;nbsp; unterscheidet sich hiervon im Zeitbereich nur geringfügig, aber im Spektralbereich beträchtlich. So beträgt der Seitenkeulenabfall pro Oktave nur mehr&amp;amp;nbsp; $\text{6 dB}$&amp;amp;nbsp; $($statt&amp;amp;nbsp; $\text{18 dB})$.}}&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Maximaler Prozessverlust==&lt;br /&gt;
&amp;lt;br&amp;gt;  	 	&lt;br /&gt;
Dieses kombinierte Gütekriterium berücksichtigt den&amp;amp;nbsp; '''maximalen Skalierungsfehler'''&amp;amp;nbsp; ebenso wie die (normierte)&amp;amp;nbsp; '''äquivalente Rauschbandbreite'''. Der maximale Prozessverlust wird meist in&amp;amp;nbsp; $\text{dB}$&amp;amp;nbsp; angegeben und sollte entsprechend seines Namens eher klein sein:&lt;br /&gt;
 &lt;br /&gt;
:$$10 \cdot {\rm lg}\hspace{0.15cm}V_{\rm P}\hspace{0.15cm}{\rm (in}\hspace{0.15cm}{\rm dB)}= 20 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{|W(f=0)|}{|W(f=f_{\rm A}/2)|} + 10 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{\int_{-\infty}^{\infty}|W(f)|^2\hspace{0.05cm}{\rm d}f}{f_{\rm A} \cdot |W(f=0)|^2} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Aus der&amp;amp;nbsp; [[Signal_Representation/Spectrum_Analysis#G.C3.BCtekriterien_von_Fensterfunktionen|Tabelle]]&amp;amp;nbsp; erkennt man, dass&amp;amp;nbsp; $V_{\rm P}$&amp;amp;nbsp; für die betrachteten Fensterfunktionen Werte zwischen&amp;amp;nbsp; $\text{3 dB}$&amp;amp;nbsp; und&amp;amp;nbsp; $\text{4 dB}$&amp;amp;nbsp; annimmt, wobei Fensterfunktionen mit&amp;amp;nbsp; $V_{\rm P} &amp;gt; 3.7 \,\text{dB}$&amp;amp;nbsp; (Rechteck, Blackman–Harris, Kaiser–Bessel)&amp;amp;nbsp; nicht verwendet werden sollten. Gerade diese sind aber bezüglich des Haupt–zu–Seitenkeulen–Abstands am besten.&lt;br /&gt;
&lt;br /&gt;
Die beiden Anteile sind wie folgt zu interpretieren:&lt;br /&gt;
*Der ''maximale Skalierungsfehler''&amp;amp;nbsp; ist das Verhältnis, um das sich die mit der DFT ermittelte Amplitude von der tatsächlichen Signalamplitude unterscheidet. Der Amplitudenfehler aufgrund einer Fensterfläche kleiner als&amp;amp;nbsp; $1$&amp;amp;nbsp; wird dabei als korrigiert vorausgesetzt.&lt;br /&gt;
*Je breiter die Hauptkeule der Fensterfunktion ist, um so kleiner ist dieser Skalierungsfehler. Der Fehler ist am größten, wenn die Frequenz&amp;amp;nbsp; $f_0$&amp;amp;nbsp; einer harmonischen Schwingung in der Mitte zwischen zwei DFT–Stützstellen liegt &amp;amp;nbsp; ⇒ &amp;amp;nbsp; Quotient $|W(f = 0)| / |W(f = f_{\rm A}/2)|$. &lt;br /&gt;
&lt;br /&gt;
*Die ''äquivalente Rauschbandbreite''&amp;amp;nbsp; der verwendeten Fensterfunktion – berechenbar als Breite des flächengleichen Rechtecks bezüglich dem Betragsquadrat&amp;amp;nbsp; $|W(f)|^2$&amp;amp;nbsp; der Spektralfunktion – erfasst den störenden Einfluss von weißem Rauschen und sollte möglichst gering sein.&lt;br /&gt;
*Die kleinste Rauschbandbreite ergibt sich für das Rechteck. Alle anderen Fensterfunktionen besitzen eine größere Rauschbandbreite und damit bei Vorhandensein von Rauschstörungen auch ein (deutlich) ungünstigeres Signal–zu–Rausch–Leistungsverhältnis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; &lt;br /&gt;
Die Ergebnisse dieses Abschnitts können wie folgt zusammengefasst werden:&lt;br /&gt;
*Eine ideale Fensterfunktion gibt es nicht. Je nach Aufgabenstellung&amp;amp;nbsp; (gute Amplituden– bzw. Frequenzauflösung)&amp;amp;nbsp; liefern unterschiedliche Fenster das jeweils beste Ergebnis. Zu empfehlen ist deshalb, dass man zur Spektralanalyse stets mehrere Fensterfunktionen heranzieht oder zumindest eine Fensterfunktion mit verschiedenen Parametern verwendet.&lt;br /&gt;
*Ein tragbarer Kompromiss hinsichtlich aller Kriterien ist das&amp;amp;nbsp; '''Hamming–Fenster''', das lediglich beim Seitenkeulenabfall&amp;amp;nbsp; $($nur&amp;amp;nbsp; $\text{6 dB pro Oktave})$&amp;amp;nbsp; einen ungünstigen Wert liefert. Obwohl sich das&amp;amp;nbsp; '''Hanning–Fenster'''&amp;amp;nbsp; im Zeitbereich vom Hamming-Fenster nur mariginal unterscheidet, ist im Spektralbereich&amp;amp;nbsp; (minimaler Abstand zwischen Hauptkeule und Seitenkeulen)&amp;amp;nbsp; der Unterschied zwischen beiden beträchtlich.}}&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel== &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.4: Comparison of Rectangular And Hanning Window |Exercise 5.4: Comparison of Rectangular And Hanning Window ]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.4Z: On The Hanning Window|Exercise 5.4Z: On The Hanning Window]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==References== &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Possible_Errors_when_using_DFT&amp;diff=35567</id>
		<title>Signal Representation/Possible Errors when using DFT</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Possible_Errors_when_using_DFT&amp;diff=35567"/>
		<updated>2021-01-01T17:43:15Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Time and Frequency-Discrete Signal Representation&lt;br /&gt;
|Vorherige Seite=Discrete Fourier Transform (DFT)&lt;br /&gt;
|Nächste Seite=Spectrum Analysis&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==The Mean Square Error As a Quality Criteria==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
In the following, we briefly discuss some error possibilities when applying the DFT, whereby we restrict ourselves to the transformation from the time to the frequency domain. Even in its samples, the spectrum&amp;amp;nbsp; $D(\mu )/f_{\rm A}$&amp;amp;nbsp; determined via the DFT will generally differ from the actual spectrum&amp;amp;nbsp; $X(\mu \cdot f_{\rm A})$&amp;amp;nbsp; due to two processes:&lt;br /&gt;
*the&amp;amp;nbsp; '''sampling''', that is, the reduction of information about&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; to&amp;amp;nbsp; $N$&amp;amp;nbsp; numerical values,&lt;br /&gt;
*the&amp;amp;nbsp; '''windowing''' that limits the signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; possibly erroneously.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;&lt;br /&gt;
A quality criteria that takes both types of error into account is the&amp;amp;nbsp; '''mean square error''':&lt;br /&gt;
 &lt;br /&gt;
:$${\rm MQF} =  \frac{1}{N}\cdot \sum_{\mu = 0 }^{N-1}&lt;br /&gt;
 \left\vert X(\mu \cdot f_{\rm A})-\frac{D(\mu)}{f_{\rm A} }\right \vert^2 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
It is always&amp;amp;nbsp; ${\rm MQF} \ne 0$, since with finite&amp;amp;nbsp; $N$&amp;amp;nbsp; degradation due to sampling and due to windowing cannot be made zero at the same time}}. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The magnitude of this evaluation quantity&amp;amp;nbsp; ${\rm MQF}$&amp;amp;nbsp; depends on the following parameters:&lt;br /&gt;
*the properties of the time function at hand&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; or the spectrum&amp;amp;nbsp; $X(f)$,&lt;br /&gt;
*the DFT parameter&amp;amp;nbsp; $N$;&amp;amp;nbsp; the larger&amp;amp;nbsp; $N$&amp;amp;nbsp; is chosen, the smaller&amp;amp;nbsp; ${\rm MQF}$ becomes,&lt;br /&gt;
*one of the four further DFT parameters, for example&amp;amp;nbsp; $f_{\rm A}$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
For a given&amp;amp;nbsp; $N$&amp;amp;nbsp; the other DFT parameters are determined via the equations&amp;amp;nbsp; $f_{\rm P} = N \cdot f_{\rm A}$,&amp;amp;nbsp; $T_{\rm P} = 1/f_{\rm A}$&amp;amp;nbsp; and&amp;amp;nbsp; $T_{\rm A} = T_{\rm P}/N$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
We refer you already here to the learning video (in German language) &amp;amp;nbsp; [[Fehlermöglichkeiten_bei_Anwendung_der_DFT_(Lernvideo)|Possible Errors When Using DFT]]&amp;amp;nbsp;, which clarifies the content of this chapter. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_1_S1.png|right|frame|Quasi-Error-Free DFT  with &amp;amp;nbsp; $N = 16$]]&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp;&lt;br /&gt;
As an example, we consider a Gaussian pulse with the equivalent pulse duration&amp;amp;nbsp; $\Delta t = T$, where&amp;amp;nbsp; $T$&amp;amp;nbsp; is simultaneously used as a normalisation parameter:&lt;br /&gt;
 &lt;br /&gt;
:$$x(t) = {\rm e}^{- \pi (t/T)^2} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
The Gaussian pulse is very suitable for the application of DFT due to its fast, exponential decay in both the time and frequency domain. &lt;br /&gt;
&lt;br /&gt;
The graph below shows the DFT&amp;amp;ndash;result&lt;br /&gt;
*for&amp;amp;nbsp; $N = 16$&amp;amp;nbsp; and &lt;br /&gt;
*$T_{\rm A}/T = 0.25$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; $f_{\rm A} \cdot T = 0.25$.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
The following should be noted about this plot:&lt;br /&gt;
*The considered samples of&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; are in the range&amp;amp;nbsp; $\vert t/T \vert≤ 2$.&amp;amp;nbsp; Since&amp;amp;nbsp; $x(\pm 2T)$&amp;amp;nbsp; is very small, periodization in the time domain with&amp;amp;nbsp; $T_{\rm P}/T = N \cdot T_{\rm A}/T = 2$&amp;amp;nbsp; does not lead to serious errors.&lt;br /&gt;
*With&amp;amp;nbsp; $f_{\rm A} \cdot T = 0.25$&amp;amp;nbsp; and&amp;amp;nbsp; $N = 16$&amp;amp;nbsp; results in the (normalised) DFT parameter&amp;amp;nbsp; $f_{\rm P} \cdot T = 4$. &lt;br /&gt;
*The discrete spectral lines of the DFT thus lie in the range&amp;amp;nbsp; $-2/T ≤ f &amp;lt; +2/T$.&lt;br /&gt;
*The mean squared error is relatively small&amp;amp;nbsp; $\text{(MQF} \approx 10^{-12})$, which is due to the favourable choice of&amp;amp;nbsp; $f_{\rm A} \cdot T = 0.25$&amp;amp;nbsp; $($for a given&amp;amp;nbsp; $N = 16)$&amp;amp;nbsp;.&lt;br /&gt;
*The DFT accuracy can be improved by increasing&amp;amp;nbsp; $N$&amp;amp;nbsp;: &lt;br /&gt;
:*For&amp;amp;nbsp; $N = 1024$&amp;amp;nbsp; the smallest possible value is obtained&amp;amp;nbsp; $\text{MQF} \approx 8 \cdot 10^{-17}$, if&amp;amp;nbsp; $f_{\rm A} \cdot T = 0.125$&amp;amp;nbsp; is chosen. The following then applies to the other DFT parameters:&lt;br /&gt;
:: $$f_{\rm P} \cdot T = 128, \hspace{0.5cm}T_{\rm A}/T = 1/128, \hspace{0.5cm} T_{\rm P}/T = N \cdot T_{\rm A}/T= 8.$$&lt;br /&gt;
:*For a 32&amp;amp;ndash;bit&amp;amp;ndash;processor (meaning:&amp;amp;nbsp; smaller quantization errors of the computer)&amp;amp;nbsp; $\text{MQF}$&amp;amp;nbsp; would be even smaller, but never zero. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==DFT Falsification Due to Windowing &amp;amp;ndash; Termination Error==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
A typical error when using the DFT is due to&amp;amp;nbsp; '''windowing''''&amp;amp;nbsp;. This falsification, known as&amp;amp;nbsp; ''truncation error''&amp;amp;nbsp; can be explained as follows:&lt;br /&gt;
*The windowing implicit in the DFT algorithm corresponds to the multiplication of the signal&amp;amp;nbsp; $x(t)$ by&amp;amp;nbsp; a rectangular function of height&amp;amp;nbsp; $1$&amp;amp;nbsp; and duration&amp;amp;nbsp; $T_{\rm P} = N \cdot T_{\rm A}$.&lt;br /&gt;
*If the time signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; is not limited to the range&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; the DFT result does not coincide with the actual spectrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; but is obtained from it by convolution with the spectral function&amp;amp;nbsp; $T_{\rm P} \cdot \text{si}(\pi fT_{\rm P})$.&lt;br /&gt;
*In the limiting case&amp;amp;nbsp; $T_{\rm P} \to \infty$, which for a given distance&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; of the samples would also mean an infinitely large number of interpolation points&amp;amp;nbsp; $N$&amp;amp;nbsp; degenerates&amp;amp;nbsp; $T_{\rm P} \cdot \text{si}(\pi fT_{\rm P})$&amp;amp;nbsp; to a Dirac function and the original spectrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; would remain.&lt;br /&gt;
*The DFT of an unbounded signal in time - for example a periodic signal - will always cause a truncation error which can only be kept within limits by special measures. This is discussed in more detail in the chapter&amp;amp;nbsp; [[Signal_Representation/Spectrum_Analysis|spectrum analysis]]&amp;amp;nbsp;.&lt;br /&gt;
*For time-limited, pulse-like signals, the truncation error can be avoided by choosing&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; sufficiently large. By further enlarging the window into areas with&amp;amp;nbsp; $x(t) \approx 0$&amp;amp;nbsp; no additional information gain results &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $\text{MQF}$&amp;amp;nbsp; does not become smaller.&lt;br /&gt;
*By this addition of zeros&amp;amp;nbsp; '''(zero-padding)'''&amp;amp;nbsp; the samples of&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; now occur at a smaller distance&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$&amp;amp;nbsp;. By&amp;amp;nbsp; $T_{\rm P}$-doubling one achieves an interpolation of the frequency samples exactly in the middle between two previous grid points.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The following example shows a termination error due to unfavourably chosen DFT parameters.&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_1_S2.png|right|frame|Termination Error For a DFT With&amp;amp;nbsp; $N = 16$]]&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 2:}$&amp;amp;nbsp;&lt;br /&gt;
The graph shows the result of the DFT for equal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; as well as equal&amp;amp;nbsp; $N = 16$&amp;amp;nbsp; as in&amp;amp;nbsp; [[Signal_Representation/Possible_Errors_When_Using_DFT#Der_mittlere_quadratische_Fehler_als_Qualit.C3.A4tskriterium|$\text{example 1}$]],but now with sampling in the time domain finer by a factor of&amp;amp;nbsp; $2$&amp;amp;nbsp; compared to this: &lt;br /&gt;
:$$T_{\rm A}/T = 0.125 &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; &amp;amp;nbsp; f_{\rm A} \cdot T = 0.5.$$&lt;br /&gt;
&lt;br /&gt;
The comparison with&amp;amp;nbsp; [[Signal_Representation/Possible_Errors_When_Using_DFT#Der_mittlere_quadratische_Fehler_als_Qualit.C3.A4tskriterium|example 1]]&amp;amp;nbsp; $(T_{\rm A}/T = 0.25 \ \Rightarrow \  f_{\rm A} \cdot T = 0.25)$&amp;amp;nbsp; shows:&lt;br /&gt;
*The spacing of the frequency samples increases:&amp;amp;nbsp; $f_{\rm A} \cdot T = 0.5$.&lt;br /&gt;
*At the same time, $T_{\rm P}/T$&amp;amp;nbsp; decreases from&amp;amp;nbsp; $4$&amp;amp;nbsp; to&amp;amp;nbsp; $2$.&lt;br /&gt;
*With this, only the signal components in the range&amp;amp;nbsp; $\vert t \vert &amp;lt; T$&amp;amp;nbsp; are now captured by the DFT.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Summing up:''' &amp;lt;br&amp;gt;With these DFT parameters, a&amp;amp;nbsp; '''truncation error''' arises, by which the mean square error&amp;amp;nbsp; $\rm (MQF)$&amp;amp;nbsp; is significantly increased from&amp;amp;nbsp; $10^{-12}$ to $4 \cdot 10^{-5}$&amp;amp;nbsp;. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Again, we refer to the learning video (in German language) &amp;lt;br&amp;gt;[[Fehlermöglichkeiten_bei_Anwendung_der_DFT_(Lernvideo)|Possible Errors When Using DFT]]. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==DFT Falsification Due To Sampling &amp;amp;ndash; Aliasing Error==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
An unsuitable sampling of the time function&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; can also significantly falsify the DFT result. This so-called&amp;amp;nbsp; '''aliasing error'''&amp;amp;nbsp; can be explained as follows:&lt;br /&gt;
*Sampling&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; at a distance&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; causes a periodic continuation of the spectrum at multiples of the periodisation frequency&amp;amp;nbsp; $f_{\rm P} = 1/T_{\rm A}$.&lt;br /&gt;
*If the spectrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; also has spectral components at&amp;amp;nbsp; $|f| &amp;gt; f_{\rm P}/2$, the sampling theorem is not fulfilled and overlaps of the shifted frequency components to be added occur.&lt;br /&gt;
*Only with a band-limited signal can the aliasing error be avoided by suitable DFT parameters. In contrast, this error is unavoidable with time-limited, pulse-like signals, since time-limited signals cannot be band-limited at the same time.&lt;br /&gt;
*The aliasing error is reduced by finer sampling&amp;amp;nbsp; $($so: &amp;amp;nbsp; smaller&amp;amp;nbsp; $T_{\rm A} = 1/f_{\rm P})$&amp;amp;nbsp;. This can only be achieved with a constant&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; - in order not to let the truncation error increase - by a larger&amp;amp;nbsp; $N$&amp;amp;nbsp; and thus a greater computational effort.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The following&amp;amp;nbsp; $\text{Example 3}$&amp;amp;nbsp; shows such an aliasing error due to wrongly chosen DFT parameters: &lt;br /&gt;
*Compared to the &amp;amp;bdquo;comparison system&amp;amp;rdquo; according to&amp;amp;nbsp; [[Signal_Representation/Possible_Errors_When_Using_DFT#Der_mittlere_quadratische_Fehler_als_Qualit.C3.A4tskriterium|$\text{example 1}$]]&amp;amp;nbsp;   is&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; too large and&amp;amp;nbsp; $f_{\rm A}$&amp;amp;nbsp; too small dimensioned. &lt;br /&gt;
*The number of interpolation points is in both cases&amp;amp;nbsp; $N = 16$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_1_S3._neu.png|right|frame|Aliasing Error of a  DFT With&amp;amp;nbsp; $N = 16$]]&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 3:}$&amp;amp;nbsp;&lt;br /&gt;
Let the DFT parameters be&amp;amp;nbsp; $N = 16$&amp;amp;nbsp; and&amp;amp;nbsp; $f_{\rm A} \cdot T= 0.125$. Thus, for the other three DFT parameters we get:&lt;br /&gt;
* $T_{\rm P}/T = 8.0 \hspace{0.5cm} \text{(Example 1:} \ \ T_{\rm P}/T = 4)$,&lt;br /&gt;
* $f_{\rm P} \cdot T = 2.0 \hspace{0.45cm} \text{(Example 1:} \ \ f_{\rm P} \cdot T = 4)$,&lt;br /&gt;
* $T_{\rm A}/T = 0.5\hspace{0.45cm} \text{(Example 1:} \ \ T_{\rm A}/T = 0.25)$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
This results in the following consequences:&lt;br /&gt;
*The termination error continues to play no role because of&amp;amp;nbsp; $T_{\rm P} /T = 8$&amp;amp;nbsp; (already&amp;amp;nbsp; $T_{\rm P} /T = 4$&amp;amp;nbsp; was sufficient).&lt;br /&gt;
*Because&amp;amp;nbsp; $f_{\rm P}  \cdot T = 2$&amp;amp;nbsp; aliasing now arises, however, because the DFT is derived from the sum of many Gaussian functions at distance&amp;amp;nbsp; $f_{\rm P}  \cdot T = 2$&amp;amp;nbsp; (thin dashed curves in the graph ).&lt;br /&gt;
*The individual DFT coefficients are falsified differently: &amp;amp;nbsp; The mean DFT coefficient&amp;amp;nbsp; $($for the frequency&amp;amp;nbsp; $f = 0)$&amp;amp;nbsp; is almost correct, while the errors of the DFT coefficients increase significantly towards the edges.&lt;br /&gt;
*In the example considered, the DFT coefficient for&amp;amp;nbsp; $f \cdot T = -1$&amp;amp;nbsp; is twice as large as it should be, since the Gaussian function with the centre at&amp;amp;nbsp; $f \cdot T = -2$&amp;amp;nbsp; gives the same contribution as the actual Gaussian function around&amp;amp;nbsp; $f \cdot T = 0$&amp;amp;nbsp; (see yellow background).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Thus, here with&amp;amp;nbsp; $\text{MQF} \approx 2 \cdot 10^{-4}$&amp;amp;nbsp; an error value four times larger than that caused by the termination error in&amp;amp;nbsp; [[Signal_Representation/Possible_Errors_When_Using_DFT#DFT-Verf.C3.A4lschung_durch_Fensterung_.E2.80.93_Abbruchfehler|$\text{example 2}$]]. &lt;br /&gt;
&lt;br /&gt;
Again, we refer to the learning video (in German language) &amp;amp;nbsp; [[Fehlermöglichkeiten_bei_Anwendung_der_DFT_(Lernvideo)|Possible Errors When Using DFT]]. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Exercises For The Chapter== &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.3: Mean Square Error|Exercise 5.3: Mean Square Error]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.3Z: Zero-Padding|Exercise 5.3Z: Zero-Padding]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Discrete_Fourier_Transform_(DFT)&amp;diff=35566</id>
		<title>Signal Representation/Discrete Fourier Transform (DFT)</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Discrete_Fourier_Transform_(DFT)&amp;diff=35566"/>
		<updated>2020-12-28T20:24:51Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Time and Frequency-Discrete Signal Representation&lt;br /&gt;
|Vorherige Seite=Time Discrete Signal Representation&lt;br /&gt;
|Nächste Seite=Possible Errors When Using DFT&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Arguments for the Discrete Realisation of the Fourier Transform==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The&amp;amp;nbsp; '''Fourier transform'''&amp;amp;nbsp; according to the previous description in chapter&amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_and_Its_Inverse|Aperiodic Signals &amp;amp;ndash; Pulses]]&amp;amp;nbsp;has an infinitely high selectivity due to the unlimited extension of the integration interval and is therefore an ideal theoretical tool of spectral analysis.&lt;br /&gt;
&lt;br /&gt;
If the spectral components&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; of a time function&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; are to be determined numerically, the general transformation equations are&lt;br /&gt;
 &lt;br /&gt;
:$$\begin{align*}X(f) &amp;amp; =  \int_{-\infty&lt;br /&gt;
 }^{+\infty}x(t) \cdot {\rm e}^{-{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi f t}\hspace{0.1cm} {\rm d}t\hspace{0.5cm} \Rightarrow\hspace{0.5cm} \text{Transform}\hspace{0.7cm} \Rightarrow\hspace{0.5cm} \text{first  Fourier integral}&lt;br /&gt;
 \hspace{0.05cm},\\&lt;br /&gt;
x(t) &amp;amp; =  \int_{-\infty&lt;br /&gt;
 }^{+\infty}\hspace{-0.15cm}X(f) \cdot {\rm e}^{\hspace{0.05cm}+{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi f t}\hspace{0.1cm} {\rm d}f\hspace{0.35cm} \Rightarrow\hspace{0.5cm}&lt;br /&gt;
\text{Back Transform}\hspace{0.4cm} \Rightarrow\hspace{0.5cm} \text{second Fourier integral}&lt;br /&gt;
 \hspace{0.05cm}\end{align*}$$&lt;br /&gt;
&lt;br /&gt;
unsuitable for two reasons:&lt;br /&gt;
*The equations apply exclusively to time-continuous signals. With digital computers or signal processors, however, one can only process time-discrete signals.&lt;br /&gt;
*For a numerical evaluation of the two Fourier integrals it is necessary to limit the respective integration interval to a finite value.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{This leads to the following consequence:}$&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
A&amp;amp;nbsp; '''continuous signal'''&amp;amp;nbsp; must undergo two processes before the numerical determination of its spectral properties, viz.&lt;br /&gt;
*that of&amp;amp;nbsp; '''sampling'''&amp;amp;nbsp; for discretisation, and&lt;br /&gt;
*that of&amp;amp;nbsp; '''windowing'''&amp;amp;nbsp; to limit the integration interval.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
In the following, starting from an aperiodic time function&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; and the corresponding Fourier spectrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; a time- and frequency-discrete description suitable for computer processing is developed step by step.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Time Discretisation &amp;amp;ndash; Periodisation in the Frequency Domain==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The following graphs show uniformly the time domain on the left and the frequency domain on the right. Without limiting generality,&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; are each real and Gaussian.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1132__Sig_T_5_1_S2_neu.png|center|frame| Time Discretisation - Periodisation in the Frequency Domain]]&lt;br /&gt;
&lt;br /&gt;
According to the chapter&amp;amp;nbsp; [[Signal_Representation/Time_Discrete_Signal_Representation|Time Discrete Signal Representation]]&amp;amp;nbsp; one can describe the sampling of the time signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; by multiplying it by a Dirac pulse&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp;. The result is the time signal sampled at a distance&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp;&lt;br /&gt;
 &lt;br /&gt;
:$${\rm A}\{x(t)\} =  \sum_{\nu = - \infty }^{+\infty} T_{\rm A} \cdot x(\nu \cdot T_{\rm A})\cdot&lt;br /&gt;
 \delta (t- \nu \cdot T_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
We now transform this sampled signal&amp;amp;nbsp; $\text{A}\{ x(t)\}$&amp;amp;nbsp; into the frequency domain. The multiplication of the Dirac pulse&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; with&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; corresponds in the frequency domain to the convolution of&amp;amp;nbsp; $P_{\delta}(f)$&amp;amp;nbsp; with&amp;amp;nbsp; $X(f)$. The result is the periodised spectrum&amp;amp;nbsp; $\text{P}\{ X(f)\}$, where&amp;amp;nbsp; $f_{\rm P}$&amp;amp;nbsp; indicates the frequency period of the function&amp;amp;nbsp; $\text{P}\{ X(f)\}$&amp;amp;nbsp;:&lt;br /&gt;
 &lt;br /&gt;
:$${\rm A}\{x(t)\} \hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm} {\rm P}\{X(f)\} =  \sum_{\mu = - \infty }^{+\infty}&lt;br /&gt;
 X (f- \mu \cdot f_{\rm P} )\hspace{0.5cm} {\rm with }\hspace{0.5cm}f_{\rm&lt;br /&gt;
 P}= {1}/{T_{\rm A}}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
This relation was also already derived in the chapter&amp;amp;nbsp; [[Signal_Representation/Time_Discrete_Signal_Representation|Time Discrete Signal Representation]]&amp;amp;nbsp;  but with slightly different nomenclature:&lt;br /&gt;
*We now denote the sampled signal by&amp;amp;nbsp; $\text{A}\{ x(t)\}$&amp;amp;nbsp; instead of&amp;amp;nbsp; $x_{\rm A}(t)$.&lt;br /&gt;
* The&amp;amp;nbsp; '''frequency period'''&amp;amp;nbsp; is now denoted by&amp;amp;nbsp; $f_{\rm P} = 1/T_{\rm A}$&amp;amp;nbsp; instead of&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
These nomenclature changes are justified on the following pages.&lt;br /&gt;
&lt;br /&gt;
The graph above shows the functional relationship described here. It should be noted:&lt;br /&gt;
*The frequency period&amp;amp;nbsp; $f_{\rm P}$&amp;amp;nbsp; has been deliberately chosen to be small here so that the overlap of the spectra to be summed can be clearly seen.&lt;br /&gt;
*In practice&amp;amp;nbsp; $f_{\rm P}$&amp;amp;nbsp; should be at least twice as large as the largest frequency contained in the signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; due to the sampling theorem.&lt;br /&gt;
*If this is not fulfilled, then&amp;amp;nbsp; '''Aliasing'''&amp;amp;nbsp; must be reckoned with - see chapter&amp;amp;nbsp; [[Signal_Representation/Possible_Errors_When_Using_DFT|Possible Errors When Using DFT]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Frequency Discretisation &amp;amp;ndash; Periodisation in the Time Domain ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The discretisation of&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; can also be described by a multiplication with a Dirac comb. The result is the spectrum sampled in the distance&amp;amp;nbsp; $f_{\rm A}$&amp;amp;nbsp;: &lt;br /&gt;
:$${\rm A}\{X(f)\} =  X(f) \cdot   \sum_{\mu = - \infty }^{+\infty}&lt;br /&gt;
 f_{\rm A} \cdot \delta (f- \mu \cdot f_{\rm A } ) =  \sum_{\mu = - \infty }^{+\infty}&lt;br /&gt;
 f_{\rm A} \cdot X(\mu \cdot f_{\rm A } ) \cdot\delta (f- \mu \cdot f_{\rm A } )\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
If one transforms the frequency-dirac comb $($with pulse weights&amp;amp;nbsp; $f_{\rm A})$&amp;amp;nbsp; used here into the time domain, one obtains with&amp;amp;nbsp; $T_{\rm P} = 1/f_{\rm A}$:&lt;br /&gt;
 &lt;br /&gt;
:$$\sum_{\mu = - \infty }^{+\infty}&lt;br /&gt;
 f_{\rm A} \cdot \delta (f- \mu \cdot f_{\rm A } ) \hspace{0.2cm}\bullet\!\!-\!\!\!-\!\!\!-\!\!\circ\, \hspace{0.2cm}&lt;br /&gt;
 \sum_{\nu = - \infty }^{+\infty}&lt;br /&gt;
  \delta (t- \nu \cdot T_{\rm P } ) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
The multiplication with&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; corresponds in the time domain to the convolution with&amp;amp;nbsp; $x(t)$. One obtains the signal&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; periodified in the distance&amp;amp;nbsp; $\text{P}\{ x(t)\}$:&lt;br /&gt;
 &lt;br /&gt;
:$${\rm A}\{X(f)\} \hspace{0.2cm}\bullet\!\!-\!\!\!-\!\!\!-\!\!\circ\, \hspace{0.2cm}&lt;br /&gt;
 {\rm P}\{x(t)\} = x(t) \star \sum_{\nu = - \infty }^{+\infty}&lt;br /&gt;
  \delta (t- \nu \cdot T_{\rm P } )= \sum_{\nu = - \infty }^{+\infty}&lt;br /&gt;
  x (t- \nu \cdot T_{\rm P } ) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1134__Sig_T_5_1_S3_neu.png|right|frame|Frequency Discretisation &amp;amp;ndash; Periodisation in the Time Domain]]&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp;&lt;br /&gt;
This correlation is illustrated in the graph: &lt;br /&gt;
*Due to the coarse frequency rastering, this example results in a relatively small value for the time period&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* Therefore, the (blue) periodised time signal&amp;amp;nbsp; $\text{P}\{ x(t)\}$&amp;amp;nbsp; differs significantly from&amp;amp;nbsp; $x(t)$.}} due to overlaps.&lt;br /&gt;
&lt;br /&gt;
==Finite Signal Representation==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:P_ID1135__Sig_T_5_1_S4_neu.png|right|frame|Finite Signals of the Discrete Fourier Transform (DFT)]]&lt;br /&gt;
One arrives at the so-called&amp;amp;nbsp; ''finite signal representation''&amp;amp;nbsp;, &lt;br /&gt;
*if both the time function&amp;amp;nbsp; $x(t)$ &lt;br /&gt;
*and the spectral function&amp;amp;nbsp; $X(f)$ &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
are specified exclusively by their sample values.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
The graph is to be interpreted as follows:&lt;br /&gt;
*In the left picture, drawn in blue, is the function&amp;amp;nbsp; $\text{A}\{ \text{P}\{ x(t)\}\}$. This results from sampling the periodified time function&amp;amp;nbsp; $\text{P}\{ x(t)\}$&amp;amp;nbsp; with equidistant dirac pulses at a distance&amp;amp;nbsp; $T_{\rm A} = 1/f_{\rm P}$.&lt;br /&gt;
*In the right picture the function is drawn in green&amp;amp;nbsp; $\text{P}\{ \text{A}\{ X(f)\}\}$. This results from periodisation $($with&amp;amp;nbsp; $f_{\rm P})$&amp;amp;nbsp; of the sampled spectral function&amp;amp;nbsp; $\{ \text{A}\{ X(f)\}\}$. &lt;br /&gt;
*There is a Fourier correspondence between the blue finite signal (left sketch) and the green finite signal (right sketch), as follows:&lt;br /&gt;
 &lt;br /&gt;
:$${\rm A}\{{\rm P}\{x(t)\}\} \hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm} {\rm P}\{{\rm A}\{X(f)\}\} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*The diraclines of the periodic continuation&amp;amp;nbsp; $\text{P}\{ \text{A}\{ X(f)\}\}$&amp;amp;nbsp; of the sampled spectral function, however, only fall into the same frequency grid as those of&amp;amp;nbsp; $\text{A}\{ X(f)\}$ if the frequency period&amp;amp;nbsp; $f_{\rm P}$&amp;amp;nbsp; is an integer multiple&amp;amp;nbsp; $(N)$&amp;amp;nbsp; of the frequency sampling interval&amp;amp;nbsp; $f_{\rm A}$&amp;amp;nbsp;.&lt;br /&gt;
*Therefore, when using the finite signal representation, the following condition must always be fulfilled, where the natural number&amp;amp;nbsp; $N$&amp;amp;nbsp; in practice is usually a power of two&amp;amp;nbsp; (the above graph is based on the value&amp;amp;nbsp; $N = 8$&amp;amp;nbsp;):&lt;br /&gt;
 &lt;br /&gt;
:$$f_{\rm P} = N \cdot f_{\rm A} \hspace{0.5cm} \Rightarrow\hspace{0.5cm} {1}/{T_{\rm A}}= N \cdot f_{\rm A} \hspace{0.5cm} \Rightarrow\hspace{0.5cm}&lt;br /&gt;
 N \cdot f_{\rm A}\cdot T_{\rm A} = 1\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*If the condition&amp;amp;nbsp; $N \cdot f_{\rm A} \cdot T_{\rm A} = 1$&amp;amp;nbsp; the order of periodization and sampling is interchangeable. Thus:&lt;br /&gt;
 &lt;br /&gt;
:$${\rm A}\{{\rm P}\{x(t)\}\} = {\rm P}\{{\rm A}\{x(t)\}\}\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm}&lt;br /&gt;
 {\rm P}\{{\rm A}\{X(f)\}\} = {\rm A}\{{\rm P}\{X(f)\}\}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp;&lt;br /&gt;
*The time function&amp;amp;nbsp; $\text{P}\{ \text{A}\{ x(t)\}\}$&amp;amp;nbsp; has the period&amp;amp;nbsp; $T_{\rm P} = N \cdot T_{\rm A}$. &lt;br /&gt;
*The period in the frequency domain is&amp;amp;nbsp; $f_{\rm P} = N \cdot f_{\rm A}$. &lt;br /&gt;
*For the description of the discretised time and frequency response in each case&amp;amp;nbsp; $N$&amp;amp;nbsp; '''complex numerical values''' in the form of pulse weights are thus sufficient.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 2:}$&amp;amp;nbsp;&lt;br /&gt;
A time-limited (pulse-like) signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; is present in sampled form, where the distance between two samples&amp;amp;nbsp; $T_{\rm A} = 1\, {\rm &amp;amp;micro; s}$&amp;amp;nbsp; is: &lt;br /&gt;
*After a discrete Fourier transform with&amp;amp;nbsp; $N = 512$&amp;amp;nbsp; the spectrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; is in the form of samples spaced&amp;amp;nbsp; $f_{\rm A} = (N \cdot T_{\rm A})^{-1} \approx 1.953\,\text{kHz} $&amp;amp;nbsp; before. &lt;br /&gt;
*Increasing the DFT&amp;amp;ndash;parameter to&amp;amp;nbsp; $N= 2048$ results in a (four times) finer frequency grid with&amp;amp;nbsp; $f_{\rm A} \approx 488\,\text{Hz}$.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==From the Continuous to the Discrete Fourier Transform==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
From the conventional&amp;amp;nbsp;[[Signal_Representation/Fourier_Transform_and_Its_Inverse#Das_erste_Fourierintegral|first  Fourier integral]]&lt;br /&gt;
 &lt;br /&gt;
:$$X(f) =\int_{-\infty&lt;br /&gt;
 }^{+\infty}x(t) \cdot {\rm e}^{-{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm} f  \hspace{0.05cm}\cdot \hspace{0.05cm}t}\hspace{0.1cm} {\rm d}t$$&lt;br /&gt;
&lt;br /&gt;
arises from discretisation&amp;amp;nbsp; $(\text{d}t \to T_{\rm A}$,&amp;amp;nbsp; $t \to \nu \cdot T_{\rm A}$,&amp;amp;nbsp; $f \to \mu \cdot f_{\rm A}$,&amp;amp;nbsp; $T_{\rm A} \cdot f_{\rm A} = 1/N)$&amp;amp;nbsp; the sampled and periodised spectral function&lt;br /&gt;
 &lt;br /&gt;
:$${\rm P}\{X(\mu \cdot f_{\rm A})\} = T_{\rm A} \cdot \sum_{\nu = 0 }^{N-1}&lt;br /&gt;
  {\rm P}\{x(\nu \cdot T_{\rm A})\}\cdot  {\rm e}^{-{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi \hspace{0.05cm} \cdot \hspace{0.05cm}\nu \hspace{0.05cm}&lt;br /&gt;
 \cdot \hspace{0.05cm}\mu /N} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
It is taken into account that due to the discretisation, the periodised functions are to be used in each case. &lt;br /&gt;
&lt;br /&gt;
For reasons of simplified notation, we now make the following substitutions:&lt;br /&gt;
*The&amp;amp;nbsp; $N$&amp;amp;nbsp; '''time-domain coefficients''''&amp;amp;nbsp; are with the iterating variable&amp;amp;nbsp; $\nu = 0$, ... , $N - 1$:&lt;br /&gt;
:$$d(\nu) =.&lt;br /&gt;
  {\rm P}\left\{x(t)\right\}{\big|}_{t \hspace{0.05cm}= \hspace{0.05cm}\nu \hspace{0.05cm}\cdot \hspace{0.05cm}T_{\rm A}}\hspace{0.05cm}.$$&lt;br /&gt;
*Let&amp;amp;nbsp; $N$&amp;amp;nbsp; '''frequency domain coefficients''''&amp;amp;nbsp; be associated with the running variable&amp;amp;nbsp; $\mu = 0,$ ... , $N$ – 1:&lt;br /&gt;
:$$D(\mu) = f_{\rm A} \cdot&lt;br /&gt;
  {\rm P}\left\{X(f)\right\}{\big|}_{f \hspace{0.05cm}= \hspace{0.05cm}\mu \hspace{0.05cm}\cdot \hspace{0.05cm}f_{\rm A}}\hspace{0.05cm}.$$&lt;br /&gt;
*Abbreviation is written for the from&amp;amp;nbsp; $N$&amp;amp;nbsp; dependent&amp;amp;nbsp; '''complex rotation factor''''&amp;amp;nbsp;:&lt;br /&gt;
:$$w = {\rm e}^{-{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi /N}&lt;br /&gt;
 = \cos \left( {2 \pi}/{N}\right)-{\rm j} \cdot \sin \left( {2 \pi}/{N}\right)&lt;br /&gt;
 \hspace{0.05cm}.$$ &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2730__Sig_T_5_1_S5_neu.png|right|frame|On Defining the Discrete Fourier Transform (DFT) with&amp;amp;nbsp; $N=8$]]&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
The term&amp;amp;nbsp; '''Discrete Fourier Transform'''&amp;amp;nbsp; (in short '''DFT''')&amp;amp;nbsp; means the calculation of the&amp;amp;nbsp; $N$&amp;amp;nbsp; spectral coefficients&amp;amp;nbsp; $D(\mu)$&amp;amp;nbsp; from the&amp;amp;nbsp; $N$&amp;amp;nbsp; signal coefficients&amp;amp;nbsp; $d(\nu)$:&lt;br /&gt;
 &lt;br /&gt;
:$$D(\mu) = \frac{1}{N} \cdot \sum_{\nu = 0 }^{N-1}&lt;br /&gt;
  d(\nu)\cdot  {w}^{\hspace{0.05cm}\nu \hspace{0.07cm} \cdot \hspace{0.05cm}\mu} \hspace{0.05cm}. $$&lt;br /&gt;
&lt;br /&gt;
In the diagram you can see &lt;br /&gt;
*the&amp;amp;nbsp; $N = 8$&amp;amp;nbsp; signal coefficients&amp;amp;nbsp; $d(\nu)$&amp;amp;nbsp; by the blue filling, &lt;br /&gt;
*the&amp;amp;nbsp; $N = 8$&amp;amp;nbsp; spectral coefficients&amp;amp;nbsp; $D(\mu)$&amp;amp;nbsp; at the green filling.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Inverse Discrete Fourier Transform==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The Inverse Discrete Fourier Transform (IDFT) describes the&amp;amp;nbsp;   [[Signal_Representation/Fourier_Transform_and_Its_Inverse#Das_zweite_Fourierintegral|second Fourier integral]]&lt;br /&gt;
 &lt;br /&gt;
:$$\begin{align*}x(t) &amp;amp; =  \int_{-\infty&lt;br /&gt;
 }^{+\infty}X(f) \cdot {\rm e}^{\hspace{0.05cm}{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm} f \hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
 t}\hspace{0.1cm} {\rm d}f\end{align*}$$&lt;br /&gt;
&lt;br /&gt;
in discretized form: &amp;amp;nbsp; &lt;br /&gt;
:$$d(\nu) =&lt;br /&gt;
  {\rm P}\left\{x(t)\right\}{\big|}_{t \hspace{0.05cm}= \hspace{0.05cm}\nu \hspace{0.05cm}\cdot \hspace{0.05cm}T_{\rm&lt;br /&gt;
  A}}\hspace{0.01cm}.$$&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2731__Sig_T_5_1_S6_neu.png|right|frame|On the Definition of the IDFT with&amp;amp;nbsp; $N=8$]]&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
The term&amp;amp;nbsp; '''Inverse Discrete Fourier Transform'''&amp;amp;nbsp; (in short '''IDFT''')&amp;amp;nbsp; means the calculation of the signal coefficients&amp;amp;nbsp; $d(\nu)$&amp;amp;nbsp; from the spectral coefficients&amp;amp;nbsp; $D(\mu)$:&lt;br /&gt;
 &lt;br /&gt;
:$$d(\nu) = \sum_{\mu = 0 }^{N-1}&lt;br /&gt;
 D(\mu) \cdot {w}^{-\nu \hspace{0.07cm} \cdot \hspace{0.05cm}\mu} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
With the run variables&amp;amp;nbsp; $\nu = 0,  \hspace{0.05cm}\text{...} \hspace{0.05cm}, N-1$&amp;amp;nbsp; und&amp;amp;nbsp; $\mu = 0,  \hspace{0.05cm}\text{...} \hspace{0.05cm}, N-1$&amp;amp;nbsp; gilt auch hier:&lt;br /&gt;
:$$d(\nu) =&lt;br /&gt;
  {\rm P}\left\{x(t)\right\}{\big \vert}_{t \hspace{0.05cm}= \hspace{0.05cm}\nu \hspace{0.05cm}\cdot \hspace{0.05cm}T_{\rm&lt;br /&gt;
  A} }\hspace{0.01cm},$$&lt;br /&gt;
 &lt;br /&gt;
:$$D(\mu) = f_{\rm A} \cdot&lt;br /&gt;
  {\rm P}\left\{X(f)\right\}{\big \vert}_{f \hspace{0.05cm}= \hspace{0.05cm}\mu \hspace{0.05cm}\cdot \hspace{0.05cm}f_{\rm A} }&lt;br /&gt;
  \hspace{0.01cm},$$&lt;br /&gt;
&lt;br /&gt;
:$$w  = {\rm e}^{- {\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi /N}&lt;br /&gt;
 \hspace{0.01cm}.$$}}&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
A comparison between the&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)#Von_der_kontinuierlichen_zur_diskreten_Fouriertransformation|DFT]]&amp;amp;nbsp; and IDFT shows that exactly the same algorithm can be used. The only differences between IDFT and DFT are:&lt;br /&gt;
*The exponent of the rotation factor is to be applied with different sign.&lt;br /&gt;
*In the IDFT, the division by&amp;amp;nbsp; $N$ is omitted.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Interpretation of DFT and IDFT==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The graph shows the discrete coefficients in the time and frequency domain together with the periodified time-continuous functions.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1136__Sig_T_5_1_S7_neu.png|center|frame|Time&amp;amp;ndash; and Frequency range Coefficients of the DFT]]&lt;br /&gt;
&lt;br /&gt;
When using DFT or IDFT, please note:&lt;br /&gt;
*According to the above definitions, the DFT coefficients&amp;amp;nbsp; $d(ν)$&amp;amp;nbsp; and&amp;amp;nbsp; $D(\mu)$&amp;amp;nbsp; always have the unit of the time function. &lt;br /&gt;
*Dividing&amp;amp;nbsp; $D(\mu)$&amp;amp;nbsp; by&amp;amp;nbsp; $f_{\rm A}$, one obtains the spectral value&amp;amp;nbsp; $X(\mu \cdot f_{\rm A})$.&lt;br /&gt;
*The spectral coefficients&amp;amp;nbsp; $D(\mu)$&amp;amp;nbsp; must always be complex in order to be able to consider odd time functions.&lt;br /&gt;
*In order to be able to transform bandpass signals in the equivalent lowpass&amp;amp;ndash;range, one usually also uses complex time coefficients&amp;amp;nbsp; $d(\nu)$.&lt;br /&gt;
*The basic interval for&amp;amp;nbsp; $\nu$&amp;amp;nbsp; and&amp;amp;nbsp; $\mu$&amp;amp;nbsp; is usually defined as the range from&amp;amp;nbsp; $0$&amp;amp;nbsp; to&amp;amp;nbsp; $N - 1$&amp;amp;nbsp; (filled circles in the graph). &lt;br /&gt;
*With the complex-valued number sequences&amp;amp;nbsp; $\langle \hspace{0.1cm}d(\nu)\hspace{0.1cm}\rangle = \langle \hspace{0.1cm}d(0), \hspace{0.05cm}\text{...} \hspace{0.05cm} , d(N-1) \hspace{0.1cm}\rangle$ &amp;amp;nbsp; and &amp;amp;nbsp; $\langle \hspace{0.1cm}D(\mu)\hspace{0.1cm}\rangle = \langle \hspace{0.1cm}D(0), \hspace{0.05cm}\text{...} \hspace{0.05cm} , D(N-1) \hspace{0.1cm}\rangle$&amp;amp;nbsp; DFT and IDFT are symbolised similarly to the conventional Fourier transform: &lt;br /&gt;
:$$\langle \hspace{0.1cm} D(\mu)\hspace{0.1cm}\rangle \hspace{0.2cm}\bullet\!\!-\!\!\!-(N)\!-\!\!\!-\!\!\hspace{0.05cm}\circ\, \hspace{0.2cm} \langle \hspace{0.1cm} d(\nu) \hspace{0.1cm}\rangle \hspace{0.05cm}.$$ &lt;br /&gt;
*If the time function&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; is already limited to the range&amp;amp;nbsp; $0 \le t \lt N \cdot T_{\rm A}$&amp;amp;nbsp; then the time coefficients output by the IDFT directly give the samples of the time function:  &amp;amp;nbsp; $d(\nu) = x(\nu \cdot T_{\rm A}).$&lt;br /&gt;
*If&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; is shifted with respect to the basic interval, one has to choose the association shown in&amp;amp;nbsp; $\text{Example 3}$&amp;amp;nbsp; between&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; and the coefficients&amp;amp;nbsp; $d(\nu)$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 3:}$&amp;amp;nbsp;&lt;br /&gt;
Die obere Grafik zeigt den unsymmetrischen Dreieckimpuls&amp;amp;nbsp; $x(t)$, dessen absolute Breite kleiner ist als&amp;amp;nbsp; $T_{\rm P} = N \cdot T_{\rm A}$. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1139__Sig_T_5_1_S7b_neu.png|right|frame|On Assigning of the DFT Coefficients With&amp;amp;nbsp; $N=8$]]&lt;br /&gt;
&lt;br /&gt;
The sketch below shows the assigned DFT coefficients $($valid for&amp;amp;nbsp; $N = 8)$.&lt;br /&gt;
&lt;br /&gt;
*For&amp;amp;nbsp; $\nu = 0,\hspace{0.05cm}\text{...} \hspace{0.05cm} , N/2 = 4$&amp;amp;nbsp; $d(\nu) = x(\nu \cdot T_{\rm A})$ holds:&lt;br /&gt;
&lt;br /&gt;
:$$d(0) = x (0)\hspace{0.05cm}, \hspace{0.15cm}&lt;br /&gt;
d(1) = x (T_{\rm A})\hspace{0.05cm}, \hspace{0.15cm}&lt;br /&gt;
d(2) = x (2T_{\rm A})\hspace{0.05cm}, $$&lt;br /&gt;
:$$d(3) = x (3T_{\rm A})\hspace{0.05cm}, \hspace{0.15cm}&lt;br /&gt;
d(4) = x (4T_{\rm A})\hspace{0.05cm}.$$ &lt;br /&gt;
*On the other hand, the coefficients&amp;amp;nbsp; $d(5)$,&amp;amp;nbsp; $d(6)$&amp;amp;nbsp; and&amp;amp;nbsp; d$(7)$&amp;amp;nbsp; are to be set as follows:&lt;br /&gt;
&lt;br /&gt;
:$$d(\nu) = x \big ((\nu\hspace{-0.05cm} - \hspace{-0.05cm} N ) \cdot T_{\rm   A}\big )  $$&lt;br /&gt;
&lt;br /&gt;
:$$ \Rightarrow \hspace{0.2cm}d(5) = x (-3T_{\rm A})\hspace{0.05cm}, \hspace{0.35cm}&lt;br /&gt;
d(6) = x (-2T_{\rm A})\hspace{0.05cm}, \hspace{0.35cm}&lt;br /&gt;
d(7) = x (-T_{\rm A})\hspace{0.05cm}.$$ }}&lt;br /&gt;
&lt;br /&gt;
==Exercises for The Chapter==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.2: Inverse Discrete Fourier Transform|Exercise 5.2: Inverse Discrete Fourier Transform]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.2Z: DFT of a Triangular Pulse|Exercise 5.2Z: DFT of a Triangular Pulse]]&lt;br /&gt;
&lt;br /&gt;
    &lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Discrete_Fourier_Transform_(DFT)&amp;diff=35565</id>
		<title>Signal Representation/Discrete Fourier Transform (DFT)</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Discrete_Fourier_Transform_(DFT)&amp;diff=35565"/>
		<updated>2020-12-27T22:49:19Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Time and Frequency-Discrete Signal Representation&lt;br /&gt;
|Vorherige Seite=Time Discrete Signal Representation&lt;br /&gt;
|Nächste Seite=Possible Errors When Using DFT&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Argumente für die diskrete Realisierung der Fouriertransformation==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die&amp;amp;nbsp; '''Fouriertransformation'''&amp;amp;nbsp; gemäß der bisherigen Beschreibung im Kapitel&amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_and_Its_Inverse|Aperiodische Signale &amp;amp;ndash; Impulse]]&amp;amp;nbsp; weist aufgrund der unbegrenzten Ausdehnung des Integrationsintervalls eine unendlich hohe Selektivität auf und ist deshalb ein ideales theoretisches Hilfsmittel der Spektralanalyse.&lt;br /&gt;
&lt;br /&gt;
Sollen die Spektralanteile&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; einer Zeitfunktion&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; numerisch ermittelt werden, so sind die allgemeinen Transformationsgleichungen&lt;br /&gt;
 &lt;br /&gt;
:$$\begin{align*}X(f) &amp;amp; =  \int_{-\infty&lt;br /&gt;
 }^{+\infty}x(t) \cdot {\rm e}^{-{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi f t}\hspace{0.1cm} {\rm d}t\hspace{0.5cm} \Rightarrow\hspace{0.5cm} \text{Hintransformation}\hspace{0.7cm} \Rightarrow\hspace{0.5cm} \text{Erstes Fourierintegral}&lt;br /&gt;
 \hspace{0.05cm},\\&lt;br /&gt;
x(t) &amp;amp; =  \int_{-\infty&lt;br /&gt;
 }^{+\infty}\hspace{-0.15cm}X(f) \cdot {\rm e}^{\hspace{0.05cm}+{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi f t}\hspace{0.1cm} {\rm d}f\hspace{0.35cm} \Rightarrow\hspace{0.5cm}&lt;br /&gt;
\text{Rücktransformation}\hspace{0.4cm} \Rightarrow\hspace{0.5cm} \text{Zweites Fourierintegral}&lt;br /&gt;
 \hspace{0.05cm}\end{align*}$$&lt;br /&gt;
&lt;br /&gt;
aus zwei Gründen ungeeignet:&lt;br /&gt;
*Die Gleichungen gelten ausschließlich für zeitkontinuierliche Signale. Mit Digitalrechnern oder Signalprozessoren kann man jedoch nur zeitdiskrete Signale verarbeiten.&lt;br /&gt;
*Für eine numerische Auswertung der beiden Fourierintegrale ist es erforderlich, das jeweilige Integrationsintervall auf einen endlichen Wert zu begrenzen.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Daraus ergibt sich folgende Konsequenz:}$&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
Ein&amp;amp;nbsp; '''kontinuierliches Signal'''&amp;amp;nbsp; muss vor der numerischen Bestimmung seiner Spektraleigenschaften zwei Prozesse durchlaufen, nämlich&lt;br /&gt;
*den der&amp;amp;nbsp; '''Abtastung'''&amp;amp;nbsp; zur Diskretisierung, und&lt;br /&gt;
*den der&amp;amp;nbsp; '''Fensterung'''&amp;amp;nbsp; zur Begrenzung des Integrationsintervalls.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Im Folgenden wird ausgehend von einer aperiodischen Zeitfunktion&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; und dem dazugehörigen Fourierspektrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; eine für die Rechnerverarbeitung geeignete zeit– und frequenzdiskrete Beschreibung schrittweise entwickelt.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Zeitdiskretisierung &amp;amp;ndash; Periodifizierung im Frequenzbereich==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die folgenden Grafiken zeigen einheitlich links den Zeitbereich und rechts den Frequenzbereich. Ohne Einschränkung der Allgemeingültigkeit sind&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; und&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; jeweils reell und gaußförmig.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1132__Sig_T_5_1_S2_neu.png|center|frame|Diskretisierung im Zeitbereich – Periodifizierung im Frequenzbereich]]&lt;br /&gt;
&lt;br /&gt;
Entsprechend dem Kapitel&amp;amp;nbsp; [[Signal_Representation/Time_Discrete_Signal_Representation|Zeitdiskrete Signaldarstellung]]&amp;amp;nbsp; kann man die Abtastung des Zeitsignals&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; durch die Multiplikation mit einem Diracpuls&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; beschreiben. Es ergibt sich das im Abstand&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; abgetastete Zeitsignal&lt;br /&gt;
 &lt;br /&gt;
:$${\rm A}\{x(t)\} =  \sum_{\nu = - \infty }^{+\infty} T_{\rm A} \cdot x(\nu \cdot T_{\rm A})\cdot&lt;br /&gt;
 \delta (t- \nu \cdot T_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Dieses abgetastete Signal&amp;amp;nbsp; $\text{A}\{ x(t)\}$&amp;amp;nbsp; transformieren wir nun in den Frequenzbereich. Der Multiplikation des Diracpulses&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; mit&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; entspricht im Frequenzbereich die Faltung von&amp;amp;nbsp; $P_{\delta}(f)$&amp;amp;nbsp; mit&amp;amp;nbsp; $X(f)$. Es ergibt sich das periodifizierte Spektrum&amp;amp;nbsp; $\text{P}\{ X(f)\}$, wobei&amp;amp;nbsp; $f_{\rm P}$&amp;amp;nbsp; die Frequenzperiode der Funktion&amp;amp;nbsp; $\text{P}\{ X(f)\}$&amp;amp;nbsp; angibt:&lt;br /&gt;
 &lt;br /&gt;
:$${\rm A}\{x(t)\} \hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm} {\rm P}\{X(f)\} =  \sum_{\mu = - \infty }^{+\infty}&lt;br /&gt;
 X (f- \mu \cdot f_{\rm P} )\hspace{0.5cm} {\rm mit }\hspace{0.5cm}f_{\rm&lt;br /&gt;
 P}= {1}/{T_{\rm A}}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Dieser Zusammenhang wurde ebenfalls bereits im Kapitel&amp;amp;nbsp; [[Signal_Representation/Time_Discrete_Signal_Representation|Zeitdiskrete Signaldarstellung]]&amp;amp;nbsp;  hergeleitet, jedoch mit etwas anderer Nomenklatur:&lt;br /&gt;
*Das abgetastete Signal bezeichnen wir nun mit&amp;amp;nbsp; $\text{A}\{ x(t)\}$&amp;amp;nbsp; anstelle von&amp;amp;nbsp; $x_{\rm A}(t)$.&lt;br /&gt;
* Die&amp;amp;nbsp; '''Frequenzperiode'''&amp;amp;nbsp; wird nun mit&amp;amp;nbsp; $f_{\rm P} = 1/T_{\rm A}$&amp;amp;nbsp; anstelle von&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$&amp;amp;nbsp; bezeichnet.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Diese Nomenklaturänderungen werden auf den folgenden Seiten begründet.&lt;br /&gt;
&lt;br /&gt;
Die obige Grafik zeigt den hier beschriebenen Funktionalzusammenhang. Es ist anzumerken:&lt;br /&gt;
*Die Frequenzperiode&amp;amp;nbsp; $f_{\rm P}$&amp;amp;nbsp; wurde hier bewusst klein gewählt, so dass die Überlappung der zu summierenden Spektren deutlich zu erkennen ist.&lt;br /&gt;
*In der Praxis sollte&amp;amp;nbsp; $f_{\rm P}$&amp;amp;nbsp; aufgrund des Abtasttheorems mindestens doppelt so groß sein wie die größte im Signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; enthaltene Frequenz.&lt;br /&gt;
*Ist dies nicht erfüllt, so muss mit&amp;amp;nbsp; '''Aliasing'''&amp;amp;nbsp; gerechnet werden – siehe Kapitel&amp;amp;nbsp; [[Signal_Representation/Possible_Errors_When_Using_DFT|Fehlermöglichkeiten bei Anwendung der DFT]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Frequenzdiskretisierung &amp;amp;ndash; Periodifizierung im Zeitbereich==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Diskretisierung von&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; lässt sich ebenfalls durch eine Multiplikation mit einem Diracpuls beschreiben. Es ergibt sich das im Abstand&amp;amp;nbsp; $f_{\rm A}$&amp;amp;nbsp; abgetastete Spektrum:&lt;br /&gt;
 &lt;br /&gt;
:$${\rm A}\{X(f)\} =  X(f) \cdot   \sum_{\mu = - \infty }^{+\infty}&lt;br /&gt;
 f_{\rm A} \cdot \delta (f- \mu \cdot f_{\rm A } ) =  \sum_{\mu = - \infty }^{+\infty}&lt;br /&gt;
 f_{\rm A} \cdot X(\mu \cdot f_{\rm A } ) \cdot\delta (f- \mu \cdot f_{\rm A } )\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Transformiert man den hier verwendeten Frequenz–Diracpuls $($mit Impulsgewichten&amp;amp;nbsp; $f_{\rm A})$&amp;amp;nbsp; in den Zeitbereich, so erhält man mit&amp;amp;nbsp; $T_{\rm P} = 1/f_{\rm A}$:&lt;br /&gt;
 &lt;br /&gt;
:$$\sum_{\mu = - \infty }^{+\infty}&lt;br /&gt;
 f_{\rm A} \cdot \delta (f- \mu \cdot f_{\rm A } ) \hspace{0.2cm}\bullet\!\!-\!\!\!-\!\!\!-\!\!\circ\, \hspace{0.2cm}&lt;br /&gt;
 \sum_{\nu = - \infty }^{+\infty}&lt;br /&gt;
  \delta (t- \nu \cdot T_{\rm P } ) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Die Multiplikation mit&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; entspricht im Zeitbereich der Faltung mit&amp;amp;nbsp; $x(t)$. Man erhält das im Abstand&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; periodifizierte Signal&amp;amp;nbsp; $\text{P}\{ x(t)\}$:&lt;br /&gt;
 &lt;br /&gt;
:$${\rm A}\{X(f)\} \hspace{0.2cm}\bullet\!\!-\!\!\!-\!\!\!-\!\!\circ\, \hspace{0.2cm}&lt;br /&gt;
 {\rm P}\{x(t)\} = x(t) \star \sum_{\nu = - \infty }^{+\infty}&lt;br /&gt;
  \delta (t- \nu \cdot T_{\rm P } )= \sum_{\nu = - \infty }^{+\infty}&lt;br /&gt;
  x (t- \nu \cdot T_{\rm P } ) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1134__Sig_T_5_1_S3_neu.png|right|frame|Diskretisierung im Frequenzbereich – Periodifizierung im Zeitbereich]]&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp;&lt;br /&gt;
Dieser Zusammenhang ist in der Grafik veranschaulicht: &lt;br /&gt;
*Aufgrund der groben Frequenzrasterung ergibt sich in diesem Beispiel für die Zeitperiode&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; ein relativ kleiner Wert.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* Deshalb  unterscheidet sich das (blaue) periodifizierte Zeitsignal&amp;amp;nbsp; $\text{P}\{ x(t)\}$&amp;amp;nbsp; aufgrund von Überlappungen deutlich von&amp;amp;nbsp; $x(t)$.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Finite Signaldarstellung==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:P_ID1135__Sig_T_5_1_S4_neu.png|right|frame|Finite Signale der Diskreten Fouriertransformation (DFT)]]&lt;br /&gt;
Zur so genannten&amp;amp;nbsp; ''finiten Signaldarstellung''&amp;amp;nbsp; kommt man, &lt;br /&gt;
*wenn sowohl die Zeitfunktion&amp;amp;nbsp; $x(t)$ &lt;br /&gt;
*als auch die Spektralfunktion&amp;amp;nbsp; $X(f)$ &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
ausschließlich durch ihre Abtastwerte angegeben werden.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Die Grafik ist wie folgt zu interpretieren:&lt;br /&gt;
*Im linken Bild blau eingezeichnet ist die Funktion&amp;amp;nbsp; $\text{A}\{ \text{P}\{ x(t)\}\}$. Diese ergibt sich durch Abtastung der periodifizierten Zeitfunktion&amp;amp;nbsp; $\text{P}\{ x(t)\}$&amp;amp;nbsp; mit äquidistanten Diracimpulsen im Abstand&amp;amp;nbsp; $T_{\rm A} = 1/f_{\rm P}$.&lt;br /&gt;
*Im rechten Bild grün eingezeichnet ist die Funktion&amp;amp;nbsp; $\text{P}\{ \text{A}\{ X(f)\}\}$. Diese ergibt sich durch Periodifizierung $($mit&amp;amp;nbsp; $f_{\rm P})$&amp;amp;nbsp; der abgetasteten Spektralfunktion&amp;amp;nbsp; $\{ \text{A}\{ X(f)\}\}$. &lt;br /&gt;
*Zwischen dem blauen finiten Signal (linke Skizze) und dem grünen finiten Signal (rechte Skizze) besteht eine Fourierkorrespondenz, und zwar folgende:&lt;br /&gt;
 &lt;br /&gt;
:$${\rm A}\{{\rm P}\{x(t)\}\} \hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm} {\rm P}\{{\rm A}\{X(f)\}\} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Die Diraclinien der periodischen Fortsetzung&amp;amp;nbsp; $\text{P}\{ \text{A}\{ X(f)\}\}$&amp;amp;nbsp; der abgetasteten Spektralfunktion fallen allerdings nur dann in das gleiche Frequenzraster wie diejenigen von&amp;amp;nbsp; $\text{A}\{ X(f)\}$, wenn die Frequenzperiode&amp;amp;nbsp; $f_{\rm P}$&amp;amp;nbsp; ein ganzzahliges Vielfaches&amp;amp;nbsp; $(N)$&amp;amp;nbsp; des Frequenzabtastabstandes&amp;amp;nbsp; $f_{\rm A}$&amp;amp;nbsp; ist.&lt;br /&gt;
*Deshalb muss bei Anwendung der finiten Signaldarstellung stets die folgende Bedingung erfüllt sein, wobei die natürliche Zahl&amp;amp;nbsp; $N$&amp;amp;nbsp; in der Praxis meist eine Zweierpotenz ist&amp;amp;nbsp; (obiger Grafik liegt der Wert&amp;amp;nbsp; $N = 8$&amp;amp;nbsp; zugrunde):&lt;br /&gt;
 &lt;br /&gt;
:$$f_{\rm P} = N \cdot f_{\rm A} \hspace{0.5cm} \Rightarrow\hspace{0.5cm} {1}/{T_{\rm A}}= N \cdot f_{\rm A} \hspace{0.5cm} \Rightarrow\hspace{0.5cm}&lt;br /&gt;
 N \cdot f_{\rm A}\cdot T_{\rm A} = 1\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Bei Einhaltung der Bedingung&amp;amp;nbsp; $N \cdot f_{\rm A} \cdot T_{\rm A} = 1$&amp;amp;nbsp; ist die Reihenfolge von Periodifizierung und Abtastung vertauschbar. Somit gilt:&lt;br /&gt;
 &lt;br /&gt;
:$${\rm A}\{{\rm P}\{x(t)\}\} = {\rm P}\{{\rm A}\{x(t)\}\}\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm}&lt;br /&gt;
 {\rm P}\{{\rm A}\{X(f)\}\} = {\rm A}\{{\rm P}\{X(f)\}\}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp;&lt;br /&gt;
*Die Zeitfunktion&amp;amp;nbsp; $\text{P}\{ \text{A}\{ x(t)\}\}$&amp;amp;nbsp; besitzt die Periode&amp;amp;nbsp; $T_{\rm P} = N \cdot T_{\rm A}$. &lt;br /&gt;
*Die Periode im Frequenzbereich ist&amp;amp;nbsp; $f_{\rm P} = N \cdot f_{\rm A}$. &lt;br /&gt;
*Zur Beschreibung des diskretisierten Zeit– und Frequenzverlaufs reichen somit jeweils&amp;amp;nbsp; $N$&amp;amp;nbsp; '''komplexe Zahlenwerte''' in Form von Impulsgewichten aus.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp;&lt;br /&gt;
Es liegt ein zeitbegrenztes (impulsartiges) Signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; in abgetasteter Form vor, wobei  der Abstand zweier Abtastwerte&amp;amp;nbsp; $T_{\rm A} = 1\, {\rm &amp;amp;micro; s}$&amp;amp;nbsp; beträgt: &lt;br /&gt;
*Nach einer diskreten Fouriertransformation mit&amp;amp;nbsp; $N = 512$&amp;amp;nbsp; liegt das Spektrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; in Form von Abtastwerten im Abstand&amp;amp;nbsp; $f_{\rm A} = (N \cdot T_{\rm A})^{–1} \approx 1.953\,\text{kHz} $&amp;amp;nbsp; vor. &lt;br /&gt;
*Vergrößert man den DFT&amp;amp;ndash;Parameter auf&amp;amp;nbsp;  $N= 2048$, so ergibt sich ein (vierfach) feineres Frequenzraster mit&amp;amp;nbsp; $f_{\rm A} \approx 488\,\text{Hz}$.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Von der kontinuierlichen zur diskreten Fouriertransformation==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Aus dem herkömmlichen&amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_and_Its_Inverse#Das_erste_Fourierintegral|ersten Fourierintegral]]&lt;br /&gt;
 &lt;br /&gt;
:$$X(f) =\int_{-\infty&lt;br /&gt;
 }^{+\infty}x(t) \cdot {\rm e}^{-{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm} f  \hspace{0.05cm}\cdot \hspace{0.05cm}t}\hspace{0.1cm} {\rm d}t$$&lt;br /&gt;
&lt;br /&gt;
entsteht durch Diskretisierung&amp;amp;nbsp; $(\text{d}t \to T_{\rm A}$,&amp;amp;nbsp;  $t \to \nu \cdot T_{\rm A}$,&amp;amp;nbsp;  $f \to \mu \cdot f_{\rm A}$,&amp;amp;nbsp;  $T_{\rm A} \cdot f_{\rm A} = 1/N)$&amp;amp;nbsp; die abgetastete und periodifizierte Spektralfunktion&lt;br /&gt;
 &lt;br /&gt;
:$${\rm P}\{X(\mu \cdot f_{\rm A})\} = T_{\rm A} \cdot \sum_{\nu = 0 }^{N-1}&lt;br /&gt;
  {\rm P}\{x(\nu \cdot T_{\rm A})\}\cdot  {\rm e}^{-{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi \hspace{0.05cm} \cdot \hspace{0.05cm}\nu \hspace{0.05cm}&lt;br /&gt;
 \cdot \hspace{0.05cm}\mu /N} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Es ist berücksichtigt, dass aufgrund der Diskretisierung jeweils die periodifizierten Funktionen einzusetzen sind. &lt;br /&gt;
&lt;br /&gt;
Aus Gründen einer vereinfachten Schreibweise nehmen wir nun die folgenden Substitutionen vor:&lt;br /&gt;
*Die&amp;amp;nbsp; $N$&amp;amp;nbsp; '''Zeitbereichskoeffizienten'''&amp;amp;nbsp; seien mit der Laufvariablen&amp;amp;nbsp; $\nu = 0$, ... , $N - 1$:&lt;br /&gt;
:$$d(\nu) =&lt;br /&gt;
  {\rm P}\left\{x(t)\right\}{\big|}_{t \hspace{0.05cm}= \hspace{0.05cm}\nu \hspace{0.05cm}\cdot \hspace{0.05cm}T_{\rm A}}\hspace{0.05cm}.$$&lt;br /&gt;
*Die&amp;amp;nbsp; $N$&amp;amp;nbsp; '''Frequenzbereichskoeffizienten'''&amp;amp;nbsp; seien mit der Laufvariablen&amp;amp;nbsp; $\mu = 0,$ ... , $N$ – 1:&lt;br /&gt;
:$$D(\mu) = f_{\rm A} \cdot&lt;br /&gt;
  {\rm P}\left\{X(f)\right\}{\big|}_{f \hspace{0.05cm}= \hspace{0.05cm}\mu \hspace{0.05cm}\cdot \hspace{0.05cm}f_{\rm A}}\hspace{0.05cm}.$$&lt;br /&gt;
*Abkürzend wird für den von&amp;amp;nbsp; $N$&amp;amp;nbsp; abhängigen&amp;amp;nbsp;  '''komplexen Drehfaktor'''&amp;amp;nbsp;  geschrieben:&lt;br /&gt;
:$$w  = {\rm e}^{-{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi /N}&lt;br /&gt;
 = \cos \left(  {2 \pi}/{N}\right)-{\rm j} \cdot \sin \left(  {2 \pi}/{N}\right)&lt;br /&gt;
 \hspace{0.05cm}.$$ &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2730__Sig_T_5_1_S5_neu.png|right|frame|Zur Definition der Diskreten Fouriertransformation (DFT) mit&amp;amp;nbsp; $N=8$]]&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
Unter dem Begriff&amp;amp;nbsp;  '''Diskrete Fouriertransformation'''&amp;amp;nbsp; (kurz '''DFT''')&amp;amp;nbsp; versteht man die Berechnung der&amp;amp;nbsp; $N$&amp;amp;nbsp; Spektralkoeffizienten&amp;amp;nbsp; $D(\mu)$&amp;amp;nbsp; aus den&amp;amp;nbsp; $N$&amp;amp;nbsp; Signalkoeffizienten&amp;amp;nbsp; $d(\nu)$:&lt;br /&gt;
 &lt;br /&gt;
:$$D(\mu) = \frac{1}{N} \cdot \sum_{\nu = 0 }^{N-1}&lt;br /&gt;
  d(\nu)\cdot  {w}^{\hspace{0.05cm}\nu \hspace{0.07cm} \cdot \hspace{0.05cm}\mu} \hspace{0.05cm}. $$&lt;br /&gt;
&lt;br /&gt;
In der Grafik erkennt man an einem Beispiel &lt;br /&gt;
*die&amp;amp;nbsp; $N = 8$&amp;amp;nbsp; Signalkoeffizienten&amp;amp;nbsp; $d(\nu)$&amp;amp;nbsp; an der blauen Füllung, &lt;br /&gt;
*die&amp;amp;nbsp; $N = 8$&amp;amp;nbsp; Spektralkoeffizienten&amp;amp;nbsp; $D(\mu)$&amp;amp;nbsp; an der grünen Füllung.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Inverse Diskrete Fouriertransformation==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Inverse Diskrete Fouriertransformation (IDFT) beschreibt das&amp;amp;nbsp;  [[Signal_Representation/Fourier_Transform_and_Its_Inverse#Das_zweite_Fourierintegral|zweite Fourierintegral]]&lt;br /&gt;
 &lt;br /&gt;
:$$\begin{align*}x(t) &amp;amp; =  \int_{-\infty&lt;br /&gt;
 }^{+\infty}X(f) \cdot {\rm e}^{\hspace{0.05cm}{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm} f \hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
 t}\hspace{0.1cm} {\rm d}f\end{align*}$$&lt;br /&gt;
&lt;br /&gt;
in diskretisierter Form: &amp;amp;nbsp; &lt;br /&gt;
:$$d(\nu) =&lt;br /&gt;
  {\rm P}\left\{x(t)\right\}{\big|}_{t \hspace{0.05cm}= \hspace{0.05cm}\nu \hspace{0.05cm}\cdot \hspace{0.05cm}T_{\rm&lt;br /&gt;
  A}}\hspace{0.01cm}.$$&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2731__Sig_T_5_1_S6_neu.png|right|frame|Zur Definition der IDFT mit&amp;amp;nbsp; $N=8$]]&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
Unter dem Begriff&amp;amp;nbsp;  '''Inverse Diskreten Fouriertransformation'''&amp;amp;nbsp; (kurz '''IDFT''')&amp;amp;nbsp; versteht man die Berechnung der Signalkoeffizienten&amp;amp;nbsp; $d(\nu)$&amp;amp;nbsp; aus den Spektralkoeffizienten&amp;amp;nbsp; $D(\mu)$:&lt;br /&gt;
 &lt;br /&gt;
:$$d(\nu) =  \sum_{\mu = 0 }^{N-1}&lt;br /&gt;
 D(\mu) \cdot  {w}^{-\nu \hspace{0.07cm} \cdot \hspace{0.05cm}\mu} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Mit den Laufvariablen&amp;amp;nbsp; $\nu = 0,  \hspace{0.05cm}\text{...} \hspace{0.05cm}, N-1$&amp;amp;nbsp; und&amp;amp;nbsp; $\mu = 0,  \hspace{0.05cm}\text{...} \hspace{0.05cm}, N-1$&amp;amp;nbsp; gilt auch hier:&lt;br /&gt;
:$$d(\nu) =&lt;br /&gt;
  {\rm P}\left\{x(t)\right\}{\big \vert}_{t \hspace{0.05cm}= \hspace{0.05cm}\nu \hspace{0.05cm}\cdot \hspace{0.05cm}T_{\rm&lt;br /&gt;
  A} }\hspace{0.01cm},$$&lt;br /&gt;
 &lt;br /&gt;
:$$D(\mu) = f_{\rm A} \cdot&lt;br /&gt;
  {\rm P}\left\{X(f)\right\}{\big \vert}_{f \hspace{0.05cm}= \hspace{0.05cm}\mu \hspace{0.05cm}\cdot \hspace{0.05cm}f_{\rm A} }&lt;br /&gt;
  \hspace{0.01cm},$$&lt;br /&gt;
&lt;br /&gt;
:$$w  = {\rm e}^{- {\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi /N}&lt;br /&gt;
 \hspace{0.01cm}.$$}}&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Ein Vergleich zwischen der&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)#Von_der_kontinuierlichen_zur_diskreten_Fouriertransformation|DFT]]&amp;amp;nbsp; und IDFT zeigt, dass genau der gleiche Algorithmus verwendet werden kann. Die einzigen Unterschiede der IDFT gegenüber der DFT sind:&lt;br /&gt;
*Der Exponent des Drehfaktors ist mit unterschiedlichem Vorzeichen anzusetzen.&lt;br /&gt;
*Bei der IDFT entfällt die Division durch&amp;amp;nbsp; $N$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Interpretation von DFT und IDFT==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Grafik zeigt die diskreten Koeffizienten im Zeit– und Frequenzbereich zusammen mit den periodifizierten zeitkontinuierlichen Funktionen.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1136__Sig_T_5_1_S7_neu.png|center|frame|Zeit&amp;amp;ndash; und Frequenzbereichskoeffizienten der DFT]]&lt;br /&gt;
&lt;br /&gt;
Bei Anwendung von DFT bzw. IDFT ist zu beachten:&lt;br /&gt;
*Nach obigen Definitionen besitzen die DFT–Koeffizienten&amp;amp;nbsp; $d(ν)$&amp;amp;nbsp; und&amp;amp;nbsp; $D(\mu)$&amp;amp;nbsp; stets die Einheit der Zeitfunktion. &lt;br /&gt;
*Dividiert man&amp;amp;nbsp; $D(\mu)$&amp;amp;nbsp; durch&amp;amp;nbsp; $f_{\rm A}$, so erhält man den Spektralwert&amp;amp;nbsp; $X(\mu \cdot f_{\rm A})$.&lt;br /&gt;
*Die Spektralkoeffizienten&amp;amp;nbsp; $D(\mu)$&amp;amp;nbsp; müssen stets komplex angesetzt werden, um auch ungerade Zeitfunktionen berücksichtigen zu können.&lt;br /&gt;
*Um auch Bandpass–Signale im äquivalenten Tiefpass&amp;amp;ndash;Bereich transformieren zu können, verwendet man meist auch komplexe Zeitkoeffizienten&amp;amp;nbsp; $d(\nu)$.&lt;br /&gt;
*Als Grundintervall für&amp;amp;nbsp; $\nu$&amp;amp;nbsp; und&amp;amp;nbsp;  $\mu$&amp;amp;nbsp; definiert man meist – wie in obiger Grafik – den Bereich von&amp;amp;nbsp; $0$&amp;amp;nbsp; bis&amp;amp;nbsp; $N - 1$&amp;amp;nbsp; (gefüllte Kreise in der Grafik). &lt;br /&gt;
*Mit den komplexwertigen Zahlenfolgen&amp;amp;nbsp; $\langle \hspace{0.1cm}d(\nu)\hspace{0.1cm}\rangle  = \langle \hspace{0.1cm}d(0), \hspace{0.05cm}\text{...} \hspace{0.05cm} , d(N-1) \hspace{0.1cm}\rangle$  &amp;amp;nbsp; sowie &amp;amp;nbsp; $\langle \hspace{0.1cm}D(\mu)\hspace{0.1cm}\rangle  =   \langle \hspace{0.1cm}D(0), \hspace{0.05cm}\text{...} \hspace{0.05cm} , D(N-1) \hspace{0.1cm}\rangle$&amp;amp;nbsp; werden DFT und IDFT ähnlich wie die herkömmliche Fouriertransformation symbolisiert:&lt;br /&gt;
:$$\langle \hspace{0.1cm} D(\mu)\hspace{0.1cm}\rangle \hspace{0.2cm}\bullet\!\!-\!\!\!-(N)\!-\!\!\!-\!\!\hspace{0.05cm}\circ\, \hspace{0.2cm} \langle \hspace{0.1cm} d(\nu) \hspace{0.1cm}\rangle  \hspace{0.05cm}.$$ &lt;br /&gt;
*Ist die Zeitfunktion&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; bereits auf den Bereich&amp;amp;nbsp; $0 \le t \lt N \cdot T_{\rm A}$&amp;amp;nbsp; begrenzt, dann geben die von der IDFT ausgegebenen Zeitkoeffizienten direkt die Abtastwerte der Zeitfunktion an:  &amp;amp;nbsp; $d(\nu) = x(\nu \cdot T_{\rm A}).$&lt;br /&gt;
*Ist&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; gegenüber dem Grundintervall verschoben, so muss man die im&amp;amp;nbsp; $\text{Beispiel 3}$&amp;amp;nbsp; gezeigte Zuordnung zwischen&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; und den Koeffizienten&amp;amp;nbsp; $d(\nu)$&amp;amp;nbsp; wählen.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp;&lt;br /&gt;
Die obere Grafik zeigt den unsymmetrischen Dreieckimpuls&amp;amp;nbsp; $x(t)$, dessen absolute Breite kleiner ist als&amp;amp;nbsp; $T_{\rm P} = N \cdot T_{\rm A}$. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1139__Sig_T_5_1_S7b_neu.png|right|frame|Zur Belegung der DFT-Koeffizienten  mit&amp;amp;nbsp; $N=8$]]&lt;br /&gt;
&lt;br /&gt;
Die untere Skizze zeigt die zugeordneten DFT–Koeffizienten $($gültig für&amp;amp;nbsp;  $N = 8)$.&lt;br /&gt;
&lt;br /&gt;
*Für&amp;amp;nbsp;  $\nu = 0,\hspace{0.05cm}\text{...} \hspace{0.05cm} , N/2 = 4$&amp;amp;nbsp; gilt&amp;amp;nbsp; $d(\nu) = x(\nu \cdot T_{\rm A})$:&lt;br /&gt;
&lt;br /&gt;
:$$d(0) = x (0)\hspace{0.05cm}, \hspace{0.15cm}&lt;br /&gt;
d(1) = x (T_{\rm A})\hspace{0.05cm}, \hspace{0.15cm}&lt;br /&gt;
d(2) = x (2T_{\rm A})\hspace{0.05cm}, $$&lt;br /&gt;
:$$d(3) = x (3T_{\rm A})\hspace{0.05cm}, \hspace{0.15cm}&lt;br /&gt;
d(4) = x (4T_{\rm A})\hspace{0.05cm}.$$ &lt;br /&gt;
*Dagegen sind die Koeffizienten&amp;amp;nbsp; $d(5)$,&amp;amp;nbsp; $d(6)$&amp;amp;nbsp; und&amp;amp;nbsp; d$(7)$&amp;amp;nbsp; wie folgt zu setzen:&lt;br /&gt;
&lt;br /&gt;
:$$d(\nu) = x \big ((\nu\hspace{-0.05cm} - \hspace{-0.05cm} N ) \cdot T_{\rm   A}\big )  $$&lt;br /&gt;
&lt;br /&gt;
:$$ \Rightarrow \hspace{0.2cm}d(5) = x (-3T_{\rm A})\hspace{0.05cm}, \hspace{0.35cm}&lt;br /&gt;
d(6) = x (-2T_{\rm A})\hspace{0.05cm}, \hspace{0.35cm}&lt;br /&gt;
d(7) = x (-T_{\rm A})\hspace{0.05cm}.$$ }}&lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.2: Inverse Discrete Fourier Transform|Exercise 5.2: Inverse Discrete Fourier Transform]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.2Z: DFT of a Triangular Pulse|Exercise 5.2Z: DFT of a Triangular Pulse]]&lt;br /&gt;
&lt;br /&gt;
    &lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Discrete-Time_Signal_Representation&amp;diff=35564</id>
		<title>Signal Representation/Discrete-Time Signal Representation</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Discrete-Time_Signal_Representation&amp;diff=35564"/>
		<updated>2020-12-27T22:46:14Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Time and Frequency-Discrete Signal Representation&lt;br /&gt;
|Vorherige Seite=Equivalent Low Pass Signal and Its Spectral Function&lt;br /&gt;
|Nächste Seite=Discrete Fourier Transform (DFT)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== # OVERVIEW OF THE FIFTH MAIN CHAPTER # ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
A prerequisite for the system-theoretical investigation of digital systems or for their computer simulation is a suitable discrete-time signal description. This chapter clarifies the mathematical transition from time-continuous to time-discrete signals, starting from&amp;amp;nbsp;  [[Signal_Representation/Fourier_Transform_and_Its_Inverse|Fourier Transform and Its Inverse]]&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
The chapter includes in detail:&lt;br /&gt;
*the ''time and frequency domain representation''&amp;amp;nbsp; of discrete-time signals,&lt;br /&gt;
*the ''sampling theorem'', which must be strictly observed in time discretization,&lt;br /&gt;
*the ''reconstruction of the analog signal''&amp;amp;nbsp; from the time-discrete representation,&lt;br /&gt;
*the ''Discrete Fourier Transform''&amp;amp;nbsp; (DFT) and its inverse (IDFT),&lt;br /&gt;
*the ''possibilities of error''&amp;amp;nbsp; when applying DFT and IDFT,&lt;br /&gt;
*the application of ''spectral analysis''&amp;amp;nbsp; to the improvement of metrological procedures, and.&lt;br /&gt;
*the ''FFT algorithm'' particularly suitable for computer implementation.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
For more information on the subject, as well as tasks, simulations, and programming exercises, see&lt;br /&gt;
&lt;br /&gt;
*Chapter 7: &amp;amp;nbsp; &amp;amp;nbsp; ''Discrete Fourier Transform'', program dft,&lt;br /&gt;
*Chapter 8: &amp;amp;nbsp; &amp;amp;nbsp; ''Spectral Analysis'', program stp, and&lt;br /&gt;
*Chapter 12: &amp;amp;nbsp; ''Pulse code modulation'', program pcm&lt;br /&gt;
&lt;br /&gt;
of the laboratory course &amp;amp;bdquo;Simulation Methods in Communications Engineering&amp;amp;rdquo;. This (former) LNT course at the TU Munich is based on&lt;br /&gt;
*the teaching software package&amp;amp;nbsp; [http://en.lntwww.de/downloads/Sonstiges/Programme/LNTsim.zip LNTsim] &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; link refers to the ZIP version of the program, &lt;br /&gt;
*the &amp;amp;nbsp; [http://en.lntwww.de/downloads/Sonstiges/Texte/Praktikum_LNTsim_Teil_A.pdf Lab Instruction - Part A]  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; link refers to the PDF version; Chapter 7: page 119-144, Chapter 8: page 145-164, and&lt;br /&gt;
*the &amp;amp;nbsp; [http://en.lntwww.de/downloads/Sonstiges/Texte/Praktikum_LNTsim_Teil_B.pdf Lab Instruction - Part B]  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; link refers to the PDF version; Chapter 12: page 271-294.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Principle and Motivation==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Many message signals are analog and thus simultaneously&amp;amp;nbsp; [[Signal_Representation/Signal_classification#Zeitkontinuierliche_und_zeitdiskrete_Signale|time-continuous]]&amp;amp;nbsp; and&amp;amp;nbsp; [[Signal_Representation/Signal_classification#Wertkontinuierliche_und_wertdiskrete_Signale|continuous in value]]. If such an analog signal is to be transmitted by means of a digital system, the following preprocessing steps are required:&lt;br /&gt;
*the&amp;amp;nbsp; '''sampling'''&amp;amp;nbsp; of the message signal&amp;amp;nbsp; $x(t)$, which is expediently - but not necessarily - performed at equidistant times &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''time discretization''',&lt;br /&gt;
*the&amp;amp;nbsp; '''quantization'''&amp;amp;nbsp; of the samples, so as to limit the number&amp;amp;nbsp; $M$&amp;amp;nbsp; of possible values to a finite value &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''value discretization'''.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Quantization is not discussed in detail until the chapter&amp;amp;nbsp; [[Modulation_Methods/Pulscodemodulation|Pulse Code Modulation]]&amp;amp;nbsp;of the book &amp;quot;Modulation Methods&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1120__Sig_T_5_1_S1_neu.png|center|frame|On Time Discretization of the Time-Continuous Signal &amp;amp;nbsp; $x(t)$]]&lt;br /&gt;
&lt;br /&gt;
In the following, we use the following nomenclature to describe the sampling:&lt;br /&gt;
*let the continuous-time signal be&amp;amp;nbsp; $x(t)$.&lt;br /&gt;
*Let the time-discretized signal sampled at equidistant intervals&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; be&amp;amp;nbsp; $x_{\rm A}(t)$.&lt;br /&gt;
*outside the sampling time points&amp;amp;nbsp; $\nu \cdot T_{\rm A}$&amp;amp;nbsp; always holds&amp;amp;nbsp; $x_{\rm A}(t) = 0$.&lt;br /&gt;
*The iterating variable&amp;amp;nbsp; $\nu$&amp;amp;nbsp; be&amp;amp;nbsp; [[Signal_Representation/Calculating_With_Complex_Numbers#Reelle_Zahlenmengen|an integer]]:  &amp;amp;nbsp; &amp;amp;nbsp; $\nu \in \mathbb{Z} =  \{\hspace{0.05cm} \text{...}\hspace{0.05cm} , –3, –2, –1, \hspace{0.2cm}0, +1, +2, +3, \text{...} \hspace{0.05cm}\} $.&lt;br /&gt;
*In contrast, at the equidistant sampling times with the constant&amp;amp;nbsp; $K$, the result is:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm A}(\nu \cdot T_{\rm A}) = K \cdot x(\nu \cdot T_{\rm A})\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
The constant depends on the type of time discretization. For the above sketch&amp;amp;nbsp; $K = 1$ holds.&lt;br /&gt;
&lt;br /&gt;
==Time Domain Representation==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Throughout $\rm LNTwww$, the &amp;amp;nbsp; '''sampling'''&amp;amp;nbsp; shall be understood as the multiplication of the time-continuous signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; by the&amp;amp;nbsp; ''Dirac pulse''&amp;amp;nbsp; $p_{\delta}(t)$:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm A}(t) = x(t) \cdot p_{\delta}(t)\hspace{0.05cm}.$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
AIt should be noted that other forms of description are found in the literature. However, to the authors, the form chosen here appears to be the most appropriate in terms of spectral representation and derivation of the&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)|Discrete Fourier Transform]]&amp;amp;nbsp;  (DFT).&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; The&amp;amp;nbsp; '''Dirac comb (in the time domain)'''&amp;amp;nbsp; consists of infinitely many Dirac pulses, each equally spaced&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; and all with equal pulse weight&amp;amp;nbsp; $T_{\rm A}$:&lt;br /&gt;
 &lt;br /&gt;
:$$p_{\delta}(t) =  \sum_{\nu = - \infty }^{+\infty} T_{\rm A} \cdot&lt;br /&gt;
 \delta(t- \nu \cdot T_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Based on this definition, the sampled signal has the following properties:&lt;br /&gt;
*The sampled signal at the considered time&amp;amp;nbsp; $(\nu \cdot T_{\rm A})$&amp;amp;nbsp; is equal&amp;amp;nbsp; $T_{\rm A} \cdot x(\nu \cdot T_{\rm A}) - \delta (0)$.&lt;br /&gt;
*Since the Dirac function&amp;amp;nbsp; $\delta (t)$&amp;amp;nbsp; is infinite at time&amp;amp;nbsp; $t = 0$&amp;amp;nbsp; actually all signal values&amp;amp;nbsp; $x_{\rm A}(\nu \cdot T_{\rm A})$&amp;amp;nbsp; are also infinite.&lt;br /&gt;
*Thus, the factor&amp;amp;nbsp; $K$&amp;amp;nbsp; introduced on the last page is actually infinite as well.&lt;br /&gt;
*Two samples&amp;amp;nbsp; $x_{\rm A}(\nu_1 \cdot T_{\rm A})$&amp;amp;nbsp; and&amp;amp;nbsp; $x_{\rm A}(\nu_2 \cdot T_{\rm A})$&amp;amp;nbsp; however, differ in the same proportion as the signal values&amp;amp;nbsp; $x(\nu_1 \cdot T_{\rm A})$&amp;amp;nbsp; and&amp;amp;nbsp; $x(\nu_2 \cdot T_{\rm A})$.&lt;br /&gt;
*The samples of&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; appear in the momentum weights of the Dirac functions:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm A}(t) =  \sum_{\nu = - \infty }^{+\infty} T_{\rm A} \cdot x(\nu \cdot T_{\rm A})\cdot&lt;br /&gt;
 \delta (t- \nu \cdot T_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*The additional multiplication by&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; is necessary so that&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $x_{\rm A}(t)$&amp;amp;nbsp; have the same unit. Note here that&amp;amp;nbsp; $\delta (t)$&amp;amp;nbsp; itself has the unit &amp;quot;1/s&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The following pages will show that these equations, which take some getting used to, do lead to reasonable results, if they are applied consistently.&lt;br /&gt;
&lt;br /&gt;
==Dirac Comb in Time and Frequency Domain==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Theorem:}$&amp;amp;nbsp;  Developing the&amp;amp;nbsp; '''Dirac comb'''&amp;amp;nbsp; into a&amp;amp;nbsp; [[Signal_Representation/Fourier_Series|Fourier Series]]&amp;amp;nbsp; and transforming it into the frequency domain using the&amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_Laws#Verschiebungssatz|Shift Theorem]]&amp;amp;nbsp; gives the following correspondence:&lt;br /&gt;
 &lt;br /&gt;
:$$p_{\delta}(t) =  \sum_{\nu = - \infty }^{+\infty} T_{\rm A} \cdot&lt;br /&gt;
 \delta(t- \nu \cdot T_{\rm A}&lt;br /&gt;
 )\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm} P_{\delta}(f) =  \sum_{\mu = - \infty }^{+\infty} \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A} ).$$&lt;br /&gt;
&lt;br /&gt;
Here&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$&amp;amp;nbsp; gives the distance between two adjacent dirac lines in the frequency domain. }}&lt;br /&gt;
 &lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Proof:}$&amp;amp;nbsp; The derivation of the spectral function given here&amp;amp;nbsp; $P_{\delta}(f)$&amp;amp;nbsp; is done in several steps:&lt;br /&gt;
&lt;br /&gt;
'''(1)'''&amp;amp;nbsp;&amp;amp;nbsp; Since&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; is periodic with the constant distance&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; between two dirac lines, the&amp;amp;nbsp; [[[Signal_Representation/Fourier_Series#Komplexe_Fourierreihe|complex Fourier Series]]&amp;amp;nbsp; can be applied:&lt;br /&gt;
 &lt;br /&gt;
:$$p_{\delta}(t) =  \sum_{\mu = - \infty }^{+\infty} D_{\mu} \cdot&lt;br /&gt;
 {\rm e}^{\hspace{0.05cm}{\rm j} \hspace{0.05cm} \cdot 2 \hspace{0.05cm} \pi \hspace{0.05cm}\cdot \hspace{0.05cm}\mu \hspace{0.05cm}\cdot \hspace{0.05cm}t/T_{\rm A} }&lt;br /&gt;
 \hspace{0.3cm}{\rm mit}\hspace{0.3cm}&lt;br /&gt;
 D_{\mu} = \frac{1}{T_{\rm A} } \cdot \int_{-T_{\rm A}/2&lt;br /&gt;
 }^{+T_{\rm A}/2}p_{\delta}(t) \cdot {\rm e}^{- {\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm}\mu \hspace{0.05cm}&lt;br /&gt;
 \cdot \hspace{0.05cm}t/T_{\rm A} }\hspace{0.1cm} {\rm d}t\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
'''(2)'''&amp;amp;nbsp;&amp;amp;nbsp; In the range from&amp;amp;nbsp; $-T_{\rm A}/2$&amp;amp;nbsp; to&amp;amp;nbsp; $+T_{\rm A}/2$&amp;amp;nbsp; holds for the Dirac comb in the time domain: &amp;amp;nbsp; $p_{\delta}(t) = T_{\rm A} \cdot \delta(t)$. Thus one can write for the complex Fourier coefficients: &amp;amp;nbsp; &lt;br /&gt;
:$$D_{\mu} = \int_{-T_{\rm A}/2&lt;br /&gt;
 }^{+T_{\rm A}/2}{\delta}(t) \cdot {\rm e}^{- {\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm}\mu \hspace{0.05cm}&lt;br /&gt;
 \cdot \hspace{0.05cm}t/T_{\rm A} }\hspace{0.1cm} {\rm d}t\hspace{0.05cm}.$$ &lt;br /&gt;
'''(3)'''&amp;amp;nbsp;&amp;amp;nbsp; Considering that for&amp;amp;nbsp; $t \neq 0$&amp;amp;nbsp; the Dirac momentum is zero and for&amp;amp;nbsp; $t = 0$&amp;amp;nbsp; the complex angular factor is equal to&amp;amp;nbsp; $1$, it holds further:&lt;br /&gt;
:$$D_{\mu} = \int_{- T_{\rm A}/2&lt;br /&gt;
 }^{+T_{\rm A}/2}{\delta}(t) \hspace{0.1cm} {\rm d}t = 1\hspace{0.5cm}{\Rightarrow}\hspace{0.5cm}&lt;br /&gt;
p_{\delta}(t) =  \sum_{\mu = - \infty }^{+\infty} {\rm e}^{ {\rm j} \hspace{0.05cm}&lt;br /&gt;
 \cdot 2 \hspace{0.05cm} \pi \cdot \hspace{0.05cm}\mu \hspace{0.05cm}\cdot \hspace{0.05cm}t/T_{\rm A} }\hspace{0.05cm}.&lt;br /&gt;
 $$&lt;br /&gt;
'''(4)'''&amp;amp;nbsp;&amp;amp;nbsp; The &amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_Laws#Verschiebungssatz|shifting theorem in the frequency domain]]&amp;amp;nbsp; is &amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$:&lt;br /&gt;
:$${\rm e}^{ {\rm j} \hspace{0.05cm}&lt;br /&gt;
\hspace{0.05cm} \cdot 2 \hspace{0.05cm} \pi \hspace{0.05cm}\cdot \hspace{0.05cm}\mu \hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
 f_{\rm A}\hspace{0.05cm}\cdot \hspace{0.05cm}t}\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm}&lt;br /&gt;
 \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$ &lt;br /&gt;
'''(5)'''&amp;amp;nbsp;&amp;amp;nbsp; If you apply the result to each individual summand, you finally get:&lt;br /&gt;
 &lt;br /&gt;
:$$P_{\delta}(f) =  \sum_{\mu = - \infty }^{+\infty} \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&amp;lt;div align=&amp;quot;right&amp;quot;&amp;gt;q.e.d.&amp;lt;/div&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The result states:&lt;br /&gt;
*The Dirac comb&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; in the time domain consists of infinitely many Dirac impulses, each at the same distance&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; and all with the same pulse weight&amp;amp;nbsp; $T_{\rm A}$.&lt;br /&gt;
*The Fourier transform of&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; again gives a Dirac comb, but now in the frequency range &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $P_{\delta}(f)$.&lt;br /&gt;
*$P_{\delta}(f)$&amp;amp;nbsp; also consists of infinitely many Dirac pulses, but now in the respective distance&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$&amp;amp;nbsp; and all with momentum weight&amp;amp;nbsp; $1$.&lt;br /&gt;
*The distances of the diraclines in the time and frequency domain representation thus follow the&amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_Laws#Reziprozit.C3.A4tsgesetz_von_Zeitdauer_und_Bandbreite|reciprocity theorem]]: &amp;amp;nbsp; &lt;br /&gt;
:$$T_{\rm A} \cdot f_{\rm A} = 1 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_1_S3.png|right|frame|Dirac Comb in the Time- and Frequency Domain]]&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp; The graph illustrates the above statements for &lt;br /&gt;
*$T_{\rm A} = 50\,{\rm &amp;amp;micro;s}$, &lt;br /&gt;
*$f_{\rm A} = 1/T_{\rm A} = 20\,\text{kHz}$ .&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
One can also see from this sketch the different momentum weights of&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $P_{\delta}(f)$.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Frequency Domain Representation==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The spectrum of the sampled signal&amp;amp;nbsp; $x_{\rm A}(t)$&amp;amp;nbsp; is obtained by applying the&amp;amp;nbsp; [[Signal_Representation/The_Convolution_Theorem_and_Operation#Faltung_im_Frequenzbereich|convolution theorem in the frequency domain]].This states that multiplication in the time domain corresponds to convolution in the spectral domain:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm A}(t) = x(t) \cdot p_{\delta}(t)\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm}&lt;br /&gt;
 X_{\rm A}(f) = X(f) \star P_{\delta}(f)\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
From the spectrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; by convolution with the diracline shifted by&amp;amp;nbsp; $\mu \cdot f_{\rm A}$&amp;amp;nbsp; we get:&lt;br /&gt;
 &lt;br /&gt;
:$$X(f) \star \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )= X (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Applying this result to all diraclines of the Dirac pulse, we finally obtain:&lt;br /&gt;
 &lt;br /&gt;
:$$X_{\rm A}(f) = X(f) \star \sum_{\mu = - \infty }^{+\infty} \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 ) = \sum_{\mu = - \infty }^{+\infty} X (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
 The sampling of the analogue time signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; at equidistant intervals&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; leads in the spectral domain to a&amp;amp;nbsp; '''periodic continuation'''&amp;amp;nbsp; of&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; with frequency spacing of &amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 2:}$&amp;amp;nbsp;&lt;br /&gt;
The upper graph shows&amp;amp;nbsp; (schematically!)&amp;amp;nbsp; the spectrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; of an analogue signal&amp;amp;nbsp; $x(t)$, which includes frequencies up to&amp;amp;nbsp; $5 \text{ kHz}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1122__Sig_T_5_1_S4_neu.png|center|frame|Spectrum of the Sampled Signal]]&lt;br /&gt;
&lt;br /&gt;
Sampling the signal at the sampling rate&amp;amp;nbsp; $f_{\rm A}\,\text{ = 20 kHz}$, i.e. at the respective distance&amp;amp;nbsp; $T_{\rm A}\, = {\rm 50 \, &amp;amp;micro;s}$&amp;amp;nbsp; we obtain the periodic spectrum&amp;amp;nbsp; $X_{\rm A}(f)$ sketched below. &lt;br /&gt;
*Since the Dirac functions are infinitely narrow, the sampled signal&amp;amp;nbsp; $x_{\rm A}(t)$&amp;amp;nbsp; also contains arbitrary high-frequency components. &lt;br /&gt;
*Accordingly, the spectral function&amp;amp;nbsp; $X_{\rm A}(f)$&amp;amp;nbsp; of the sampled signal is extended to infinity.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Signal Reconstruction==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Signal sampling is not an end in itself in a digital transmission system; it must be reversed at some point. Consider, for example, the following system:&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1123__Sig_T_5_1_S5a_neu.png|center|frame|Sampling and Reconstruction of a Signal]]&lt;br /&gt;
&lt;br /&gt;
*The analogue signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; with bandwidth&amp;amp;nbsp; $B_{\rm NF}$&amp;amp;nbsp; is sampled as described above. &lt;br /&gt;
*At the output of an ideal transmission system, the likewise time-discrete signal&amp;amp;nbsp; $y_{\rm A}(t) = x_{\rm A}(t)$&amp;amp;nbsp; is present. &lt;br /&gt;
*The question now is how the block&amp;amp;nbsp; '''signal reconstruction'''&amp;amp;nbsp; is to be designed so that also&amp;amp;nbsp; $y(t) = x(t)$&amp;amp;nbsp; applies.&lt;br /&gt;
&lt;br /&gt;
The solution is relatively simple if one considers the spectral functions: &amp;amp;nbsp; One obtains from&amp;amp;nbsp; $Y_{\rm A}(f)$&amp;amp;nbsp; the spectrum&amp;amp;nbsp; $Y(f) = X(f)$&amp;amp;nbsp; by a low-pass with the&amp;amp;nbsp; [[Linear_and_Time_Invariant_Systems/Systembeschreibung_im_Frequenzbereich#.C3.9Cbertragungsfunktion_-_Frequenzgang|Frequency Response]]&amp;amp;nbsp; $H(f)$, which&amp;amp;nbsp;&lt;br /&gt;
[[File:P_ID1124__Sig_T_5_1_S5b_neu.png|right|frame|Frequency Domain Representation of the Signal Reconstruction Process]]&lt;br /&gt;
*passes the low frequencies unaltered:&lt;br /&gt;
:$$H(f) = 1 \hspace{0.3cm}{\rm{f\ddot{u}r}} \hspace{0.3cm} |f| \le B_{\rm&lt;br /&gt;
  NF}\hspace{0.05cm},$$&lt;br /&gt;
*suppresses the high frequencies completely:&lt;br /&gt;
:$$H(f) = 0 \hspace{0.3cm}{\rm{f\ddot{u}r}} \hspace{0.3cm} |f| \ge f_{\rm A} - B_{\rm&lt;br /&gt;
  NF}\hspace{0.05cm}.$$&lt;br /&gt;
 &lt;br /&gt;
Further it can be seen from the graph that the frequency response&amp;amp;nbsp; $H(f)$&amp;amp;nbsp; in the range of&amp;amp;nbsp; $B_{\rm NF}$&amp;amp;nbsp; to&amp;amp;nbsp; $f_{\rm A}-B_{\rm NF}$&amp;amp;nbsp; can be arbitrarily shaped, &lt;br /&gt;
*for example, linearly sloping (dashed line) &lt;br /&gt;
*or also rectangular, &lt;br /&gt;
&lt;br /&gt;
as long as both of the above conditions are met.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
==The Sampling Theorem==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The complete reconstruction of the analogue signal&amp;amp;nbsp; $y(t)$&amp;amp;nbsp; from the sampled signal&amp;amp;nbsp; $y_{\rm A}(t) = x_{\rm A}(t)$&amp;amp;nbsp; is only possible if the sampling rate&amp;amp;nbsp; $f_{\rm A}$&amp;amp;nbsp; corresponding to the bandwidth&amp;amp;nbsp; $B_{\rm NF}$&amp;amp;nbsp; of the message signal has been chosen correctly. &lt;br /&gt;
&lt;br /&gt;
From the graph of the&amp;amp;nbsp; [[Signal_Representation/Time_Discrete_Signal_Representation#Signalrekonstruktion|last page]]&amp;amp;nbsp;, it can be seen that the following condition must be fulfilled:&lt;br /&gt;
&lt;br /&gt;
:$$f_{\rm A} - B_{\rm   NF} &amp;gt; B_{\rm   NF} \hspace{0.3cm}\Rightarrow \hspace{0.3cm}f_{\rm A} &amp;gt; 2 \cdot  B_{\rm   NF}\hspace{0.05cm}.$$&lt;br /&gt;
 &lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Sampling Theorem:}$&amp;amp;nbsp; If an analogue signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; has spectral components in the range&amp;amp;nbsp; $\vert f \vert &amp;lt; B_{\rm NF}$, it can only be completely reconstructed from its sampled signal if the sampling rate is sufficiently large:&lt;br /&gt;
:$$f_{\rm A} ≥ 2 \cdot B_{\rm NF}.$$ &lt;br /&gt;
&lt;br /&gt;
Accordingly, the following must apply to the distance between two samples:&lt;br /&gt;
 &lt;br /&gt;
:$$T_{\rm A} \le \frac{1}{ 2 \cdot B_{\rm   NF} }\hspace{0.05cm}.$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
If the largest possible value &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $T_{\rm A} = 1/(2B_{\rm NF})$&amp;amp;nbsp; is used for sampling, &lt;br /&gt;
*then, in order to reconstruct the analogue signal from its sampled values,&lt;br /&gt;
*one must use an ideal, rectangular low-pass filter with cut-off frequency&amp;amp;nbsp; $f_{\rm G} = f_{\rm A}/2 = 1/(2T_{\rm A})$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 3:}$&amp;amp;nbsp; The graph above shows the spectrum&amp;amp;nbsp; $\pm\text{ 5 kHz}$&amp;amp;nbsp; of an analogue signal limited to&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; below the spectrum&amp;amp;nbsp; $X_{\rm A}(f)$&amp;amp;nbsp; of the signal sampled at distance&amp;amp;nbsp; $T_{\rm A} =\,\text{ 100 &amp;amp;micro;s}$&amp;amp;nbsp; ⇒ &amp;amp;nbsp; $f_{\rm A}=\,\text{ 10 kHz}$. &lt;br /&gt;
[[File:P_ID1125__Sig_T_5_1_S6_neu.png|right|frame|Sampling Theorem in the Frequency Domain]]&lt;br /&gt;
&amp;lt;br&amp;gt;Additionally drawn is the frequency response&amp;amp;nbsp; $H(f)$&amp;amp;nbsp; of the low-pass filter for signal reconstruction, whose cut-off frequency must be &amp;amp;nbsp; $f_{\rm G} = f_{\rm A}/2 = 5\,\text{ kHz}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*With any other&amp;amp;nbsp; $f_{\rm G}$ value, the result would be&amp;amp;nbsp; $Y(f) \neq X(f)$. &lt;br /&gt;
*For&amp;amp;nbsp; $f_{\rm G} &amp;lt; 5\,\text{ kHz}$&amp;amp;nbsp; the upper&amp;amp;nbsp; $X(f)$ portions are missing.&lt;br /&gt;
* At&amp;amp;nbsp; $f_{\rm G} &amp;gt; 5\,\text{ kHz}$&amp;amp;nbsp; there are unwanted spectral components in&amp;amp;nbsp; $Y(f)$ due to convolution operations.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
If the sampling at the transmitter had been done with a sampling rate&amp;amp;nbsp; $f_{\rm A} &amp;lt; 10\,\text{ kHz}$&amp;amp;nbsp; &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $T_{\rm A} &amp;gt;100 \,{\rm &amp;amp;micro;  s}$, the analogue signal&amp;amp;nbsp; $y(t) = x(t)$&amp;amp;nbsp; would not be reconstructible from the samples&amp;amp;nbsp; $y_{\rm A}(t)$&amp;amp;nbsp; in any case. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Note'': &amp;amp;nbsp;  There is an interactive applet on the topic covered here: &amp;amp;nbsp; [[Applets:Abtastung_periodischer_Signale_und_Signalrekonstruktion_(Applet)|Sampling of Analogue Signals and Signal Reconstruction]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Exercises For the Chapter==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.1: Sampling Theorem|Exercise 5.1: Sampling Theorem]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.1Z: Sampling of Harmonic Oscillations|Exercise 5.1Z: Sampling of Harmonic Oscillations]]&lt;br /&gt;
   &lt;br /&gt;
 &lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Discrete-Time_Signal_Representation&amp;diff=35563</id>
		<title>Signal Representation/Discrete-Time Signal Representation</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Discrete-Time_Signal_Representation&amp;diff=35563"/>
		<updated>2020-12-27T22:44:47Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Time and Frequency-Discrete Signal Representation&lt;br /&gt;
|Vorherige Seite=Equivalent Low Pass Signal and Its Spectral Function&lt;br /&gt;
|Nächste Seite=Discrete Fourier Transform (DFT)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== # OVERVIEW OF THE FIFTH MAIN CHAPTER # ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
A prerequisite for the system-theoretical investigation of digital systems or for their computer simulation is a suitable discrete-time signal description. This chapter clarifies the mathematical transition from time-continuous to time-discrete signals, starting from&amp;amp;nbsp;  [[Signal_Representation/Fourier_Transform_and_Its_Inverse|Fourier Transform and Its Inverse]]&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
The chapter includes in detail:&lt;br /&gt;
*the ''time and frequency domain representation''&amp;amp;nbsp; of discrete-time signals,&lt;br /&gt;
*the ''sampling theorem'', which must be strictly observed in time discretization,&lt;br /&gt;
*the ''reconstruction of the analog signal''&amp;amp;nbsp; from the time-discrete representation,&lt;br /&gt;
*the ''Discrete Fourier Transform''&amp;amp;nbsp; (DFT) and its inverse (IDFT),&lt;br /&gt;
*the ''possibilities of error''&amp;amp;nbsp; when applying DFT and IDFT,&lt;br /&gt;
*the application of ''spectral analysis''&amp;amp;nbsp; to the improvement of metrological procedures, and.&lt;br /&gt;
*the ''FFT algorithm'' particularly suitable for computer implementation.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
For more information on the subject, as well as tasks, simulations, and programming exercises, see&lt;br /&gt;
&lt;br /&gt;
*Chapter 7: &amp;amp;nbsp; &amp;amp;nbsp; ''Discrete Fourier Transform'', program dft,&lt;br /&gt;
*Chapter 8: &amp;amp;nbsp; &amp;amp;nbsp; ''Spectral Analysis'', program stp, and&lt;br /&gt;
*Chapter 12: &amp;amp;nbsp; ''Pulse code modulation'', program pcm&lt;br /&gt;
&lt;br /&gt;
of the laboratory course &amp;amp;bdquo;Simulation Methods in Communications Engineering&amp;amp;rdquo;. This (former) LNT course at the TU Munich is based on&lt;br /&gt;
*the teaching software package&amp;amp;nbsp; [http://en.lntwww.de/downloads/Sonstiges/Programme/LNTsim.zip LNTsim] &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; link refers to the ZIP version of the program, &lt;br /&gt;
*the &amp;amp;nbsp; [http://en.lntwww.de/downloads/Sonstiges/Texte/Praktikum_LNTsim_Teil_A.pdf Lab Instruction - Part A]  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; link refers to the PDF version; Chapter 7: page 119-144, Chapter 8: page 145-164, and&lt;br /&gt;
*the &amp;amp;nbsp; [http://en.lntwww.de/downloads/Sonstiges/Texte/Praktikum_LNTsim_Teil_B.pdf Lab Instruction - Part B]  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; link refers to the PDF version; Chapter 12: page 271-294.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Principle and Motivation==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Many message signals are analog and thus simultaneously&amp;amp;nbsp; [[Signal_Representation/Signal_classification#Zeitkontinuierliche_und_zeitdiskrete_Signale|time-continuous]]&amp;amp;nbsp; and&amp;amp;nbsp; [[Signal_Representation/Signal_classification#Wertkontinuierliche_und_wertdiskrete_Signale|continuous in value]]. If such an analog signal is to be transmitted by means of a digital system, the following preprocessing steps are required:&lt;br /&gt;
*the&amp;amp;nbsp; '''sampling'''&amp;amp;nbsp; of the message signal&amp;amp;nbsp; $x(t)$, which is expediently - but not necessarily - performed at equidistant times &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''time discretization''',&lt;br /&gt;
*the&amp;amp;nbsp; '''quantization'''&amp;amp;nbsp; of the samples, so as to limit the number&amp;amp;nbsp; $M$&amp;amp;nbsp; of possible values to a finite value &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''value discretization'''.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Quantization is not discussed in detail until the chapter&amp;amp;nbsp; [[Modulation_Methods/Pulscodemodulation|Pulse Code Modulation]]&amp;amp;nbsp;of the book &amp;quot;Modulation Methods&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1120__Sig_T_5_1_S1_neu.png|center|frame|On Time Discretization of the Time-Continuous Signal &amp;amp;nbsp; $x(t)$]]&lt;br /&gt;
&lt;br /&gt;
In the following, we use the following nomenclature to describe the sampling:&lt;br /&gt;
*let the continuous-time signal be&amp;amp;nbsp; $x(t)$.&lt;br /&gt;
*Let the time-discretized signal sampled at equidistant intervals&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; be&amp;amp;nbsp; $x_{\rm A}(t)$.&lt;br /&gt;
*outside the sampling time points&amp;amp;nbsp; $\nu \cdot T_{\rm A}$&amp;amp;nbsp; always holds&amp;amp;nbsp; $x_{\rm A}(t) = 0$.&lt;br /&gt;
*The iterating variable&amp;amp;nbsp; $\nu$&amp;amp;nbsp; be&amp;amp;nbsp; [[Signal_Representation/Calculating_With_Complex_Numbers#Reelle_Zahlenmengen|an integer]]:  &amp;amp;nbsp; &amp;amp;nbsp; $\nu \in \mathbb{Z} =  \{\hspace{0.05cm} \text{...}\hspace{0.05cm} , –3, –2, –1, \hspace{0.2cm}0, +1, +2, +3, \text{...} \hspace{0.05cm}\} $.&lt;br /&gt;
*In contrast, at the equidistant sampling times with the constant&amp;amp;nbsp; $K$, the result is:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm A}(\nu \cdot T_{\rm A}) = K \cdot x(\nu \cdot T_{\rm A})\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
The constant depends on the type of time discretization. For the above sketch&amp;amp;nbsp; $K = 1$ holds.&lt;br /&gt;
&lt;br /&gt;
==Time Domain Representation==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Throughout $\rm LNTwww$, the &amp;amp;nbsp; '''sampling''''&amp;amp;nbsp; shall be understood as the multiplication of the time-continuous signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; by the&amp;amp;nbsp; ''Dirac pulse'''&amp;amp;nbsp; $p_{\delta}(t)$:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm A}(t) = x(t) \cdot p_{\delta}(t)\hspace{0.05cm}.$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
AIt should be noted that other forms of description are found in the literature. However, to the authors, the form chosen here appears to be the most appropriate in terms of spectral representation and derivation of the&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)|Discrete Fourier Transform]]&amp;amp;nbsp;  (DFT).&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; The&amp;amp;nbsp; '''Dirac comb (in the time domain)'''&amp;amp;nbsp; consists of infinitely many Dirac pulses, each equally spaced&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; and all with equal pulse weight&amp;amp;nbsp; $T_{\rm A}$:&lt;br /&gt;
 &lt;br /&gt;
:$$p_{\delta}(t) =  \sum_{\nu = - \infty }^{+\infty} T_{\rm A} \cdot&lt;br /&gt;
 \delta(t- \nu \cdot T_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Based on this definition, the sampled signal has the following properties:&lt;br /&gt;
*The sampled signal at the considered time&amp;amp;nbsp; $(\nu \cdot T_{\rm A})$&amp;amp;nbsp; is equal&amp;amp;nbsp; $T_{\rm A} \cdot x(\nu \cdot T_{\rm A}) - \delta (0)$.&lt;br /&gt;
*Since the Dirac function&amp;amp;nbsp; $\delta (t)$&amp;amp;nbsp; is infinite at time&amp;amp;nbsp; $t = 0$&amp;amp;nbsp; actually all signal values&amp;amp;nbsp; $x_{\rm A}(\nu \cdot T_{\rm A})$&amp;amp;nbsp; are also infinite.&lt;br /&gt;
*Thus, the factor&amp;amp;nbsp; $K$&amp;amp;nbsp; introduced on the last page is actually infinite as well.&lt;br /&gt;
*Two samples&amp;amp;nbsp; $x_{\rm A}(\nu_1 \cdot T_{\rm A})$&amp;amp;nbsp; and&amp;amp;nbsp; $x_{\rm A}(\nu_2 \cdot T_{\rm A})$&amp;amp;nbsp; however, differ in the same proportion as the signal values&amp;amp;nbsp; $x(\nu_1 \cdot T_{\rm A})$&amp;amp;nbsp; and&amp;amp;nbsp; $x(\nu_2 \cdot T_{\rm A})$.&lt;br /&gt;
*The samples of&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; appear in the momentum weights of the Dirac functions:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm A}(t) =  \sum_{\nu = - \infty }^{+\infty} T_{\rm A} \cdot x(\nu \cdot T_{\rm A})\cdot&lt;br /&gt;
 \delta (t- \nu \cdot T_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*The additional multiplication by&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; is necessary so that&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $x_{\rm A}(t)$&amp;amp;nbsp; have the same unit. Note here that&amp;amp;nbsp; $\delta (t)$&amp;amp;nbsp; itself has the unit &amp;quot;1/s&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The following pages will show that these equations, which take some getting used to, do lead to reasonable results, if they are applied consistently.&lt;br /&gt;
&lt;br /&gt;
==Dirac Comb in Time and Frequency Domain==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Theorem:}$&amp;amp;nbsp;  Developing the&amp;amp;nbsp; '''Dirac comb'''&amp;amp;nbsp; into a&amp;amp;nbsp; [[Signal_Representation/Fourier_Series|Fourier Series]]&amp;amp;nbsp; and transforming it into the frequency domain using the&amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_Laws#Verschiebungssatz|Shift Theorem]]&amp;amp;nbsp; gives the following correspondence:&lt;br /&gt;
 &lt;br /&gt;
:$$p_{\delta}(t) =  \sum_{\nu = - \infty }^{+\infty} T_{\rm A} \cdot&lt;br /&gt;
 \delta(t- \nu \cdot T_{\rm A}&lt;br /&gt;
 )\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm} P_{\delta}(f) =  \sum_{\mu = - \infty }^{+\infty} \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A} ).$$&lt;br /&gt;
&lt;br /&gt;
Here&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$&amp;amp;nbsp; gives the distance between two adjacent dirac lines in the frequency domain. }}&lt;br /&gt;
 &lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Proof:}$&amp;amp;nbsp; The derivation of the spectral function given here&amp;amp;nbsp; $P_{\delta}(f)$&amp;amp;nbsp; is done in several steps:&lt;br /&gt;
&lt;br /&gt;
'''(1)'''&amp;amp;nbsp;&amp;amp;nbsp; Since&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; is periodic with the constant distance&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; between two dirac lines, the&amp;amp;nbsp; [[[Signal_Representation/Fourier_Series#Komplexe_Fourierreihe|complex Fourier Series]]&amp;amp;nbsp; can be applied:&lt;br /&gt;
 &lt;br /&gt;
:$$p_{\delta}(t) =  \sum_{\mu = - \infty }^{+\infty} D_{\mu} \cdot&lt;br /&gt;
 {\rm e}^{\hspace{0.05cm}{\rm j} \hspace{0.05cm} \cdot 2 \hspace{0.05cm} \pi \hspace{0.05cm}\cdot \hspace{0.05cm}\mu \hspace{0.05cm}\cdot \hspace{0.05cm}t/T_{\rm A} }&lt;br /&gt;
 \hspace{0.3cm}{\rm mit}\hspace{0.3cm}&lt;br /&gt;
 D_{\mu} = \frac{1}{T_{\rm A} } \cdot \int_{-T_{\rm A}/2&lt;br /&gt;
 }^{+T_{\rm A}/2}p_{\delta}(t) \cdot {\rm e}^{- {\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm}\mu \hspace{0.05cm}&lt;br /&gt;
 \cdot \hspace{0.05cm}t/T_{\rm A} }\hspace{0.1cm} {\rm d}t\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
'''(2)'''&amp;amp;nbsp;&amp;amp;nbsp; In the range from&amp;amp;nbsp; $-T_{\rm A}/2$&amp;amp;nbsp; to&amp;amp;nbsp; $+T_{\rm A}/2$&amp;amp;nbsp; holds for the Dirac comb in the time domain: &amp;amp;nbsp; $p_{\delta}(t) = T_{\rm A} \cdot \delta(t)$. Thus one can write for the complex Fourier coefficients: &amp;amp;nbsp; &lt;br /&gt;
:$$D_{\mu} = \int_{-T_{\rm A}/2&lt;br /&gt;
 }^{+T_{\rm A}/2}{\delta}(t) \cdot {\rm e}^{- {\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm}\mu \hspace{0.05cm}&lt;br /&gt;
 \cdot \hspace{0.05cm}t/T_{\rm A} }\hspace{0.1cm} {\rm d}t\hspace{0.05cm}.$$ &lt;br /&gt;
'''(3)'''&amp;amp;nbsp;&amp;amp;nbsp; Considering that for&amp;amp;nbsp; $t \neq 0$&amp;amp;nbsp; the Dirac momentum is zero and for&amp;amp;nbsp; $t = 0$&amp;amp;nbsp; the complex angular factor is equal to&amp;amp;nbsp; $1$, it holds further:&lt;br /&gt;
:$$D_{\mu} = \int_{- T_{\rm A}/2&lt;br /&gt;
 }^{+T_{\rm A}/2}{\delta}(t) \hspace{0.1cm} {\rm d}t = 1\hspace{0.5cm}{\Rightarrow}\hspace{0.5cm}&lt;br /&gt;
p_{\delta}(t) =  \sum_{\mu = - \infty }^{+\infty} {\rm e}^{ {\rm j} \hspace{0.05cm}&lt;br /&gt;
 \cdot 2 \hspace{0.05cm} \pi \cdot \hspace{0.05cm}\mu \hspace{0.05cm}\cdot \hspace{0.05cm}t/T_{\rm A} }\hspace{0.05cm}.&lt;br /&gt;
 $$&lt;br /&gt;
'''(4)'''&amp;amp;nbsp;&amp;amp;nbsp; The &amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_Laws#Verschiebungssatz|shifting theorem in the frequency domain]]&amp;amp;nbsp; is &amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$:&lt;br /&gt;
:$${\rm e}^{ {\rm j} \hspace{0.05cm}&lt;br /&gt;
\hspace{0.05cm} \cdot 2 \hspace{0.05cm} \pi \hspace{0.05cm}\cdot \hspace{0.05cm}\mu \hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
 f_{\rm A}\hspace{0.05cm}\cdot \hspace{0.05cm}t}\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm}&lt;br /&gt;
 \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$ &lt;br /&gt;
'''(5)'''&amp;amp;nbsp;&amp;amp;nbsp; If you apply the result to each individual summand, you finally get:&lt;br /&gt;
 &lt;br /&gt;
:$$P_{\delta}(f) =  \sum_{\mu = - \infty }^{+\infty} \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&amp;lt;div align=&amp;quot;right&amp;quot;&amp;gt;q.e.d.&amp;lt;/div&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The result states:&lt;br /&gt;
*The Dirac comb&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; in the time domain consists of infinitely many Dirac impulses, each at the same distance&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; and all with the same pulse weight&amp;amp;nbsp; $T_{\rm A}$.&lt;br /&gt;
*The Fourier transform of&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; again gives a Dirac comb, but now in the frequency range &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $P_{\delta}(f)$.&lt;br /&gt;
*$P_{\delta}(f)$&amp;amp;nbsp; also consists of infinitely many Dirac pulses, but now in the respective distance&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$&amp;amp;nbsp; and all with momentum weight&amp;amp;nbsp; $1$.&lt;br /&gt;
*The distances of the diraclines in the time and frequency domain representation thus follow the&amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_Laws#Reziprozit.C3.A4tsgesetz_von_Zeitdauer_und_Bandbreite|reciprocity theorem]]: &amp;amp;nbsp; &lt;br /&gt;
:$$T_{\rm A} \cdot f_{\rm A} = 1 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_1_S3.png|right|frame|Dirac Comb in the Time- and Frequency Domain]]&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp; The graph illustrates the above statements for &lt;br /&gt;
*$T_{\rm A} = 50\,{\rm &amp;amp;micro;s}$, &lt;br /&gt;
*$f_{\rm A} = 1/T_{\rm A} = 20\,\text{kHz}$ .&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
One can also see from this sketch the different momentum weights of&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $P_{\delta}(f)$.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Frequency Domain Representation==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The spectrum of the sampled signal&amp;amp;nbsp; $x_{\rm A}(t)$&amp;amp;nbsp; is obtained by applying the&amp;amp;nbsp; [[Signal_Representation/The_Convolution_Theorem_and_Operation#Faltung_im_Frequenzbereich|convolution theorem in the frequency domain]].This states that multiplication in the time domain corresponds to convolution in the spectral domain:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm A}(t) = x(t) \cdot p_{\delta}(t)\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm}&lt;br /&gt;
 X_{\rm A}(f) = X(f) \star P_{\delta}(f)\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
From the spectrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; by convolution with the diracline shifted by&amp;amp;nbsp; $\mu \cdot f_{\rm A}$&amp;amp;nbsp; we get:&lt;br /&gt;
 &lt;br /&gt;
:$$X(f) \star \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )= X (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Applying this result to all diraclines of the Dirac pulse, we finally obtain:&lt;br /&gt;
 &lt;br /&gt;
:$$X_{\rm A}(f) = X(f) \star \sum_{\mu = - \infty }^{+\infty} \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 ) = \sum_{\mu = - \infty }^{+\infty} X (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
 The sampling of the analogue time signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; at equidistant intervals&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; leads in the spectral domain to a&amp;amp;nbsp; '''periodic continuation'''&amp;amp;nbsp; of&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; with frequency spacing of &amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 2:}$&amp;amp;nbsp;&lt;br /&gt;
The upper graph shows&amp;amp;nbsp; (schematically!)&amp;amp;nbsp; the spectrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; of an analogue signal&amp;amp;nbsp; $x(t)$, which includes frequencies up to&amp;amp;nbsp; $5 \text{ kHz}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1122__Sig_T_5_1_S4_neu.png|center|frame|Spectrum of the Sampled Signal]]&lt;br /&gt;
&lt;br /&gt;
Sampling the signal at the sampling rate&amp;amp;nbsp; $f_{\rm A}\,\text{ = 20 kHz}$, i.e. at the respective distance&amp;amp;nbsp; $T_{\rm A}\, = {\rm 50 \, &amp;amp;micro;s}$&amp;amp;nbsp; we obtain the periodic spectrum&amp;amp;nbsp; $X_{\rm A}(f)$ sketched below. &lt;br /&gt;
*Since the Dirac functions are infinitely narrow, the sampled signal&amp;amp;nbsp; $x_{\rm A}(t)$&amp;amp;nbsp; also contains arbitrary high-frequency components. &lt;br /&gt;
*Accordingly, the spectral function&amp;amp;nbsp; $X_{\rm A}(f)$&amp;amp;nbsp; of the sampled signal is extended to infinity.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Signal Reconstruction==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Signal sampling is not an end in itself in a digital transmission system; it must be reversed at some point. Consider, for example, the following system:&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1123__Sig_T_5_1_S5a_neu.png|center|frame|Sampling and Reconstruction of a Signal]]&lt;br /&gt;
&lt;br /&gt;
*The analogue signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; with bandwidth&amp;amp;nbsp; $B_{\rm NF}$&amp;amp;nbsp; is sampled as described above. &lt;br /&gt;
*At the output of an ideal transmission system, the likewise time-discrete signal&amp;amp;nbsp; $y_{\rm A}(t) = x_{\rm A}(t)$&amp;amp;nbsp; is present. &lt;br /&gt;
*The question now is how the block&amp;amp;nbsp; '''signal reconstruction'''&amp;amp;nbsp; is to be designed so that also&amp;amp;nbsp; $y(t) = x(t)$&amp;amp;nbsp; applies.&lt;br /&gt;
&lt;br /&gt;
The solution is relatively simple if one considers the spectral functions: &amp;amp;nbsp; One obtains from&amp;amp;nbsp; $Y_{\rm A}(f)$&amp;amp;nbsp; the spectrum&amp;amp;nbsp; $Y(f) = X(f)$&amp;amp;nbsp; by a low-pass with the&amp;amp;nbsp; [[Linear_and_Time_Invariant_Systems/Systembeschreibung_im_Frequenzbereich#.C3.9Cbertragungsfunktion_-_Frequenzgang|Frequency Response]]&amp;amp;nbsp; $H(f)$, which&amp;amp;nbsp;&lt;br /&gt;
[[File:P_ID1124__Sig_T_5_1_S5b_neu.png|right|frame|Frequency Domain Representation of the Signal Reconstruction Process]]&lt;br /&gt;
*passes the low frequencies unaltered:&lt;br /&gt;
:$$H(f) = 1 \hspace{0.3cm}{\rm{f\ddot{u}r}} \hspace{0.3cm} |f| \le B_{\rm&lt;br /&gt;
  NF}\hspace{0.05cm},$$&lt;br /&gt;
*suppresses the high frequencies completely:&lt;br /&gt;
:$$H(f) = 0 \hspace{0.3cm}{\rm{f\ddot{u}r}} \hspace{0.3cm} |f| \ge f_{\rm A} - B_{\rm&lt;br /&gt;
  NF}\hspace{0.05cm}.$$&lt;br /&gt;
 &lt;br /&gt;
Further it can be seen from the graph that the frequency response&amp;amp;nbsp; $H(f)$&amp;amp;nbsp; in the range of&amp;amp;nbsp; $B_{\rm NF}$&amp;amp;nbsp; to&amp;amp;nbsp; $f_{\rm A}-B_{\rm NF}$&amp;amp;nbsp; can be arbitrarily shaped, &lt;br /&gt;
*for example, linearly sloping (dashed line) &lt;br /&gt;
*or also rectangular, &lt;br /&gt;
&lt;br /&gt;
as long as both of the above conditions are met.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
==The Sampling Theorem==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The complete reconstruction of the analogue signal&amp;amp;nbsp; $y(t)$&amp;amp;nbsp; from the sampled signal&amp;amp;nbsp; $y_{\rm A}(t) = x_{\rm A}(t)$&amp;amp;nbsp; is only possible if the sampling rate&amp;amp;nbsp; $f_{\rm A}$&amp;amp;nbsp; corresponding to the bandwidth&amp;amp;nbsp; $B_{\rm NF}$&amp;amp;nbsp; of the message signal has been chosen correctly. &lt;br /&gt;
&lt;br /&gt;
From the graph of the&amp;amp;nbsp; [[Signal_Representation/Time_Discrete_Signal_Representation#Signalrekonstruktion|last page]]&amp;amp;nbsp;, it can be seen that the following condition must be fulfilled:&lt;br /&gt;
&lt;br /&gt;
:$$f_{\rm A} - B_{\rm   NF} &amp;gt; B_{\rm   NF} \hspace{0.3cm}\Rightarrow \hspace{0.3cm}f_{\rm A} &amp;gt; 2 \cdot  B_{\rm   NF}\hspace{0.05cm}.$$&lt;br /&gt;
 &lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Sampling Theorem:}$&amp;amp;nbsp; If an analogue signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; has spectral components in the range&amp;amp;nbsp; $\vert f \vert &amp;lt; B_{\rm NF}$, it can only be completely reconstructed from its sampled signal if the sampling rate is sufficiently large:&lt;br /&gt;
:$$f_{\rm A} ≥ 2 \cdot B_{\rm NF}.$$ &lt;br /&gt;
&lt;br /&gt;
Accordingly, the following must apply to the distance between two samples:&lt;br /&gt;
 &lt;br /&gt;
:$$T_{\rm A} \le \frac{1}{ 2 \cdot B_{\rm   NF} }\hspace{0.05cm}.$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
If the largest possible value &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $T_{\rm A} = 1/(2B_{\rm NF})$&amp;amp;nbsp; is used for sampling, &lt;br /&gt;
*then, in order to reconstruct the analogue signal from its sampled values,&lt;br /&gt;
*one must use an ideal, rectangular low-pass filter with cut-off frequency&amp;amp;nbsp; $f_{\rm G} = f_{\rm A}/2 = 1/(2T_{\rm A})$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 3:}$&amp;amp;nbsp; The graph above shows the spectrum&amp;amp;nbsp; $\pm\text{ 5 kHz}$&amp;amp;nbsp; of an analogue signal limited to&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; below the spectrum&amp;amp;nbsp; $X_{\rm A}(f)$&amp;amp;nbsp; of the signal sampled at distance&amp;amp;nbsp; $T_{\rm A} =\,\text{ 100 &amp;amp;micro;s}$&amp;amp;nbsp; ⇒ &amp;amp;nbsp; $f_{\rm A}=\,\text{ 10 kHz}$. &lt;br /&gt;
[[File:P_ID1125__Sig_T_5_1_S6_neu.png|right|frame|Sampling Theorem in the Frequency Domain]]&lt;br /&gt;
&amp;lt;br&amp;gt;Additionally drawn is the frequency response&amp;amp;nbsp; $H(f)$&amp;amp;nbsp; of the low-pass filter for signal reconstruction, whose cut-off frequency must be &amp;amp;nbsp; $f_{\rm G} = f_{\rm A}/2 = 5\,\text{ kHz}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*With any other&amp;amp;nbsp; $f_{\rm G}$ value, the result would be&amp;amp;nbsp; $Y(f) \neq X(f)$. &lt;br /&gt;
*For&amp;amp;nbsp; $f_{\rm G} &amp;lt; 5\,\text{ kHz}$&amp;amp;nbsp; the upper&amp;amp;nbsp; $X(f)$ portions are missing.&lt;br /&gt;
* At&amp;amp;nbsp; $f_{\rm G} &amp;gt; 5\,\text{ kHz}$&amp;amp;nbsp; there are unwanted spectral components in&amp;amp;nbsp; $Y(f)$ due to convolution operations.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
If the sampling at the transmitter had been done with a sampling rate&amp;amp;nbsp; $f_{\rm A} &amp;lt; 10\,\text{ kHz}$&amp;amp;nbsp; &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $T_{\rm A} &amp;gt;100 \,{\rm &amp;amp;micro;  s}$, the analogue signal&amp;amp;nbsp; $y(t) = x(t)$&amp;amp;nbsp; would not be reconstructible from the samples&amp;amp;nbsp; $y_{\rm A}(t)$&amp;amp;nbsp; in any case. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Note'': &amp;amp;nbsp;  There is an interactive applet on the topic covered here: &amp;amp;nbsp; [[Applets:Abtastung_periodischer_Signale_und_Signalrekonstruktion_(Applet)|Sampling of Analogue Signals and Signal Reconstruction]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Exercises For the Chapter==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.1: Sampling Theorem|Exercise 5.1: Sampling Theorem]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.1Z: Sampling of Harmonic Oscillations|Exercise 5.1Z: Sampling of Harmonic Oscillations]]&lt;br /&gt;
   &lt;br /&gt;
 &lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Discrete-Time_Signal_Representation&amp;diff=35562</id>
		<title>Signal Representation/Discrete-Time Signal Representation</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Discrete-Time_Signal_Representation&amp;diff=35562"/>
		<updated>2020-12-27T22:43:57Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Time and Frequency-Discrete Signal Representation&lt;br /&gt;
|Vorherige Seite=Equivalent Low Pass Signal and Its Spectral Function&lt;br /&gt;
|Nächste Seite=Discrete Fourier Transform (DFT)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== # OVERVIEW OF THE FIFTH MAIN CHAPTER # ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
A prerequisite for the system-theoretical investigation of digital systems or for their computer simulation is a suitable discrete-time signal description. This chapter clarifies the mathematical transition from time-continuous to time-discrete signals, starting from&amp;amp;nbsp;  [[Signal_Representation/Fourier_Transform_and_Its_Inverse|Fourier Transform and Its Inverse]]&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
The chapter includes in detail:&lt;br /&gt;
*the ''time and frequency domain representation''&amp;amp;nbsp; of discrete-time signals,&lt;br /&gt;
*the ''sampling theorem'', which must be strictly observed in time discretization,&lt;br /&gt;
*the ''reconstruction of the analog signal''&amp;amp;nbsp; from the time-discrete representation,&lt;br /&gt;
*the ''Discrete Fourier Transform''&amp;amp;nbsp; (DFT) and its inverse (IDFT),&lt;br /&gt;
*the ''possibilities of error''&amp;amp;nbsp; when applying DFT and IDFT,&lt;br /&gt;
*the application of ''spectral analysis''&amp;amp;nbsp; to the improvement of metrological procedures, and.&lt;br /&gt;
*the ''FFT algorithm'' particularly suitable for computer implementation.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
For more information on the subject, as well as tasks, simulations, and programming exercises, see&lt;br /&gt;
&lt;br /&gt;
*Chapter 7: &amp;amp;nbsp; &amp;amp;nbsp; ''Discrete Fourier Transform'', program dft,&lt;br /&gt;
*Chapter 8: &amp;amp;nbsp; &amp;amp;nbsp; ''Spectral Analysis'', program stp, and&lt;br /&gt;
*Chapter 12: &amp;amp;nbsp; ''Pulse code modulation'', program pcm&lt;br /&gt;
&lt;br /&gt;
of the laboratory course &amp;amp;bdquo;Simulation Methods in Communications Engineering&amp;amp;rdquo;. This (former) LNT course at the TU Munich is based on&lt;br /&gt;
*the teaching software package&amp;amp;nbsp; [http://en.lntwww.de/downloads/Sonstiges/Programme/LNTsim.zip LNTsim] &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; link refers to the ZIP version of the program, &lt;br /&gt;
*the &amp;amp;nbsp; [http://en.lntwww.de/downloads/Sonstiges/Texte/Praktikum_LNTsim_Teil_A.pdf Lab Instruction - Part A]  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; link refers to the PDF version; Chapter 7: page 119-144, Chapter 8: page 145-164, and&lt;br /&gt;
*the &amp;amp;nbsp; [http://en.lntwww.de/downloads/Sonstiges/Texte/Praktikum_LNTsim_Teil_B.pdf Lab Instruction - Part B]  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; link refers to the PDF version; Chapter 12: page 271-294.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Principle and Motivation==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Many message signals are analog and thus simultaneously&amp;amp;nbsp; [[Signal_Representation/Signal_classification#Zeitkontinuierliche_und_zeitdiskrete_Signale|time-continuous]]&amp;amp;nbsp; and&amp;amp;nbsp; [[Signal_Representation/Signal_classification#Wertkontinuierliche_und_wertdiskrete_Signale|continuous in value]]. If such an analog signal is to be transmitted by means of a digital system, the following preprocessing steps are required:&lt;br /&gt;
*the&amp;amp;nbsp; '''sampling'''&amp;amp;nbsp; of the message signal&amp;amp;nbsp; $x(t)$, which is expediently - but not necessarily - performed at equidistant times &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''time discretization''',&lt;br /&gt;
*the&amp;amp;nbsp; '''quantization'''&amp;amp;nbsp; of the samples, so as to limit the number&amp;amp;nbsp; $M$&amp;amp;nbsp; of possible values to a finite value &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''value discretization'''.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Quantization is not discussed in detail until the chapter&amp;amp;nbsp; [[Modulation_Methods/Pulscodemodulation|Pulse Code Modulation]]&amp;amp;nbsp;of the book &amp;quot;Modulation Methods&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1120__Sig_T_5_1_S1_neu.png|center|frame|On Time Discretization of the Time-Continuous Signal &amp;amp;nbsp; $x(t)$]]&lt;br /&gt;
&lt;br /&gt;
In the following, we use the following nomenclature to describe the sampling:&lt;br /&gt;
*let the continuous-time signal be&amp;amp;nbsp; $x(t)$.&lt;br /&gt;
*Let the time-discretized signal sampled at equidistant intervals&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; be&amp;amp;nbsp; $x_{\rm A}(t)$.&lt;br /&gt;
*outside the sampling time points&amp;amp;nbsp; $\nu \cdot T_{\rm A}$&amp;amp;nbsp; always holds&amp;amp;nbsp; $x_{\rm A}(t) = 0$.&lt;br /&gt;
*The iterating variable&amp;amp;nbsp; $\nu$&amp;amp;nbsp; be&amp;amp;nbsp; [[Signal_Representation/Calculating_With_Complex_Numbers#Reelle_Zahlenmengen|an integer]]:  &amp;amp;nbsp; &amp;amp;nbsp; $\nu \in \mathbb{Z} =  \{\hspace{0.05cm} \text{...}\hspace{0.05cm} , –3, –2, –1, \hspace{0.2cm}0, +1, +2, +3, \text{...} \hspace{0.05cm}\} $.&lt;br /&gt;
*In contrast, at the equidistant sampling times with the constant&amp;amp;nbsp; $K$, the result is:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm A}(\nu \cdot T_{\rm A}) = K \cdot x(\nu \cdot T_{\rm A})\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
The constant depends on the type of time discretization. For the above sketch&amp;amp;nbsp; $K = 1$ holds.&lt;br /&gt;
&lt;br /&gt;
==Time Domain Representation==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Throughout $\rm LNTwww$, the &amp;amp;nbsp; '''sampling''''&amp;amp;nbsp; shall be understood as the multiplication of the time-continuous signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; by the&amp;amp;nbsp; ''Dirac pulse'''&amp;amp;nbsp; $p_{\delta}(t)$:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm A}(t) = x(t) \cdot p_{\delta}(t)\hspace{0.05cm}.$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
AIt should be noted that other forms of description are found in the literature. However, to the authors, the form chosen here appears to be the most appropriate in terms of spectral representation and derivation of the&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)|Discrete Fourier Transform]]&amp;amp;nbsp;  (DFT).&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; The&amp;amp;nbsp; '''Dirac comb (in the time domain)'''&amp;amp;nbsp; consists of infinitely many Dirac pulses, each equally spaced&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; and all with equal pulse weight&amp;amp;nbsp; $T_{\rm A}$:&lt;br /&gt;
 &lt;br /&gt;
:$$p_{\delta}(t) =  \sum_{\nu = - \infty }^{+\infty} T_{\rm A} \cdot&lt;br /&gt;
 \delta(t- \nu \cdot T_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Based on this definition, the sampled signal has the following properties:&lt;br /&gt;
*The sampled signal at the considered time&amp;amp;nbsp; $(\nu \cdot T_{\rm A})$&amp;amp;nbsp; is equal&amp;amp;nbsp; $T_{\rm A} \cdot x(\nu \cdot T_{\rm A}) - \delta (0)$.&lt;br /&gt;
*Since the Dirac function&amp;amp;nbsp; $\delta (t)$&amp;amp;nbsp; is infinite at time&amp;amp;nbsp; $t = 0$&amp;amp;nbsp; actually all signal values&amp;amp;nbsp; $x_{\rm A}(\nu \cdot T_{\rm A})$&amp;amp;nbsp; are also infinite.&lt;br /&gt;
*Thus, the factor&amp;amp;nbsp; $K$&amp;amp;nbsp; introduced on the last page is actually infinite as well.&lt;br /&gt;
*Two samples&amp;amp;nbsp; $x_{\rm A}(\nu_1 \cdot T_{\rm A})$&amp;amp;nbsp; and&amp;amp;nbsp; $x_{\rm A}(\nu_2 \cdot T_{\rm A})$&amp;amp;nbsp; however, differ in the same proportion as the signal values&amp;amp;nbsp; $x(\nu_1 \cdot T_{\rm A})$&amp;amp;nbsp; and&amp;amp;nbsp; $x(\nu_2 \cdot T_{\rm A})$.&lt;br /&gt;
*The samples of&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; appear in the momentum weights of the Dirac functions:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm A}(t) =  \sum_{\nu = - \infty }^{+\infty} T_{\rm A} \cdot x(\nu \cdot T_{\rm A})\cdot&lt;br /&gt;
 \delta (t- \nu \cdot T_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*The additional multiplication by&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; is necessary so that&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $x_{\rm A}(t)$&amp;amp;nbsp; have the same unit. Note here that&amp;amp;nbsp; $\delta (t)$&amp;amp;nbsp; itself has the unit &amp;quot;1/s&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The following pages will show that these equations, which take some getting used to, do lead to reasonable results, if they are applied consistently.&lt;br /&gt;
&lt;br /&gt;
==Dirac Comb in Time and Frequency Domain==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Theorem:}$&amp;amp;nbsp;  Developing the&amp;amp;nbsp; '''Dirac comb''''&amp;amp;nbsp; into a&amp;amp;nbsp; [[Signal_Representation/Fourier_Series|Fourier Series]]&amp;amp;nbsp; and transforming it into the frequency domain using the&amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_Laws#Verschiebungssatz|Shift Theorem]]&amp;amp;nbsp; gives the following correspondence:&lt;br /&gt;
 &lt;br /&gt;
:$$p_{\delta}(t) =  \sum_{\nu = - \infty }^{+\infty} T_{\rm A} \cdot&lt;br /&gt;
 \delta(t- \nu \cdot T_{\rm A}&lt;br /&gt;
 )\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm} P_{\delta}(f) =  \sum_{\mu = - \infty }^{+\infty} \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A} ).$$&lt;br /&gt;
&lt;br /&gt;
Here&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$&amp;amp;nbsp; gives the distance between two adjacent dirac lines in the frequency domain. }}&lt;br /&gt;
 &lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Proof:}$&amp;amp;nbsp; The derivation of the spectral function given here&amp;amp;nbsp; $P_{\delta}(f)$&amp;amp;nbsp; is done in several steps:&lt;br /&gt;
&lt;br /&gt;
'''(1)'''&amp;amp;nbsp;&amp;amp;nbsp; Since&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; is periodic with the constant distance&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; between two dirac lines, the&amp;amp;nbsp; [[[Signal_Representation/Fourier_Series#Komplexe_Fourierreihe|complex Fourier Series]]&amp;amp;nbsp; can be applied:&lt;br /&gt;
 &lt;br /&gt;
:$$p_{\delta}(t) =  \sum_{\mu = - \infty }^{+\infty} D_{\mu} \cdot&lt;br /&gt;
 {\rm e}^{\hspace{0.05cm}{\rm j} \hspace{0.05cm} \cdot 2 \hspace{0.05cm} \pi \hspace{0.05cm}\cdot \hspace{0.05cm}\mu \hspace{0.05cm}\cdot \hspace{0.05cm}t/T_{\rm A} }&lt;br /&gt;
 \hspace{0.3cm}{\rm mit}\hspace{0.3cm}&lt;br /&gt;
 D_{\mu} = \frac{1}{T_{\rm A} } \cdot \int_{-T_{\rm A}/2&lt;br /&gt;
 }^{+T_{\rm A}/2}p_{\delta}(t) \cdot {\rm e}^{- {\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm}\mu \hspace{0.05cm}&lt;br /&gt;
 \cdot \hspace{0.05cm}t/T_{\rm A} }\hspace{0.1cm} {\rm d}t\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
'''(2)'''&amp;amp;nbsp;&amp;amp;nbsp; In the range from&amp;amp;nbsp; $-T_{\rm A}/2$&amp;amp;nbsp; to&amp;amp;nbsp; $+T_{\rm A}/2$&amp;amp;nbsp; holds for the Dirac comb in the time domain: &amp;amp;nbsp; $p_{\delta}(t) = T_{\rm A} \cdot \delta(t)$. Thus one can write for the complex Fourier coefficients: &amp;amp;nbsp; &lt;br /&gt;
:$$D_{\mu} = \int_{-T_{\rm A}/2&lt;br /&gt;
 }^{+T_{\rm A}/2}{\delta}(t) \cdot {\rm e}^{- {\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm}\mu \hspace{0.05cm}&lt;br /&gt;
 \cdot \hspace{0.05cm}t/T_{\rm A} }\hspace{0.1cm} {\rm d}t\hspace{0.05cm}.$$ &lt;br /&gt;
'''(3)'''&amp;amp;nbsp;&amp;amp;nbsp; Considering that for&amp;amp;nbsp; $t \neq 0$&amp;amp;nbsp; the Dirac momentum is zero and for&amp;amp;nbsp; $t = 0$&amp;amp;nbsp; the complex angular factor is equal to&amp;amp;nbsp; $1$, it holds further:&lt;br /&gt;
:$$D_{\mu} = \int_{- T_{\rm A}/2&lt;br /&gt;
 }^{+T_{\rm A}/2}{\delta}(t) \hspace{0.1cm} {\rm d}t = 1\hspace{0.5cm}{\Rightarrow}\hspace{0.5cm}&lt;br /&gt;
p_{\delta}(t) =  \sum_{\mu = - \infty }^{+\infty} {\rm e}^{ {\rm j} \hspace{0.05cm}&lt;br /&gt;
 \cdot 2 \hspace{0.05cm} \pi \cdot \hspace{0.05cm}\mu \hspace{0.05cm}\cdot \hspace{0.05cm}t/T_{\rm A} }\hspace{0.05cm}.&lt;br /&gt;
 $$&lt;br /&gt;
'''(4)'''&amp;amp;nbsp;&amp;amp;nbsp; The &amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_Laws#Verschiebungssatz|shifting theorem in the frequency domain]]&amp;amp;nbsp; is &amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$:&lt;br /&gt;
:$${\rm e}^{ {\rm j} \hspace{0.05cm}&lt;br /&gt;
\hspace{0.05cm} \cdot 2 \hspace{0.05cm} \pi \hspace{0.05cm}\cdot \hspace{0.05cm}\mu \hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
 f_{\rm A}\hspace{0.05cm}\cdot \hspace{0.05cm}t}\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm}&lt;br /&gt;
 \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$ &lt;br /&gt;
'''(5)'''&amp;amp;nbsp;&amp;amp;nbsp; If you apply the result to each individual summand, you finally get:&lt;br /&gt;
 &lt;br /&gt;
:$$P_{\delta}(f) =  \sum_{\mu = - \infty }^{+\infty} \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&amp;lt;div align=&amp;quot;right&amp;quot;&amp;gt;q.e.d.&amp;lt;/div&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The result states:&lt;br /&gt;
*The Dirac comb&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; in the time domain consists of infinitely many Dirac impulses, each at the same distance&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; and all with the same pulse weight&amp;amp;nbsp; $T_{\rm A}$.&lt;br /&gt;
*The Fourier transform of&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; again gives a Dirac comb, but now in the frequency range &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $P_{\delta}(f)$.&lt;br /&gt;
*$P_{\delta}(f)$&amp;amp;nbsp; also consists of infinitely many Dirac pulses, but now in the respective distance&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$&amp;amp;nbsp; and all with momentum weight&amp;amp;nbsp; $1$.&lt;br /&gt;
*The distances of the diraclines in the time and frequency domain representation thus follow the&amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_Laws#Reziprozit.C3.A4tsgesetz_von_Zeitdauer_und_Bandbreite|reciprocity theorem]]: &amp;amp;nbsp; &lt;br /&gt;
:$$T_{\rm A} \cdot f_{\rm A} = 1 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_1_S3.png|right|frame|Dirac Comb in the Time- and Frequency Domain]]&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp; The graph illustrates the above statements for &lt;br /&gt;
*$T_{\rm A} = 50\,{\rm &amp;amp;micro;s}$, &lt;br /&gt;
*$f_{\rm A} = 1/T_{\rm A} = 20\,\text{kHz}$ .&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
One can also see from this sketch the different momentum weights of&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $P_{\delta}(f)$.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Frequency Domain Representation==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The spectrum of the sampled signal&amp;amp;nbsp; $x_{\rm A}(t)$&amp;amp;nbsp; is obtained by applying the&amp;amp;nbsp; [[Signal_Representation/The_Convolution_Theorem_and_Operation#Faltung_im_Frequenzbereich|convolution theorem in the frequency domain]].This states that multiplication in the time domain corresponds to convolution in the spectral domain:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm A}(t) = x(t) \cdot p_{\delta}(t)\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm}&lt;br /&gt;
 X_{\rm A}(f) = X(f) \star P_{\delta}(f)\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
From the spectrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; by convolution with the diracline shifted by&amp;amp;nbsp; $\mu \cdot f_{\rm A}$&amp;amp;nbsp; we get:&lt;br /&gt;
 &lt;br /&gt;
:$$X(f) \star \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )= X (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Applying this result to all diraclines of the Dirac pulse, we finally obtain:&lt;br /&gt;
 &lt;br /&gt;
:$$X_{\rm A}(f) = X(f) \star \sum_{\mu = - \infty }^{+\infty} \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 ) = \sum_{\mu = - \infty }^{+\infty} X (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
 The sampling of the analogue time signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; at equidistant intervals&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; leads in the spectral domain to a&amp;amp;nbsp; '''periodic continuation'''&amp;amp;nbsp; of&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; with frequency spacing of &amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 2:}$&amp;amp;nbsp;&lt;br /&gt;
The upper graph shows&amp;amp;nbsp; (schematically!)&amp;amp;nbsp; the spectrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; of an analogue signal&amp;amp;nbsp; $x(t)$, which includes frequencies up to&amp;amp;nbsp; $5 \text{ kHz}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1122__Sig_T_5_1_S4_neu.png|center|frame|Spectrum of the Sampled Signal]]&lt;br /&gt;
&lt;br /&gt;
Sampling the signal at the sampling rate&amp;amp;nbsp; $f_{\rm A}\,\text{ = 20 kHz}$, i.e. at the respective distance&amp;amp;nbsp; $T_{\rm A}\, = {\rm 50 \, &amp;amp;micro;s}$&amp;amp;nbsp; we obtain the periodic spectrum&amp;amp;nbsp; $X_{\rm A}(f)$ sketched below. &lt;br /&gt;
*Since the Dirac functions are infinitely narrow, the sampled signal&amp;amp;nbsp; $x_{\rm A}(t)$&amp;amp;nbsp; also contains arbitrary high-frequency components. &lt;br /&gt;
*Accordingly, the spectral function&amp;amp;nbsp; $X_{\rm A}(f)$&amp;amp;nbsp; of the sampled signal is extended to infinity.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Signal Reconstruction==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Signal sampling is not an end in itself in a digital transmission system; it must be reversed at some point. Consider, for example, the following system:&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1123__Sig_T_5_1_S5a_neu.png|center|frame|Sampling and Reconstruction of a Signal]]&lt;br /&gt;
&lt;br /&gt;
*The analogue signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; with bandwidth&amp;amp;nbsp; $B_{\rm NF}$&amp;amp;nbsp; is sampled as described above. &lt;br /&gt;
*At the output of an ideal transmission system, the likewise time-discrete signal&amp;amp;nbsp; $y_{\rm A}(t) = x_{\rm A}(t)$&amp;amp;nbsp; is present. &lt;br /&gt;
*The question now is how the block&amp;amp;nbsp; '''signal reconstruction'''&amp;amp;nbsp; is to be designed so that also&amp;amp;nbsp; $y(t) = x(t)$&amp;amp;nbsp; applies.&lt;br /&gt;
&lt;br /&gt;
The solution is relatively simple if one considers the spectral functions: &amp;amp;nbsp; One obtains from&amp;amp;nbsp; $Y_{\rm A}(f)$&amp;amp;nbsp; the spectrum&amp;amp;nbsp; $Y(f) = X(f)$&amp;amp;nbsp; by a low-pass with the&amp;amp;nbsp; [[Linear_and_Time_Invariant_Systems/Systembeschreibung_im_Frequenzbereich#.C3.9Cbertragungsfunktion_-_Frequenzgang|Frequency Response]]&amp;amp;nbsp; $H(f)$, which&amp;amp;nbsp;&lt;br /&gt;
[[File:P_ID1124__Sig_T_5_1_S5b_neu.png|right|frame|Frequency Domain Representation of the Signal Reconstruction Process]]&lt;br /&gt;
*passes the low frequencies unaltered:&lt;br /&gt;
:$$H(f) = 1 \hspace{0.3cm}{\rm{f\ddot{u}r}} \hspace{0.3cm} |f| \le B_{\rm&lt;br /&gt;
  NF}\hspace{0.05cm},$$&lt;br /&gt;
*suppresses the high frequencies completely:&lt;br /&gt;
:$$H(f) = 0 \hspace{0.3cm}{\rm{f\ddot{u}r}} \hspace{0.3cm} |f| \ge f_{\rm A} - B_{\rm&lt;br /&gt;
  NF}\hspace{0.05cm}.$$&lt;br /&gt;
 &lt;br /&gt;
Further it can be seen from the graph that the frequency response&amp;amp;nbsp; $H(f)$&amp;amp;nbsp; in the range of&amp;amp;nbsp; $B_{\rm NF}$&amp;amp;nbsp; to&amp;amp;nbsp; $f_{\rm A}-B_{\rm NF}$&amp;amp;nbsp; can be arbitrarily shaped, &lt;br /&gt;
*for example, linearly sloping (dashed line) &lt;br /&gt;
*or also rectangular, &lt;br /&gt;
&lt;br /&gt;
as long as both of the above conditions are met.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
==The Sampling Theorem==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The complete reconstruction of the analogue signal&amp;amp;nbsp; $y(t)$&amp;amp;nbsp; from the sampled signal&amp;amp;nbsp; $y_{\rm A}(t) = x_{\rm A}(t)$&amp;amp;nbsp; is only possible if the sampling rate&amp;amp;nbsp; $f_{\rm A}$&amp;amp;nbsp; corresponding to the bandwidth&amp;amp;nbsp; $B_{\rm NF}$&amp;amp;nbsp; of the message signal has been chosen correctly. &lt;br /&gt;
&lt;br /&gt;
From the graph of the&amp;amp;nbsp; [[Signal_Representation/Time_Discrete_Signal_Representation#Signalrekonstruktion|last page]]&amp;amp;nbsp;, it can be seen that the following condition must be fulfilled:&lt;br /&gt;
&lt;br /&gt;
:$$f_{\rm A} - B_{\rm   NF} &amp;gt; B_{\rm   NF} \hspace{0.3cm}\Rightarrow \hspace{0.3cm}f_{\rm A} &amp;gt; 2 \cdot  B_{\rm   NF}\hspace{0.05cm}.$$&lt;br /&gt;
 &lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Sampling Theorem:}$&amp;amp;nbsp; If an analogue signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; has spectral components in the range&amp;amp;nbsp; $\vert f \vert &amp;lt; B_{\rm NF}$, it can only be completely reconstructed from its sampled signal if the sampling rate is sufficiently large:&lt;br /&gt;
:$$f_{\rm A} ≥ 2 \cdot B_{\rm NF}.$$ &lt;br /&gt;
&lt;br /&gt;
Accordingly, the following must apply to the distance between two samples:&lt;br /&gt;
 &lt;br /&gt;
:$$T_{\rm A} \le \frac{1}{ 2 \cdot B_{\rm   NF} }\hspace{0.05cm}.$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
If the largest possible value &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $T_{\rm A} = 1/(2B_{\rm NF})$&amp;amp;nbsp; is used for sampling, &lt;br /&gt;
*then, in order to reconstruct the analogue signal from its sampled values,&lt;br /&gt;
*one must use an ideal, rectangular low-pass filter with cut-off frequency&amp;amp;nbsp; $f_{\rm G} = f_{\rm A}/2 = 1/(2T_{\rm A})$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 3:}$&amp;amp;nbsp; The graph above shows the spectrum&amp;amp;nbsp; $\pm\text{ 5 kHz}$&amp;amp;nbsp; of an analogue signal limited to&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; below the spectrum&amp;amp;nbsp; $X_{\rm A}(f)$&amp;amp;nbsp; of the signal sampled at distance&amp;amp;nbsp; $T_{\rm A} =\,\text{ 100 &amp;amp;micro;s}$&amp;amp;nbsp; ⇒ &amp;amp;nbsp; $f_{\rm A}=\,\text{ 10 kHz}$. &lt;br /&gt;
[[File:P_ID1125__Sig_T_5_1_S6_neu.png|right|frame|Sampling Theorem in the Frequency Domain]]&lt;br /&gt;
&amp;lt;br&amp;gt;Additionally drawn is the frequency response&amp;amp;nbsp; $H(f)$&amp;amp;nbsp; of the low-pass filter for signal reconstruction, whose cut-off frequency must be &amp;amp;nbsp; $f_{\rm G} = f_{\rm A}/2 = 5\,\text{ kHz}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*With any other&amp;amp;nbsp; $f_{\rm G}$ value, the result would be&amp;amp;nbsp; $Y(f) \neq X(f)$. &lt;br /&gt;
*For&amp;amp;nbsp; $f_{\rm G} &amp;lt; 5\,\text{ kHz}$&amp;amp;nbsp; the upper&amp;amp;nbsp; $X(f)$ portions are missing.&lt;br /&gt;
* At&amp;amp;nbsp; $f_{\rm G} &amp;gt; 5\,\text{ kHz}$&amp;amp;nbsp; there are unwanted spectral components in&amp;amp;nbsp; $Y(f)$ due to convolution operations.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
If the sampling at the transmitter had been done with a sampling rate&amp;amp;nbsp; $f_{\rm A} &amp;lt; 10\,\text{ kHz}$&amp;amp;nbsp; &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $T_{\rm A} &amp;gt;100 \,{\rm &amp;amp;micro;  s}$, the analogue signal&amp;amp;nbsp; $y(t) = x(t)$&amp;amp;nbsp; would not be reconstructible from the samples&amp;amp;nbsp; $y_{\rm A}(t)$&amp;amp;nbsp; in any case. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Note'': &amp;amp;nbsp;  There is an interactive applet on the topic covered here: &amp;amp;nbsp; [[Applets:Abtastung_periodischer_Signale_und_Signalrekonstruktion_(Applet)|Sampling of Analogue Signals and Signal Reconstruction]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Exercises For the Chapter==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.1: Sampling Theorem|Exercise 5.1: Sampling Theorem]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.1Z: Sampling of Harmonic Oscillations|Exercise 5.1Z: Sampling of Harmonic Oscillations]]&lt;br /&gt;
   &lt;br /&gt;
 &lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Discrete-Time_Signal_Representation&amp;diff=35561</id>
		<title>Signal Representation/Discrete-Time Signal Representation</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Discrete-Time_Signal_Representation&amp;diff=35561"/>
		<updated>2020-12-27T22:41:51Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Time and Frequency-Discrete Signal Representation&lt;br /&gt;
|Vorherige Seite=Equivalent Low Pass Signal and Its Spectral Function&lt;br /&gt;
|Nächste Seite=Discrete Fourier Transform (DFT)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== # OVERVIEW OF THE FIFTH MAIN CHAPTER # ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
A prerequisite for the system-theoretical investigation of digital systems or for their computer simulation is a suitable discrete-time signal description. This chapter clarifies the mathematical transition from time-continuous to time-discrete signals, starting from&amp;amp;nbsp;  [[Signal_Representation/Fourier_Transform_and_Its_Inverse|Fourier Transform and Its Inverse]]&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
The chapter includes in detail:&lt;br /&gt;
*the ''time and frequency domain representation''&amp;amp;nbsp; of discrete-time signals,&lt;br /&gt;
*the ''sampling theorem'', which must be strictly observed in time discretization,&lt;br /&gt;
*the ''reconstruction of the analog signal''&amp;amp;nbsp; from the time-discrete representation,&lt;br /&gt;
*the ''Discrete Fourier Transform''&amp;amp;nbsp; (DFT) and its inverse (IDFT),&lt;br /&gt;
*the ''possibilities of error''&amp;amp;nbsp; when applying DFT and IDFT,&lt;br /&gt;
*the application of ''spectral analysis''&amp;amp;nbsp; to the improvement of metrological procedures, and.&lt;br /&gt;
*the ''FFT algorithm'' particularly suitable for computer implementation.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
For more information on the subject, as well as tasks, simulations, and programming exercises, see&lt;br /&gt;
&lt;br /&gt;
*Chapter 7: &amp;amp;nbsp; &amp;amp;nbsp; ''Discrete Fourier Transform'', program dft,&lt;br /&gt;
*Chapter 8: &amp;amp;nbsp; &amp;amp;nbsp; ''Spectral Analysis'', program stp, and&lt;br /&gt;
*Chapter 12: &amp;amp;nbsp; ''Pulse code modulation'', program pcm&lt;br /&gt;
&lt;br /&gt;
of the laboratory course &amp;amp;bdquo;Simulation Methods in Communications Engineering&amp;amp;rdquo;. This (former) LNT course at the TU Munich is based on&lt;br /&gt;
*the teaching software package&amp;amp;nbsp; [http://en.lntwww.de/downloads/Sonstiges/Programme/LNTsim.zip LNTsim] &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; link refers to the ZIP version of the program, &lt;br /&gt;
*the &amp;amp;nbsp; [http://en.lntwww.de/downloads/Sonstiges/Texte/Praktikum_LNTsim_Teil_A.pdf Lab Instruction - Part A]  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; link refers to the PDF version; Chapter 7: page 119-144, Chapter 8: page 145-164, and&lt;br /&gt;
*the &amp;amp;nbsp; [http://en.lntwww.de/downloads/Sonstiges/Texte/Praktikum_LNTsim_Teil_B.pdf Lab Instruction - Part B]  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; link refers to the PDF version; Chapter 12: page 271-294.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Principle and Motivation==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Many message signals are analog and thus simultaneously&amp;amp;nbsp; [[Signal_Representation/Signal_classification#Zeitkontinuierliche_und_zeitdiskrete_Signale|time-continuous]]&amp;amp;nbsp; and&amp;amp;nbsp; [[Signal_Representation/Signal_classification#Wertkontinuierliche_und_wertdiskrete_Signale|continuous in value]]. If such an analog signal is to be transmitted by means of a digital system, the following preprocessing steps are required:&lt;br /&gt;
*the&amp;amp;nbsp; '''sampling'''&amp;amp;nbsp; of the message signal&amp;amp;nbsp; $x(t)$, which is expediently - but not necessarily - performed at equidistant times &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''time discretization''',&lt;br /&gt;
*the&amp;amp;nbsp; '''quantization'''&amp;amp;nbsp; of the samples, so as to limit the number&amp;amp;nbsp; $M$&amp;amp;nbsp; of possible values to a finite value &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''value discretization'''.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Quantization is not discussed in detail until the chapter&amp;amp;nbsp; [[Modulation_Methods/Pulscodemodulation|Pulse Code Modulation]]&amp;amp;nbsp;of the book &amp;quot;Modulation Methods&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1120__Sig_T_5_1_S1_neu.png|center|frame|On Time Discretization of the Time-Continuous Signal &amp;amp;nbsp; $x(t)$]]&lt;br /&gt;
&lt;br /&gt;
In the following, we use the following nomenclature to describe the sampling:&lt;br /&gt;
*let the continuous-time signal be&amp;amp;nbsp; $x(t)$.&lt;br /&gt;
*Let the time-discretized signal sampled at equidistant intervals&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; be&amp;amp;nbsp; $x_{\rm A}(t)$.&lt;br /&gt;
*outside the sampling time points&amp;amp;nbsp; $\nu \cdot T_{\rm A}$&amp;amp;nbsp; always holds&amp;amp;nbsp; $x_{\rm A}(t) = 0$.&lt;br /&gt;
*The iterating variable&amp;amp;nbsp; $\nu$&amp;amp;nbsp; be&amp;amp;nbsp; [[Signal_Representation/Calculating_With_Complex_Numbers#Reelle_Zahlenmengen|an integer]]:  &amp;amp;nbsp; &amp;amp;nbsp; $\nu \in \mathbb{Z} =  \{\hspace{0.05cm} \text{...}\hspace{0.05cm} , –3, –2, –1, \hspace{0.2cm}0, +1, +2, +3, \text{...} \hspace{0.05cm}\} $.&lt;br /&gt;
*In contrast, at the equidistant sampling times with the constant&amp;amp;nbsp; $K$, the result is:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm A}(\nu \cdot T_{\rm A}) = K \cdot x(\nu \cdot T_{\rm A})\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
The constant depends on the type of time discretization. For the above sketch&amp;amp;nbsp; $K = 1$ holds.&lt;br /&gt;
&lt;br /&gt;
==Time Domain Representation==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Throughout $\rm LNTwww$, the &amp;amp;nbsp; '''sampling''''&amp;amp;nbsp; shall be understood as the multiplication of the time-continuous signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; by the&amp;amp;nbsp; ''Dirac pulse'''&amp;amp;nbsp; $p_{\delta}(t)$:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm A}(t) = x(t) \cdot p_{\delta}(t)\hspace{0.05cm}.$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
AIt should be noted that other forms of description are found in the literature. However, to the authors, the form chosen here appears to be the most appropriate in terms of spectral representation and derivation of the&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)|Discrete Fourier Transform]]&amp;amp;nbsp;  (DFT).&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; The&amp;amp;nbsp; '''Dirac comb (in the time domain)'''&amp;amp;nbsp; consists of infinitely many Dirac pulses, each equally spaced&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; and all with equal pulse weight&amp;amp;nbsp; $T_{\rm A}$:&lt;br /&gt;
 &lt;br /&gt;
:$$p_{\delta}(t) =  \sum_{\nu = - \infty }^{+\infty} T_{\rm A} \cdot&lt;br /&gt;
 \delta(t- \nu \cdot T_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Based on this definition, the sampled signal has the following properties:&lt;br /&gt;
*The sampled signal at the considered time&amp;amp;nbsp; $(\nu \cdot T_{\rm A})$&amp;amp;nbsp; is equal&amp;amp;nbsp; $T_{\rm A} \cdot x(\nu \cdot T_{\rm A}) - \delta (0)$.&lt;br /&gt;
*Since the Dirac function&amp;amp;nbsp; $\delta (t)$&amp;amp;nbsp; is infinite at time&amp;amp;nbsp; $t = 0$&amp;amp;nbsp; actually all signal values&amp;amp;nbsp; $x_{\rm A}(\nu \cdot T_{\rm A})$&amp;amp;nbsp; are also infinite.&lt;br /&gt;
*Thus, the factor&amp;amp;nbsp; $K$&amp;amp;nbsp; introduced on the last page is actually infinite as well.&lt;br /&gt;
*Two samples&amp;amp;nbsp; $x_{\rm A}(\nu_1 \cdot T_{\rm A})$&amp;amp;nbsp; and&amp;amp;nbsp; $x_{\rm A}(\nu_2 \cdot T_{\rm A})$&amp;amp;nbsp; however, differ in the same proportion as the signal values&amp;amp;nbsp; $x(\nu_1 \cdot T_{\rm A})$&amp;amp;nbsp; and&amp;amp;nbsp; $x(\nu_2 \cdot T_{\rm A})$.&lt;br /&gt;
*The samples of&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; appear in the momentum weights of the Dirac functions:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm A}(t) =  \sum_{\nu = - \infty }^{+\infty} T_{\rm A} \cdot x(\nu \cdot T_{\rm A})\cdot&lt;br /&gt;
 \delta (t- \nu \cdot T_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*The additional multiplication by&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; is necessary so that&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $x_{\rm A}(t)$&amp;amp;nbsp; have the same unit. Note here that&amp;amp;nbsp; $\delta (t)$&amp;amp;nbsp; itself has the unit &amp;quot;1/s&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The following pages will show that these equations, which take some getting used to, do lead to reasonable results, if they are applied consistently.&lt;br /&gt;
&lt;br /&gt;
==Dirac Comb in Time and Frequency Domain==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Theorem:}$&amp;amp;nbsp;  Developing the&amp;amp;nbsp; '''Dirac comb''''&amp;amp;nbsp; into a&amp;amp;nbsp; [[Signal_Representation/Fourier_Series|Fourier Series]]&amp;amp;nbsp; and transforming it into the frequency domain using the&amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_Laws#Verschiebungssatz|Shift Theorem]]&amp;amp;nbsp; gives the following correspondence:&lt;br /&gt;
 &lt;br /&gt;
:$$p_{\delta}(t) =  \sum_{\nu = - \infty }^{+\infty} T_{\rm A} \cdot&lt;br /&gt;
 \delta(t- \nu \cdot T_{\rm A}&lt;br /&gt;
 )\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm} P_{\delta}(f) =  \sum_{\mu = - \infty }^{+\infty} \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A} ).$$&lt;br /&gt;
&lt;br /&gt;
Here&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$&amp;amp;nbsp; gives the distance between two adjacent dirac lines in the frequency domain. }}&lt;br /&gt;
 &lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Proof:}$&amp;amp;nbsp; The derivation of the spectral function given here&amp;amp;nbsp; $P_{\delta}(f)$&amp;amp;nbsp; is done in several steps:&lt;br /&gt;
&lt;br /&gt;
'''(1)'''&amp;amp;nbsp;&amp;amp;nbsp; Since&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; is periodic with the constant distance&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; between two dirac lines, the&amp;amp;nbsp; [[[Signal_Representation/Fourier_Series#Komplexe_Fourierreihe|complex Fourier Series]]&amp;amp;nbsp; can be applied:&lt;br /&gt;
 &lt;br /&gt;
:$$p_{\delta}(t) =  \sum_{\mu = - \infty }^{+\infty} D_{\mu} \cdot&lt;br /&gt;
 {\rm e}^{\hspace{0.05cm}{\rm j} \hspace{0.05cm} \cdot 2 \hspace{0.05cm} \pi \hspace{0.05cm}\cdot \hspace{0.05cm}\mu \hspace{0.05cm}\cdot \hspace{0.05cm}t/T_{\rm A} }&lt;br /&gt;
 \hspace{0.3cm}{\rm mit}\hspace{0.3cm}&lt;br /&gt;
 D_{\mu} = \frac{1}{T_{\rm A} } \cdot \int_{-T_{\rm A}/2&lt;br /&gt;
 }^{+T_{\rm A}/2}p_{\delta}(t) \cdot {\rm e}^{- {\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm}\mu \hspace{0.05cm}&lt;br /&gt;
 \cdot \hspace{0.05cm}t/T_{\rm A} }\hspace{0.1cm} {\rm d}t\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
'''(2)'''&amp;amp;nbsp;&amp;amp;nbsp; In the range from&amp;amp;nbsp; $-T_{\rm A}/2$&amp;amp;nbsp; to&amp;amp;nbsp; $+T_{\rm A}/2$&amp;amp;nbsp; holds for the Dirac comb in the time domain: &amp;amp;nbsp; $p_{\delta}(t) = T_{\rm A} \cdot \delta(t)$. Thus one can write for the complex Fourier coefficients: &amp;amp;nbsp; &lt;br /&gt;
:$$D_{\mu} = \int_{-T_{\rm A}/2&lt;br /&gt;
 }^{+T_{\rm A}/2}{\delta}(t) \cdot {\rm e}^{- {\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm}\mu \hspace{0.05cm}&lt;br /&gt;
 \cdot \hspace{0.05cm}t/T_{\rm A} }\hspace{0.1cm} {\rm d}t\hspace{0.05cm}.$$ &lt;br /&gt;
'''(3)'''&amp;amp;nbsp;&amp;amp;nbsp; Considering that for&amp;amp;nbsp; $t \neq 0$&amp;amp;nbsp; the Dirac momentum is zero and for&amp;amp;nbsp; $t = 0$&amp;amp;nbsp; the complex angular factor is equal to&amp;amp;nbsp; $1$, it holds further:&lt;br /&gt;
:$$D_{\mu} = \int_{- T_{\rm A}/2&lt;br /&gt;
 }^{+T_{\rm A}/2}{\delta}(t) \hspace{0.1cm} {\rm d}t = 1\hspace{0.5cm}{\Rightarrow}\hspace{0.5cm}&lt;br /&gt;
p_{\delta}(t) =  \sum_{\mu = - \infty }^{+\infty} {\rm e}^{ {\rm j} \hspace{0.05cm}&lt;br /&gt;
 \cdot 2 \hspace{0.05cm} \pi \cdot \hspace{0.05cm}\mu \hspace{0.05cm}\cdot \hspace{0.05cm}t/T_{\rm A} }\hspace{0.05cm}.&lt;br /&gt;
 $$&lt;br /&gt;
'''(4)'''&amp;amp;nbsp;&amp;amp;nbsp; The &amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_Laws#Verschiebungssatz|shifting theorem in the frequency domain]]&amp;amp;nbsp; is &amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$:&lt;br /&gt;
:$${\rm e}^{ {\rm j} \hspace{0.05cm}&lt;br /&gt;
\hspace{0.05cm} \cdot 2 \hspace{0.05cm} \pi \hspace{0.05cm}\cdot \hspace{0.05cm}\mu \hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
 f_{\rm A}\hspace{0.05cm}\cdot \hspace{0.05cm}t}\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm}&lt;br /&gt;
 \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$ &lt;br /&gt;
'''(5)'''&amp;amp;nbsp;&amp;amp;nbsp; If you apply the result to each individual summand, you finally get:&lt;br /&gt;
 &lt;br /&gt;
:$$P_{\delta}(f) =  \sum_{\mu = - \infty }^{+\infty} \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&amp;lt;div align=&amp;quot;right&amp;quot;&amp;gt;q.e.d.&amp;lt;/div&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The result states:&lt;br /&gt;
*The Dirac comb&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; in the time domain consists of infinitely many Dirac impulses, each at the same distance&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; and all with the same pulse weight&amp;amp;nbsp; $T_{\rm A}$.&lt;br /&gt;
*The Fourier transform of&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; again gives a Dirac comb, but now in the frequency range &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $P_{\delta}(f)$.&lt;br /&gt;
*$P_{\delta}(f)$&amp;amp;nbsp; also consists of infinitely many Dirac pulses, but now in the respective distance&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$&amp;amp;nbsp; and all with momentum weight&amp;amp;nbsp; $1$.&lt;br /&gt;
*The distances of the diraclines in the time and frequency domain representation thus follow the&amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_Laws#Reziprozit.C3.A4tsgesetz_von_Zeitdauer_und_Bandbreite|reciprocity theorem]]: &amp;amp;nbsp; &lt;br /&gt;
:$$T_{\rm A} \cdot f_{\rm A} = 1 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_1_S3.png|right|frame|Dirac Comb in the Time- and Frequency Domain]]&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp; The graph illustrates the above statements for &lt;br /&gt;
*$T_{\rm A} = 50\,{\rm &amp;amp;micro;s}$, &lt;br /&gt;
*$f_{\rm A} = 1/T_{\rm A} = 20\,\text{kHz}$ .&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
One can also see from this sketch the different momentum weights of&amp;amp;nbsp; $p_{\delta}(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $P_{\delta}(f)$.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Frequency Domain Representation==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The spectrum of the sampled signal&amp;amp;nbsp; $x_{\rm A}(t)$&amp;amp;nbsp; is obtained by applying the&amp;amp;nbsp; [[Signal_Representation/The_Convolution_Theorem_and_Operation#Faltung_im_Frequenzbereich|convolution theorem in the frequency domain]].This states that multiplication in the time domain corresponds to convolution in the spectral domain:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm A}(t) = x(t) \cdot p_{\delta}(t)\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm}&lt;br /&gt;
 X_{\rm A}(f) = X(f) \star P_{\delta}(f)\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
From the spectrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; by convolution with the diracline shifted by&amp;amp;nbsp; $\mu \cdot f_{\rm A}$&amp;amp;nbsp; we get:&lt;br /&gt;
 &lt;br /&gt;
:$$X(f) \star \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )= X (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Applying this result to all diraclines of the Dirac pulse, we finally obtain:&lt;br /&gt;
 &lt;br /&gt;
:$$X_{\rm A}(f) = X(f) \star \sum_{\mu = - \infty }^{+\infty} \delta&lt;br /&gt;
 (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 ) = \sum_{\mu = - \infty }^{+\infty} X (f- \mu \cdot f_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
 The sampling of the analogue time signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; at equidistant intervals&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; leads in the spectral domain to a&amp;amp;nbsp; '''periodic continuation'''&amp;amp;nbsp; of&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; with frequency spacing of &amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 2:}$&amp;amp;nbsp;&lt;br /&gt;
The upper graph shows&amp;amp;nbsp; (schematically!)&amp;amp;nbsp; the spectrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; of an analogue signal&amp;amp;nbsp; $x(t)$, which includes frequencies up to&amp;amp;nbsp; $5 \text{ kHz}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1122__Sig_T_5_1_S4_neu.png|center|frame|Spectrum of the Sampled Signal]]&lt;br /&gt;
&lt;br /&gt;
Sampling the signal at the sampling rate&amp;amp;nbsp; $f_{\rm A}\,\text{ = 20 kHz}$, i.e. at the respective distance&amp;amp;nbsp; $T_{\rm A}\, = {\rm 50 \, &amp;amp;micro;s}$&amp;amp;nbsp; we obtain the periodic spectrum&amp;amp;nbsp; $X_{\rm A}(f)$ sketched below. &lt;br /&gt;
*Since the Dirac functions are infinitely narrow, the sampled signal&amp;amp;nbsp; $x_{\rm A}(t)$&amp;amp;nbsp; also contains arbitrary high-frequency components. &lt;br /&gt;
*Accordingly, the spectral function&amp;amp;nbsp; $X_{\rm A}(f)$&amp;amp;nbsp; of the sampled signal is extended to infinity.}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Signal Reconstruction==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Signal sampling is not an end in itself in a digital transmission system; it must be reversed at some point. Consider, for example, the following system:&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1123__Sig_T_5_1_S5a_neu.png|center|frame|Sampling and Reconstruction of a Signal]]&lt;br /&gt;
&lt;br /&gt;
*The analogue signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; with bandwidth&amp;amp;nbsp; $B_{\rm NF}$&amp;amp;nbsp; is sampled as described above. &lt;br /&gt;
*At the output of an ideal transmission system, the likewise time-discrete signal&amp;amp;nbsp; $y_{\rm A}(t) = x_{\rm A}(t)$&amp;amp;nbsp; is present. &lt;br /&gt;
*The question now is how the block&amp;amp;nbsp; '''signal reconstruction'''&amp;amp;nbsp; is to be designed so that also&amp;amp;nbsp; $y(t) = x(t)$&amp;amp;nbsp; applies.&lt;br /&gt;
&lt;br /&gt;
The solution is relatively simple if one considers the spectral functions: &amp;amp;nbsp; One obtains from&amp;amp;nbsp; $Y_{\rm A}(f)$&amp;amp;nbsp; the spectrum&amp;amp;nbsp; $Y(f) = X(f)$&amp;amp;nbsp; by a low-pass with the&amp;amp;nbsp; [[Linear_and_Time_Invariant_Systems/Systembeschreibung_im_Frequenzbereich#.C3.9Cbertragungsfunktion_-_Frequenzgang|Frequency Response]]&amp;amp;nbsp; $H(f)$, which&amp;amp;nbsp;&lt;br /&gt;
[[File:P_ID1124__Sig_T_5_1_S5b_neu.png|right|frame|Frequency Domain Representation of the Signal Reconstruction Process]]&lt;br /&gt;
*passes the low frequencies unaltered:&lt;br /&gt;
:$$H(f) = 1 \hspace{0.3cm}{\rm{f\ddot{u}r}} \hspace{0.3cm} |f| \le B_{\rm&lt;br /&gt;
  NF}\hspace{0.05cm},$$&lt;br /&gt;
*suppresses the high frequencies completely:&lt;br /&gt;
:$$H(f) = 0 \hspace{0.3cm}{\rm{f\ddot{u}r}} \hspace{0.3cm} |f| \ge f_{\rm A} - B_{\rm&lt;br /&gt;
  NF}\hspace{0.05cm}.$$&lt;br /&gt;
 &lt;br /&gt;
Further it can be seen from the graph that the frequency response&amp;amp;nbsp; $H(f)$&amp;amp;nbsp; in the range of&amp;amp;nbsp; $B_{\rm NF}$&amp;amp;nbsp; to&amp;amp;nbsp; $f_{\rm A}-B_{\rm NF}$&amp;amp;nbsp; can be arbitrarily shaped, &lt;br /&gt;
*for example, linearly sloping (dashed line) &lt;br /&gt;
*or also rectangular, &lt;br /&gt;
&lt;br /&gt;
as long as both of the above conditions are met.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
==The Sampling Theorem==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The complete reconstruction of the analogue signal&amp;amp;nbsp; $y(t)$&amp;amp;nbsp; from the sampled signal&amp;amp;nbsp; $y_{\rm A}(t) = x_{\rm A}(t)$&amp;amp;nbsp; is only possible if the sampling rate&amp;amp;nbsp; $f_{\rm A}$&amp;amp;nbsp; corresponding to the bandwidth&amp;amp;nbsp; $B_{\rm NF}$&amp;amp;nbsp; of the message signal has been chosen correctly. &lt;br /&gt;
&lt;br /&gt;
From the graph of the&amp;amp;nbsp; [[Signal_Representation/Time_Discrete_Signal_Representation#Signalrekonstruktion|last page]]&amp;amp;nbsp;, it can be seen that the following condition must be fulfilled:&lt;br /&gt;
&lt;br /&gt;
:$$f_{\rm A} - B_{\rm   NF} &amp;gt; B_{\rm   NF} \hspace{0.3cm}\Rightarrow \hspace{0.3cm}f_{\rm A} &amp;gt; 2 \cdot  B_{\rm   NF}\hspace{0.05cm}.$$&lt;br /&gt;
 &lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Sampling Theorem:}$&amp;amp;nbsp; If an analogue signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; has spectral components in the range&amp;amp;nbsp; $\vert f \vert &amp;lt; B_{\rm NF}$, it can only be completely reconstructed from its sampled signal if the sampling rate is sufficiently large:&lt;br /&gt;
:$$f_{\rm A} ≥ 2 \cdot B_{\rm NF}.$$ &lt;br /&gt;
&lt;br /&gt;
Accordingly, the following must apply to the distance between two samples:&lt;br /&gt;
 &lt;br /&gt;
:$$T_{\rm A} \le \frac{1}{ 2 \cdot B_{\rm   NF} }\hspace{0.05cm}.$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
If the largest possible value &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $T_{\rm A} = 1/(2B_{\rm NF})$&amp;amp;nbsp; is used for sampling, &lt;br /&gt;
*then, in order to reconstruct the analogue signal from its sampled values,&lt;br /&gt;
*one must use an ideal, rectangular low-pass filter with cut-off frequency&amp;amp;nbsp; $f_{\rm G} = f_{\rm A}/2 = 1/(2T_{\rm A})$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Example 3:}$&amp;amp;nbsp; The graph above shows the spectrum&amp;amp;nbsp; $\pm\text{ 5 kHz}$&amp;amp;nbsp; of an analogue signal limited to&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; below the spectrum&amp;amp;nbsp; $X_{\rm A}(f)$&amp;amp;nbsp; of the signal sampled at distance&amp;amp;nbsp; $T_{\rm A} =\,\text{ 100 &amp;amp;micro;s}$&amp;amp;nbsp; ⇒ &amp;amp;nbsp; $f_{\rm A}=\,\text{ 10 kHz}$. &lt;br /&gt;
[[File:P_ID1125__Sig_T_5_1_S6_neu.png|right|frame|Sampling Theorem in the Frequency Domain]]&lt;br /&gt;
&amp;lt;br&amp;gt;Additionally drawn is the frequency response&amp;amp;nbsp; $H(f)$&amp;amp;nbsp; of the low-pass filter for signal reconstruction, whose cut-off frequency must be &amp;amp;nbsp; $f_{\rm G} = f_{\rm A}/2 = 5\,\text{ kHz}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*With any other&amp;amp;nbsp; $f_{\rm G}$ value, the result would be&amp;amp;nbsp; $Y(f) \neq X(f)$. &lt;br /&gt;
*For&amp;amp;nbsp; $f_{\rm G} &amp;lt; 5\,\text{ kHz}$&amp;amp;nbsp; the upper&amp;amp;nbsp; $X(f)$ portions are missing.&lt;br /&gt;
* At&amp;amp;nbsp; $f_{\rm G} &amp;gt; 5\,\text{ kHz}$&amp;amp;nbsp; there are unwanted spectral components in&amp;amp;nbsp; $Y(f)$ due to convolution operations.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
If the sampling at the transmitter had been done with a sampling rate&amp;amp;nbsp; $f_{\rm A} &amp;lt; 10\,\text{ kHz}$&amp;amp;nbsp; &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $T_{\rm A} &amp;gt;100 \,{\rm &amp;amp;micro;  s}$, the analogue signal&amp;amp;nbsp; $y(t) = x(t)$&amp;amp;nbsp; would not be reconstructible from the samples&amp;amp;nbsp; $y_{\rm A}(t)$&amp;amp;nbsp; in any case. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Note'': &amp;amp;nbsp;  There is an interactive applet on the topic covered here: &amp;amp;nbsp; [[Applets:Abtastung_periodischer_Signale_und_Signalrekonstruktion_(Applet)|Sampling of Analogue Signals and Signal Reconstruction]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Exercises For the Chapter==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.1: Sampling Theorem|Exercise 5.1: Sampling Theorem]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.1Z: Sampling of Harmonic Oscillations|Exercise 5.1Z: Sampling of Harmonic Oscillations]]&lt;br /&gt;
   &lt;br /&gt;
 &lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Information_Theory/Discrete_Memoryless_Sources&amp;diff=35341</id>
		<title>Information Theory/Discrete Memoryless Sources</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Information_Theory/Discrete_Memoryless_Sources&amp;diff=35341"/>
		<updated>2020-12-04T22:04:55Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{FirstPage}}&lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Entropie wertdiskreter Nachrichtenquellen&lt;br /&gt;
|Vorherige Seite=&lt;br /&gt;
|Nächste Seite=Nachrichtenquellen mit Gedächtnis&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== # OVERVIEW OF THE FIRST MAIN CHAPTER # ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
This first chapter describes the calculation and the meaning of entropy.&amp;amp;nbsp; According to the Shannonian information definition, entropy is a measure of the mean uncertainty about the outcome of a statistical event or the uncertainty in the measurement of a stochastic quantity.&amp;amp;nbsp; Somewhat casually expressed, the entropy of a random quantity quantifies its &amp;quot;randomness&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
In detail are discussed:&lt;br /&gt;
&lt;br /&gt;
*the ''decision content''&amp;amp;nbsp; and the ''entropy''&amp;amp;nbsp; of a memoryless news source,&lt;br /&gt;
*the ''binary entropy function''&amp;amp;nbsp; and its application to ''non-binary sources'',&lt;br /&gt;
*the entropy calculation for ''memory sources''&amp;amp;nbsp; and suitable approximations,&lt;br /&gt;
*the peculiarities of ''Markov sources''&amp;amp;nbsp; regarding the entropy calculation,&lt;br /&gt;
*the procedure for sources with a large number of symbols, for example ''natural texts'',&lt;br /&gt;
*the ''entropy estimates''&amp;amp;nbsp; according to Shannon and Küpfmüller.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Further information on the topic as well as Exercises, simulations and programming exercises can be found in the experiment &amp;quot;Value Discrete Information Theory&amp;quot; of the practical course &amp;quot;Simulation Digitaler Übertragungssysteme&amp;quot; (english: Simulation of Digital Transmission Systems).&amp;amp;nbsp; This (former) LNT course at the TU Munich is based on&lt;br /&gt;
&lt;br /&gt;
*the Windows program&amp;amp;nbsp; [http://en.lntwww.de/downloads/Sonstiges/Programme/WDIT.zip WDIT] &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; the link points to the ZIP version of the program and &lt;br /&gt;
*the associated&amp;amp;nbsp; [http://en.lntwww.de/downloads/Sonstiges/Texte/Wertdiskrete_Informationstheorie.pdf Internship guide]  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; the link refers to the PDF version.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Model and requirements == &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
We consider a value discrete message source&amp;amp;nbsp; $\rm Q$, which gives a sequence&amp;amp;nbsp; $ \langle q_ν \rangle$&amp;amp;nbsp; of symbols. &lt;br /&gt;
*For the run variable &amp;amp;nbsp;$ν = 1$, ... , $N$, where&amp;amp;nbsp; $N$&amp;amp;nbsp; should be &amp;quot;sufficiently large&amp;quot;. &lt;br /&gt;
*Each individual source symbol &amp;amp;nbsp;$q_ν$&amp;amp;nbsp; comes from a symbol set&amp;amp;nbsp; $\{q_μ \}$&amp;amp;nbsp; where&amp;amp;nbsp; $μ = 1$, ... , $M$, where&amp;amp;nbsp; $M$&amp;amp;nbsp; denotes the symbol range:&lt;br /&gt;
 &lt;br /&gt;
:$$q_{\nu} \in \left \{ q_{\mu}  \right \}, \hspace{0.25cm}{\rm with}\hspace{0.25cm} \nu = 1, \hspace{0.05cm} \text{ ...}\hspace{0.05cm} , N\hspace{0.25cm}{\rm and}\hspace{0.25cm}\mu = 1,\hspace{0.05cm} \text{ ...}\hspace{0.05cm} , M \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
The figure shows a quaternary message source&amp;amp;nbsp; $(M = 4)$&amp;amp;nbsp; with the alphabet&amp;amp;nbsp; $\rm \{A, \ B, \ C, \ D\}$&amp;amp;nbsp; and an exemplary sequence of length&amp;amp;nbsp; $N = 100$.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2227_Inf_T_1_1_S1a_neu.png|frame|Memoryless Quaternary Message Source]]&lt;br /&gt;
&lt;br /&gt;
The following requirements apply:&lt;br /&gt;
*The quaternary news source is fully described by&amp;amp;nbsp; $M = 4$&amp;amp;nbsp; symbol probabilities&amp;amp;nbsp; $p_μ$.&amp;amp;nbsp; In general it applies:&lt;br /&gt;
:$$\sum_{\mu = 1}^M \hspace{0.1cm}p_{\mu} = 1 \hspace{0.05cm}.$$&lt;br /&gt;
*The message source is memoryless, i.e., the individual sequence elements are&amp;amp;nbsp; [[Theory_of_Stochastic_Signals/Statistical Dependence and Independence#General_definition_of_statistical_dependence|statistically independent of each other]]:&lt;br /&gt;
:$${\rm Pr} \left (q_{\nu} = q_{\mu} \right ) = {\rm Pr} \left (q_{\nu} = q_{\mu} \hspace{0.03cm} | \hspace{0.03cm} q_{\nu -1}, q_{\nu -2}, \hspace{0.05cm} \text{ ...}\hspace{0.05cm}\right ) \hspace{0.05cm}.$$&lt;br /&gt;
*Since the alphabet consists of symbols&amp;amp;nbsp; (and not of random variables)&amp;amp;nbsp;, the specification of&amp;amp;nbsp; [[Theory_of_Stochastic_Signals/Expected_Values_and_Moments|expected values]]&amp;amp;nbsp; (linear mean, quadratic mean, dispersion, etc.) is not possible here, but also not necessary from an information-theoretical point of view.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
These properties will now be illustrated with an example.&lt;br /&gt;
&lt;br /&gt;
[[File:Inf_T_1_1_S1b_vers2.png|right|frame|Relative frequencies as a function of&amp;amp;nbsp; $N$]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp;&lt;br /&gt;
For the symbol probabilities of a quaternary source applies: &lt;br /&gt;
:$$p_{\rm A} = 0.4 \hspace{0.05cm},\hspace{0.2cm}p_{\rm B} = 0.3 \hspace{0.05cm},\hspace{0.2cm}p_{\rm C} = 0.2 \hspace{0.05cm},\hspace{0.2cm} &lt;br /&gt;
p_{\rm D} = 0.1\hspace{0.05cm}.$$&lt;br /&gt;
For an infinitely long sequence&amp;amp;nbsp; $(N \to \infty)$ &lt;br /&gt;
*the&amp;amp;nbsp; [[Theory_of_Stochastic_Signals/From_Random_Experiment_to_Random_Variable#Bernoulli's_Law_of_Large_Numbers|relative frequencies]]&amp;amp;nbsp; $h_{\rm A}$,&amp;amp;nbsp; $h_{\rm B}$,&amp;amp;nbsp; $h_{\rm C}$,&amp;amp;nbsp; $h_{\rm D}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; a-posteriori parameters &lt;br /&gt;
*were identical to the&amp;amp;nbsp; [[Theory_of_Stochastic_Signals/Some_Basic_Definitions#Event_and_Event_set|probabilities]]&amp;amp;nbsp; $p_{\rm A}$,&amp;amp;nbsp; $p_{\rm B}$,&amp;amp;nbsp; $p_{\rm C}$,&amp;amp;nbsp; $p_{\rm D}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; a-priori parameters. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
With smaller&amp;amp;nbsp; $N$&amp;amp;nbsp; deviations may occur, as the adjacent table (result of a simulation) shows. &lt;br /&gt;
&lt;br /&gt;
*In the graphic above an exemplary sequence is shown with&amp;amp;nbsp; $N = 100$&amp;amp;nbsp; symbols. &lt;br /&gt;
*Due to the set elements&amp;amp;nbsp; $\rm A$,&amp;amp;nbsp; $\rm B$,&amp;amp;nbsp; $\rm C$&amp;amp;nbsp; and&amp;amp;nbsp; $\rm D$&amp;amp;nbsp; no mean values can be given. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
However, if you replace the symbols with numerical values, for example&amp;amp;nbsp; $\rm A \Rightarrow 1$, &amp;amp;nbsp; $\rm B \Rightarrow 2$, &amp;amp;nbsp; $\rm C \Rightarrow 3$, &amp;amp;nbsp; $\rm D \Rightarrow 4$, then you will get &amp;lt;br&amp;gt; &amp;amp;nbsp; &amp;amp;nbsp; time averaging &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; crossing line &amp;amp;nbsp; &amp;amp;nbsp; or &amp;amp;nbsp; &amp;amp;nbsp; ensemble averaging &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; expected value formation&lt;br /&gt;
*for the [[Theory_of_Stochastic_Signals/Moments of a Discrete Random Variable#Linear_Average_-_Direct_Component|linear average]] :&lt;br /&gt;
:$$m_1 = \overline { q_{\nu} } = {\rm E} \big [ q_{\mu} \big ] = 0.4 \cdot 1 + 0.3 \cdot 2 + 0.2 \cdot 3 + 0.1 \cdot 4&lt;br /&gt;
= 2 \hspace{0.05cm},$$ &lt;br /&gt;
*for the [[Theory_of_Stochastic_Signals/Moments of a Discrete Random Variable#Square_mean_.E2.80.93_Variance_.E2.80.93_Scattering |square mean]]:&lt;br /&gt;
:$$m_2 = \overline { q_{\nu}^{\hspace{0.05cm}2}  } = {\rm E} \big [ q_{\mu}^{\hspace{0.05cm}2} \big ] = 0.4 \cdot 1^2 + 0.3 \cdot 2^2 + 0.2 \cdot 3^2 + 0.1 \cdot 4^2&lt;br /&gt;
= 5 \hspace{0.05cm},$$&lt;br /&gt;
*for the [[Theory_of_Stochastic_Signals/Expected_Values_and_Moments#Some_often_used_Central_Moments|standard deviation]] (scattering) according to the &amp;quot;Theorem of Steiner&amp;quot;:&lt;br /&gt;
:$$\sigma = \sqrt {m_2 - m_1^2} = \sqrt {5 - 2^2} = 1 \hspace{0.05cm}.$$}}	&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
&lt;br /&gt;
==Decision content - Message content==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[https://de.wikipedia.org/wiki/Claude_Shannon Claude Elwood Shannon]&amp;amp;nbsp; defined in 1948 in the standard work of information theory&amp;amp;nbsp; [Sha48]&amp;lt;ref name='Sha48'&amp;gt;Shannon, C.E.: A Mathematical Theory of Communication. In: Bell Syst. Techn. J. 27 (1948), pp. 379-423 and pp. 623-656.&amp;lt;/ref&amp;gt;&amp;amp;nbsp; the concept of information as &amp;quot;decrease of uncertainty about the occurrence of a statistical event&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Let us make a mental experiment with&amp;amp;nbsp; $M$&amp;amp;nbsp; possible results, which are all equally probable: &amp;amp;nbsp; $p_1 = p_2 = \hspace{0.05cm} \text{ ...}\hspace{0.05cm} = p_M = 1/M \hspace{0.05cm}.$ &lt;br /&gt;
&lt;br /&gt;
Under this assumption applies:&lt;br /&gt;
*Is&amp;amp;nbsp; $M = 1$, then each individual attempt will yield the same result and therefore there is no uncertainty about the output.&lt;br /&gt;
*On the other hand, an observer learns about an experiment with&amp;amp;nbsp; $M = 2$, for example the &amp;quot;coin toss&amp;quot; with the set of events&amp;amp;nbsp; $\big \{\rm \boldsymbol{\rm Z}, \rm \boldsymbol{\rm W} \big \}$&amp;amp;nbsp; and the probabilities&amp;amp;nbsp; $p_{\rm Z} = p_{\rm W} = 0. 5$, a gain in information; The uncertainty regarding&amp;amp;nbsp; $\rm Z$ &amp;amp;nbsp;resp.&amp;amp;nbsp; $\rm W$&amp;amp;nbsp; is resolved.&lt;br /&gt;
*In the experiment &amp;quot;dice&amp;quot;&amp;amp;nbsp; $(M = 6)$&amp;amp;nbsp; and even more in roulette&amp;amp;nbsp; $(M = 37)$&amp;amp;nbsp; the gained information is even more significant for the observer than in the &amp;quot;coin toss&amp;quot; when he learns which number was thrown or which ball fell.&lt;br /&gt;
*Finally it should be considered that the experiment&amp;amp;nbsp; &amp;quot;triple coin toss&amp;quot;&amp;amp;nbsp; with the&amp;amp;nbsp; $M = 8$&amp;amp;nbsp; possible results&amp;amp;nbsp; $\rm ZZZ$,&amp;amp;nbsp; $\rm ZZW$,&amp;amp;nbsp; $\rm ZWZ$,&amp;amp;nbsp; $\rm ZWW$,&amp;amp;nbsp; $\rm WZZ$,&amp;amp;nbsp; $\rm WZW$,&amp;amp;nbsp; $\rm WWZ$,&amp;amp;nbsp; $\rm WWW$&amp;amp;nbsp; provides three times the information as the single coin toss&amp;amp;nbsp; $(M = 2)$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The following definition fulfills all the requirements listed here for a quantitative information measure for equally probable events, indicated only by the symbol range&amp;amp;nbsp; $M$.&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; The&amp;amp;nbsp; '''decision content''' &amp;amp;nbsp; of a message source depends only on the symbol range&amp;amp;nbsp; $M$&amp;amp;nbsp; and results in&lt;br /&gt;
 &lt;br /&gt;
:$$H_0 = {\rm log}\hspace{0.1cm}M = {\rm log}_2\hspace{0.1cm}M \hspace{0.15cm} {\rm (in \ 	&amp;amp;#8220;bit&amp;quot;)}&lt;br /&gt;
= {\rm ln}\hspace{0.1cm}M \hspace{0.15cm}\text {(in 	&amp;amp;#8220;nat&amp;quot;)}&lt;br /&gt;
= {\rm lg}\hspace{0.1cm}M \hspace{0.15cm}\text {(in 	&amp;amp;#8220;Hartley&amp;quot;)}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*The term&amp;amp;nbsp; ''message content'' is also commonly used for this. &lt;br /&gt;
*Since&amp;amp;nbsp; $H_0$&amp;amp;nbsp; indicates the maximum value of the&amp;amp;nbsp; [[Information_Theory/Sources with Memory#Information_Content_and_Entropy|Entropy]]&amp;amp;nbsp; $H$&amp;amp;nbsp;, $H_\text{max}$&amp;amp;nbsp; is also used in our tutorial as short notation&amp;amp;nbsp;. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Please note our nomenclature:&lt;br /&gt;
*The logarithm will be called &amp;quot;log&amp;quot; in the following, independent of the base. &lt;br /&gt;
*The relations mentioned above are fulfilled due to the following properties:&lt;br /&gt;
 &lt;br /&gt;
:$${\rm log}\hspace{0.1cm}1 = 0 \hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
{\rm log}\hspace{0.1cm}37 &amp;gt; {\rm log}\hspace{0.1cm}6 &amp;gt; {\rm log}\hspace{0.1cm}2\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
{\rm log}\hspace{0.1cm}M^k = k \cdot {\rm log}\hspace{0.1cm}M \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
* Usually we use the logarithm to the base&amp;amp;nbsp; $2$ &amp;amp;nbsp; ⇒ &amp;amp;nbsp; ''Logarithm dualis''&amp;amp;nbsp; $\rm (ld)$, where the pseudo unit &amp;quot;bit&amp;quot;, more precisely:&amp;amp;nbsp; &amp;quot;bit/symbol&amp;quot;, is then added:&lt;br /&gt;
 &lt;br /&gt;
:$${\rm ld}\hspace{0.1cm}M = {\rm log_2}\hspace{0.1cm}M = \frac{{\rm lg}\hspace{0.1cm}M}{{\rm lg}\hspace{0.1cm}2}&lt;br /&gt;
= \frac{{\rm ln}\hspace{0.1cm}M}{{\rm ln}\hspace{0.1cm}2} &lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*In addition, you can find in the literature some additional definitions, which are based on the natural logarithm&amp;amp;nbsp; $\rm (ln)$&amp;amp;nbsp; or the logarithm&amp;amp;nbsp; $\rm (lg)$&amp;amp;nbsp;.&lt;br /&gt;
 &lt;br /&gt;
==Information content and entropy ==	&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
We now waive the previous requirement that all&amp;amp;nbsp; $M$&amp;amp;nbsp; possible results of an experiment are equally probable.&amp;amp;nbsp; In order to keep the spelling as compact as possible, we define for this page only:&lt;br /&gt;
 &lt;br /&gt;
:$$p_1 &amp;gt; p_2 &amp;gt; \hspace{0.05cm} \text{ ...}\hspace{0.05cm} &amp;gt; p_\mu &amp;gt; \hspace{0.05cm} \text{ ...}\hspace{0.05cm} &amp;gt; p_{M-1} &amp;gt; p_M\hspace{0.05cm},\hspace{0.4cm}\sum_{\mu = 1}^M p_{\mu} = 1 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
We now consider the ''information content''&amp;amp;nbsp; of the individual symbols, where we denote the &amp;quot;logarithm dualis&amp;quot; with $\log_2$:&lt;br /&gt;
 &lt;br /&gt;
:$$I_\mu = {\rm log_2}\hspace{0.1cm}\frac{1}{p_\mu}= -\hspace{0.05cm}{\rm log_2}\hspace{0.1cm}{p_\mu}&lt;br /&gt;
\hspace{0.5cm}{\rm (unit\hspace{-0.15cm}: \hspace{0.15cm}bit\hspace{0.15cm}or\hspace{0.15cm}bit/Symbol)}&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
You can see:&lt;br /&gt;
*because of&amp;amp;nbsp; $p_μ ≤ 1$&amp;amp;nbsp; the information content is never negative.&amp;amp;nbsp; In the borderline case&amp;amp;nbsp; $p_μ \to 1$&amp;amp;nbsp; goes&amp;amp;nbsp; $I_μ \to 0$. &lt;br /&gt;
*However for&amp;amp;nbsp; $I_μ = 0$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; $p_μ = 1$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; $M = 1$&amp;amp;nbsp; the decision content is also&amp;amp;nbsp; $H_0 = 0$.&lt;br /&gt;
*For decreasing probabilities&amp;amp;nbsp; $p_μ$&amp;amp;nbsp; the information content increases continuously:&lt;br /&gt;
 &lt;br /&gt;
:$$I_1 &amp;lt; I_2 &amp;lt; \hspace{0.05cm} \text{ ...}\hspace{0.05cm} &amp;lt; I_\mu &amp;lt;\hspace{0.05cm} \text{ ...}\hspace{0.05cm} &amp;lt; I_{M-1} &amp;lt; I_M \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp; '''The more improbable an event is, the greater is its information content'''.&amp;amp;nbsp; This fact is also found in daily life:&lt;br /&gt;
*&amp;quot;6 right ones&amp;quot; in the lottery are more likely to be noticed than &amp;quot;3 right ones&amp;quot; or no win at all.&lt;br /&gt;
*A tsunami in Asia also dominates the news in Germany for weeks as opposed to the almost standard Deutsche Bahn delays.&lt;br /&gt;
*A series of defeats of Bayern Munich leads to huge headlines in contrast to a winning series.&amp;amp;nbsp; With 1860 Munich exactly the opposite is the case.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
However, the information content of a single symbol (or event) is not very interesting.&amp;amp;nbsp; On the other hand &lt;br /&gt;
*by ensemble averaging over all possible symbols&amp;amp;nbsp; $q_μ$ &amp;amp;nbsp;bzw.&amp;amp;nbsp; &lt;br /&gt;
*by time averaging over all elements of the sequence&amp;amp;nbsp; $\langle q_ν \rangle$&lt;br /&gt;
&lt;br /&gt;
one of the central variables of information theory. &lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; The&amp;amp;nbsp; '''Entropy'''&amp;amp;nbsp; $H$&amp;amp;nbsp; of a source indicates the ''mean information content of all symbols''&amp;amp;nbsp;:&lt;br /&gt;
 &lt;br /&gt;
:$$H = \overline{I_\nu} = {\rm E}\hspace{0.01cm}[I_\mu] = \sum_{\mu = 1}^M p_{\mu} \cdot {\rm log_2}\hspace{0.1cm}\frac{1}{p_\mu}=&lt;br /&gt;
 -\sum_{\mu = 1}^M p_{\mu} \cdot{\rm log_2}\hspace{0.1cm}{p_\mu} \hspace{0.5cm}\text{(unit: bit, more precisely: bit/symbol)} &lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
The overline marks again a time averaging and&amp;amp;nbsp; $\rm E[\text{...}]$&amp;amp;nbsp; a ensemble averaging.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Entropy is among other things a measure for&lt;br /&gt;
*the mean uncertainty about the outcome of a statistical event,&lt;br /&gt;
*the &amp;quot;randomness&amp;quot; of this event,&amp;amp;nbsp; and&lt;br /&gt;
*the average information content of a random variable.	 &lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
==Binary entropy function ==	&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
At first we will restrict ourselves to the special case&amp;amp;nbsp; $M = 2$&amp;amp;nbsp; and consider a binary source, which returns the two symbols&amp;amp;nbsp; $\rm A$&amp;amp;nbsp; and&amp;amp;nbsp; $\rm B$&amp;amp;nbsp; &amp;amp;nbsp; The occurrence probabilities are &amp;amp;nbsp; $p_{\rm A} = p$&amp;amp;nbsp; and&amp;amp;nbsp; $p_{\rm B} = 1 - p$.&lt;br /&gt;
&lt;br /&gt;
For the entropy of this binary source applies: &lt;br /&gt;
 &lt;br /&gt;
:$$H_{\rm bin} (p) = p \cdot {\rm log_2}\hspace{0.1cm}\frac{1}{\hspace{0.1cm}p\hspace{0.1cm}} + (1-p) \cdot {\rm log_2}\hspace{0.1cm}\frac{1}{1-p} \hspace{0.5cm}{\rm (unit\hspace{-0.15cm}: \hspace{0.15cm}bit\hspace{0.15cm}or\hspace{0.15cm}bit/Symbol)}&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
The function is called&amp;amp;nbsp; $H_\text{bin}(p)$&amp;amp;nbsp; the&amp;amp;nbsp; '''binary entropy function'''.&amp;amp;nbsp; The entropy of a source with a larger symbol range&amp;amp;nbsp; $M$&amp;amp;nbsp; can often be expressed using&amp;amp;nbsp; $H_\text{bin}(p)$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 2:}$&amp;amp;nbsp;&lt;br /&gt;
The figure shows the binary entropy function for the values&amp;amp;nbsp; $0 ≤ p ≤ 1$&amp;amp;nbsp; of the symbol probability of&amp;amp;nbsp; $\rm A$&amp;amp;nbsp; $($or also of&amp;amp;nbsp; $\rm B)$.&amp;amp;nbsp; You can see&lt;br /&gt;
&lt;br /&gt;
[[File:Inf_T_1_1_S4_vers2.png|frame|Binary entropy function as function of&amp;amp;nbsp; $p$|right]]&lt;br /&gt;
*The maximum value&amp;amp;nbsp; $H_\text{max} = 1\; \rm bit$&amp;amp;nbsp; results for&amp;amp;nbsp; $p = 0.5$, thus for equally probable binary symbols.&amp;amp;nbsp; Then &amp;amp;nbsp; $\rm A$&amp;amp;nbsp; and&amp;amp;nbsp; $\rm B$&amp;amp;nbsp; contribute the same amount to entropy.&lt;br /&gt;
* $H_\text{bin}(p)$&amp;amp;nbsp; is symmetrical about&amp;amp;nbsp; $p = 0.5$.&amp;amp;nbsp; A source with&amp;amp;nbsp; $p_{\rm A} = 0.1$&amp;amp;nbsp; and&amp;amp;nbsp; $p_{\rm B} = 0. 9$&amp;amp;nbsp; has the same entropy&amp;amp;nbsp; $H = 0.469 \; \rm bit$&amp;amp;nbsp; as a source with&amp;amp;nbsp; $p_{\rm A} = 0.9$&amp;amp;nbsp; and&amp;amp;nbsp; $p_{\rm B} = 0.1$.&lt;br /&gt;
*The difference&amp;amp;nbsp; $ΔH = H_\text{max} - H$ gives&amp;amp;nbsp; the&amp;amp;nbsp; ''redundancy''&amp;amp;nbsp; of the source and&amp;amp;nbsp; $r = ΔH/H_\text{max}$&amp;amp;nbsp; the&amp;amp;nbsp; ''relative redundancy''. &amp;amp;nbsp; In the example,&amp;amp;nbsp; $ΔH = 0.531\; \rm bit$&amp;amp;nbsp; and&amp;amp;nbsp; $r = 53.1 \rm \%$.&lt;br /&gt;
*For&amp;amp;nbsp; $p = 0$&amp;amp;nbsp; this results in&amp;amp;nbsp; $H = 0$, since the symbol sequence &amp;amp;nbsp;$\rm B \ B \ B \text{...}$&amp;amp;nbsp; can be predicted with certainty. &amp;amp;nbsp; Actually, the symbol range is now only&amp;amp;nbsp; $M = 1$.&amp;amp;nbsp; The same applies to&amp;amp;nbsp; $p = 1$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; symbol sequence &amp;amp;nbsp;$\rm A \ A \ A \ text{...}$.&lt;br /&gt;
*$H_\text{bin}(p)$&amp;amp;nbsp; is always a&amp;amp;nbsp; ''concave function'', since the second derivative after the parameter&amp;amp;nbsp; $p$&amp;amp;nbsp; is negative for all values of&amp;amp;nbsp; $p$&amp;amp;nbsp;: &lt;br /&gt;
:$$\frac{ {\rm d}^2H_{\rm bin} (p)}{ {\rm d}\,p^2} = \frac{- 1}{ {\rm ln}(2) \cdot p \cdot (1-p)}&amp;lt; 0&lt;br /&gt;
\hspace{0.05cm}.$$}}&lt;br /&gt;
&lt;br /&gt;
==Message sources with a larger symbol range==  &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
In the&amp;amp;nbsp; [[Information_Theory/Sources with Memory#Model_and_Prerequisites|first section]]&amp;amp;nbsp; of this chapter we have a quaternary message source&amp;amp;nbsp; $(M = 4)$&amp;amp;nbsp; with the symbol probabilities&amp;amp;nbsp; $p_{\rm A} = 0. 4$, &amp;amp;nbsp; $p_{\rm B} = 0.3$, &amp;amp;nbsp; $p_{\rm C} = 0.2$ &amp;amp;nbsp; and&amp;amp;nbsp; $ p_{\rm D} = 0.1$&amp;amp;nbsp; considered.&amp;amp;nbsp; This source has the following entropy:&lt;br /&gt;
 &lt;br /&gt;
:$$H_{\rm quat} = 0.4 \cdot {\rm log}_2\hspace{0.1cm}\frac{1}{0.4} + 0.3 \cdot {\rm log}_2\hspace{0.1cm}\frac{1}{0. 3} + 0.2 \cdot {\rm log}_2\hspace{0.1cm}\frac{1}{0.2}+ 0.1 \cdot {\rm log}_2\hspace{0.1cm}\frac{1}{0.1}.$$&lt;br /&gt;
&lt;br /&gt;
For numerical calculation, the detour via the decimal logarithm&amp;amp;nbsp; $\lg \ x = {\rm log}_{10} \ x$&amp;amp;nbsp;, is often necessary. Since the ''logarithm dualis''&amp;amp;nbsp; $ {\rm log}_2 \ x$&amp;amp;nbsp; is mostly not found on pocket calculators.&lt;br /&gt;
&lt;br /&gt;
:$$H_{\rm quat}=\frac{1}{{\rm lg}\hspace{0.1cm}2} \cdot \left [ 0.4 \cdot {\rm lg}\hspace{0.1cm}\frac{1}{0.4} + 0.3 \cdot {\rm lg}\hspace{0.1cm}\frac{1}{0. 3} + 0.2 \cdot {\rm lg}\hspace{0.1cm}\frac{1}{0.2} + 0.1 \cdot {\rm lg}\hspace{0.1cm}\frac{1}{0.1} \right ] = 1.845\,{\rm bit}&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 3:}$&amp;amp;nbsp;&lt;br /&gt;
Now there are certain symmetries between the symbol probabilities: &lt;br /&gt;
[[File:Inf_T_1_1_S5_vers2.png|frame|Entropy of binary source and quaternary source]]&lt;br /&gt;
 &lt;br /&gt;
:$$p_{\rm A} = p_{\rm D} = p \hspace{0.05cm},\hspace{0.4cm}p_{\rm B} = p_{\rm C} = 0.5 - p \hspace{0.05cm},\hspace{0.3cm}{\rm with} \hspace{0.15cm}0 \le p \le 0.5 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
In this case, the binary entropy function can be used to calculate the entropy:&lt;br /&gt;
 &lt;br /&gt;
:$$H_{\rm quat} = 2 \cdot p \cdot {\rm log}_2\hspace{0.1cm}\frac{1}{\hspace{0.1cm}p\hspace{0.1cm} } + 2 \cdot (0.5-p) \cdot {\rm log}_2\hspace{0.1cm}\frac{1}{0.5-p}$$&lt;br /&gt;
$$\Rightarrow \hspace{0.3cm} H_{\rm quat} = 1 + H_{\rm bin}(2p) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
The graphic shows as a function of&amp;amp;nbsp; $p$&lt;br /&gt;
*the entropy of the quaternary source (blue) &lt;br /&gt;
*in comparison to the entropy course of the binary source (red). &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
For the quaternary source only the abscissa&amp;amp;nbsp; $0 ≤ p ≤ 0.5$&amp;amp;nbsp; is allowed. &lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
You can see from the blue curve for the quaternary source:&lt;br /&gt;
*The maximum entropy&amp;amp;nbsp; $H_\text{max} = 2 \; \rm bit/symbol$&amp;amp;nbsp; results for&amp;amp;nbsp; $p = 0.25$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; equally probable symbols: &amp;amp;nbsp; $p_{\rm A} = p_{\rm B} = p_{\rm C} = p_{\rm A} = 0.25$.&lt;br /&gt;
*With&amp;amp;nbsp; $p = 0$&amp;amp;nbsp; resp.&amp;amp;nbsp; $p = 0.5$&amp;amp;nbsp; the quaternary source degenerates to a binary source with&amp;amp;nbsp; $p_{\rm B} = p_{\rm C} = 0. 5$&amp;amp;nbsp; and&amp;amp;nbsp; $p_{\rm A} = p_{\rm D} = 0$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; entropy&amp;amp;nbsp; $H = 1 \; \rm bit/symbol$.&lt;br /&gt;
*The source with&amp;amp;nbsp; $p_{\rm A} = p_{\rm D} = 0.1$&amp;amp;nbsp; and&amp;amp;nbsp; $p_{\rm B} = p_{\rm C} = 0.4$&amp;amp;nbsp; has the following characteristics (each with the pseudo unit &amp;quot;bit/symbol&amp;quot;):&lt;br /&gt;
&lt;br /&gt;
: &amp;amp;nbsp; &amp;amp;nbsp; '''(1)''' &amp;amp;nbsp; entropy: &amp;amp;nbsp; $H = 1 + H_{\rm bin} (2p) =1 + H_{\rm bin} (0.2) = 1.722,$&lt;br /&gt;
&lt;br /&gt;
: &amp;amp;nbsp; &amp;amp;nbsp; '''(2)''' &amp;amp;nbsp; Redundancy: &amp;amp;nbsp; ${\rm \Delta }H = {\rm log_2}\hspace{0.1cm} M - H =2- 1.722= 0.278,$&lt;br /&gt;
&lt;br /&gt;
: &amp;amp;nbsp; &amp;amp;nbsp; '''(3)''' &amp;amp;nbsp; relative redundancy: &amp;amp;nbsp; $r ={\rm \delta }H/({\rm log_2}\hspace{0.1cm} M) = 0.139\hspace{0.05cm}.$&lt;br /&gt;
&lt;br /&gt;
*The redundancy of the quaternary source with&amp;amp;nbsp; $p = 0.1$&amp;amp;nbsp; is equal to&amp;amp;nbsp; $ΔH = 0.278 \; \rm bit/symbol$&amp;amp;nbsp; and thus exactly the same as the redundancy of the binary source with&amp;amp;nbsp; $p = 0.2$.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Exercises for chapter==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:1.1 Wetterentropie|Aufgabe 1.1: Wetterentropie]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.1Z Binäre Entropiefunktion|Aufgabe 1.1Z: Binäre Entropiefunktion]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.2 Entropie von Ternärquellen|Aufgabe 1.2: Entropie von Ternärquellen]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==List of sources==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Information_Theory/Discrete_Memoryless_Sources&amp;diff=35340</id>
		<title>Information Theory/Discrete Memoryless Sources</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Information_Theory/Discrete_Memoryless_Sources&amp;diff=35340"/>
		<updated>2020-12-04T22:04:29Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{FirstPage}}&lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Entropie wertdiskreter Nachrichtenquellen&lt;br /&gt;
|Vorherige Seite=&lt;br /&gt;
|Nächste Seite=Nachrichtenquellen mit Gedächtnis&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== # OVERVIEW OF THE FIRST MAIN CHAPTER # ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
This first chapter describes the calculation and the meaning of entropy.&amp;amp;nbsp; According to the Shannonian information definition, entropy is a measure of the mean uncertainty about the outcome of a statistical event or the uncertainty in the measurement of a stochastic quantity.&amp;amp;nbsp; Somewhat casually expressed, the entropy of a random quantity quantifies its &amp;quot;randomness&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
In detail are discussed:&lt;br /&gt;
&lt;br /&gt;
*the ''decision content''&amp;amp;nbsp; and the ''entropy''&amp;amp;nbsp; of a memoryless news source,&lt;br /&gt;
*the ''binary entropy function''&amp;amp;nbsp; and its application to ''non-binary sources'',&lt;br /&gt;
*the entropy calculation for ''memory sources''&amp;amp;nbsp; and suitable approximations,&lt;br /&gt;
*the peculiarities of ''Markov sources''&amp;amp;nbsp; regarding the entropy calculation,&lt;br /&gt;
*the procedure for sources with a large number of symbols, for example ''natural texts'',&lt;br /&gt;
*the ''entropy estimates''&amp;amp;nbsp; according to Shannon and Küpfmüller.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Further information on the topic as well as Exercises, simulations and programming exercises can be found in the experiment &amp;quot;Value Discrete Information Theory&amp;quot; of the practical course &amp;quot;Simulation Digitaler Übertragungssysteme&amp;quot; (english: Simulation of Digital Transmission Systems).&amp;amp;nbsp; This (former) LNT course at the TU Munich is based on&lt;br /&gt;
&lt;br /&gt;
*the Windows program&amp;amp;nbsp; [http://en.lntwww.de/downloads/Sonstiges/Programme/WDIT.zip WDIT] &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; the link points to the ZIP version of the program and &lt;br /&gt;
*the associated&amp;amp;nbsp; [http://en.lntwww.de/downloads/Sonstiges/Texte/Wertdiskrete_Informationstheorie.pdf Internship guide]  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; the link refers to the PDF version.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Model and requirements == &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
We consider a value discrete message source&amp;amp;nbsp; $\rm Q$, which gives a sequence&amp;amp;nbsp; $ \langle q_ν \rangle$&amp;amp;nbsp; of symbols. &lt;br /&gt;
*For the run variable &amp;amp;nbsp;$ν = 1$, ... , $N$, where&amp;amp;nbsp; $N$&amp;amp;nbsp; should be &amp;quot;sufficiently large&amp;quot;. &lt;br /&gt;
*Each individual source symbol &amp;amp;nbsp;$q_ν$&amp;amp;nbsp; comes from a symbol set&amp;amp;nbsp; $\{q_μ \}$&amp;amp;nbsp; where&amp;amp;nbsp; $μ = 1$, ... , $M$, where&amp;amp;nbsp; $M$&amp;amp;nbsp; denotes the symbol range:&lt;br /&gt;
 &lt;br /&gt;
:$$q_{\nu} \in \left \{ q_{\mu}  \right \}, \hspace{0.25cm}{\rm with}\hspace{0.25cm} \nu = 1, \hspace{0.05cm} \text{ ...}\hspace{0.05cm} , N\hspace{0.25cm}{\rm and}\hspace{0.25cm}\mu = 1,\hspace{0.05cm} \text{ ...}\hspace{0.05cm} , M \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
The figure shows a quaternary message source&amp;amp;nbsp; $(M = 4)$&amp;amp;nbsp; with the alphabet&amp;amp;nbsp; $\rm \{A, \ B, \ C, \ D\}$&amp;amp;nbsp; and an exemplary sequence of length&amp;amp;nbsp; $N = 100$.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2227_Inf_T_1_1_S1a_neu.png|frame|Memoryless Quaternary Message Source]]&lt;br /&gt;
&lt;br /&gt;
The following requirements apply:&lt;br /&gt;
*The quaternary news source is fully described by&amp;amp;nbsp; $M = 4$&amp;amp;nbsp; symbol probabilities&amp;amp;nbsp; $p_μ$.&amp;amp;nbsp; In general it applies:&lt;br /&gt;
:$$\sum_{\mu = 1}^M \hspace{0.1cm}p_{\mu} = 1 \hspace{0.05cm}.$$&lt;br /&gt;
*The message source is memoryless, i.e., the individual sequence elements are&amp;amp;nbsp; [[Theory_of_Stochastic_Signals/Statistical Dependence and Independence#General_definition_of_statistical_dependence|statistically independent of each other]]:&lt;br /&gt;
:$${\rm Pr} \left (q_{\nu} = q_{\mu} \right ) = {\rm Pr} \left (q_{\nu} = q_{\mu} \hspace{0.03cm} | \hspace{0.03cm} q_{\nu -1}, q_{\nu -2}, \hspace{0.05cm} \text{ ...}\hspace{0.05cm}\right ) \hspace{0.05cm}.$$&lt;br /&gt;
*Since the alphabet consists of symbols&amp;amp;nbsp; (and not of random variables)&amp;amp;nbsp;, the specification of&amp;amp;nbsp; [[Theory_of_Stochastic_Signals/Expected_Values_and_Moments|expected values]]&amp;amp;nbsp; (linear mean, quadratic mean, dispersion, etc.) is not possible here, but also not necessary from an information-theoretical point of view.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
These properties will now be illustrated with an example.&lt;br /&gt;
&lt;br /&gt;
[[File:Inf_T_1_1_S1b_vers2.png|right|frame|Relative frequencies as a function of&amp;amp;nbsp; $N$]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp;&lt;br /&gt;
For the symbol probabilities of a quaternary source applies: &lt;br /&gt;
:$$p_{\rm A} = 0.4 \hspace{0.05cm},\hspace{0.2cm}p_{\rm B} = 0.3 \hspace{0.05cm},\hspace{0.2cm}p_{\rm C} = 0.2 \hspace{0.05cm},\hspace{0.2cm} &lt;br /&gt;
p_{\rm D} = 0.1\hspace{0.05cm}.$$&lt;br /&gt;
For an infinitely long sequence&amp;amp;nbsp; $(N \to \infty)$ &lt;br /&gt;
*the&amp;amp;nbsp; [[Theory_of_Stochastic_Signals/From_Random_Experiment_to_Random_Variable#Bernoulli's_Law_of_Large_Numbers|relative frequencies]]&amp;amp;nbsp; $h_{\rm A}$,&amp;amp;nbsp; $h_{\rm B}$,&amp;amp;nbsp; $h_{\rm C}$,&amp;amp;nbsp; $h_{\rm D}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; a-posteriori parameters &lt;br /&gt;
*were identical to the&amp;amp;nbsp; [[Theory_of_Stochastic_Signals/Some_Basic_Definitions#Event_and_Event_set|probabilities]]&amp;amp;nbsp; $p_{\rm A}$,&amp;amp;nbsp; $p_{\rm B}$,&amp;amp;nbsp; $p_{\rm C}$,&amp;amp;nbsp; $p_{\rm D}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; a-priori parameters. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
With smaller&amp;amp;nbsp; $N$&amp;amp;nbsp; deviations may occur, as the adjacent table (result of a simulation) shows. &lt;br /&gt;
&lt;br /&gt;
*In the graphic above an exemplary sequence is shown with&amp;amp;nbsp; $N = 100$&amp;amp;nbsp; symbols. &lt;br /&gt;
*Due to the set elements&amp;amp;nbsp; $\rm A$,&amp;amp;nbsp; $\rm B$,&amp;amp;nbsp; $\rm C$&amp;amp;nbsp; and&amp;amp;nbsp; $\rm D$&amp;amp;nbsp; no mean values can be given. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
However, if you replace the symbols with numerical values, for example&amp;amp;nbsp; $\rm A \Rightarrow 1$, &amp;amp;nbsp; $\rm B \Rightarrow 2$, &amp;amp;nbsp; $\rm C \Rightarrow 3$, &amp;amp;nbsp; $\rm D \Rightarrow 4$, then you will get &amp;lt;br&amp;gt; &amp;amp;nbsp; &amp;amp;nbsp; time averaging &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; crossing line &amp;amp;nbsp; &amp;amp;nbsp; or &amp;amp;nbsp; &amp;amp;nbsp; ensemble averaging &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; expected value formation&lt;br /&gt;
*for the [[Theory_of_Stochastic_Signals/Moments of a Discrete Random Variable#Linear_Average_-_Direct_Component|linear average]] :&lt;br /&gt;
:$$m_1 = \overline { q_{\nu} } = {\rm E} \big [ q_{\mu} \big ] = 0.4 \cdot 1 + 0.3 \cdot 2 + 0.2 \cdot 3 + 0.1 \cdot 4&lt;br /&gt;
= 2 \hspace{0.05cm},$$ &lt;br /&gt;
*for the [[Theory_of_Stochastic_Signals/Moments of a Discrete Random Variable#Square_mean_.E2.80.93_Variance_.E2.80.93_Scattering |square mean]]:&lt;br /&gt;
:$$m_2 = \overline { q_{\nu}^{\hspace{0.05cm}2}  } = {\rm E} \big [ q_{\mu}^{\hspace{0.05cm}2} \big ] = 0.4 \cdot 1^2 + 0.3 \cdot 2^2 + 0.2 \cdot 3^2 + 0.1 \cdot 4^2&lt;br /&gt;
= 5 \hspace{0.05cm},$$&lt;br /&gt;
*for the [[Theory_of_Stochastic_Signals/Expected_Values_and_Moments#Some_often_used_Central_Moments|standard deviation]] (scattering) according to the &amp;quot;Theorem of Steiner&amp;quot;:&lt;br /&gt;
:$$\sigma = \sqrt {m_2 - m_1^2} = \sqrt {5 - 2^2} = 1 \hspace{0.05cm}.$$}}	&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
&lt;br /&gt;
==Decision content - Message content==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[https://de.wikipedia.org/wiki/Claude_Shannon Claude Elwood Shannon]&amp;amp;nbsp; defined in 1948 in the standard work of information theory&amp;amp;nbsp; [Sha48]&amp;lt;ref name='Sha48'&amp;gt;Shannon, C.E.: A Mathematical Theory of Communication. In: Bell Syst. Techn. J. 27 (1948), pp. 379-423 and pp. 623-656.&amp;lt;/ref&amp;gt;&amp;amp;nbsp; the concept of information as &amp;quot;decrease of uncertainty about the occurrence of a statistical event&amp;quot;. &lt;br /&gt;
&lt;br /&gt;
Let us make a mental experiment with&amp;amp;nbsp; $M$&amp;amp;nbsp; possible results, which are all equally probable: &amp;amp;nbsp; $p_1 = p_2 = \hspace{0.05cm} \text{ ...}\hspace{0.05cm} = p_M = 1/M \hspace{0.05cm}.$ &lt;br /&gt;
&lt;br /&gt;
Under this assumption applies:&lt;br /&gt;
*Is&amp;amp;nbsp; $M = 1$, then each individual attempt will yield the same result and therefore there is no uncertainty about the output.&lt;br /&gt;
*On the other hand, an observer learns about an experiment with&amp;amp;nbsp; $M = 2$, for example the &amp;quot;coin toss&amp;quot; with the set of events&amp;amp;nbsp; $\big \{\rm \boldsymbol{\rm Z}, \rm \boldsymbol{\rm W} \big \}$&amp;amp;nbsp; and the probabilities&amp;amp;nbsp; $p_{\rm Z} = p_{\rm W} = 0. 5$, a gain in information; The uncertainty regarding&amp;amp;nbsp; $\rm Z$ &amp;amp;nbsp;resp.&amp;amp;nbsp; $\rm W$&amp;amp;nbsp; is resolved.&lt;br /&gt;
*In the experiment &amp;quot;dice&amp;quot;&amp;amp;nbsp; $(M = 6)$&amp;amp;nbsp; and even more in roulette&amp;amp;nbsp; $(M = 37)$&amp;amp;nbsp; the gained information is even more significant for the observer than in the &amp;quot;coin toss&amp;quot; when he learns which number was thrown or which ball fell.&lt;br /&gt;
*Finally it should be considered that the experiment&amp;amp;nbsp; &amp;quot;triple coin toss&amp;quot;&amp;amp;nbsp; with the&amp;amp;nbsp; $M = 8$&amp;amp;nbsp; possible results&amp;amp;nbsp; $\rm ZZZ$,&amp;amp;nbsp; $\rm ZZW$,&amp;amp;nbsp; $\rm ZWZ$,&amp;amp;nbsp; $\rm ZWW$,&amp;amp;nbsp; $\rm WZZ$,&amp;amp;nbsp; $\rm WZW$,&amp;amp;nbsp; $\rm WWZ$,&amp;amp;nbsp; $\rm WWW$&amp;amp;nbsp; provides three times the information as the single coin toss&amp;amp;nbsp; $(M = 2)$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The following definition fulfills all the requirements listed here for a quantitative information measure for equally probable events, indicated only by the symbol range&amp;amp;nbsp; $M$.&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; The&amp;amp;nbsp; '''decision content''' &amp;amp;nbsp; of a message source depends only on the symbol range&amp;amp;nbsp; $M$&amp;amp;nbsp; and results in&lt;br /&gt;
 &lt;br /&gt;
:$$H_0 = {\rm log}\hspace{0.1cm}M = {\rm log}_2\hspace{0.1cm}M \hspace{0.15cm} {\rm (in \ 	&amp;amp;#8220;bit&amp;quot;)}&lt;br /&gt;
= {\rm ln}\hspace{0.1cm}M \hspace{0.15cm}\text {(in 	&amp;amp;#8220;nat&amp;quot;)}&lt;br /&gt;
= {\rm lg}\hspace{0.1cm}M \hspace{0.15cm}\text {(in 	&amp;amp;#8220;Hartley&amp;quot;)}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*The term&amp;amp;nbsp; ''message content'' is also commonly used for this. &lt;br /&gt;
*Since&amp;amp;nbsp; $H_0$&amp;amp;nbsp; indicates the maximum value of the&amp;amp;nbsp; [[Information_Theory/Sources with Memory#Information_Content_and_Entropy|Entropy]]&amp;amp;nbsp; $H$&amp;amp;nbsp;, $H_\text{max}$&amp;amp;nbsp; is also used in our tutorial as short notation&amp;amp;nbsp;. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Please note our nomenclature:&lt;br /&gt;
*The logarithm will be called &amp;quot;log&amp;quot; in the following, independent of the base. &lt;br /&gt;
*The relations mentioned above are fulfilled due to the following properties:&lt;br /&gt;
 &lt;br /&gt;
:$${\rm log}\hspace{0.1cm}1 = 0 \hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
{\rm log}\hspace{0.1cm}37 &amp;gt; {\rm log}\hspace{0.1cm}6 &amp;gt; {\rm log}\hspace{0.1cm}2\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
{\rm log}\hspace{0.1cm}M^k = k \cdot {\rm log}\hspace{0.1cm}M \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
* Usually we use the logarithm to the base&amp;amp;nbsp; $2$ &amp;amp;nbsp; ⇒ &amp;amp;nbsp; ''Logarithm dualis''&amp;amp;nbsp; $\rm (ld)$, where the pseudo unit &amp;quot;bit&amp;quot;, more precisely:&amp;amp;nbsp; &amp;quot;bit/symbol&amp;quot;, is then added:&lt;br /&gt;
 &lt;br /&gt;
:$${\rm ld}\hspace{0.1cm}M = {\rm log_2}\hspace{0.1cm}M = \frac{{\rm lg}\hspace{0.1cm}M}{{\rm lg}\hspace{0.1cm}2}&lt;br /&gt;
= \frac{{\rm ln}\hspace{0.1cm}M}{{\rm ln}\hspace{0.1cm}2} &lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*In addition, you can find in the literature some additional definitions, which are based on the natural logarithm&amp;amp;nbsp; $\rm (ln)$&amp;amp;nbsp; or the logarithm&amp;amp;nbsp; $\rm (lg)$&amp;amp;nbsp;.&lt;br /&gt;
 &lt;br /&gt;
==Information content and entropy ==	&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
We now waive the previous requirement that all&amp;amp;nbsp; $M$&amp;amp;nbsp; possible results of an experiment are equally probable.&amp;amp;nbsp; In order to keep the spelling as compact as possible, we define for this page only:&lt;br /&gt;
 &lt;br /&gt;
:$$p_1 &amp;gt; p_2 &amp;gt; \hspace{0.05cm} \text{ ...}\hspace{0.05cm} &amp;gt; p_\mu &amp;gt; \hspace{0.05cm} \text{ ...}\hspace{0.05cm} &amp;gt; p_{M-1} &amp;gt; p_M\hspace{0.05cm},\hspace{0.4cm}\sum_{\mu = 1}^M p_{\mu} = 1 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
We now consider the ''information content''&amp;amp;nbsp; of the individual symbols, where we denote the &amp;quot;logarithm dualis&amp;quot; with $\log_2$:&lt;br /&gt;
 &lt;br /&gt;
:$$I_\mu = {\rm log_2}\hspace{0.1cm}\frac{1}{p_\mu}= -\hspace{0.05cm}{\rm log_2}\hspace{0.1cm}{p_\mu}&lt;br /&gt;
\hspace{0.5cm}{\rm (unit\hspace{-0.15cm}: \hspace{0.15cm}bit\hspace{0.15cm}or\hspace{0.15cm}bit/Symbol)}&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
You can see:&lt;br /&gt;
*because of&amp;amp;nbsp; $p_μ ≤ 1$&amp;amp;nbsp; the information content is never negative.&amp;amp;nbsp; In the borderline case&amp;amp;nbsp; $p_μ \to 1$&amp;amp;nbsp; goes&amp;amp;nbsp; $I_μ \to 0$. &lt;br /&gt;
*However for&amp;amp;nbsp; $I_μ = 0$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; $p_μ = 1$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; $M = 1$&amp;amp;nbsp; the decision content is also&amp;amp;nbsp; $H_0 = 0$.&lt;br /&gt;
*For decreasing probabilities&amp;amp;nbsp; $p_μ$&amp;amp;nbsp; the information content increases continuously:&lt;br /&gt;
 &lt;br /&gt;
:$$I_1 &amp;lt; I_2 &amp;lt; \hspace{0.05cm} \text{ ...}\hspace{0.05cm} &amp;lt; I_\mu &amp;lt;\hspace{0.05cm} \text{ ...}\hspace{0.05cm} &amp;lt; I_{M-1} &amp;lt; I_M \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp; '''The more improbable an event is, the greater is its information content'''.&amp;amp;nbsp; This fact is also found in daily life:&lt;br /&gt;
*&amp;quot;6 right ones&amp;quot; in the lottery are more likely to be noticed than &amp;quot;3 right ones&amp;quot; or no win at all.&lt;br /&gt;
*A tsunami in Asia also dominates the news in Germany for weeks as opposed to the almost standard Deutsche Bahn delays.&lt;br /&gt;
*A series of defeats of Bayern Munich leads to huge headlines in contrast to a winning series.&amp;amp;nbsp; With 1860 Munich exactly the opposite is the case.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
However, the information content of a single symbol (or event) is not very interesting.&amp;amp;nbsp; On the other hand &lt;br /&gt;
*by ensemble averaging over all possible symbols&amp;amp;nbsp; $q_μ$ &amp;amp;nbsp;bzw.&amp;amp;nbsp; &lt;br /&gt;
*by time averaging over all elements of the sequence&amp;amp;nbsp; $\langle q_ν \rangle$&lt;br /&gt;
&lt;br /&gt;
one of the central variables of information theory. &lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; The&amp;amp;nbsp; '''Entropy'''&amp;amp;nbsp; $H$&amp;amp;nbsp; of a source indicates the ''mean information content of all symbols''&amp;amp;nbsp;:&lt;br /&gt;
 &lt;br /&gt;
:$$H = \overline{I_\nu} = {\rm E}\hspace{0.01cm}[I_\mu] = \sum_{\mu = 1}^M p_{\mu} \cdot {\rm log_2}\hspace{0.1cm}\frac{1}{p_\mu}=&lt;br /&gt;
 -\sum_{\mu = 1}^M p_{\mu} \cdot{\rm log_2}\hspace{0.1cm}{p_\mu} \hspace{0.5cm}\text{(unit: bit, more precisely: bit/symbol)} &lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
The overline marks again a time averaging and&amp;amp;nbsp; $\rm E[\text{...}]$&amp;amp;nbsp; a ensemble averaging.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Entropy is among other things a measure for&lt;br /&gt;
*the mean uncertainty about the outcome of a statistical event,&lt;br /&gt;
*the &amp;quot;randomness&amp;quot; of this event,&amp;amp;nbsp; and&lt;br /&gt;
*the average information content of a random variable.	 &lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
==Binary entropy function ==	&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
At first we will restrict ourselves to the special case&amp;amp;nbsp; $M = 2$&amp;amp;nbsp; and consider a binary source, which returns the two symbols&amp;amp;nbsp; $\rm A$&amp;amp;nbsp; and&amp;amp;nbsp; $\rm B$&amp;amp;nbsp; &amp;amp;nbsp; The occurrence probabilities are &amp;amp;nbsp; $p_{\rm A} = p$&amp;amp;nbsp; and&amp;amp;nbsp; $p_{\rm B} = 1 - p$.&lt;br /&gt;
&lt;br /&gt;
For the entropy of this binary source applies: &lt;br /&gt;
 &lt;br /&gt;
:$$H_{\rm bin} (p) = p \cdot {\rm log_2}\hspace{0.1cm}\frac{1}{\hspace{0.1cm}p\hspace{0.1cm}} + (1-p) \cdot {\rm log_2}\hspace{0.1cm}\frac{1}{1-p} \hspace{0.5cm}{\rm (Einheit\hspace{-0.15cm}: \hspace{0.15cm}bit\hspace{0.15cm}oder\hspace{0.15cm}bit/Symbol)}&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
The function is called&amp;amp;nbsp; $H_\text{bin}(p)$&amp;amp;nbsp; the&amp;amp;nbsp; '''binary entropy function'''.&amp;amp;nbsp; The entropy of a source with a larger symbol range&amp;amp;nbsp; $M$&amp;amp;nbsp; can often be expressed using&amp;amp;nbsp; $H_\text{bin}(p)$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 2:}$&amp;amp;nbsp;&lt;br /&gt;
The figure shows the binary entropy function for the values&amp;amp;nbsp; $0 ≤ p ≤ 1$&amp;amp;nbsp; of the symbol probability of&amp;amp;nbsp; $\rm A$&amp;amp;nbsp; $($or also of&amp;amp;nbsp; $\rm B)$.&amp;amp;nbsp; You can see&lt;br /&gt;
&lt;br /&gt;
[[File:Inf_T_1_1_S4_vers2.png|frame|Binary entropy function as function of&amp;amp;nbsp; $p$|right]]&lt;br /&gt;
*The maximum value&amp;amp;nbsp; $H_\text{max} = 1\; \rm bit$&amp;amp;nbsp; results for&amp;amp;nbsp; $p = 0.5$, thus for equally probable binary symbols.&amp;amp;nbsp; Then &amp;amp;nbsp; $\rm A$&amp;amp;nbsp; and&amp;amp;nbsp; $\rm B$&amp;amp;nbsp; contribute the same amount to entropy.&lt;br /&gt;
* $H_\text{bin}(p)$&amp;amp;nbsp; is symmetrical about&amp;amp;nbsp; $p = 0.5$.&amp;amp;nbsp; A source with&amp;amp;nbsp; $p_{\rm A} = 0.1$&amp;amp;nbsp; and&amp;amp;nbsp; $p_{\rm B} = 0. 9$&amp;amp;nbsp; has the same entropy&amp;amp;nbsp; $H = 0.469 \; \rm bit$&amp;amp;nbsp; as a source with&amp;amp;nbsp; $p_{\rm A} = 0.9$&amp;amp;nbsp; and&amp;amp;nbsp; $p_{\rm B} = 0.1$.&lt;br /&gt;
*The difference&amp;amp;nbsp; $ΔH = H_\text{max} - H$ gives&amp;amp;nbsp; the&amp;amp;nbsp; ''redundancy''&amp;amp;nbsp; of the source and&amp;amp;nbsp; $r = ΔH/H_\text{max}$&amp;amp;nbsp; the&amp;amp;nbsp; ''relative redundancy''. &amp;amp;nbsp; In the example,&amp;amp;nbsp; $ΔH = 0.531\; \rm bit$&amp;amp;nbsp; and&amp;amp;nbsp; $r = 53.1 \rm \%$.&lt;br /&gt;
*For&amp;amp;nbsp; $p = 0$&amp;amp;nbsp; this results in&amp;amp;nbsp; $H = 0$, since the symbol sequence &amp;amp;nbsp;$\rm B \ B \ B \text{...}$&amp;amp;nbsp; can be predicted with certainty. &amp;amp;nbsp; Actually, the symbol range is now only&amp;amp;nbsp; $M = 1$.&amp;amp;nbsp; The same applies to&amp;amp;nbsp; $p = 1$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; symbol sequence &amp;amp;nbsp;$\rm A \ A \ A \ text{...}$.&lt;br /&gt;
*$H_\text{bin}(p)$&amp;amp;nbsp; is always a&amp;amp;nbsp; ''concave function'', since the second derivative after the parameter&amp;amp;nbsp; $p$&amp;amp;nbsp; is negative for all values of&amp;amp;nbsp; $p$&amp;amp;nbsp;: &lt;br /&gt;
:$$\frac{ {\rm d}^2H_{\rm bin} (p)}{ {\rm d}\,p^2} = \frac{- 1}{ {\rm ln}(2) \cdot p \cdot (1-p)}&amp;lt; 0&lt;br /&gt;
\hspace{0.05cm}.$$}}&lt;br /&gt;
&lt;br /&gt;
==Message sources with a larger symbol range==  &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
In the&amp;amp;nbsp; [[Information_Theory/Sources with Memory#Model_and_Prerequisites|first section]]&amp;amp;nbsp; of this chapter we have a quaternary message source&amp;amp;nbsp; $(M = 4)$&amp;amp;nbsp; with the symbol probabilities&amp;amp;nbsp; $p_{\rm A} = 0. 4$, &amp;amp;nbsp; $p_{\rm B} = 0.3$, &amp;amp;nbsp; $p_{\rm C} = 0.2$ &amp;amp;nbsp; and&amp;amp;nbsp; $ p_{\rm D} = 0.1$&amp;amp;nbsp; considered.&amp;amp;nbsp; This source has the following entropy:&lt;br /&gt;
 &lt;br /&gt;
:$$H_{\rm quat} = 0.4 \cdot {\rm log}_2\hspace{0.1cm}\frac{1}{0.4} + 0.3 \cdot {\rm log}_2\hspace{0.1cm}\frac{1}{0. 3} + 0.2 \cdot {\rm log}_2\hspace{0.1cm}\frac{1}{0.2}+ 0.1 \cdot {\rm log}_2\hspace{0.1cm}\frac{1}{0.1}.$$&lt;br /&gt;
&lt;br /&gt;
For numerical calculation, the detour via the decimal logarithm&amp;amp;nbsp; $\lg \ x = {\rm log}_{10} \ x$&amp;amp;nbsp;, is often necessary. Since the ''logarithm dualis''&amp;amp;nbsp; $ {\rm log}_2 \ x$&amp;amp;nbsp; is mostly not found on pocket calculators.&lt;br /&gt;
&lt;br /&gt;
:$$H_{\rm quat}=\frac{1}{{\rm lg}\hspace{0.1cm}2} \cdot \left [ 0.4 \cdot {\rm lg}\hspace{0.1cm}\frac{1}{0.4} + 0.3 \cdot {\rm lg}\hspace{0.1cm}\frac{1}{0. 3} + 0.2 \cdot {\rm lg}\hspace{0.1cm}\frac{1}{0.2} + 0.1 \cdot {\rm lg}\hspace{0.1cm}\frac{1}{0.1} \right ] = 1.845\,{\rm bit}&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 3:}$&amp;amp;nbsp;&lt;br /&gt;
Now there are certain symmetries between the symbol probabilities: &lt;br /&gt;
[[File:Inf_T_1_1_S5_vers2.png|frame|Entropy of binary source and quaternary source]]&lt;br /&gt;
 &lt;br /&gt;
:$$p_{\rm A} = p_{\rm D} = p \hspace{0.05cm},\hspace{0.4cm}p_{\rm B} = p_{\rm C} = 0.5 - p \hspace{0.05cm},\hspace{0.3cm}{\rm with} \hspace{0.15cm}0 \le p \le 0.5 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
In this case, the binary entropy function can be used to calculate the entropy:&lt;br /&gt;
 &lt;br /&gt;
:$$H_{\rm quat} = 2 \cdot p \cdot {\rm log}_2\hspace{0.1cm}\frac{1}{\hspace{0.1cm}p\hspace{0.1cm} } + 2 \cdot (0.5-p) \cdot {\rm log}_2\hspace{0.1cm}\frac{1}{0.5-p}$$&lt;br /&gt;
$$\Rightarrow \hspace{0.3cm} H_{\rm quat} = 1 + H_{\rm bin}(2p) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
The graphic shows as a function of&amp;amp;nbsp; $p$&lt;br /&gt;
*the entropy of the quaternary source (blue) &lt;br /&gt;
*in comparison to the entropy course of the binary source (red). &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
For the quaternary source only the abscissa&amp;amp;nbsp; $0 ≤ p ≤ 0.5$&amp;amp;nbsp; is allowed. &lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
You can see from the blue curve for the quaternary source:&lt;br /&gt;
*The maximum entropy&amp;amp;nbsp; $H_\text{max} = 2 \; \rm bit/symbol$&amp;amp;nbsp; results for&amp;amp;nbsp; $p = 0.25$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; equally probable symbols: &amp;amp;nbsp; $p_{\rm A} = p_{\rm B} = p_{\rm C} = p_{\rm A} = 0.25$.&lt;br /&gt;
*With&amp;amp;nbsp; $p = 0$&amp;amp;nbsp; resp.&amp;amp;nbsp; $p = 0.5$&amp;amp;nbsp; the quaternary source degenerates to a binary source with&amp;amp;nbsp; $p_{\rm B} = p_{\rm C} = 0. 5$&amp;amp;nbsp; and&amp;amp;nbsp; $p_{\rm A} = p_{\rm D} = 0$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; entropy&amp;amp;nbsp; $H = 1 \; \rm bit/symbol$.&lt;br /&gt;
*The source with&amp;amp;nbsp; $p_{\rm A} = p_{\rm D} = 0.1$&amp;amp;nbsp; and&amp;amp;nbsp; $p_{\rm B} = p_{\rm C} = 0.4$&amp;amp;nbsp; has the following characteristics (each with the pseudo unit &amp;quot;bit/symbol&amp;quot;):&lt;br /&gt;
&lt;br /&gt;
: &amp;amp;nbsp; &amp;amp;nbsp; '''(1)''' &amp;amp;nbsp; entropy: &amp;amp;nbsp; $H = 1 + H_{\rm bin} (2p) =1 + H_{\rm bin} (0.2) = 1.722,$&lt;br /&gt;
&lt;br /&gt;
: &amp;amp;nbsp; &amp;amp;nbsp; '''(2)''' &amp;amp;nbsp; Redundancy: &amp;amp;nbsp; ${\rm \Delta }H = {\rm log_2}\hspace{0.1cm} M - H =2- 1.722= 0.278,$&lt;br /&gt;
&lt;br /&gt;
: &amp;amp;nbsp; &amp;amp;nbsp; '''(3)''' &amp;amp;nbsp; relative redundancy: &amp;amp;nbsp; $r ={\rm \delta }H/({\rm log_2}\hspace{0.1cm} M) = 0.139\hspace{0.05cm}.$&lt;br /&gt;
&lt;br /&gt;
*The redundancy of the quaternary source with&amp;amp;nbsp; $p = 0.1$&amp;amp;nbsp; is equal to&amp;amp;nbsp; $ΔH = 0.278 \; \rm bit/symbol$&amp;amp;nbsp; and thus exactly the same as the redundancy of the binary source with&amp;amp;nbsp; $p = 0.2$.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Exercises for chapter==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:1.1 Wetterentropie|Aufgabe 1.1: Wetterentropie]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.1Z Binäre Entropiefunktion|Aufgabe 1.1Z: Binäre Entropiefunktion]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.2 Entropie von Ternärquellen|Aufgabe 1.2: Entropie von Ternärquellen]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==List of sources==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Fast_Fourier_Transform_(FFT)&amp;diff=35320</id>
		<title>Signal Representation/Fast Fourier Transform (FFT)</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Fast_Fourier_Transform_(FFT)&amp;diff=35320"/>
		<updated>2020-11-29T21:02:02Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{LastPage}}&lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Zeit- und frequenzdiskrete Signaldarstellung&lt;br /&gt;
|Vorherige Seite=Spektralanalyse&lt;br /&gt;
|Nächste Seite=&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Rechenaufwand von DFT bzw. IDFT==  &lt;br /&gt;
&amp;lt;br&amp;gt; 	&lt;br /&gt;
Ein Nachteil der direkten Berechnung der (im Allgemeinen komplexen) DFT–Zahlenfolgen&lt;br /&gt;
&lt;br /&gt;
:$$\langle \hspace{0.1cm}D(\mu)\hspace{0.1cm}\rangle  \hspace{0.2cm}\bullet\!\!-\!\!\!-(N)\!-\!\!\!-\!\!\hspace{0.05cm}\circ\, \hspace{0.2cm} \langle \hspace{0.1cm}d(\nu)\hspace{0.1cm} \rangle$$&lt;br /&gt;
 &lt;br /&gt;
gemäß den in Kapitel&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)|Diskrete Fouriertransformation (DFT)]]&amp;amp;nbsp; angegebenen Gleichungen ist der große Rechenaufwand.  Wir betrachten als Beispiel  die DFT, also die Berechnung der&amp;amp;nbsp; $D(\mu)$&amp;amp;nbsp; aus den&amp;amp;nbsp; $d(\nu)$:&lt;br /&gt;
 &lt;br /&gt;
:$$N \cdot D(\mu)  =   \sum_{\nu = 0 }^{N-1}&lt;br /&gt;
 d(\nu) \cdot  {w}^{\hspace{0.03cm}\nu \hspace{0.03cm} \cdot \hspace{0.05cm}\mu}&lt;br /&gt;
 = &lt;br /&gt;
  d(0) \cdot w^{\hspace{0.03cm}0} + d(1) \cdot w^{\hspace{0.03cm}\mu}+ d(2) \cdot w^{\hspace{0.03cm}2\mu}+\hspace{0.05cm}\text{ ...} \hspace{0.05cm}+ d(N-1) \cdot w^{\hspace{0.03cm}(N-1)\cdot \mu}$$&lt;br /&gt;
&lt;br /&gt;
Der hierfür erforderliche Rechenaufwand soll abgeschätzt werden, wobei wir davon ausgehen, dass die Potenzen des komplexen Drehfaktors&amp;amp;nbsp; $w = {\rm e}^{-{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm}2 \pi/N}$&amp;amp;nbsp; bereits in Real– und Imaginärteilform in einer Lookup–Tabelle vorliegen. Zur Berechnung eines einzelnen Koeffizienten benötigt man dann&amp;amp;nbsp; $N-1$&amp;amp;nbsp; komplexe Multiplikationen und ebenso viele komplexe Additionen, wobei zu beachten ist: &lt;br /&gt;
*Jede komplexe Addition erfordert zwei reelle Additionen:&lt;br /&gt;
:$$(R_1 + {\rm j} \cdot I_1) + (R_2 + {\rm j} \cdot I_2) = (R_1 +&lt;br /&gt;
R_2) + {\rm j} \cdot (I_1 + I_2)\hspace{0.05cm}.$$ &lt;br /&gt;
*Jede komplexe Multiplikation erfordert vier reelle Multiplikationen und zwei reelle Additionen (eine Subtraktion wird wie eine Addition behandelt):&lt;br /&gt;
:$$(R_1 + {\rm j} \cdot I_1)  (R_2 + {\rm j} \cdot I_2) = (R_1 \cdot&lt;br /&gt;
R_2 - I_1 \cdot I_2) + {\rm j} \cdot (R_1 \cdot I_2 + R_2 \cdot&lt;br /&gt;
I_1)\hspace{0.05cm}.$$ &lt;br /&gt;
*Somit sind zur Berechnung aller&amp;amp;nbsp; $N$&amp;amp;nbsp; Koeffizienten insgesamt die folgende Anzahl&amp;amp;nbsp; $M$&amp;amp;nbsp; reeller Multiplikationen und die Anzahl&amp;amp;nbsp; $A$&amp;amp;nbsp; reeller Additionen erforderlich:&lt;br /&gt;
:$$M = 4 \cdot N \cdot (N-1),$$&lt;br /&gt;
:$$A = 2 \cdot N \cdot&lt;br /&gt;
(N-1)+2 \cdot N \cdot (N-1)=M \hspace{0.05cm}.$$ &lt;br /&gt;
*In heutigen Rechnern benötigen Multiplikationen und Additionen/Subtraktionen etwa die gleiche Rechenzeit. Es genügt, die Gesamtzahl&amp;amp;nbsp; $\mathcal{O} = M + A$&amp;amp;nbsp; aller Operationen zu betrachten:&lt;br /&gt;
:$$\mathcal{O} = 8 \cdot N \cdot (N-1) \approx 8 \cdot N^2\hspace{0.05cm}.$$ &lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; &lt;br /&gt;
*Man benötigt bereits für eine&amp;amp;nbsp; ''Diskrete Fouriertransformation''&amp;amp;nbsp; (DFT) mit&amp;amp;nbsp; $N = 1000$&amp;amp;nbsp;  knapp acht Millionen Rechenoperationen. Gleiches gilt für eine IDFT. &lt;br /&gt;
*Mit&amp;amp;nbsp; $N =16 $&amp;amp;nbsp; sind immerhin noch &amp;amp;nbsp;$1920$&amp;amp;nbsp; Rechenoperationen erforderlich.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ist der Parameter&amp;amp;nbsp; $N$&amp;amp;nbsp; eine Potenz zur Basis&amp;amp;nbsp; $2$, so können rechenzeitgünstigere Algorithmen angewendet werden. Die Vielzahl solcher aus der Literatur bekannten Verfahren werden unter dem Sammelbegriff&amp;amp;nbsp; '''Fast–Fouriertransformation'''&amp;amp;nbsp; – abgekürzt&amp;amp;nbsp; '''FFT'''&amp;amp;nbsp; – zusammengefasst. Alle diese Methoden basieren auf dem Überlagerungssatz der DFT.&lt;br /&gt;
 &lt;br /&gt;
==Überlagerungssatz der DFT==  	 	 &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Grafik verdeutlicht den so genannten Überlagerungssatz der DFT am Beispiel&amp;amp;nbsp; $N = 16$. Dargestellt ist hier der Übergang vom Zeit&amp;amp;ndash; in den Spektralbereich, also die Berechnung der Spektralbereichskoeffizienten aus den Zeitbereichskoeffizienten: &amp;amp;nbsp;    $\langle \hspace{0.1cm}D(\mu)\hspace{0.1cm}\rangle  \hspace{0.2cm}\bullet\!\!-\!\!\!-(N)\!-\!\!\!-\!\!\hspace{0.05cm}\circ\, \hspace{0.2cm} \langle \hspace{0.1cm} d(\nu) \hspace{0.1cm}\rangle.$&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_5_S2.png|center|frame|Überlagerungssatz der DFT]]&lt;br /&gt;
&lt;br /&gt;
Der dadurch beschriebene Algorithmus ist durch folgende Schritte gekennzeichnet:&lt;br /&gt;
*Die Folge&amp;amp;nbsp;  $\langle \hspace{0.1cm}d(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp; der Länge&amp;amp;nbsp; $N$&amp;amp;nbsp; wird in zwei Teilfolgen&amp;amp;nbsp; $\langle \hspace{0.1cm}d_1(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp; und&amp;amp;nbsp; $\langle \hspace{0.1cm} d_2(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp; jeweils halber Länge separiert (in der Garafik gelb bzw. grün hinterlegt). Mit&amp;amp;nbsp; $0 \le \nu \lt N/2$&amp;amp;nbsp; erhält man so die Folgenelemente&lt;br /&gt;
:$$d_1(\nu) = d(2\nu), $$&lt;br /&gt;
:$$d_2(\nu) = d(2\nu+1)&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
*Die Ausgangsfolgen&amp;amp;nbsp; $\langle \hspace{0.1cm}D_1(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; und&amp;amp;nbsp; $\langle \hspace{0.1cm}D_2(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; der beiden Teilblöcke ergeben sich daraus jeweils durch eine eigene DFT, aber nun nur noch mit halber Länge&amp;amp;nbsp; $N/2 = 8$:&lt;br /&gt;
:$$\langle \hspace{0.1cm}D_1(\mu) \hspace{0.1cm}\rangle  \hspace{0.2cm}\bullet\!\!-\!\!\!-(N/2)\!-\!\!\!-\!\!\hspace{0.05cm}\circ\, \hspace{0.2cm} \langle \hspace{0.1cm}d_1(\nu) \hspace{0.1cm}\rangle , $$&lt;br /&gt;
:$$ \langle \hspace{0.1cm}D_2(\mu)\hspace{0.1cm} \rangle \hspace{0.2cm}\bullet\!\!-\!\!\!-(N/2)\!-\!\!\!-\!\!\hspace{0.05cm}\circ\, \hspace{0.2cm} \langle \hspace{0.1cm}d_2(\nu) \hspace{0.1cm}\rangle \hspace{0.05cm}.$$ &lt;br /&gt;
*Die Ausgangswerte&amp;amp;nbsp; $\langle \hspace{0.1cm} D_2(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; der unteren (grünen) DFT $($mit&amp;amp;nbsp; $0  \le \mu \lt N/2)$&amp;amp;nbsp; werden danach im rot umrandeten Block durch komplexe Drehfaktoren hinsichtlich der Phasenlage verändert:&lt;br /&gt;
:$$D_2(\mu) \hspace{0.3cm} \Rightarrow \hspace{0.3cm}D_2(\mu) \cdot w^{\hspace{0.04cm}\mu}, \hspace{0.2cm}{\rm wobei}\hspace{0.1cm}w =&lt;br /&gt;
 {\rm e}^{-{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm}2 \pi/N} \hspace{0.05cm}.$$ &lt;br /&gt;
*Jeder einzelne&amp;amp;nbsp; '''Butterfly'''&amp;amp;nbsp; im blau umrandeten Block (in der Grafikmitte) liefert durch Addition bzw. Subtraktion zwei Elemente der gesuchten Ausgangsfolge. Mit&amp;amp;nbsp; $0  \le \mu \lt N/2$&amp;amp;nbsp; gilt dabei:&lt;br /&gt;
:$$D(\mu) =  {1}/{2}\cdot \big[D_1(\mu) + D_2(\mu) \cdot w^{\hspace{0.04cm}\mu}\big],$$&lt;br /&gt;
:$$D(\mu +{N}/{2})  =  {1}/{2}\cdot \big[D_1(\mu) - D_2(\mu) \cdot w^{\hspace{0.04cm}\mu}\big]\hspace{0.05cm}.$$ &lt;br /&gt;
&lt;br /&gt;
Durch&amp;amp;nbsp; '''diese erste Anwendung des Überlagerungssatzes halbiert sich somit in etwa der Rechenaufwand'''.&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp;&lt;br /&gt;
Die DFT–Koeffizienten&amp;amp;nbsp; $d(\nu)$&amp;amp;nbsp; zur Beschreibung des Zeitverlaufs seien entsprechend der&amp;amp;nbsp; '''Zeile 2'''&amp;amp;nbsp; der folgenden Tabelle „dreieckförmig” belegt. Beachten Sie hierbei die periodische Fortsetzung der DFT, so dass der lineare Anstieg für&amp;amp;nbsp; $t \lt 0$&amp;amp;nbsp; durch die Koeffizienten&amp;amp;nbsp; $d(8), \hspace{0.05cm}\text{ ...} \hspace{0.05cm}, d(15)$&amp;amp;nbsp; ausgedrückt wird.&lt;br /&gt;
&lt;br /&gt;
Durch Anwendung des DFT–Algorithmus mit&amp;amp;nbsp; $N = 16$&amp;amp;nbsp; erhält man die in der&amp;amp;nbsp; '''Zeile 3'''&amp;amp;nbsp; angegebenen Spektralkoeffizienten&amp;amp;nbsp; $D(\mu )$, die bei Vernachlässigung des Aliasingfehlers gleich&amp;amp;nbsp; $D(\mu ) = 4 \cdot \text{si}^2(\pi \cdot \mu/2)$&amp;amp;nbsp; wären. Man erkennt, dass sich der Aliasingfehler nur auf die ungeradzahligen Koeffizienten auswirkt (schraffierte Felder). Beispielsweise müsste&amp;amp;nbsp; $D(1) = 16/ \pi^2 \approx 1.621\neq 1.642$&amp;amp;nbsp; sein.&lt;br /&gt;
&lt;br /&gt;
[[File:Sig_T_5_5_S2b_Version2.png|center|frame|Ergebnistabelle zum &amp;amp;nbsp;$\text{Beispiel 1}$&amp;amp;nbsp; zum Überlagerungssatz der DFT]]&lt;br /&gt;
&lt;br /&gt;
Spaltet man die Gesamtfolge&amp;amp;nbsp; $\langle \hspace{0.1cm}d(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp; in zwei Teilfolgen&amp;amp;nbsp; $\langle \hspace{0.1cm}{d_1}'(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp; und&amp;amp;nbsp; $\langle \hspace{0.1cm} {d_2}'(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp; auf, und zwar derart, dass die erste (gelb hinterlegte) Teilfolge nur geradzahlige Koeffizienten&amp;amp;nbsp; $(\nu = 0, 2, \hspace{0.03cm}\text{ ...} \hspace{0.1cm}, N–2)$&amp;amp;nbsp; und die zweite (grün hinterlegt) nur ungeradzahlige Koeffizienten&amp;amp;nbsp; $(\nu = 1, 3, \hspace{0.03cm}\text{ ...} \hspace{0.1cm} , N–1)$&amp;amp;nbsp; beinhalten und alle anderen zu Null gesetzt sind, so erhält man die zugehörigen Folgen im Spektralbereich:&lt;br /&gt;
 &lt;br /&gt;
:$$ \langle \hspace{0.1cm}{D_1}'(\mu)\hspace{0.1cm} \rangle  \hspace{0.2cm}\bullet\!\!-\!\!\!-(N)\!-\!\!\!-\!\!\hspace{0.05cm}\circ\, \hspace{0.2cm} \langle \hspace{0.1cm} {d_1}'(\nu) \hspace{0.1cm}\rangle , $$&lt;br /&gt;
:$$ \langle \hspace{0.1cm}{D_2}'(\mu) \hspace{0.1cm}\rangle \hspace{0.2cm}\bullet\!\!-\!\!\!-(N)\!-\!\!\!-\!\!\hspace{0.05cm}\circ\, \hspace{0.2cm} \langle\hspace{0.1cm} {d_2}'(\nu) \rangle \hspace{0.1cm}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
In den gelb bzw. grün hinterlegten Zeilen&amp;amp;nbsp; $4\hspace{0.05cm}\text{ ...} \hspace{0.05cm}7$&amp;amp;nbsp; erkennt man:&lt;br /&gt;
*Wegen&amp;amp;nbsp; $d(\nu) = {d_1}'(\nu) + {d_2}'(\nu)$&amp;amp;nbsp; gilt auch&amp;amp;nbsp; $D(\mu ) = {D_1}'(\mu ) + {D_2}'(\mu )$. Dies lässt sich zum Beispiel mit dem&amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_Laws#Multiplikation_mit_Faktor_-_Additionssatz|Additionstheorem linearer Systeme]]&amp;amp;nbsp; begründen.&lt;br /&gt;
*Die Periode der Folge&amp;amp;nbsp; $\langle \hspace{0.1cm}{D_1}'(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; ist aufgrund des Nullsetzens eines jeden zweiten Zeitkoeffizienten nun&amp;amp;nbsp; $N/2$&amp;amp;nbsp; im Gegensatz zur Periode&amp;amp;nbsp; $N$&amp;amp;nbsp; der Folge&amp;amp;nbsp; $\langle \hspace{0.1cm} D(\mu )\hspace{0.1cm}\rangle$:&lt;br /&gt;
:$${D_1}'(\mu + {N}/{2}) ={D_1}'(\mu)\hspace{0.05cm}.$$ &lt;br /&gt;
* $\langle \hspace{0.1cm} {D_2}'(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; beinhaltet zusätzlich einen Phasenfaktor (Verschiebung um einen Abtastwert), der einen Vorzeichenwechsel zweier um&amp;amp;nbsp; $N/2$&amp;amp;nbsp; auseinanderliegender Koeffizienten bewirkt:&lt;br /&gt;
:$${D_2}'(\mu + {N}/{2}) = - {D_2}'(\mu)\hspace{0.05cm}.$$ &lt;br /&gt;
*Die Berechnung von&amp;amp;nbsp; $\langle \hspace{0.1cm}{D_1}'(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; und&amp;amp;nbsp; $\langle \hspace{0.1cm} {D_2}'(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; ist aber jeweils ebenso aufwändig wie die Bestimmung von&amp;amp;nbsp; $\langle \hspace{0.1cm}D(\mu )\hspace{0.1cm}\rangle$, da&amp;amp;nbsp; $\langle \hspace{0.1cm}{d_1}'(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp; und&amp;amp;nbsp; $\langle \hspace{0.1cm}{d_2}'(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp; ebenfalls aus&amp;amp;nbsp; $N$&amp;amp;nbsp; Elementen bestehen, auch wenn einige Null sind.}} &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp;&lt;br /&gt;
Zur Fortsetzung des ersten Beispiels wird nun die bisherige Tabelle um die Zeilen &amp;amp;nbsp;$8$&amp;amp;nbsp; bis &amp;amp;nbsp;$12$&amp;amp;nbsp; erweitert.&lt;br /&gt;
                       &lt;br /&gt;
[[File:Sig_T_5_5_S2c_Version2.png|center|frame|Ergebnistabelle zum &amp;amp;nbsp;$\text{Beispiel 2}$&amp;amp;nbsp; zum Überlagerungssatz der DFT]]&lt;br /&gt;
&lt;br /&gt;
Verzichtet man auf die Koeffizienten&amp;amp;nbsp; ${d_1}'(\nu) = 0$&amp;amp;nbsp; mit ungeraden sowie auf&amp;amp;nbsp; ${d_2}'(\nu)  = 0$&amp;amp;nbsp; mit geraden Indizes, so kommt man zu den Teilfolgen&amp;amp;nbsp; $\langle \hspace{0.1cm}d_1(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp; und&amp;amp;nbsp; $\langle \hspace{0.1cm}d_2(\nu)\hspace{0.1cm}\rangle$&amp;amp;nbsp;  entsprechend den  Zeilen &amp;amp;nbsp;$9$&amp;amp;nbsp; und &amp;amp;nbsp;$11$&amp;amp;nbsp;. Man erkennt:&lt;br /&gt;
*Die Zeitfolgen&amp;amp;nbsp; $\langle \hspace{0.1cm}{d_1}(\nu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; und&amp;amp;nbsp; $\langle \hspace{0.1cm}{d_2}(\nu )\hspace{0.1cm}\rangle$&amp;amp;nbsp;  weisen ebenso wie die dazugehörigen Spektralfolgen&amp;amp;nbsp; $\langle \hspace{0.1cm}{D_1}(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; und&amp;amp;nbsp; $\langle \hspace{0.1cm}{D_2}(\mu )\hspace{0.1cm}\rangle$&amp;amp;nbsp; nur noch die Dimension $N/2$ auf.&lt;br /&gt;
*Ein Vergleich der Zeilen&amp;amp;nbsp; $5$,&amp;amp;nbsp; $7$,&amp;amp;nbsp; $10$&amp;amp;nbsp; und&amp;amp;nbsp; $12$&amp;amp;nbsp; zeigt für&amp;amp;nbsp; $0  \le \mu \lt  N/2$&amp;amp;nbsp; folgenden Zusammenhang:&lt;br /&gt;
:$${D_1}'(\mu) = {1}/{2}\cdot {D_1}(\mu)\hspace{0.05cm},$$&lt;br /&gt;
:$$ {D_2}'(\mu) = {1}/{2}\cdot {D_2}(\mu)\cdot w^{\hspace{0.04cm}\mu}\hspace{0.05cm}.$$ &lt;br /&gt;
*Entsprechend ergibt sich für&amp;amp;nbsp; $N/2  \le \mu \lt  N$:&lt;br /&gt;
:$${D_1}'(\mu)  =  {1}/{2}\cdot {D_1}(\mu - {N}/{2})\hspace{0.05cm},$$&lt;br /&gt;
:$$ {D_2}'(\mu) =  {1}/{2}\cdot {D_2}(\mu {-} {N}/{2})\cdot w^{\hspace{0.04cm}\mu}&lt;br /&gt;
= { - } {1}/{2}\cdot {D_2}(\mu-N/2)\cdot w^{\hspace{0.04cm}\mu {-} N/2}\hspace{0.05cm}.&lt;br /&gt;
$$&lt;br /&gt;
&lt;br /&gt;
*Zum Beispiel erhält man mit&amp;amp;nbsp; $N = 16$  &amp;amp;nbsp; ⇒  &amp;amp;nbsp;  $w = {\rm e}^{ – {\rm j}\hspace{0.04cm} \cdot \hspace{0.04cm}\pi/8}$&amp;amp;nbsp; für die Indizes&amp;amp;nbsp; $\mu = 1$&amp;amp;nbsp;  bzw.&amp;amp;nbsp; $\mu = 9$:&amp;amp;nbsp;&lt;br /&gt;
:$${D_1}'(1)  =   {1.708}/{2} = 0.854,\hspace{0.8cm}&lt;br /&gt;
 {D_2}'(1) ={1}/{2}\cdot (1.456 + {\rm j} 0.603) \cdot {\rm e}^{ - {\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
 \pi/8} = 0.788$$&lt;br /&gt;
:$$\Rightarrow  D(1) = {D_1}'(1)+ {D_2}'(1)= 1.642 \hspace{0.05cm}.$$ &lt;br /&gt;
:$${D_9}'(1)  =  {1.708}/{2} = 0.854,\hspace{0.8cm}&lt;br /&gt;
 {D_2}'(9) = - {1}/{2}\cdot (1.456 + {\rm j} 0.603) \cdot {\rm e}^{ - {\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
 \pi/8} = - 0.788$$&lt;br /&gt;
:$$\Rightarrow  D(9) = {D_1}'(9)+ {D_2}'(9)= 0.066 \hspace{0.05cm}.$$}}&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp;  &lt;br /&gt;
*Durch diese erste Anwendung des Überlagerungssatzes halbiert sich nahezu der Rechenaufwand. &lt;br /&gt;
*Statt&amp;amp;nbsp; $\mathcal{O}= 1920$&amp;amp;nbsp;  benötigt man nur noch &amp;amp;nbsp;$\mathcal{O} = 2 · 448 + 8 \cdot (4+2) + 16 \cdot 2 = 976$&amp;amp;nbsp; reelle Operationen. &lt;br /&gt;
*Der erste Summand berücksichtigt die beiden DFT–Berechnungen mit&amp;amp;nbsp; $N/2 = 8$. &lt;br /&gt;
*Der Rest wird für die acht komplexen Multiplikationen und die&amp;amp;nbsp; $16$&amp;amp;nbsp; komplexen Additionen bzw. Subtraktionen benötigt.}}&lt;br /&gt;
&lt;br /&gt;
==Radix-2-Algorithmus nach Cooley und Tukey==  	 &lt;br /&gt;
&amp;lt;br&amp;gt; &lt;br /&gt;
Ebenso wie andere FFT–Algorithmen baut das hier vorgestellte Verfahren&amp;amp;nbsp; [CT65]&amp;lt;ref name ='CT65'&amp;gt;Cooley, J.W.; Tukey, J.W.: ''An Algorithm for the Machine Calculation of Complex Fourier Series''. In: Mathematics of Computation, Vol. 19, No. 90. (Apr., 1965), pp. 297-301.&amp;lt;/ref&amp;gt;&amp;amp;nbsp; von&amp;amp;nbsp; [https://de.wikipedia.org/wiki/James_Cooley James W. Cooley]&amp;amp;nbsp; und&amp;amp;nbsp; [https://en.wikipedia.org/wiki/John_Tukey John W. Tukey]&amp;amp;nbsp; auf dem Überlagerungssatz der DFT auf. Es funktioniert nur dann, wenn die Stützstellenzahl&amp;amp;nbsp; $N$&amp;amp;nbsp; eine Zweierpotenz ist. &lt;br /&gt;
&lt;br /&gt;
Die Grafik verdeutlicht den Algorithmus für&amp;amp;nbsp; $N = 8$, wobei wieder die Transformation vom Zeit– in den Frequenzbereich dargestellt ist.&lt;br /&gt;
[[File:P_ID1173__Sig_T_5_5_S3a_neu.png|right|frame|frame|Radix-2-Algorithmus (Flussdiagramm)]]&lt;br /&gt;
&lt;br /&gt;
*Vor dem eigentlichen FFT-Algorithmus müssen zunächst die Eingangswerte&amp;amp;nbsp; $d(0), \hspace{0.05cm}\text{...} \hspace{0.1cm}, d( N - 1)$&amp;amp;nbsp; im grauen Block &amp;amp;bdquo;Bitumkehroperation&amp;amp;rdquo; umsortiert werden. &lt;br /&gt;
*Die Berechnung erfolgt in&amp;amp;nbsp; $\text{log}_2 N = 3$&amp;amp;nbsp; Stufen, wobei in jeder Stufe&amp;amp;nbsp; $N/2 = 4$&amp;amp;nbsp;  gleiche Berechnungen mit verschiedenen&amp;amp;nbsp; $\mu$&amp;amp;ndash;Werten &amp;lt;br&amp;gt;(= Exponent des komplexen Drehfaktors) ausgeführt werden. Eine solche Basisoperation bezeichnet man auch als&amp;amp;nbsp; '''Butterfly'''.&lt;br /&gt;
*Jeder Butterfly berechnet aus zwei (im Allgemeinen komplexen) Eingangsgrößen&amp;amp;nbsp; $A$&amp;amp;nbsp; und&amp;amp;nbsp; $B$&amp;amp;nbsp; die beiden Ausgangsgrößen&amp;amp;nbsp; $A + B \cdot w^{\mu}$&amp;amp;nbsp; sowie&amp;amp;nbsp; $A – B \cdot w^{\mu}$&amp;amp;nbsp; entsprechend der folgenden Skizze.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1174__Sig_T_5_5_S3b_neu.png|center|frame|Butterfly des DFT-Algorithmus]]&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp;  &lt;br /&gt;
Die komplexen Spektralkoeffizienten&amp;amp;nbsp; $D(0), \hspace{0.05cm}\text{...} \hspace{0.1cm}, D( N - 1)$&amp;amp;nbsp; erhält man am Ausgang der letzten Stufe nach Division durch&amp;amp;nbsp; $N$. &lt;br /&gt;
*Wie in der&amp;amp;nbsp; [[Aufgaben:Aufgabe_5.5Z:_Rechenaufwand_für_die_FFT|Aufgabe 5.5Z]]&amp;amp;nbsp; gezeigt wird, ergibt sich gegenüber der DFT eine deutlich kürzere Rechenzeit, zum Beispiel für&amp;amp;nbsp; $N = 1024$&amp;amp;nbsp; um mehr als den Faktor&amp;amp;nbsp; $150$.&lt;br /&gt;
&lt;br /&gt;
*Die inverse DFT zur Berechnung der Zeit&amp;amp;ndash; aus den Spektralkoeffizienten geschieht mit dem gleichen Algorithmus und nur geringfügigen Modifizierungen.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_Programm.png|right|frame|Radix-2-Algorithmus (C-Programm)]]&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp;  &lt;br /&gt;
Abschließend wird ein C–Programm &amp;lt;br&amp;gt;&lt;br /&gt;
:$$\text{fft(N, Re, Im)}$$ &lt;br /&gt;
gemäß dem oben beschriebenen Radix–2–Algorithmus angegeben:&lt;br /&gt;
&lt;br /&gt;
*Beim Aufruf beinhalten die beiden Float–Arrays „Re” und „Im” die&amp;amp;nbsp; $N$&amp;amp;nbsp; Real– und Imaginärteile der komplexen Zeitkoeffizienten&amp;amp;nbsp; $d(0)$, ... , $d( N - 1)$.&lt;br /&gt;
*In den gleichen Feldern „Re” und „Im” werden am Programmende die komplexen Koeffizienten&amp;amp;nbsp; $D(0)$, ... , $D( N - 1)$&amp;amp;nbsp; an das aufrufende Programm zurückgegeben.&lt;br /&gt;
*Aufgrund der „In–Place”–Programmierung reichen somit für diesen Algorithmus&amp;amp;nbsp; $N$&amp;amp;nbsp; komplexe Speicherplätze aus, allerdings nur, wenn zu Beginn die Eingangswerte umsortiert werden.&lt;br /&gt;
*Dies geschieht durch das Programm „bitumkehr”, wobei die Inhalte von&amp;amp;nbsp; ${\rm Re}( \nu)$&amp;amp;nbsp; und&amp;amp;nbsp; ${\rm Im}( \nu)$&amp;amp;nbsp; in die Elemente&amp;amp;nbsp; ${\rm Re}( \kappa)$&amp;amp;nbsp; und&amp;amp;nbsp; ${\rm Im}( \kappa)$&amp;amp;nbsp; eingetragen werden. $\text{Beispiel 4}$&amp;amp;nbsp; verdeutlicht die Vorgehensweise.}} &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1176__Sig_T_5_5_S3d_neu.png|right|frame|Radix-2-Algorithmus $($Bitumkehroperation für&amp;amp;nbsp; $N = 8)$]]&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 4:  Bitumkehroperation}$&amp;amp;nbsp;&lt;br /&gt;
&lt;br /&gt;
*Der neue Index&amp;amp;nbsp; $\kappa$&amp;amp;nbsp; ergibt sich, wenn man den Index&amp;amp;nbsp; $\nu$&amp;amp;nbsp; als Dualzahl schreibt und anschließend die&amp;amp;nbsp; $\text{log}_2 \hspace{0.05cm} N$&amp;amp;nbsp; Bit in umgekehrter Reihenfolge darstellt.&lt;br /&gt;
*Zum Beispiel wird aus&amp;amp;nbsp; $\nu = 3$&amp;amp;nbsp; der neue Index&amp;amp;nbsp; $\kappa = 6$.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel==  &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.5: Fast Fourier Transform|Exercise 5.5: Fast Fourier Transform]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.5Z: Complexity of The FFT|Exercise 5.5Z: Complexity of The FFT]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.5Z:_Complexity_of_the_FFT&amp;diff=35318</id>
		<title>Aufgaben:Exercise 5.5Z: Complexity of the FFT</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.5Z:_Complexity_of_the_FFT&amp;diff=35318"/>
		<updated>2020-11-29T21:01:50Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: Oezdemir moved page Aufgaben:Aufgabe 5.5Z: Rechenaufwand für die FFT to Aufgaben:Exercise 5.5Z: Complexity of The FFT&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
{{quiz-Header|Buchseite=Signal_Representation/Fast_Fourier_Transform_(FFT)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1179__Sig_Z_5_5.png|right|frame|Letzte Stufe der FFT für $N=8$]]&lt;br /&gt;
Der FFT–Algorithmus&amp;amp;nbsp; (''Fast Fourier Transform'')&amp;amp;nbsp; realisiert eine&amp;amp;nbsp; ''Diskrete Fouriertransformation''&amp;amp;nbsp; mit dem kleinstmöglichen Rechenaufwand, wenn der Parameter&amp;amp;nbsp; $N$&amp;amp;nbsp; eine Zweierpotenz ist. Im Einzelnen sind zur Durchführung einer FFT folgende Rechenschritte notwendig:&lt;br /&gt;
*Die FFT geschieht in&amp;amp;nbsp; ${\rm log_2} \ N$&amp;amp;nbsp; Stufen, wobei in jeder Stufe die genau gleiche Anzahl an Rechenoperationen durchzuführen ist. &lt;br /&gt;
*Die Grafik zeigt die dritte und letzte Stufe für das Beispiel&amp;amp;nbsp; $N = 8$. Man erkennt, dass in dieser und auch den anderen Stufen jeweils&amp;amp;nbsp; $N/2$&amp;amp;nbsp; Basisoperationen durchzuführen sind.&lt;br /&gt;
*In jeder Basisoperation, die man häufig auch als&amp;amp;nbsp; '''Butterfly'''&amp;amp;nbsp; bezeichnet, werden aus den beiden komplexen Eingangsgrößen&amp;amp;nbsp; $E_1$&amp;amp;nbsp; und&amp;amp;nbsp; $E_2$&amp;amp;nbsp; zwei komplexe Ausgänge berechnet:&lt;br /&gt;
:$$ A_1  = E_1 + E_2 \cdot w^{\hspace{0.04cm}\mu}, $$&lt;br /&gt;
:$$ A_2 = E_1 - E_2 \cdot w^{\hspace{0.04cm} \mu}\hspace{0.05cm}.$$&lt;br /&gt;
*Hierbei bezeichnet&amp;amp;nbsp; $w =  {\rm e}^{-{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm} 2\pi/N}$&amp;amp;nbsp; den komplexen Drehfaktor. Für&amp;amp;nbsp;  $N = 8$&amp;amp;nbsp; ergibt sich der Wert&amp;amp;nbsp; $w =  {\rm e}^{-{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} \pi/4} = \cos(45^\circ) - {\rm j} \cdot \sin(45^\circ)\hspace{0.05cm}.$&lt;br /&gt;
*Der Exponent&amp;amp;nbsp; $\mu$&amp;amp;nbsp; für diesen komplexen Drehfaktor kann alle ganzzahligen Werte zwischen&amp;amp;nbsp; $0$&amp;amp;nbsp; und&amp;amp;nbsp; $N/2-1$&amp;amp;nbsp; annehmen. Für&amp;amp;nbsp; $N = 8$&amp;amp;nbsp; gilt:&lt;br /&gt;
:$$w^0 = 1,\hspace{0.2cm}w^1 = {1}/{\sqrt{2}}- {\rm j}&lt;br /&gt;
\cdot{1}/{\sqrt{2}},\hspace{0.2cm}w^2 = - {\rm&lt;br /&gt;
j},\hspace{0.2cm}w^3 = -{1}/{\sqrt{2}}- {\rm j}&lt;br /&gt;
\cdot{1}/{\sqrt{2}} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Mit dieser Aufgabe sollen die für die FFT erforderliche Anzahl von Rechenoperationen&amp;amp;nbsp; $(\mathcal{O}_{\rm FFT})$&amp;amp;nbsp; ermittelt und mit dem für die DFT angebbaren Wert&amp;amp;nbsp; $\mathcal{O}_{\rm DFT} ≈ 8\cdot N^2$&amp;amp;nbsp; verglichen werden.&lt;br /&gt;
&lt;br /&gt;
Zu beachten ist:&lt;br /&gt;
*Sinnvollerweise werden die Potenzen von&amp;amp;nbsp; $w$&amp;amp;nbsp; vor dem eigentlichen Algorithmus berechnet und in einer Lookup–Tabelle abgelegt. &lt;br /&gt;
*Die hierfür notwendigen Operationen sollen deshalb unberücksichtigt bleiben.&lt;br /&gt;
*Die Bitumkehroperation – eine Umsortierung, die vor der ersten Stufe durchzuführen ist – soll bei dieser Abschätzung ebenfalls nicht berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Hinweis:'' &lt;br /&gt;
*Die Aufgabe gehört zum  Kapitel&amp;amp;nbsp; [[Signal_Representation/Fast_Fourier_Transform_(FFT)|Fast-Fouriertransformation (FFT)]].&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Fragebogen===&lt;br /&gt;
&lt;br /&gt;
&amp;lt;quiz display=simple&amp;gt;&lt;br /&gt;
{Wieviele reelle Additionen&amp;amp;nbsp; $(A_{\rm A})$&amp;amp;nbsp; erfordert eine komplexe Addition?&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$A_{\rm A} \hspace{0.3cm} = \ $ { 2 }&lt;br /&gt;
&lt;br /&gt;
{Wieviele reelle Additionen&amp;amp;nbsp; $(A_{\rm M})$&amp;amp;nbsp; und Multiplikationen&amp;amp;nbsp; $(M_{\rm M})$&amp;amp;nbsp; sind für eine komplexe Multiplikation erforderlich?&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$A_{\rm M} \hspace{0.3cm} = \  $ { 2 }&lt;br /&gt;
$M_{\rm M} \hspace{0.2cm} = \  $ { 4 }&lt;br /&gt;
&lt;br /&gt;
{Wieviele komplexe Additionen/Subtraktionen&amp;amp;nbsp; $(a_{\rm B})$&amp;amp;nbsp; erfordert eine einzige Basisoperation (&amp;amp;bdquo;Butterfly&amp;amp;rdquo;)?  &lt;br /&gt;
&amp;lt;br&amp;gt;Wieviele komplexe Multiplikationen&amp;amp;nbsp; $(m_{\rm B})$&amp;amp;nbsp; sind pro Basisoperation notwendig?&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$a_{\rm B} \hspace{0.32cm} = \ $  { 2 }&lt;br /&gt;
$m_{\rm B} \hspace{0.2cm} = \ $  { 1 }&lt;br /&gt;
&lt;br /&gt;
{Wieviele Rechenoperationen&amp;amp;nbsp; (Additionen, Subtraktionen, Multiplikationen gleichermaßen)&amp;amp;nbsp; erfordert eine Basisoperation?&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$\mathcal{O}_{\rm B} \ = \ $  { 10 }&lt;br /&gt;
&lt;br /&gt;
{Wieviele reelle Operationen&amp;amp;nbsp; $(\mathcal{O}_{\rm FFT})$&amp;amp;nbsp; erfordert der gesamte FFT&amp;amp;ndash;Algorithmus? Welche Werte ergeben sich für&amp;amp;nbsp; $N = 16$&amp;amp;nbsp; und&amp;amp;nbsp; $N = 1024$?&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$N = 16\text{:} \hspace{0.65cm} \mathcal{O}_{\rm FFT} \ = \ $ { 320 3% }&lt;br /&gt;
$N = 1024\text{:} \hspace{0.2cm} \mathcal{O}_{\rm FFT} \ = \ $ { 51200 3% }&lt;br /&gt;
&lt;br /&gt;
{Wie groß ist der Zeitgewinn&amp;amp;nbsp; $G_{\rm FFT} = \mathcal{O}_{\rm DFT} - \mathcal{O}_{\rm FFT}$&amp;amp;nbsp; für&amp;amp;nbsp; $N = 16$&amp;amp;nbsp; und&amp;amp;nbsp; $N = 1024$?&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$N = 16\text{:} \hspace{0.65cm} G_{\rm FFT} \ = \ $ { 6.4 3% }&lt;br /&gt;
$N = 1024\text{:} \hspace{0.2cm} G_{\rm FFT} \ = \ $ { 164 3% }&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/quiz&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Musterlösung===&lt;br /&gt;
{{ML-Kopf}}&lt;br /&gt;
'''(1)'''&amp;amp;nbsp; Jede komplexe Addition erfordert zwei reelle Additionen:&lt;br /&gt;
:$$(R_1 + {\rm j} \cdot I_1) + (R_2 + {\rm j} \cdot I_2) = (R_1 +&lt;br /&gt;
R_2) + {\rm j} \cdot (I_1 + I_2)\hspace{0.3cm}\Rightarrow \hspace{0.3cm}&lt;br /&gt;
\hspace{0.15 cm}\underline{ A_{\rm A} =&lt;br /&gt;
2}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(2)'''&amp;amp;nbsp; Eine jede komplexe Multiplikation benötigt vier reelle Multiplikationen und zwei reelle Additionen:&lt;br /&gt;
:$$(R_1 + {\rm j} \cdot I_1)  (R_2 + {\rm j} \cdot I_2) = (R_1 \cdot&lt;br /&gt;
R_2 - I_1 \cdot I_2) + {\rm j} \cdot (R_1 \cdot I_2 + R_2 \cdot&lt;br /&gt;
I_1)\hspace{0.3cm}&lt;br /&gt;
\Rightarrow \hspace{0.3cm}\hspace{0.15 cm}\underline{A_{\rm M} = 2,\hspace{0.3cm}M_{\rm M} =&lt;br /&gt;
4} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(3)'''&amp;amp;nbsp; Die Basisoperationen lauten mit den komplexen Eingangsgrößen&amp;amp;nbsp; $E_1$,&amp;amp;nbsp; $E_2$&amp;amp;nbsp; und&amp;amp;nbsp; $w^{\hspace{0.04cm}\mu}$:&lt;br /&gt;
:$$ A_1  = E_1 + E_2 \cdot w^{\hspace{0.04cm}\mu},\hspace{0.5cm}  A_2 = E_1 - E_2 \cdot w^{\hspace{0.04cm} \mu}\hspace{0.05cm}.$$&lt;br /&gt;
*Dies bedeutet eine komplexe Multiplikation und zwei komplexe Additionen: &amp;amp;nbsp; $\hspace{0.15 cm}\underline{a_{\rm B} = 2, \hspace{0.2cm}m_{\rm B} = 1}&lt;br /&gt;
 \hspace{0.05cm}.$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(4)'''&amp;amp;nbsp; Im Gegensatz zu den ersten Computern nimmt heute eine Multiplikation keine wesentlich größere Rechenzeit in Anspruch als eine Addition bzw. Subtraktion. &lt;br /&gt;
&lt;br /&gt;
*Mit den Ergebnissen der Teilaufgaben&amp;amp;nbsp; '''(1)''',&amp;amp;nbsp; '''(2)'''&amp;amp;nbsp; und&amp;amp;nbsp; '''(3)'''&amp;amp;nbsp; erhält man für die Gesamtzahl der Rechenoperationen:&lt;br /&gt;
:$$ \mathcal{O}_{\rm B} = a_{\rm B}\cdot A_{\rm A} + a_{\rm B}\cdot (A_{\rm M}&lt;br /&gt;
+M_{\rm M} ) = 2 \cdot 2 + 1 \cdot 6\hspace{0.15 cm}\underline{ = 10}&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(5)'''&amp;amp;nbsp; Insgesamt gibt es&amp;amp;nbsp; ${\rm log_2} \ N$ Stufen, in denen jeweils&amp;amp;nbsp; $N/2$&amp;amp;nbsp; Basisoperationen auszuführen sind:&lt;br /&gt;
:$$\mathcal{O}_{\rm FFT} = {\rm log_2}\hspace{0.1cm}N \cdot \frac{N}{2}\cdot&lt;br /&gt;
\mathcal{O}_{\rm B} = 5 \cdot N \cdot {\rm log_2}\hspace{0.1cm}N$$&lt;br /&gt;
:$$\Rightarrow \hspace{0.3cm}\mathcal{O}_{\rm FFT}\hspace{0.1cm}(N=16)  =  5\cdot 16 \cdot&lt;br /&gt;
4 \hspace{0.15 cm}\underline{= 320}, \hspace{0.5cm}\mathcal{O}_{\rm FFT}\hspace{0.1cm}(N=1024)  =  5\cdot 1024&lt;br /&gt;
\cdot 10 \hspace{0.15 cm}\underline{= 51200}&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(6)'''&amp;amp;nbsp; Der Rechenzeitgewinn der FFT gegenüber der herkömmlichen DFT ergibt sich zu:&lt;br /&gt;
:$$G_{\rm FFT} = \frac{\mathcal{O}_{\rm DFT}}{\mathcal{O}_{\rm FFT}} = \frac{8 \cdot N^2} {5 \cdot&lt;br /&gt;
N \cdot {\rm log_2}\hspace{0.1cm}N }= 1.6 \cdot \frac{N}{ {\rm&lt;br /&gt;
log_2}\hspace{0.1cm}N}$$&lt;br /&gt;
:$$\Rightarrow \hspace{0.3cm}G_{\rm FFT} \hspace{0.1cm}(N=16)  =  1.6 \cdot&lt;br /&gt;
\frac{16}{ 4} \hspace{0.15 cm}\underline{= 6.4}, \hspace{0.5cm}G_{\rm FFT} \hspace{0.1cm}(N=1024)  =  1.6 \cdot\frac{1024}{ 10}\hspace{0.15 cm}\underline{ \approx 164}&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{ML-Fuß}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Category:Exercises for Signal Representation|^5.5 Fast Fourier Transform ^]]&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Aufgaben:Aufgabe_5.5Z:_Rechenaufwand_f%C3%BCr_die_FFT&amp;diff=35319</id>
		<title>Aufgaben:Aufgabe 5.5Z: Rechenaufwand für die FFT</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Aufgaben:Aufgabe_5.5Z:_Rechenaufwand_f%C3%BCr_die_FFT&amp;diff=35319"/>
		<updated>2020-11-29T21:01:50Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: Oezdemir moved page Aufgaben:Aufgabe 5.5Z: Rechenaufwand für die FFT to Aufgaben:Exercise 5.5Z: Complexity of The FFT&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECT [[Aufgaben:Exercise 5.5Z: Complexity of The FFT]]&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.5:_Fast_Fourier_Transform&amp;diff=35316</id>
		<title>Aufgaben:Exercise 5.5: Fast Fourier Transform</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.5:_Fast_Fourier_Transform&amp;diff=35316"/>
		<updated>2020-11-29T21:00:58Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: Oezdemir moved page Aufgaben:Aufgabe 5.5: Fast-Fouriertransformation to Aufgaben:Exercise 5.5: Fast Fourier Transform&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
{{quiz-Header|Buchseite=Signal_Representation/Fast_Fourier_Transform_(FFT)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_A_5_5.png|right|frame|FFT-Algorithmus für&amp;amp;nbsp; $N=8$]]&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt den Signalflussplan der FFT für&amp;amp;nbsp; $N = 8$. Aus den Zeitkoeffizienten&amp;amp;nbsp; $d(0), \hspace{0.03cm}\text{...} \hspace{0.1cm}, d(7)$&amp;amp;nbsp; werden die dazugehörigen Spektralkoeffizienten&amp;amp;nbsp; $D(0), \hspace{0.03cm}\text{...} \hspace{0.1cm} , D(7)$&amp;amp;nbsp; ermittelt. Für diese gilt mit&amp;amp;nbsp; $0 ≤ μ ≤ 7$:&lt;br /&gt;
 &lt;br /&gt;
:$$D(\mu) =  \frac{1}{N}\cdot \sum_{\nu = 0 }^{N-1}&lt;br /&gt;
 d(\nu) \cdot  {w}^{\hspace{0.03cm}\nu \hspace{0.05cm} \cdot&lt;br /&gt;
 \hspace{0.05cm}\mu}\hspace{0.05cm},$$&lt;br /&gt;
&lt;br /&gt;
wobei der komplexe Drehfaktor&amp;amp;nbsp; $w = \text{e}^{-\text{j}\hspace{0.05cm} \cdot&lt;br /&gt;
 \hspace{0.05cm}2\pi /N}$&amp;amp;nbsp; zu verwenden ist, also&amp;amp;nbsp; $w = \text{e}^{-\text{j}\hspace{0.05cm} \cdot&lt;br /&gt;
 \hspace{0.05cm}\pi /4}$&amp;amp;nbsp; für&amp;amp;nbsp; $N = 8$.&lt;br /&gt;
&lt;br /&gt;
*Am Eingang wird die alternierende $±1$–Folge&amp;amp;nbsp; $\langle\hspace{0.05cm} d(ν)\hspace{0.05cm}\rangle$&amp;amp;nbsp; angelegt. &lt;br /&gt;
*Nach der Bitumkehroperation ergibt sich daraus die Folge&amp;amp;nbsp; $\langle \hspace{0.05cm}b(\kappa)\hspace{0.05cm}\rangle$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Es gilt&amp;amp;nbsp; $b(κ) = d(ν)$, wenn man&amp;amp;nbsp; $ν$&amp;amp;nbsp; als Dualzahl darstellt und die resultierenden drei Bit als&amp;amp;nbsp; $κ$&amp;amp;nbsp; in umgekehrter Reihenfolge geschrieben werden. Beispielsweise&lt;br /&gt;
* folgt aus&amp;amp;nbsp; $ν = 1$&amp;amp;nbsp; $($binär&amp;amp;nbsp; $001)$&amp;amp;nbsp; die Position&amp;amp;nbsp; $κ = 4$&amp;amp;nbsp; $($binär&amp;amp;nbsp; $100)$,&lt;br /&gt;
* verbleibt&amp;amp;nbsp; $d(2)$&amp;amp;nbsp; an der gleichen Position&amp;amp;nbsp; $2$&amp;amp;nbsp; $($binär&amp;amp;nbsp; $010)$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Der eigentliche FFT–Algorithmus geschieht für das Beispiel&amp;amp;nbsp; $N = 8$&amp;amp;nbsp; in&amp;amp;nbsp; $\log_2 N = 3$&amp;amp;nbsp; Stufen, die mit&amp;amp;nbsp; $L = 1$,&amp;amp;nbsp; $L =2$&amp;amp;nbsp; und&amp;amp;nbsp; $L = 3$&amp;amp;nbsp; bezeichnet werden. Weiter gilt:&lt;br /&gt;
* In jeder Stufe sind vier Basisoperationen – so genannte ''Butterflies'' – durchzuführen.&lt;br /&gt;
* Die Werte am Ausgang der ersten Stufe werden in dieser Aufgabe mit&amp;amp;nbsp; $X(0),\hspace{0.03cm}\text{...} \hspace{0.1cm} , X(7)$&amp;amp;nbsp; bezeichnet, die der zweiten mit&amp;amp;nbsp; $Y(0), \hspace{0.03cm}\text{...} \hspace{0.1cm}  , Y(7)$.&lt;br /&gt;
* Nach der dritten und letzten Stufe sind alle Werte noch durch&amp;amp;nbsp; $N$&amp;amp;nbsp; zu dividieren. Hier liegt dann das endgültige Ergebnis&amp;amp;nbsp; $D(0), \hspace{0.03cm}\text{...} \hspace{0.1cm}  , D(7)$&amp;amp;nbsp; vor.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Hinweis:'' &lt;br /&gt;
*Die Aufgabe gehört zum  Kapitel&amp;amp;nbsp; [[Signal_Representation/Fast_Fourier_Transform_(FFT)|Fast-Fouriertransformation (FFT)]].&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Fragebogen===&lt;br /&gt;
&lt;br /&gt;
&amp;lt;quiz display=simple&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{Berechnen Sie den DFT–Koeffizienten&amp;amp;nbsp; $D(3)$.&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$D(3) \ = \ $ { 0. }&lt;br /&gt;
&lt;br /&gt;
{Berechnen Sie den DFT–Koeffizienten&amp;amp;nbsp; $D(4)$.&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$D(4) \ = \ $ { 1 3% }&lt;br /&gt;
&lt;br /&gt;
{Ermitteln Sie die Ausgangswerte&amp;amp;nbsp; $X(0)$, ... , $X(7)$&amp;amp;nbsp; der ersten Stufe. Welche der folgenden Aussagen sind zutreffend?&lt;br /&gt;
|type=&amp;quot;[]&amp;quot;}&lt;br /&gt;
- Alle&amp;amp;nbsp; $X$&amp;amp;ndash;Werte mit geradzahligen Indizes sind gleich&amp;amp;nbsp; $2$.	&lt;br /&gt;
+ Alle&amp;amp;nbsp; $X$&amp;amp;ndash;Werte mit ungeradzahligen Indizes sind gleich&amp;amp;nbsp; $0$.&lt;br /&gt;
&lt;br /&gt;
{Ermitteln Sie die Ausgangswerte&amp;amp;nbsp; $Y(0)$, ... , $Y(7)$&amp;amp;nbsp; der zweiten Stufe. Geben Sie zur Kontrolle die Werte&amp;amp;nbsp; $Y(0)$&amp;amp;nbsp; und&amp;amp;nbsp; $Y(4)$&amp;amp;nbsp; ein.&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$Y(0) \ = \ $ { 4 3% }&lt;br /&gt;
$Y(4) \ = \ $ { -4.12--3.88 }&lt;br /&gt;
&lt;br /&gt;
{Berechnen Sie alle&amp;amp;nbsp; $N$&amp;amp;nbsp; Spektralwerte&amp;amp;nbsp; $D(\mu)$, insbesondere&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$D(\mu = 4) \ = \ $ { 1 3% }&lt;br /&gt;
$D(\mu \neq 4) \ = \ $ { 0. }&lt;br /&gt;
&lt;br /&gt;
{Welche Spektralkoeffizienten würden sich für&amp;amp;nbsp; $d(ν = 4) = 1$&amp;amp;nbsp; und&amp;amp;nbsp; $d(ν \neq 4) = 0$&amp;amp;nbsp; ergeben? &amp;lt;br&amp;gt;Geben Sie zur Kontrolle die Werte&amp;amp;nbsp; $D(3)$&amp;amp;nbsp; und&amp;amp;nbsp; $D(4)$&amp;amp;nbsp; ein.&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$D(\mu = 3) \ = \ $ { -1.03--0.97 }&lt;br /&gt;
$D(\mu = 4) \ = \ $ { 1 3% }&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/quiz&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Musterlösung===&lt;br /&gt;
&lt;br /&gt;
{{ML-Kopf}}&lt;br /&gt;
'''(1)'''&amp;amp;nbsp; Entsprechend der auf dem Angabenblatt gegebenen allgemeinen DFT–Gleichung gilt mit&amp;amp;nbsp; $w = \text{e}^{-\text{j}\hspace{0.05cm} \cdot&lt;br /&gt;
 \hspace{0.05cm}\pi /4}$&amp;amp;nbsp; unter Berücksichtigung der alternierenden Zeitkoeffizienten:&lt;br /&gt;
 &lt;br /&gt;
:$$8 \cdot D(3)  =    w^0 - w^3 + w^6- w^9+ w^{12}- w^{15}+ w^{18}-&lt;br /&gt;
w^{21}  =    w^0 - w^3 + w^2- w^1+ w^{4}- w^{7}+ w^{6}-&lt;br /&gt;
w^{5}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Hierbei ist berücksichtigt, dass aufgrund der Periodizität&amp;amp;nbsp; $w_9 = w_1$,&amp;amp;nbsp; $w_{12} = w_4$,&amp;amp;nbsp; $w_{15} = w_7$,&amp;amp;nbsp; $w_{18} = w_2$&amp;amp;nbsp; und&amp;amp;nbsp; $w_{21} = w_5$&amp;amp;nbsp; ist. &lt;br /&gt;
*Nach Umsortieren gilt in gleicher Weise:&lt;br /&gt;
 &lt;br /&gt;
:$$8 \cdot D(3)  =   (w^0 + w^4) - (w^1 + w^5)+ (w^2 + w^6) - (w^3 + w^7) =   (1 + w + w^2+ w^3) \cdot (w^0 + w^4)\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Wegen&amp;amp;nbsp; $w_0 = 1$&amp;amp;nbsp; und&amp;amp;nbsp; $w_4 = \text{e}^{-\text{j}\pi } = \hspace{0.08cm} - \hspace{-0.08cm}1$&amp;amp;nbsp; erhält man somit&amp;amp;nbsp; $\underline {D(3) = 0}$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(2)'''&amp;amp;nbsp; In analoger Weise zur Teilaufgabe&amp;amp;nbsp; '''(1)'''&amp;amp;nbsp; ergibt sich nun:&lt;br /&gt;
 &lt;br /&gt;
:$$ 8 \cdot D(4)  =    w^0 - w^4 + w^8- w^{12}+ w^{16}- w^{20}+&lt;br /&gt;
w^{24}- w^{28}=   4 \cdot (w^0 - w^4)= 8 \hspace{0.3cm}&lt;br /&gt;
\Rightarrow \hspace{0.3cm}\hspace{0.15 cm}\underline{D(4) = 1}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1178__Sig_A_5_5c_neu.png|right|frame|Beispiel für den FFT-Algorithmus]]&lt;br /&gt;
'''(3)'''&amp;amp;nbsp; Richtig ist der &amp;lt;u&amp;gt;Lösungsvorschlag 2&amp;lt;/u&amp;gt;:&lt;br /&gt;
*Der Term&amp;amp;nbsp; $w^0 = 1$&amp;amp;nbsp; muss nicht berücksichtigt werden. &lt;br /&gt;
*Alle Ausgangswerte mit ungeraden Indizes sind durch die Subtraktion zweier identischer Eingangswerte Null. &lt;br /&gt;
*Die erste Aussage trifft nicht zu: &amp;amp;nbsp; Es gilt&amp;amp;nbsp; $X(0) = X(2) = +2$&amp;amp;nbsp; und&amp;amp;nbsp; $X(4) = X(6) = - 2$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(4)'''&amp;amp;nbsp; Auf die Multiplikation mit&amp;amp;nbsp; $w^{2} = -{\rm j}$&amp;amp;nbsp; kann verzichtet werden, da im Signalflussplan die entsprechenden Eingangsgrößen Null sind.&lt;br /&gt;
*Man erhält somit&amp;amp;nbsp; $Y(0) \;\underline{= 4}$&amp;amp;nbsp; und&amp;amp;nbsp; $Y(4) \;\underline{=  - \hspace{-0.03cm}4}$. &lt;br /&gt;
*Alle anderen Werte sind Null. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(5)'''&amp;amp;nbsp; Wegen&amp;amp;nbsp; $Y(5) = Y(6) =Y(7) = 0$&amp;amp;nbsp; spielen auch in der dritten Stufe die Multiplikationen mit&amp;amp;nbsp; $w$,&amp;amp;nbsp; $w^2$&amp;amp;nbsp; und&amp;amp;nbsp; $w^3$&amp;amp;nbsp; keine Rolle. Alle Spektralkoeffizienten&amp;amp;nbsp; $D(\mu)$&amp;amp;nbsp; ergeben sich deshalb zu Null mit Ausnahme von&lt;br /&gt;
 &lt;br /&gt;
:$$\hspace{0.15 cm}\underline{D(4)} =  {1}/{N}\cdot \left[Y(0) - Y(4) \right ] \hspace{0.15 cm}\underline{= 1}&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Dieses Ergebnis stimmt mit den Ergebnissen aus&amp;amp;nbsp; '''(1)'''&amp;amp;nbsp; und&amp;amp;nbsp; '''(2)'''&amp;amp;nbsp; überein. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(6)'''&amp;amp;nbsp; Nachdem sowohl die Zeitkoeffizienten&amp;amp;nbsp; $d(ν)$&amp;amp;nbsp; als auch alle Spektralkoeffizienten&amp;amp;nbsp; $D(\mu)$&amp;amp;nbsp; rein reell sind, besteht kein Unterschied zwischen der FFT und der IFFT. &lt;br /&gt;
*Das bedeutet gleichzeitig:&amp;amp;nbsp; Die Eingangs– und Ausgangswerte können vertauscht werden.&lt;br /&gt;
&lt;br /&gt;
*Die Teilaufgabe&amp;amp;nbsp; '''(5)'''&amp;amp;nbsp; hat das folgende Ergebnis geliefert:&lt;br /&gt;
 &lt;br /&gt;
:$$d({\rm gerades}\hspace{0.15cm}\nu) =  +1, \hspace{0.2cm}d({\rm&lt;br /&gt;
ungerades}\hspace{0.15cm}\nu)=  -1$$&lt;br /&gt;
:$$\Rightarrow&lt;br /&gt;
\hspace{0.3cm}D(\mu = 4)= 1,\hspace{0.2cm}D(\mu \ne 4)= 0.$$&lt;br /&gt;
&lt;br /&gt;
*Durch Vertauschen der Eingangs– und Ausgangswerte kommt man zur Aufgabenstellung&amp;amp;nbsp; '''(6)''':&lt;br /&gt;
 &lt;br /&gt;
:$$d(\nu = 4)= 1, \hspace{0.2cm}d(\nu \ne 4)= 0 \hspace{0.3cm}&lt;br /&gt;
\Rightarrow \hspace{0.3cm}D({\rm gerades}\hspace{0.15cm}\mu) = +1,&lt;br /&gt;
\hspace{0.2cm}D({\rm ungerades}\hspace{0.15cm}\mu)=  -1&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Insbesondere ergibt sich sich&amp;amp;nbsp; $D(3) \; \underline{=  -1}$&amp;amp;nbsp; und&amp;amp;nbsp; $D(4) \; \underline{= +1}$.&lt;br /&gt;
{{ML-Fuß}}&lt;br /&gt;
&lt;br /&gt;
__NOEDITSECTION__&lt;br /&gt;
[[Category:Exercises for Signal Representation|^5.5 Fast Fourier Transform ^]]&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Aufgaben:Aufgabe_5.5:_Fast-Fouriertransformation&amp;diff=35317</id>
		<title>Aufgaben:Aufgabe 5.5: Fast-Fouriertransformation</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Aufgaben:Aufgabe_5.5:_Fast-Fouriertransformation&amp;diff=35317"/>
		<updated>2020-11-29T21:00:58Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: Oezdemir moved page Aufgaben:Aufgabe 5.5: Fast-Fouriertransformation to Aufgaben:Exercise 5.5: Fast Fourier Transform&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECT [[Aufgaben:Exercise 5.5: Fast Fourier Transform]]&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.5Z:_Complexity_of_the_FFT&amp;diff=35315</id>
		<title>Aufgaben:Exercise 5.5Z: Complexity of the FFT</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.5Z:_Complexity_of_the_FFT&amp;diff=35315"/>
		<updated>2020-11-29T21:00:33Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
{{quiz-Header|Buchseite=Signal_Representation/Fast_Fourier_Transform_(FFT)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1179__Sig_Z_5_5.png|right|frame|Letzte Stufe der FFT für $N=8$]]&lt;br /&gt;
Der FFT–Algorithmus&amp;amp;nbsp; (''Fast Fourier Transform'')&amp;amp;nbsp; realisiert eine&amp;amp;nbsp; ''Diskrete Fouriertransformation''&amp;amp;nbsp; mit dem kleinstmöglichen Rechenaufwand, wenn der Parameter&amp;amp;nbsp; $N$&amp;amp;nbsp; eine Zweierpotenz ist. Im Einzelnen sind zur Durchführung einer FFT folgende Rechenschritte notwendig:&lt;br /&gt;
*Die FFT geschieht in&amp;amp;nbsp; ${\rm log_2} \ N$&amp;amp;nbsp; Stufen, wobei in jeder Stufe die genau gleiche Anzahl an Rechenoperationen durchzuführen ist. &lt;br /&gt;
*Die Grafik zeigt die dritte und letzte Stufe für das Beispiel&amp;amp;nbsp; $N = 8$. Man erkennt, dass in dieser und auch den anderen Stufen jeweils&amp;amp;nbsp; $N/2$&amp;amp;nbsp; Basisoperationen durchzuführen sind.&lt;br /&gt;
*In jeder Basisoperation, die man häufig auch als&amp;amp;nbsp; '''Butterfly'''&amp;amp;nbsp; bezeichnet, werden aus den beiden komplexen Eingangsgrößen&amp;amp;nbsp; $E_1$&amp;amp;nbsp; und&amp;amp;nbsp; $E_2$&amp;amp;nbsp; zwei komplexe Ausgänge berechnet:&lt;br /&gt;
:$$ A_1  = E_1 + E_2 \cdot w^{\hspace{0.04cm}\mu}, $$&lt;br /&gt;
:$$ A_2 = E_1 - E_2 \cdot w^{\hspace{0.04cm} \mu}\hspace{0.05cm}.$$&lt;br /&gt;
*Hierbei bezeichnet&amp;amp;nbsp; $w =  {\rm e}^{-{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm} 2\pi/N}$&amp;amp;nbsp; den komplexen Drehfaktor. Für&amp;amp;nbsp;  $N = 8$&amp;amp;nbsp; ergibt sich der Wert&amp;amp;nbsp; $w =  {\rm e}^{-{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm} \pi/4} = \cos(45^\circ) - {\rm j} \cdot \sin(45^\circ)\hspace{0.05cm}.$&lt;br /&gt;
*Der Exponent&amp;amp;nbsp; $\mu$&amp;amp;nbsp; für diesen komplexen Drehfaktor kann alle ganzzahligen Werte zwischen&amp;amp;nbsp; $0$&amp;amp;nbsp; und&amp;amp;nbsp; $N/2-1$&amp;amp;nbsp; annehmen. Für&amp;amp;nbsp; $N = 8$&amp;amp;nbsp; gilt:&lt;br /&gt;
:$$w^0 = 1,\hspace{0.2cm}w^1 = {1}/{\sqrt{2}}- {\rm j}&lt;br /&gt;
\cdot{1}/{\sqrt{2}},\hspace{0.2cm}w^2 = - {\rm&lt;br /&gt;
j},\hspace{0.2cm}w^3 = -{1}/{\sqrt{2}}- {\rm j}&lt;br /&gt;
\cdot{1}/{\sqrt{2}} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Mit dieser Aufgabe sollen die für die FFT erforderliche Anzahl von Rechenoperationen&amp;amp;nbsp; $(\mathcal{O}_{\rm FFT})$&amp;amp;nbsp; ermittelt und mit dem für die DFT angebbaren Wert&amp;amp;nbsp; $\mathcal{O}_{\rm DFT} ≈ 8\cdot N^2$&amp;amp;nbsp; verglichen werden.&lt;br /&gt;
&lt;br /&gt;
Zu beachten ist:&lt;br /&gt;
*Sinnvollerweise werden die Potenzen von&amp;amp;nbsp; $w$&amp;amp;nbsp; vor dem eigentlichen Algorithmus berechnet und in einer Lookup–Tabelle abgelegt. &lt;br /&gt;
*Die hierfür notwendigen Operationen sollen deshalb unberücksichtigt bleiben.&lt;br /&gt;
*Die Bitumkehroperation – eine Umsortierung, die vor der ersten Stufe durchzuführen ist – soll bei dieser Abschätzung ebenfalls nicht berücksichtigt werden.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Hinweis:'' &lt;br /&gt;
*Die Aufgabe gehört zum  Kapitel&amp;amp;nbsp; [[Signal_Representation/Fast_Fourier_Transform_(FFT)|Fast-Fouriertransformation (FFT)]].&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Fragebogen===&lt;br /&gt;
&lt;br /&gt;
&amp;lt;quiz display=simple&amp;gt;&lt;br /&gt;
{Wieviele reelle Additionen&amp;amp;nbsp; $(A_{\rm A})$&amp;amp;nbsp; erfordert eine komplexe Addition?&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$A_{\rm A} \hspace{0.3cm} = \ $ { 2 }&lt;br /&gt;
&lt;br /&gt;
{Wieviele reelle Additionen&amp;amp;nbsp; $(A_{\rm M})$&amp;amp;nbsp; und Multiplikationen&amp;amp;nbsp; $(M_{\rm M})$&amp;amp;nbsp; sind für eine komplexe Multiplikation erforderlich?&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$A_{\rm M} \hspace{0.3cm} = \  $ { 2 }&lt;br /&gt;
$M_{\rm M} \hspace{0.2cm} = \  $ { 4 }&lt;br /&gt;
&lt;br /&gt;
{Wieviele komplexe Additionen/Subtraktionen&amp;amp;nbsp; $(a_{\rm B})$&amp;amp;nbsp; erfordert eine einzige Basisoperation (&amp;amp;bdquo;Butterfly&amp;amp;rdquo;)?  &lt;br /&gt;
&amp;lt;br&amp;gt;Wieviele komplexe Multiplikationen&amp;amp;nbsp; $(m_{\rm B})$&amp;amp;nbsp; sind pro Basisoperation notwendig?&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$a_{\rm B} \hspace{0.32cm} = \ $  { 2 }&lt;br /&gt;
$m_{\rm B} \hspace{0.2cm} = \ $  { 1 }&lt;br /&gt;
&lt;br /&gt;
{Wieviele Rechenoperationen&amp;amp;nbsp; (Additionen, Subtraktionen, Multiplikationen gleichermaßen)&amp;amp;nbsp; erfordert eine Basisoperation?&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$\mathcal{O}_{\rm B} \ = \ $  { 10 }&lt;br /&gt;
&lt;br /&gt;
{Wieviele reelle Operationen&amp;amp;nbsp; $(\mathcal{O}_{\rm FFT})$&amp;amp;nbsp; erfordert der gesamte FFT&amp;amp;ndash;Algorithmus? Welche Werte ergeben sich für&amp;amp;nbsp; $N = 16$&amp;amp;nbsp; und&amp;amp;nbsp; $N = 1024$?&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$N = 16\text{:} \hspace{0.65cm} \mathcal{O}_{\rm FFT} \ = \ $ { 320 3% }&lt;br /&gt;
$N = 1024\text{:} \hspace{0.2cm} \mathcal{O}_{\rm FFT} \ = \ $ { 51200 3% }&lt;br /&gt;
&lt;br /&gt;
{Wie groß ist der Zeitgewinn&amp;amp;nbsp; $G_{\rm FFT} = \mathcal{O}_{\rm DFT} - \mathcal{O}_{\rm FFT}$&amp;amp;nbsp; für&amp;amp;nbsp; $N = 16$&amp;amp;nbsp; und&amp;amp;nbsp; $N = 1024$?&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$N = 16\text{:} \hspace{0.65cm} G_{\rm FFT} \ = \ $ { 6.4 3% }&lt;br /&gt;
$N = 1024\text{:} \hspace{0.2cm} G_{\rm FFT} \ = \ $ { 164 3% }&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/quiz&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Musterlösung===&lt;br /&gt;
{{ML-Kopf}}&lt;br /&gt;
'''(1)'''&amp;amp;nbsp; Jede komplexe Addition erfordert zwei reelle Additionen:&lt;br /&gt;
:$$(R_1 + {\rm j} \cdot I_1) + (R_2 + {\rm j} \cdot I_2) = (R_1 +&lt;br /&gt;
R_2) + {\rm j} \cdot (I_1 + I_2)\hspace{0.3cm}\Rightarrow \hspace{0.3cm}&lt;br /&gt;
\hspace{0.15 cm}\underline{ A_{\rm A} =&lt;br /&gt;
2}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(2)'''&amp;amp;nbsp; Eine jede komplexe Multiplikation benötigt vier reelle Multiplikationen und zwei reelle Additionen:&lt;br /&gt;
:$$(R_1 + {\rm j} \cdot I_1)  (R_2 + {\rm j} \cdot I_2) = (R_1 \cdot&lt;br /&gt;
R_2 - I_1 \cdot I_2) + {\rm j} \cdot (R_1 \cdot I_2 + R_2 \cdot&lt;br /&gt;
I_1)\hspace{0.3cm}&lt;br /&gt;
\Rightarrow \hspace{0.3cm}\hspace{0.15 cm}\underline{A_{\rm M} = 2,\hspace{0.3cm}M_{\rm M} =&lt;br /&gt;
4} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(3)'''&amp;amp;nbsp; Die Basisoperationen lauten mit den komplexen Eingangsgrößen&amp;amp;nbsp; $E_1$,&amp;amp;nbsp; $E_2$&amp;amp;nbsp; und&amp;amp;nbsp; $w^{\hspace{0.04cm}\mu}$:&lt;br /&gt;
:$$ A_1  = E_1 + E_2 \cdot w^{\hspace{0.04cm}\mu},\hspace{0.5cm}  A_2 = E_1 - E_2 \cdot w^{\hspace{0.04cm} \mu}\hspace{0.05cm}.$$&lt;br /&gt;
*Dies bedeutet eine komplexe Multiplikation und zwei komplexe Additionen: &amp;amp;nbsp; $\hspace{0.15 cm}\underline{a_{\rm B} = 2, \hspace{0.2cm}m_{\rm B} = 1}&lt;br /&gt;
 \hspace{0.05cm}.$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(4)'''&amp;amp;nbsp; Im Gegensatz zu den ersten Computern nimmt heute eine Multiplikation keine wesentlich größere Rechenzeit in Anspruch als eine Addition bzw. Subtraktion. &lt;br /&gt;
&lt;br /&gt;
*Mit den Ergebnissen der Teilaufgaben&amp;amp;nbsp; '''(1)''',&amp;amp;nbsp; '''(2)'''&amp;amp;nbsp; und&amp;amp;nbsp; '''(3)'''&amp;amp;nbsp; erhält man für die Gesamtzahl der Rechenoperationen:&lt;br /&gt;
:$$ \mathcal{O}_{\rm B} = a_{\rm B}\cdot A_{\rm A} + a_{\rm B}\cdot (A_{\rm M}&lt;br /&gt;
+M_{\rm M} ) = 2 \cdot 2 + 1 \cdot 6\hspace{0.15 cm}\underline{ = 10}&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(5)'''&amp;amp;nbsp; Insgesamt gibt es&amp;amp;nbsp; ${\rm log_2} \ N$ Stufen, in denen jeweils&amp;amp;nbsp; $N/2$&amp;amp;nbsp; Basisoperationen auszuführen sind:&lt;br /&gt;
:$$\mathcal{O}_{\rm FFT} = {\rm log_2}\hspace{0.1cm}N \cdot \frac{N}{2}\cdot&lt;br /&gt;
\mathcal{O}_{\rm B} = 5 \cdot N \cdot {\rm log_2}\hspace{0.1cm}N$$&lt;br /&gt;
:$$\Rightarrow \hspace{0.3cm}\mathcal{O}_{\rm FFT}\hspace{0.1cm}(N=16)  =  5\cdot 16 \cdot&lt;br /&gt;
4 \hspace{0.15 cm}\underline{= 320}, \hspace{0.5cm}\mathcal{O}_{\rm FFT}\hspace{0.1cm}(N=1024)  =  5\cdot 1024&lt;br /&gt;
\cdot 10 \hspace{0.15 cm}\underline{= 51200}&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(6)'''&amp;amp;nbsp; Der Rechenzeitgewinn der FFT gegenüber der herkömmlichen DFT ergibt sich zu:&lt;br /&gt;
:$$G_{\rm FFT} = \frac{\mathcal{O}_{\rm DFT}}{\mathcal{O}_{\rm FFT}} = \frac{8 \cdot N^2} {5 \cdot&lt;br /&gt;
N \cdot {\rm log_2}\hspace{0.1cm}N }= 1.6 \cdot \frac{N}{ {\rm&lt;br /&gt;
log_2}\hspace{0.1cm}N}$$&lt;br /&gt;
:$$\Rightarrow \hspace{0.3cm}G_{\rm FFT} \hspace{0.1cm}(N=16)  =  1.6 \cdot&lt;br /&gt;
\frac{16}{ 4} \hspace{0.15 cm}\underline{= 6.4}, \hspace{0.5cm}G_{\rm FFT} \hspace{0.1cm}(N=1024)  =  1.6 \cdot\frac{1024}{ 10}\hspace{0.15 cm}\underline{ \approx 164}&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{ML-Fuß}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Category:Exercises for Signal Representation|^5.5 Fast Fourier Transform ^]]&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.5:_Fast_Fourier_Transform&amp;diff=35314</id>
		<title>Aufgaben:Exercise 5.5: Fast Fourier Transform</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.5:_Fast_Fourier_Transform&amp;diff=35314"/>
		<updated>2020-11-29T21:00:27Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
{{quiz-Header|Buchseite=Signal_Representation/Fast_Fourier_Transform_(FFT)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_A_5_5.png|right|frame|FFT-Algorithmus für&amp;amp;nbsp; $N=8$]]&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt den Signalflussplan der FFT für&amp;amp;nbsp; $N = 8$. Aus den Zeitkoeffizienten&amp;amp;nbsp; $d(0), \hspace{0.03cm}\text{...} \hspace{0.1cm}, d(7)$&amp;amp;nbsp; werden die dazugehörigen Spektralkoeffizienten&amp;amp;nbsp; $D(0), \hspace{0.03cm}\text{...} \hspace{0.1cm} , D(7)$&amp;amp;nbsp; ermittelt. Für diese gilt mit&amp;amp;nbsp; $0 ≤ μ ≤ 7$:&lt;br /&gt;
 &lt;br /&gt;
:$$D(\mu) =  \frac{1}{N}\cdot \sum_{\nu = 0 }^{N-1}&lt;br /&gt;
 d(\nu) \cdot  {w}^{\hspace{0.03cm}\nu \hspace{0.05cm} \cdot&lt;br /&gt;
 \hspace{0.05cm}\mu}\hspace{0.05cm},$$&lt;br /&gt;
&lt;br /&gt;
wobei der komplexe Drehfaktor&amp;amp;nbsp; $w = \text{e}^{-\text{j}\hspace{0.05cm} \cdot&lt;br /&gt;
 \hspace{0.05cm}2\pi /N}$&amp;amp;nbsp; zu verwenden ist, also&amp;amp;nbsp; $w = \text{e}^{-\text{j}\hspace{0.05cm} \cdot&lt;br /&gt;
 \hspace{0.05cm}\pi /4}$&amp;amp;nbsp; für&amp;amp;nbsp; $N = 8$.&lt;br /&gt;
&lt;br /&gt;
*Am Eingang wird die alternierende $±1$–Folge&amp;amp;nbsp; $\langle\hspace{0.05cm} d(ν)\hspace{0.05cm}\rangle$&amp;amp;nbsp; angelegt. &lt;br /&gt;
*Nach der Bitumkehroperation ergibt sich daraus die Folge&amp;amp;nbsp; $\langle \hspace{0.05cm}b(\kappa)\hspace{0.05cm}\rangle$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Es gilt&amp;amp;nbsp; $b(κ) = d(ν)$, wenn man&amp;amp;nbsp; $ν$&amp;amp;nbsp; als Dualzahl darstellt und die resultierenden drei Bit als&amp;amp;nbsp; $κ$&amp;amp;nbsp; in umgekehrter Reihenfolge geschrieben werden. Beispielsweise&lt;br /&gt;
* folgt aus&amp;amp;nbsp; $ν = 1$&amp;amp;nbsp; $($binär&amp;amp;nbsp; $001)$&amp;amp;nbsp; die Position&amp;amp;nbsp; $κ = 4$&amp;amp;nbsp; $($binär&amp;amp;nbsp; $100)$,&lt;br /&gt;
* verbleibt&amp;amp;nbsp; $d(2)$&amp;amp;nbsp; an der gleichen Position&amp;amp;nbsp; $2$&amp;amp;nbsp; $($binär&amp;amp;nbsp; $010)$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Der eigentliche FFT–Algorithmus geschieht für das Beispiel&amp;amp;nbsp; $N = 8$&amp;amp;nbsp; in&amp;amp;nbsp; $\log_2 N = 3$&amp;amp;nbsp; Stufen, die mit&amp;amp;nbsp; $L = 1$,&amp;amp;nbsp; $L =2$&amp;amp;nbsp; und&amp;amp;nbsp; $L = 3$&amp;amp;nbsp; bezeichnet werden. Weiter gilt:&lt;br /&gt;
* In jeder Stufe sind vier Basisoperationen – so genannte ''Butterflies'' – durchzuführen.&lt;br /&gt;
* Die Werte am Ausgang der ersten Stufe werden in dieser Aufgabe mit&amp;amp;nbsp; $X(0),\hspace{0.03cm}\text{...} \hspace{0.1cm} , X(7)$&amp;amp;nbsp; bezeichnet, die der zweiten mit&amp;amp;nbsp; $Y(0), \hspace{0.03cm}\text{...} \hspace{0.1cm}  , Y(7)$.&lt;br /&gt;
* Nach der dritten und letzten Stufe sind alle Werte noch durch&amp;amp;nbsp; $N$&amp;amp;nbsp; zu dividieren. Hier liegt dann das endgültige Ergebnis&amp;amp;nbsp; $D(0), \hspace{0.03cm}\text{...} \hspace{0.1cm}  , D(7)$&amp;amp;nbsp; vor.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Hinweis:'' &lt;br /&gt;
*Die Aufgabe gehört zum  Kapitel&amp;amp;nbsp; [[Signal_Representation/Fast_Fourier_Transform_(FFT)|Fast-Fouriertransformation (FFT)]].&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Fragebogen===&lt;br /&gt;
&lt;br /&gt;
&amp;lt;quiz display=simple&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{Berechnen Sie den DFT–Koeffizienten&amp;amp;nbsp; $D(3)$.&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$D(3) \ = \ $ { 0. }&lt;br /&gt;
&lt;br /&gt;
{Berechnen Sie den DFT–Koeffizienten&amp;amp;nbsp; $D(4)$.&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$D(4) \ = \ $ { 1 3% }&lt;br /&gt;
&lt;br /&gt;
{Ermitteln Sie die Ausgangswerte&amp;amp;nbsp; $X(0)$, ... , $X(7)$&amp;amp;nbsp; der ersten Stufe. Welche der folgenden Aussagen sind zutreffend?&lt;br /&gt;
|type=&amp;quot;[]&amp;quot;}&lt;br /&gt;
- Alle&amp;amp;nbsp; $X$&amp;amp;ndash;Werte mit geradzahligen Indizes sind gleich&amp;amp;nbsp; $2$.	&lt;br /&gt;
+ Alle&amp;amp;nbsp; $X$&amp;amp;ndash;Werte mit ungeradzahligen Indizes sind gleich&amp;amp;nbsp; $0$.&lt;br /&gt;
&lt;br /&gt;
{Ermitteln Sie die Ausgangswerte&amp;amp;nbsp; $Y(0)$, ... , $Y(7)$&amp;amp;nbsp; der zweiten Stufe. Geben Sie zur Kontrolle die Werte&amp;amp;nbsp; $Y(0)$&amp;amp;nbsp; und&amp;amp;nbsp; $Y(4)$&amp;amp;nbsp; ein.&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$Y(0) \ = \ $ { 4 3% }&lt;br /&gt;
$Y(4) \ = \ $ { -4.12--3.88 }&lt;br /&gt;
&lt;br /&gt;
{Berechnen Sie alle&amp;amp;nbsp; $N$&amp;amp;nbsp; Spektralwerte&amp;amp;nbsp; $D(\mu)$, insbesondere&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$D(\mu = 4) \ = \ $ { 1 3% }&lt;br /&gt;
$D(\mu \neq 4) \ = \ $ { 0. }&lt;br /&gt;
&lt;br /&gt;
{Welche Spektralkoeffizienten würden sich für&amp;amp;nbsp; $d(ν = 4) = 1$&amp;amp;nbsp; und&amp;amp;nbsp; $d(ν \neq 4) = 0$&amp;amp;nbsp; ergeben? &amp;lt;br&amp;gt;Geben Sie zur Kontrolle die Werte&amp;amp;nbsp; $D(3)$&amp;amp;nbsp; und&amp;amp;nbsp; $D(4)$&amp;amp;nbsp; ein.&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$D(\mu = 3) \ = \ $ { -1.03--0.97 }&lt;br /&gt;
$D(\mu = 4) \ = \ $ { 1 3% }&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/quiz&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Musterlösung===&lt;br /&gt;
&lt;br /&gt;
{{ML-Kopf}}&lt;br /&gt;
'''(1)'''&amp;amp;nbsp; Entsprechend der auf dem Angabenblatt gegebenen allgemeinen DFT–Gleichung gilt mit&amp;amp;nbsp; $w = \text{e}^{-\text{j}\hspace{0.05cm} \cdot&lt;br /&gt;
 \hspace{0.05cm}\pi /4}$&amp;amp;nbsp; unter Berücksichtigung der alternierenden Zeitkoeffizienten:&lt;br /&gt;
 &lt;br /&gt;
:$$8 \cdot D(3)  =    w^0 - w^3 + w^6- w^9+ w^{12}- w^{15}+ w^{18}-&lt;br /&gt;
w^{21}  =    w^0 - w^3 + w^2- w^1+ w^{4}- w^{7}+ w^{6}-&lt;br /&gt;
w^{5}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Hierbei ist berücksichtigt, dass aufgrund der Periodizität&amp;amp;nbsp; $w_9 = w_1$,&amp;amp;nbsp; $w_{12} = w_4$,&amp;amp;nbsp; $w_{15} = w_7$,&amp;amp;nbsp; $w_{18} = w_2$&amp;amp;nbsp; und&amp;amp;nbsp; $w_{21} = w_5$&amp;amp;nbsp; ist. &lt;br /&gt;
*Nach Umsortieren gilt in gleicher Weise:&lt;br /&gt;
 &lt;br /&gt;
:$$8 \cdot D(3)  =   (w^0 + w^4) - (w^1 + w^5)+ (w^2 + w^6) - (w^3 + w^7) =   (1 + w + w^2+ w^3) \cdot (w^0 + w^4)\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Wegen&amp;amp;nbsp; $w_0 = 1$&amp;amp;nbsp; und&amp;amp;nbsp; $w_4 = \text{e}^{-\text{j}\pi } = \hspace{0.08cm} - \hspace{-0.08cm}1$&amp;amp;nbsp; erhält man somit&amp;amp;nbsp; $\underline {D(3) = 0}$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(2)'''&amp;amp;nbsp; In analoger Weise zur Teilaufgabe&amp;amp;nbsp; '''(1)'''&amp;amp;nbsp; ergibt sich nun:&lt;br /&gt;
 &lt;br /&gt;
:$$ 8 \cdot D(4)  =    w^0 - w^4 + w^8- w^{12}+ w^{16}- w^{20}+&lt;br /&gt;
w^{24}- w^{28}=   4 \cdot (w^0 - w^4)= 8 \hspace{0.3cm}&lt;br /&gt;
\Rightarrow \hspace{0.3cm}\hspace{0.15 cm}\underline{D(4) = 1}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1178__Sig_A_5_5c_neu.png|right|frame|Beispiel für den FFT-Algorithmus]]&lt;br /&gt;
'''(3)'''&amp;amp;nbsp; Richtig ist der &amp;lt;u&amp;gt;Lösungsvorschlag 2&amp;lt;/u&amp;gt;:&lt;br /&gt;
*Der Term&amp;amp;nbsp; $w^0 = 1$&amp;amp;nbsp; muss nicht berücksichtigt werden. &lt;br /&gt;
*Alle Ausgangswerte mit ungeraden Indizes sind durch die Subtraktion zweier identischer Eingangswerte Null. &lt;br /&gt;
*Die erste Aussage trifft nicht zu: &amp;amp;nbsp; Es gilt&amp;amp;nbsp; $X(0) = X(2) = +2$&amp;amp;nbsp; und&amp;amp;nbsp; $X(4) = X(6) = - 2$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(4)'''&amp;amp;nbsp; Auf die Multiplikation mit&amp;amp;nbsp; $w^{2} = -{\rm j}$&amp;amp;nbsp; kann verzichtet werden, da im Signalflussplan die entsprechenden Eingangsgrößen Null sind.&lt;br /&gt;
*Man erhält somit&amp;amp;nbsp; $Y(0) \;\underline{= 4}$&amp;amp;nbsp; und&amp;amp;nbsp; $Y(4) \;\underline{=  - \hspace{-0.03cm}4}$. &lt;br /&gt;
*Alle anderen Werte sind Null. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(5)'''&amp;amp;nbsp; Wegen&amp;amp;nbsp; $Y(5) = Y(6) =Y(7) = 0$&amp;amp;nbsp; spielen auch in der dritten Stufe die Multiplikationen mit&amp;amp;nbsp; $w$,&amp;amp;nbsp; $w^2$&amp;amp;nbsp; und&amp;amp;nbsp; $w^3$&amp;amp;nbsp; keine Rolle. Alle Spektralkoeffizienten&amp;amp;nbsp; $D(\mu)$&amp;amp;nbsp; ergeben sich deshalb zu Null mit Ausnahme von&lt;br /&gt;
 &lt;br /&gt;
:$$\hspace{0.15 cm}\underline{D(4)} =  {1}/{N}\cdot \left[Y(0) - Y(4) \right ] \hspace{0.15 cm}\underline{= 1}&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Dieses Ergebnis stimmt mit den Ergebnissen aus&amp;amp;nbsp; '''(1)'''&amp;amp;nbsp; und&amp;amp;nbsp; '''(2)'''&amp;amp;nbsp; überein. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(6)'''&amp;amp;nbsp; Nachdem sowohl die Zeitkoeffizienten&amp;amp;nbsp; $d(ν)$&amp;amp;nbsp; als auch alle Spektralkoeffizienten&amp;amp;nbsp; $D(\mu)$&amp;amp;nbsp; rein reell sind, besteht kein Unterschied zwischen der FFT und der IFFT. &lt;br /&gt;
*Das bedeutet gleichzeitig:&amp;amp;nbsp; Die Eingangs– und Ausgangswerte können vertauscht werden.&lt;br /&gt;
&lt;br /&gt;
*Die Teilaufgabe&amp;amp;nbsp; '''(5)'''&amp;amp;nbsp; hat das folgende Ergebnis geliefert:&lt;br /&gt;
 &lt;br /&gt;
:$$d({\rm gerades}\hspace{0.15cm}\nu) =  +1, \hspace{0.2cm}d({\rm&lt;br /&gt;
ungerades}\hspace{0.15cm}\nu)=  -1$$&lt;br /&gt;
:$$\Rightarrow&lt;br /&gt;
\hspace{0.3cm}D(\mu = 4)= 1,\hspace{0.2cm}D(\mu \ne 4)= 0.$$&lt;br /&gt;
&lt;br /&gt;
*Durch Vertauschen der Eingangs– und Ausgangswerte kommt man zur Aufgabenstellung&amp;amp;nbsp; '''(6)''':&lt;br /&gt;
 &lt;br /&gt;
:$$d(\nu = 4)= 1, \hspace{0.2cm}d(\nu \ne 4)= 0 \hspace{0.3cm}&lt;br /&gt;
\Rightarrow \hspace{0.3cm}D({\rm gerades}\hspace{0.15cm}\mu) = +1,&lt;br /&gt;
\hspace{0.2cm}D({\rm ungerades}\hspace{0.15cm}\mu)=  -1&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Insbesondere ergibt sich sich&amp;amp;nbsp; $D(3) \; \underline{=  -1}$&amp;amp;nbsp; und&amp;amp;nbsp; $D(4) \; \underline{= +1}$.&lt;br /&gt;
{{ML-Fuß}}&lt;br /&gt;
&lt;br /&gt;
__NOEDITSECTION__&lt;br /&gt;
[[Category:Exercises for Signal Representation|^5.5 Fast Fourier Transform ^]]&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Spectrum_Analysis&amp;diff=35313</id>
		<title>Signal Representation/Spectrum Analysis</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Spectrum_Analysis&amp;diff=35313"/>
		<updated>2020-11-29T20:59:22Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Zeit- und frequenzdiskrete Signaldarstellung&lt;br /&gt;
|Vorherige Seite=Fehlermöglichkeiten bei Anwendung der DFT&lt;br /&gt;
|Nächste Seite=Fast-Fouriertransformation (FFT)&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Spektraler Leckeffekt==&lt;br /&gt;
&amp;lt;br&amp;gt;  	 &lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; &lt;br /&gt;
Als&amp;amp;nbsp; '''spektralen Leckeffekt'''&amp;amp;nbsp;  bezeichnet man die Verfälschung des Spektrums eines periodischen und damit zeitlich unbegrenzten Signals aufgrund der impliziten Zeitbegrenzung der Diskreten Fouriertransformation (DFT). Dadurch werden zum Beispiel von einem Spektrumanalyzer&lt;br /&gt;
*im Zeitsignal nicht vorhandene Frequenzanteile vorgetäuscht, und/oder&lt;br /&gt;
*tatsächlich vorhandene Spektralkomponenten durch Seitenkeulen verdeckt.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Das folgende&amp;amp;nbsp; $\text{Beispiel 1}$&amp;amp;nbsp; wird zeigen, dass bei einem periodischen Signal die Anwendung der&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)|Diskreten Fouriertransformation]]&amp;amp;nbsp; (DFT) ohne Zusatzmaßnahmen nicht sinnvoll ist. Die Güte der Spektralanalyse – das heißt die Richtigkeit des gefundenen Spektrums – wird hier hauptsächlich durch die (mehr oder weniger geglückte) Anpassung der DFT-Parameter an die vorliegenden Signalparameter bestimmt.&lt;br /&gt;
*Ist die Periodendauer&amp;amp;nbsp; $T_0$&amp;amp;nbsp; des Signals bekannt, so sollte die Dauer&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; des für die DFT verwendeten Signalausschnittes ein ganzzahliges Vielfaches von&amp;amp;nbsp; $T_0$&amp;amp;nbsp; betragen. Aufgabe der Spektralanalyse ist aber gerade das Auffinden beliebiger Signalanteile, so dass die Kenntnis von&amp;amp;nbsp; $T_0$&amp;amp;nbsp; im allgemeinen nicht vorausgesetzt werden kann.&lt;br /&gt;
*Eine Maßnahme zur Verbesserung des Spektralanalyse ist die Fensterung mit einer „geeigneten” Zeitfunktion&amp;amp;nbsp; $w(t)$. Analysiert wird dann das Produktsignal&amp;amp;nbsp; $x(t) \cdot w(t)$.&lt;br /&gt;
*Aus der Literatur sind eine Vielzahl solcher Fensterfunktionen&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; bekannt, die je nach Aufgabenstellung zu guten oder weniger befriedigenden Ergebnissen führen.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Auf den nächsten Seiten wird der spektrale Leckeffekt an Beispielen verdeutlicht und es wird auf die Vorteile und Nachteile der verschiedenen Fensterfunktionen eingegangen. So viel vorneweg: &amp;amp;nbsp; '''Es gibt keine „beste” Fensterfunktion für alle Anwendungen'''.&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; &lt;br /&gt;
Die obere Grafik&amp;amp;nbsp; '''(a)'''&amp;amp;nbsp; aus&amp;amp;nbsp; [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;&amp;amp;nbsp; zeigt das zeitdiskrete Signal&amp;amp;nbsp; $d(\nu)$&amp;amp;nbsp; einer harmonischen Schwingung mit der Frequenz&amp;amp;nbsp; $f_0 = 125\,\text{ kHz}$  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; Periodendauer&amp;amp;nbsp; $T_0 = 8 \,{\rm &amp;amp;micro; s}$. Der Abstand zweier aufeinanderfolgender Zeitabtastwerte ist bei diesem Beispiel zu&amp;amp;nbsp; $T_{\rm A} = 1 \,{\rm &amp;amp;micro; s}$&amp;amp;nbsp; gewählt.&lt;br /&gt;
&lt;br /&gt;
Rechts ist in logarithmierter Form (in dB) das frequenzdiskrete Spektrum&amp;amp;nbsp; $\vert D(\mu) \vert$&amp;amp;nbsp; nach einer DFT mit&amp;amp;nbsp; $N = 32$&amp;amp;nbsp; Abtastwerten dargestellt, woraus sich die weiteren DFT–Parameter wie folgt ergeben:&lt;br /&gt;
*Dauer des Zeitausschnitts: &amp;amp;nbsp; $T_{\rm P} = 32 \,{\rm &amp;amp;micro; s}$,&lt;br /&gt;
*Rasterung der Frequenzachse: &amp;amp;nbsp; $f_{\rm A} = 31.25 \,\text{ kHz}$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Da hier durch die Intervallbreite&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; ein ganzzahliges Vielfaches der Periodendauer&amp;amp;nbsp; $T_0$&amp;amp;nbsp; erfasst wird, liefert die DFT das richtige Ergebnis. Die beiden Diracfunktionen liegen genau bei&amp;amp;nbsp; $\pm4  \cdot f_{\rm A}$.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1160__Sig_T_5_4_S1_neu.png|center|frame|Beispiel für die Anwendung der Spektralanalyse]]&lt;br /&gt;
&lt;br /&gt;
Vermisst man mit der gleichen Anordnung eine Schwingung der Frequenz&amp;amp;nbsp; $f_0 = 109.375\,\text{ kHz}$  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; Periodendauer $T_0 = 9.14 \,{\rm &amp;amp;micro; s}$&amp;amp;nbsp; entsprechend der unteren Grafik&amp;amp;nbsp; '''(b)''', so kommt es zu signifikanten Verfälschungen des Spektrums. &lt;br /&gt;
&lt;br /&gt;
*Da nun&amp;amp;nbsp; $T_{\rm P}/T_0 = 3.5$&amp;amp;nbsp; nicht mehr ganzzahlig ist, entstehen durch die periodische Fortsetzung des Zeitausschnittes Phasensprünge, in unserem Beispiel um&amp;amp;nbsp; $\pi$.&lt;br /&gt;
*Der Spektralbereich besteht nun nicht mehr aus zwei Diracfunktionen wie im Beispiel&amp;amp;nbsp; '''(a)''', sondern aus einer annähernd „kontinuierlichen” Frequenzfunktion mit dem Maximum in der Nähe der tatsächlichen Signalfrequenz und einer Reihe weiterer Anteile, die man&amp;amp;nbsp; '''Seitenkeulen'''&amp;amp;nbsp; (englisch:&amp;amp;nbsp; ''Side Lobes'') nennt.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Systemtheoretische Beschreibung der Fensterung==  &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:EN_Sig_T_5_4_S2.png|right|frame|Rechteck-Fenster und Bartlett-Fenster]]&lt;br /&gt;
Das Zustandekommen solcher unerwünschter Seitenkeulen soll nun anhand der folgenden Grafik systemtheoretisch erklärt werden. Auch diese Grafik wurde dem Buch&amp;amp;nbsp;  [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;&amp;amp;nbsp;  entnommen.&lt;br /&gt;
&lt;br /&gt;
Betrachten Sie zunächst die obere Grafik&amp;amp;nbsp;  '''(a)'''&amp;amp;nbsp; für das&amp;amp;nbsp; '''Rechteckfenster'''.&lt;br /&gt;
*Die in der DFT implizit enthaltene Zeitbegrenzung entspricht der Multiplikation des Signals&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; mit einer Rechteck&amp;amp;ndash;Fensterfunktion&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; der Höhe&amp;amp;nbsp; $1$&amp;amp;nbsp; und der Dauer&amp;amp;nbsp; $T_{\rm P}$. Das linke obere Bild zeigt die zeitdiskrete Darstellung dieser Rechteckfunktion mit der normierten Zeitvariablen&amp;amp;nbsp; $\nu= t/T_{\rm A}$:&lt;br /&gt;
 &lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{f\ddot{u}r}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm sonst} \hspace{0.05cm}. \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
&lt;br /&gt;
*Aus der Multiplikation&amp;amp;nbsp; $y(t) = x(t) \cdot w(t)$&amp;amp;nbsp; des zu analysierenden Signals&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; und der Fensterfunktion&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; folgt für die Spektralfunktion&amp;amp;nbsp; $Y(f) = X(f) \ast W(f)$, wobei bei rechteckförmiger Fensterfunktion mit&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm P}$&amp;amp;nbsp; gilt (die Funktion&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; ist in der rechten oberen Grafik in logarithmierter Form dargestellt):&lt;br /&gt;
 &lt;br /&gt;
:$$W(f) = T_{\rm P} \cdot {\rm si}(\pi \cdot f \cdot T_{\rm P}) = {1}/{f_{\rm A}}\cdot {\rm si}(\pi \cdot {f}/{f_{\rm A}})\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Liegen alle Spektralanteile vons&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; im Frequenzraster&amp;amp;nbsp; $\mu \cdot f_{\rm A}$, so bleiben die frequenzdiskreten Spektralwerte&amp;amp;nbsp; $D(\mu )$&amp;amp;nbsp; durch die Faltung mit&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; unverändert. &lt;br /&gt;
*Andernfalls führt die Faltung mit&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; zu Verfälschungen, da die Nullstellen der&amp;amp;nbsp; $\rm si$–Funktion nun nicht mehr zu den diskreten Werten des Eingangsspektrums passen.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die durch Begrenzung und periodische Fortsetzung entstehendenen Unstetigkeiten im Zeitbereich werden vermindert, wenn statt der konstanten Eins–Bewertung durch das Rechteck die beiden Randbereiche des Fensters schwächer gewichtet werden als die Mitte.&lt;br /&gt;
&lt;br /&gt;
Betrachten Sie dazu die untere Grafik&amp;amp;nbsp; '''(b)'''&amp;amp;nbsp; für das&amp;amp;nbsp; '''Bartlett–Fenster''' – auch Dreieckfenster genannt:&lt;br /&gt;
*Die zeitdiskrete Beschreibung des Bartlett–Fensters lautet mit&amp;amp;nbsp; $\nu = t/T_{\rm A}$:&lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 - {2  \hspace{0.05cm} \cdot  \hspace{0.05cm} |\nu|}/{N} \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{f\ddot{u}r}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm sonst} \hspace{0.05cm}. \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
*Daraus folgt für die zeitkontinuierliche Fensterfunktion&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; und die Spektraldarstellung&amp;amp;nbsp; $W(f)$:&lt;br /&gt;
:$${w} (t)   = \left\{ \begin{array}{c} 1 -{|t|}/{(T_{\rm P}/2)} \\&lt;br /&gt;
   0 \\ \end{array} \right.\hspace{0.05cm}&lt;br /&gt;
\begin{array}{*{20}c}&lt;br /&gt;
|t| \le  T_{\rm P}/2\\ &lt;br /&gt;
{\rm sonst}  \\&lt;br /&gt;
\end{array}\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\,&lt;br /&gt;
\hspace{0.2cm}W(f) ={1}/({2f_{\rm A}})\cdot {\rm si}^2(\pi \cdot&lt;br /&gt;
{f}/({2f_{\rm A}}))\hspace{0.05cm}.$$&lt;br /&gt;
*Durch die geringere Bewertung der bei unbegrenzten Signalen besonders problematischen Randbereiche hat das (logarithmisch gezeichnete) Spektrum&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; geringere Seitenschwinger als die&amp;amp;nbsp; $\rm si$–Funktion im oberen Bild, was zu geringeren Leckkomponenten führt.&lt;br /&gt;
*Die bessere Unterdrückung der Seitenkeulen geht allerdings auf Kosten einer merkbaren Verkleinerung und Verbreiterung der Hauptkeule, wodurch das Auflösungsvermögen des Bartlett–Fensters gegenüber der Rechteck–Fensterung eingeschränkt wird.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Spezielle Fensterfunktionen==&lt;br /&gt;
&amp;lt;br&amp;gt;  &lt;br /&gt;
[[File:EN_Sig_T_5_4_S3.png|right|frame|Hanning-, Hamming- und Kaiser-Bessel-Fenster]]	&lt;br /&gt;
Nun werden einige häufig eingesetzte&amp;amp;nbsp; [https://de.m.wikipedia.org/wiki/Fensterfunktion Fensterfunktionen], nämlich &lt;br /&gt;
*das Hanning–Fenster, &lt;br /&gt;
*das Hamming–Fenster und &lt;br /&gt;
*das Kaiser–Bessel–Fenster&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
anhand von Grafiken und darin enthaltenen Gleichungen beschrieben. Für die Laufvariable im Zeitbereich gilt stets&amp;amp;nbsp; $–N/2 ≤ \nu &amp;lt; N/2$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Hinweise:''&lt;br /&gt;
*Beim Kaiser–Bessel–Fenster sind die Funktionen im Zeit– und Frequenzbereich jeweils für&amp;amp;nbsp; $\alpha = 3.5$&amp;amp;nbsp; dargestellt.&lt;br /&gt;
* ${\rm I}_0(.)$&amp;amp;nbsp; bezeichnet die&amp;amp;nbsp; [https://de.wikipedia.org/wiki/Besselsche_Differentialgleichung Modifizierte Besselfunktion nullter Ordnung].&lt;br /&gt;
*Weitere Fensterfunktionen wie das Blackman–Harris–Fenster, das&amp;amp;nbsp; [https://de.wikipedia.org/wiki/Raised-Cosine-Filter Cosinus–Rolloff–Fenster]&amp;amp;nbsp; (auch Tukey–Fenster genannt) und noch viele andere mehr finden Sie im Buch&amp;amp;nbsp; [Söd93]&amp;lt;ref name='Söd93'&amp;gt;Söder, G.: ''Modellierung, Simulation und Optimierung von Nachrichtensystemen.'' In: Berlin – Heidelberg: Springer, 1993.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Eignung dieser Fensterfunktionen für verschiedenartige Aufgaben der Spektralanalyse nennen wir auf der nächsten Seite.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt; &lt;br /&gt;
==Gütekriterien von Fensterfunktionen==&lt;br /&gt;
&amp;lt;br&amp;gt;  	&lt;br /&gt;
[[File:EN_Sig_T_5_4_S4_neu.png|right|frame|Zusammenstellung wichtiger Gütekriterien von Fensterfunktionen]]&lt;br /&gt;
Die Tabelle gibt Gütekriterien für die auf den letzten Seiten beschriebenen Fensterfunktionen wieder. Die Auswahl einer geeigneten Fensterfunktion sollte nach folgenden Gesichtspunkten erfolgen:&lt;br /&gt;
*Der&amp;amp;nbsp; '''minimale Abstand zwischen Hauptkeule und Seitenkeulen'''&amp;amp;nbsp; sollte möglichst groß sein, um den Einfluss des Leckeffektes gering zu halten und die Amplitudenauflösung zu verbessern.&lt;br /&gt;
*Aus Gründen einer guten Frequenzselektivität sollte die&amp;amp;nbsp; '''6dB–Bandbreite'''&amp;amp;nbsp; gering sein. Ist diese zu groß, so überdeckt eine dominante Spektrallinie kleinere Anteile in der Umgebung.&lt;br /&gt;
*Der&amp;amp;nbsp; '''maximale Prozessverlust'''&amp;amp;nbsp; (in dB) beinhaltet den maximalen Skalierungsfehler und die äquivalente Rauschbandbreite. Diese Größe sollte auf keinen Fall&amp;amp;nbsp; $\text{3.7 dB}$&amp;amp;nbsp; überschreiten.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Diese wichtigsten Gütekriterien sind in nebenstehender Tabelle durch rote Schrift hervorgehoben.&lt;br /&gt;
*In jeder Zeile sind eher günstige Fensterfunktionen grün und eher ungünstigste grau hinterlegt. &lt;br /&gt;
*Aus der Verteilung der grünen und grauen Flächen ist bereits ersichtlich, dass es die optimale Fensterfunktion nicht gibt.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Nun werden die in der Tabelle angegebenen Gütekriterien etwas genauer beschrieben:&lt;br /&gt;
*Je größer der ''minimale Haupt–zu–Seitenkeulen–Abstand'' &amp;amp;nbsp; ⇒ &amp;amp;nbsp; Verhältnis der Hauptkeule zur höchsten Seitenkeule, desto besser ist die Amplitudenauflösung einer Fensterfunktion. Beim Rechteck ist dieser Abstand erwartungsgemäß am kleinsten&amp;amp;nbsp; $\text{(13 dB)}$. Das beste Ergebnis liefert mit&amp;amp;nbsp; $\text{92 dB}$&amp;amp;nbsp; das Blackman–Harris–Fenster vierter Ordnung.&lt;br /&gt;
*Da jedoch nicht nur die höchste, sondern auch alle weiteren Seitenkeulen zum Leckeffekt beitragen, ist der&amp;amp;nbsp; '''Seitenkeulenabfall'''&amp;amp;nbsp; ein weiteres Maß für das Auflösungsvermögen. Von den angegebenen Fensterfunktionen weisen diesbezüglich das Hanning–Fenster sowie das Cosinus–Rolloff–Fenster mit Rolloff&amp;amp;nbsp; $r = 0.5$&amp;amp;nbsp; die günstigsten Werte auf&amp;amp;nbsp; $\text{(18 dB/Oktave)}$.&lt;br /&gt;
*Die&amp;amp;nbsp; '''6 dB–Bandbreite''', die aus der logarithmierten Spektralfunktion abgelesen werden kann, ist ein wichtiges Maß für das Frequenzauflösungsvermögen. Zwei im Signal vorhandene Spektralanteile bei&amp;amp;nbsp; $f_1$&amp;amp;nbsp; und&amp;amp;nbsp; $f_2$&amp;amp;nbsp; können nur dann aufgelöst werden, wenn die Differenz&amp;amp;nbsp; $f_2 - f_1$&amp;amp;nbsp; größer als die&amp;amp;nbsp; $\text{6 dB}$–Bandbreite der verwendeten Fensterfunktion ist (siehe nachfolgende rechte Grafik).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_4_S4b.png|center|frame|Zur Verdeutlichung der&amp;amp;nbsp; $\text{6 dB}$-Bandbreite]]&lt;br /&gt;
*Die&amp;amp;nbsp; '''Fensterfläche'''&amp;amp;nbsp; der Funktion&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; gibt zugleich die Höhe&amp;amp;nbsp; $W(0)$&amp;amp;nbsp; im Spektralbereich an. Bei allen Fenstern mit Ausnahme des Rechtecks ergibt sich aufgrund der Unterdrückung der äußeren Abtastwerte eine Fensterfläche kleiner&amp;amp;nbsp; $1$&amp;amp;nbsp; und damit ein Fehler in der Amplitude des DFT–Ergebnisses, der jedoch bei Kenntnis von&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; vollständig korrigierbar ist.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; &lt;br /&gt;
*Ein guter Kompromiss ist das&amp;amp;nbsp; '''Hanning–Fenster'''&amp;amp;nbsp; (in der Tabelle blau hervorgehoben), das bezüglich der drei Hauptkriterien (rote Markierungen) nie mit „Grau” abschneidet.&lt;br /&gt;
*Das&amp;amp;nbsp; '''Hamming–Fenster'''&amp;amp;nbsp; unterscheidet sich hiervon im Zeitbereich nur geringfügig, aber im Spektralbereich beträchtlich. So beträgt der Seitenkeulenabfall pro Oktave nur mehr&amp;amp;nbsp; $\text{6 dB}$&amp;amp;nbsp; $($statt&amp;amp;nbsp; $\text{18 dB})$.}}&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Maximaler Prozessverlust==&lt;br /&gt;
&amp;lt;br&amp;gt;  	 	&lt;br /&gt;
Dieses kombinierte Gütekriterium berücksichtigt den&amp;amp;nbsp; '''maximalen Skalierungsfehler'''&amp;amp;nbsp; ebenso wie die (normierte)&amp;amp;nbsp; '''äquivalente Rauschbandbreite'''. Der maximale Prozessverlust wird meist in&amp;amp;nbsp; $\text{dB}$&amp;amp;nbsp; angegeben und sollte entsprechend seines Namens eher klein sein:&lt;br /&gt;
 &lt;br /&gt;
:$$10 \cdot {\rm lg}\hspace{0.15cm}V_{\rm P}\hspace{0.15cm}{\rm (in}\hspace{0.15cm}{\rm dB)}= 20 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{|W(f=0)|}{|W(f=f_{\rm A}/2)|} + 10 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{\int_{-\infty}^{\infty}|W(f)|^2\hspace{0.05cm}{\rm d}f}{f_{\rm A} \cdot |W(f=0)|^2} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Aus der&amp;amp;nbsp; [[Signal_Representation/Spectrum_Analysis#G.C3.BCtekriterien_von_Fensterfunktionen|Tabelle]]&amp;amp;nbsp; erkennt man, dass&amp;amp;nbsp; $V_{\rm P}$&amp;amp;nbsp; für die betrachteten Fensterfunktionen Werte zwischen&amp;amp;nbsp; $\text{3 dB}$&amp;amp;nbsp; und&amp;amp;nbsp; $\text{4 dB}$&amp;amp;nbsp; annimmt, wobei Fensterfunktionen mit&amp;amp;nbsp; $V_{\rm P} &amp;gt; 3.7 \,\text{dB}$&amp;amp;nbsp; (Rechteck, Blackman–Harris, Kaiser–Bessel)&amp;amp;nbsp; nicht verwendet werden sollten. Gerade diese sind aber bezüglich des Haupt–zu–Seitenkeulen–Abstands am besten.&lt;br /&gt;
&lt;br /&gt;
Die beiden Anteile sind wie folgt zu interpretieren:&lt;br /&gt;
*Der ''maximale Skalierungsfehler''&amp;amp;nbsp; ist das Verhältnis, um das sich die mit der DFT ermittelte Amplitude von der tatsächlichen Signalamplitude unterscheidet. Der Amplitudenfehler aufgrund einer Fensterfläche kleiner als&amp;amp;nbsp; $1$&amp;amp;nbsp; wird dabei als korrigiert vorausgesetzt.&lt;br /&gt;
*Je breiter die Hauptkeule der Fensterfunktion ist, um so kleiner ist dieser Skalierungsfehler. Der Fehler ist am größten, wenn die Frequenz&amp;amp;nbsp; $f_0$&amp;amp;nbsp; einer harmonischen Schwingung in der Mitte zwischen zwei DFT–Stützstellen liegt &amp;amp;nbsp; ⇒ &amp;amp;nbsp; Quotient $|W(f = 0)| / |W(f = f_{\rm A}/2)|$. &lt;br /&gt;
&lt;br /&gt;
*Die ''äquivalente Rauschbandbreite''&amp;amp;nbsp; der verwendeten Fensterfunktion – berechenbar als Breite des flächengleichen Rechtecks bezüglich dem Betragsquadrat&amp;amp;nbsp; $|W(f)|^2$&amp;amp;nbsp; der Spektralfunktion – erfasst den störenden Einfluss von weißem Rauschen und sollte möglichst gering sein.&lt;br /&gt;
*Die kleinste Rauschbandbreite ergibt sich für das Rechteck. Alle anderen Fensterfunktionen besitzen eine größere Rauschbandbreite und damit bei Vorhandensein von Rauschstörungen auch ein (deutlich) ungünstigeres Signal–zu–Rausch–Leistungsverhältnis.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; &lt;br /&gt;
Die Ergebnisse dieses Abschnitts können wie folgt zusammengefasst werden:&lt;br /&gt;
*Eine ideale Fensterfunktion gibt es nicht. Je nach Aufgabenstellung&amp;amp;nbsp; (gute Amplituden– bzw. Frequenzauflösung)&amp;amp;nbsp; liefern unterschiedliche Fenster das jeweils beste Ergebnis. Zu empfehlen ist deshalb, dass man zur Spektralanalyse stets mehrere Fensterfunktionen heranzieht oder zumindest eine Fensterfunktion mit verschiedenen Parametern verwendet.&lt;br /&gt;
*Ein tragbarer Kompromiss hinsichtlich aller Kriterien ist das&amp;amp;nbsp; '''Hamming–Fenster''', das lediglich beim Seitenkeulenabfall&amp;amp;nbsp; $($nur&amp;amp;nbsp; $\text{6 dB pro Oktave})$&amp;amp;nbsp; einen ungünstigen Wert liefert. Obwohl sich das&amp;amp;nbsp; '''Hanning–Fenster'''&amp;amp;nbsp; im Zeitbereich vom Hamming-Fenster nur mariginal unterscheidet, ist im Spektralbereich&amp;amp;nbsp; (minimaler Abstand zwischen Hauptkeule und Seitenkeulen)&amp;amp;nbsp; der Unterschied zwischen beiden beträchtlich.}}&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel== &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.4: Comparison of Rectangular And Hanning Window |Exercise 5.4: Comparison of Rectangular And Hanning Window ]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.4Z: On The Hanning Window|Exercise 5.4Z: On The Hanning Window]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==References== &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.4Z:_On_the_Hanning_Window&amp;diff=35311</id>
		<title>Aufgaben:Exercise 5.4Z: On the Hanning Window</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.4Z:_On_the_Hanning_Window&amp;diff=35311"/>
		<updated>2020-11-29T20:58:59Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: Oezdemir moved page Aufgaben:Aufgabe 5.4Z: Zum Hanning-Fenster to Aufgaben:Exercise 5.4Z: On The Hanning Window&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
{{quiz-Header|Buchseite=Signal_Representation/Spectrum_Analysis&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1168__Sig_Z_5_4.png|250px|right|frame|Charakterisierung des Hanning-Fensters]]&lt;br /&gt;
&lt;br /&gt;
In dieser Aufgabe sollen wichtige Eigenschaften des häufig verwendeten Hanning–Fensters hergeleitet werden. Die zeitkontinuierliche Darstellung im Intervall von&amp;amp;nbsp; $-T_{\rm P}/2$&amp;amp;nbsp; bis&amp;amp;nbsp; $+T_{\rm P}/2$&amp;amp;nbsp; lautet hier wie folgt:&lt;br /&gt;
:$$w(t)= {\rm cos}^2(\pi \cdot&lt;br /&gt;
{t}/{T_{\rm P}})=  0.5\cdot \big(1 + {\rm cos}(2\pi \cdot&lt;br /&gt;
{t}/{T_{\rm P}}) \big )&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
Außerhalb des symmetrischen Zeitbereichs der Dauer&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; ist $w&amp;amp;nbsp;(t) \equiv 0$.&lt;br /&gt;
&lt;br /&gt;
Die obere Grafik zeigt die zeitdiskrete Darstellung&amp;amp;nbsp; $w(\nu) = w({\nu}  \cdot T_{\rm A})$, wobei&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; um den Faktor&amp;amp;nbsp; $N = 32$&amp;amp;nbsp; kleiner ist als&amp;amp;nbsp; $T_{\rm P}$. Der Definitionsbereich der diskreten Zeitvariablen&amp;amp;nbsp; $ν$&amp;amp;nbsp; reicht von&amp;amp;nbsp; $-16$&amp;amp;nbsp; bis&amp;amp;nbsp; $+15$.&lt;br /&gt;
&lt;br /&gt;
In der unteren Grafik ist die Fouriertransformierte&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; der zeitkontinuierlichen Fensterfunktion&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; logarithmisch dargestellt. Die Abszisse ist hierbei auf&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm P}$&amp;amp;nbsp; normiert ist. Man erkennt:&lt;br /&gt;
*Die äquidistanten Werte&amp;amp;nbsp; $W({\mu}  \cdot f_{\rm A})$&amp;amp;nbsp; sind Null mit Ausnahme von&amp;amp;nbsp; $μ = 0$&amp;amp;nbsp; und&amp;amp;nbsp; $μ = ±1$. &lt;br /&gt;
*Die Hauptkeule erstreckt sich somit auf den Frequenzbereich&amp;amp;nbsp; $|f| ≤ 2 · f_{\rm A}$. &lt;br /&gt;
*$W(f)$&amp;amp;nbsp; ist außerhalb der Hauptkeule betragsmäßig für&amp;amp;nbsp; $f = ±2.5 · f_{\rm A}$&amp;amp;nbsp; am größten. &lt;br /&gt;
*Somit gilt hier für den minimalen Abstand zwischen Haupt– und Seitenkeulen:&lt;br /&gt;
&lt;br /&gt;
:$$A_{\rm H/S} = 20 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{|W(0)|}{|W(2.5 \cdot f_{\rm A})|} \hspace{0.15cm}{\rm (in}\hspace{0.1cm}{\rm dB)}\hspace{0.05cm}.$$ &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Hinweise:'' &lt;br /&gt;
*Die Aufgabe gehört zum  Kapitel&amp;amp;nbsp; [[Signal_Representation/Spectrum_Analysis|Spektralanalyse]].&lt;br /&gt;
*Beachten Sie, dass die Frequenzauflösung&amp;amp;nbsp; $f_{\rm A}$&amp;amp;nbsp; gleich dem Kehrwert des einstellbaren Parameters&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; ist. &lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Fragebogen===&lt;br /&gt;
&lt;br /&gt;
&amp;lt;quiz display=simple&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{Geben Sie die zeitdiskreten Koeffizienten&amp;amp;nbsp; $w(ν)$&amp;amp;nbsp; des Hanning–Fensters analytisch an. &amp;lt;br&amp;gt;Welche Zahlenwerte ergeben sich für&amp;amp;nbsp; $ν = 0$,&amp;amp;nbsp; $ν = 1$&amp;amp;nbsp; und&amp;amp;nbsp; $ν =  -\hspace{0.05cm}8$?&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$w(ν = 0) \hspace{0.37cm} = \ $ { 1 1% } &lt;br /&gt;
$w(ν = 1) \hspace{0.37cm} = \ $ { 0.99 1% }&lt;br /&gt;
$w(ν =  -8) \hspace{0.03cm} = \ $ { 0.5 1% } &lt;br /&gt;
&lt;br /&gt;
{Berechnen Sie die Spektralfunktion&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; allgemein. Welche der folgenden Aussagen sind zutreffend??&lt;br /&gt;
|type=&amp;quot;[]&amp;quot;}&lt;br /&gt;
- $W(f)$&amp;amp;nbsp; liefert für spezielle Frequenzwerte komplexe Ergebnisse.&lt;br /&gt;
+ $W(f)$&amp;amp;nbsp; ist bezüglich&amp;amp;nbsp; $f$&amp;amp;nbsp; gerade, das heißt, es gilt stets&amp;amp;nbsp; $W(-f) = W(+f)$.&lt;br /&gt;
+ Der Spektralwert&amp;amp;nbsp; $W(f = 0)$&amp;amp;nbsp; ist gleich&amp;amp;nbsp; $0.5/f_{\rm A}$&amp;amp;nbsp; und somit reell.&lt;br /&gt;
&lt;br /&gt;
{Wie groß sind&amp;amp;nbsp; $W(f = ±f_{\rm A})$&amp;amp;nbsp; und die auf&amp;amp;nbsp; $f_{\rm A}$&amp;amp;nbsp; normierte $\text{6 dB}$–Bandbreite?&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$W(±f_{\rm A})  \hspace{0.15cm} = \ $ { 0.25 1% } $\ \cdot \ 1/f_{\rm A}$&lt;br /&gt;
$B_{\rm 6\hspace{0.05cm}dB}\hspace{-0.05cm}/\hspace{-0.05cm}f_{\rm A}   \hspace{0.2cm} = \ $ { 2 1% } &lt;br /&gt;
	&lt;br /&gt;
{Wie groß ist der minimale Abstand zwischen Hauptkeule und Seitenkeule.&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$A_{\rm H/S} \ = \ $ { 32.3 1% } $\ \rm dB$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/quiz&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Musterlösung===&lt;br /&gt;
{{ML-Kopf}}&lt;br /&gt;
'''(1)'''&amp;amp;nbsp; Nach trigonometrischer Umformung ergibt sich für die zeitkontinuierliche Fensterfunktion:&lt;br /&gt;
:$$w(t) = {\rm cos}^2(\pi \cdot&lt;br /&gt;
{t}/{T_{\rm P}}) = 0.5+ 0.5\cdot {\rm&lt;br /&gt;
cos}(2\pi \cdot {t}/{T_{\rm P}})\hspace{0.05cm}.$$&lt;br /&gt;
*Nach Zeitdiskretisierung mit&amp;amp;nbsp; $ν = t/T_{\rm A}$&amp;amp;nbsp; und&amp;amp;nbsp; $T_{\rm P}/T_{\rm A} = N = 32$&amp;amp;nbsp; erhält man für das zeitdiskrete Fenster:&lt;br /&gt;
:$$w(\nu)  =  w(\nu \cdot T_{\rm A}) = 0.5+ 0.5\cdot {\rm&lt;br /&gt;
cos}(2\pi \cdot {\nu}/{N})\hspace{0.8cm}&lt;br /&gt;
\Rightarrow \hspace{0.3cm}w(\nu = 0) \hspace{0.15 cm}\underline{= 1},$$&lt;br /&gt;
:$$w(\nu = 1) = 0.5+ 0.5\cdot {\rm cos}(&lt;br /&gt;
\frac{\pi}{16})\hspace{0.15 cm}\underline{ = 0.99}, $$&lt;br /&gt;
:$$w(\nu = -8)=0.5+&lt;br /&gt;
0.5\cdot {\rm cos}( \frac{-\pi}{2}) \hspace{0.15 cm}\underline{=&lt;br /&gt;
0.5}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(2)'''&amp;amp;nbsp; Richtig sind die &amp;lt;u&amp;gt;Lösungsvorschläge 2 und 3&amp;lt;/u&amp;gt;:&lt;br /&gt;
*Die periodische Fortsetzung von&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; entsprechend der Periodendauer&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; liefert ein (periodisches) Signal mit einem Gleich– und einem Cosinusanteil. &lt;br /&gt;
*Daraus folgt mit&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm P}$:&lt;br /&gt;
:$${\rm P}\{w(t)\} = 0.5+0.5\cdot {\rm&lt;br /&gt;
cos}(2\pi \cdot f_{\rm A} \cdot t)&lt;br /&gt;
\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\,&lt;br /&gt;
\hspace{0.2cm}0.5\cdot {\rm \delta}(f) + 0.25\cdot {\rm&lt;br /&gt;
\delta}(f \pm f_{\rm A}))\hspace{0.05cm}.$$&lt;br /&gt;
*Das zeitbegrenzte Signal&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; ergibt sich aus&amp;amp;nbsp; ${\rm P}\{w(t)\}$&amp;amp;nbsp; durch Multiplikation mit einem Rechteck der Amplitude&amp;amp;nbsp; $1$&amp;amp;nbsp; und der Dauer&amp;amp;nbsp; $T_{\rm P}$. &lt;br /&gt;
*Dessen Spektrum&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; erhält man somit aus der Faltung der obigen Spektralfunktion mit der Funktion&amp;amp;nbsp; $T_{\rm P} · {\rm si}(π \cdot f \cdot T_{\rm P}) = 1/f_{\rm A} · {\rm si}(π \cdot f/f_{\rm A})$:&lt;br /&gt;
:$$w(t)&lt;br /&gt;
\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\,&lt;br /&gt;
W(f) = \frac{0.5}{f_{\rm A}}\cdot {\rm si}( \frac{\pi f}{f_{\rm&lt;br /&gt;
A}})+ \frac{0.25}{f_{\rm A}}\cdot {\rm si}(\pi \cdot&lt;br /&gt;
\frac{f-f_{\rm A}}{f_{\rm A}})+ \frac{0.25}{f_{\rm A}}\cdot {\rm&lt;br /&gt;
si}(\pi \cdot \frac{f+f_{\rm A}}{f_{\rm A}})\hspace{0.05cm}.$$&lt;br /&gt;
*Diese Spektralfunktion ist gerade und für alle Frequenzen&amp;amp;nbsp; $f$&amp;amp;nbsp; auch reell. Der Spektralwert bei der Frequenz&amp;amp;nbsp; $f = 0$&amp;amp;nbsp; ergibt die Fensterfläche:&lt;br /&gt;
:$$W(f=0) =&lt;br /&gt;
\frac{0.5}{f_{\rm A}}=&lt;br /&gt;
\int_{-\infty}^{+\infty}w(t)\hspace{0.05cm}{\rm&lt;br /&gt;
d}t\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(3)'''&amp;amp;nbsp; Aus dem Ergebnis der Teilaufgabe&amp;amp;nbsp; '''(2)'''&amp;amp;nbsp; folgt auch:&lt;br /&gt;
:$$W(f = ±f_{\rm A}) = W(0)/2\hspace{0.15cm}\underline{ = 0.25} \cdot 1/{f_{\rm A}}.$$ &lt;br /&gt;
*Aufgrund des monotonen Verlaufs im Bereich&amp;amp;nbsp; $|f| &amp;lt; f_{\rm A}$&amp;amp;nbsp; ist die Betragsfunktion&amp;amp;nbsp; $|W(f)|$&amp;amp;nbsp; genau bei&amp;amp;nbsp; $± f_{\rm A}$&amp;amp;nbsp; zum ersten Mal auf die Hälfte des Maximums abgefallen. &lt;br /&gt;
*Damit gilt&amp;amp;nbsp; $B_{\rm 6\hspace{0.05cm}dB}\hspace{-0.05cm}/\hspace{-0.05cm}f_{\rm A} \;\underline{=2}$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(4)'''&amp;amp;nbsp; Der größte Spektralbetrag außerhalb der Hauptkeule tritt bei&amp;amp;nbsp; $f = ±2.5 f_{\rm A}$&amp;amp;nbsp; auf. Mit dem Ergebnis der Teilaufgabe&amp;amp;nbsp; '''(2)'''&amp;amp;nbsp; gilt:&lt;br /&gt;
:$$W(f = 2.5 \cdot f_{\rm A}) = \frac{0.5}{f_{\rm A}}\cdot {\rm si}(2.5 \pi )&lt;br /&gt;
 +\frac{0.25}{f_{\rm A}}\cdot {\rm si}(1.5 \pi )+\frac{0.25}{f_{\rm A}}\cdot {\rm si}(3.5 \pi )=  \frac{0.25}{\pi \cdot f_{\rm A}}\left[ \frac{2}{2.5}-\frac{1}{1.5}-\frac{1}{3.5}\right] \approx -\frac{0.0121}{ f_{\rm A}}\hspace{0.05cm}.$$&lt;br /&gt;
*Damit erhält man für den minimalen Abstand zwischen Hauptkeule und Seitenkeulen:&lt;br /&gt;
:$$A_{\rm H/S} = 20 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{|W(0)|}{|W(2.5 \cdot f_{\rm A})|} = 20 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{0.5}{0.0121}\hspace{0.15 cm}\underline{\approx 32.3\,\,{\rm dB}}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
{{ML-Fuß}}&lt;br /&gt;
&lt;br /&gt;
__NOEDITSECTION__&lt;br /&gt;
[[Category:Exercises for Signal Representation|^5.4 Spectrum Analysis^]]&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Aufgaben:Aufgabe_5.4Z:_Zum_Hanning-Fenster&amp;diff=35312</id>
		<title>Aufgaben:Aufgabe 5.4Z: Zum Hanning-Fenster</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Aufgaben:Aufgabe_5.4Z:_Zum_Hanning-Fenster&amp;diff=35312"/>
		<updated>2020-11-29T20:58:59Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: Oezdemir moved page Aufgaben:Aufgabe 5.4Z: Zum Hanning-Fenster to Aufgaben:Exercise 5.4Z: On The Hanning Window&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECT [[Aufgaben:Exercise 5.4Z: On The Hanning Window]]&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.4:_Comparison_of_Rectangular_and_Hanning_Window&amp;diff=35309</id>
		<title>Aufgaben:Exercise 5.4: Comparison of Rectangular and Hanning Window</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.4:_Comparison_of_Rectangular_and_Hanning_Window&amp;diff=35309"/>
		<updated>2020-11-29T20:57:53Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: Oezdemir moved page Aufgaben:Aufgabe 5.4: Vergleich von Rechteck- und Hanningfenster to Aufgaben:Exercise 5.4: Comparison of Rectangular And Hanning Window&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
{{quiz-Header|Buchseite=Signal_Representation/Spectrum_Analysis&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1166__Sig_A_5_4_neu.png|250px|right|frame|Beispiele für die Spektralanalyse]]&lt;br /&gt;
&lt;br /&gt;
Gegeben sei der prinzipielle Zeitverlauf eines periodischen Signals: &lt;br /&gt;
 &lt;br /&gt;
:$$x(t)   =   A_1 \cdot \cos (2 \pi \cdot f_1 \cdot t)  +  A_2 \cdot \cos (2 \pi \cdot f_2 \cdot t) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Unbekannt und damit zu schätzen sind dessen Parameter&amp;amp;nbsp; $A_1$,&amp;amp;nbsp; $f_1$,&amp;amp;nbsp; $A_2$&amp;amp;nbsp; und&amp;amp;nbsp; $f_2$.&lt;br /&gt;
&lt;br /&gt;
Nach Gewichtung des Signals mit der Fensterfunktion&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; wird das Produkt&amp;amp;nbsp; $y(t) = x(t) \cdot w(t)$&amp;amp;nbsp; einer&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)|Diskreten Fouriertransformation]]&amp;amp;nbsp; (DFT) mit den Parametern&amp;amp;nbsp; $N = 512$&amp;amp;nbsp; und&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; unterworfen. Die Zeitdauer&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; des zu analysierenden  Signalausschnitts kann vom Benutzer beliebig eingestellt werden.&lt;br /&gt;
&lt;br /&gt;
Für die Fensterung stehen zwei Funktionen zur Verfügung, die für&amp;amp;nbsp; $|t| &amp;gt; T_{\rm P}/2$&amp;amp;nbsp; jeweils Null sind:&lt;br /&gt;
*Das&amp;amp;nbsp; '''Rechteckfenster''':&lt;br /&gt;
 &lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{f\ddot{u}r}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm sonst} \hspace{0.05cm}, \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
 &lt;br /&gt;
:$$W(f) ={1}/{f_{\rm A}}\cdot {\rm si}(\pi \cdot&lt;br /&gt;
{f}/{f_{\rm A}})\hspace{0.05cm},$$&lt;br /&gt;
&lt;br /&gt;
*das&amp;amp;nbsp; '''Hanning–Fenster''':&lt;br /&gt;
 &lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 0.5 + 0.5 \cdot \cos (2 \pi \cdot {\nu}/{N}) \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{f\ddot{u}r}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm sonst} \hspace{0.05cm}, \\&lt;br /&gt;
\end{array}$$ &lt;br /&gt;
&lt;br /&gt;
:$$W(f) ={0.5}/{f_{\rm A}}\cdot {\rm si}(\pi \cdot&lt;br /&gt;
\frac{f}{f_{\rm A}})+ {0.25}/{f_{\rm A}}\cdot {\rm si}(\pi&lt;br /&gt;
\cdot \frac{f-f_{\rm A}}{f_{\rm A}})+ {0.5}/{f_{\rm A}}\cdot&lt;br /&gt;
{\rm si}(\pi \cdot \frac{f+f_{\rm A}}{f_{\rm A}})\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
$W(f)$&amp;amp;nbsp; ist hierbei die Fouriertransformierte der zeitkontinuierlichen Fensterfunktion&amp;amp;nbsp; $w(t)$, während&amp;amp;nbsp; $w(ν)$&amp;amp;nbsp; die zeitdiskrete Gewichtungsfunktion angibt.&lt;br /&gt;
&lt;br /&gt;
In der Aufgabe wird auf verschiedene Spektralfunktionen&amp;amp;nbsp; $Y(f)$&amp;amp;nbsp; Bezug genommen, zum Beispiel auf&lt;br /&gt;
 &lt;br /&gt;
:$$Y_{\rm A}(f) = 1\, {\rm V}\cdot {\rm \delta} (f \pm  1\,\,{\rm kHz})+&lt;br /&gt;
 0.5\,\, {\rm V}\cdot {\rm \delta} (f \pm  1.125\,\,{\rm kHz})&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
In der obigen Grafik sind zwei weitere Spektralfunktionen&amp;amp;nbsp; $Y_{\rm B}(f)$&amp;amp;nbsp; und&amp;amp;nbsp; $Y_{\rm C}(f)$&amp;amp;nbsp; abgebildet, die sich ergeben, wenn ein&amp;amp;nbsp; $1 \ \text{kHz}$–Signal&amp;amp;nbsp; mittels DFT analysiert wird und der DFT–Parameter&amp;amp;nbsp; $T_{\rm P} = 8.5 \ \text{ms}$&amp;amp;nbsp; ungünstig gewählt ist.&lt;br /&gt;
&lt;br /&gt;
*Für eines der Bilder ist das Rechteckfenster zugrunde gelegt, für das andere das Hanning–Fenster. &lt;br /&gt;
*Nicht angegeben wird, welche Grafik zu welchem Fenster gehört.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Hinweise:'' &lt;br /&gt;
*Die Aufgabe gehört zum  Kapitel&amp;amp;nbsp; [[Signal_Representation/Spectrum_Analysis|Spektralanalyse]].&lt;br /&gt;
*Beachten Sie, dass die Frequenzauflösung&amp;amp;nbsp; $f_{\rm A}$&amp;amp;nbsp; gleich dem Kehrwert des einstellbaren Parameters&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; ist. &lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Fragebogen===&lt;br /&gt;
&lt;br /&gt;
&amp;lt;quiz display=simple&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{Welche der folgenden Aussagen treffen mit Sicherheit zu, wenn die DFT das Ausgangsspektrum&amp;amp;nbsp; $Y_{\rm A}(f)$&amp;amp;nbsp; anzeigt?&lt;br /&gt;
|type=&amp;quot;[]&amp;quot;}&lt;br /&gt;
+ Zur Gewichtung wurde das Rechteckfenster verwendet.&lt;br /&gt;
- Zur Gewichtung wurde das Hanning–Fenster verwendet.&lt;br /&gt;
- Es wurde der DFT–Parameter&amp;amp;nbsp; $T_{\rm P} = 4\ \text{ms}$&amp;amp;nbsp; verwendet.	&lt;br /&gt;
+ Das DFT–Spektrum $Y_{\rm A}(f)$ ist identisch mit dem tatsächlichen Spektrum $X(f)$.&lt;br /&gt;
&lt;br /&gt;
{Wie lautet&amp;amp;nbsp; $Y(f)$&amp;amp;nbsp; bei Verwendung des Hanning–Fensters und&amp;amp;nbsp;  $T_{\rm P} = 8 \ \text{ms}$, wenn das Eingangsspektrum&amp;amp;nbsp; $X(f) = Y_{\rm A}(f)$&amp;amp;nbsp; anliegt? &amp;lt;br&amp;gt;Geben Sie die Gewichte der Diraclinien bei&amp;amp;nbsp; $f_1= 1\ \text{kHz}$&amp;amp;nbsp; und&amp;amp;nbsp; $f_2 = 1.125\ \text{kHz}$&amp;amp;nbsp; an.&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$G(f_1 = 1.000 \ \text{kHz})\ = \ $ { 0.625 3% } &amp;amp;nbsp;$\text{V}$&lt;br /&gt;
$G(f_2 = 1.125 \ \text{kHz})\ = \ $ { 0.5 3% } &amp;amp;nbsp;$\text{V}$&lt;br /&gt;
&lt;br /&gt;
{Wir betrachten das&amp;amp;nbsp; $1\ \text{kHz}$–Cosinussignal&amp;amp;nbsp; $x(t)$. Welches Spektrum -&amp;amp;nbsp; $Y_{\rm B}(f)$&amp;amp;nbsp; oder&amp;amp;nbsp; $Y_{\rm C}(f)$&amp;amp;nbsp; – ergibt sich mit dem Rechteck– bzw. dem Hanning–Fenster, wenn der DFT-Parameter&amp;amp;nbsp;  $T_{\rm P} = 8.5 \ \text{ms}$&amp;amp;nbsp; ungünstig gewählt ist?&lt;br /&gt;
|type=&amp;quot;()&amp;quot;}&lt;br /&gt;
- $Y_{\rm B}(f)$ ergibt sich bei Rechteckfensterung.&lt;br /&gt;
+ $Y_{\rm B}(f)$ ergibt sich mit dem Hanning-Fenster.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/quiz&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Musterlösung===&lt;br /&gt;
{{ML-Kopf}}&lt;br /&gt;
'''(1)'''&amp;amp;nbsp; Richtig sind die &amp;lt;u&amp;gt;Lösungsvorschläge 1 und 4&amp;lt;/u&amp;gt;:&lt;br /&gt;
*Bei Verwendung des Hanning–Fensters müssten selbst dann drei Diracfunktionen zu erkennen sein, wenn&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; nur eine Frequenz beinhaltet &amp;amp;nbsp; ⇒ &amp;amp;nbsp; es wurde das Rechteckfenster verwendet.&lt;br /&gt;
*Mit&amp;amp;nbsp; $T_{\rm P} = 4 \ \text{ms}$&amp;amp;nbsp; ergibt sich für die Frequenzauflösung&amp;amp;nbsp; $f_{\rm A}= 1/T_{\rm P} = 0.25 \ \text{kHz}$. Damit liegt die Frequenz&amp;amp;nbsp; $f_2$&amp;amp;nbsp; nicht im vorgegebenen Raster und&amp;amp;nbsp; $Y(f)$&amp;amp;nbsp; würde sich aus sehr vielen Diraclinien zusammensetzen. Das heißt: &amp;amp;nbsp; die dritte Aussage ist falsch.&lt;br /&gt;
[[File:P_ID1167__Sig_A_5_4a.png|right|frame|$\text{Beispielsignal 1}$&amp;amp;nbsp; zur Spektralanalyse]]&lt;br /&gt;
&lt;br /&gt;
*Wie aus der Grafik hervorgeht, hat&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; die Periodendauer&amp;amp;nbsp; $T_{\rm 0} = 8 \ \text{ms}$. Wählt man den DFT–Parameter gleich&amp;amp;nbsp; $T_{\rm P} = 4 \ \text{ms}$&amp;amp;nbsp; (oder ein ganzzahliges Vielfaches davon), so stimmt die periodische Fortsetzung&amp;amp;nbsp; ${\rm P}\{ x(t)\} $&amp;amp;nbsp; im Intervall&amp;amp;nbsp; $|t| \leq T_{\rm P}/2$&amp;amp;nbsp; mit&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; überein, so dass sich die Gewichtungsfunktion&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; nicht störend auswirkt: &amp;amp;nbsp; &lt;br /&gt;
*Das DFT–Spektrum&amp;amp;nbsp; $Y(f)$&amp;amp;nbsp; stimmt somit mit dem tatsächlichen Spektrum überein. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(2)'''&amp;amp;nbsp; Wegen $T_{\rm 0} = 8 \ \text{ms}$&amp;amp;nbsp; setzt sich das Hanning–Spektrum&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; &lt;br /&gt;
*aus drei Diracfunktionen bei positiven Frequenzen &lt;br /&gt;
*und drei dazu achsensymmetrischen Diracs bei negativen Frequenzen &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
zusammen. Für die positiven Frequenzen lautet die Spektralfunktion:&lt;br /&gt;
 &lt;br /&gt;
:$$W(f) =0.5\cdot {\rm \delta}(f) + 0.25\cdot {\rm \delta}(f-f_{\rm A})+ 0.25\cdot {\rm \delta}(f+f_{\rm A})\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Das Ausgangsspektrum ergibt sich aus der Faltung zwischen&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; und&amp;amp;nbsp; $W(f)$. Bei positiven Frequenzen ergeben sich nun vier Diracs mit folgenden Gewichten:&lt;br /&gt;
[[File:P_ID1169__Sig_A_5_4b.png|right|frame|$\text{Beispielsignal 2}$&amp;amp;nbsp; zur Spektralanalyse]]&lt;br /&gt;
 &lt;br /&gt;
:$$\begin{align*} G(f = 0.875\,{\rm kHz}) &amp;amp; = 1\, {\rm V}\cdot 0.25 = 0.250\, {\rm&lt;br /&gt;
 V}, \\&lt;br /&gt;
 G(f = f_1 = 1.000\,{\rm kHz}) &amp;amp; = 1\, {\rm V}\cdot 0.5 + 0.5\, {\rm V}\cdot 0.25 \hspace{0.15 cm}\underline{ = 0.625\, {\rm&lt;br /&gt;
 V}}, \\&lt;br /&gt;
 G(f = f_2 = 1.125\,{\rm kHz}) &amp;amp; = 1\, {\rm V}\cdot 0.25 + 0.5\, {\rm V}\cdot 0.5  \hspace{0.15 cm}\underline{= 0.500\, {\rm&lt;br /&gt;
 V}}, \\&lt;br /&gt;
 G(f = 1.250\,{\rm kHz}) &amp;amp; = 0.5\, {\rm V}\cdot 0.25 = 0.125\, {\rm&lt;br /&gt;
 V}&lt;br /&gt;
 \hspace{0.05cm}.\end{align*}$$&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt die Abschwächung der Ränder durch die Gewichtungsfunktion&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; des Hanning–Fensters.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(3)'''&amp;amp;nbsp; Richtig ist der &amp;lt;u&amp;gt;zweite Lösungsvorschlag&amp;lt;/u&amp;gt;:&lt;br /&gt;
*Das Rechteck–Fenster liefert dann ein sehr stark verfälschtes Ergebnis, wenn die Fensterbreite&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; (wie hier) nicht an die Frequenz des Cosinussignals angepasst ist. &lt;br /&gt;
*In diesem Fall ist das Hanning–Fenster besser geeignet. &lt;br /&gt;
{{ML-Fuß}}&lt;br /&gt;
&lt;br /&gt;
__NOEDITSECTION__&lt;br /&gt;
[[Category:Exercises for Signal Representation|^5.4 Spectrum Analysis^]]&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Aufgaben:Aufgabe_5.4:_Vergleich_von_Rechteck-_und_Hanningfenster&amp;diff=35310</id>
		<title>Aufgaben:Aufgabe 5.4: Vergleich von Rechteck- und Hanningfenster</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Aufgaben:Aufgabe_5.4:_Vergleich_von_Rechteck-_und_Hanningfenster&amp;diff=35310"/>
		<updated>2020-11-29T20:57:53Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: Oezdemir moved page Aufgaben:Aufgabe 5.4: Vergleich von Rechteck- und Hanningfenster to Aufgaben:Exercise 5.4: Comparison of Rectangular And Hanning Window&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECT [[Aufgaben:Exercise 5.4: Comparison of Rectangular And Hanning Window]]&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.4Z:_On_the_Hanning_Window&amp;diff=35308</id>
		<title>Aufgaben:Exercise 5.4Z: On the Hanning Window</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.4Z:_On_the_Hanning_Window&amp;diff=35308"/>
		<updated>2020-11-29T20:57:02Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
{{quiz-Header|Buchseite=Signal_Representation/Spectrum_Analysis&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1168__Sig_Z_5_4.png|250px|right|frame|Charakterisierung des Hanning-Fensters]]&lt;br /&gt;
&lt;br /&gt;
In dieser Aufgabe sollen wichtige Eigenschaften des häufig verwendeten Hanning–Fensters hergeleitet werden. Die zeitkontinuierliche Darstellung im Intervall von&amp;amp;nbsp; $-T_{\rm P}/2$&amp;amp;nbsp; bis&amp;amp;nbsp; $+T_{\rm P}/2$&amp;amp;nbsp; lautet hier wie folgt:&lt;br /&gt;
:$$w(t)= {\rm cos}^2(\pi \cdot&lt;br /&gt;
{t}/{T_{\rm P}})=  0.5\cdot \big(1 + {\rm cos}(2\pi \cdot&lt;br /&gt;
{t}/{T_{\rm P}}) \big )&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
Außerhalb des symmetrischen Zeitbereichs der Dauer&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; ist $w&amp;amp;nbsp;(t) \equiv 0$.&lt;br /&gt;
&lt;br /&gt;
Die obere Grafik zeigt die zeitdiskrete Darstellung&amp;amp;nbsp; $w(\nu) = w({\nu}  \cdot T_{\rm A})$, wobei&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; um den Faktor&amp;amp;nbsp; $N = 32$&amp;amp;nbsp; kleiner ist als&amp;amp;nbsp; $T_{\rm P}$. Der Definitionsbereich der diskreten Zeitvariablen&amp;amp;nbsp; $ν$&amp;amp;nbsp; reicht von&amp;amp;nbsp; $-16$&amp;amp;nbsp; bis&amp;amp;nbsp; $+15$.&lt;br /&gt;
&lt;br /&gt;
In der unteren Grafik ist die Fouriertransformierte&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; der zeitkontinuierlichen Fensterfunktion&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; logarithmisch dargestellt. Die Abszisse ist hierbei auf&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm P}$&amp;amp;nbsp; normiert ist. Man erkennt:&lt;br /&gt;
*Die äquidistanten Werte&amp;amp;nbsp; $W({\mu}  \cdot f_{\rm A})$&amp;amp;nbsp; sind Null mit Ausnahme von&amp;amp;nbsp; $μ = 0$&amp;amp;nbsp; und&amp;amp;nbsp; $μ = ±1$. &lt;br /&gt;
*Die Hauptkeule erstreckt sich somit auf den Frequenzbereich&amp;amp;nbsp; $|f| ≤ 2 · f_{\rm A}$. &lt;br /&gt;
*$W(f)$&amp;amp;nbsp; ist außerhalb der Hauptkeule betragsmäßig für&amp;amp;nbsp; $f = ±2.5 · f_{\rm A}$&amp;amp;nbsp; am größten. &lt;br /&gt;
*Somit gilt hier für den minimalen Abstand zwischen Haupt– und Seitenkeulen:&lt;br /&gt;
&lt;br /&gt;
:$$A_{\rm H/S} = 20 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{|W(0)|}{|W(2.5 \cdot f_{\rm A})|} \hspace{0.15cm}{\rm (in}\hspace{0.1cm}{\rm dB)}\hspace{0.05cm}.$$ &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Hinweise:'' &lt;br /&gt;
*Die Aufgabe gehört zum  Kapitel&amp;amp;nbsp; [[Signal_Representation/Spectrum_Analysis|Spektralanalyse]].&lt;br /&gt;
*Beachten Sie, dass die Frequenzauflösung&amp;amp;nbsp; $f_{\rm A}$&amp;amp;nbsp; gleich dem Kehrwert des einstellbaren Parameters&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; ist. &lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Fragebogen===&lt;br /&gt;
&lt;br /&gt;
&amp;lt;quiz display=simple&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{Geben Sie die zeitdiskreten Koeffizienten&amp;amp;nbsp; $w(ν)$&amp;amp;nbsp; des Hanning–Fensters analytisch an. &amp;lt;br&amp;gt;Welche Zahlenwerte ergeben sich für&amp;amp;nbsp; $ν = 0$,&amp;amp;nbsp; $ν = 1$&amp;amp;nbsp; und&amp;amp;nbsp; $ν =  -\hspace{0.05cm}8$?&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$w(ν = 0) \hspace{0.37cm} = \ $ { 1 1% } &lt;br /&gt;
$w(ν = 1) \hspace{0.37cm} = \ $ { 0.99 1% }&lt;br /&gt;
$w(ν =  -8) \hspace{0.03cm} = \ $ { 0.5 1% } &lt;br /&gt;
&lt;br /&gt;
{Berechnen Sie die Spektralfunktion&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; allgemein. Welche der folgenden Aussagen sind zutreffend??&lt;br /&gt;
|type=&amp;quot;[]&amp;quot;}&lt;br /&gt;
- $W(f)$&amp;amp;nbsp; liefert für spezielle Frequenzwerte komplexe Ergebnisse.&lt;br /&gt;
+ $W(f)$&amp;amp;nbsp; ist bezüglich&amp;amp;nbsp; $f$&amp;amp;nbsp; gerade, das heißt, es gilt stets&amp;amp;nbsp; $W(-f) = W(+f)$.&lt;br /&gt;
+ Der Spektralwert&amp;amp;nbsp; $W(f = 0)$&amp;amp;nbsp; ist gleich&amp;amp;nbsp; $0.5/f_{\rm A}$&amp;amp;nbsp; und somit reell.&lt;br /&gt;
&lt;br /&gt;
{Wie groß sind&amp;amp;nbsp; $W(f = ±f_{\rm A})$&amp;amp;nbsp; und die auf&amp;amp;nbsp; $f_{\rm A}$&amp;amp;nbsp; normierte $\text{6 dB}$–Bandbreite?&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$W(±f_{\rm A})  \hspace{0.15cm} = \ $ { 0.25 1% } $\ \cdot \ 1/f_{\rm A}$&lt;br /&gt;
$B_{\rm 6\hspace{0.05cm}dB}\hspace{-0.05cm}/\hspace{-0.05cm}f_{\rm A}   \hspace{0.2cm} = \ $ { 2 1% } &lt;br /&gt;
	&lt;br /&gt;
{Wie groß ist der minimale Abstand zwischen Hauptkeule und Seitenkeule.&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$A_{\rm H/S} \ = \ $ { 32.3 1% } $\ \rm dB$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/quiz&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Musterlösung===&lt;br /&gt;
{{ML-Kopf}}&lt;br /&gt;
'''(1)'''&amp;amp;nbsp; Nach trigonometrischer Umformung ergibt sich für die zeitkontinuierliche Fensterfunktion:&lt;br /&gt;
:$$w(t) = {\rm cos}^2(\pi \cdot&lt;br /&gt;
{t}/{T_{\rm P}}) = 0.5+ 0.5\cdot {\rm&lt;br /&gt;
cos}(2\pi \cdot {t}/{T_{\rm P}})\hspace{0.05cm}.$$&lt;br /&gt;
*Nach Zeitdiskretisierung mit&amp;amp;nbsp; $ν = t/T_{\rm A}$&amp;amp;nbsp; und&amp;amp;nbsp; $T_{\rm P}/T_{\rm A} = N = 32$&amp;amp;nbsp; erhält man für das zeitdiskrete Fenster:&lt;br /&gt;
:$$w(\nu)  =  w(\nu \cdot T_{\rm A}) = 0.5+ 0.5\cdot {\rm&lt;br /&gt;
cos}(2\pi \cdot {\nu}/{N})\hspace{0.8cm}&lt;br /&gt;
\Rightarrow \hspace{0.3cm}w(\nu = 0) \hspace{0.15 cm}\underline{= 1},$$&lt;br /&gt;
:$$w(\nu = 1) = 0.5+ 0.5\cdot {\rm cos}(&lt;br /&gt;
\frac{\pi}{16})\hspace{0.15 cm}\underline{ = 0.99}, $$&lt;br /&gt;
:$$w(\nu = -8)=0.5+&lt;br /&gt;
0.5\cdot {\rm cos}( \frac{-\pi}{2}) \hspace{0.15 cm}\underline{=&lt;br /&gt;
0.5}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(2)'''&amp;amp;nbsp; Richtig sind die &amp;lt;u&amp;gt;Lösungsvorschläge 2 und 3&amp;lt;/u&amp;gt;:&lt;br /&gt;
*Die periodische Fortsetzung von&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; entsprechend der Periodendauer&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; liefert ein (periodisches) Signal mit einem Gleich– und einem Cosinusanteil. &lt;br /&gt;
*Daraus folgt mit&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm P}$:&lt;br /&gt;
:$${\rm P}\{w(t)\} = 0.5+0.5\cdot {\rm&lt;br /&gt;
cos}(2\pi \cdot f_{\rm A} \cdot t)&lt;br /&gt;
\hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\,&lt;br /&gt;
\hspace{0.2cm}0.5\cdot {\rm \delta}(f) + 0.25\cdot {\rm&lt;br /&gt;
\delta}(f \pm f_{\rm A}))\hspace{0.05cm}.$$&lt;br /&gt;
*Das zeitbegrenzte Signal&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; ergibt sich aus&amp;amp;nbsp; ${\rm P}\{w(t)\}$&amp;amp;nbsp; durch Multiplikation mit einem Rechteck der Amplitude&amp;amp;nbsp; $1$&amp;amp;nbsp; und der Dauer&amp;amp;nbsp; $T_{\rm P}$. &lt;br /&gt;
*Dessen Spektrum&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; erhält man somit aus der Faltung der obigen Spektralfunktion mit der Funktion&amp;amp;nbsp; $T_{\rm P} · {\rm si}(π \cdot f \cdot T_{\rm P}) = 1/f_{\rm A} · {\rm si}(π \cdot f/f_{\rm A})$:&lt;br /&gt;
:$$w(t)&lt;br /&gt;
\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\,&lt;br /&gt;
W(f) = \frac{0.5}{f_{\rm A}}\cdot {\rm si}( \frac{\pi f}{f_{\rm&lt;br /&gt;
A}})+ \frac{0.25}{f_{\rm A}}\cdot {\rm si}(\pi \cdot&lt;br /&gt;
\frac{f-f_{\rm A}}{f_{\rm A}})+ \frac{0.25}{f_{\rm A}}\cdot {\rm&lt;br /&gt;
si}(\pi \cdot \frac{f+f_{\rm A}}{f_{\rm A}})\hspace{0.05cm}.$$&lt;br /&gt;
*Diese Spektralfunktion ist gerade und für alle Frequenzen&amp;amp;nbsp; $f$&amp;amp;nbsp; auch reell. Der Spektralwert bei der Frequenz&amp;amp;nbsp; $f = 0$&amp;amp;nbsp; ergibt die Fensterfläche:&lt;br /&gt;
:$$W(f=0) =&lt;br /&gt;
\frac{0.5}{f_{\rm A}}=&lt;br /&gt;
\int_{-\infty}^{+\infty}w(t)\hspace{0.05cm}{\rm&lt;br /&gt;
d}t\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(3)'''&amp;amp;nbsp; Aus dem Ergebnis der Teilaufgabe&amp;amp;nbsp; '''(2)'''&amp;amp;nbsp; folgt auch:&lt;br /&gt;
:$$W(f = ±f_{\rm A}) = W(0)/2\hspace{0.15cm}\underline{ = 0.25} \cdot 1/{f_{\rm A}}.$$ &lt;br /&gt;
*Aufgrund des monotonen Verlaufs im Bereich&amp;amp;nbsp; $|f| &amp;lt; f_{\rm A}$&amp;amp;nbsp; ist die Betragsfunktion&amp;amp;nbsp; $|W(f)|$&amp;amp;nbsp; genau bei&amp;amp;nbsp; $± f_{\rm A}$&amp;amp;nbsp; zum ersten Mal auf die Hälfte des Maximums abgefallen. &lt;br /&gt;
*Damit gilt&amp;amp;nbsp; $B_{\rm 6\hspace{0.05cm}dB}\hspace{-0.05cm}/\hspace{-0.05cm}f_{\rm A} \;\underline{=2}$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(4)'''&amp;amp;nbsp; Der größte Spektralbetrag außerhalb der Hauptkeule tritt bei&amp;amp;nbsp; $f = ±2.5 f_{\rm A}$&amp;amp;nbsp; auf. Mit dem Ergebnis der Teilaufgabe&amp;amp;nbsp; '''(2)'''&amp;amp;nbsp; gilt:&lt;br /&gt;
:$$W(f = 2.5 \cdot f_{\rm A}) = \frac{0.5}{f_{\rm A}}\cdot {\rm si}(2.5 \pi )&lt;br /&gt;
 +\frac{0.25}{f_{\rm A}}\cdot {\rm si}(1.5 \pi )+\frac{0.25}{f_{\rm A}}\cdot {\rm si}(3.5 \pi )=  \frac{0.25}{\pi \cdot f_{\rm A}}\left[ \frac{2}{2.5}-\frac{1}{1.5}-\frac{1}{3.5}\right] \approx -\frac{0.0121}{ f_{\rm A}}\hspace{0.05cm}.$$&lt;br /&gt;
*Damit erhält man für den minimalen Abstand zwischen Hauptkeule und Seitenkeulen:&lt;br /&gt;
:$$A_{\rm H/S} = 20 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{|W(0)|}{|W(2.5 \cdot f_{\rm A})|} = 20 \cdot {\rm lg}\hspace{0.15cm}&lt;br /&gt;
 \frac{0.5}{0.0121}\hspace{0.15 cm}\underline{\approx 32.3\,\,{\rm dB}}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
{{ML-Fuß}}&lt;br /&gt;
&lt;br /&gt;
__NOEDITSECTION__&lt;br /&gt;
[[Category:Exercises for Signal Representation|^5.4 Spectrum Analysis^]]&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.4:_Comparison_of_Rectangular_and_Hanning_Window&amp;diff=35307</id>
		<title>Aufgaben:Exercise 5.4: Comparison of Rectangular and Hanning Window</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.4:_Comparison_of_Rectangular_and_Hanning_Window&amp;diff=35307"/>
		<updated>2020-11-29T20:56:53Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
{{quiz-Header|Buchseite=Signal_Representation/Spectrum_Analysis&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1166__Sig_A_5_4_neu.png|250px|right|frame|Beispiele für die Spektralanalyse]]&lt;br /&gt;
&lt;br /&gt;
Gegeben sei der prinzipielle Zeitverlauf eines periodischen Signals: &lt;br /&gt;
 &lt;br /&gt;
:$$x(t)   =   A_1 \cdot \cos (2 \pi \cdot f_1 \cdot t)  +  A_2 \cdot \cos (2 \pi \cdot f_2 \cdot t) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Unbekannt und damit zu schätzen sind dessen Parameter&amp;amp;nbsp; $A_1$,&amp;amp;nbsp; $f_1$,&amp;amp;nbsp; $A_2$&amp;amp;nbsp; und&amp;amp;nbsp; $f_2$.&lt;br /&gt;
&lt;br /&gt;
Nach Gewichtung des Signals mit der Fensterfunktion&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; wird das Produkt&amp;amp;nbsp; $y(t) = x(t) \cdot w(t)$&amp;amp;nbsp; einer&amp;amp;nbsp; [[Signal_Representation/Discrete_Fourier_Transform_(DFT)|Diskreten Fouriertransformation]]&amp;amp;nbsp; (DFT) mit den Parametern&amp;amp;nbsp; $N = 512$&amp;amp;nbsp; und&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; unterworfen. Die Zeitdauer&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; des zu analysierenden  Signalausschnitts kann vom Benutzer beliebig eingestellt werden.&lt;br /&gt;
&lt;br /&gt;
Für die Fensterung stehen zwei Funktionen zur Verfügung, die für&amp;amp;nbsp; $|t| &amp;gt; T_{\rm P}/2$&amp;amp;nbsp; jeweils Null sind:&lt;br /&gt;
*Das&amp;amp;nbsp; '''Rechteckfenster''':&lt;br /&gt;
 &lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 1 \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{f\ddot{u}r}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm sonst} \hspace{0.05cm}, \\&lt;br /&gt;
\end{array}$$&lt;br /&gt;
 &lt;br /&gt;
:$$W(f) ={1}/{f_{\rm A}}\cdot {\rm si}(\pi \cdot&lt;br /&gt;
{f}/{f_{\rm A}})\hspace{0.05cm},$$&lt;br /&gt;
&lt;br /&gt;
*das&amp;amp;nbsp; '''Hanning–Fenster''':&lt;br /&gt;
 &lt;br /&gt;
:$${w} (\nu)   = \left\{ \begin{array}{c} 0.5 + 0.5 \cdot \cos (2 \pi \cdot {\nu}/{N}) \\&lt;br /&gt;
 0 \\  \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{10}c}    {\rm{f\ddot{u}r}}&lt;br /&gt;
\\    \\ \end{array}\begin{array}{*{20}c}&lt;br /&gt;
-N/2 \le \nu &amp;lt; N/2 \hspace{0.05cm}, \\&lt;br /&gt;
{\rm sonst} \hspace{0.05cm}, \\&lt;br /&gt;
\end{array}$$ &lt;br /&gt;
&lt;br /&gt;
:$$W(f) ={0.5}/{f_{\rm A}}\cdot {\rm si}(\pi \cdot&lt;br /&gt;
\frac{f}{f_{\rm A}})+ {0.25}/{f_{\rm A}}\cdot {\rm si}(\pi&lt;br /&gt;
\cdot \frac{f-f_{\rm A}}{f_{\rm A}})+ {0.5}/{f_{\rm A}}\cdot&lt;br /&gt;
{\rm si}(\pi \cdot \frac{f+f_{\rm A}}{f_{\rm A}})\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
$W(f)$&amp;amp;nbsp; ist hierbei die Fouriertransformierte der zeitkontinuierlichen Fensterfunktion&amp;amp;nbsp; $w(t)$, während&amp;amp;nbsp; $w(ν)$&amp;amp;nbsp; die zeitdiskrete Gewichtungsfunktion angibt.&lt;br /&gt;
&lt;br /&gt;
In der Aufgabe wird auf verschiedene Spektralfunktionen&amp;amp;nbsp; $Y(f)$&amp;amp;nbsp; Bezug genommen, zum Beispiel auf&lt;br /&gt;
 &lt;br /&gt;
:$$Y_{\rm A}(f) = 1\, {\rm V}\cdot {\rm \delta} (f \pm  1\,\,{\rm kHz})+&lt;br /&gt;
 0.5\,\, {\rm V}\cdot {\rm \delta} (f \pm  1.125\,\,{\rm kHz})&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
In der obigen Grafik sind zwei weitere Spektralfunktionen&amp;amp;nbsp; $Y_{\rm B}(f)$&amp;amp;nbsp; und&amp;amp;nbsp; $Y_{\rm C}(f)$&amp;amp;nbsp; abgebildet, die sich ergeben, wenn ein&amp;amp;nbsp; $1 \ \text{kHz}$–Signal&amp;amp;nbsp; mittels DFT analysiert wird und der DFT–Parameter&amp;amp;nbsp; $T_{\rm P} = 8.5 \ \text{ms}$&amp;amp;nbsp; ungünstig gewählt ist.&lt;br /&gt;
&lt;br /&gt;
*Für eines der Bilder ist das Rechteckfenster zugrunde gelegt, für das andere das Hanning–Fenster. &lt;br /&gt;
*Nicht angegeben wird, welche Grafik zu welchem Fenster gehört.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Hinweise:'' &lt;br /&gt;
*Die Aufgabe gehört zum  Kapitel&amp;amp;nbsp; [[Signal_Representation/Spectrum_Analysis|Spektralanalyse]].&lt;br /&gt;
*Beachten Sie, dass die Frequenzauflösung&amp;amp;nbsp; $f_{\rm A}$&amp;amp;nbsp; gleich dem Kehrwert des einstellbaren Parameters&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; ist. &lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Fragebogen===&lt;br /&gt;
&lt;br /&gt;
&amp;lt;quiz display=simple&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{Welche der folgenden Aussagen treffen mit Sicherheit zu, wenn die DFT das Ausgangsspektrum&amp;amp;nbsp; $Y_{\rm A}(f)$&amp;amp;nbsp; anzeigt?&lt;br /&gt;
|type=&amp;quot;[]&amp;quot;}&lt;br /&gt;
+ Zur Gewichtung wurde das Rechteckfenster verwendet.&lt;br /&gt;
- Zur Gewichtung wurde das Hanning–Fenster verwendet.&lt;br /&gt;
- Es wurde der DFT–Parameter&amp;amp;nbsp; $T_{\rm P} = 4\ \text{ms}$&amp;amp;nbsp; verwendet.	&lt;br /&gt;
+ Das DFT–Spektrum $Y_{\rm A}(f)$ ist identisch mit dem tatsächlichen Spektrum $X(f)$.&lt;br /&gt;
&lt;br /&gt;
{Wie lautet&amp;amp;nbsp; $Y(f)$&amp;amp;nbsp; bei Verwendung des Hanning–Fensters und&amp;amp;nbsp;  $T_{\rm P} = 8 \ \text{ms}$, wenn das Eingangsspektrum&amp;amp;nbsp; $X(f) = Y_{\rm A}(f)$&amp;amp;nbsp; anliegt? &amp;lt;br&amp;gt;Geben Sie die Gewichte der Diraclinien bei&amp;amp;nbsp; $f_1= 1\ \text{kHz}$&amp;amp;nbsp; und&amp;amp;nbsp; $f_2 = 1.125\ \text{kHz}$&amp;amp;nbsp; an.&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$G(f_1 = 1.000 \ \text{kHz})\ = \ $ { 0.625 3% } &amp;amp;nbsp;$\text{V}$&lt;br /&gt;
$G(f_2 = 1.125 \ \text{kHz})\ = \ $ { 0.5 3% } &amp;amp;nbsp;$\text{V}$&lt;br /&gt;
&lt;br /&gt;
{Wir betrachten das&amp;amp;nbsp; $1\ \text{kHz}$–Cosinussignal&amp;amp;nbsp; $x(t)$. Welches Spektrum -&amp;amp;nbsp; $Y_{\rm B}(f)$&amp;amp;nbsp; oder&amp;amp;nbsp; $Y_{\rm C}(f)$&amp;amp;nbsp; – ergibt sich mit dem Rechteck– bzw. dem Hanning–Fenster, wenn der DFT-Parameter&amp;amp;nbsp;  $T_{\rm P} = 8.5 \ \text{ms}$&amp;amp;nbsp; ungünstig gewählt ist?&lt;br /&gt;
|type=&amp;quot;()&amp;quot;}&lt;br /&gt;
- $Y_{\rm B}(f)$ ergibt sich bei Rechteckfensterung.&lt;br /&gt;
+ $Y_{\rm B}(f)$ ergibt sich mit dem Hanning-Fenster.&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/quiz&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Musterlösung===&lt;br /&gt;
{{ML-Kopf}}&lt;br /&gt;
'''(1)'''&amp;amp;nbsp; Richtig sind die &amp;lt;u&amp;gt;Lösungsvorschläge 1 und 4&amp;lt;/u&amp;gt;:&lt;br /&gt;
*Bei Verwendung des Hanning–Fensters müssten selbst dann drei Diracfunktionen zu erkennen sein, wenn&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; nur eine Frequenz beinhaltet &amp;amp;nbsp; ⇒ &amp;amp;nbsp; es wurde das Rechteckfenster verwendet.&lt;br /&gt;
*Mit&amp;amp;nbsp; $T_{\rm P} = 4 \ \text{ms}$&amp;amp;nbsp; ergibt sich für die Frequenzauflösung&amp;amp;nbsp; $f_{\rm A}= 1/T_{\rm P} = 0.25 \ \text{kHz}$. Damit liegt die Frequenz&amp;amp;nbsp; $f_2$&amp;amp;nbsp; nicht im vorgegebenen Raster und&amp;amp;nbsp; $Y(f)$&amp;amp;nbsp; würde sich aus sehr vielen Diraclinien zusammensetzen. Das heißt: &amp;amp;nbsp; die dritte Aussage ist falsch.&lt;br /&gt;
[[File:P_ID1167__Sig_A_5_4a.png|right|frame|$\text{Beispielsignal 1}$&amp;amp;nbsp; zur Spektralanalyse]]&lt;br /&gt;
&lt;br /&gt;
*Wie aus der Grafik hervorgeht, hat&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; die Periodendauer&amp;amp;nbsp; $T_{\rm 0} = 8 \ \text{ms}$. Wählt man den DFT–Parameter gleich&amp;amp;nbsp; $T_{\rm P} = 4 \ \text{ms}$&amp;amp;nbsp; (oder ein ganzzahliges Vielfaches davon), so stimmt die periodische Fortsetzung&amp;amp;nbsp; ${\rm P}\{ x(t)\} $&amp;amp;nbsp; im Intervall&amp;amp;nbsp; $|t| \leq T_{\rm P}/2$&amp;amp;nbsp; mit&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; überein, so dass sich die Gewichtungsfunktion&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; nicht störend auswirkt: &amp;amp;nbsp; &lt;br /&gt;
*Das DFT–Spektrum&amp;amp;nbsp; $Y(f)$&amp;amp;nbsp; stimmt somit mit dem tatsächlichen Spektrum überein. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(2)'''&amp;amp;nbsp; Wegen $T_{\rm 0} = 8 \ \text{ms}$&amp;amp;nbsp; setzt sich das Hanning–Spektrum&amp;amp;nbsp; $W(f)$&amp;amp;nbsp; &lt;br /&gt;
*aus drei Diracfunktionen bei positiven Frequenzen &lt;br /&gt;
*und drei dazu achsensymmetrischen Diracs bei negativen Frequenzen &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
zusammen. Für die positiven Frequenzen lautet die Spektralfunktion:&lt;br /&gt;
 &lt;br /&gt;
:$$W(f) =0.5\cdot {\rm \delta}(f) + 0.25\cdot {\rm \delta}(f-f_{\rm A})+ 0.25\cdot {\rm \delta}(f+f_{\rm A})\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Das Ausgangsspektrum ergibt sich aus der Faltung zwischen&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; und&amp;amp;nbsp; $W(f)$. Bei positiven Frequenzen ergeben sich nun vier Diracs mit folgenden Gewichten:&lt;br /&gt;
[[File:P_ID1169__Sig_A_5_4b.png|right|frame|$\text{Beispielsignal 2}$&amp;amp;nbsp; zur Spektralanalyse]]&lt;br /&gt;
 &lt;br /&gt;
:$$\begin{align*} G(f = 0.875\,{\rm kHz}) &amp;amp; = 1\, {\rm V}\cdot 0.25 = 0.250\, {\rm&lt;br /&gt;
 V}, \\&lt;br /&gt;
 G(f = f_1 = 1.000\,{\rm kHz}) &amp;amp; = 1\, {\rm V}\cdot 0.5 + 0.5\, {\rm V}\cdot 0.25 \hspace{0.15 cm}\underline{ = 0.625\, {\rm&lt;br /&gt;
 V}}, \\&lt;br /&gt;
 G(f = f_2 = 1.125\,{\rm kHz}) &amp;amp; = 1\, {\rm V}\cdot 0.25 + 0.5\, {\rm V}\cdot 0.5  \hspace{0.15 cm}\underline{= 0.500\, {\rm&lt;br /&gt;
 V}}, \\&lt;br /&gt;
 G(f = 1.250\,{\rm kHz}) &amp;amp; = 0.5\, {\rm V}\cdot 0.25 = 0.125\, {\rm&lt;br /&gt;
 V}&lt;br /&gt;
 \hspace{0.05cm}.\end{align*}$$&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt die Abschwächung der Ränder durch die Gewichtungsfunktion&amp;amp;nbsp; $w(t)$&amp;amp;nbsp; des Hanning–Fensters.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(3)'''&amp;amp;nbsp; Richtig ist der &amp;lt;u&amp;gt;zweite Lösungsvorschlag&amp;lt;/u&amp;gt;:&lt;br /&gt;
*Das Rechteck–Fenster liefert dann ein sehr stark verfälschtes Ergebnis, wenn die Fensterbreite&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; (wie hier) nicht an die Frequenz des Cosinussignals angepasst ist. &lt;br /&gt;
*In diesem Fall ist das Hanning–Fenster besser geeignet. &lt;br /&gt;
{{ML-Fuß}}&lt;br /&gt;
&lt;br /&gt;
__NOEDITSECTION__&lt;br /&gt;
[[Category:Exercises for Signal Representation|^5.4 Spectrum Analysis^]]&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Equivalent_Low-Pass_Signal_and_its_Spectral_Function&amp;diff=35306</id>
		<title>Signal Representation/Equivalent Low-Pass Signal and its Spectral Function</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Equivalent_Low-Pass_Signal_and_its_Spectral_Function&amp;diff=35306"/>
		<updated>2020-11-29T20:54:58Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Bandpass Signals&lt;br /&gt;
|Vorherige Seite=Analytical Signal and Its Spectral Function&lt;br /&gt;
|Nächste Seite=Time Discrete Signal Representation&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Motivation for Describing in the Equivalent Low Pass Range==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The following figure shows a possible structure of a message transmission system:&lt;br /&gt;
*Often the low frequency source signal&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; is converted into a bandpass signal&amp;amp;nbsp; $s(t)$&amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''modulation''. &lt;br /&gt;
*After transmission, the received signal&amp;amp;nbsp; $r(t)$&amp;amp;nbsp; - compared to the transmit signal&amp;amp;nbsp; $s(t)$&amp;amp;nbsp; possibly distorted and with (noise) interference applied - must be reset to the original frequency range &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''Demodulation''. &lt;br /&gt;
*The sink signal&amp;amp;nbsp; $v(t)$, which should match the source signal&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; as closely as possible, is then again a low pass signal.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_4_3_S1.png|center|frame|Block Diagram of a Bandpass Transmission System]]&lt;br /&gt;
&lt;br /&gt;
Modulation and demodulation are therefore fundamental components of a transmission system, which are dealt with in detail in the book&amp;amp;nbsp; [[Modulation_Methods]]&amp;amp;nbsp;. A short summary can be found in the first chapter&amp;amp;nbsp; &amp;amp;nbsp; [[Signal_Representation/Principles_of_Communication|Principles of Message Transmission]]&amp;amp;nbsp; of this book.&lt;br /&gt;
&lt;br /&gt;
The investigation, simulation, optimization, and dimensioning of bandpass systems are mostly done in the&amp;amp;nbsp; '''equivalent low pass range'', for which the following reasons can be given&lt;br /&gt;
*If quality characteristics (bandwidth efficiency, signal-to-noise ratio, bit error rate, power requirements, etc.) of a low pass system are known, the corresponding values of related bandpass systems can be derived from them relatively easily. Examples are the digital modulation methods&amp;amp;nbsp; [[Modulation_Methods/Lineare_digitale_Modulationsverfahren#ASK_.E2.80.93_Amplitude_Shift_Keying|Amplitude Shift Keying]]&amp;amp;nbsp; (ASK) and&amp;amp;nbsp; [[Modulation_Methods/Lineare_digitale_Modulationsverfahren#BPSK_.E2.80.93_Binary_Phase_Shift_Keying|Binary Phase Shift Keying]]&amp;amp;nbsp; (BPSK), whose performance variables can be &amp;quot;extrapolated&amp;quot; from the comparable&amp;amp;nbsp; [[Digital_Signal_Transmission/Systemkomponenten_eines_Basisbandübertragungssystems#Vereinfachtes_Systemmodell|baseband system]]&amp;amp;nbsp; (i.e., without modulator and demodulator).&lt;br /&gt;
&lt;br /&gt;
*Individual subchannels in a so-called [[Modulation_Methods/Zielsetzung_von_Modulation_und_Demodulation#B.C3.BCndelung_von_Kan.C3.A4len_.E2.80.93_Frequenzmultiplex|frequency division multiplex system]], which differ by different carrier frequencies, can often be considered qualitatively equivalent. Therefore, it is sufficient to limit the calculation and dimensioning to a single channel and to perform these investigations in the equivalent low-pass range - i.e. without considering the specific carrier frequency.&lt;br /&gt;
&lt;br /&gt;
*t is often the case that the bandwidth of a communication connection is orders of magnitude smaller than the carrier frequency. For example, in the&amp;amp;nbsp; [[Examples_of_Communication_Systems/Allgemeine_Beschreibung_von_GSM|GSM standard]]&amp;amp;nbsp the individual channels are located in the frequency range around&amp;amp;nbsp; $900\ \rm MHz$&amp;amp;nbsp; (&amp;amp;bdquo;D-Network&amp;amp;rdquo;) and &amp;amp;nbsp; $1800\ \rm MHz$&amp;amp;nbsp; (&amp;amp;bdquo;E-Network&amp;amp;rdquo;), while each channel has only a small bandwidth of&amp;amp;nbsp; $200\ \rm kHz$&amp;amp;nbsp; available. Therefore a simulation in the equivalent low pass range is much less complex than a simulation of the corresponding bandpass signals.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Definition in the Frequency Domain==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
We consider a real bandpass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; with the spectrum&amp;amp;nbsp; $X(f)$. Furthermore we want to apply:&lt;br /&gt;
*The bandpass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; is said to result from the modulation of a low-frequency message signal&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; with the carrier signal&amp;amp;nbsp; $z(t)$&amp;amp;nbsp; the frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp;. The type of modulation (whether analog or digital, amplitudes&amp;amp;ndash; or angle modulation, single sideband or double sideband) is not specified.&lt;br /&gt;
*The spectral function&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; of the corresponding analytical signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; exists only for positive frequencies and is twice as large as&amp;amp;nbsp; $X(f)$. For the derivation of&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; the carrier frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; of the system does not need be known.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;&lt;br /&gt;
If the spectrum of the analytical signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; is shifted to the left for &amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; , the result is called the&amp;amp;nbsp; '''Spectrum of the Equivalent Low-Pass Signal''':&lt;br /&gt;
 &lt;br /&gt;
:$$X_{\rm TP}(f)  = X_{\rm +}(f + f_{\rm T}).$$&lt;br /&gt;
&lt;br /&gt;
In general&amp;amp;nbsp; $X(f)$,&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; and&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; are complex-valued. However, if&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; is purely real, then the spectral functions&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; and&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; are also purely real, because they result from&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; only from the operations &amp;quot;Cut and Double&amp;quot; or &amp;quot;Frequency Shift&amp;quot; respectively.}}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
For the calculation of the equivalent low-pass spectrum&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; - in contrast to&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; - the knowledge of the carrier frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; is absolutely necessary. For other values of&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; other low-pass spectra will also result.&lt;br /&gt;
&lt;br /&gt;
If one transforms the above equation into the time domain, one obtains after applying the&amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_Laws#Verschiebungssatz|shifting theorem]]:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm TP}(t) = x_{\rm +}(t)\cdot {\rm e}^{-{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm}2 \pi \cdot f_{\rm T}\cdot \hspace{0.05cm}t}.$$&lt;br /&gt;
&lt;br /&gt;
The relation&amp;amp;nbsp; $x(t) = \text{Re}\big[x_+(t)\big]$&amp;amp;nbsp; yields the procedure to determine the actual physical bandpass signal from the equivalent lowpass signal:&lt;br /&gt;
 &lt;br /&gt;
:$$x(t) = {\rm Re}[x_{\rm +}(t)] = {\rm Re}\big[x_{\rm TP}(t)\cdot {\rm e}^{\hspace{0.05cm}{\rm j} \hspace{0.05cm} \cdot 2\pi \hspace{0.05cm}\cdot\hspace{0.05cm} f_{\rm T}\hspace{0.05cm} \cdot \hspace{0.05cm} \hspace{0.05cm}t}\big].$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp;&lt;br /&gt;
The upper figure shows the purely real spectral function&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; of a bandpass signal&amp;amp;nbsp; $x(t)$ which is the result of modulating a low frequency signal&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; with the carrier frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp;.&lt;br /&gt;
[[File:P_ID749__Sig_T_4_3_S2_neu.png|right|frame|Construction of The Equivalent Low Pass Signals &amp;lt;br&amp;gt;in The Frequeny Domain]]&lt;br /&gt;
&lt;br /&gt;
Below that, the two likewise real spectral functions&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; and&amp;amp;nbsp; $X_{\rm TP}(f)$ are shown. Due to the asymmetries concerning the frequency origin&amp;amp;nbsp; $(f = 0)$&amp;amp;nbsp; the corresponding time functions are complex.&lt;br /&gt;
*The continuous green spectral function&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; is shifted to the left with respect to&amp;amp;nbsp; $X_{+}(f)$&amp;amp;nbsp; by the&amp;amp;nbsp; carrier frequency $f_{\rm T}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*If the spectrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; is the modulation result of another message signal&amp;amp;nbsp; $q\hspace{0.05cm}'(t)$&amp;amp;nbsp; with a different carrier frequency&amp;amp;nbsp; ${f_{\rm T} }\hspace{0.05cm}'$, this would also result in another equivalent TP signal&amp;amp;nbsp; ${X_{\rm TP} }\hspace{0.05cm}'(f)$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*An exemplary spectral function&amp;amp;nbsp; ${X_{\rm TP} }\hspace{0.05cm}'(f)$&amp;amp;nbsp; is drawn in the graphic with green-dashed lines.}}&lt;br /&gt;
&lt;br /&gt;
==Description in The Time Domain==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
To simplify the representation we now assume a line spectrum, so that the analytical signal can be represented as&amp;amp;nbsp; '''pointer compound'' &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; sum of complex rotating pointers:&lt;br /&gt;
 &lt;br /&gt;
:$$X_{+}(f) = \sum_{i=1}^{I} {A_i} \cdot {\rm e}^{-{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
\varphi_i}\cdot\delta (f - f_i)  \hspace{0.3cm}\bullet\!\!-\!\!\!-\!\!\!-\!\!\circ\, \hspace{0.3cm}&lt;br /&gt;
x_{+}(t) = \sum_{i=1}^{I} A_i \cdot {\rm e}^{{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}( 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm}f_i\hspace{0.05cm}\cdot \hspace{0.05cm} t&lt;br /&gt;
\hspace{0.05cm}-\hspace{0.05cm} \varphi_i)}.$$&lt;br /&gt;
&lt;br /&gt;
By shifting the frequency by&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; to the left the equivalent low pass signal in frequency and time domain is thus:&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
:$$X_{\rm TP}(f) = \sum_{i=1}^{I} {A_i} \cdot {\rm e}^{-{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
\varphi_i}\cdot\delta (f - \nu_i)\hspace{0.3cm}\bullet\!\!-\!\!\!-\!\!\!-\!\!\circ\, \hspace{0.3cm} x_{\rm TP}(t) = \sum_{i=1}^{I} A_i \cdot {\rm e}^{{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}( 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
\nu_i \hspace{0.05cm}\cdot \hspace{0.05cm} t \hspace{0.05cm}-\hspace{0.05cm} \varphi_i)}.$$&lt;br /&gt;
&lt;br /&gt;
The following relation &amp;amp;nbsp; is valid between the frequency values &amp;amp;nbsp; $f_i$&amp;amp;nbsp; and&amp;amp;nbsp; $\nu_i$&amp;amp;nbsp;  $(i = 1, \ \text{...} \ , I)$:&lt;br /&gt;
 &lt;br /&gt;
:$$\nu_i =  f_i - f_{\rm T}  .$$&lt;br /&gt;
&lt;br /&gt;
These equations can be interpreted as follows:&lt;br /&gt;
*At time&amp;amp;nbsp; $t = 0$&amp;amp;nbsp; the equivalent low-pass signal is identical to the analytical signal:&lt;br /&gt;
:$$x_{\rm TP}(t = 0) = x_{\rm +}(t = 0)= \sum_{i=1}^{I} A_i \cdot {\rm e}^{{-\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm} \varphi_i}.$$&lt;br /&gt;
*At this point in time, the pointer group is thus defined by the&amp;amp;nbsp; $I$&amp;amp;nbsp; amplitude parameter&amp;amp;nbsp; $A_i$&amp;amp;nbsp; and the&amp;amp;nbsp; $I$&amp;amp;nbsp; phase positions&amp;amp;nbsp; $\varphi_i$&amp;amp;nbsp; alone.&lt;br /&gt;
*All pointers of the analytical signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; rotate for&amp;amp;nbsp; $t &amp;gt; 0$&amp;amp;nbsp; corresponding to the (always positive) frequencies&amp;amp;nbsp; $f_i$&amp;amp;nbsp; counterclockwise.&lt;br /&gt;
*For the equivalent low-pass signal, the rotation speeds are lower. Hands with&amp;amp;nbsp; $\nu_i &amp;gt; 0$&amp;amp;nbsp; turn in mathematically positive direction (counterclockwise), those with&amp;amp;nbsp; $\nu_i &amp;lt; 0$&amp;amp;nbsp; in counterclockwise direction (clockwise).&lt;br /&gt;
*If the frequency parameter is &amp;amp;nbsp; $\nu_i = 0$ for a pointer, this pointer rests in the complex plane corresponding to its initial position.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 2:}$&amp;amp;nbsp;&lt;br /&gt;
We consider a spectrum consisting of three spectral lines at&amp;amp;nbsp; $40\,\text{kHz}$,&amp;amp;nbsp; $50\,\text{kHz}$&amp;amp;nbsp; and $60\,\text{kHz}$&amp;amp;nbsp; consisting of spectrum&amp;amp;nbsp; $X_+(f)$. With the amplitude and phase parameters recognizable from the graphic you obtain the analytical signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; corresponding to the lower left sketch.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID739__Sig_T_4_3_S3neu.png|center|frame|Construction of The Equivalent Low Pass Signals in The Time Domain]]&lt;br /&gt;
&lt;br /&gt;
The snapshot of the lower left graph &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''analytical signal''' &amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; applies to the time&amp;amp;nbsp; $t = 0$. All hands then turn counterclockwise at a constant angular velocity.&lt;br /&gt;
*The blue pointer rotates with&amp;amp;nbsp; $60000$&amp;amp;nbsp; rotations per second are fastest and the green pointer rotates with the angular frequency&amp;amp;nbsp; $\omega_{40} = 2\pi \cdot 40000 \hspace{0.1cm} 1/\text{s}$&amp;amp;nbsp; is the slowest.&lt;br /&gt;
*The violet sum point of all three pointers moves for&amp;amp;nbsp; $t &amp;gt; 0$&amp;amp;nbsp; in the complex plane in a complicated manner, for the above numerical values first roughly in the direction drawn.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The graphics on the right describe the&amp;amp;nbsp; '''equivalent low-pass signal'''&amp;amp;nbsp; in the frequency domain (top) and in the time domain (bottom), valid for&amp;amp;nbsp; $f_{\rm T} = 50\,\text{kHz}$.&lt;br /&gt;
*The carrier is now at&amp;amp;nbsp; $f = 0$&amp;amp;nbsp; and the corresponding red rotating pointer does not move.&lt;br /&gt;
*The blue pointer (OSB) rotates here with&amp;amp;nbsp; $\omega_{10} = 2\pi \cdot 10000 \hspace{0.1cm}1/\text{s}$&amp;amp;nbsp; counterclockwise.&lt;br /&gt;
*The green pointer (USB) rotates counterclockwise at the same speed&amp;amp;nbsp; ($-\omega_{10}$).}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Definition of The Locus Curve==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;&lt;br /&gt;
As &amp;amp;nbsp; '''locus curve'''&amp;amp;nbsp; we call the curve on which the&amp;amp;nbsp; '''equivalent low-pass signal'''&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; moves in the&amp;amp;nbsp; ''' complex plane'''&amp;amp;nbsp; }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Notes:'' &amp;amp;nbsp;  In other technical literature this term is rarely used. Therefore, initially, an example is shown.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID744__Sig_T_4_3_S4_neu.png|right|frame|Definition of The Locus Curve]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 3:}$&amp;amp;nbsp;&lt;br /&gt;
We consider the equivalent low-pass signal&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; of&amp;amp;nbsp;  [[Signal_Representation/Equivalent_Low_Pass_Signal_and_Its_Spectral_Function#Beschreibung_im_Zeitbereich|$\text{Example 2}$]], &lt;br /&gt;
consisting of&lt;br /&gt;
*the resting pointer of length&amp;amp;nbsp; $3$&amp;amp;nbsp; (red)&lt;br /&gt;
*the pointer with&amp;amp;nbsp; $\omega_{10} = 2\pi \cdot 10000 \hspace{0.1cm} 1/\text{s}$&amp;amp;nbsp; in mathematical positive direction rotating blue pointer with the complex amplitude&amp;amp;nbsp; '''j''',&lt;br /&gt;
*the green pointer of length&amp;amp;nbsp; $2$, which is currently&amp;amp;nbsp; $t = 0$&amp;amp;nbsp; in the direction of the negative imaginary axis. This rotates with the same angular velocity&amp;amp;nbsp; $\omega_{10}$&amp;amp;nbsp; as the blue pointer, but in the opposite direction&amp;amp;nbsp; ($-\omega_{10}$).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The blue and the green pointer each require exactly one period duration&amp;amp;nbsp; $T_0 = 100 \,{\rm &amp;amp;micro;}\text{s}$ for one rotation. The further course of the process can be seen in the above illustration:&lt;br /&gt;
*The violet pointer sum is at time&amp;amp;nbsp; $t = 0$&amp;amp;nbsp; equals&amp;amp;nbsp; $3 - \text{j}$.&lt;br /&gt;
*After&amp;amp;nbsp; $t = T_0/4 = 25 \,{\rm &amp;amp;micro;}\text{s}$&amp;amp;nbsp; the resulting pointer group has the value &amp;amp;bdquo;Null&amp;amp;rdquo;, since now the two rotating pointers lie in the opposite direction to the carrier and compensate it exactly.&lt;br /&gt;
*After a period&amp;amp;nbsp; $(t = T_0 = 100 \,{\rm &amp;amp;micro;}\text{s})$&amp;amp;nbsp; the initial state is reached again: &amp;amp;nbsp; $x_{\rm TP}(t = T_0) = x_{\rm TP}(t=0) = 3 - \text{j}$.}}&lt;br /&gt;
&lt;br /&gt;
exactly.&lt;br /&gt;
*After a period&amp;amp;nbsp; $(t = T_0 = 100 \,{\rm &amp;amp;micro;}\text{s})$&amp;amp;nbsp; the initial state is reached again: &amp;amp;nbsp; $x_{\rm TP}(t = T_0) = x_{\rm TP}(t=0) = 3 - \text{j}$.}}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
In this example the locus curve is an ellipse, which is traversed by the equivalent low pass signal once per period. &lt;br /&gt;
*The representation applies to the&amp;amp;nbsp; [[Modulation_Methods/Double Sideband Amplitude Modulation#ZSB-Amplitude Modulation_with_Tr.C3.A4ger|Double Sideband Amplitude Modulation with Carrier]]&amp;amp;nbsp; of a sinusoidal&amp;amp;nbsp; $10\ \rm kHz$ signal with a cosinusoidal carrier of any frequency, where the upper sideband (blue pointer) is attenuated.&lt;br /&gt;
*If the lengths of the blue and the green rotating pointer were equal, the locus curve would be a horizontal one on the real axis - see&amp;amp;nbsp; [[Tasks:Task_4.5:_Locus Curve_at_ZSB-AM|Task 4.5]]. &lt;br /&gt;
*In the book&amp;amp;nbsp; [[Modulation_Methods/Evelope Demodulation|Modulation Methods]]&amp;amp;nbsp; the locus curves of different system variants are treated in detail.&lt;br /&gt;
&lt;br /&gt;
In this example the locus curve is an ellipse, which is traversed by the equivalent low pass signal once per period. &lt;br /&gt;
*The representation applies to the&amp;amp;nbsp;[[Modulation_Methods/Zweiseitenband-Amplitudenmodulation#ZSB-Amplitudenmodulation_mit_Tr.C3.A4ger|Double-Sideband–Amplitude Modulation with Carrier]]&amp;amp;nbsp; of a sinusoidal&amp;amp;nbsp; $10\ \rm kHz$ signal with a cosinusoidal carrier of any frequency, where the upper sideband (blue pointer) is attenuated.&lt;br /&gt;
*If the lengths of the blue and the green rotating pointer were equal, the locus curve would be a horizontal one on the real axis - see&amp;amp;nbsp; [[Aufgaben:Aufgabe_4.5:_Ortskurve_bei_ZSB-AM|Task 4.5]]. &lt;br /&gt;
*In the book&amp;amp;nbsp; [[Modulation_Methods/Hüllkurvendemodulation|Modulation Methods]]&amp;amp;nbsp;,the locus curves of different system variants are treated in detail.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Representing with Magnitude and Phase==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The equivalent low-pass signal of the band-pass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; is generally complex and can therefore be expressed in the form &lt;br /&gt;
:$$x_{\rm TP}(t) = a(t) \cdot {\rm e}^{{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
\phi(t)}$$.&lt;br /&gt;
&lt;br /&gt;
Note the plus sign in the argument of the exponential function, which differs from the&amp;amp;nbsp; &amp;amp;nbsp; [[Signal_Representation/Fourier_Series#Komplexe_Fourierreihe|Complex Fourier Series]]&amp;amp;nbsp;. This is because the equation with the positive sign for the phase is usually used to describe the modulation method for the physical signal as well:&lt;br /&gt;
 &lt;br /&gt;
:$$x(t) =  a(t) \cdot  {\cos} ( 2 \pi f_{\rm T} t + \phi(t)).$$&lt;br /&gt;
&lt;br /&gt;
In many textbooks this equation is used with plus or minus signs depending on the application, but always with the same &amp;amp;bdquo;phase identifier&amp;amp;rdquo;. By using two different symbols&amp;amp;nbsp; $(\varphi$&amp;amp;nbsp; and&amp;amp;nbsp; $\phi)$&amp;amp;nbsp; we try to avoid this ambiguity in our learning tutorial&amp;amp;nbsp; $\rm LNTww$.&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 4:}$&amp;amp;nbsp;The same prerequisites apply as in the&amp;amp;nbsp; [[Signal_Representation/Equivalent_Low_Pass_Signal_and_Its_Spectral_Function#Beschreibung_im_Zeitbereich|$\text{second example }$]]&amp;amp;nbsp; and in the&amp;amp;nbsp; &lt;br /&gt;
[[Signal_Representation/Equivalent_Low_Pass_Signal_and_Its_Spectral_Function#Definition_der_Ortskurve|$\text{third one}$]]. InHowever, instead of the complex function&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; the two real functions&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; are now displayed in the graphic.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID748__Sig_T_4_3_S5.png|center|frame|Magnitude and Phase of The Equivalent Lowpass-Signal]]&lt;br /&gt;
&lt;br /&gt;
It should be noted that this is a representation:&lt;br /&gt;
*The&amp;amp;nbsp; '''Magnitude function'''&amp;amp;nbsp; shows the time dependence of the pointer length:&lt;br /&gt;
 &lt;br /&gt;
:$$a(t)= \vert x_{\rm TP}(t)\vert =\sqrt{ {\rm Re}\left[x_{\rm TP}(t)\right]^2 +&lt;br /&gt;
{\rm Im}\left[x_{\rm TP}(t)\right]^2 }.$$&lt;br /&gt;
&lt;br /&gt;
:The magnitude function&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; is in this example like the complex equivalent low pass signal&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; periodic with&amp;amp;nbsp; $T_0$&amp;amp;nbsp; and takes values between&amp;amp;nbsp; $0$&amp;amp;nbsp; and&amp;amp;nbsp; $6$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
*The&amp;amp;nbsp; '''phase function''' &amp;amp;nbsp; describes the time-dependent angle of the equivalent low pass signal&amp;amp;nbsp; $x_{\rm TP}(t)$, related to the coordinate origin:&lt;br /&gt;
 &lt;br /&gt;
:$$\phi(t)= {\rm arc} \left[x_{\rm TP}(t)\right]= {\rm arctan}&lt;br /&gt;
\hspace{0.1cm}\frac{ {\rm Im}\left[x_{\rm TP}(t)\right]}{ {\rm&lt;br /&gt;
Re}\left[x_{\rm TP}(t)\right]}.$$&lt;br /&gt;
&lt;br /&gt;
Hier noch einige numerische Ergebnisse für die Phasenwerte:&lt;br /&gt;
Here are some numerical results for the phase values:&lt;br /&gt;
*The phase at start time is&amp;amp;nbsp; $\phi (t = 0) =\hspace{0.1cm} -\arctan (1/3) ≈ \hspace{0.1cm} -18.43^{\circ} = \hspace{0.1cm}-0.32\,\text{rad}$.&lt;br /&gt;
*At&amp;amp;nbsp; $t = 25\,{\rm &amp;amp;micro;}\text{s}$&amp;amp;nbsp; as well as at all equidistant times thereof in the distance&amp;amp;nbsp; $T_0 = 100 \,{\rm &amp;amp;micro;}\text{s}$&amp;amp;nbsp; is&amp;amp;nbsp; $x_{\rm TP}(t) = 0$ so that at these times the phase&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; changes abruptly from&amp;amp;nbsp; $-\pi /2$&amp;amp;nbsp; to&amp;amp;nbsp; $+\pi /2$&amp;amp;nbsp;.&lt;br /&gt;
*At the time&amp;amp;nbsp; $t = 60\,{\rm &amp;amp;micro;}\text{s}$&amp;amp;nbsp; the phase has a slightly positive value.&lt;br /&gt;
&amp;lt;br&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Relation Between Equivalent LP-Signal and BP-Signal==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
A bandpass signal&amp;amp;nbsp; $x(t)$ resulting from the modulation of a low-frequency message signal&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; with a carrier signal&amp;amp;nbsp; $z(t)$&amp;amp;nbsp; of frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; can be represented as follows:&lt;br /&gt;
&lt;br /&gt;
:$$x(t) = a(t) \cdot  {\cos} ( 2 \pi f_{\rm T} t + \phi(t))&lt;br /&gt;
\hspace{0.3cm}\Rightarrow\hspace{0.3cm}&lt;br /&gt;
x_{\rm TP}(t) = a(t) \cdot {\rm e}^{{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
\phi(t)}.$$&lt;br /&gt;
&lt;br /&gt;
It should be noted here:&lt;br /&gt;
* $a(t)$&amp;amp;nbsp; is the&amp;amp;nbsp; ''time-dependent amplitude'', which is often also called&amp;amp;nbsp; '''envelope'''&amp;amp;nbsp;. This is equal to the amount&amp;amp;nbsp; $|x_{\rm TP}(t)|$&amp;amp;nbsp; of the equivalent low pass signal.&lt;br /&gt;
* $\phi(t)$&amp;amp;nbsp; is the&amp;amp;nbsp; '''phase function'', i.e., the&amp;amp;nbsp; ''time-dependent phase'', which can also be determined from the equivalent low-pass signal as the angle to the coordinate origin of the complex plane.&lt;br /&gt;
*In the physical signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp;, the phase&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; can be recognized by the&amp;amp;nbsp; '''zero crossings''. With&amp;amp;nbsp; $\phi(t) &amp;gt; 0$&amp;amp;nbsp; the zero crossing occurs in&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; in the range of time&amp;amp;nbsp; $t$&amp;amp;nbsp; earlier than with the carrier signal&amp;amp;nbsp; $z(t)$. In contrast,&amp;amp;nbsp; $\phi(t) &amp;lt; 0$&amp;amp;nbsp; means a shift of the zero crossing to a later time.&lt;br /&gt;
*One speaks of&amp;amp;nbsp; '''amplitude modulation'' if all information about the message signal is contained in the envelope&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; while&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; is constant. &lt;br /&gt;
*Conversely, with&amp;amp;nbsp; '''Phase modulation'''&amp;amp;nbsp; the phase function&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; contains all information about the message signal, while&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; is constant.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 5:}$&amp;amp;nbsp;&lt;br /&gt;
The upper part of the following figure describes the&amp;amp;nbsp;  [[Modulation_Methods/Zweiseitenband-Amplitudenmodulation#ZSB-Amplitudenmodulation_mit_Tr.C3.A4ger|Double Sideband Amplitude Modulation (DSB-AM) With Carrier]]:&lt;br /&gt;
*The equivalent TP signal&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; is here always real &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; the locus curve is a horizontal straight line.&lt;br /&gt;
*Therefore the zero crossings of the blue DSB-AM signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; correspond exactly to those of the red carrier signal&amp;amp;nbsp; $z(t)$&amp;amp;nbsp;. &lt;br /&gt;
*This means: &amp;amp;nbsp; the phase function&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; is identical to zero &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; the envelope&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; contains all information about the message signal.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_4_3_S6.png|center|frame|$x_{\rm TP}(t)$ For Double-Sideband Amplitude Modulation and Phase Modulation]]&lt;br /&gt;
&lt;br /&gt;
However, the lower part of the graphic applies to the&amp;amp;nbsp; [[Modulation_Methods/Phasenmodulation_(PM)|Phase Modulation (PM)]]: &lt;br /&gt;
*The PM signal&amp;amp;nbsp; $y(t)$&amp;amp;nbsp; always has a constant envelope &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; the locus curve is an arc. &lt;br /&gt;
*The phase value here is initially smaller than zero &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; the&amp;amp;nbsp; $y(t)$&amp;amp;ndash;zero crossings occur later than those of the carrier&amp;amp;nbsp; $z(t)$&amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; the zero crossings are &amp;quot;trailing&amp;quot;. &lt;br /&gt;
*For positive values of the message signal also&amp;amp;nbsp; $\phi (t) &amp;gt; 0$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; the zero crossings occur earlier than those of the carrier signal &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; they are &amp;quot;leading&amp;quot;. &lt;br /&gt;
*With phase modulation, therefore, all information about the message signal&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; is contained in the positions of the zero crossings.}}&lt;br /&gt;
&lt;br /&gt;
==Why Multiple Representations of The Same Signal Exist ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Finally, and hopefully not too late, we want to turn to the question why the two complex and less comprehensible signals&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; are actually necessary to describe the actual bandpass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp;. They were not introduced in communications engineering in order to unsettle students, but:&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Conclusion:}$&amp;amp;nbsp;&lt;br /&gt;
*The envelope curve&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; and the phase function&amp;amp;nbsp; $\phi (t)$&amp;amp;nbsp; can be extracted directly and easily from the actual, physical BP signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; only in some special cases&lt;br /&gt;
*The real non existing equivalent low-pass signal&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; is a mathematical tool to determine the time histories&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $\phi (t)$&amp;amp;nbsp; by simple geometrical considerations. We will come back to this later in the book&amp;amp;nbsp;  [[Modulation_Methods]]&amp;amp;nbsp;.&lt;br /&gt;
*The analytical signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; is an intermediate step in the transition from&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; to&amp;amp;nbsp; $x_{\rm TP}(t)$. While&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; is always complex,&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; can be real in special cases, for example, with ideal amplitude modulation according to the chapter&amp;amp;nbsp;  [[Modulation_Methods/Zweiseitenband-Amplitudenmodulation|Double-Sideband Amplitude Modulation]]&amp;amp;nbsp; (DSB-AM).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The same principle applies as often used in the natural sciences and technology: &lt;br /&gt;
&lt;br /&gt;
*The introduction of&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; brings rather a complication for simple problems. &lt;br /&gt;
*The advantages of this approach can only be seen in more difficult problems, which could not be solved with the physical bandpass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; alone or only with much more effort.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
For further clarification we provide two interactive applets:&lt;br /&gt;
  &lt;br /&gt;
*[[Applets:Physikalisches_Signal_%26_Analytisches_Signal|Physical &amp;amp; Analytical Signal]] &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; &amp;amp;bdquo;Vector Diagram&amp;amp;rdquo;,&lt;br /&gt;
*[[Applets:Physikalisches_Signal_%26_Äquivalentes_TP-Signal|Physical &amp;amp; Equivalent TP-Signal]] &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; &amp;amp;bdquo;Loot Curve&amp;amp;rdquo;. &lt;br /&gt;
&lt;br /&gt;
==Representation According to Real and Imaginary Part==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Especially for the description of&amp;amp;nbsp; [[Modulation_Methods/Quadratur–Amplitudenmodulation|Quadrature Amplitude Modulation]]&amp;amp;nbsp; (QAM), the representation of the equivalent low pass signal according to real and imaginary part is suitable:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm TP}(t) = x_{\rm I}(t)+ {\rm j} \cdot x_{\rm Q}(t).$$&lt;br /&gt;
&lt;br /&gt;
In this representation, &lt;br /&gt;
*the real part&amp;amp;nbsp; $x_{\rm I}(t)$&amp;amp;nbsp; describes the&amp;amp;nbsp; '''in-phase component'''&amp;amp;nbsp; (normal component), whereas&lt;br /&gt;
*the imaginary part&amp;amp;nbsp; $x_{\rm Q}(t)$&amp;amp;nbsp; describes the&amp;amp;nbsp; '''quadrature component'' &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
of &amp;amp;nbsp; $x_{\rm TP}(t)$. With the absolute value function&amp;amp;nbsp; $a(t) = |x_{\rm TP}(t)|$&amp;amp;nbsp; and the&amp;amp;nbsp; phase function&amp;amp;nbsp; $\phi (t) = \text{arc}\,x_{\rm TP}(t)$&amp;amp;nbsp; according to the definitions on the previous pages:&lt;br /&gt;
&lt;br /&gt;
:$$\begin{align*}x_{\rm I}(t) &amp;amp; =  {\rm Re}[x_{\rm TP}(t)] = a(t) \cdot \cos&lt;br /&gt;
 (\phi(t)),\\&lt;br /&gt;
 x_{\rm Q}(t) &amp;amp; =  {\rm Im}[x_{\rm TP}(t)] = a(t) \cdot \sin&lt;br /&gt;
 (\phi(t)).\end{align*}$$&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1150__Sig_T_4_3_S7a_neu.png|right|frame|Real And Imaginary Part of The Equivalent Lowpass-Signal]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 6:}$&amp;amp;nbsp; At the considered time&amp;amp;nbsp; $t_0$&amp;amp;nbsp; applies to the equivalent low pass signal:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm TP}(t = t_0) = 2\,{\rm V} \cdot {\rm e}^{- {\rm j \hspace{0.05cm}\cdot \hspace{0.05cm} 60&lt;br /&gt;
 ^\circ} }.$$&lt;br /&gt;
&lt;br /&gt;
With the&amp;amp;nbsp;  [[Signal_Representation/Calculating_With_Complex_Numbers#Darstellung_nach_Betrag_und_Phase|Euler's Theorem]]&amp;amp;nbsp;, it can be written like this:&lt;br /&gt;
&lt;br /&gt;
:$$x_{\rm TP}(t = t_0) =  2\,{\rm V} \cdot \cos(60 ^\circ) - {\rm j} \cdot 2\,{\rm V} \cdot \sin(60&lt;br /&gt;
 ^\circ).$$&lt;br /&gt;
&lt;br /&gt;
This applies to the in-phase and quadrature component: &lt;br /&gt;
&lt;br /&gt;
:$$x_{\rm I}(t = t_0) = 2\,{\rm V} \cdot \cos(60 ^\circ) = 1\text{V}, $$&lt;br /&gt;
:$$x_{\rm Q}(t = t_0) = \hspace{0.05cm} - {\rm j} \cdot 2\,{\rm V} \cdot \sin(60^\circ) =\hspace{0.05cm}-1.733\text{V}.$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
By applying trigonometric transformations it can be shown that the real, physical bandpass signal can also be represented in the following way:&lt;br /&gt;
 &lt;br /&gt;
:$$x(t)  =  a(t) \cdot \cos  (2 \pi \cdot f_{\rm T} \cdot t + \phi(t)) =  x_{\rm I}(t)\cdot \cos  (2 \pi \cdot f_{\rm T} \cdot t )-x_{\rm Q}(t)\cdot \sin  (2 \pi \cdot f_{\rm T} \cdot t ). $$&lt;br /&gt;
&lt;br /&gt;
The minus sign results from the use of the phase function&amp;amp;nbsp; $\phi (t)$. A comparison with the page&amp;amp;nbsp; [[ Signal_Representation/Harmonic_Oscillation#Darstellung_mit_Cosinus-_und_Sinusanteil|Representation With Cosine- and Sine Component]]&amp;amp;nbsp; in the second main chapter shows that instead of the difference, the sum results when referring to&amp;amp;nbsp; $\varphi (t) = -\phi (t)$&amp;amp;nbsp;. Adapted to our example, you then get&lt;br /&gt;
 &lt;br /&gt;
:$$x(t)  =  a(t) \cdot \cos  (2 \pi \cdot f_{\rm T} \cdot t - \varphi(t)) =  x_{\rm I}(t)\cdot \cos  (2 \pi \cdot f_{\rm T} \cdot t )+x_{\rm Q}(t)\cdot \sin  (2 \pi \cdot f_{\rm T} \cdot t ).$$&lt;br /&gt;
&lt;br /&gt;
The quadrature component&amp;amp;nbsp; $x_{\rm Q}(t)$&amp;amp;nbsp; thus differs from the above equation in the sign.&lt;br /&gt;
&lt;br /&gt;
==Determination of the equivalent TP signal from the BP signal==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The following figure shows two arrangements to determine the complex low-pass signal split into inphase and quadrature components from the real bandpass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; for display on an oscilloscope, for example Let us first look at the upper model: &lt;br /&gt;
&lt;br /&gt;
*The analytical signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; is first generated here by adding the&amp;amp;nbsp; [[Signal_Representation/Analytical_Signal_and_Its_Spectral_Function#Darstellung_mit_der_Hilberttransformation|Hilbert Transformed]]&amp;amp;nbsp;. &lt;br /&gt;
*Multiplication with the complex exponential function (with negative exponent!) yields the equivalent low-pass signal&amp;amp;nbsp; $x_{\rm TP}(t)$. &lt;br /&gt;
*The sought components&amp;amp;nbsp; $x_{\rm I}(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $x_{\rm Q}(t)$&amp;amp;nbsp; are then obtained by forming real or imaginary parts.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1151__Sig_T_4_3_S7b_neu.png|center|frame|Division of the Equivalent Low-Pass Signal Into In-phase and Quadrature Components]]&lt;br /&gt;
&lt;br /&gt;
With the lower (more practical) arrangement, you get for the upper or lower branch after the respective multiplications:&lt;br /&gt;
 &lt;br /&gt;
:$$a(t)\cdot \cos  (\omega_{\rm T} \cdot t + \phi(t)) \cdot 2 \cdot \cos  (\omega_{\rm T} \cdot t ) = a(t)\cdot \cos  ( \phi(t)) +  \varepsilon_{\rm oben}(t),$$&lt;br /&gt;
:$$a(t)\cdot \cos  (\omega_{\rm T} \cdot t + \phi(t)) \cdot (-2) \cdot \sin  (\omega_{\rm T} \cdot t ) = a(t)\cdot \sin  ( \phi(t)) + \varepsilon_{\rm unten}(t)).$$&lt;br /&gt;
&lt;br /&gt;
The respective second parts are in the range around twice the carrier frequency and are removed by the low-pass filters with the respective cut-off frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp;:&lt;br /&gt;
 &lt;br /&gt;
:$$\varepsilon_{\rm oben}(t)  = a(t)\cdot \cos  (2\omega_{\rm T} \cdot t +&lt;br /&gt;
 \phi(t)),\hspace{0.8cm}&lt;br /&gt;
 \varepsilon_{\rm unten}(t) = -  a(t)\cdot \sin  (2\omega_{\rm T} \cdot t +&lt;br /&gt;
 \phi(t)).$$&lt;br /&gt;
&lt;br /&gt;
A comparison with the above equations shows that the desired components&amp;amp;nbsp; $x_{\rm I}(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $x_{\rm Q}(t)$&amp;amp;nbsp; can be tapped at the output:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm I}(t)  = a(t)\cdot \cos  ( \phi(t)) ,$$&lt;br /&gt;
:$$x_{\rm Q}(t) = a(t)\cdot \sin  ( \phi(t)) .$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Power and Energy of a Bandpass Signal==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
We look at the (blue) bandpass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; according to the graph, which results for example from&amp;amp;nbsp; [[Modulation_Methods/Lineare_digitale_Modulationsverfahren#ASK_.E2.80.93_Amplitude_Shift_Keying|Binary Amplitude Shift Keying]]&amp;amp;nbsp;. This digital modulation method is also known as&amp;amp;nbsp; '''On-Off-Keying'''.&lt;br /&gt;
 &lt;br /&gt;
[[File:P_ID1152__Sig_T_4_3_S8a.png|right|frame|Power and Energy of a Bandpass Signal]] &lt;br /&gt;
&lt;br /&gt;
The signal power related to&amp;amp;nbsp; $1 \,\Omega$&amp;amp;nbsp; is given by the explanations on page&amp;amp;nbsp; [[Signal_Representation/Signal_classification#Energiebegrenzte_und_leistungsbegrenzte_Signale|Energy Limited and Power Limited Signals]]&amp;amp;nbsp; to&lt;br /&gt;
 &lt;br /&gt;
:$$P_x = \lim_{T_{\rm M} \to \infty} \frac{1}{T_{\rm M}} \cdot \int^{+T_{\rm M}/2} _{-T_{\rm M}/2}\hspace{-0.1cm} x^2(t)\,{\rm d}t.$$&lt;br /&gt;
&lt;br /&gt;
If the binary zeros and ones are equally probable, then the infinite integration range and the boundary crossing can be omitted, and you get for the above sketched pattern signal&amp;amp;nbsp; &lt;br /&gt;
 &lt;br /&gt;
:$$P_x = \frac{1}{2T} \cdot \int ^{2T} _{0} x^2(t)\,{\rm d}t =&lt;br /&gt;
 \frac{4\,{\rm V}^2}{2T} \cdot \int^{T} _{0} \cos^2(\omega_{\rm T} \cdot t)\,{\rm d}t= 1\,{\rm V}^2.$$&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
From the sketch below you can see that by averaging over the squared envelope&amp;amp;nbsp; $a^2(t)$&amp;amp;nbsp; - i.e. over the magnitude square of the equivalent lowpass signal&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; - you get a result twice as large. Therefore the same holds here likewise:&lt;br /&gt;
 &lt;br /&gt;
:$$P_x = { {1}/{2} \hspace{0.08cm}\cdot }\lim_{T_{\rm M} \to \infty} \frac{1}{T_{\rm M}}&lt;br /&gt;
 \cdot \int^{T_{\rm M}/2} _{-T_{\rm M}/2} |x_{\rm TP}(t)|^2\,{\rm&lt;br /&gt;
 d}t =&lt;br /&gt;
 {{1}/{2} \hspace{0.08cm}\cdot }\lim_{T_{\rm M} \to \infty} \frac{1}{T_{\rm M}}&lt;br /&gt;
 \cdot \int^{T_{\rm M}/2} _{-T_{\rm M}/2} a^2(t)\,{\rm d}t.$$&lt;br /&gt;
&lt;br /&gt;
This result can be generalized and applied to energy limited signals. In this case, the energy according to page&amp;amp;nbsp; [[Signal_Representation/Signal_classification#Energiebegrenzte_und_leistungsbegrenzte_Signale|Energy Limited and Power Limited Signals]]:&lt;br /&gt;
 &lt;br /&gt;
:$$E_x =   \int ^{+\infty} _{-\infty} x^2(t)\,{\rm&lt;br /&gt;
 d}t = { {1}/{2} \hspace{0.08cm}\cdot }\int ^{+\infty} _{-\infty} |x_{\rm TP}(t)|^2\,{\rm&lt;br /&gt;
 d}t = { {1}/{2} \hspace{0.08cm}\cdot }\int ^{+\infty} _{-\infty} a^2(t)\,{\rm&lt;br /&gt;
 d}t.$$&lt;br /&gt;
&lt;br /&gt;
However, this equation only applies exactly if the carrier frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; is much larger than the bandwidth&amp;amp;nbsp; $B_{\rm BP}$&amp;amp;nbsp; of the bandpass..&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 7:}$&amp;amp;nbsp;&lt;br /&gt;
We look at the bandpass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; with&amp;amp;nbsp; $A = 2\,\text{V}$,&amp;amp;nbsp; $B = 1\,\text{kHz}$&amp;amp;nbsp; and&amp;amp;nbsp; $f_{\rm T} = 10\,\text{kHz}$:&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1154__Sig_T_4_3_S8b_neu.png|right|frame|Power Calculation in the Equivalent Lowpass Range]]&lt;br /&gt;
 &lt;br /&gt;
:$$x(t) = A \cdot {\rm si}(\pi \cdot B \cdot t) \cdot \cos(2 \pi \cdot f_{\rm T}\cdot \hspace{0.05cm}t + \phi(t)).$$&lt;br /&gt;
&lt;br /&gt;
The amount spectrum&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; belonging to the signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; $\vert X(f) \vert$&amp;amp;nbsp; is displayed in the upper right corner. The blue label applies:&lt;br /&gt;
* $X(f)$&amp;amp;nbsp; is purely real due to the symmetry relations:  &lt;br /&gt;
:$$\vert X(f) \vert  = X(f).$$&lt;br /&gt;
&lt;br /&gt;
* $\vert X(f) \vert$&amp;amp;nbsp; s thus composed of two rectangles around&amp;amp;nbsp; $\pm f_{\rm T}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
* In the range around the carrier frequency applies:&lt;br /&gt;
$$\vert X(f) \vert = A/(2B) = 10^{-3}\text{V/Hz}.$$&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
The energy of this bandpass signal could in principle be calculated by the following equation:&lt;br /&gt;
 &lt;br /&gt;
:$$E_x =   \int^{+\infty} _{-\infty} A^2 \cdot \frac{ {\rm&lt;br /&gt;
sin}^2(\pi \cdot B \cdot t)}{ (\pi \cdot B \cdot t)^2}\cdot&lt;br /&gt;
\cos^2(2 \pi \cdot f_{\rm T}\cdot \hspace{0.05cm}t +&lt;br /&gt;
\phi(t))\,{\rm&lt;br /&gt;
 d}t .$$&lt;br /&gt;
&lt;br /&gt;
According to the above equations, with the envelope curve&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; but also with the envelope curve&amp;amp;nbsp drawn in red in the upper left corner:&lt;br /&gt;
 &lt;br /&gt;
:$$E_x  = { {1}/{2} \hspace{0.08cm}\cdot }\int^{+\infty} _{-\infty} a^2(t)\,{\rm&lt;br /&gt;
 d}t=   { {1}/{2} \hspace{0.08cm}\cdot }\int^{+\infty} _{-\infty} \vert A \cdot {\rm si}(\pi \cdot B \cdot t)\vert^2\,{\rm&lt;br /&gt;
 d}t $$&lt;br /&gt;
:$$\Rightarrow \hspace{0.3cm} E_x  =   A^2\cdot \int^{+\infty} _{0} {\rm si}^2(\pi \cdot B \cdot t)\,{\rm&lt;br /&gt;
 d}t =A^2\cdot \frac {\pi}{2}\cdot \frac {1}{\pi B} = \frac {A^2}{2 B}= 2 \cdot 10^{-3}\,{\rm V}^2/{\rm Hz}.$$&lt;br /&gt;
&lt;br /&gt;
According to the above equations, with the envelope&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; but also with the envelope drawn in red in the upper left corner:&lt;br /&gt;
&lt;br /&gt;
A second solution with the same result is offered by the &amp;amp;nbsp; [https://en.wikipedia.org/wiki/Parseval%27s_theorem Parseval's theorem]:&lt;br /&gt;
&lt;br /&gt;
:$$\int ^{+\infty} _{-\infty} a^2(t)\,{\rm  d}t= \int&lt;br /&gt;
^{+\infty} _{-\infty} \vert A(f) \vert ^2\,{\rm  d}f   \hspace{0.3cm} \Rightarrow \hspace{0.3cm}&lt;br /&gt;
E_x =  {1}/{2}\cdot ( {A}/{B})^2 \cdot B =  {A^2}/(2&lt;br /&gt;
B).$$&lt;br /&gt;
 &lt;br /&gt;
This is taken into account:&lt;br /&gt;
*The following applies&amp;amp;nbsp; $\vert A(f) \vert = \vert X_{\rm TP}(f) \vert $. &lt;br /&gt;
*Inside the bandwidth&amp;amp;nbsp; $B$&amp;amp;nbsp; around the frequency&amp;amp;nbsp; $f = 0$&amp;amp;nbsp; is&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; twice as large as&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; around the frequency&amp;amp;nbsp; $f = f_{\rm T}$, namely&amp;amp;nbsp; $A/B$. &lt;br /&gt;
*This is related to the definition of the spectrum&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; the analemic signal from which&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; is created by shifting.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Exercises for The Chapter==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 4.5: Locus Curve for DSB-AM|Exercise 4.5: Locus Curve for DSB-AM]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 4.5Z: Simple Phase Modulator|Exercise 4.5Z: Simple Phase Modulator]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 4.6: Loot Curve for ESB-AM|Exercise 4.6: Loot Curve for ESB-AM]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 4.6Z: Loot Curve  for Phase Modulation|Exercise 4.6Z: Loot Curve  for Phase Modulation]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Equivalent_Low-Pass_Signal_and_its_Spectral_Function&amp;diff=35305</id>
		<title>Signal Representation/Equivalent Low-Pass Signal and its Spectral Function</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Equivalent_Low-Pass_Signal_and_its_Spectral_Function&amp;diff=35305"/>
		<updated>2020-11-29T19:29:09Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Bandpass Signals&lt;br /&gt;
|Vorherige Seite=Analytical Signal and Its Spectral Function&lt;br /&gt;
|Nächste Seite=Time Discrete Signal Representation&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Motivation for Describing in the Equivalent Low Pass Range==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The following figure shows a possible structure of a message transmission system:&lt;br /&gt;
*Often the low frequency source signal&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; is converted into a bandpass signal&amp;amp;nbsp; $s(t)$&amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''modulation''. &lt;br /&gt;
*After transmission, the received signal&amp;amp;nbsp; $r(t)$&amp;amp;nbsp; - compared to the transmit signal&amp;amp;nbsp; $s(t)$&amp;amp;nbsp; possibly distorted and with (noise) interference applied - must be reset to the original frequency range &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''Demodulation''. &lt;br /&gt;
*The sink signal&amp;amp;nbsp; $v(t)$, which should match the source signal&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; as closely as possible, is then again a low pass signal.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_4_3_S1.png|center|frame|Block Diagram of a Bandpass Transmission System]]&lt;br /&gt;
&lt;br /&gt;
Modulation and demodulation are therefore fundamental components of a transmission system, which are dealt with in detail in the book&amp;amp;nbsp; [[Modulation_Methods]]&amp;amp;nbsp;. A short summary can be found in the first chapter&amp;amp;nbsp; &amp;amp;nbsp; [[Signal_Representation/Principles_of_Communication|Principles of Message Transmission]]&amp;amp;nbsp; of this book.&lt;br /&gt;
&lt;br /&gt;
The investigation, simulation, optimization, and dimensioning of bandpass systems are mostly done in the&amp;amp;nbsp; '''equivalent low pass range'', for which the following reasons can be given&lt;br /&gt;
*If quality characteristics (bandwidth efficiency, signal-to-noise ratio, bit error rate, power requirements, etc.) of a low pass system are known, the corresponding values of related bandpass systems can be derived from them relatively easily. Examples are the digital modulation methods&amp;amp;nbsp; [[Modulation_Methods/Lineare_digitale_Modulationsverfahren#ASK_.E2.80.93_Amplitude_Shift_Keying|Amplitude Shift Keying]]&amp;amp;nbsp; (ASK) and&amp;amp;nbsp; [[Modulation_Methods/Lineare_digitale_Modulationsverfahren#BPSK_.E2.80.93_Binary_Phase_Shift_Keying|Binary Phase Shift Keying]]&amp;amp;nbsp; (BPSK), whose performance variables can be &amp;quot;extrapolated&amp;quot; from the comparable&amp;amp;nbsp; [[Digital_Signal_Transmission/Systemkomponenten_eines_Basisbandübertragungssystems#Vereinfachtes_Systemmodell|baseband system]]&amp;amp;nbsp; (i.e., without modulator and demodulator).&lt;br /&gt;
&lt;br /&gt;
*Individual subchannels in a so-called [[Modulation_Methods/Zielsetzung_von_Modulation_und_Demodulation#B.C3.BCndelung_von_Kan.C3.A4len_.E2.80.93_Frequenzmultiplex|frequency division multiplex system]], which differ by different carrier frequencies, can often be considered qualitatively equivalent. Therefore, it is sufficient to limit the calculation and dimensioning to a single channel and to perform these investigations in the equivalent low-pass range - i.e. without considering the specific carrier frequency.&lt;br /&gt;
&lt;br /&gt;
*t is often the case that the bandwidth of a communication connection is orders of magnitude smaller than the carrier frequency. For example, in the&amp;amp;nbsp; [[Examples_of_Communication_Systems/Allgemeine_Beschreibung_von_GSM|GSM standard]]&amp;amp;nbsp the individual channels are located in the frequency range around&amp;amp;nbsp; $900\ \rm MHz$&amp;amp;nbsp; (&amp;amp;bdquo;D-Network&amp;amp;rdquo;) and &amp;amp;nbsp; $1800\ \rm MHz$&amp;amp;nbsp; (&amp;amp;bdquo;E-Network&amp;amp;rdquo;), while each channel has only a small bandwidth of&amp;amp;nbsp; $200\ \rm kHz$&amp;amp;nbsp; available. Therefore a simulation in the equivalent low pass range is much less complex than a simulation of the corresponding bandpass signals.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Definition in the Frequency Domain==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
We consider a real bandpass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; with the spectrum&amp;amp;nbsp; $X(f)$. Furthermore we want to apply:&lt;br /&gt;
*The bandpass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; is said to result from the modulation of a low-frequency message signal&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; with the carrier signal&amp;amp;nbsp; $z(t)$&amp;amp;nbsp; the frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp;. The type of modulation (whether analog or digital, amplitudes&amp;amp;ndash; or angle modulation, single sideband or double sideband) is not specified.&lt;br /&gt;
*The spectral function&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; of the corresponding analytical signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; exists only for positive frequencies and is twice as large as&amp;amp;nbsp; $X(f)$. For the derivation of&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; the carrier frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; of the system does not need be known.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;&lt;br /&gt;
If the spectrum of the analytical signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; is shifted to the left for &amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; , the result is called the&amp;amp;nbsp; '''Spectrum of the Equivalent Low-Pass Signal''':&lt;br /&gt;
 &lt;br /&gt;
:$$X_{\rm TP}(f)  = X_{\rm +}(f + f_{\rm T}).$$&lt;br /&gt;
&lt;br /&gt;
In general&amp;amp;nbsp; $X(f)$,&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; and&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; are complex-valued. However, if&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; is purely real, then the spectral functions&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; and&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; are also purely real, because they result from&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; only from the operations &amp;quot;Cut and Double&amp;quot; or &amp;quot;Frequency Shift&amp;quot; respectively.}}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
For the calculation of the equivalent low-pass spectrum&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; - in contrast to&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; - the knowledge of the carrier frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; is absolutely necessary. For other values of&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; other low-pass spectra will also result.&lt;br /&gt;
&lt;br /&gt;
If one transforms the above equation into the time domain, one obtains after applying the&amp;amp;nbsp; [[Signal_Representation/Fourier_Transform_Laws#Verschiebungssatz|shifting theorem]]:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm TP}(t) = x_{\rm +}(t)\cdot {\rm e}^{-{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm}2 \pi \cdot f_{\rm T}\cdot \hspace{0.05cm}t}.$$&lt;br /&gt;
&lt;br /&gt;
The relation&amp;amp;nbsp; $x(t) = \text{Re}\big[x_+(t)\big]$&amp;amp;nbsp; yields the procedure to determine the actual physical bandpass signal from the equivalent lowpass signal:&lt;br /&gt;
 &lt;br /&gt;
:$$x(t) = {\rm Re}[x_{\rm +}(t)] = {\rm Re}\big[x_{\rm TP}(t)\cdot {\rm e}^{\hspace{0.05cm}{\rm j} \hspace{0.05cm} \cdot 2\pi \hspace{0.05cm}\cdot\hspace{0.05cm} f_{\rm T}\hspace{0.05cm} \cdot \hspace{0.05cm} \hspace{0.05cm}t}\big].$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 1:}$&amp;amp;nbsp;&lt;br /&gt;
The upper figure shows the purely real spectral function&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; of a bandpass signal&amp;amp;nbsp; $x(t)$ which is the result of modulating a low frequency signal&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; with the carrier frequency&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp;.&lt;br /&gt;
[[File:P_ID749__Sig_T_4_3_S2_neu.png|right|frame|Construction of The Equivalent Low Pass Signals &amp;lt;br&amp;gt;in The Frequeny Domain]]&lt;br /&gt;
&lt;br /&gt;
Below that, the two likewise real spectral functions&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; and&amp;amp;nbsp; $X_{\rm TP}(f)$ are shown. Due to the asymmetries concerning the frequency origin&amp;amp;nbsp; $(f = 0)$&amp;amp;nbsp; the corresponding time functions are complex.&lt;br /&gt;
*The continuous green spectral function&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; is shifted to the left with respect to&amp;amp;nbsp; $X_{+}(f)$&amp;amp;nbsp; by the&amp;amp;nbsp; carrier frequency $f_{\rm T}$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*If the spectrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; is the modulation result of another message signal&amp;amp;nbsp; $q\hspace{0.05cm}'(t)$&amp;amp;nbsp; with a different carrier frequency&amp;amp;nbsp; ${f_{\rm T} }\hspace{0.05cm}'$, this would also result in another equivalent TP signal&amp;amp;nbsp; ${X_{\rm TP} }\hspace{0.05cm}'(f)$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*An exemplary spectral function&amp;amp;nbsp; ${X_{\rm TP} }\hspace{0.05cm}'(f)$&amp;amp;nbsp; is drawn in the graphic with green-dashed lines.}}&lt;br /&gt;
&lt;br /&gt;
==Description in The Time Domain==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
To simplify the representation we now assume a line spectrum, so that the analytical signal can be represented as&amp;amp;nbsp; '''pointer compound'' &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; sum of complex rotating pointers:&lt;br /&gt;
 &lt;br /&gt;
:$$X_{+}(f) = \sum_{i=1}^{I} {A_i} \cdot {\rm e}^{-{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
\varphi_i}\cdot\delta (f - f_i)  \hspace{0.3cm}\bullet\!\!-\!\!\!-\!\!\!-\!\!\circ\, \hspace{0.3cm}&lt;br /&gt;
x_{+}(t) = \sum_{i=1}^{I} A_i \cdot {\rm e}^{{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}( 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm}f_i\hspace{0.05cm}\cdot \hspace{0.05cm} t&lt;br /&gt;
\hspace{0.05cm}-\hspace{0.05cm} \varphi_i)}.$$&lt;br /&gt;
&lt;br /&gt;
By shifting the frequency by&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; to the left the equivalent low pass signal in frequency and time domain is thus:&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
:$$X_{\rm TP}(f) = \sum_{i=1}^{I} {A_i} \cdot {\rm e}^{-{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
\varphi_i}\cdot\delta (f - \nu_i)\hspace{0.3cm}\bullet\!\!-\!\!\!-\!\!\!-\!\!\circ\, \hspace{0.3cm} x_{\rm TP}(t) = \sum_{i=1}^{I} A_i \cdot {\rm e}^{{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}( 2 \pi \hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
\nu_i \hspace{0.05cm}\cdot \hspace{0.05cm} t \hspace{0.05cm}-\hspace{0.05cm} \varphi_i)}.$$&lt;br /&gt;
&lt;br /&gt;
The following relation &amp;amp;nbsp; is valid between the frequency values &amp;amp;nbsp; $f_i$&amp;amp;nbsp; and&amp;amp;nbsp; $\nu_i$&amp;amp;nbsp;  $(i = 1, \ \text{...} \ , I)$:&lt;br /&gt;
 &lt;br /&gt;
:$$\nu_i =  f_i - f_{\rm T}  .$$&lt;br /&gt;
&lt;br /&gt;
These equations can be interpreted as follows:&lt;br /&gt;
*At time&amp;amp;nbsp; $t = 0$&amp;amp;nbsp; the equivalent low-pass signal is identical to the analytical signal:&lt;br /&gt;
:$$x_{\rm TP}(t = 0) = x_{\rm +}(t = 0)= \sum_{i=1}^{I} A_i \cdot {\rm e}^{{-\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm} \varphi_i}.$$&lt;br /&gt;
*At this point in time, the pointer group is thus defined by the&amp;amp;nbsp; $I$&amp;amp;nbsp; amplitude parameter&amp;amp;nbsp; $A_i$&amp;amp;nbsp; and the&amp;amp;nbsp; $I$&amp;amp;nbsp; phase positions&amp;amp;nbsp; $\varphi_i$&amp;amp;nbsp; alone.&lt;br /&gt;
*All pointers of the analytical signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; rotate for&amp;amp;nbsp; $t &amp;gt; 0$&amp;amp;nbsp; corresponding to the (always positive) frequencies&amp;amp;nbsp; $f_i$&amp;amp;nbsp; counterclockwise.&lt;br /&gt;
*For the equivalent low-pass signal, the rotation speeds are lower. Hands with&amp;amp;nbsp; $\nu_i &amp;gt; 0$&amp;amp;nbsp; turn in mathematically positive direction (counterclockwise), those with&amp;amp;nbsp; $\nu_i &amp;lt; 0$&amp;amp;nbsp; in counterclockwise direction (clockwise).&lt;br /&gt;
*If the frequency parameter is &amp;amp;nbsp; $\nu_i = 0$ for a pointer, this pointer rests in the complex plane corresponding to its initial position.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 2:}$&amp;amp;nbsp;&lt;br /&gt;
We consider a spectrum consisting of three spectral lines at&amp;amp;nbsp; $40\,\text{kHz}$,&amp;amp;nbsp; $50\,\text{kHz}$&amp;amp;nbsp; and $60\,\text{kHz}$&amp;amp;nbsp; consisting of spectrum&amp;amp;nbsp; $X_+(f)$. With the amplitude and phase parameters recognizable from the graphic you obtain the analytical signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; corresponding to the lower left sketch.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID739__Sig_T_4_3_S3neu.png|center|frame|Construction of The Equivalent Low Pass Signals in The Time Domain]]&lt;br /&gt;
&lt;br /&gt;
The snapshot of the lower left graph &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''analytical signal''' &amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; applies to the time&amp;amp;nbsp; $t = 0$. All hands then turn counterclockwise at a constant angular velocity.&lt;br /&gt;
*The blue pointer rotates with&amp;amp;nbsp; $60000$&amp;amp;nbsp; rotations per second are fastest and the green pointer rotates with the angular frequency&amp;amp;nbsp; $\omega_{40} = 2\pi \cdot 40000 \hspace{0.1cm} 1/\text{s}$&amp;amp;nbsp; is the slowest.&lt;br /&gt;
*The violet sum point of all three pointers moves for&amp;amp;nbsp; $t &amp;gt; 0$&amp;amp;nbsp; in the complex plane in a complicated manner, for the above numerical values first roughly in the direction drawn.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The graphics on the right describe the&amp;amp;nbsp; '''equivalent low-pass signal'''&amp;amp;nbsp; in the frequency domain (top) and in the time domain (bottom), valid for&amp;amp;nbsp; $f_{\rm T} = 50\,\text{kHz}$.&lt;br /&gt;
*The carrier is now at&amp;amp;nbsp; $f = 0$&amp;amp;nbsp; and the corresponding red rotating pointer does not move.&lt;br /&gt;
*The blue pointer (OSB) rotates here with&amp;amp;nbsp; $\omega_{10} = 2\pi \cdot 10000 \hspace{0.1cm}1/\text{s}$&amp;amp;nbsp; counterclockwise.&lt;br /&gt;
*The green pointer (USB) rotates counterclockwise at the same speed&amp;amp;nbsp; ($-\omega_{10}$).}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Definition of The Locus Curve==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;&lt;br /&gt;
As &amp;amp;nbsp; '''locus curve'''&amp;amp;nbsp; we call the curve on which the&amp;amp;nbsp; '''equivalent low-pass signal'''&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; moves in the&amp;amp;nbsp; ''' complex plane'''&amp;amp;nbsp; }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Notes:'' &amp;amp;nbsp;  In other technical literature this term is rarely used. Therefore, initially, an example is shown.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID744__Sig_T_4_3_S4_neu.png|right|frame|Definition of The Locus Curve]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 3:}$&amp;amp;nbsp;&lt;br /&gt;
We consider the equivalent low-pass signal&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; of&amp;amp;nbsp;  [[Signal_Representation/Equivalent_Low_Pass_Signal_and_Its_Spectral_Function#Beschreibung_im_Zeitbereich|$\text{Example 2}$]], &lt;br /&gt;
consisting of&lt;br /&gt;
*the resting pointer of length&amp;amp;nbsp; $3$&amp;amp;nbsp; (red)&lt;br /&gt;
*the pointer with&amp;amp;nbsp; $\omega_{10} = 2\pi \cdot 10000 \hspace{0.1cm} 1/\text{s}$&amp;amp;nbsp; in mathematical positive direction rotating blue pointer with the complex amplitude&amp;amp;nbsp; '''j''',&lt;br /&gt;
*the green pointer of length&amp;amp;nbsp; $2$, which is currently&amp;amp;nbsp; $t = 0$&amp;amp;nbsp; in the direction of the negative imaginary axis. This rotates with the same angular velocity&amp;amp;nbsp; $\omega_{10}$&amp;amp;nbsp; as the blue pointer, but in the opposite direction&amp;amp;nbsp; ($-\omega_{10}$).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
The blue and the green pointer each require exactly one period duration&amp;amp;nbsp; $T_0 = 100 \,{\rm &amp;amp;micro;}\text{s}$ for one rotation. The further course of the process can be seen in the above illustration:&lt;br /&gt;
*The violet pointer sum is at time&amp;amp;nbsp; $t = 0$&amp;amp;nbsp; equals&amp;amp;nbsp; $3 - \text{j}$.&lt;br /&gt;
*After&amp;amp;nbsp; $t = T_0/4 = 25 \,{\rm &amp;amp;micro;}\text{s}$&amp;amp;nbsp; the resulting pointer group has the value &amp;amp;bdquo;Null&amp;amp;rdquo;, since now the two rotating pointers lie in the opposite direction to the carrier and compensate it exactly.&lt;br /&gt;
*After a period&amp;amp;nbsp; $(t = T_0 = 100 \,{\rm &amp;amp;micro;}\text{s})$&amp;amp;nbsp; the initial state is reached again: &amp;amp;nbsp; $x_{\rm TP}(t = T_0) = x_{\rm TP}(t=0) = 3 - \text{j}$.}}&lt;br /&gt;
&lt;br /&gt;
exactly.&lt;br /&gt;
*After a period&amp;amp;nbsp; $(t = T_0 = 100 \,{\rm &amp;amp;micro;}\text{s})$&amp;amp;nbsp; the initial state is reached again: &amp;amp;nbsp; $x_{\rm TP}(t = T_0) = x_{\rm TP}(t=0) = 3 - \text{j}$.}}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
In this example the locus curve is an ellipse, which is traversed by the equivalent low pass signal once per period. &lt;br /&gt;
*The representation applies to the&amp;amp;nbsp; [[Modulation_Methods/Double Sideband Amplitude Modulation#ZSB-Amplitude Modulation_with_Tr.C3.A4ger|Double Sideband Amplitude Modulation with Carrier]]&amp;amp;nbsp; of a sinusoidal&amp;amp;nbsp; $10\ \rm kHz$ signal with a cosinusoidal carrier of any frequency, where the upper sideband (blue pointer) is attenuated.&lt;br /&gt;
*If the lengths of the blue and the green rotating pointer were equal, the locus curve would be a horizontal one on the real axis - see&amp;amp;nbsp; [[Tasks:Task_4.5:_Locus Curve_at_ZSB-AM|Task 4.5]]. &lt;br /&gt;
*In the book&amp;amp;nbsp; [[Modulation_Methods/Evelope Demodulation|Modulation Methods]]&amp;amp;nbsp; the locus curves of different system variants are treated in detail.&lt;br /&gt;
&lt;br /&gt;
In this example the locus curve is an ellipse, which is traversed by the equivalent low pass signal once per period. &lt;br /&gt;
*The representation applies to the&amp;amp;nbsp;[[Modulation_Methods/Zweiseitenband-Amplitudenmodulation#ZSB-Amplitudenmodulation_mit_Tr.C3.A4ger|Double-Sideband–Amplitude Modulation with Carrier]]&amp;amp;nbsp; of a sinusoidal&amp;amp;nbsp; $10\ \rm kHz$ signal with a cosinusoidal carrier of any frequency, where the upper sideband (blue pointer) is attenuated.&lt;br /&gt;
*If the lengths of the blue and the green rotating pointer were equal, the locus curve would be a horizontal one on the real axis - see&amp;amp;nbsp; [[Aufgaben:Aufgabe_4.5:_Ortskurve_bei_ZSB-AM|Task 4.5]]. &lt;br /&gt;
*In the boo&amp;amp;nbsp; [[Modulation_Methods/Hüllkurvendemodulation|Modulation Methods]]&amp;amp;nbsp;,the locus curves of different system variants are treated in detail.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Representing with Magnitude and Phase==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
The equivalent low-pass signal of the band-pass signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; is generally complex and can therefore be expressed in the form &lt;br /&gt;
:$$x_{\rm TP}(t) = a(t) \cdot {\rm e}^{{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
\phi(t)}$$.&lt;br /&gt;
&lt;br /&gt;
Note the plus sign in the argument of the exponential function, which differs from the&amp;amp;nbsp; &amp;amp;nbsp; [[Signal_Representation/Fourier_Series#Komplexe_Fourierreihe|Complex Fourier Series]]&amp;amp;nbsp;. This is because the equation with the positive sign for the phase is usually used to describe the modulation method for the physical signal as well:&lt;br /&gt;
 &lt;br /&gt;
:$$x(t) =  a(t) \cdot  {\cos} ( 2 \pi f_{\rm T} t + \phi(t)).$$&lt;br /&gt;
&lt;br /&gt;
In many textbooks this equation is used with plus or minus signs depending on the application, but always with the same &amp;amp;bdquo;phase identifier&amp;amp;rdquo;. By using two different symbols&amp;amp;nbsp; $(\varphi$&amp;amp;nbsp; and&amp;amp;nbsp; $\phi)$&amp;amp;nbsp; we try to avoid this ambiguity in our learning tutorial&amp;amp;nbsp; $\rm LNTww$.&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Example 4:}$&amp;amp;nbsp;The same prerequisites apply as in the&amp;amp;nbsp; [[Signal_Representation/Equivalent_Low_Pass_Signal_and_Its_Spectral_Function#Beschreibung_im_Zeitbereich|$\text{second example }$]]&amp;amp;nbsp; and in the&amp;amp;nbsp; &lt;br /&gt;
[[Signal_Representation/Equivalent_Low_Pass_Signal_and_Its_Spectral_Function#Definition_der_Ortskurve|$\text{third one}$]]. InHowever, instead of the complex function&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; the two real functions&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; and&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; are now displayed in the graphic.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID748__Sig_T_4_3_S5.png|center|frame|Magnitude and Phase of The Equivalent Lowpass-Signal]]&lt;br /&gt;
&lt;br /&gt;
It should be noted that this is a representation:&lt;br /&gt;
*The&amp;amp;nbsp; '''Magnitude function'''&amp;amp;nbsp; shows the time dependence of the pointer length:&lt;br /&gt;
 &lt;br /&gt;
:$$a(t)= \vert x_{\rm TP}(t)\vert =\sqrt{ {\rm Re}\left[x_{\rm TP}(t)\right]^2 +&lt;br /&gt;
{\rm Im}\left[x_{\rm TP}(t)\right]^2 }.$$&lt;br /&gt;
&lt;br /&gt;
:The magnitude function&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; is in this example like the complex equivalent low pass signal&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; periodic with&amp;amp;nbsp; $T_0$&amp;amp;nbsp; and takes values between&amp;amp;nbsp; $0$&amp;amp;nbsp; and&amp;amp;nbsp; $6$&amp;amp;nbsp;.&lt;br /&gt;
&lt;br /&gt;
*Die&amp;amp;nbsp; '''Phasenfunktion'''&amp;amp;nbsp; beschreibt den zeitabhängigen Winkel des äquivalenten Tiefpass-Signals&amp;amp;nbsp; $x_{\rm TP}(t)$, bezogen auf den Koordinatenursprung:&lt;br /&gt;
 &lt;br /&gt;
:$$\phi(t)= {\rm arc} \left[x_{\rm TP}(t)\right]= {\rm arctan}&lt;br /&gt;
\hspace{0.1cm}\frac{ {\rm Im}\left[x_{\rm TP}(t)\right]}{ {\rm&lt;br /&gt;
Re}\left[x_{\rm TP}(t)\right]}.$$&lt;br /&gt;
&lt;br /&gt;
Hier noch einige numerische Ergebnisse für die Phasenwerte:&lt;br /&gt;
*Die Phase im Startzeitpunkt ist&amp;amp;nbsp; $\phi (t = 0) =\hspace{0.1cm} -\arctan (1/3) ≈ \hspace{0.1cm} -18.43^{\circ} = \hspace{0.1cm}-0.32\,\text{rad}$.&lt;br /&gt;
*Bei&amp;amp;nbsp; $t = 25\,{\rm &amp;amp;micro;}\text{s}$&amp;amp;nbsp; sowie zu allen äquidistanten Zeiten davon im Abstand&amp;amp;nbsp; $T_0 = 100 \,{\rm &amp;amp;micro;}\text{s}$&amp;amp;nbsp; ist&amp;amp;nbsp; $x_{\rm TP}(t) = 0$, so dass zu diesen Zeitpunkten die Phase&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; sprungartig von&amp;amp;nbsp; $-\pi /2$&amp;amp;nbsp; auf&amp;amp;nbsp; $+\pi /2$&amp;amp;nbsp; wechselt.&lt;br /&gt;
*Zum violett eingezeichneten Zeitpunkt&amp;amp;nbsp; $t = 60\,{\rm &amp;amp;micro;}\text{s}$&amp;amp;nbsp; hat die Phase einen leicht positiven Wert.&lt;br /&gt;
&amp;lt;br&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Zusammenhang zwischen äquivalentem TP-Signal und BP-Signal==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Ein bandpassartiges Signal&amp;amp;nbsp; $x(t)$, das sich aus der Modulation eines niederfrequenten Nachrichtensignals&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; mit einem Trägersignal&amp;amp;nbsp; $z(t)$&amp;amp;nbsp; der Frequenz&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; ergeben hat, kann wie folgt dargestellt werden:&lt;br /&gt;
 &lt;br /&gt;
:$$x(t) = a(t) \cdot  {\cos} ( 2 \pi f_{\rm T} t + \phi(t))&lt;br /&gt;
\hspace{0.3cm}\Rightarrow\hspace{0.3cm}&lt;br /&gt;
x_{\rm TP}(t) = a(t) \cdot {\rm e}^{{\rm j}\hspace{0.05cm}\cdot \hspace{0.05cm}&lt;br /&gt;
\phi(t)}.$$&lt;br /&gt;
&lt;br /&gt;
Hierzu ist anzumerken:&lt;br /&gt;
* $a(t)$&amp;amp;nbsp; ist die&amp;amp;nbsp; ''zeitabhängige Amplitude'', die man oft auch als&amp;amp;nbsp; '''Hüllkurve'''&amp;amp;nbsp; bezeichnet. Diese ist gleich dem Betrag&amp;amp;nbsp; $|x_{\rm TP}(t)|$&amp;amp;nbsp; des äquivalenten Tiefpass–Signals.&lt;br /&gt;
* $\phi(t)$&amp;amp;nbsp; ist die&amp;amp;nbsp; '''Phasenfunktion''', also die&amp;amp;nbsp; ''zeitabhängige Phase'', die ebenfalls aus dem äquivalenten Tiefpass–Signal als der Winkel zum Koordinatenursprung der komplexen Ebene ermittelt werden kann.&lt;br /&gt;
*Im physikalischen Signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; erkennt man die Phase&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; an den&amp;amp;nbsp; '''Nulldurchgängen'''. Bei&amp;amp;nbsp; $\phi(t) &amp;gt; 0$&amp;amp;nbsp; tritt der Nulldurchgang in&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; im Bereich der Zeit&amp;amp;nbsp; $t$&amp;amp;nbsp; früher auf als beim Trägersignal&amp;amp;nbsp; $z(t)$. Dagegen bedeutet&amp;amp;nbsp; $\phi(t) &amp;lt; 0$&amp;amp;nbsp; eine Verschiebung des Nulldurchgangs auf einen späteren Zeitpunkt.&lt;br /&gt;
*Man spricht von&amp;amp;nbsp; '''Amplitudenmodulation''', wenn die gesamte Information über das Nachrichtensignal in der Hüllkurve&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; steckt, während&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; konstant ist. &lt;br /&gt;
*Dagegen beinhaltet bei&amp;amp;nbsp; '''Phasenmodulation'''&amp;amp;nbsp;  die Phasenfunktion&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; die gesamte Information über das Nachrichtensignal, während&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; konstant ist.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 5:}$&amp;amp;nbsp;&lt;br /&gt;
Der obere Teil der folgenden Grafik beschreibt die&amp;amp;nbsp; [[Modulation_Methods/Zweiseitenband-Amplitudenmodulation#ZSB-Amplitudenmodulation_mit_Tr.C3.A4ger|Zweiseitenband–Amplitudenmodulation (ZSB-AM) mit Träger]]:&lt;br /&gt;
*Das äquivalente TP–Signal&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; ist hier stets reell &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; die Ortskurve ist eine horizontale Gerade.&lt;br /&gt;
*Deshalb stimmen die Nulldurchgänge des blauen ZSB–AM–Signals&amp;amp;nbsp; $x(t)$&amp;amp;nbsp;  mit denen des roten Trägersignals&amp;amp;nbsp; $z(t)$&amp;amp;nbsp; exakt überein. &lt;br /&gt;
*Das heißt: &amp;amp;nbsp; Die Phasenfunktion&amp;amp;nbsp; $\phi(t)$&amp;amp;nbsp; ist identisch Null &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; die Hüllkurve&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; beinhaltet die gesamte Information über das Nachrichtensignal.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_4_3_S6.png|center|frame|$x_{\rm TP}(t)$ bei Zweiseitenband-Amplitudenmodulation und Phasenmodulation]]&lt;br /&gt;
&lt;br /&gt;
Der untere Grafikteil gilt dagegen für die&amp;amp;nbsp; [[Modulation_Methods/Phasenmodulation_(PM)|Phasenmodulation (PM)]]: &lt;br /&gt;
*Das PM-Signal&amp;amp;nbsp; $y(t)$&amp;amp;nbsp; hat stets eine konstante Einhüllende &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; die Ortskurve ist ein Kreisbogen. &lt;br /&gt;
*Der Phasenwert ist hier zunächst kleiner Null &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; die&amp;amp;nbsp; $y(t)$&amp;amp;ndash;Nulldurchgänge treten später auf als die des Trägers&amp;amp;nbsp; $z(t)$&amp;amp;nbsp;  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp;   die Nulldurchgänge sind „nachlaufend”. &lt;br /&gt;
*Bei positiven Werten des Nachrichtensignals gilt auch&amp;amp;nbsp; $\phi (t) &amp;gt; 0$  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp;   die Nulldurchgänge treten früher auf als beim Trägersignal  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; sie sind  „vorlaufend”. &lt;br /&gt;
*Bei Phasenmodulation steckt also die gesamte Information über das Nachrichtensignal&amp;amp;nbsp; $q(t)$&amp;amp;nbsp; in den Lagen der Nulldurchgänge.}}&lt;br /&gt;
&lt;br /&gt;
==Warum gibt es für das gleiche Signal drei Darstellungsformen?==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Abschließend – hoffentlich nicht zu spät – wollen wir uns noch der Frage zuwenden, warum die beiden komplexen und im Verständnis komplizierteren Signale&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; und&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; zur Beschreibung des tatsächlichen Bandpass–Signals&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; eigentlich notwendig sind. Sie wurden nicht deshalb in der Nachrichtentechnik eingeführt, um Studierende zu verunsichern, sondern:&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp;&lt;br /&gt;
*Die Hüllkurve&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; und die Phasenfunktion&amp;amp;nbsp; $\phi (t)$&amp;amp;nbsp; können aus dem tatsächlichen, physikalischen BP–Signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp;  nur in einigen Sonderfällen direkt und  in einfacher Weise extrahiert werden.&lt;br /&gt;
*Das real nicht existierende äquivalente Tiefpass–Signal&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; ist ein mathematisches Hilfsmittel, mit dem die Zeitverläufe&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; und&amp;amp;nbsp; $\phi (t)$&amp;amp;nbsp; durch einfache geometrische Überlegungen bestimmt werden können. Im Buch&amp;amp;nbsp; [[Modulation_Methods]]&amp;amp;nbsp; werden wir darauf zurückkommen.&lt;br /&gt;
*Das analytische Signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; ist ein Zwischenschritt beim Übergang von&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; auf&amp;amp;nbsp; $x_{\rm TP}(t)$. Während&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; stets komplex ist, kann&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; in Sonderfällen reell sein, zum Beispiel bei idealer Amplitudenmodulation entsprechend dem Kapitel&amp;amp;nbsp; [[Modulation_Methods/Zweiseitenband-Amplitudenmodulation|Zweiseitenband-Amplitudenmodulation]]&amp;amp;nbsp; (ZSB-AM).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Es gilt das gleiche Prinzip wie häufig in den Naturwissenschaften und Technik: &lt;br /&gt;
&lt;br /&gt;
*Die Einführung von&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; und&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; bringt für einfache Probleme eher eine Verkomplizierung. &lt;br /&gt;
*Deren Vorteile erkennt man erst bei schwierigeren Aufgabenstellungen, die allein mit dem physikalischen Bandpass-Signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; nicht gelöst werden könnten oder nur mit sehr viel größerem Aufwand.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Zur weiteren Verdeutlichung stellen wir noch zwei interaktive Applets bereit:&lt;br /&gt;
  &lt;br /&gt;
*[[Applets:Physikalisches_Signal_%26_Analytisches_Signal|Physikalisches Signal &amp;amp; AnalytischesSignal]] &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; &amp;amp;bdquo;Zeigerdiagramm&amp;amp;rdquo;,&lt;br /&gt;
*[[Applets:Physikalisches_Signal_%26_Äquivalentes_TP-Signal|Physikalisches Signal &amp;amp; Äquivalentes TP-Signal]] &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; &amp;amp;bdquo;Ortskurve&amp;amp;rdquo;. &lt;br /&gt;
&lt;br /&gt;
==Darstellung nach Real- und Imaginärteil==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Insbesondere zur Beschreibung der&amp;amp;nbsp; [[Modulation_Methods/Quadratur–Amplitudenmodulation|Quadratur-Amplitudenmodulation]]&amp;amp;nbsp; (QAM) eignet sich die Darstellung des äquivalenten Tiefpass–Signals nach Real– und Imaginärteil:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm TP}(t) = x_{\rm I}(t)+ {\rm j} \cdot x_{\rm Q}(t).$$&lt;br /&gt;
&lt;br /&gt;
In dieser Darstellung bezeichnet &lt;br /&gt;
*der Realteil&amp;amp;nbsp; $x_{\rm I}(t)$&amp;amp;nbsp; die&amp;amp;nbsp; '''Inphasekomponente'''&amp;amp;nbsp; (Normalkomponente),&lt;br /&gt;
*der Imaginärteil&amp;amp;nbsp; $x_{\rm Q}(t)$&amp;amp;nbsp; die&amp;amp;nbsp; '''Quadraturkomponente''' &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
von&amp;amp;nbsp; $x_{\rm TP}(t)$. Mit der Betragsfunktion&amp;amp;nbsp; $a(t) = |x_{\rm TP}(t)|$&amp;amp;nbsp; und der&amp;amp;nbsp; Phasenfunktion&amp;amp;nbsp; $\phi (t) = \text{arc}\,x_{\rm TP}(t)$&amp;amp;nbsp; entsprechend den Definitionen auf den vorangegangenen Seiten gilt:&lt;br /&gt;
&lt;br /&gt;
:$$\begin{align*}x_{\rm I}(t) &amp;amp; =  {\rm Re}[x_{\rm TP}(t)] = a(t) \cdot \cos&lt;br /&gt;
 (\phi(t)),\\&lt;br /&gt;
 x_{\rm Q}(t) &amp;amp; =  {\rm Im}[x_{\rm TP}(t)] = a(t) \cdot \sin&lt;br /&gt;
 (\phi(t)).\end{align*}$$&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1150__Sig_T_4_3_S7a_neu.png|right|frame|Real- und Imaginärteil des äquivalenten Tiefpass-Signals]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 6:}$&amp;amp;nbsp; Zum betrachteten Zeitpunkt&amp;amp;nbsp; $t_0$&amp;amp;nbsp; gilt für das äquivalente Tiefpass–Signal:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm TP}(t = t_0) = 2\,{\rm V} \cdot {\rm e}^{- {\rm j \hspace{0.05cm}\cdot \hspace{0.05cm} 60&lt;br /&gt;
 ^\circ} }.$$&lt;br /&gt;
&lt;br /&gt;
Mit dem&amp;amp;nbsp;  [[Signal_Representation/Calculating_With_Complex_Numbers#Darstellung_nach_Betrag_und_Phase|Satz von Euler]]&amp;amp;nbsp; kann hierfür geschrieben werden:&lt;br /&gt;
&lt;br /&gt;
:$$x_{\rm TP}(t = t_0) =  2\,{\rm V} \cdot \cos(60 ^\circ) - {\rm j} \cdot 2\,{\rm V} \cdot \sin(60&lt;br /&gt;
 ^\circ).$$&lt;br /&gt;
&lt;br /&gt;
Damit gilt für die Inphasekomponente  und für die  Quadraturkomponente: &lt;br /&gt;
&lt;br /&gt;
:$$x_{\rm I}(t = t_0) = 2\,{\rm V} \cdot \cos(60 ^\circ) = 1\text{V}, $$&lt;br /&gt;
:$$x_{\rm Q}(t = t_0) = \hspace{0.05cm} - {\rm j} \cdot 2\,{\rm V} \cdot \sin(60^\circ) =\hspace{0.05cm}-1.733\text{V}.$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Durch Anwendung trigonometrischer Umformungen kann gezeigt werden, dass man das reelle, physikalische Bandpass–Signal auch in folgender Weise darstellen kann:&lt;br /&gt;
 &lt;br /&gt;
:$$x(t)  =  a(t) \cdot \cos  (2 \pi \cdot f_{\rm T} \cdot t + \phi(t)) =  x_{\rm I}(t)\cdot \cos  (2 \pi \cdot f_{\rm T} \cdot t )-x_{\rm Q}(t)\cdot \sin  (2 \pi \cdot f_{\rm T} \cdot t ). $$&lt;br /&gt;
&lt;br /&gt;
Das Minuszeichen ergibt sich wegen der Verwendung der Phasenfunktion&amp;amp;nbsp; $\phi (t)$. Ein Vergleich mit der Seite&amp;amp;nbsp; [[ Signal_Representation/Harmonic_Oscillation#Darstellung_mit_Cosinus-_und_Sinusanteil|Darstellung mit Cosinus- und Sinusanteil]]&amp;amp;nbsp; im zweiten Hauptkapitel zeigt, dass sich anstelle der Differenz die Summe ergibt, wenn man sich auf&amp;amp;nbsp; $\varphi (t) = -\phi (t)$&amp;amp;nbsp; bezieht. Angepasst auf unser Beispiel erhält man dann:&lt;br /&gt;
 &lt;br /&gt;
:$$x(t)  =  a(t) \cdot \cos  (2 \pi \cdot f_{\rm T} \cdot t - \varphi(t)) =  x_{\rm I}(t)\cdot \cos  (2 \pi \cdot f_{\rm T} \cdot t )+x_{\rm Q}(t)\cdot \sin  (2 \pi \cdot f_{\rm T} \cdot t ).$$&lt;br /&gt;
&lt;br /&gt;
Die Quadraturkomponente&amp;amp;nbsp; $x_{\rm Q}(t)$&amp;amp;nbsp; unterscheidet sich gegenüber der oberen Gleichung also im Vorzeichen.&lt;br /&gt;
&lt;br /&gt;
==Ermittlung des  äquivalenten TP-Signals aus dem BP-Signal==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die folgende Grafik zeigt zwei Anordnungen, um aus dem reellen Bandpass–Signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; das komplexe Tiefpass–Signal aufgespalten nach Inphase– und Quadraturkomponente zu ermitteln, beispielsweise zur Darstellung auf einem Oszilloskop. Betrachten wir zuerst das obere Modell: &lt;br /&gt;
&lt;br /&gt;
*Hier wird zunächst das analytische Signal&amp;amp;nbsp; $x_+(t)$&amp;amp;nbsp; durch Hinzufügen der&amp;amp;nbsp; [[Signal_Representation/Analytical_Signal_and_Its_Spectral_Function#Darstellung_mit_der_Hilberttransformation|Hilberttransformierten]]&amp;amp;nbsp; erzeugt. &lt;br /&gt;
*Durch Multiplikation mit der komplexen Exponentialfunktion (mit negativem Exponenten!) kommt man zum äquivalenten Tiefpass–Signal&amp;amp;nbsp; $x_{\rm TP}(t)$. &lt;br /&gt;
*Die gesuchten Komponenten&amp;amp;nbsp; $x_{\rm I}(t)$&amp;amp;nbsp; und&amp;amp;nbsp; $x_{\rm Q}(t)$&amp;amp;nbsp; erhält man dann durch Real– bzw. Imaginärteilbildung.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1151__Sig_T_4_3_S7b_neu.png|center|frame|Aufteilung des äquivalenten Tiefpass-Signals in Inphase- und Quadraturkomponente]]&lt;br /&gt;
&lt;br /&gt;
Bei der unteren (praxisrelevanteren) Anordnung erhält man für den oberen bzw. unteren Zweig nach den jeweiligen Multiplikationen:&lt;br /&gt;
 &lt;br /&gt;
:$$a(t)\cdot \cos  (\omega_{\rm T} \cdot t + \phi(t)) \cdot 2 \cdot \cos  (\omega_{\rm T} \cdot t ) = a(t)\cdot \cos  ( \phi(t)) +  \varepsilon_{\rm oben}(t),$$&lt;br /&gt;
:$$a(t)\cdot \cos  (\omega_{\rm T} \cdot t + \phi(t)) \cdot (-2) \cdot \sin  (\omega_{\rm T} \cdot t ) = a(t)\cdot \sin  ( \phi(t)) + \varepsilon_{\rm unten}(t)).$$&lt;br /&gt;
&lt;br /&gt;
Die jeweils zweiten Anteile liegen im Bereich um die doppelte Trägerfrequenz und werden durch die Tiefpässe mit jeweiliger Grenzfrequenz&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; entfernt:&lt;br /&gt;
 &lt;br /&gt;
:$$\varepsilon_{\rm oben}(t)  = a(t)\cdot \cos  (2\omega_{\rm T} \cdot t +&lt;br /&gt;
 \phi(t)),\hspace{0.8cm}&lt;br /&gt;
 \varepsilon_{\rm unten}(t) = -  a(t)\cdot \sin  (2\omega_{\rm T} \cdot t +&lt;br /&gt;
 \phi(t)).$$&lt;br /&gt;
&lt;br /&gt;
Ein Vergleich mit obigen Gleichungen zeigt, dass am Ausgang die gewünschten Komponenten&amp;amp;nbsp; $x_{\rm I}(t)$&amp;amp;nbsp; und&amp;amp;nbsp; $x_{\rm Q}(t)$&amp;amp;nbsp; abgegriffen werden können:&lt;br /&gt;
 &lt;br /&gt;
:$$x_{\rm I}(t)  = a(t)\cdot \cos  ( \phi(t)) ,$$&lt;br /&gt;
:$$x_{\rm Q}(t) = a(t)\cdot \sin  ( \phi(t)) .$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Leistung und Energie eines Bandpass-Signals==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir betrachten das (blaue) Bandpass-Signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; gemäß der Grafik, das sich zum Beispiel bei&amp;amp;nbsp; [[Modulation_Methods/Lineare_digitale_Modulationsverfahren#ASK_.E2.80.93_Amplitude_Shift_Keying|Binary Amplitude Shift Keying]]&amp;amp;nbsp;  ergibt. Dieses digitale Modulationsverfahren ist auch bekannt unter dem Namen&amp;amp;nbsp; '''On–Off–Keying'''.&lt;br /&gt;
 &lt;br /&gt;
[[File:P_ID1152__Sig_T_4_3_S8a.png|right|frame|Leistung und Energie eines Bandpass-Signals]] &lt;br /&gt;
&lt;br /&gt;
Die auf&amp;amp;nbsp; $1 \,\Omega$&amp;amp;nbsp; bezogene Signalleistung ergibt sich nach den Ausführungen auf der Seite&amp;amp;nbsp; [[Signal_Representation/Signal_classification#Energiebegrenzte_und_leistungsbegrenzte_Signale|Energiebegrenzte und leistungsbegrenzte Signale]]&amp;amp;nbsp; zu&lt;br /&gt;
 &lt;br /&gt;
:$$P_x = \lim_{T_{\rm M} \to \infty} \frac{1}{T_{\rm M}} \cdot \int^{+T_{\rm M}/2} _{-T_{\rm M}/2}\hspace{-0.1cm} x^2(t)\,{\rm d}t.$$&lt;br /&gt;
&lt;br /&gt;
Sind die binären Nullen und Einsen gleichwahrscheinlich, so kann man auf den unendlichen Integrationsbereich und den Grenzübergang verzichten, und man erhält für das oben skizzierte Mustersignal&amp;amp;nbsp; $x(t)$:&lt;br /&gt;
 &lt;br /&gt;
:$$P_x = \frac{1}{2T} \cdot \int ^{2T} _{0} x^2(t)\,{\rm d}t =&lt;br /&gt;
 \frac{4\,{\rm V}^2}{2T} \cdot \int^{T} _{0} \cos^2(\omega_{\rm T} \cdot t)\,{\rm d}t= 1\,{\rm V}^2.$$&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Aus der unteren Skizze ist zu erkennen, dass man durch Mittelung über die quadrierte Hüllkurve&amp;amp;nbsp; $a^2(t)$&amp;amp;nbsp; – also über das Betragsquadrat des äquivalenten Tiefpass–Signals&amp;amp;nbsp; $x_{\rm TP}(t)$&amp;amp;nbsp; – ein doppelt so großes Ergebnis erhält. Deshalb gilt in gleicher Weise:&lt;br /&gt;
 &lt;br /&gt;
:$$P_x = { {1}/{2} \hspace{0.08cm}\cdot }\lim_{T_{\rm M} \to \infty} \frac{1}{T_{\rm M}}&lt;br /&gt;
 \cdot \int^{T_{\rm M}/2} _{-T_{\rm M}/2} |x_{\rm TP}(t)|^2\,{\rm&lt;br /&gt;
 d}t =&lt;br /&gt;
 {{1}/{2} \hspace{0.08cm}\cdot }\lim_{T_{\rm M} \to \infty} \frac{1}{T_{\rm M}}&lt;br /&gt;
 \cdot \int^{T_{\rm M}/2} _{-T_{\rm M}/2} a^2(t)\,{\rm d}t.$$&lt;br /&gt;
&lt;br /&gt;
Dieses Resultat lässt sich verallgemeinern und es auch auf energiebegrenzte Signale anwenden. In diesem Fall gilt für die Energie entsprechend der Seite&amp;amp;nbsp; [[Signal_Representation/Signal_classification#Energiebegrenzte_und_leistungsbegrenzte_Signale|Energiebegrenzte und leistungsbegrenzte Signale]]:&lt;br /&gt;
 &lt;br /&gt;
:$$E_x =   \int ^{+\infty} _{-\infty} x^2(t)\,{\rm&lt;br /&gt;
 d}t = { {1}/{2} \hspace{0.08cm}\cdot }\int ^{+\infty} _{-\infty} |x_{\rm TP}(t)|^2\,{\rm&lt;br /&gt;
 d}t = { {1}/{2} \hspace{0.08cm}\cdot }\int ^{+\infty} _{-\infty} a^2(t)\,{\rm&lt;br /&gt;
 d}t.$$&lt;br /&gt;
&lt;br /&gt;
Diese Gleichung gilt allerdings nur dann exakt, wenn die Trägerfrequenz&amp;amp;nbsp; $f_{\rm T}$&amp;amp;nbsp; sehr viel größer als die Bandbreite&amp;amp;nbsp; $B_{\rm BP}$&amp;amp;nbsp; des Bandpasses  ist.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 7:}$&amp;amp;nbsp;&lt;br /&gt;
Wir betrachten das in der Grafik links oben blau skizzierte Bandpass–Signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; mit&amp;amp;nbsp; $A = 2\,\text{V}$,&amp;amp;nbsp; $B = 1\,\text{kHz}$&amp;amp;nbsp; und&amp;amp;nbsp; $f_{\rm T} = 10\,\text{kHz}$:&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1154__Sig_T_4_3_S8b_neu.png|right|frame|Leistungsberechnung im äquivalenten Tiefpass-Bereich]]&lt;br /&gt;
 &lt;br /&gt;
:$$x(t) = A \cdot {\rm si}(\pi \cdot B \cdot t) \cdot \cos(2 \pi \cdot f_{\rm T}\cdot \hspace{0.05cm}t + \phi(t)).$$&lt;br /&gt;
&lt;br /&gt;
Oben rechts ist das zum Signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; gehörige Betragsspektrum&amp;amp;nbsp; $\vert X(f) \vert$&amp;amp;nbsp; dargestellt. Es gilt die blaue Beschriftung:&lt;br /&gt;
* $X(f)$&amp;amp;nbsp; ist aufgrund der Symmetrieverhältnisse rein reell: &lt;br /&gt;
:$$\vert X(f) \vert  = X(f).$$&lt;br /&gt;
&lt;br /&gt;
* $\vert X(f) \vert$&amp;amp;nbsp; setzt sich also aus zwei Rechtecken um&amp;amp;nbsp; $\pm f_{\rm T}$&amp;amp;nbsp; zusammen.&lt;br /&gt;
&lt;br /&gt;
* Im Bereich um die Trägerfrequenz gilt:&lt;br /&gt;
:$$\vert X(f) \vert = A/(2B) = 10^{-3}\text{V/Hz}.$$&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Die Energie dieses Bandpass–Signals könnte prinzipiell nach folgender Gleichung berechnet werden:&lt;br /&gt;
 &lt;br /&gt;
:$$E_x =   \int^{+\infty} _{-\infty} A^2 \cdot \frac{ {\rm&lt;br /&gt;
sin}^2(\pi \cdot B \cdot t)}{ (\pi \cdot B \cdot t)^2}\cdot&lt;br /&gt;
\cos^2(2 \pi \cdot f_{\rm T}\cdot \hspace{0.05cm}t +&lt;br /&gt;
\phi(t))\,{\rm&lt;br /&gt;
 d}t .$$&lt;br /&gt;
&lt;br /&gt;
Entsprechend den obigen Gleichungen gilt mit der oben links rot eingezeichneten Hüllkurve&amp;amp;nbsp; $a(t)$&amp;amp;nbsp; aber auch:&lt;br /&gt;
 &lt;br /&gt;
:$$E_x  = { {1}/{2} \hspace{0.08cm}\cdot }\int^{+\infty} _{-\infty} a^2(t)\,{\rm&lt;br /&gt;
 d}t=   { {1}/{2} \hspace{0.08cm}\cdot }\int^{+\infty} _{-\infty} \vert A \cdot {\rm si}(\pi \cdot B \cdot t)\vert^2\,{\rm&lt;br /&gt;
 d}t $$&lt;br /&gt;
:$$\Rightarrow \hspace{0.3cm} E_x  =   A^2\cdot \int^{+\infty} _{0} {\rm si}^2(\pi \cdot B \cdot t)\,{\rm&lt;br /&gt;
 d}t =A^2\cdot \frac {\pi}{2}\cdot \frac {1}{\pi B} = \frac {A^2}{2 B}= 2 \cdot 10^{-3}\,{\rm V}^2/{\rm Hz}.$$&lt;br /&gt;
&lt;br /&gt;
Aus dieser Gleichung erkennt man sofort, dass die Signalenergie&amp;amp;nbsp; $E_x$&amp;amp;nbsp; unabhängig von der Trägerphase&amp;amp;nbsp; $\phi$&amp;amp;nbsp; ist.&lt;br /&gt;
&lt;br /&gt;
Eine zweite Lösungsmöglichkeit mit gleichem Ergebnis bietet schließlich der&amp;amp;nbsp; [https://de.wikipedia.org/wiki/Satz_von_Parseval Satz von Parseval]:&lt;br /&gt;
&lt;br /&gt;
:$$\int ^{+\infty} _{-\infty} a^2(t)\,{\rm  d}t= \int&lt;br /&gt;
^{+\infty} _{-\infty} \vert A(f) \vert ^2\,{\rm  d}f   \hspace{0.3cm} \Rightarrow \hspace{0.3cm}&lt;br /&gt;
E_x =  {1}/{2}\cdot ( {A}/{B})^2 \cdot B =  {A^2}/(2&lt;br /&gt;
B).$$&lt;br /&gt;
 &lt;br /&gt;
Hierbei ist berücksichtigt:&lt;br /&gt;
*Es gilt&amp;amp;nbsp; $\vert A(f) \vert  = \vert  X_{\rm TP}(f) \vert $. &lt;br /&gt;
*Innerhalb der Bandbreite&amp;amp;nbsp; $B$&amp;amp;nbsp; um die Frequenz&amp;amp;nbsp; $f = 0$&amp;amp;nbsp; ist&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; doppelt so groß wie&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; um die Frequenz&amp;amp;nbsp; $f = f_{\rm T}$, nämlich&amp;amp;nbsp; $A/B$. &lt;br /&gt;
*Dies hängt mit der Definition des Spektrums&amp;amp;nbsp; $X_+(f)$&amp;amp;nbsp; des analtischen Signals zusammen, aus dem&amp;amp;nbsp; $X_{\rm TP}(f)$&amp;amp;nbsp; durch Verschiebung entsteht.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Exercises for The Chapter==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 4.5: Locus Curve for DSB-AM|Exercise 4.5: Locus Curve for DSB-AM]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 4.5Z: Simple Phase Modulator|Exercise 4.5Z: Simple Phase Modulator]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 4.6: Loot Curve for ESB-AM|Exercise 4.6: Loot Curve for ESB-AM]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 4.6Z: Loot Curve  for Phase Modulation|Exercise 4.6Z: Loot Curve  for Phase Modulation]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Signal_Representation/Possible_Errors_when_using_DFT&amp;diff=35304</id>
		<title>Signal Representation/Possible Errors when using DFT</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Signal_Representation/Possible_Errors_when_using_DFT&amp;diff=35304"/>
		<updated>2020-11-29T18:54:46Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Zeit- und frequenzdiskrete Signaldarstellung&lt;br /&gt;
|Vorherige Seite=Diskrete Fouriertransformation (DFT)&lt;br /&gt;
|Nächste Seite=Spektralanalyse&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Der mittlere quadratische Fehler als Qualitätskriterium==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Im Folgenden werden einige Fehlermöglichkeiten bei Anwendung der DFT kurz diskutiert, wobei wir uns auf die Transformation vom Zeit– in den Frequenzbereich beschränken. Auch in seinen Abtastwerten wird sich im Allgemeinen das über die DFT ermittelte Spektrum&amp;amp;nbsp; $D(\mu )/f_{\rm A}$&amp;amp;nbsp; vom tatsächlichen Spektrum&amp;amp;nbsp; $X(\mu \cdot f_{\rm A})$&amp;amp;nbsp; unterscheiden, was auf zwei Prozesse zurückzuführen ist:&lt;br /&gt;
*die&amp;amp;nbsp; '''Abtastung''', also die Reduzierung der Information über&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; auf&amp;amp;nbsp; $N$&amp;amp;nbsp; Zahlenwerte,&lt;br /&gt;
*die&amp;amp;nbsp; '''Fensterung''', die das Signal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; eventuell fälschlicherweise begrenzt.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;&lt;br /&gt;
Ein Gütekriterium, das beide Fehlerarten berücksichtigt, ist der&amp;amp;nbsp; '''mittlere quadratische Fehler''':&lt;br /&gt;
 &lt;br /&gt;
:$${\rm MQF} =  \frac{1}{N}\cdot \sum_{\mu = 0 }^{N-1}&lt;br /&gt;
 \left\vert X(\mu \cdot f_{\rm A})-\frac{D(\mu)}{f_{\rm A} }\right \vert^2 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Es ist stets&amp;amp;nbsp; ${\rm MQF} \ne 0$, da sich bei endlichem&amp;amp;nbsp; $N$&amp;amp;nbsp; nicht gleichzeitig die Degradation durch die Abtastung und durch die Fensterung zu Null machen lassen.}} &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Größe dieser Bewertungsgröße&amp;amp;nbsp;  ${\rm MQF}$&amp;amp;nbsp; hängt von folgenden Parametern ab:&lt;br /&gt;
*den Eigenschaften der vorliegenden Zeitfunktion&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; bzw. des Spektrums&amp;amp;nbsp; $X(f)$,&lt;br /&gt;
*dem DFT–Parameter&amp;amp;nbsp; $N$;&amp;amp;nbsp; je größer&amp;amp;nbsp; $N$&amp;amp;nbsp; gewählt wird, umso kleiner wird&amp;amp;nbsp; ${\rm MQF}$,&lt;br /&gt;
*einem der vier weiteren DFT–Parameter, zum Beispiel&amp;amp;nbsp; $f_{\rm A}$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die weiteren DFT–Parameter sind bei gegebenem&amp;amp;nbsp; $N$&amp;amp;nbsp; über die Gleichungen&amp;amp;nbsp; $f_{\rm P} = N \cdot f_{\rm A}$,&amp;amp;nbsp; $T_{\rm P} = 1/f_{\rm A}$&amp;amp;nbsp; und&amp;amp;nbsp; $T_{\rm A} = T_{\rm P}/N$&amp;amp;nbsp; festgelegt.&lt;br /&gt;
&lt;br /&gt;
Wir weisen Sie bereits hier auf das Lernvideo&amp;amp;nbsp; [[Fehlermöglichkeiten_bei_Anwendung_der_DFT_(Lernvideo)|Fehlermöglichkeiten bei Anwendung der DFT]]&amp;amp;nbsp; hin, das den Inhalt dieses Kapitels verdeutlicht. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_1_S1.png|right|frame|Quasi-fehlerfreie DFT mit&amp;amp;nbsp; $N = 16$]]&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp;&lt;br /&gt;
Wir betrachten beispielhaft einen Gaußimpuls mit der äquivalenten Impulsdauer&amp;amp;nbsp; $\Delta t = T$, wobei&amp;amp;nbsp; $T$&amp;amp;nbsp; gleichzeitig als Normierungsparameter verwendet wird:&lt;br /&gt;
 &lt;br /&gt;
:$$x(t) = {\rm e}^{- \pi (t/T)^2} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Der Gaußimpuls eignet sich aufgrund des schnellen, exponentiellen Abklingens sowohl im Zeit– als auch im Frequenzbereich sehr gut für die Anwendung der DFT. &lt;br /&gt;
&lt;br /&gt;
Die untere Grafik zeigt das DFT&amp;amp;ndash;Ergebnis&lt;br /&gt;
*für&amp;amp;nbsp; $N = 16$&amp;amp;nbsp; und &lt;br /&gt;
*$T_{\rm A}/T = 0.25$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; $f_{\rm A} \cdot T = 0.25$.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Zu dieser Darstellung ist Folgendes anzumerken:&lt;br /&gt;
*Die berücksichtigten Abtastwerte von&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; liegen im Bereich&amp;amp;nbsp; $\vert t/T \vert≤ 2$.&amp;amp;nbsp; Da&amp;amp;nbsp; $x(\pm 2T)$&amp;amp;nbsp; sehr klein ist, führt die Periodifizierung im Zeitbereich mit&amp;amp;nbsp; $T_{\rm P}/T = N \cdot T_{\rm A}/T = 2$&amp;amp;nbsp; zu keinen gravierenden Fehlern.&lt;br /&gt;
*Mit&amp;amp;nbsp; $f_{\rm A} \cdot T = 0.25$&amp;amp;nbsp; sowie&amp;amp;nbsp; $N = 16$&amp;amp;nbsp; ergibt sich der (normierte) DFT–Parameter&amp;amp;nbsp; $f_{\rm P} \cdot T = 4$. &lt;br /&gt;
*Die diskreten Spektrallinien der DFT liegen somit im Bereich&amp;amp;nbsp; $–2/T ≤  f  &amp;lt; +2/T$.&lt;br /&gt;
*Der mittlere quadratrische Fehler ist relativ klein&amp;amp;nbsp; $\text{(MQF} \approx 10^{–12})$, was auf die günstige Wahl von&amp;amp;nbsp; $f_{\rm A} \cdot T = 0.25$&amp;amp;nbsp; $($bei gegebenem&amp;amp;nbsp;  $N = 16)$&amp;amp;nbsp; zurückzuführen ist.&lt;br /&gt;
*Die DFT–Genauigkeit kann durch Vergrößerung von&amp;amp;nbsp; $N$&amp;amp;nbsp; verbessert werden: &lt;br /&gt;
:*Für&amp;amp;nbsp; $N = 1024$&amp;amp;nbsp; erhält man den kleinstmöglichen Wert&amp;amp;nbsp; $\text{MQF} \approx 8 \cdot 10^{–17}$, wenn&amp;amp;nbsp; $f_{\rm A} \cdot T = 0.125$&amp;amp;nbsp; gewählt wird. Für die weiteren DFT–Parameter gilt dann:&lt;br /&gt;
:: $$f_{\rm P} \cdot T = 128, \hspace{0.5cm}T_{\rm A}/T = 1/128,  \hspace{0.5cm} T_{\rm P}/T = N \cdot T_{\rm A}/T= 8.$$&lt;br /&gt;
:*Bei einem 32&amp;amp;ndash;Bit&amp;amp;ndash;Prozessor (das bedeutet:&amp;amp;nbsp; kleinere Quantisierungsfehler des Rechners)&amp;amp;nbsp; wäre&amp;amp;nbsp; $\text{MQF}$&amp;amp;nbsp; noch kleiner, aber niemals Null. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==DFT-Verfälschung durch Fensterung &amp;amp;ndash; Abbruchfehler==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Ein typischer Fehler bei Anwendung der DFT ist auf die&amp;amp;nbsp; '''Fensterung'''&amp;amp;nbsp; zurückzuführen. Diese als&amp;amp;nbsp; ''Abbruchfehler''&amp;amp;nbsp; bekannte Verfälschung lässt sich folgendermaßen erklären:&lt;br /&gt;
*Die im DFT–Algorithmus implizit enthaltene Fensterung entspricht der Multiplikation des Signals&amp;amp;nbsp; $x(t)$ mit&amp;amp;nbsp; einer Rechteckfunktion der Höhe&amp;amp;nbsp; $1$&amp;amp;nbsp; und der Dauer&amp;amp;nbsp; $T_{\rm P} = N \cdot T_{\rm A}$.&lt;br /&gt;
*Ist das Zeitsignal&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; nicht auf den Bereich&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; begrenzt, so stimmt das DFT–Ergebnis nicht mit dem tatsächlichen Spektrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; überein, sondern ergibt sich aus diesem durch Faltung mit der Spektralfunktion&amp;amp;nbsp; $T_{\rm P} \cdot \text{si}(\pi fT_{\rm P})$.&lt;br /&gt;
*Im Grenzfall&amp;amp;nbsp; $T_{\rm P} \to \infty$, was bei gegebenem Abstand&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; der Abtastwerte auch eine unendlich große Stützstellenzahl&amp;amp;nbsp; $N$&amp;amp;nbsp; bedeuten würde, entartet&amp;amp;nbsp; $T_{\rm P} \cdot \text{si}(\pi fT_{\rm P})$&amp;amp;nbsp; zu einer Diracfunktion und das Originalspektrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; bliebe erhalten.&lt;br /&gt;
*Die DFT eines zeitlich unbegrenzten Signals – zum Beispiel eines periodischen Signals – wird immer einen Abbruchfehler hervorrufen, der nur durch besondere Maßnahmen in Grenzen gehalten werden kann. Hierauf wird im Kapitel&amp;amp;nbsp; [[Signal_Representation/Spectrum_Analysis|Spektralanalyse]]&amp;amp;nbsp; näher eingegangen.&lt;br /&gt;
*Bei zeitlich begrenzten, impulsartigen Signalen lässt sich der Abbruchfehler vermeiden, wenn man&amp;amp;nbsp; $T_{\rm P}$&amp;amp;nbsp; hinreichend groß wählt. Durch weitere Vergrößerung des Fensters in Bereiche mit&amp;amp;nbsp; $x(t) \approx 0$&amp;amp;nbsp; ergibt sich kein zusätzlicher Informationsgewinn  &amp;amp;nbsp; ⇒  &amp;amp;nbsp; $\text{MQF}$&amp;amp;nbsp; wird nicht kleiner.&lt;br /&gt;
*Durch dieses Anfügen von Nullen&amp;amp;nbsp; '''(zero–padding)'''&amp;amp;nbsp; treten nun die Abtastwerte von&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; in kleinerem Abstand&amp;amp;nbsp; $f_{\rm A} = 1/T_{\rm A}$&amp;amp;nbsp; auf. Durch&amp;amp;nbsp; $T_{\rm P}$–Verdopplung erreicht man eine Interpolation der Frequenzabtastwerte genau in der Mitte zwischen zwei vorherigen Stützstellen.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Das folgende Beispiel zeigt einen Abbruchfehler aufgrund ungünstig gewählter DFT–Parameter.&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_1_S2.png|right|frame|Abbruchfehler bei einer DFT mit&amp;amp;nbsp; $N = 16$]]&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp;&lt;br /&gt;
Die Grafik zeigt das Ergebnis der DFT für gleiches&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; und&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; sowie gleiches&amp;amp;nbsp; $N = 16$&amp;amp;nbsp; wie im&amp;amp;nbsp; [[Signal_Representation/Possible_Errors_When_Using_DFT#Der_mittlere_quadratische_Fehler_als_Qualit.C3.A4tskriterium|$\text{Beispiel 1}$]], aber nun mit demgegenüber um den Faktor&amp;amp;nbsp; $2$&amp;amp;nbsp; feinerer Abtastung im Zeitbereich: &lt;br /&gt;
:$$T_{\rm A}/T = 0.125 &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; &amp;amp;nbsp; f_{\rm A} \cdot T = 0.5.$$&lt;br /&gt;
&lt;br /&gt;
Der Vergleich mit&amp;amp;nbsp; [[Signal_Representation/Possible_Errors_When_Using_DFT#Der_mittlere_quadratische_Fehler_als_Qualit.C3.A4tskriterium|Beispiel 1]]&amp;amp;nbsp; $(T_{\rm A}/T = 0.25 \ \Rightarrow \  f_{\rm A} \cdot T = 0.25)$&amp;amp;nbsp; zeigt:&lt;br /&gt;
*Der Abstand der  Frequenzabtastwerte wird größer:&amp;amp;nbsp; $f_{\rm A} \cdot T = 0.5$.&lt;br /&gt;
*Gleichzeitig verringert sich&amp;amp;nbsp; $T_{\rm P}/T$&amp;amp;nbsp; von&amp;amp;nbsp; $4$&amp;amp;nbsp; auf&amp;amp;nbsp; $2$.&lt;br /&gt;
*Damit werden nun nur noch die Signalanteile im Bereich&amp;amp;nbsp; $\vert t \vert &amp;lt; T$&amp;amp;nbsp; durch die DFT erfasst.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Zusammengefasst:''' &amp;lt;br&amp;gt;Mit diesen DFT–Parametern entsteht ein&amp;amp;nbsp; '''Abbruchfehler''', durch den der mittlere quadratische Fehler&amp;amp;nbsp; $\rm (MQF)$&amp;amp;nbsp; signifikant von&amp;amp;nbsp; $10^{-12}$ auf $4 \cdot 10^{-5}$&amp;amp;nbsp; vergrößert wird. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wir verweisen nochmals auf das Lernvideo &amp;lt;br&amp;gt;[[Fehlermöglichkeiten_bei_Anwendung_der_DFT_(Lernvideo)|Fehlermöglichkeiten bei Anwendung der DFT]]. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==DFT-Verfälschung durch Abtastung &amp;amp;ndash; Aliasingfehler==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Auch eine ungeeignete Abtastung der Zeitfunktion&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; kann das DFT–Ergebnis signifikant verfälschen. Dieser so genannte&amp;amp;nbsp; '''Aliasingfehler'''&amp;amp;nbsp; lässt sich wie folgt erklären:&lt;br /&gt;
*Die Abtastung von&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; im Abstand&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; bewirkt eine periodische Fortsetzung des Spektrums bei Vielfachen der Periodisierungsfrequenz&amp;amp;nbsp; $f_{\rm P} = 1/T_{\rm A}$.&lt;br /&gt;
*Besitzt das Spektrum&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; auch Spektralanteile bei&amp;amp;nbsp; $|f| &amp;gt; f_{\rm P}/2$, so ist das Abtasttheorem nicht erfüllt und es kommt zu Überlappungen der zu addierenden, verschobenen Frequenzanteile.&lt;br /&gt;
*Nur bei bandbegrenztem Signal kann der Aliasingfehler durch geeignete DFT–Parameter vermieden werden. Dagegen ist bei zeitlich begrenzten, impulsartigen Signalen dieser Fehler unvermeidbar, da zeitbegrenzte Signale nicht gleichzeitig bandbegrenzt sein können.&lt;br /&gt;
*Der Aliasingfehler wird durch eine feinere Abtastung&amp;amp;nbsp; $($also: &amp;amp;nbsp; kleineres&amp;amp;nbsp; $T_{\rm A} = 1/f_{\rm P})$&amp;amp;nbsp; kleiner. Dies erreicht man bei gleichbleibendem&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; – um den Abbruchfehler nicht anwachsen zu lassen – allerdings nur durch ein größeres&amp;amp;nbsp; $N$&amp;amp;nbsp; und damit einen größeren Rechenaufwand.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Das folgende&amp;amp;nbsp; $\text{Beispiel 3}$&amp;amp;nbsp; zeigt einen solchen Aliasingfehler aufgrund falsch gewählter DFT–Parameter: &lt;br /&gt;
*Gegenüber dem &amp;amp;bdquo;Vergleichssystem&amp;amp;rdquo; gemäß&amp;amp;nbsp; [[Signal_Representation/Possible_Errors_When_Using_DFT#Der_mittlere_quadratische_Fehler_als_Qualit.C3.A4tskriterium|$\text{Beispiel 1}$]]&amp;amp;nbsp;  ist&amp;amp;nbsp; $T_{\rm A}$&amp;amp;nbsp; zu groß und&amp;amp;nbsp; $f_{\rm A}$&amp;amp;nbsp; zu klein dimensioniert. &lt;br /&gt;
*Die Stützstellenanzahl ist in beiden Fällen&amp;amp;nbsp; $N = 16$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:EN_Sig_T_5_1_S3._neu.png|right|frame|Aliasingfehler bei einer DFT mit&amp;amp;nbsp; $N = 16$]]&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp;&lt;br /&gt;
Die DFT–Parameter seien&amp;amp;nbsp; $N = 16$&amp;amp;nbsp; und&amp;amp;nbsp; $f_{\rm A} \cdot T= 0.125$. Somit ergibt sich für die drei anderen DFT–Parameter:&lt;br /&gt;
* $T_{\rm P}/T = 8.0 \hspace{0.5cm} \text{(Beispiel 1:} \ \ T_{\rm P}/T = 4)$,&lt;br /&gt;
* $f_{\rm P} \cdot T = 2.0 \hspace{0.45cm} \text{(Beispiel 1:} \ \ f_{\rm P} \cdot T = 4)$,&lt;br /&gt;
* $T_{\rm A}/T = 0.5\hspace{0.45cm} \text{(Beispiel 1:} \ \ T_{\rm A}/T = 0.25)$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Daraus ergeben sich folgende Konsequenzen:&lt;br /&gt;
*Der Abbruchfehler spielt wegen&amp;amp;nbsp; $T_{\rm P} /T = 8$&amp;amp;nbsp; weiterhin keine Rolle (schon&amp;amp;nbsp; $T_{\rm P} /T = 4$&amp;amp;nbsp; war ausreichend).&lt;br /&gt;
*Wegen&amp;amp;nbsp; $f_{\rm P}  \cdot T = 2$&amp;amp;nbsp; entsteht nun allerdings Aliasing, weil die DFT von der Summe vieler Gaußfunktionen im Abstand&amp;amp;nbsp; $f_{\rm P}  \cdot T = 2$&amp;amp;nbsp; ausgeht (dünn gestrichelte Kurven in der Grafik ).&lt;br /&gt;
*Die einzelnen DFT–Koeffizienten werden unterschiedlich verfälscht: &amp;amp;nbsp; Der mittlere DFT–Koeffizient&amp;amp;nbsp; $($für die Frequenz&amp;amp;nbsp; $f = 0)$&amp;amp;nbsp; ist nahezu richtig, während die Fehler der DFT–Koeffizienten zu den Rändern hin deutlich zunehmen.&lt;br /&gt;
*Im betrachteten Beispiel ist der DFT–Koeffizient für&amp;amp;nbsp; $f \cdot T = -1$&amp;amp;nbsp; doppelt so groß als er sein sollte, da die Gaußfunktion mit dem Zentrum bei&amp;amp;nbsp; $f \cdot T = -2$&amp;amp;nbsp; den gleichen Beitrag liefert wie die eigentliche Gaußfunktion um&amp;amp;nbsp; $f \cdot T = 0$&amp;amp;nbsp; (siehe gelbe Hinterlegung).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Somit ergibt sich hier mit&amp;amp;nbsp; $\text{MQF} \approx 2 \cdot 10^{-4}$&amp;amp;nbsp; ein viermal größerer Fehlerwert als durch den Abbruchfehler im&amp;amp;nbsp; [[Signal_Representation/Possible_Errors_When_Using_DFT#DFT-Verf.C3.A4lschung_durch_Fensterung_.E2.80.93_Abbruchfehler|$\text{Beispiel 2}$]]. &lt;br /&gt;
&lt;br /&gt;
Wir verweisen nochmals auf das Lernvideo&amp;amp;nbsp; [[Fehlermöglichkeiten_bei_Anwendung_der_DFT_(Lernvideo)|Fehlermöglichkeiten bei Anwendung der DFT]]. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel== &lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:Exercise 5.3: Mean Square Error|Exercise 5.3: Mean Square Error]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Exercise 5.3Z: Zero-Padding|Exercise 5.3Z: Zero-Padding]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.3Z:_Zero-Padding&amp;diff=35302</id>
		<title>Aufgaben:Exercise 5.3Z: Zero-Padding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Aufgaben:Exercise_5.3Z:_Zero-Padding&amp;diff=35302"/>
		<updated>2020-11-29T18:53:40Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: Oezdemir moved page Aufgaben:Aufgabe 5.3Z: Zero-Padding to Aufgaben:Exercise 5.3Z: Zero-Padding&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
{{quiz-Header|Buchseite=Signal_Representation/Possible_Errors_When_Using_DFT&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1146__Sig_Z_5_3_neu.png|right|frame|$\rm MQF$&amp;amp;ndash;Werte als Funktion von&amp;amp;nbsp; $T_{\rm A} /T$&amp;amp;nbsp; und&amp;amp;nbsp; $N$]]&lt;br /&gt;
Wir betrachten die DFT eines Rechteckimpulses&amp;amp;nbsp; $x(t)$&amp;amp;nbsp; der Höhe&amp;amp;nbsp; $A =1$&amp;amp;nbsp; und der Dauer&amp;amp;nbsp; $T$. Damit hat die Spektralfunktion&amp;amp;nbsp; $X(f)$&amp;amp;nbsp; einen&amp;amp;nbsp; $\sin(f)/f$–förmigen Verlauf.&lt;br /&gt;
&lt;br /&gt;
Für diesen Sonderfall soll der Einfluss des DFT–Parameters&amp;amp;nbsp; $N$&amp;amp;nbsp; analysiert werden, wobei der Stützstellenabstand im Zeitbereich stets&amp;amp;nbsp; $T_{\rm A} = 0.01T$&amp;amp;nbsp; bzw.&amp;amp;nbsp; $T_{\rm A} = 0.05T$&amp;amp;nbsp; betragen soll.&lt;br /&gt;
&lt;br /&gt;
Nebenstehend sind für unterschiedliche Werte von&amp;amp;nbsp; $N$&amp;amp;nbsp; die sich ergebenden Werte für den ''mittleren quadratischen Fehler''&amp;amp;nbsp; (MQF) der Stützwerte im Frequenzbereich angegeben:&lt;br /&gt;
:$${\rm MQF} =  \frac{1}{N}\cdot \sum_{\mu = 0 }^{N-1}&lt;br /&gt;
 \left|X(\mu \cdot f_{\rm A})-\frac{D(\mu)}{f_{\rm A}}\right|^2 \hspace{0.05cm}.$$&lt;br /&gt;
Für&amp;amp;nbsp; $T_A/T = 0.01$&amp;amp;nbsp; sind somit stets&amp;amp;nbsp; $101$&amp;amp;nbsp; der DFT–Koeffizienten&amp;amp;nbsp; $d(ν)$&amp;amp;nbsp; von Null verschieden.&lt;br /&gt;
&lt;br /&gt;
:* Davon besitzen&amp;amp;nbsp; $99$&amp;amp;nbsp; den Wert&amp;amp;nbsp; $1$&amp;amp;nbsp; und die beiden Randkoeffizienten sind jeweils gleich&amp;amp;nbsp; $0.5$.&lt;br /&gt;
&lt;br /&gt;
:* Vergrößert man&amp;amp;nbsp; $N$, so wird das DFT–Koeffizientenfeld mit Nullen aufgefüllt. &lt;br /&gt;
&lt;br /&gt;
:*Man spricht dann von ''„Zero–Padding”''.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Hinweise:'' &lt;br /&gt;
*Die Aufgabe gehört zum  Kapitel&amp;amp;nbsp; [[Signal_Representation/Possible_Errors_When_Using_DFT|Fehlermöglichkeiten bei Anwendung der DFT]].&lt;br /&gt;
 &lt;br /&gt;
*Die Theorie zu diesem Kapitel ist im Lernvideo&amp;amp;nbsp; [[Fehlermöglichkeiten_bei_Anwendung_der_DFT_(Lernvideo)|Fehlermöglichkeiten bei Anwendung der DFT]]&amp;amp;nbsp; zusammengefasst.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Fragebogen===&lt;br /&gt;
&lt;br /&gt;
&amp;lt;quiz display=simple&amp;gt;&lt;br /&gt;
{Welche Aussagen können aus den angegebenen MQF-Werten&amp;amp;nbsp; $($gültig für&amp;amp;nbsp; $T_{\rm A}/T = 0.01$&amp;amp;nbsp; und&amp;amp;nbsp; $N ≥ 128)$&amp;amp;nbsp; abgeleitet werden?&lt;br /&gt;
|type=&amp;quot;[]&amp;quot;}&lt;br /&gt;
+ Der&amp;amp;nbsp; $\rm MQF$–Wert ist hier nahezu unabhängig von&amp;amp;nbsp; $N$.&lt;br /&gt;
- Der&amp;amp;nbsp; $\rm MQF$–Wert wird durch den Abbruchfehler bestimmt.&lt;br /&gt;
+ Der&amp;amp;nbsp; $\rm MQF$–Wert wird durch den Aliasingfehler bestimmt.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{Es gelte&amp;amp;nbsp; $T_{\rm A}/T = 0.01$. Wie groß ist der Abstand&amp;amp;nbsp; $f_{\rm A}$&amp;amp;nbsp; benachbarter Abtastwerte im Frequenzbereich für&amp;amp;nbsp; $N = 128$&amp;amp;nbsp; und&amp;amp;nbsp; $N = 512$?&lt;br /&gt;
|type=&amp;quot;{}&amp;quot;}&lt;br /&gt;
$N = 128$: &amp;amp;nbsp; &amp;amp;nbsp;  $f_{\rm A} \cdot T \ = \ $   { 0.781 3% }&lt;br /&gt;
$N = 512$: &amp;amp;nbsp; &amp;amp;nbsp;  $f_{\rm A} \cdot T \ = \ $ { 0.196 3% }&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{Was sagt das Produkt&amp;amp;nbsp; $\text{MQF} \cdot f_{\rm A}$&amp;amp;nbsp; hinsichtlich der DFT–Qualität aus?&lt;br /&gt;
|type=&amp;quot;[]&amp;quot;}&lt;br /&gt;
+ Das Produkt&amp;amp;nbsp; $\text{MQF} \cdot f_{\rm A}$&amp;amp;nbsp; berücksichtigt die Genauigkeit und die Dichte der DFT–Werte.&lt;br /&gt;
- Das Produkt&amp;amp;nbsp; $\text{MQF} \cdot f_{\rm A}$&amp;amp;nbsp; sollte möglichst groß sein.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{Es wird nun&amp;amp;nbsp; $N = 128$&amp;amp;nbsp; fest vorgegeben. Welche Aussagen gelten für den Vergleich der DFT–Ergebnisse mit&amp;amp;nbsp; $T_{\rm A}/T = 0.01$&amp;amp;nbsp; und&amp;amp;nbsp; $T_{\rm A}/T = 0.05$ ?&lt;br /&gt;
|type=&amp;quot;[]&amp;quot;}&lt;br /&gt;
+ Mit&amp;amp;nbsp; $T_{\rm A}/T = 0.05$&amp;amp;nbsp; erhält man eine feinere Frequenzauflösung.&lt;br /&gt;
- Mit&amp;amp;nbsp; $T_{\rm A}/T = 0.05$&amp;amp;nbsp; ist der&amp;amp;nbsp; $\rm MQF$–Wert kleiner.&lt;br /&gt;
- Mit&amp;amp;nbsp; $T_{\rm A}/T = 0.05$&amp;amp;nbsp; nimmt der Einfluss des Abbruchfehlers ab.&lt;br /&gt;
+ Mit&amp;amp;nbsp; $T_{\rm A}/T = 0.05$&amp;amp;nbsp; wächst der Einfluss des Aliasingfehlers.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{Nun gelte&amp;amp;nbsp; $N = 64$. Welche Aussagen treffen für den Vergleich der DFT–Ergebnisse mit&amp;amp;nbsp; $T_{\rm A}/T = 0.01$&amp;amp;nbsp; und&amp;amp;nbsp; $T_{\rm A}/T = 0.05$&amp;amp;nbsp; zu?&lt;br /&gt;
|type=&amp;quot;[]&amp;quot;}&lt;br /&gt;
+ Mit&amp;amp;nbsp; $T_{\rm A}/T = 0.05$&amp;amp;nbsp; erhält man eine feinere Frequenzauflösung.&lt;br /&gt;
+ Mit&amp;amp;nbsp; $T_{\rm A}/T = 0.05$&amp;amp;nbsp; ist der&amp;amp;nbsp; $\rm MQF$–Wert kleiner.&lt;br /&gt;
+ Mit&amp;amp;nbsp; $T_{\rm A}/T = 0.05$&amp;amp;nbsp; nimmt der Einfluss des Abbruchfehlers ab.&lt;br /&gt;
+ Mit&amp;amp;nbsp; $T_{\rm A}/T = 0.05$&amp;amp;nbsp; wächst der Einfluss des Aliasingfehlers.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;/quiz&amp;gt;&lt;br /&gt;
&lt;br /&gt;
===Musterlösung===&lt;br /&gt;
{{ML-Kopf}}&lt;br /&gt;
'''(1)'''&amp;amp;nbsp;  Richtig sind die &amp;lt;u&amp;gt;Lösungsvorschläge 1 und 3&amp;lt;/u&amp;gt;:&lt;br /&gt;
*Bereits mit&amp;amp;nbsp; $N = 128$&amp;amp;nbsp; ist&amp;amp;nbsp; $T_{\rm P} = 1.28 \cdot T$, also größer als die Breite des Rechtecks. &lt;br /&gt;
*Somit spielt hier der Abbruchfehler überhaupt keine Rolle. &lt;br /&gt;
*Der&amp;amp;nbsp; $\rm MQF$–Wert wird allein durch den Aliasingfehler bestimmt. &lt;br /&gt;
*Die Zahlenwerte bestätigen eindeutig, dass&amp;amp;nbsp; $\rm MQF$&amp;amp;nbsp; (nahezu) unabhängig von&amp;amp;nbsp; $N$&amp;amp;nbsp; ist. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(2)'''&amp;amp;nbsp;  Aus&amp;amp;nbsp; $T_{\rm A}/T = 0.01$&amp;amp;nbsp; folgt&amp;amp;nbsp; $f_{\rm P} \cdot T = 100$. &lt;br /&gt;
*Die Stützwerte von&amp;amp;nbsp; $X(f)$ liegen also im Bereich&amp;amp;nbsp; $–50 ≤ f \cdot T &amp;lt; +50$. &lt;br /&gt;
*Für den Abstand zweier Abtastwerte im Frequenzbereich gilt&amp;amp;nbsp; $f_{\rm A} = f_{\rm P}/N$. Daraus ergeben sich folgende Ergebnisse: &lt;br /&gt;
:*$N = 128$: &amp;amp;nbsp; $f_{\rm A} \cdot T \; \underline{\approx 0.780}$,&lt;br /&gt;
:*$N = 512$: &amp;amp;nbsp; $f_{\rm A} \cdot T \; \underline{\approx 0.195}$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(3)'''&amp;amp;nbsp;  Richtig ist die &amp;lt;u&amp;gt;erste Aussage&amp;lt;/u&amp;gt;:&lt;br /&gt;
*Für&amp;amp;nbsp; $N = 128$&amp;amp;nbsp; ergibt sich für das Produkt&amp;amp;nbsp; $\text{MQF} \cdot f_{\rm A} \approx 4.7 \cdot 10^{-6}/T$. Für&amp;amp;nbsp; $N = 512$&amp;amp;nbsp; ist das Produkt etwa um den Faktor&amp;amp;nbsp; $4$&amp;amp;nbsp; kleiner. &lt;br /&gt;
*Das heißt: &amp;amp;nbsp; Durch „Zero–Padding” wird keine größere DFT-Genauigkeit erzielt, dafür aber eine feinere „Auflösung” des Frequenzbereichs. &lt;br /&gt;
*Das Produkt&amp;amp;nbsp; $\text{MQF} \cdot f_{\rm A}$&amp;amp;nbsp; berücksichtigt diese Tatsache; es sollte stets möglichst klein sein. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(4)'''&amp;amp;nbsp;  Richtig sind die &amp;lt;u&amp;gt;Lösungsvorschläge 1 und 4&amp;lt;/u&amp;gt;:&lt;br /&gt;
*Wegen&amp;amp;nbsp; $T_{\rm A} \cdot f_{\rm A} \cdot N = 1$&amp;amp;nbsp; ergibt sich bei konstantem&amp;amp;nbsp; $N$&amp;amp;nbsp; immer dann ein kleinerer&amp;amp;nbsp; $f_{\rm A}$–Wert, wenn man $T_{\rm A}$ vergrößert. &lt;br /&gt;
*Aus der Tabelle auf der Angabenseite erkennt man, dass damit der mittlere quadratische Fehler&amp;amp;nbsp; $\rm (MQF)$&amp;amp;nbsp; signifikant&amp;amp;nbsp; $($etwa um den Faktor&amp;amp;nbsp; $400)$&amp;amp;nbsp; vergrößert wird. &lt;br /&gt;
*Der Effekt geht auf den Aliasingfehler zurück, da durch den Übergang von&amp;amp;nbsp; $T_{\rm A}/T = 0.01$&amp;amp;nbsp; auf&amp;amp;nbsp; $T_{\rm A}/T = 0.05$&amp;amp;nbsp; die Frequenzperiode um den Faktor&amp;amp;nbsp; $5$&amp;amp;nbsp; kleiner wird. &lt;br /&gt;
*Der Abbruchfehler spielt dagegen  beim Rechteckimpuls weiterhin keine Rolle, solange&amp;amp;nbsp; $T_{\rm P} = N \cdot T_{\rm A}$&amp;amp;nbsp; größer ist als die Impulsdauer&amp;amp;nbsp; $T$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(5)'''&amp;amp;nbsp;  &amp;lt;u&amp;gt;Alle Aussagen treffen zu&amp;lt;/u&amp;gt;:&lt;br /&gt;
* Mit den Parameterwerten&amp;amp;nbsp; $N = 64$&amp;amp;nbsp; und&amp;amp;nbsp; $T_{\rm A}/T = 0.01$&amp;amp;nbsp; tritt ein extrem großer Abbruchfehler auf. &lt;br /&gt;
*Alle Zeitkoeffizienten sind hier&amp;amp;nbsp; $1$, so dass die DFT fälschlicherweise ein Gleichsignal anstelle der Rechteckfunktion interpretiert.&lt;br /&gt;
{{ML-Fuß}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__NOEDITSECTION__&lt;br /&gt;
[[Category:Exercises for Signal Representation|^5.3 Possible DFT Errors^]]&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Aufgaben:Aufgabe_5.3Z:_Zero-Padding&amp;diff=35303</id>
		<title>Aufgaben:Aufgabe 5.3Z: Zero-Padding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Aufgaben:Aufgabe_5.3Z:_Zero-Padding&amp;diff=35303"/>
		<updated>2020-11-29T18:53:40Z</updated>

		<summary type="html">&lt;p&gt;Oezdemir: Oezdemir moved page Aufgaben:Aufgabe 5.3Z: Zero-Padding to Aufgaben:Exercise 5.3Z: Zero-Padding&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECT [[Aufgaben:Exercise 5.3Z: Zero-Padding]]&lt;/div&gt;</summary>
		<author><name>Oezdemir</name></author>
		
	</entry>
</feed>