Difference between revisions of "Channel Coding/Algebraic and Polynomial Description"

From LNTwww
Line 84: Line 84:
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
 
$\text{Example 2:}$    
 
$\text{Example 2:}$    
Mit den zwei Matrizen  $\mathbf{G}_0$  und  $\mathbf{G}_1$  – siehe  [[Channel_Coding/Algebraische_und_polynomische_Beschreibung#Aufteilung_der_Generatormatrix_in_Teilmatrizen| $\text{Beispiel 1}$]]  – erhält man die rechts skizzierte Matrix  $\mathbf{G}$.
+
With the two matrices  $\mathbf{G}_0$  and  $\mathbf{G}_1$  – see  [[Channel_Coding/Algebraic_and_Polynomial_Description#Division_of_the_generator_matrix_into_partial_matrices| $\text{"Example 1"}$]]  – the matrix sketched on the right  $\mathbf{G}$ is obtained.
  
Anzumerken ist:
+
It should be noted:
*Die Generatormatrix  $\mathbf{G}$  erstreckt sich nach unten und nach rechts eigentlich bis ins Unendliche. Explizit dargestellt sind aber nur acht Zeilen und zwölf Spalten.
+
*The generator matrix  $\mathbf{G}$  actually extends downwards and to the right to infinity. Explicitly shown, however, are only eight rows and twelve columns.
  
*Für die zeitlich begrenzte Informationssequenz  $\underline{u} = (0, 1, 1, 0, 0, 0, 1, 1)$  ist der gezeichnete Matrixteil ausreichend. Die Codesequenz lautet dann:  
+
*For the temporal information sequence  $\underline{u} = (0, 1, 1, 0, 0, 0, 1, 1)$  the drawn matrix part is sufficient. The code sequence is then:  
 
:$$\underline{x} = (0, 1, 1, 0, 0, 1, 1, 1, 1, 1, 1, 0).$$
 
:$$\underline{x} = (0, 1, 1, 0, 0, 1, 1, 1, 1, 1, 1, 0).$$
  
*Anhand der Beschriftungsfarben lassen sich die  $n = 3$  Codewortstränge ablesen.  
+
*On the basis of the label colors, the  $n = 3$  codeword strings can be read.  
*Das gleiche Ergebnis haben wir (auf anderem Wege) im  [[Channel_Coding/Grundlagen_der_Faltungscodierung#Faltungscodierer_mit_zwei_Eing.C3.A4ngen| $\text{Beispiel 4}$]]  am Ende des letzten Kapitels erhalten:
+
*We got the same result (in a different way) in the  [[Channel_Coding/Basics_of_Convolutional_Coding#Convolutional_encoder_with_two_inputs| $\text{"Example 4"}$]]  at the end of the last chapter:
 
:$$\underline{\it x}^{(1)} = (0\hspace{0.05cm}, 0\hspace{0.05cm}, 1\hspace{0.05cm}, 1) \hspace{0.05cm},\hspace{0.5cm}
 
:$$\underline{\it x}^{(1)} = (0\hspace{0.05cm}, 0\hspace{0.05cm}, 1\hspace{0.05cm}, 1) \hspace{0.05cm},\hspace{0.5cm}
 
\underline{\it x}^{(2)} = (1\hspace{0.05cm}, 0\hspace{0.05cm},1\hspace{0.05cm}, 1) \hspace{0.05cm},\hspace{0.5cm}
 
\underline{\it x}^{(2)} = (1\hspace{0.05cm}, 0\hspace{0.05cm},1\hspace{0.05cm}, 1) \hspace{0.05cm},\hspace{0.5cm}
 
  \underline{\it x}^{(3)} = (1\hspace{0.05cm}, 1\hspace{0.05cm}, 1\hspace{0.05cm}, 0) \hspace{0.05cm}.$$}}<br>
 
  \underline{\it x}^{(3)} = (1\hspace{0.05cm}, 1\hspace{0.05cm}, 1\hspace{0.05cm}, 0) \hspace{0.05cm}.$$}}<br>
  
== Generatormatrix für Faltungscodierer der Rate 1/''n'' ==
+
== Generator matrix for convolutional encoder of rate 1/''n'' ==
 
<br>
 
<br>
Wir betrachten nun den Sonderfall&nbsp; $k = 1$,  
+
We now consider the special case&nbsp; $k = 1$,  
*zum einen aus Gründen einer möglichst einfachen Darstellung,  
+
*on the one hand for reasons of simplest possible representation,  
*aber auch, weil Faltungscodierer der Rate&nbsp; $1/n$&nbsp; für die Praxis eine große Bedeutung besitzen.<br><br>
+
*but also because convolutional coders of rate&nbsp; $1/n$&nbsp; have great importance for practice.<br><br>
  
[[File:P ID2602 KC T 3 2 S3a.png|right|frame|Faltungscoder mit&nbsp; $k = 1, \ n = 2, \ m = 1$]]
+
[[File:P ID2602 KC T 3 2 S3a.png|right|frame|Convolutional encoder with&nbsp; $k = 1, \ n = 2, \ m = 1$]]
<b>Faltungscodierer mit&nbsp; $k = 1, \ n = 2, \ m = 1$</b><br>
+
<b>Convolutional encoder with&nbsp; $k = 1, \ n = 2, \ m = 1$</b><br>
  
Aus nebenstehender Skizze kann abgeleitet werden:
+
From the adjacent sketch can be derived:
  
 
::<math>{ \boldsymbol{\rm G}}_0=\begin{pmatrix}
 
::<math>{ \boldsymbol{\rm G}}_0=\begin{pmatrix}
Line 123: Line 123:
 
\end{pmatrix}\hspace{0.05cm}.</math>
 
\end{pmatrix}\hspace{0.05cm}.</math>
  
Für die Eingangssequenz&nbsp; $\underline{u} = (1, 0, 1, 1)$&nbsp; beginnt die Codesequenz mit&nbsp; $\underline{x} = (1, 1, 0, 1, 1, 1, 1, 0, \ \text{...})$. <br>Dieses Ergebnis ist gleich der Summe der Zeilen 1, 3 und 4 der Generatormatrix.<br><br>
+
For the input sequence&nbsp; $\underline{u} = (1, 0, 1, 1)$&nbsp; the code sequence starts with&nbsp; $\underline{x} = (1, 1, 0, 1, 1, 1, 1, 0, \ \text{...})$. <br>This result is equal to the sum of rows 1, 3 and 4 of the generator matrix.<br><br>
  
[[File:P ID2603 KC T 3 2 S3b.png|right|frame|Faltungscoder mit&nbsp; $k = 1, \ n = 2, \ m = 2$]]
+
[[File:P ID2603 KC T 3 2 S3b.png|right|frame|Convolutional encoder with&nbsp; $k = 1, \ n = 2, \ m = 2$]]
<b>Faltungscodierer mit&nbsp; $k = 1, \ n = 2, \ m = 2$</b><br>
+
<b>Convolutional encoder with&nbsp; $k = 1, \ n = 2, \ m = 2$</b><br>
  
Aufgrund der Gedächtnisordnung&nbsp; $m = 2$&nbsp; gibt es hier drei Teilmatrizen:
+
Due to the memory order&nbsp; $m = 2$&nbsp; there are three submatrices here:
  
 
::<math>{ \boldsymbol{\rm G}}_0=\begin{pmatrix}
 
::<math>{ \boldsymbol{\rm G}}_0=\begin{pmatrix}
Line 140: Line 140:
 
\end{pmatrix}</math>
 
\end{pmatrix}</math>
  
Damit lautet die resultierende Generatormatrix:
+
Thus, the resulting generator matrix is:
  
 
::<math> { \boldsymbol{\rm G}}=\begin{pmatrix}
 
::<math> { \boldsymbol{\rm G}}=\begin{pmatrix}
Line 150: Line 150:
 
\end{pmatrix}\hspace{0.05cm}.</math>
 
\end{pmatrix}\hspace{0.05cm}.</math>
  
Hier führt die Eingangsssequenz&nbsp; $\underline{u} = (1, 0, 1, 1)$&nbsp; zur Codesequenz&nbsp; $\underline{x} = (1, 1, 1, 0, 0, 0, 0, 1, \ \text{...})$.<br><br>
+
Here the input sequence&nbsp; $\underline{u} = (1, 0, 1, 1)$&nbsp; leads to the code sequence&nbsp; $\underline{x} = (1, 1, 1, 0, 0, 0, 0, 1, \ \text{...})$.<br><br>
  
[[File:P ID2604 KC T 3 2 S3c.png|right|frame|Faltungscoder mit&nbsp; $k = 1, \ n = 3, \ m = 3$]]
+
[[File:P ID2604 KC T 3 2 S3c.png|right|frame|Convolutional encoder with&nbsp; $k = 1, \ n = 3, \ m = 3$]]
<b>Faltungscodierer mit $k = 1, \ n = 3, \ m = 3$</b>
+
<b>Convolutional encoder with $k = 1, \ n = 3, \ m = 3$</b>
  
Wegen&nbsp; $m = 3$&nbsp; gibt es nun vier Teilmatrizen der jeweiligen Dimension&nbsp; $1 &times; 3$:
+
Because of&nbsp; $m = 3$&nbsp; there are now four partial matrices of the respective dimension&nbsp; $1 &times; 3$:
  
 
::<math>{ \boldsymbol{\rm G}}_0=\begin{pmatrix}
 
::<math>{ \boldsymbol{\rm G}}_0=\begin{pmatrix}
Line 170: Line 170:
 
\end{pmatrix}\hspace{0.05cm}.</math>
 
\end{pmatrix}\hspace{0.05cm}.</math>
  
Damit lautet die resultierende Generatormatrix:
+
Thus, the resulting generator matrix is:
  
 
::<math>{ \boldsymbol{\rm G}}=\begin{pmatrix}
 
::<math>{ \boldsymbol{\rm G}}=\begin{pmatrix}
Line 180: Line 180:
 
\end{pmatrix}\hspace{0.05cm},</math>
 
\end{pmatrix}\hspace{0.05cm},</math>
  
und man erhält für&nbsp; $\underline{u} = (1, 0, 1, 1)$&nbsp; die Codesequenz&nbsp; $\underline{x} = (1, 1, 0, 0, 0, 1, 1, 1, 1, 1, 0, 0, \ \text{...})$.<br>
+
and one obtains for&nbsp; $\underline{u} = (1, 0, 1, 1)$&nbsp; the code sequence&nbsp; $\underline{x} = (1, 1, 0, 0, 0, 1, 1, 1, 1, 1, 0, 0, \ \text{...})$.<br>
  
== GF(2)–Beschreibungsformen eines Digitalen Filters ==
+
== GF(2) description forms of a digital filter ==
 
<br>
 
<br>
[[File:P ID2605 KC T 3 2 S4 v1.png|right|frame|Digitales Filter in&nbsp; ${\rm GF}(2)$&nbsp; der Ordnung&nbsp; $m$|class=fit]]
+
[[File:P ID2605 KC T 3 2 S4 v1.png|right|frame|Digital filter in&nbsp; ${\rm GF}(2)$&nbsp; of order&nbsp; $m$|class=fit]]
Im Kapitel&nbsp; [[Channel_Coding/Grundlagen_der_Faltungscodierung#Rate.E2.80.931.2F2.E2.80.93Faltungscodierer_.282.29| Grundlagen der Faltungscodierung]]&nbsp; wurde bereits darauf hingewiesen,  
+
In the chapter&nbsp; [[Channel_Coding/Basics_of_Convolutional_Coding#Rate_1.2F2_convolutional_encoder| "Basics of Convolutional Coding"]]&nbsp; it was already pointed out,  
*dass ein Rate&nbsp; $1/n$&ndash;Faltungscodierer durch mehrere Digitale Filter realisiert werden kann,  
+
*that a rate&nbsp; $1/n$ convolutional encoder can be realized by several digital filters,  
*wobei die Filter parallel mit der gleichen Eingangsfolge&nbsp; $\underline{u}$&nbsp; arbeiten.  
+
*where the filters operate in parallel with the same input sequence&nbsp; $\underline{u}$&nbsp;.  
  
  
Bevor wir diese Aussage vertiefen, sollen zuerst die Eigenschaften eines Digitalfilters für das Galoisfeld&nbsp; ${\rm GF(2)}$&nbsp; genannt werden.
+
Before we elaborate on this statement, we shall first mention the properties of a digital filter for the Galois field&nbsp; ${\rm GF(2)}$&nbsp;.
  
  
Die Grafik ist wie folgt zu interpretieren:
+
The graph is to be interpreted as follows:
*Das Filter besitzt die Impulsantwort&nbsp; $\underline{g} = (g_0, g_1, g_2, \ \text{...} \ , g_m)$.
+
*The filter has impulse response&nbsp; $\underline{g} = (g_0, g_1, g_2, \ \text{...} \ , g_m)$.
* Für alle Filterkoeffizienten $($mit den Indizes&nbsp; $0 &#8804; l &#8804; m)$&nbsp; gilt: &nbsp; $g_l &#8712; {\rm GF}(2) = \{0, 1\}$.<br>
+
* For all filter coefficients $($with indices&nbsp; $0 &#8804; l &#8804; m)$&nbsp; holds: &nbsp; $g_l &#8712; {\rm GF}(2) = \{0, 1\}$.<br>
  
*Die einzelnen Symbole&nbsp; $u_i$&nbsp; der Eingangsfolge&nbsp; $\underline{u}$&nbsp; seien ebenfalls binär: &nbsp; $u_i &#8712; \{0, 1\}$.  
+
*The individual symbols&nbsp; $u_i$&nbsp; of the input sequence&nbsp; $\underline{u}$&nbsp; are also binary: &nbsp; $u_i &#8712; \{0, 1\}$.  
*Damit gilt für das Ausgangssymbol zu den Zeitpunkten&nbsp; $i &#8805; 1$&nbsp; mit Addition und Multiplikation in&nbsp; ${\rm GF(2)}$:
+
*Thus, for the output symbol at times&nbsp; $i &#8805; 1$&nbsp; with addition and multiplication in&nbsp; ${\rm GF(2)}$:
  
 
::<math>x_i = \sum_{l = 0}^{m} g_l \cdot u_{i-l} \hspace{0.05cm}.</math>
 
::<math>x_i = \sum_{l = 0}^{m} g_l \cdot u_{i-l} \hspace{0.05cm}.</math>
  
*Dies entspricht der (zeitdiskreten)&nbsp; [[Signal_Representation/The_Convolution_Theorem_and_Operation#Faltung_im_Zeitbereich| Faltungsoperation]]&nbsp; (englisch: &nbsp;<i>Convolution</i>&nbsp;), gekennzeichnet durch einen Stern. Damit kann für die gesamte Ausgangssequenz geschrieben werden:
+
*This corresponds to the (discrete time)&nbsp; [[Signal_Representation/The_Convolution_Theorem_and_Operation#Convolution_in_the_time_domain| "convolution"]]&nbsp;, denoted by an asterisk. This can be used to write for the entire output sequence:
  
 
::<math>\underline{x} = \underline{u} * \underline{g}\hspace{0.05cm}.</math>
 
::<math>\underline{x} = \underline{u} * \underline{g}\hspace{0.05cm}.</math>
  
*Wesentlicher Unterschied gegenüber dem Kapitel&nbsp; [[Theory_of_Stochastic_Signals/Digitale_Filter| Digitale Filter]]&nbsp; im Buch "Stochastische Signaltheorie" ist die Modulo&ndash;2&ndash;Addition&nbsp; $(1 + 1 = 0)$&nbsp; anstelle der herkömmlichen Addition&nbsp; $(1 + 1 = 2)$.<br><br>
+
*Major difference compared to the chapter&nbsp; [[Theory_of_Stochastic_Signals/Digital_Filters| "Digital Filters"]]&nbsp; in the book "Theory of Stochastic Signals" is the modulo 2 addition&nbsp; $(1 + 1 = 0)$&nbsp; instead of the conventional addition&nbsp; $(1 + 1 = 2)$.<br><br>
  
[[File:P ID2606 KC T 3 2 S4b.png|right|frame|Digitales Filter mit Impulsantwort&nbsp; $(1, 0, 1, 1)$]]  
+
[[File:P ID2606 KC T 3 2 S4b.png|right|frame|Digital filter with impulse response&nbsp; $(1, 0, 1, 1)$]]  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 3:}$&nbsp;   
+
$\text{Example 3:}$&nbsp;   
Die Impulsantwort des dargestellten Digitalen Filters dritter Ordnung lautet: &nbsp; $\underline{g} = (1, 0, 1, 1)$.
+
The impulse response of the third order digital filter shown is: &nbsp; $\underline{g} = (1, 0, 1, 1)$.
*Die Eingangssequenz dieses Filters sei zeitlich unbegrenzt: &nbsp; $\underline{u} = (1, 1, 0, 0, 0, \ \text{ ...})$.<br>
+
*Let the input sequence of this filter be unlimited in time: &nbsp; $\underline{u} = (1, 1, 0, 0, 0, \ \text{ ...})$.<br>
  
*Damit ergibt sich die (unendliche) Ausgangssequenz&nbsp; $\underline{x}$&nbsp; im binären Galoisfeld &nbsp; &#8658; &nbsp; ${\rm GF(2)}$:
+
*This gives the (infinite) initial sequence&nbsp; $\underline{x}$&nbsp; in the binary Galois field &nbsp; &#8658; &nbsp; ${\rm GF(2)}$:
  
 
::<math>\underline{x} = (\hspace{0.05cm}1,\hspace{0.05cm} 1,\hspace{0.05cm} 0,\hspace{0.05cm} 0,\hspace{0.05cm} 0, \hspace{0.05cm} \text{ ...} \hspace{0.05cm}) * (\hspace{0.05cm}1,\hspace{0.05cm} 0,\hspace{0.05cm} 1,\hspace{0.05cm} 1\hspace{0.05cm})</math>
 
::<math>\underline{x} = (\hspace{0.05cm}1,\hspace{0.05cm} 1,\hspace{0.05cm} 0,\hspace{0.05cm} 0,\hspace{0.05cm} 0, \hspace{0.05cm} \text{ ...} \hspace{0.05cm}) * (\hspace{0.05cm}1,\hspace{0.05cm} 0,\hspace{0.05cm} 1,\hspace{0.05cm} 1\hspace{0.05cm})</math>
Line 221: Line 221:
 
= (\hspace{0.05cm}1,\hspace{0.05cm}\hspace{0.05cm}1,\hspace{0.05cm} 1,\hspace{0.05cm} 0,\hspace{0.05cm} 1,\hspace{0.05cm} 0, \hspace{0.05cm} \text{ ...} \hspace{0.05cm}) \hspace{0.05cm}.</math>
 
= (\hspace{0.05cm}1,\hspace{0.05cm}\hspace{0.05cm}1,\hspace{0.05cm} 1,\hspace{0.05cm} 0,\hspace{0.05cm} 1,\hspace{0.05cm} 0, \hspace{0.05cm} \text{ ...} \hspace{0.05cm}) \hspace{0.05cm}.</math>
  
*Bei der herkömmlichen Faltung (für reelle Zahlen) hätte dagegen das Ergebnis gelautet:
+
*In the conventional convolution (for real numbers), on the other hand, the result would have been:
  
 
::<math>\underline{x}= (\hspace{0.05cm}1,\hspace{0.05cm}\hspace{0.05cm}1,\hspace{0.05cm} 1,\hspace{0.05cm} 2,\hspace{0.05cm} 1,\hspace{0.05cm} 0, \text{ ...} \hspace{0.05cm}) \hspace{0.05cm}.</math>}}<br>
 
::<math>\underline{x}= (\hspace{0.05cm}1,\hspace{0.05cm}\hspace{0.05cm}1,\hspace{0.05cm} 1,\hspace{0.05cm} 2,\hspace{0.05cm} 1,\hspace{0.05cm} 0, \text{ ...} \hspace{0.05cm}) \hspace{0.05cm}.</math>}}<br>
  
Zeitdiskrete Signale kann man aber auch durch Polynome bezüglich einer Dummy&ndash;Variablen repräsentieren.<br>
+
However, discrete time signals can also be represented by polynomials with respect to a dummy variable.<br>
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp;  Die zum zeitdiskreten Signal&nbsp; $\underline{x} = (x_0, x_1, x_2, \ \text{...})$&nbsp; gehörige&nbsp; $D$<b>&ndash;Transformierte</b>&nbsp; lautet:
+
$\text{Definition:}$&nbsp;  The $\underline{x} = (x_0, x_1, x_2, \ \text{...})$&nbsp; belonging to the discrete time signal&nbsp; $D$<b> transform</b>&nbsp; reads:
  
 
::<math>X(D) = x_0 + x_1 \cdot D + x_2 \cdot D^2 + \hspace{0.05cm}\text{...}\hspace{0.05cm}= \sum_{i = 0}^{\infty} x_i \cdot D\hspace{0.05cm}^i \hspace{0.05cm}.</math>
 
::<math>X(D) = x_0 + x_1 \cdot D + x_2 \cdot D^2 + \hspace{0.05cm}\text{...}\hspace{0.05cm}= \sum_{i = 0}^{\infty} x_i \cdot D\hspace{0.05cm}^i \hspace{0.05cm}.</math>
  
Für diese spezielle Transformation in einen Bildbereich verwenden wir auch folgende Notation, wobei "$D$" für&nbsp; ''Delay Operator''&nbsp; steht:
+
For this particular transformation to an image area, we also use the following notation, where "$D$" stands for&nbsp; ''delay operator''&nbsp;:
  
 
::<math>\underline{x} = (x_0, x_1, x_2,\hspace{0.05cm}...\hspace{0.05cm}) \quad
 
::<math>\underline{x} = (x_0, x_1, x_2,\hspace{0.05cm}...\hspace{0.05cm}) \quad
Line 238: Line 238:
 
X(D) =  \sum_{i = 0}^{\infty} x_i \cdot D\hspace{0.05cm}^i \hspace{0.05cm}.</math>}}<br>
 
X(D) =  \sum_{i = 0}^{\infty} x_i \cdot D\hspace{0.05cm}^i \hspace{0.05cm}.</math>}}<br>
  
''Hinweis'': &nbsp; In der Literatur wird manchmal&nbsp; $x(D)$&nbsp; anstelle von&nbsp; $X(D)$&nbsp; verwendet. Wir schreiben in unserem Lerntutorial aber alle Bildbereichsfunktionen mit Großbuchstaben, zum Beispiel die Fourier&ndash;, die Laplace&ndash; und die $D$&ndash;Transformation:
+
''Note'': &nbsp; In the literature, sometimes&nbsp; $x(D)$&nbsp; is used instead of&nbsp; $X(D)$&nbsp;. However, we write all image domain functions with capital letters in our learning tutorial, for example the Fourier&ndash;, the Laplace and the $D$ transform:
  
 
::<math>x(t) \hspace{0.15cm}
 
::<math>x(t) \hspace{0.15cm}
Line 249: Line 249:
  
  
Wir wenden nun die&nbsp; $D$&ndash;Transformation auch auf die Informationssequenz&nbsp; $\underline{u}$&nbsp; und die Impulsantwort $\underline{g}$&nbsp; an. Aufgrund der zeitlichen Begrenzung von&nbsp; $\underline{g}$&nbsp; ergibt sich die obere Summationsgrenze bei $G(D)$ zu $i = m$:<br>
+
We now apply the&nbsp; $D$ transform also to the information sequence&nbsp; $\underline{u}$&nbsp; and the impulse response $\underline{g}$&nbsp;. Due to the time limit of&nbsp; $\underline{g}$&nbsp; the upper summation limit at $G(D)$ results in $i = m$:<br>
  
 
::<math>\underline{u} = (u_0, u_1, u_2,\hspace{0.05cm}\text{...}\hspace{0.05cm}) \quad
 
::<math>\underline{u} = (u_0, u_1, u_2,\hspace{0.05cm}\text{...}\hspace{0.05cm}) \quad
Line 260: Line 260:
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Satz:}$&nbsp; Wie bei allen Spektraltransformationen gilt auch bei der&nbsp; $D$&ndash;Transformation im Bildbereich die&nbsp; <b>Multiplikation</b>, da die (diskreten) Zeitsignale&nbsp; $\underline{u}$&nbsp; und&nbsp; $\underline{g}$&nbsp; durch die&nbsp; <b>Faltung</b>&nbsp; verknüpft sind:
+
$\text{Theorem:}$&nbsp; As with all spectral transformations, <b>multiplication</b> applies to the&nbsp; $D$ transform in the image domain, since the (discrete) time signals&nbsp; $\underline{u}$&nbsp; and&nbsp; $\underline{g}$&nbsp; are linked by the&nbsp; <b>convolution</b>&nbsp;:
  
 
::<math>\underline{x} = \underline{u} * \underline{g} \quad
 
::<math>\underline{x} = \underline{u} * \underline{g} \quad
Line 266: Line 266:
 
X(D) = U(D) \cdot G(D) \hspace{0.05cm}.</math>
 
X(D) = U(D) \cdot G(D) \hspace{0.05cm}.</math>
  
Man bezeichnet &ndash; wie in der&nbsp; [[Linear_and_Time_Invariant_Systems/Systembeschreibung_im_Frequenzbereich#.C3.9Cbertragungsfunktion_-_Frequenzgang| Systemtheorie]]&nbsp; allgemein üblich &ndash; auch die&nbsp; $D$&ndash;Transformierte&nbsp; $G(D)$&nbsp; der Impulsantwort&nbsp; $\underline{g}$&nbsp; als&nbsp; '''Übertragungsfunktion'''&nbsp; (englisch: &nbsp; <i>Transfer Function</i>). Der (recht einfache)&nbsp; $\rm Beweis$&nbsp; dieses wichtigen Ergebnisses finden Sie in der Angabe zur&nbsp; [[Aufgaben:3.3Z_Faltung_und_D%E2%80%93Transformation|Aufgabe 3.3Z]].}}<br>
+
One &ndash; as in the&nbsp; [[Linear_and_Time_Invariant_Systems/System_Description_in_Frequency_Domain#Frequency_response_.E2.80. 93_Transfer_function|"System theory"]]&nbsp; commonly &ndash; also the&nbsp; $D$ transform&nbsp; $G(D)$&nbsp; of the impulse response&nbsp; $\underline{g}$&nbsp; as&nbsp; '''transfer function'''. The (rather simple)&nbsp; $\rm proof$&nbsp; of this important result can be found in the specification for&nbsp; [[Aufgaben:Exercise_3.3Z:_Convolution_and_D-Transformation|"Exercise 3.3Z"]].}}<br>
  
[[File:P ID2607 KC T 3 2 S4b.png|right|frame|Digitales Filter mit Impulsantwort&nbsp; $(1, 0, 1, 1)$]]  
+
[[File:P ID2607 KC T 3 2 S4b.png|right|frame|Digital filter with impulse response&nbsp; $(1, 0, 1, 1)$]]  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 4:}$&nbsp;  Wir betrachten wieder die zeitdiskreten Signale
+
$\text{Example 4:}$&nbsp;  We consider again the discrete time signals
  
 
::<math>\underline{u} = (\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm}\text{...}\hspace{0.05cm}) \quad
 
::<math>\underline{u} = (\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm}\text{...}\hspace{0.05cm}) \quad
Line 280: Line 280:
 
G(D) =  1+ D^2 + D^3 \hspace{0.05cm}.</math>
 
G(D) =  1+ D^2 + D^3 \hspace{0.05cm}.</math>
  
Wie im&nbsp; $\text{Beispiel 3}$&nbsp; (auf dieser Seite oben) erhält man auch auf diesem Lösungsweg:
+
As in the $\text{Example 3}$&nbsp; (on this page above), you also get on this solution path:
  
 
::<math>X(D) = U(D) \cdot G(D) =  (1+D) \cdot (1+ D^2 + D^3) </math>
 
::<math>X(D) = U(D) \cdot G(D) =  (1+D) \cdot (1+ D^2 + D^3) </math>
Line 286: Line 286:
 
\Rightarrow \hspace{0.3cm} \underline{x} = (\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm}, \text{...} \hspace{0.05cm}) \hspace{0.05cm}.</math>
 
\Rightarrow \hspace{0.3cm} \underline{x} = (\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm}, \text{...} \hspace{0.05cm}) \hspace{0.05cm}.</math>
  
Die Multiplikation mit&nbsp; $D$&nbsp; im Bildbereich entspricht  im Zeitbereich einer Verschiebung um eine Stelle nach rechts, weshalb man&nbsp; $D$&nbsp; als <i>Verzögerungsoperator</i>&nbsp; (englisch: &nbsp;<i>Delay Operator</i>&nbsp;) bezeichnet:
+
Multiplication by&nbsp; $D$&nbsp; in the image domain corresponds to a shift of one place to the right in the time domain, which is why&nbsp; $D$&nbsp; is called the <i>delay operator</i>:
  
 
::<math>W(D) = D \cdot X(D) \quad
 
::<math>W(D) = D \cdot X(D) \quad
Line 292: Line 292:
 
\underline{w} = (\hspace{0.05cm}0\hspace{0.05cm},\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm}, \text{...} \hspace{0.05cm}) \hspace{0.05cm}.</math>}}<br>
 
\underline{w} = (\hspace{0.05cm}0\hspace{0.05cm},\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm}, \text{...} \hspace{0.05cm}) \hspace{0.05cm}.</math>}}<br>
  
== Anwendung der D–Transformation auf Rate–1/''n''–Faltungscoder ==
+
== Application of the D-transform to rate-1/''n''-convolution encoders ==
 
<br>
 
<br>
Wir wenden nun die Ergebnisse der letzten Seite auf einen Faltungscoder an, wobei wir uns zunächst auf den Sonderfall&nbsp; $k = 1$&nbsp; beschränken.  
+
We now apply the results of the last page to a convolutional coder, restricting ourselves for the moment to the special case&nbsp; $k = 1$&nbsp;.  
*Ein solcher&nbsp; $(n, \ k = 1)$&ndash;Faltungscode lässt sich mit&nbsp; $n$&nbsp; Digitalen  Filtern realisieren, die auf der gleichen Informationssequenz&nbsp; $\underline{u}$&nbsp; parallel arbeiten.  
+
*Such a&nbsp; $(n, \ k = 1)$ convolutional code can be realized with&nbsp; $n$&nbsp; digital filters operating in parallel on the same information sequence&nbsp; $\underline{u}$&nbsp;.  
*Die Grafik zeigt die Anordnung für den Codeparameter&nbsp; $n = 2$ &nbsp; &#8658; &nbsp; Coderate $R = 1/2$.<br>
+
*The graph shows the arrangement for the code parameter&nbsp; $n = 2$ &nbsp; &#8658; &nbsp; code rate $R = 1/2$.<br>
  
  
[[File:P ID2608 KC T 3 2 S5 v1.png|center|frame|Zwei parallel arbeitende Filter, jeweils mit Ordnung&nbsp; $m$|class=fit]]
+
[[File:P ID2608 KC T 3 2 S5 v1.png|center|frame|Two filters working in parallel, each with order&nbsp; $m$|class=fit]]
  
Die folgenden Gleichungen gelten für beide Filter gleichermaßen, wobei für das obere Filter&nbsp; $j = 1$&nbsp; und für das untere Filter&nbsp; $j = 2$&nbsp; zu setzen ist:
+
The following equations apply equally to both filters, setting $j = 1$&nbsp; for the upper filter&nbsp; and $j = 2$&nbsp; for the lower filter:
*Die&nbsp; <b>Impulsantworten</b>&nbsp; der beiden Filter ergeben sich zu
+
*The&nbsp; <b>impulse responses</b>&nbsp; of the two filters result in
  
 
::<math>\underline{g}^{(j)} = (g_0^{(j)}, g_1^{(j)}, \hspace{0.05cm}\text{...}\hspace{0.05cm}, g_m^{(j)}\hspace{0.01cm}) \hspace{0.05cm},\hspace{0.2cm}{\rm mit }\hspace{0.15cm} j \in \{1,2\}\hspace{0.05cm}.</math>
 
::<math>\underline{g}^{(j)} = (g_0^{(j)}, g_1^{(j)}, \hspace{0.05cm}\text{...}\hspace{0.05cm}, g_m^{(j)}\hspace{0.01cm}) \hspace{0.05cm},\hspace{0.2cm}{\rm mit }\hspace{0.15cm} j \in \{1,2\}\hspace{0.05cm}.</math>
  
*Die zwei&nbsp; <b>Ausgangssequenzen</b>&nbsp; lauten, wobei berücksichtigt ist, dass beide Filter auf der gleichen Eingangssequenz&nbsp; $\underline{u} = (u_0, u_1, u_2, \hspace{0.05cm} \text{...})$&nbsp; arbeiten:
+
*The two&nbsp; <b>output sequences</b>&nbsp; are as follows, considering that both filters operate on the same input sequence&nbsp; $\underline{u} = (u_0, u_1, u_2, \hspace{0.05cm} \text{...})$&nbsp;:
  
 
::<math>\underline{x}^{(j)} = (x_0^{(j)}, x_1^{(j)}, x_2^{(j)}, \hspace{0.05cm}\text{...}\hspace{0.05cm}) = \underline{u} \cdot \underline{g}^{(j)} \hspace{0.05cm},\hspace{0.2cm}{\rm mit }\hspace{0.15cm} j \in \{1,2\}\hspace{0.05cm}.</math>
 
::<math>\underline{x}^{(j)} = (x_0^{(j)}, x_1^{(j)}, x_2^{(j)}, \hspace{0.05cm}\text{...}\hspace{0.05cm}) = \underline{u} \cdot \underline{g}^{(j)} \hspace{0.05cm},\hspace{0.2cm}{\rm mit }\hspace{0.15cm} j \in \{1,2\}\hspace{0.05cm}.</math>
  
*Für die&nbsp; $D$<b>&ndash;Transformierten</b>&nbsp; der Ausgangssequenzen gilt:
+
*For the&nbsp; $D$<b> transform</b>&nbsp; of the output sequences:
  
 
::<math>X^{(j)}(D) = U(D) \cdot G^{(j)}(D) \hspace{0.05cm},\hspace{0.2cm}{\rm mit }\hspace{0.15cm} j \in \{1,2\}\hspace{0.05cm}.</math>
 
::<math>X^{(j)}(D) = U(D) \cdot G^{(j)}(D) \hspace{0.05cm},\hspace{0.2cm}{\rm mit }\hspace{0.15cm} j \in \{1,2\}\hspace{0.05cm}.</math>
  
Um diesen Sachverhalt kompakter darstellen zu können, definieren wir nun folgende vektorielle Größen eines Faltungscodes der Rate&nbsp; $1/n$:
+
In order to represent this fact more compactly, we now define the following vectorial quantities of a convolutional code of rate&nbsp; $1/n$:
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp;  Die&nbsp; $D$<b>&ndash;Übertragungsfunktionen</b>&nbsp; der&nbsp; $n$&nbsp; parallel angeordneten Digitalen Filter werden im Vektor&nbsp; $\underline{G}(D)$&nbsp; zusammengefasst:
+
$\text{Definition:}$&nbsp;  The&nbsp; $D$<b> transfer functions</b>&nbsp; of the&nbsp; $n$&nbsp; parallel arranged Digital Filters are combined in the vector&nbsp; $\underline{G}(D)$&nbsp;:
  
 
::<math>\underline{G}(D) = \left ( G^{(1)}(D), G^{(2)}(D), \hspace{0.05cm}\text{...}\hspace{0.1cm}, G^{(n)} (D) \right )\hspace{0.05cm}.</math>
 
::<math>\underline{G}(D) = \left ( G^{(1)}(D), G^{(2)}(D), \hspace{0.05cm}\text{...}\hspace{0.1cm}, G^{(n)} (D) \right )\hspace{0.05cm}.</math>
  
*Der Vektor&nbsp; $\underline{X}(D)$&nbsp; beinhaltet die&nbsp; $D$<b>&ndash;Transformierten</b>&nbsp; der&nbsp; $n$&nbsp; Codesequenzen&nbsp; $\underline{x}^{(1)}, \underline{x}^{(2)}, \ \text{...} \ , \underline{x}^{(n)}$:
+
*The vector&nbsp; $\underline{X}(D)$&nbsp; contains the&nbsp; $D$<b> transform</b>&nbsp; of&nbsp; $n$&nbsp; code sequences&nbsp; $\underline{x}^{(1)}, \underline{x}^{(2)}, \ \text{...} \ , \underline{x}^{(n)}$:
  
 
::<math>\underline{X}(D) = \left ( X^{(1)}(D), X^{(2)}(D), \hspace{0.05cm}\text{...}\hspace{0.1cm}, X^{(n)} (D) \right )\hspace{0.05cm}.</math>
 
::<math>\underline{X}(D) = \left ( X^{(1)}(D), X^{(2)}(D), \hspace{0.05cm}\text{...}\hspace{0.1cm}, X^{(n)} (D) \right )\hspace{0.05cm}.</math>
  
*Damit erhält man die folgende Vektorgleichung:
+
*This gives the following vector equation:
  
 
::<math>\underline{X}(D) = U(D) \cdot \underline{G}(D)\hspace{0.05cm}.</math>
 
::<math>\underline{X}(D) = U(D) \cdot \underline{G}(D)\hspace{0.05cm}.</math>
  
*Aufgrund des Codeparameters&nbsp; $k = 1$&nbsp; ist&nbsp; $U(D)$&nbsp; hier keine vektorielle Größe.}}<br>
+
*Because of the code parameter&nbsp; $k = 1$&nbsp; $U(D)$&nbsp; is not a vector quantity here.}}<br>
  
 
[[File:P ID2609 KC T 3 2 S5b.png|right|frame|Faltungscoder mit&nbsp; $n = 2, \ k = 1,\  m = 2$]]  
 
[[File:P ID2609 KC T 3 2 S5b.png|right|frame|Faltungscoder mit&nbsp; $n = 2, \ k = 1,\  m = 2$]]  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 5:}$&nbsp;  
+
$\text{Example 5:}$&nbsp;  
Wir betrachten den Faltungscodierer mit den Codeparametern&nbsp; $n = 2, \ k = 1, \ m = 2$. Für diesen gilt:
+
We consider the convolutional encoder with code parameters&nbsp; $n = 2, \ k = 1, \ m = 2$. For this one holds:
  
 
::<math>\underline{g}^{(1)} =(\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm}) \quad \circ\!\!-\!\!\!-^{\hspace{-0.25cm}D}\!\!\!-\!\!\bullet\quad
 
::<math>\underline{g}^{(1)} =(\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm}) \quad \circ\!\!-\!\!\!-^{\hspace{-0.25cm}D}\!\!\!-\!\!\bullet\quad
Line 342: Line 342:
 
::<math>\Rightarrow \hspace{0.3cm} \underline{G}(D) = \big ( 1+ D + D^2 \hspace{0.05cm}, \hspace{0.1cm}1+  D^2 \big )\hspace{0.05cm}.</math>
 
::<math>\Rightarrow \hspace{0.3cm} \underline{G}(D) = \big ( 1+ D + D^2 \hspace{0.05cm}, \hspace{0.1cm}1+  D^2 \big )\hspace{0.05cm}.</math>
  
Die Informationssequenz sei&nbsp; $\underline{u} = (1, 0, 1, 1)$ &nbsp; &rArr; &nbsp; $D$&ndash;Transformierte&nbsp; $U(D) = 1 + D^2 + D^3$. Damit erhält man:
+
Let the information sequence be&nbsp; $\underline{u} = (1, 0, 1, 1)$ &nbsp; &rArr; &nbsp; $D$ transform&nbsp; $U(D) = 1 + D^2 + D^3$. This gives:
  
 
::<math>\underline{X}(D) = \left ( X^{(1)}(D),\hspace{0.1cm} X^{(2)}(D)  \right ) = U(D) \cdot \underline{G}(D) \hspace{0.05cm}, \hspace{0.2cm}</math>
 
::<math>\underline{X}(D) = \left ( X^{(1)}(D),\hspace{0.1cm} X^{(2)}(D)  \right ) = U(D) \cdot \underline{G}(D) \hspace{0.05cm}, \hspace{0.2cm}</math>
  
wobei
+
where
  
 
::<math>{X}^{(1)}(D) = (1+ D^2 + D^3) \cdot (1+ D + D^2)=1+ D + D^2 + D^2 + D^3 + D^4 + D^3 + D^4 + D^5 = 1+ D + D^5</math>
 
::<math>{X}^{(1)}(D) = (1+ D^2 + D^3) \cdot (1+ D + D^2)=1+ D + D^2 + D^2 + D^3 + D^4 + D^3 + D^4 + D^5 = 1+ D + D^5</math>
Line 356: Line 356:
 
::<math>\Rightarrow  \underline{x}^{(2)} = (\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm}0\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm}, \hspace{0.05cm} 0\hspace{0.05cm}, \hspace{0.05cm} \text{...} \hspace{0.05cm}  \hspace{0.05cm}) \hspace{0.05cm}.</math>
 
::<math>\Rightarrow  \underline{x}^{(2)} = (\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm}0\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm}, \hspace{0.05cm} 0\hspace{0.05cm}, \hspace{0.05cm} \text{...} \hspace{0.05cm}  \hspace{0.05cm}) \hspace{0.05cm}.</math>
  
Das gleiche Ergebnis haben wir in der&nbsp; [[Aufgaben:3.1Z_Faltungscodes_der_Rate_1/2|Aufgabe 3.1Z]]&nbsp; auf anderem Wege erhalten. Nach dem Multplexen der beiden Stränge erhält man wieder: &nbsp;  
+
We got the same result in the&nbsp; [[Aufgaben:Exercise_3.1Z:_Convolution_Codes_of_Rate_1/2|"Exercise 3.1Z"]]&nbsp; other way. After multiplexing the two strands, you get again: &nbsp;  
 
:$$\underline{x} = (11, 10, 00, 01, 01, 11, 00, 00, \hspace{0.05cm} \text{...} \hspace{0.05cm}).$$}}<br>
 
:$$\underline{x} = (11, 10, 00, 01, 01, 11, 00, 00, \hspace{0.05cm} \text{...} \hspace{0.05cm}).$$}}<br>
  
== Übertragungsfunktionsmatrix – Transfer Function Matrix ==
+
== Transfer Function Matrix ==
 
<br>
 
<br>
[[File:P ID2616 KC T 3 2 S6b v1.png|right|frame|Allgemeiner&nbsp; $(n, \ k)$&ndash;Faltungscoder |class=fit]]
+
[[File:P ID2616 KC T 3 2 S6b v1.png|right|frame|General&nbsp; $(n, \ k)$ convolutional encoder |class=fit]]
Wir haben gesehen, dass ein Faltungscode der Rate&nbsp; $1/n$&nbsp; sich am kompaktesten als Vektorgleichung im&nbsp; $D$&ndash;transformierten Bereich beschreiben  lässt: &nbsp; $\underline{X}(D) = U(D) \cdot \underline{G}(D)$.  
+
We have seen that a convolutional code of rate&nbsp; $1/n$&nbsp; can be most compactly described as a vector equation in the&nbsp; $D$ transformed domain: &nbsp; $\underline{X}(D) = U(D) \cdot \underline{G}(D)$.  
  
Nun erweitern wir das Resultat auf Faltungscodierer mit mehr als einem Eingang &nbsp; &#8658; &nbsp; $k &#8805; 2$ &nbsp;(siehe Grafik).<br>
+
Now we extend the result to convolutional encoders with more than one input &nbsp; &#8658; &nbsp; $k &#8805; 2$ &nbsp;(see graph).<br>
  
Um einen Faltungscode der Rate&nbsp; $k/n$&nbsp; im $D$&ndash;Bereich abbilden zu können, muss die Dimension obiger Vektorgleichung hinsichtlich Eingang und Übertragungsfunktion erhöht werden:
+
In order to map a convolutional code of rate&nbsp; $k/n$&nbsp; in the $D$ domain, the dimension of the above vector equation must be increased with respect to input and transfer function:
  
 
::<math>\underline{X}(D) = \underline{U}(D) \cdot { \boldsymbol{\rm G}}(D)\hspace{0.05cm}.</math>
 
::<math>\underline{X}(D) = \underline{U}(D) \cdot { \boldsymbol{\rm G}}(D)\hspace{0.05cm}.</math>
 
<br clear=all>
 
<br clear=all>
Dazu sind folgende Maßnahmen erforderlich:
+
This requires the following measures:
*Aus der skalaren Funktion&nbsp; $U(D)$&nbsp; wird der Vektor&nbsp; $\underline{U}(D) = (U^{(1)}(D), \ U^{(2)}(D), \hspace{0.05cm} \text{...} \hspace{0.05cm} , \ U^{(k)}(D))$.<br>
+
*From the scalar function&nbsp; $U(D)$&nbsp; we get the vector&nbsp; $\underline{U}(D) = (U^{(1)}(D), \ U^{(2)}(D), \hspace{0.05cm} \text{...} \hspace{0.05cm} , \ U^{(k)}(D))$.<br>
  
*Aus dem Vektor&nbsp; $\underline{G}(D)$&nbsp; wird die&nbsp; $k &times; n$&ndash;'''Übertragungsfunktionsmatrix'''&nbsp; $\mathbf{G}(D)$&nbsp; (englisch: &nbsp; <i>Transfer Function Matrix</i>&nbsp; oder&nbsp; <i>Polynomial Generator Matrix</i>):
+
*From the vector&nbsp; $\underline{G}(D)$&nbsp; the&nbsp; $k &times; n$&ndash;'''transfer function matrix''' or '''polynomial generator matrix'''&nbsp; $\mathbf{G}(D)$&nbsp;:
  
 
::<math>{\boldsymbol{\rm G}}(D)=\begin{pmatrix}
 
::<math>{\boldsymbol{\rm G}}(D)=\begin{pmatrix}
Line 382: Line 382:
 
\end{pmatrix}\hspace{0.05cm}.</math>
 
\end{pmatrix}\hspace{0.05cm}.</math>
  
*Jedes der&nbsp; $k \cdot n$&nbsp; Matrixelemente&nbsp; $G_i^{(j)}(D)$&nbsp; mit&nbsp; $1 &#8804; i &#8804; k,\ \ 1 &#8804; j &#8804; n$&nbsp; ist ein Polynom über der Dummy&ndash;Variablen&nbsp; $D$&nbsp; im Galoisfeld&nbsp; ${\rm GF}(2)$, maximal vom Grad&nbsp; $m$, wobei&nbsp; $m$&nbsp; das Gedächtnis angibt.<br>
+
*Each of the&nbsp; $k \cdot n$&nbsp; matrix elements&nbsp; $G_i^{(j)}(D)$&nbsp; with&nbsp; $1 &#8804; i &#8804; k,\ 1 &#8804; j &#8804; n$&nbsp; is a polynomial over the dummy variable&nbsp; $D$&nbsp; in the Galois field&nbsp; ${\rm GF}(2)$, maximal of degree&nbsp; $m$, where&nbsp; $m$&nbsp; denotes memory.<br>
  
 
*Für die obige&nbsp; <i>Übertragungsfunktionsmatrix</i>&nbsp; kann mit den zu Beginn dieses Kapitels definierten&nbsp; [[Channel_Coding/Algebraische_und_polynomische_Beschreibung#Definition_und_Interpretation_der_Teilmatrizen_G0.2C_..._.2C_Gm| Teilmatrizen]]&nbsp; $\mathbf{G}_0, \ \text{...} \ , \mathbf{G}_m$&nbsp; auch geschrieben werden $($als Index verwenden wir wieder  &nbsp;$l)$:
 
*Für die obige&nbsp; <i>Übertragungsfunktionsmatrix</i>&nbsp; kann mit den zu Beginn dieses Kapitels definierten&nbsp; [[Channel_Coding/Algebraische_und_polynomische_Beschreibung#Definition_und_Interpretation_der_Teilmatrizen_G0.2C_..._.2C_Gm| Teilmatrizen]]&nbsp; $\mathbf{G}_0, \ \text{...} \ , \mathbf{G}_m$&nbsp; auch geschrieben werden $($als Index verwenden wir wieder  &nbsp;$l)$:

Revision as of 20:15, 21 September 2022

Division of the generator matrix into partial matrices


Following the discussion in the earlier section  "Linear Codes and Cyclic Codes"  the codeword  $\underline{x}$  of a linear block code can be determined from the information word  $\underline{u}$  and the generator matrix  $\mathbf{G}$  in a simple way:   $\underline{x} = \underline{u} \cdot { \boldsymbol{\rm G}}$. The following holds:

  • The vectors  $\underline{u}$  and  $\underline{x}$  have length  $k$  (bit count of an information word), respectively.   $n$  (bit count of a codeword) and  $\mathbf{G}$  has dimension  $k × n$  $(k$  rows and  $n$  columns$)$.
  • In convolutional coding, on the other hand  $\underline{u}$  and  $\underline{x}$  denote sequences with  $k\hspace{0.05cm}' → ∞$  and  $n\hspace{0.05cm}' → ∞$. Therefore, the generator matrix  $\mathbf{G}$  will also be infinitely extended in both directions.

In preparation for the introduction of the generator matrix  $\mathbf{G}$  on the next page, we define  $m + 1$  partial matrices, each with  $k$  rows and  $n$  columns, which we denote by  $\mathbf{G}_l$  where  $0 ≤ l ≤ m$  holds.

$\text{Definition:}$  The  partial matrix  $\mathbf{G}_l$  describes the following fact:   If the matrix element  $\mathbf{G}_l(\kappa, j) = 1$, this says that the code bit  $x_i^{(j)}$  is influenced by the information bit  $u_{i-l}^{(\kappa)}$ . Otherwise, this matrix element is equal to  $0$.


This definition will now be illustrated by an example.

Convolutional encoder with  $k = 2, \ n = 3, \ m = 1$

$\text{Example 1:}$  We again consider the convolutional encoder according to the diagram with the following code bits:

\[x_i^{(1)} = u_{i}^{(1)} + u_{i-1}^{(1)}+ u_{i-1}^{(2)} \hspace{0.05cm},\]
\[x_i^{(2)} = u_{i}^{(2)} + u_{i-1}^{(1)} \hspace{0.05cm},\]
\[x_i^{(3)} = u_{i}^{(1)} + u_{i}^{(2)}+ u_{i-1}^{(1)} \hspace{0.05cm}.\]

Because of the memory order  $m = 1$  this encoder is fully characterized by the two partial matrices  $\mathbf{G}_0$  and  $\mathbf{G}_1$ :

\[{ \boldsymbol{\rm G} }_0 = \begin{pmatrix} 1 & 0 & 1\\ 0 & 1 & 1 \end{pmatrix} \hspace{0.05cm}, \hspace{0.5cm} { \boldsymbol{\rm G} }_1 = \begin{pmatrix} 1 & 1 & 1\\ 1 & 0 & 0 \end{pmatrix}\hspace{0.05cm}.\]

These matrices are to be interpreted as follows:

  • first row of  $\mathbf{G}_0$, red arrows:  $\hspace{1.1cm}u_i^{(1)}$  affects both  $x_i^{(1)}$  and  $x_i^{(3)}$, but not  $x_i^{(2)}$.
  • Second row of  $\mathbf{G}_0$, blue arrows:  $\hspace{0.6cm}u_i^{(2)}$  affects  $x_i^{(2)}$  and  $x_i^{(3)}$, but not  $x_i^{(1)}$.
  • First row of  $\mathbf{G}_1$, green arrows:  $\hspace{0.9cm}u_{i-1}^{(1)}$  affects all three encoder outputs.
  • Second row of  $\mathbf{G}_1$, brown arrow:  $\hspace{0.45cm}u_{i-1}^{(2)}$  affects only  $x_i^{(1)}$.


Generator matrix of a convolutional encoder with memory m


With the partial matrices  $\mathbf{G}_0, \hspace{0.05cm} \text{...} \hspace{0.05cm} , \mathbf{G}_m$  the  $n$  code bits at time  $i$  can be expressed as follows:

\[\underline{x}_i = \sum_{l = 0}^{m} \hspace{0.15cm}\underline{u}_{i-l} \cdot { \boldsymbol{\rm G}}_l = \underline{u}_{i} \cdot { \boldsymbol{\rm G}}_0 + \underline{u}_{i-1} \cdot { \boldsymbol{\rm G}}_1 +\hspace{0.05cm} \text{...} \hspace{0.05cm} + \underline{u}_{i-m} \cdot { \boldsymbol{\rm G}}_m \hspace{0.05cm}.\]

The following vectorial quantities must be taken into account:

\[\underline{\it u}_i = \left ( u_i^{(1)}, u_i^{(2)}, \hspace{0.05cm}\text{...} \hspace{0.1cm}, u_i^{(k)}\right )\hspace{0.05cm},\hspace{0.5cm} \underline{\it x}_i = \left ( x_i^{(1)}, x_i^{(2)}, \hspace{0.05cm}\text{...} \hspace{0.1cm}, x_i^{(n)}\right )\hspace{0.05cm}.\]

Considering the sequences

\[\underline{\it u} = \big( \underline{\it u}_1\hspace{0.05cm}, \underline{\it u}_2\hspace{0.05cm}, \hspace{0.05cm}\text{...} \hspace{0.1cm}, \underline{\it u}_i\hspace{0.05cm}, \hspace{0.05cm}\text{...} \hspace{0.1cm} \big)\hspace{0.05cm},\hspace{0.5cm} \underline{\it x} = \big( \underline{\it x}_1\hspace{0.05cm}, \underline{\it x}_2\hspace{0.05cm}, \hspace{0.05cm}\text{...} \hspace{0.1cm}, \underline{\it x}_i\hspace{0.05cm}, \hspace{0.05cm}\text{...} \hspace{0.1cm} \big)\hspace{0.05cm},\]

starting at  $i = 1$  and extending in time to infinity, this relation can be expressed by the matrix equation  $\underline{x} = \underline{u} \cdot \mathbf{G}$  . Here, for the generator matrix  $\mathbf{G}$  set as follows:

\[{ \boldsymbol{\rm G}}=\begin{pmatrix} { \boldsymbol{\rm G}}_0 & { \boldsymbol{\rm G}}_1 & { \boldsymbol{\rm G}}_2 & \cdots & { \boldsymbol{\rm G}}_m & & & \\ & { \boldsymbol{\rm G}}_0 & { \boldsymbol{\rm G}}_1 & { \boldsymbol{\rm G}}_2 & \cdots & { \boldsymbol{\rm G}}_m & &\\ & & { \boldsymbol{\rm G}}_0 & { \boldsymbol{\rm G}}_1 & { \boldsymbol{\rm G}}_2 & \cdots & { \boldsymbol{\rm G}}_m &\\ & & & \cdots & \cdots & & & \cdots \end{pmatrix}\hspace{0.05cm}.\]
  • From the equation one immediately recognizes the memory  $m$  of the convolutional code. The parameters  $k$  and  $n$  are not directly readable.
  • However, they are determined by the number of rows and columns of the partial matrices  $\mathbf{G}_l$ .


Generator matrix of a convolutional code

$\text{Example 2:}$  With the two matrices  $\mathbf{G}_0$  and  $\mathbf{G}_1$  – see  $\text{"Example 1"}$  – the matrix sketched on the right  $\mathbf{G}$ is obtained.

It should be noted:

  • The generator matrix  $\mathbf{G}$  actually extends downwards and to the right to infinity. Explicitly shown, however, are only eight rows and twelve columns.
  • For the temporal information sequence  $\underline{u} = (0, 1, 1, 0, 0, 0, 1, 1)$  the drawn matrix part is sufficient. The code sequence is then:
$$\underline{x} = (0, 1, 1, 0, 0, 1, 1, 1, 1, 1, 1, 0).$$
  • On the basis of the label colors, the  $n = 3$  codeword strings can be read.
  • We got the same result (in a different way) in the  $\text{"Example 4"}$  at the end of the last chapter:
$$\underline{\it x}^{(1)} = (0\hspace{0.05cm}, 0\hspace{0.05cm}, 1\hspace{0.05cm}, 1) \hspace{0.05cm},\hspace{0.5cm} \underline{\it x}^{(2)} = (1\hspace{0.05cm}, 0\hspace{0.05cm},1\hspace{0.05cm}, 1) \hspace{0.05cm},\hspace{0.5cm} \underline{\it x}^{(3)} = (1\hspace{0.05cm}, 1\hspace{0.05cm}, 1\hspace{0.05cm}, 0) \hspace{0.05cm}.$$


Generator matrix for convolutional encoder of rate 1/n


We now consider the special case  $k = 1$,

  • on the one hand for reasons of simplest possible representation,
  • but also because convolutional coders of rate  $1/n$  have great importance for practice.

Convolutional encoder with  $k = 1, \ n = 2, \ m = 1$

Convolutional encoder with  $k = 1, \ n = 2, \ m = 1$

From the adjacent sketch can be derived:

\[{ \boldsymbol{\rm G}}_0=\begin{pmatrix} 1 & 1 \end{pmatrix}\hspace{0.05cm},\hspace{0.3cm} { \boldsymbol{\rm G}}_1=\begin{pmatrix} 0 & 1 \end{pmatrix}\hspace{0.3cm} \Rightarrow \hspace{0.3cm} { \boldsymbol{\rm G}}=\begin{pmatrix} 11 & 01 & 00 & 00 & 00 & \cdots & \\ 00 & 11 & 01 & 00 & 00 & \cdots & \\ 00 & 00 & 11 & 01 & 00 & \cdots & \\ 00 & 00 & 00 & 11 & 01 & \cdots & \\ \cdots & \cdots & \cdots & \cdots & \cdots & \cdots \end{pmatrix}\hspace{0.05cm}.\]

For the input sequence  $\underline{u} = (1, 0, 1, 1)$  the code sequence starts with  $\underline{x} = (1, 1, 0, 1, 1, 1, 1, 0, \ \text{...})$.
This result is equal to the sum of rows 1, 3 and 4 of the generator matrix.

Convolutional encoder with  $k = 1, \ n = 2, \ m = 2$

Convolutional encoder with  $k = 1, \ n = 2, \ m = 2$

Due to the memory order  $m = 2$  there are three submatrices here:

\[{ \boldsymbol{\rm G}}_0=\begin{pmatrix} 1 & 1 \end{pmatrix}\hspace{0.05cm},\hspace{0.3cm} { \boldsymbol{\rm G}}_1=\begin{pmatrix} 1 & 0 \end{pmatrix}\hspace{0.05cm},\hspace{0.3cm} { \boldsymbol{\rm G}}_2=\begin{pmatrix} 1 & 1 \end{pmatrix}\]

Thus, the resulting generator matrix is:

\[ { \boldsymbol{\rm G}}=\begin{pmatrix} 11 & 10 & 11 & 00 & 00 & 00 & \cdots & \\ 00 & 11 & 10 & 11 & 00 & 00 & \cdots & \\ 00 & 00 & 11 & 10 & 11 & 00 & \cdots & \\ 00 & 00 & 00 & 11 & 10 & 11 & \cdots & \\ \cdots & \cdots & \cdots & \cdots & \cdots & \cdots \end{pmatrix}\hspace{0.05cm}.\]

Here the input sequence  $\underline{u} = (1, 0, 1, 1)$  leads to the code sequence  $\underline{x} = (1, 1, 1, 0, 0, 0, 0, 1, \ \text{...})$.

Convolutional encoder with  $k = 1, \ n = 3, \ m = 3$

Convolutional encoder with $k = 1, \ n = 3, \ m = 3$

Because of  $m = 3$  there are now four partial matrices of the respective dimension  $1 × 3$:

\[{ \boldsymbol{\rm G}}_0=\begin{pmatrix} 1 & 1 & 0 \end{pmatrix}\hspace{0.05cm},\hspace{0.3cm} { \boldsymbol{\rm G}}_1=\begin{pmatrix} 0 & 0 & 1 \end{pmatrix}\hspace{0.05cm},\hspace{0.3cm} { \boldsymbol{\rm G}}_2=\begin{pmatrix} 0 & 0 & 1 \end{pmatrix}\hspace{0.05cm},\hspace{0.3cm} { \boldsymbol{\rm G}}_3=\begin{pmatrix} 0 & 1 & 1 \end{pmatrix}\hspace{0.05cm}.\]

Thus, the resulting generator matrix is:

\[{ \boldsymbol{\rm G}}=\begin{pmatrix} 110 & 001 & 001 & 011 & 000 & 000 & 000 & \cdots & \\ 000 & 110 & 001 & 001 & 011 & 000 & 000 & \cdots & \\ 000 & 000 & 110 & 001 & 001 & 011 & 000 & \cdots & \\ 000 & 000 & 000 & 110 & 001 & 001 & 011 & \cdots & \\ \cdots & \cdots & \cdots & \cdots & \cdots & \cdots & \cdots & \cdots \end{pmatrix}\hspace{0.05cm},\]

and one obtains for  $\underline{u} = (1, 0, 1, 1)$  the code sequence  $\underline{x} = (1, 1, 0, 0, 0, 1, 1, 1, 1, 1, 0, 0, \ \text{...})$.

GF(2) description forms of a digital filter


Digital filter in  ${\rm GF}(2)$  of order  $m$

In the chapter  "Basics of Convolutional Coding"  it was already pointed out,

  • that a rate  $1/n$ convolutional encoder can be realized by several digital filters,
  • where the filters operate in parallel with the same input sequence  $\underline{u}$ .


Before we elaborate on this statement, we shall first mention the properties of a digital filter for the Galois field  ${\rm GF(2)}$ .


The graph is to be interpreted as follows:

  • The filter has impulse response  $\underline{g} = (g_0, g_1, g_2, \ \text{...} \ , g_m)$.
  • For all filter coefficients $($with indices  $0 ≤ l ≤ m)$  holds:   $g_l ∈ {\rm GF}(2) = \{0, 1\}$.
  • The individual symbols  $u_i$  of the input sequence  $\underline{u}$  are also binary:   $u_i ∈ \{0, 1\}$.
  • Thus, for the output symbol at times  $i ≥ 1$  with addition and multiplication in  ${\rm GF(2)}$:
\[x_i = \sum_{l = 0}^{m} g_l \cdot u_{i-l} \hspace{0.05cm}.\]
  • This corresponds to the (discrete time)  "convolution" , denoted by an asterisk. This can be used to write for the entire output sequence:
\[\underline{x} = \underline{u} * \underline{g}\hspace{0.05cm}.\]
  • Major difference compared to the chapter  "Digital Filters"  in the book "Theory of Stochastic Signals" is the modulo 2 addition  $(1 + 1 = 0)$  instead of the conventional addition  $(1 + 1 = 2)$.

Digital filter with impulse response  $(1, 0, 1, 1)$

$\text{Example 3:}$  The impulse response of the third order digital filter shown is:   $\underline{g} = (1, 0, 1, 1)$.

  • Let the input sequence of this filter be unlimited in time:   $\underline{u} = (1, 1, 0, 0, 0, \ \text{ ...})$.
  • This gives the (infinite) initial sequence  $\underline{x}$  in the binary Galois field   ⇒   ${\rm GF(2)}$:
\[\underline{x} = (\hspace{0.05cm}1,\hspace{0.05cm} 1,\hspace{0.05cm} 0,\hspace{0.05cm} 0,\hspace{0.05cm} 0, \hspace{0.05cm} \text{ ...} \hspace{0.05cm}) * (\hspace{0.05cm}1,\hspace{0.05cm} 0,\hspace{0.05cm} 1,\hspace{0.05cm} 1\hspace{0.05cm})\]
\[\Rightarrow \hspace{0.3cm} \underline{x} =(\hspace{0.05cm}1,\hspace{0.05cm} 0,\hspace{0.05cm} 1,\hspace{0.05cm} 1,\hspace{0.05cm} 0, \hspace{0.05cm}0,\hspace{0.05cm} \text{ ...} \hspace{0.05cm}) \oplus (\hspace{0.05cm}0,\hspace{0.05cm}\hspace{0.05cm}1,\hspace{0.05cm} 0,\hspace{0.05cm} 1,\hspace{0.05cm} 1,\hspace{0.05cm}0, \hspace{0.05cm} \hspace{0.05cm} \text{ ...}\hspace{0.05cm}) = (\hspace{0.05cm}1,\hspace{0.05cm}\hspace{0.05cm}1,\hspace{0.05cm} 1,\hspace{0.05cm} 0,\hspace{0.05cm} 1,\hspace{0.05cm} 0, \hspace{0.05cm} \text{ ...} \hspace{0.05cm}) \hspace{0.05cm}.\]
  • In the conventional convolution (for real numbers), on the other hand, the result would have been:
\[\underline{x}= (\hspace{0.05cm}1,\hspace{0.05cm}\hspace{0.05cm}1,\hspace{0.05cm} 1,\hspace{0.05cm} 2,\hspace{0.05cm} 1,\hspace{0.05cm} 0, \text{ ...} \hspace{0.05cm}) \hspace{0.05cm}.\]


However, discrete time signals can also be represented by polynomials with respect to a dummy variable.

$\text{Definition:}$  The $\underline{x} = (x_0, x_1, x_2, \ \text{...})$  belonging to the discrete time signal  $D$ transform  reads:

\[X(D) = x_0 + x_1 \cdot D + x_2 \cdot D^2 + \hspace{0.05cm}\text{...}\hspace{0.05cm}= \sum_{i = 0}^{\infty} x_i \cdot D\hspace{0.05cm}^i \hspace{0.05cm}.\]

For this particular transformation to an image area, we also use the following notation, where "$D$" stands for  delay operator :

\[\underline{x} = (x_0, x_1, x_2,\hspace{0.05cm}...\hspace{0.05cm}) \quad \circ\!\!-\!\!\!-^{\hspace{-0.25cm}D}\!\!\!-\!\!\bullet\quad X(D) = \sum_{i = 0}^{\infty} x_i \cdot D\hspace{0.05cm}^i \hspace{0.05cm}.\]


Note:   In the literature, sometimes  $x(D)$  is used instead of  $X(D)$ . However, we write all image domain functions with capital letters in our learning tutorial, for example the Fourier–, the Laplace and the $D$ transform:

\[x(t) \hspace{0.15cm} \circ\!\!-\!\!\!-^{\hspace{-0.25cm}}\!\!\!-\!\!\bullet\hspace{0.15cm} X(f)\hspace{0.05cm},\hspace{0.4cm} x(t) \hspace{0.15cm} \circ\!\!-\!\!\!-^{\hspace{-0.25cm}\rm L}\!\!\!-\!\!\bullet\hspace{0.15cm} X(p) \hspace{0.05cm},\hspace{0.4cm} \underline{x} \hspace{0.15cm} \circ\!\!-\!\!\!-^{\hspace{-0.25cm}D}\!\!\!-\!\!\bullet\hspace{0.15cm} X(D) \hspace{0.05cm}.\]


We now apply the  $D$ transform also to the information sequence  $\underline{u}$  and the impulse response $\underline{g}$ . Due to the time limit of  $\underline{g}$  the upper summation limit at $G(D)$ results in $i = m$:

\[\underline{u} = (u_0, u_1, u_2,\hspace{0.05cm}\text{...}\hspace{0.05cm}) \quad \circ\!\!-\!\!\!-^{\hspace{-0.25cm}D}\!\!\!-\!\!\bullet\quad U(D) = \sum_{i = 0}^{\infty} u_i \cdot D\hspace{0.05cm}^i \hspace{0.05cm},\]
\[\underline{g} = (g_0, g_1, \hspace{0.05cm}\text{...}\hspace{0.05cm}, g_m) \quad \circ\!\!-\!\!\!-^{\hspace{-0.25cm}D}\!\!\!-\!\!\bullet\quad G(D) = \sum_{i = 0}^{m} g_i \cdot D\hspace{0.05cm}^i \hspace{0.05cm}.\]

$\text{Theorem:}$  As with all spectral transformations, multiplication applies to the  $D$ transform in the image domain, since the (discrete) time signals  $\underline{u}$  and  $\underline{g}$  are linked by the  convolution :

\[\underline{x} = \underline{u} * \underline{g} \quad \circ\!\!-\!\!\!-^{\hspace{-0.25cm}D}\!\!\!-\!\!\bullet\quad X(D) = U(D) \cdot G(D) \hspace{0.05cm}.\]

One – as in the  "System theory"  commonly – also the  $D$ transform  $G(D)$  of the impulse response  $\underline{g}$  as  transfer function. The (rather simple)  $\rm proof$  of this important result can be found in the specification for  "Exercise 3.3Z".


Digital filter with impulse response  $(1, 0, 1, 1)$

$\text{Example 4:}$  We consider again the discrete time signals

\[\underline{u} = (\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm}\text{...}\hspace{0.05cm}) \quad \circ\!\!-\!\!\!-^{\hspace{-0.25cm}D}\!\!\!-\!\!\bullet\quad U(D) = 1+ D \hspace{0.05cm},\]
\[\underline{g} = (\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm}) \quad \circ\!\!-\!\!\!-^{\hspace{-0.25cm}D}\!\!\!-\!\!\bullet\quad G(D) = 1+ D^2 + D^3 \hspace{0.05cm}.\]

As in the $\text{Example 3}$  (on this page above), you also get on this solution path:

\[X(D) = U(D) \cdot G(D) = (1+D) \cdot (1+ D^2 + D^3) \]
\[\Rightarrow \hspace{0.3cm} X(D) = 1+ D^2 + D^3 +D + D^3 + D^4 = 1+ D + D^2 + D^4 \hspace{0.3cm} \Rightarrow \hspace{0.3cm} \underline{x} = (\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm}, \text{...} \hspace{0.05cm}) \hspace{0.05cm}.\]

Multiplication by  $D$  in the image domain corresponds to a shift of one place to the right in the time domain, which is why  $D$  is called the delay operator:

\[W(D) = D \cdot X(D) \quad \bullet\!\!-\!\!\!-^{\hspace{-0.25cm}D}\!\!\!-\!\!\circ\quad \underline{w} = (\hspace{0.05cm}0\hspace{0.05cm},\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm}, \text{...} \hspace{0.05cm}) \hspace{0.05cm}.\]


Application of the D-transform to rate-1/n-convolution encoders


We now apply the results of the last page to a convolutional coder, restricting ourselves for the moment to the special case  $k = 1$ .

  • Such a  $(n, \ k = 1)$ convolutional code can be realized with  $n$  digital filters operating in parallel on the same information sequence  $\underline{u}$ .
  • The graph shows the arrangement for the code parameter  $n = 2$   ⇒   code rate $R = 1/2$.


Two filters working in parallel, each with order  $m$

The following equations apply equally to both filters, setting $j = 1$  for the upper filter  and $j = 2$  for the lower filter:

  • The  impulse responses  of the two filters result in
\[\underline{g}^{(j)} = (g_0^{(j)}, g_1^{(j)}, \hspace{0.05cm}\text{...}\hspace{0.05cm}, g_m^{(j)}\hspace{0.01cm}) \hspace{0.05cm},\hspace{0.2cm}{\rm mit }\hspace{0.15cm} j \in \{1,2\}\hspace{0.05cm}.\]
  • The two  output sequences  are as follows, considering that both filters operate on the same input sequence  $\underline{u} = (u_0, u_1, u_2, \hspace{0.05cm} \text{...})$ :
\[\underline{x}^{(j)} = (x_0^{(j)}, x_1^{(j)}, x_2^{(j)}, \hspace{0.05cm}\text{...}\hspace{0.05cm}) = \underline{u} \cdot \underline{g}^{(j)} \hspace{0.05cm},\hspace{0.2cm}{\rm mit }\hspace{0.15cm} j \in \{1,2\}\hspace{0.05cm}.\]
  • For the  $D$ transform  of the output sequences:
\[X^{(j)}(D) = U(D) \cdot G^{(j)}(D) \hspace{0.05cm},\hspace{0.2cm}{\rm mit }\hspace{0.15cm} j \in \{1,2\}\hspace{0.05cm}.\]

In order to represent this fact more compactly, we now define the following vectorial quantities of a convolutional code of rate  $1/n$:

$\text{Definition:}$  The  $D$ transfer functions  of the  $n$  parallel arranged Digital Filters are combined in the vector  $\underline{G}(D)$ :

\[\underline{G}(D) = \left ( G^{(1)}(D), G^{(2)}(D), \hspace{0.05cm}\text{...}\hspace{0.1cm}, G^{(n)} (D) \right )\hspace{0.05cm}.\]
  • The vector  $\underline{X}(D)$  contains the  $D$ transform  of  $n$  code sequences  $\underline{x}^{(1)}, \underline{x}^{(2)}, \ \text{...} \ , \underline{x}^{(n)}$:
\[\underline{X}(D) = \left ( X^{(1)}(D), X^{(2)}(D), \hspace{0.05cm}\text{...}\hspace{0.1cm}, X^{(n)} (D) \right )\hspace{0.05cm}.\]
  • This gives the following vector equation:
\[\underline{X}(D) = U(D) \cdot \underline{G}(D)\hspace{0.05cm}.\]
  • Because of the code parameter  $k = 1$  $U(D)$  is not a vector quantity here.


Faltungscoder mit  $n = 2, \ k = 1,\ m = 2$

$\text{Example 5:}$  We consider the convolutional encoder with code parameters  $n = 2, \ k = 1, \ m = 2$. For this one holds:

\[\underline{g}^{(1)} =(\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm}) \quad \circ\!\!-\!\!\!-^{\hspace{-0.25cm}D}\!\!\!-\!\!\bullet\quad G(D) = 1+ D + D^2 \hspace{0.05cm},\]
\[\underline{g}^{(2)}= (\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm}) \quad \circ\!\!-\!\!\!-^{\hspace{-0.25cm}D}\!\!\!-\!\!\bullet\quad G(D) = 1+ D^2 \]
\[\Rightarrow \hspace{0.3cm} \underline{G}(D) = \big ( 1+ D + D^2 \hspace{0.05cm}, \hspace{0.1cm}1+ D^2 \big )\hspace{0.05cm}.\]

Let the information sequence be  $\underline{u} = (1, 0, 1, 1)$   ⇒   $D$ transform  $U(D) = 1 + D^2 + D^3$. This gives:

\[\underline{X}(D) = \left ( X^{(1)}(D),\hspace{0.1cm} X^{(2)}(D) \right ) = U(D) \cdot \underline{G}(D) \hspace{0.05cm}, \hspace{0.2cm}\]

where

\[{X}^{(1)}(D) = (1+ D^2 + D^3) \cdot (1+ D + D^2)=1+ D + D^2 + D^2 + D^3 + D^4 + D^3 + D^4 + D^5 = 1+ D + D^5\]
\[\Rightarrow \hspace{0.3cm} \underline{x}^{(1)} = (\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm}, \hspace{0.05cm} 0\hspace{0.05cm}, \hspace{0.05cm} \text{...} \hspace{0.05cm} \hspace{0.05cm}) \hspace{0.05cm},\]
\[{X}^{(2)}(D) = (1+ D^2 + D^3) \cdot (1+ D^2)=1+ D^2 + D^2 + D^4 + D^3 + D^5 = 1+ D^3 + D^4 + D^5\]
\[\Rightarrow \underline{x}^{(2)} = (\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm}0\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm}, \hspace{0.05cm} 0\hspace{0.05cm}, \hspace{0.05cm} \text{...} \hspace{0.05cm} \hspace{0.05cm}) \hspace{0.05cm}.\]

We got the same result in the  "Exercise 3.1Z"  other way. After multiplexing the two strands, you get again:  

$$\underline{x} = (11, 10, 00, 01, 01, 11, 00, 00, \hspace{0.05cm} \text{...} \hspace{0.05cm}).$$


Transfer Function Matrix


General  $(n, \ k)$ convolutional encoder

We have seen that a convolutional code of rate  $1/n$  can be most compactly described as a vector equation in the  $D$ transformed domain:   $\underline{X}(D) = U(D) \cdot \underline{G}(D)$.

Now we extend the result to convolutional encoders with more than one input   ⇒   $k ≥ 2$  (see graph).

In order to map a convolutional code of rate  $k/n$  in the $D$ domain, the dimension of the above vector equation must be increased with respect to input and transfer function:

\[\underline{X}(D) = \underline{U}(D) \cdot { \boldsymbol{\rm G}}(D)\hspace{0.05cm}.\]


This requires the following measures:

  • From the scalar function  $U(D)$  we get the vector  $\underline{U}(D) = (U^{(1)}(D), \ U^{(2)}(D), \hspace{0.05cm} \text{...} \hspace{0.05cm} , \ U^{(k)}(D))$.
  • From the vector  $\underline{G}(D)$  the  $k × n$–transfer function matrix or polynomial generator matrix  $\mathbf{G}(D)$ :
\[{\boldsymbol{\rm G}}(D)=\begin{pmatrix} G_1^{(1)}(D) & G_1^{(2)}(D) & \hspace{0.05cm} \text{...} \hspace{0.05cm} & G_1^{(n)}(D)\\ G_2^{(1)}(D) & G_2^{(2)}(D) & \hspace{0.05cm} \text{...} \hspace{0.05cm} & G_2^{(n)}(D)\\ \vdots & \vdots & & \vdots\\ G_k^{(1)}(D) & G_k^{(2)}(D) & \hspace{0.05cm} \text{...} \hspace{0.05cm} & G_k^{(n)}(D) \end{pmatrix}\hspace{0.05cm}.\]
  • Each of the  $k \cdot n$  matrix elements  $G_i^{(j)}(D)$  with  $1 ≤ i ≤ k,\ 1 ≤ j ≤ n$  is a polynomial over the dummy variable  $D$  in the Galois field  ${\rm GF}(2)$, maximal of degree  $m$, where  $m$  denotes memory.
  • Für die obige  Übertragungsfunktionsmatrix  kann mit den zu Beginn dieses Kapitels definierten  Teilmatrizen  $\mathbf{G}_0, \ \text{...} \ , \mathbf{G}_m$  auch geschrieben werden $($als Index verwenden wir wieder  $l)$:
\[{\boldsymbol{\rm G}}(D) = \sum_{l = 0}^{m} {\boldsymbol{\rm G}}_l \cdot D\hspace{0.03cm}^l = {\boldsymbol{\rm G}}_0 + {\boldsymbol{\rm G}}_1 \cdot D + {\boldsymbol{\rm G}}_2 \cdot D^2 + \hspace{0.05cm} \text{...} \hspace{0.05cm}+ {\boldsymbol{\rm G}}_m \cdot D\hspace{0.03cm}^m \hspace{0.05cm}.\]
Faltungscoder mit  $k = 2, \ n = 3, \ m = 1$

$\text{Beispiel 6:}$  Wir betrachten den  $(n = 3, \ k = 2, \ m = 1)$–Faltungscoder, dessen Teilmatrizen bereits im  $\text{Beispiel 1}$  wie folgt ermittelt wurden:

\[{ \boldsymbol{\rm G} }_0 = \begin{pmatrix} 1 & 0 & 1\\ 0 & 1 & 1 \end{pmatrix} \hspace{0.05cm}, \hspace{0.5cm} { \boldsymbol{\rm G} }_1 = \begin{pmatrix} 1 & 1 & 1\\ 1 & 0 & 0 \end{pmatrix}\hspace{0.05cm}.\]

Wegen  $m = 1$  existieren keine Teilmatrizen für  $l ≥ 2$. Damit lautet die Übertragungsfunktionsmatrix:

\[{\boldsymbol{\rm G} }(D) = {\boldsymbol{\rm G} }_0 + {\boldsymbol{\rm G} }_1 \cdot D = \begin{pmatrix} 1+D & D & 1+D\\ D & 1 & 1 \end{pmatrix} \hspace{0.05cm}.\]

Die (zeitlich begrenzte) Informationssequenz sei  $\underline{u} = (0, 1, 1, 0, 0, 0, 1, 1)$, woraus sich die beiden Eingangsfolgen wie folgt ergeben:

\[\underline{u}^{(1)} = (\hspace{0.05cm}0\hspace{0.05cm},\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm}) \quad \circ\!\!-\!\!\!-^{\hspace{-0.25cm}D}\!\!\!-\!\!\bullet\quad {U}^{(1)}(D) = D + D^3 \hspace{0.05cm},\]
\[\underline{u}^{(2)} = (\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm}0\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm}) \quad \circ\!\!-\!\!\!-^{\hspace{-0.25cm}D}\!\!\!-\!\!\bullet\quad {U}^{(2)}(D) = 1 + D^3 \hspace{0.05cm}.\]

Daraus folgt für den Vektor der  $D$–Transformierten am Coderausgang:

\[\underline{X}(D) = \big (\hspace{0.05cm} {X}^{(1)}(D)\hspace{0.05cm}, \hspace{0.05cm} {X}^{(2)}(D)\hspace{0.05cm}, \hspace{0.05cm} {X}^{(3)}(D)\hspace{0.05cm}\big ) = \underline{U}(D) \cdot {\boldsymbol{\rm G} }(D) \begin{pmatrix} D+D^3 & 1+D^3 \end{pmatrix} \cdot \begin{pmatrix} 1+D & D & 1+D\\ D & 1 & 1 \end{pmatrix}\hspace{0.05cm}.\]

Damit ergeben sich in den drei Strängen folgende Codesquenzen:

\[{X}^{(1)}(D) = (D + D^3) \cdot (1+D) + (1 + D^3) \cdot D =D + D^2 + D^3 + D^4 + D + D^4 = D^2 + D^3\]
\[\Rightarrow \hspace{0.3cm} \underline{x}^{(1)} = (\hspace{0.05cm}0\hspace{0.05cm},\hspace{0.05cm}0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm}\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm}\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} \text{...} \hspace{0.05cm}) \hspace{0.05cm},\]
\[{X}^{(2)}(D)= (D + D^3) \cdot D + (1 + D^3) \cdot 1 = D^2 + D^4 + 1 + D^3 = 1+D^2 + D^3 + D^4\]
\[\Rightarrow \hspace{0.3cm}\underline{x}^{(2)} = (\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm}0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm}\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm}\hspace{0.05cm} \text{...} \hspace{0.05cm}) \hspace{0.05cm},\]
\[{X}^{(3)}(D)=(D + D^3) \cdot (1 + D) + (1 + D^3) \cdot 1 = D + D^2 + D^3+ D^4 + 1 + D^3 = 1+ D + D^2 + D^4\]
\[\Rightarrow \hspace{0.3cm}\underline{x}^{(3)} = (\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm}\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm}\hspace{0.05cm} \text{...} \hspace{0.05cm}) \hspace{0.05cm}.\]

Die gleichen Ergebnisse haben wir auf anderen Wegen bereits in vorherigen Beispielen erhalten:


Systematische Faltungscodes


Die Polynomrepräsentation anhand der Übertragungsfunktionsmtrix  $\mathbf{G}(D)$  ermöglicht Einblicke in die Struktur eines Faltungscodes.

  • Beispielsweise erkennt man anhand dieser  $k × n$–Matrix, ob es sich um einen  systematischen Code  handelt.
  • Darunter versteht man einen Code, bei dem die Codesequenzen  $\underline{x}^{(1)}, \ \text{...} \ , \ \underline{x}^{(k)}$  mit den Informationssequenzen  $\underline{u}^{(1)}, \ \text{...} \ , \ \underline{u}^{(k)}$  identisch sind.
  • Die Grafik zeigt beispielhaft einen systematischen  $(n = 4, \ k = 3)$–Faltungscode.


Systematischer Faltungscode mit  $k = 3, \ n = 4$

Ein systematischer  $(n, k)$–Faltungscode liegt immer dann vor, wenn die Übertragungsfunktionsmatrix (mit  $k$  Zeilen und  $n$  Spalten) folgendes Aussehen hat:

\[{\boldsymbol{\rm G}}(D) = {\boldsymbol{\rm G}}_{\rm sys}(D) = \left [ \hspace{0.05cm} {\boldsymbol{\rm I}}_k\hspace{0.05cm} ; \hspace{0.1cm} {\boldsymbol{\rm P}}(D) \hspace{0.05cm}\right ] \hspace{0.05cm}.\]

Hierbei ist folgende Nomenklatur verwendet:

  • $\mathbf{I}_k$  bezeichnet eine diagonale Einheitsmatrix der Dimension  $k × k$.
  • $\mathbf{P}(D)$  ist eine  $k × (n -k)$–Matrix, wobei jedes Matrixelement ein Polynom in  $D$  beschreibt.

$\text{Beispiel 7:}$  Ein systematischer Faltungscode mit  $n = 3, \ k = 2, \ m = 2$  könnte beispielsweise die folgende Übertragungsfunktionsmatrix aufweisen:

\[{\boldsymbol{\rm G} }_{\rm sys}(D) = \begin{pmatrix} 1 & 0 & 1+D^2\\ 0 & 1 & 1+D \end{pmatrix}\hspace{0.05cm}.\]

Andere systematische Faltungscodes mit gleichem  $n$  und gleichem  $k$  unterscheiden sich demgegenüber nur durch die beiden Matrixelemente in der letzten Spalte.



Äquivalenter systematischer Faltungscode


Zu jedem  $(n, \ k)$–Faltungscode mit Matrix  $\mathbf{G}(D)$  gibt es einen  äquivalenten systematischen Code, dessen  $D$–Matrix wir mit  $\mathbf{G}_{\rm sys}(D)$ benennen.

Unterteilung von  $\mathbf{G}(D)$  in  $\mathbf{T}(D)$  und  $\mathbf{Q}(D)$

Um von der Übertragungsfunktionsmatrix  $\mathbf{G}(D)$  zur Matrix  $\mathbf{G}_{\rm sys}(D)$  des äquivalenten systematischen Faltungscodes zu kommen, geht man gemäß Grafik wie folgt vor:

  • Man unterteilt die  $k × n$–Matrix  $\mathbf{G}(D)$  in eine quadratische Matrix  $\mathbf{T}(D)$  mit  $k$  Zeilen und  $k$  Spalten und bezeichnet den Rest mit  $\mathbf{Q}(D)$.
  • Anschließend berechnet man die zu  $\mathbf{T}(D)$  inverse Matrix  $\mathbf{T}^{-1}(D)$  und daraus die Matrix für den äquivanten systematischen Code:
\[{\boldsymbol{\rm G}}_{\rm sys}(D)= {\boldsymbol{\rm T}}^{-1}(D) \cdot {\boldsymbol{\rm G}}(D) \hspace{0.05cm}.\]
  • Da  $\mathbf{T}^{-1}(D) \cdot \mathbf{T}(D)$  die  $k × k$–Einheitsmatrix  $\mathbf{I}_k$  ergibt, kann die Übertragungsfunktionsmatrix des äquivalenten systematischen Codes in der gewünschten Form geschrieben werden:
\[{\boldsymbol{\rm G}}_{\rm sys}(D) = \big [ \hspace{0.05cm} {\boldsymbol{\rm I}}_k\hspace{0.05cm} ; \hspace{0.1cm} {\boldsymbol{\rm P}}(D) \hspace{0.05cm}\big ] \hspace{0.5cm}{\rm mit}\hspace{0.5cm} {\boldsymbol{\rm P}}(D)= {\boldsymbol{\rm T}}^{-1}(D) \cdot {\boldsymbol{\rm Q}}(D) \hspace{0.05cm}. \hspace{0.05cm}\]
Faltungscodierer der Rate  $2/3$

$\text{Beispiel 8:}$  Der auf den letzten Seiten schon häufiger betrachtete Coder der Rate  $2/3$  ist nicht systematisch, weil zum Beispiel  $\underline{x}^{(1)} ≠ \underline{u}^{(1)}, \ \underline{x}^{(2)} ≠ \underline{u}^{(2)}$  gilt (siehe nebenstehende Coderschaltung).

Man erkennt dies aber auch anhand der Übertragungsfunktionsmatrix:

\[{\boldsymbol{\rm G} }(D) = \big [ \hspace{0.05cm} {\boldsymbol{\rm T} }(D)\hspace{0.05cm} ; \hspace{0.1cm} {\boldsymbol{\rm Q} }(D) \hspace{0.05cm}\big ]\]
\[\Rightarrow \hspace{0.3cm} {\boldsymbol{\rm T} }(D) = \begin{pmatrix} 1+D & D\\ D & 1 \end{pmatrix}\hspace{0.05cm},\hspace{0.2cm} {\boldsymbol{\rm Q} }(D) = \begin{pmatrix} 1+D \\ 1 \end{pmatrix}\hspace{0.05cm}.\]

Die Determinante von  $\mathbf{T}(D)$  ergibt sich zu  $(1 + D) \cdot 1 + D \cdot D = 1 + D + D^2$  und ist ungleich Null.

Somit kann für die Inverse von  $\mathbf{T}(D)$  geschrieben werden (Vertauschung der Diagonalelemente!):

\[{\boldsymbol{\rm T} }^{-1}(D) = \frac{1}{1+D+D^2} \cdot \begin{pmatrix} 1 & D\\ D & 1+D \end{pmatrix}\hspace{0.05cm}.\]

Das Produkt  $\mathbf{T}(D) \cdot \mathbf{T}^{–1}(D)$  ergibt die Einheitsmatrix  $\mathbf{I}_2$, und für die dritte Spalte von  $\mathbf{G}_{\rm sys}(D)$  gilt:

\[{\boldsymbol{\rm P} }(D)= {\boldsymbol{\rm T} }^{-1}(D) \cdot {\boldsymbol{\rm Q} }(D) = \frac{1}{1+D+D^2} \cdot \begin{pmatrix} 1 & D\\ D & 1+D \end{pmatrix}\cdot \begin{pmatrix} 1+D\\ 1 \end{pmatrix} \]
\[\Rightarrow \hspace{0.3cm} {\boldsymbol{\rm P} }(D) = \frac{1}{1+D+D^2} \cdot \begin{pmatrix} (1+D) + D \\ D \cdot (1+D) + (1+D) \end{pmatrix} = \frac{1}{1+D+D^2} \cdot \begin{pmatrix} 1 \\ 1+D^2 \end{pmatrix} \]
\[\Rightarrow \hspace{0.2cm}{\boldsymbol{\rm G} }_{\rm sys}(D) = \begin{pmatrix} 1 & 0 & \frac{1}{1+D+D^2}\\ 0 & 1 &\frac{1+D^2}{1+D+D^2} \end{pmatrix}\hspace{0.05cm}. \]

Zu klären ist noch, wie das Filter einer solchen gebrochen–rationalen Übertragungsfunktion aussieht.


Filterstruktur bei gebrochen–rationaler Übertragungsfunktion


Rekursives Filter zur Realisierung von  $G(D) = A(D)/B(D)$

Hat eine Übertragungsfunktion die Form  $G(D) = A(D)/B(D)$, so bezeichnet man das zugehörige Filter als rekursiv.

Bei einem rekursiven Faltungscodierer mit dem Gedächtnis  $m$  kann für die beiden Polynome  $A(D)$  und  $B(D)$  allgemein geschrieben werden:

\[A(D) = \sum_{l = 0}^{m} a_l \cdot D\hspace{0.05cm}^l = a_0 + a_1 \cdot D + a_2 \cdot D^2 +\ \text{...} \ \hspace{0.05cm} + a_m \cdot D\hspace{0.05cm}^m \hspace{0.05cm},\]
\[B(D) = 1 + \sum_{l = 1}^{m} b_l \cdot D\hspace{0.05cm}^l = 1 + b_1 \cdot D + b_2 \cdot D^2 + \ \text{...} \ \hspace{0.05cm} + b_m \cdot D\hspace{0.05cm}^m \hspace{0.05cm}.\]

Die Grafik zeigt die entsprechende Filterstruktur in der so genannten  Controller Canonical Form:

  • Die Koeffizienten  $a_0, \ \text{...} \ , \ a_m$  beschreiben den Vorwärtszweig.
  • Die Koeffizienten  $b_1, \ \text{...} \ , \ b_m$  bilden eine Rückkopplung.
  • Alle Koeffizienten sind binär, also  $1$  (durchgehende Verbindung) oder  $0$  (fehlende Verbindung).


Filter:  $G(D) = (1+D^2)/(1+D +D^2)$

$\text{Beispiel 9:}$  Die rechts skizzierte Filterstruktur lässt sich wie folgt beschreiben:

\[x_i = w_i + w_{i-2} \hspace{0.05cm},\]
\[w_i = u_i + w_{i-1}+ w_{i-2} \hspace{0.05cm}.\]

Entsprechend gilt für die  $D$–Transformierten:

\[X(D) =W(D) + W(D) \cdot D^2 =W(D) \cdot \left ( 1+ D^2 \right ) \hspace{0.05cm},\]
\[W(D) = \hspace{0.08cm} U(D) + W(D) \cdot D+ W(D) \cdot D^2\]
\[\Rightarrow \hspace{0.3cm} U(D) = W(D) \cdot \left ( 1+ D + D^2 \right ) \hspace{0.05cm}.\]

Somit erhält man für die Übertragungsfunktion dieses Filters:

\[G(D) = \frac{X(D)}{U(D)} = \frac{1+D^2}{1+D+D^2} \hspace{0.05cm}. \]

Im  $\text{Beispiel 8}$  zum äquivalenten systematischen Faltungscode hat sich im unteren Zweig genau dieser Ausdruck ergeben.


Aufgaben zum Kapitel


Aufgabe 3.2: G–Matrix eines Faltungscodierers

Aufgabe 3.2Z: (3, 1, 3)–Faltungscodierer

Aufgabe 3.3: Codesequenzberechnung über U(D) und G(D)

Aufgabe 3.3Z: Faltung und D–Transformation

Aufgabe 3.4: Systematische Faltungscodes

Aufgabe 3.4Z: Äquivalente Faltungscodes?

Aufgabe 3.5: Rekursive Filter für GF(2)