Difference between revisions of "Aufgaben:Exercise 1.13: Binary Erasure Channel Decoding"

From LNTwww
Line 1: Line 1:
{{quiz-Header|Buchseite=Kanalcodierung/Decodierung linearer Blockcodes}}
+
{{quiz-Header|Buchseite=Channel_Coding/Decoding_of_Linear_Block_Codes}}
  
[[File:KC_A_1_13_neu.png|right|frame|Zur Decodierung beim BEC]]
+
[[File:KC_A_1_13_neu.png|right|frame|Decoding at the BEC]]
  
Wir gehen hier vom Modell im Abschnitt  [[Channel_Coding/Decodierung_linearer_Blockcodes#Decodierung_beim_Binary_Erasure_Channel|Decodierung beim ''Binary Erasure Channel'']]  aus (grün hinterlegte BEC–Konfiguration):
+
We assume here the model in section  [[Channel_Coding/Decoding_of_Linear_Block_Codes#Decoding_at_the_Binary_Erasure_Channel|"Decoding at the Binary Erasure Channel"]]  (BEC configuration highlighted in green):
  
*Jedes Informationswort  $\underline{u}$  wird blockweise codiert und liefert das Codewort  $\underline{x}$. Der Blockcode sei linear und durch seine Prüfmatrix  $\boldsymbol{\rm H}$ vollständig gegeben.
+
*Each information word  $\underline{u}$  is encoded blockwise and yields the codeword  $\underline{x}$. Let the block code be linear and completely given by its parity-check matrix  $\boldsymbol{\rm H}$.
  
*Bei der Übertragung werden  $n_{\rm E}$  Bit des Codewortes ausgelöscht   ⇒  [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Erasure_Channel_.E2.80.93_BEC|Binary Erasure Channel]]  (BEC). Aus dem Codewort  $\underline{x}$  wird somit das Empfangswort  $\underline{y}$.
+
*During transmission  $n_{\rm E}$  bits of the codeword are erased   ⇒  [[Channel_Coding/Channel_Models_and_Decision_Structures#Binary_Erasure_Channel_.E2.80.93_BEC|"Binary Erasure Channel"]]  (BEC). The codeword  $\underline{x}$  thus becomes the received word  $\underline{y}$.
  
*Ist die Anzahl  $n_{\rm E}$  der Auslöschungen kleiner als die  [[Channel_Coding/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung|minimale Distanz]]  $d_{\rm min}$  des Codes, so gelingt es, aus  $\underline{y}$  das Codewort  $\underline{z} = \underline{x}$  ohne Fehler zu rekonstruieren, und man erhält so auch das richtige Informationswort  $\underline{v} = \underline{u}$.
+
*If the number  $n_{\rm E}$  of erasures is less than the  [[Channel_Coding/Objective_of_Channel_Coding#Important_definitions_for_block_coding|"minimum distance"]]  $d_{\rm min}$  of the code, it is possible to reconstruct from  $\underline{y}$  the codeword  $\underline{z} = \underline{x}$  without error, and thus the correct information word  $\underline{v} = \underline{u}$ is also obtained.
  
  
Zur Aufgabenbeschreibung betrachten wir nun beispielhaft das Hamming–Codewort  $\underline{x} = (0, 1, 0, 1, 1, 0, 0)$  und das Empfangswort  $\underline{y} = (0, 1, {\rm E} , {\rm E}, 1, 0, 0).$
+
For exercise description, let us now consider the Hamming codeword  $\underline{x} = (0, 1, 0, 1, 1, 0, 0)$  and the received word  $\underline{y} = (0, 1, {\rm E} , {\rm E}, 1, 0, 0).$
  
*Ausgelöscht wurden somit durch den Kanal das dritte und vierte Bit.  
+
*The third and fourth bit were thus erased by the channel.  
*Der Codewortfinder hat somit die Aufgabe, den Vektor  $z_{\rm E} = (z_{3}, z_{4})$ mit $z_{3}, \ z_{4} \in \{0, 1\}$  zu bestimmen. Dies geschieht entsprechend der Gleichung
+
*The codeword finder thus has the exercise to determine the vector  $z_{\rm E} = (z_{3}, z_{4})$ with $z_{3}, \ z_{4} \in \{0, 1\}$  to be determined. This is done according to the equation
  
 
:$${ \boldsymbol{\rm H}}_{\rm E} \cdot \underline{z}_{\rm E}^{\rm T}= { \boldsymbol{\rm H}}_{\rm K} \cdot \underline{z}_{\rm K}^{\rm T}\hspace{0.05cm}.$$
 
:$${ \boldsymbol{\rm H}}_{\rm E} \cdot \underline{z}_{\rm E}^{\rm T}= { \boldsymbol{\rm H}}_{\rm K} \cdot \underline{z}_{\rm K}^{\rm T}\hspace{0.05cm}.$$
  
*Im vorliegenden Beispiel gilt:
+
*In the present example:
  
 
:$$\underline{z}_{\rm K} = (0, 1, 1, 0, 0)\hspace{0.05cm},\hspace{0.3cm}{ \boldsymbol{\rm H}}_{\rm K} = \begin{pmatrix} 1 &1 &1 &0 &0\\ 0 &1 &0 &1 &0\\ 1 &1 &0 &0 &1 \end{pmatrix} \hspace{0.05cm}, \hspace{0.3cm}{ \boldsymbol{\rm H}}_{\rm E} = \begin{pmatrix} 1 &0\\ 1 &1\\ 0 &1 \end{pmatrix} \hspace{0.05cm}.$$
 
:$$\underline{z}_{\rm K} = (0, 1, 1, 0, 0)\hspace{0.05cm},\hspace{0.3cm}{ \boldsymbol{\rm H}}_{\rm K} = \begin{pmatrix} 1 &1 &1 &0 &0\\ 0 &1 &0 &1 &0\\ 1 &1 &0 &0 &1 \end{pmatrix} \hspace{0.05cm}, \hspace{0.3cm}{ \boldsymbol{\rm H}}_{\rm E} = \begin{pmatrix} 1 &0\\ 1 &1\\ 0 &1 \end{pmatrix} \hspace{0.05cm}.$$
  
*Diese Gleichung liefert zwei Bestimmungsgleichungen für die zu bestimmenden Bits, deren Lösung zum Ergebnis  $z_{3} = 0$  und  $z_{4} = 1$  führt.
+
*This equation gives two equations of determination for the bits to be determined, whose solution leads to the result  $z_{3} = 0$  and  $z_{4} = 1$ .
  
  
Line 31: Line 31:
  
  
''Hinweise: ''
+
Hints:
* Die Aufgabe gehört zum Kapitel  [[Channel_Coding/Decodierung_linearer_Blockcodes|Decodierung linearer Blockcodes]].
+
* This exercise belongs to the chapter  [[Channel_Coding/Decoding_of_Linear_Block_Codes|"Decoding of Linear Block Codes"]].
* Der Algorithmus zur Zuordnung des Empfangswortes  $\underline{y}$  zum richtigen Codewort  $\underline{z} = \underline{x}$  ist im  [[Channel_Coding/Decodierung_linearer_Blockcodes#Decodierung_beim_Binary_Erasure_Channel|Theorieteil]]  ausführlich beschrieben.  
+
* The algorithm for mapping the received word  $\underline{y}$  to the correct codeword  $\underline{z} = \underline{x}$  is described in detail in the  [[Channel_Coding/Decoding_of_Linear_Block_Codes#Decoding_at_the_Binary_Erasure_Channel|"Theory section"]] .  
* Wir möchten nochmals daran erinnern, dass wir bei der BEC–Decodierung den ersten Decoderblock  $\underline{y} → \underline{z}$  als  ''Codewortfinder''  bezeichnen, da hier Fehlentscheidungen ausgeschlossen sind. Jedes Empfangswort wird richtig decodiert, oder es kann gar nicht decodiert werden.  
+
* We would like to remind again that in BEC decoding we use the first decoder block  $\underline{y} → \underline{z}$  as  ''codeword finder''  since wrong decisions are excluded here. Each received word is decoded correctly, or it may not be decoded at all.  
*Beim BSC–Modell lassen sich dagegen Decodierfehler nicht vermeiden. Dementsprechend bezeichnen wir den entsprechenden Block dort als  ''Codewortschätzer''.
+
*In the BSC model, on the other hand, decoding errors cannot be avoided. Accordingly, we refer to the corresponding block there as  ''code word estimator''.
  
  
  
  
===Fragebogen===
+
===Questions===
 
<quiz display=simple>
 
<quiz display=simple>
{Empfangen wurde&nbsp; $\underline{y} = (1, {\rm E}, 0, 1, 0, 0, {\rm E})$. Für welche Sequenz entscheidet sich der Codewortfinder?
+
{&nbsp; $\underline{y} = (1, {\rm E}, 0, 1, 0, 0, {\rm E})$ was received. Which sequence does the codeword finder decide to use?
 
|type="()"}
 
|type="()"}
 
- $\underline{z} = (1, 0, 0, 1, 0, 0, 0),$
 
- $\underline{z} = (1, 0, 0, 1, 0, 0, 0),$
Line 48: Line 48:
 
- $\underline{z} = (1, 0, 0, 1, 0, 0, 1).$
 
- $\underline{z} = (1, 0, 0, 1, 0, 0, 1).$
  
{Welche Konsequenzen ergeben sich aus den roten Eintragungen für&nbsp; $\boldsymbol{\rm H}_{\rm K}$&nbsp; und&nbsp; $z_{\rm K}$&nbsp; (siehe Grafik auf der Angabenseite)?
+
{What are the consequences of the red entries for&nbsp; $\boldsymbol{\rm H}_{\rm K}$&nbsp; and&nbsp; $z_{\rm K}$&nbsp; (see graphic on the information page)?
 
|type="[]"}
 
|type="[]"}
+ Der Erasure–Vektor lautet&nbsp; $\underline{z}_{\rm E} = (z_{5}, z_{6}, z_{7}).$
+
+ The erasure vector is&nbsp; $\underline{z}_{\rm E} = (z_{5}, z_{6}, z_{7}).$
+ Das Empfangswort lautet&nbsp; $\underline{y} = (1, 1, 0, 1, {\rm E}, {\rm E}, {\rm E}).$
+
+ The received word is&nbsp; $\underline{y} = (1, 1, 0, 1, {\rm E}, {\rm E}, {\rm E}).$
- $\boldsymbol{\rm H}_{\rm E}$&nbsp; ist eine&nbsp; $2 \times 3$–Matrix.
+
- $\boldsymbol{\rm H}_{\rm E}$&nbsp; is a&nbsp; $2 \times 3$ matrix.
+ $\boldsymbol{\rm H}_{\rm E}$&nbsp; ist eine&nbsp; $3 \times 3$–Matrix.
+
+ $\boldsymbol{\rm H}_{\rm E}$&nbsp; is a&nbsp; $3 \times 3$ matrix.
  
{Nun gelte&nbsp; $\underline{y} = (1, 1, 0, 1, {\rm E}, {\rm E}, {\rm E}).$ Welches Codewort wird ausgewählt?
+
{Now apply&nbsp; $\underline{y} = (1, 1, 0, 1, {\rm E}, {\rm E}, {\rm E}).$ Which codeword is selected?
 
|type="()"}
 
|type="()"}
 
- $\underline{z} = (1, 1, 0, 1, 1, 1, 0),$
 
- $\underline{z} = (1, 1, 0, 1, 1, 1, 0),$
 
+ $\underline{z} = (1, 1, 0, 1, 0, 0, 1),$
 
+ $\underline{z} = (1, 1, 0, 1, 0, 0, 1),$
 
- $\underline{z} = (1, 1, 0, 0, 0, 1, 0).$
 
- $\underline{z} = (1, 1, 0, 0, 0, 1, 0).$
- Für das vorliegende&nbsp; $\underline{y}$&nbsp; ist keine eindeutige Decodierung möglich.
+
- For the present&nbsp; $\underline{y}$&nbsp; no unique decoding is possible.
  
{Welche Konsequenzen ergeben sich aus den grünen Eintragungen für&nbsp; $\boldsymbol{\rm H}_{\rm K}$&nbsp; und&nbsp; $z_{\rm K}$&nbsp; (siehe Grafik auf der Angabenseite)?
+
{What are the consequences of the green entries for&nbsp; $\boldsymbol{\rm H}_{\rm K}$&nbsp; and&nbsp; $z_{\rm K}$&nbsp; (see graphic on the information page)?
 
|type="[]"}
 
|type="[]"}
+ Das Empfangswort lautet&nbsp; $\underline{y} = (1, 1, 0, {\rm E}, 0, {\rm E}, {\rm E}).$
+
+ The received word is&nbsp; $\underline{y} = (1, 1, 0, {\rm E}, 0, {\rm E}, {\rm E}).$
- $\boldsymbol{\rm H}_{\rm K}$&nbsp; unterscheidet sich gegenüber Teilfrage '''(2)''' in der letzten Zeile.
+
- $\boldsymbol{\rm H}_{\rm K}$&nbsp; differs from subquestion '''(2)''' in the last row.
+ $\boldsymbol{\rm H}_{\rm K}$&nbsp; unterscheidet sich gegenüber Teilfrage '''(2)''' in der letzten Spalte.
+
+ $\boldsymbol{\rm H}_{\rm K}$&nbsp; differs from subquestion '''(2)''' in the last column.
  
{Nun gelte&nbsp; $\underline{y} = (1, 1, 0, {\rm E}, 0, {\rm E}, {\rm E}).$ Welches Codewort wird ausgewählt?
+
{Now apply&nbsp; $\underline{y} = (1, 1, 0, {\rm E}, 0, {\rm E}, {\rm E}).$ Which codeword is selected?
 
|type="()"}
 
|type="()"}
 
- $\underline{z} = (1, 1, 0, 1, 1, 1, 0),$
 
- $\underline{z} = (1, 1, 0, 1, 1, 1, 0),$
 
- $\underline{z} = (1, 1, 0, 1, 0, 0, 1),$
 
- $\underline{z} = (1, 1, 0, 1, 0, 0, 1),$
 
- $\underline{z} = (1, 1, 0, 0, 0, 1, 0).$
 
- $\underline{z} = (1, 1, 0, 0, 0, 1, 0).$
+ Für das vorliegende&nbsp; $\underline{y}$&nbsp; ist keine eindeutige Decodierung möglich.
+
+ For the present&nbsp; $\underline{y}$&nbsp; no unique decoding is possible.
  
{Welche Aussagen ergeben sich für die Korrekturfähigkeit beim BEC? $n_{\rm E}$&nbsp; gibt im Folgenden die Anzahl der Auslöschungen (''Erasures'') an.
+
{Which statements result for the correction capability at the BEC? $n_{\rm E}$&nbsp; indicates in the following the number of erasures.
 
|type="[]"}
 
|type="[]"}
+ Für&nbsp; $n_{\rm E} < d_{\rm min}$&nbsp; ist stets eine eindeutige Decodierung möglich.
+
+ For&nbsp; $n_{\rm E} < d_{\rm min}$&nbsp; unique decoding is always possible.
- Für&nbsp; $n_{\rm E} = d_{\rm min}$&nbsp; ist stets eine eindeutige Decodierung möglich.
+
- For&nbsp; $n_{\rm E} = d_{\rm min}$&nbsp; unique decoding is always possible.
+ Für&nbsp; $n_{\rm E} = d_{\rm min}$&nbsp; ist manchmal eine eindeutige Decodierung möglich.
+
+ For&nbsp; $n_{\rm E} = d_{\rm min}$&nbsp; sometimes a unique decoding is possible.
+ Für&nbsp; $n_{\rm E} > d_{\rm min}$&nbsp; ist eine eindeutige Decodierung nie möglich.
+
+ For&nbsp; $n_{\rm E} > d_{\rm min}$&nbsp; unique decoding is never possible.
 
</quiz>
 
</quiz>
  
===Musterlösung===
+
===Solution===
 
{{ML-Kopf}}
 
{{ML-Kopf}}
 
'''(1)'''&nbsp;  Der Empfangsvektor lautet $\underline{y} = (1, {\rm E}, 0, 1, 0, 0, {\rm E})$. Ausgelöscht wurden also die Codesymbole an den Positionen 2 und 7.  
 
'''(1)'''&nbsp;  Der Empfangsvektor lautet $\underline{y} = (1, {\rm E}, 0, 1, 0, 0, {\rm E})$. Ausgelöscht wurden also die Codesymbole an den Positionen 2 und 7.  

Revision as of 22:05, 16 July 2022

Decoding at the BEC

We assume here the model in section  "Decoding at the Binary Erasure Channel"  (BEC configuration highlighted in green):

  • Each information word  $\underline{u}$  is encoded blockwise and yields the codeword  $\underline{x}$. Let the block code be linear and completely given by its parity-check matrix  $\boldsymbol{\rm H}$.
  • During transmission  $n_{\rm E}$  bits of the codeword are erased   ⇒  "Binary Erasure Channel"  (BEC). The codeword  $\underline{x}$  thus becomes the received word  $\underline{y}$.
  • If the number  $n_{\rm E}$  of erasures is less than the  "minimum distance"  $d_{\rm min}$  of the code, it is possible to reconstruct from  $\underline{y}$  the codeword  $\underline{z} = \underline{x}$  without error, and thus the correct information word  $\underline{v} = \underline{u}$ is also obtained.


For exercise description, let us now consider the Hamming codeword  $\underline{x} = (0, 1, 0, 1, 1, 0, 0)$  and the received word  $\underline{y} = (0, 1, {\rm E} , {\rm E}, 1, 0, 0).$

  • The third and fourth bit were thus erased by the channel.
  • The codeword finder thus has the exercise to determine the vector  $z_{\rm E} = (z_{3}, z_{4})$ with $z_{3}, \ z_{4} \in \{0, 1\}$  to be determined. This is done according to the equation
$${ \boldsymbol{\rm H}}_{\rm E} \cdot \underline{z}_{\rm E}^{\rm T}= { \boldsymbol{\rm H}}_{\rm K} \cdot \underline{z}_{\rm K}^{\rm T}\hspace{0.05cm}.$$
  • In the present example:
$$\underline{z}_{\rm K} = (0, 1, 1, 0, 0)\hspace{0.05cm},\hspace{0.3cm}{ \boldsymbol{\rm H}}_{\rm K} = \begin{pmatrix} 1 &1 &1 &0 &0\\ 0 &1 &0 &1 &0\\ 1 &1 &0 &0 &1 \end{pmatrix} \hspace{0.05cm}, \hspace{0.3cm}{ \boldsymbol{\rm H}}_{\rm E} = \begin{pmatrix} 1 &0\\ 1 &1\\ 0 &1 \end{pmatrix} \hspace{0.05cm}.$$
  • This equation gives two equations of determination for the bits to be determined, whose solution leads to the result  $z_{3} = 0$  and  $z_{4} = 1$ .




Hints:

  • This exercise belongs to the chapter  "Decoding of Linear Block Codes".
  • The algorithm for mapping the received word  $\underline{y}$  to the correct codeword  $\underline{z} = \underline{x}$  is described in detail in the  "Theory section" .
  • We would like to remind again that in BEC decoding we use the first decoder block  $\underline{y} → \underline{z}$  as  codeword finder  since wrong decisions are excluded here. Each received word is decoded correctly, or it may not be decoded at all.
  • In the BSC model, on the other hand, decoding errors cannot be avoided. Accordingly, we refer to the corresponding block there as  code word estimator.



Questions

1

  $\underline{y} = (1, {\rm E}, 0, 1, 0, 0, {\rm E})$ was received. Which sequence does the codeword finder decide to use?

$\underline{z} = (1, 0, 0, 1, 0, 0, 0),$
$\underline{z} = (1, 1, 0, 1, 0, 0, 1),$
$\underline{z} = (1, 0, 0, 1, 0, 0, 1).$

2

What are the consequences of the red entries for  $\boldsymbol{\rm H}_{\rm K}$  and  $z_{\rm K}$  (see graphic on the information page)?

The erasure vector is  $\underline{z}_{\rm E} = (z_{5}, z_{6}, z_{7}).$
The received word is  $\underline{y} = (1, 1, 0, 1, {\rm E}, {\rm E}, {\rm E}).$
$\boldsymbol{\rm H}_{\rm E}$  is a  $2 \times 3$ matrix.
$\boldsymbol{\rm H}_{\rm E}$  is a  $3 \times 3$ matrix.

3

Now apply  $\underline{y} = (1, 1, 0, 1, {\rm E}, {\rm E}, {\rm E}).$ Which codeword is selected?

$\underline{z} = (1, 1, 0, 1, 1, 1, 0),$
$\underline{z} = (1, 1, 0, 1, 0, 0, 1),$
$\underline{z} = (1, 1, 0, 0, 0, 1, 0).$
For the present  $\underline{y}$  no unique decoding is possible.

4

What are the consequences of the green entries for  $\boldsymbol{\rm H}_{\rm K}$  and  $z_{\rm K}$  (see graphic on the information page)?

The received word is  $\underline{y} = (1, 1, 0, {\rm E}, 0, {\rm E}, {\rm E}).$
$\boldsymbol{\rm H}_{\rm K}$  differs from subquestion (2) in the last row.
$\boldsymbol{\rm H}_{\rm K}$  differs from subquestion (2) in the last column.

5

Now apply  $\underline{y} = (1, 1, 0, {\rm E}, 0, {\rm E}, {\rm E}).$ Which codeword is selected?

$\underline{z} = (1, 1, 0, 1, 1, 1, 0),$
$\underline{z} = (1, 1, 0, 1, 0, 0, 1),$
$\underline{z} = (1, 1, 0, 0, 0, 1, 0).$
For the present  $\underline{y}$  no unique decoding is possible.

6

Which statements result for the correction capability at the BEC? $n_{\rm E}$  indicates in the following the number of erasures.

For  $n_{\rm E} < d_{\rm min}$  unique decoding is always possible.
For  $n_{\rm E} = d_{\rm min}$  unique decoding is always possible.
For  $n_{\rm E} = d_{\rm min}$  sometimes a unique decoding is possible.
For  $n_{\rm E} > d_{\rm min}$  unique decoding is never possible.


Solution

(1)  Der Empfangsvektor lautet $\underline{y} = (1, {\rm E}, 0, 1, 0, 0, {\rm E})$. Ausgelöscht wurden also die Codesymbole an den Positionen 2 und 7.

Ausgehend von der vorgegebenen Prüfmatrix

$${ \boldsymbol{\rm H}} = \begin{pmatrix} 1 &1 &1 &0 &1 &0 &0\\ 0 &1 &1 &1 &0 &1 &0\\ 1 &1 &0 &1 &0 &0 &1 \end{pmatrix}$$

des Hammingcodes erhält man für Vektor und Matrix

  • hinsichtlich aller korrekt übertragenen Codesymbole (Index $\rm K$), die dem Codewortfinder bekannt sind:
$$\underline{z}_{\rm K} = (1, 0, 1, 0, 0)\hspace{0.05cm},\hspace{0.3cm}{ \boldsymbol{\rm H}}_{\rm K} = \begin{pmatrix} 1 &1 &0 &1 &0\\ 0 &1 &1 &0 &1\\ 1 &0 &1 &0 &0 \end{pmatrix} \hspace{0.05cm},$$
  • hinsichtlich der beiden ausgelöschten Codesymbole $z_{2}$ und $z_{7}$ (Index $\rm E$), die zu ermitteln sind:
$$\underline{z}_{\rm E} = (z_2, z_7)\hspace{0.05cm},\hspace{0.3cm}{ \boldsymbol{\rm H}}_{\rm E} = \begin{pmatrix} 1 &0\\ 1 &0\\ 1 &1 \end{pmatrix} \hspace{0.05cm}.$$

Die Bestimmungsgleichung lautet somit:

$${ \boldsymbol{\rm H}}_{\rm E} \cdot \underline{z}_{\rm E}^{\rm T}= { \boldsymbol{\rm H}}_{\rm K} \cdot \underline{z}_{\rm K}^{\rm T}\hspace{0.3cm} \Rightarrow \hspace{0.3cm} \begin{pmatrix} 1 &0\\ 1 &0\\ 1 &1 \end{pmatrix} \cdot \begin{pmatrix} z_2 \\ z_7 \end{pmatrix} = \begin{pmatrix} 1 &1 &0 &1 &0\\ 0 &1 &1 &0 &1\\ 1 &0 &1 &0 &0 \end{pmatrix} \cdot \begin{pmatrix} 1 \\ 0 \\ 1 \\ 0 \\ 0 \end{pmatrix} = \begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix} \hspace{0.05cm}.$$

Daraus ergeben sich drei Gleichungen für die beiden Unbekannten $z_{2}$ und $z_{7}$:

$${\rm (a)}\ z_{2} = 1,$$
$${\rm (b)}\ z_{2} = 1,$$
$${\rm (c)}\ z_{2} + z_{7} = 0 \ \Rightarrow \ z_{7}= 1.$$


Somit liefert der Codewortfinder $\underline{z} = (1, 1, 0, 1, 0, 0, 1)$   ⇒   Lösungsvorschlag 2.


(2)  Betrachtet man die vorgegebene Matrix $\boldsymbol{\rm H}_{\rm K}$, so erkennt man, dass diese mit den ersten vier Spalten der Prüfmatrix $\boldsymbol{\rm H}$ übereinstimmt.

  • Die Auslöschungen betreffen also die letzten drei Bit des Empfangswortes   ⇒   $\underline{z}_{\rm E} = (z_{5}, z_{6}, z_{7})   ⇒   \underline{y} = (1, 1, 0, 1, {\rm E}, {\rm E}, {\rm E})$.
  • Die Erasure–Matrix lautet:
$${ \boldsymbol{\rm H}}_{\rm E} = \begin{pmatrix} 1 &0 &0\\ 0 &1 &0\\ 0 &0 &1 \end{pmatrix} \hspace{0.05cm}.$$

Richtig sind demzufolge die Aussagen 1, 2 und 4.


(3)  Man erhält nach einigen Matrizenmultiplikationen:

$${ \boldsymbol{\rm H}}_{\rm K} \cdot \underline{z}_{\rm K}^{\rm T} = \begin{pmatrix} 1 &1 &1 &0\\ 0 &1 &1 &1\\ 1 &1 &0 &1 \end{pmatrix} \cdot \begin{pmatrix} 1 \\ 1 \\ 0 \\ 1 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix} \hspace{0.05cm},\hspace{1cm} { \boldsymbol{\rm H}}_{\rm E} \cdot \underline{z}_{\rm E}^{\rm T} = \begin{pmatrix} 1 &0 &0\\ 0 &1 &0\\ 0 &0 &1 \end{pmatrix} \cdot \begin{pmatrix} z_5 \\ z_6 \\ z_7 \end{pmatrix} = \begin{pmatrix} z_5 \\ z_6 \\ z_7 \end{pmatrix} \hspace{0.05cm}.$$

Durch Gleichsetzen folgt $z_{5} = 0, \ z_{6} = 0, \ z_{7} = 1$   ⇒   Lösungsvorschlag 2.


(4)  Der Matrizenvergleich zeigt, dass die ersten drei Spalten von $\boldsymbol{\rm H}$ und $\boldsymbol{\rm H}_{\rm K}$ identisch sind.

  • Die vierte Spalte von $\boldsymbol{\rm H}_{\rm K}$ ist gleich der fünften Spalte der Prüfmatrix.
  • Daraus folgt für den Vektor $z_{\rm E} = (z_{4}, z_{6}, z_{7})$ und weiter für den Empfangsvektor $\underline{y} = (1, 1, 0, {\rm E}, 0, {\rm E}, {\rm E})$   ⇒   Lösungsvorschlag 1 und 3.


(5)  Analog zur Teilaufgabe (3) erhält man nun:

$${ \boldsymbol{\rm H}}_{\rm K} \cdot \underline{z}_{\rm K}^{\rm T} = \begin{pmatrix} 1 &1 &1 &1\\ 0 &1 &1 &0\\ 1 &1 &0 &0 \end{pmatrix} \cdot \begin{pmatrix} 1 \\ 1 \\ 0 \\ 0 \end{pmatrix} = \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix} \hspace{0.05cm},\hspace{1cm} { \boldsymbol{\rm H}}_{\rm E} \cdot \underline{z}_{\rm E}^{\rm T} = \begin{pmatrix} 0 &0 &0\\ 1 &1 &0\\ 1 &0 &1 \end{pmatrix} \cdot \begin{pmatrix} z_4 \\ z_6 \\ z_7 \end{pmatrix} = \begin{pmatrix} 0 \\ z_4 + z_6 \\ z_4 + z_7 \end{pmatrix} \hspace{0.05cm}.$$
  • Setzt man nun die beiden Spaltenvektoren gleich, so erhält man nur mehr zwei Gleichungen für die drei Unbekannten   ⇒   Lösungsvorschlag 4.
  • Oder anders ausgedrückt:   Ist die Anzahl der Auslöschungen des BEC–Kanals größer als der Rang der Matrix $\boldsymbol{\rm H}_{\rm E}$, so ergibt sich keine eindeutige Lösung des resultierenden Gleichungssystems.


Codetabelle des systematischen $(7, 4, 3)$–Hamming–Codes

(6)  Zur Lösung dieser Aufgabe beziehen wir uns wieder auf den systematischen Hamming–Code $(7, 4, 3)$ entsprechend der angegebenen Prüfgleichung und der angegebenen Codetabelle.

  • Die Informationsbit sind schwarz dargestellt und die Prüfbit rot.
  • Die minimale Distanz dieses Codes beträgt $d_{\rm min} = 3$.


Weiter nehmen wir an, dass stets das gelb hinterlegte Codewort $\underline{x} = (1, 1, 0, 1, 0, 0, 1)$ gesendet wurde. Dann gilt:

  • Ist die Anzahl  $n_{\rm E}$  der Auslöschungen kleiner als  $d_{\rm min} = 3$, so ist eine Decodierung nach der hier beschriebenen Methode immer möglich   ⇒   siehe beispielsweise Teilaufgabe (1) mit  $n_{\rm E}= 2$.
  • Auch für  $n_{\rm E} = d_{\rm min} = 3$  ist manchmal eine Decodierung möglich, wie in der Teilaufgabe (3) gezeigt. In der Codetabelle gibt es nur ein einziges Codewort, das zum Empfangsvektor  $\underline{y} = (1, 1, 0, 1, {\rm E}, {\rm E}, {\rm E})$  passen könnte, nämlich das gelb hinterlegte Codewort  $\underline{x} = (1, 1, 0, 1, 0, 0, 1)$ .
  • Dagegen konnte  $\underline{y} = (1, 1, 0, {\rm E}, 0, {\rm E}, {\rm E})$  entsprechend Teilaufgabe (4) nicht decodiert werden. In der Codetabelle erkennt man neben  $(1, 1, 0, 1, 0, 0, 1)$  mit  $(1, 1, 0, 0, 0, 1, 0)$  ein weiteres Codewort (grün hinterlegt), das durch die  $n_{\rm E} = 3$  Auslöschungen bezüglich Bit 4, 6 und 7 zum Empfangswort  $\underline{y}$  wird. Dieser Fall, wenn die  $n_{\rm E} = d_{\rm min}$  Auslöschungen genau die  $d_{\rm min}$  unterschiedlichen Bit zweier Codeworte betreffen, führt zu einer Matrix  $\mathbf{H}_{\rm E}$  mit einem Rang kleiner  $d_{\rm min}$.
  • Ist  $\boldsymbol{\rm H}_{\rm E} > d_{\rm min}$, so ist die Anzahl  $n - n_{\rm E}$  der nicht ausgelöschten Bit kleiner als die Anzahl  $k$  der Informationsbit. In diesem Fall kann das Codewort natürlich nicht decodiert werden.


Das heißt:   Zutreffend sind die Aussagen 1, 3 und 4.