Difference between revisions of "Channel Coding/Channel Models and Decision Structures"

From LNTwww
m (Text replacement - "time-discrete" to "discrete-time")
Line 54: Line 54:
 
The AWGN&ndash;channel model is not a digital channel model as we have presupposed in the paragraph&nbsp;  [[Channel_Coding/Zielsetzung_der_Kanalcodierung#Blockschaltbild_und_Voraussetzungen|block diagram and prerequisities]]&nbsp; for the introductory description of channel coding methods. However, if we take into account a hard decision, we arrive at the digital model&nbsp; <i>Binary Symmetric Channel</i>&nbsp; (BSC):<br>
 
The AWGN&ndash;channel model is not a digital channel model as we have presupposed in the paragraph&nbsp;  [[Channel_Coding/Zielsetzung_der_Kanalcodierung#Blockschaltbild_und_Voraussetzungen|block diagram and prerequisities]]&nbsp; for the introductory description of channel coding methods. However, if we take into account a hard decision, we arrive at the digital model&nbsp; <i>Binary Symmetric Channel</i>&nbsp; (BSC):<br>
  
[[File:P ID2341 KC T 1 2 S2 v2.png|center|frame|BSC–Model und Relation with The AWGN Model|class=fit]]
+
[[File:P ID2341 KC T 1 2 S2 v2.png|center|frame|BSC–Model and relation with The AWGN Model|class=fit]]
  
 
Choosing the falsification probabilities&nbsp; ${\rm Pr}(y = 1\hspace{0.05cm}|\hspace{0.05cm} x=0)$&nbsp; respectively,&nbsp; ${\rm Pr}(y = 0\hspace{0.05cm}|\hspace{0.05cm} x=1)$&nbsp; respectively to be
 
Choosing the falsification probabilities&nbsp; ${\rm Pr}(y = 1\hspace{0.05cm}|\hspace{0.05cm} x=0)$&nbsp; respectively,&nbsp; ${\rm Pr}(y = 0\hspace{0.05cm}|\hspace{0.05cm} x=1)$&nbsp; respectively to be
Line 62: Line 62:
 
then the connection to the&nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang |AWGN&ndash;Kanalmodell]]&nbsp; &nbsp; is established. The decision boundary is at&nbsp; $G = 0$, which also gives rise to the property "symmetrical".<br>
 
then the connection to the&nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang |AWGN&ndash;Kanalmodell]]&nbsp; &nbsp; is established. The decision boundary is at&nbsp; $G = 0$, which also gives rise to the property "symmetrical".<br>
  
<i>Hinweis:</i>&nbsp; Beim AWGN&ndash;Modell haben wir die binäre Ausgangsgröße (nach Schwellenwertentscheidung) mit&nbsp; $z \in \{0, \hspace{0.05cm}1\}$&nbsp; bezeichnet. Bei den digitalen Kanalmodellen (BSC, BEC, BSEC) bezeichnen wir nun den wertdiskreten Ausgang wieder mit&nbsp; $y$. Um Verwechslungen zu vermeiden, nennen wir das Ausgangssignal des AWGN&ndash;Modells nun&nbsp; $y_{\rm A}$. Für das analoge Empfangssignal gilt dann&nbsp; $y_{\rm A} = \tilde{x} +n$.<br>
+
<i>Note:</i>&nbsp; In the AWGN&ndash;model, we have denoted the binary output (after threshold decision) as&nbsp; $z \in \{0, \hspace{0.05cm}1\}$&nbsp;. For the digital channel models (BSC, BEC, BSEC), we now denote the discrete value output again by&nbsp; $y$. To avoid confusion, we now call the output signal of the AWGN&ndash;model&nbsp; $y_{\rm A}$. For the analog receive signal then&nbsp; $y_{\rm A} = \tilde{x} +n$.<br>
  
Das BSC&ndash;Modell liefert eine statistisch unabhängige Fehlerfolge und eignet sich somit zur Modellierung gedächtnisloser rückkopplungsfreier Kanäle, die in diesem Buch ausnahmslos betrachtet werden.<br>
+
The BSC&ndash;model provides a statistically independent error sequence and is thus suitable for modeling memoryless zero feedback channels, which are considered without exception in this book.<br>
  
Zur Beschreibung gedächtnisbehafteter Kanäle müssen andere Modelle herangezogen werden, die im fünften Hauptkapitel  des Buches "Digitalsignalübertragung" behandelt werden, zum Beispiel Bündelfehlerkanäle nach
+
For the description of memory-affected channels, other models must be used, which are discussed in the fifth main chapter of the book "Digital Signal Transmission", for example, bundle error channels according to the
*dem&nbsp; [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_Gilbert.E2.80.93Elliott| Gilbert&ndash;Elliott&ndash;Modell]],<br>
+
*&nbsp; [[Digital_Signal_Transmission/Burst_Error_Channels#Channel_model_according_to_Gilbert-Elliott| Gilbert&ndash;Elliott model]],<br>
  
*dem&nbsp; [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_McCullough| McCullough&ndash;Modell]].<br><br>
+
*&nbsp; [[Digital_Signal_Transmission/Burst_Error_Channels#Channel_model_according_to_McCullough| McCullough model]].<br><br>
  
[[File:P ID2342 KC T 1 2 S2b.png|right|frame|Statistisch unabhängige Fehler (links) und Bündelfehler (rechts) |class=fit]]
+
[[File:P ID2342 KC T 1 2 S2b.png|right|frame|Statistically independent errors (left) and burst errors (right)|class=fit]]
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 1:}$&nbsp;  Die Abbildung zeigt
+
$\text{Example 1:}$&nbsp;  The figure shows
*statistisch unabhängige Fehler nach dem BSC&ndash;Modell (links), und
+
*statistically independent errors according to the BSC&ndash;model (left), and
*so genannte Bündelfehler gemäß Gilbert&ndash;Elliott (rechts).
+
*so-called burst errors according to Gilbert&ndash;Elliott (right).
  
  
Die Bitfehlerrate beträgt in beiden Fällen&nbsp; $10\%$. Aus der rechten Grafik ist anhand der Bündelstörungen zu erkennen, dass das Bild zeilenweise übertragen wurde.}}<br>
+
The bit error rate is $10\%$ in both cases. From the right graph it can be seen from the burst noise that the image was transmitted line by line.}}<br>
  
 
== Binary Erasure Channel – BEC ==
 
== Binary Erasure Channel – BEC ==
 
<br>
 
<br>
Das BSC&ndash;Modell liefert nur die Aussagen "richtig" und "falsch". Manche Empfänger &ndash; so zum Beispiel die so genannten&nbsp; [[Channel_Coding/Soft%E2%80%93in_Soft%E2%80%93out_Decoder#Hard_Decision_vs._Soft_Decision|Soft&ndash;in Soft&ndash;out Decoder]]&nbsp; &ndash; können jedoch auch gewisse Informationen über die Sicherheit der Entscheidung liefern, wobei sie natürlich darüber informiert werden müssen, welche ihrer Eingangswerte sicher sind und welche eher unsicher.<br>
+
The BSC&ndash;model only provides the statements "correct" and "incorrect". However, some receivers&ndash; such as the so-called&nbsp; [[Channel_Coding/Soft-in_Soft-Out_Decoder#Hard_Decision_vs._Soft_Decision|Soft&ndash;in Soft&ndash;out Decoder]]&nbsp; &ndash; can also provide some information about the certainty of the decision, although they must of course be informed about which of their input values are certain and which are rather uncertain.<br>
  
[[File:P ID2343 KC T 1 2 S3 v2.png|center|frame|Binary Erasure Channel (BEC) und Zusammenhang mit dem AWGN–Modell|class=fit]]
+
[[File:P ID2343 KC T 1 2 S3 v2.png|center|frame|Binary Erasure Channel (BEC) and connection with the AWGN model|class=fit]]
Der&nbsp; <i>Binary Erasure Channel</i>&nbsp; (BEC) liefert eine solche Information. Anhand der Grafik erkennt man:
+
The&nbsp; <i>Binary Erasure Channel</i>&nbsp; (BEC) provides such information. On the basis of the graph you can see:
*Das Eingangsalphabet des BEC&ndash;Kanalmodells ist binär &nbsp; &#8658; &nbsp; $x &#8712; \{0, \hspace{0.05cm}1\}$ und das Ausgangsalphabet ternär &nbsp; &#8658; &nbsp;  $y &#8712; \{0, \hspace{0.05cm}1, \hspace{0.05cm}\rm E\}$. Ein&nbsp; $\rm E$&nbsp; kennzeichnet eine unsichere Entscheidung. Dieses neue "Symbol" steht für <i>Erasure</i>, zu deutsch: &nbsp;Auslöschung.
+
*The input alphabet of the BEC&ndash;channel model is binary &nbsp; &#8658; &nbsp; $x &#8712; \{0, \hspace{0.05cm}1\}$ and the output alphabet is ternary &nbsp; &#8658; &nbsp;  $y &#8712; \{0, \hspace{0.05cm}1, \hspace{0.05cm}\rm E\}$. A&nbsp; $\rm E$&nbsp; denotes an uncertain decision. This new "symbol" stands for <i>Erasure</i>.
  
*Bitfehler werden durch das BEC&ndash;Modell per se ausgeschlossen. Eine unsichere Entscheidung&nbsp; $\rm (E)$&nbsp; wird mit der Wahrscheinlichkeit $\lambda$ getroffen, während die Wahrscheinlichkeit für  eine richtige (und gleichzeitig sichere) Entscheidung&nbsp; $1-\lambda$&nbsp; beträgt.
+
*Bit errors are excluded by the BEC&ndash;model per se. An unsafe decision&nbsp; $\rm (E)$&nbsp; is made with probability $\lambda$, while the probability for a correct (and at the same time safe) decision&nbsp; is $1-\lambda$&nbsp;.
  
*Rechts oben ist der Zusammenhang zwischen BEC&ndash; und AWGN&ndash;Kanalmodell dargestellt, wobei das Erasure&ndash;Entscheidungsgebiet&nbsp; $\rm (E)$&nbsp; grau hinterlegt ist. Im Gegensatz zum BSC&ndash;Modell gibt es nun zwei Entscheidungsgrenzen&nbsp; $G_0 = G$ &nbsp;und&nbsp; $G_1 = -G$. Es gilt:
+
*In the upper right, the relationship between BEC&ndash; and AWGN&ndash;channel model is shown, with the erasure&ndash;decision area&nbsp; $\rm (E)$&nbsp; highlighted in gray. In contrast to the BSC&ndash;model, there are now two decision boundaries&nbsp; $G_0 = G$ &nbsp;and&nbsp; $G_1 = -G$. It holds:
  
 
::<math>\lambda =  {\rm Q}\big[\sqrt{\rho} \cdot (1 - G)\big]\hspace{0.05cm}.</math>
 
::<math>\lambda =  {\rm Q}\big[\sqrt{\rho} \cdot (1 - G)\big]\hspace{0.05cm}.</math>
  
Wir weisen hier nochmals auf die folgenden Applets hin:  
+
We refer here again to the following applets:  
*[[Applets:Fehlerwahrscheinlichkeit|Symbolfehlerwahrscheinlichkeit von Digitalsystemen]],
+
*[[Applets:Fehlerwahrscheinlichkeit|Symbol error probability of digital systems]],
*[[Applets:Komplementäre_Gaußsche_Fehlerfunktionen|Komplementäre Gaußsche Fehlerfunktion]].
+
*[[Applets:Complementary_Gaussian_Error_Functions|Complementary Gaussian Error Function]].
  
 
   
 
   
 
== Binary Symmetric Error & Erasure Channel – BSEC ==
 
== Binary Symmetric Error & Erasure Channel – BSEC ==
 
<br>
 
<br>
Das BEC&ndash;Modell &nbsp;$($Fehlerwahrscheinlichkeit $0)$&nbsp; ist eher unrealistisch und nur eine Näherung für ein extrem großes Signal&ndash;zu&ndash;Rausch&ndash;Leistungsverhältnis (kurz SNR)&nbsp; $\rho$.  
+
The BEC&ndash;model &nbsp;$($error probability $0)$&nbsp; is rather unrealistic and only an approximation for an extremely large signal&ndash;to&ndash;noise&ndash;power ratio (SNR for short)&nbsp; $\rho$.  
  
Stärkere Störungen &nbsp; &#8658; &nbsp; ein kleineres&nbsp; $\rho$&nbsp; sollten besser durch den&nbsp; <i>Binary Symmetric Error & Erasure Channel</i>&nbsp; (BSEC) mit den zwei Parametern
+
More severe disturbances &nbsp; &#8658; &nbsp; a smaller&nbsp; $\rho$&nbsp; would be better served by the&nbsp; <i>Binary Symmetric Error & Erasure Channel</i>&nbsp; (BSEC) with the two parameters
*Verfälschungswahrscheinlichkeit &nbsp; $\varepsilon = {\rm Pr}(y = 1\hspace{0.05cm}|\hspace{0.05cm} x=0)= {\rm Pr}(y = 0\hspace{0.05cm}|\hspace{0.05cm} x=1)$,<br>
+
*Falsification probability &nbsp; $\varepsilon = {\rm Pr}(y = 1\hspace{0.05cm}|\hspace{0.05cm} x=0)= {\rm Pr}(y = 0\hspace{0.05cm}|\hspace{0.05cm} x=1)$,<br>
  
*Erasure&ndash;Wahrscheinlichkeit &nbsp; $\lambda = {\rm Pr}(y = {\rm E}\hspace{0.05cm}|\hspace{0.05cm} x=0)= {\rm Pr}(y = {\rm E}\hspace{0.05cm}|\hspace{0.05cm} x=1)$
+
*Erasure&ndash;Probability &nbsp; $\lambda = {\rm Pr}(y = {\rm E}\hspace{0.05cm}|\hspace{0.05cm} x=0)= {\rm Pr}(y = {\rm E}\hspace{0.05cm}|\hspace{0.05cm} x=1)$
  
  
modelliert werden. Wie beim BEC&ndash;Modell gilt auch hier&nbsp; $x &#8712; \{0, \hspace{0.05cm}1\}$ &nbsp;und&nbsp; $y &#8712; \{0, \hspace{0.05cm}1, \hspace{0.05cm}\rm E\}$.<br>
+
can be modeled. As with the BEC&ndash;model,&nbsp; $x &#8712; \{0, \hspace{0.05cm}1\}$ &nbsp;and&nbsp; $y &#8712; \{0, \hspace{0.05cm}1, \hspace{0.05cm}\rm E\}$.<br>
  
[[File:KC_T_1_2_S4_version2.png|center|frame|Binary Symmetric Error & Erasure Channel (BSEC) & Zusammenhang mit dem AWGN–Modell|class=fit]]
+
[[File:KC_T_1_2_S4_version2.png|center|frame|Binary Symmetric Error & Erasure Channel (BSEC) & connection with the AWGN model|class=fit]]
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 2:}$&nbsp;  Wir betrachten das BSEC&ndash;Modell mit den beiden Entscheidungsgeraden&nbsp; $G_0 = G = 0.5$&nbsp; und&nbsp; $G_1 = -G = -0.5$, dessen Parameter&nbsp; $\varepsilon$&nbsp; und&nbsp; $\lambda$&nbsp; durch das SNR&nbsp; $\rho=1/\sigma^2$&nbsp; des vergleichbaren AWGN&ndash;Kanals festgelegt sind. Dann gilt
+
$\text{Example 2:}$&nbsp;  We consider the BSEC&ndash;model with the two decision lines&nbsp; $G_0 = G = 0.5$&nbsp; and&nbsp; $G_1 = -G = -0.5$, whose parameters&nbsp; $\varepsilon$&nbsp; and&nbsp; $\lambda$&nbsp; are fixed by the SNR&nbsp; $\rho=1/\sigma^2$&nbsp; of the comparable AWGN&ndash;channel. Then
*für&nbsp; $\sigma = 0.5$  &nbsp; &#8658; &nbsp; $\rho = 4$:
+
*for&nbsp; $\sigma = 0.5$  &nbsp; &#8658; &nbsp; $\rho = 4$:
 
::<math>\varepsilon = {\rm Q}\big[\sqrt{\rho} \cdot (1 + G)\big] = {\rm Q}(3) \approx 0.14\%\hspace{0.05cm},\hspace{0.6cm}
 
::<math>\varepsilon = {\rm Q}\big[\sqrt{\rho} \cdot (1 + G)\big] = {\rm Q}(3) \approx 0.14\%\hspace{0.05cm},\hspace{0.6cm}
 
{\it \lambda} =  {\rm Q}\big[\sqrt{\rho} \cdot (1 - G)\big] -  \varepsilon = {\rm Q}(1) - {\rm Q}(3) \approx 15.87\% -  0.14\% = 15.73\%\hspace{0.05cm},</math>
 
{\it \lambda} =  {\rm Q}\big[\sqrt{\rho} \cdot (1 - G)\big] -  \varepsilon = {\rm Q}(1) - {\rm Q}(3) \approx 15.87\% -  0.14\% = 15.73\%\hspace{0.05cm},</math>
  
*für&nbsp; $\sigma = 0.25$  &nbsp; &#8658; &nbsp; $\rho = 16$:
+
*for&nbsp; $\sigma = 0.25$  &nbsp; &#8658; &nbsp; $\rho = 16$:
  
 
::<math>\varepsilon  = {\rm Q}(6) \approx 10^{-10}\hspace{0.05cm},\hspace{0.6cm}  
 
::<math>\varepsilon  = {\rm Q}(6) \approx 10^{-10}\hspace{0.05cm},\hspace{0.6cm}  
 
{\it \lambda} = {\rm Q}(2)  \approx 2.27\%\hspace{0.05cm}.</math>
 
{\it \lambda} = {\rm Q}(2)  \approx 2.27\%\hspace{0.05cm}.</math>
  
Für die rechts dargestellte WDF wurde&nbsp; $\rho = 4$&nbsp; vorausgesetzt. Für&nbsp; $\rho = 16$&nbsp; könnte das BSEC&ndash;Modell durch die einfachere BEC&ndash;Variante ersetzt werden, ohne dass es zu gravierenden Unterschieden kommt.}}<br>
+
For the PDF shown on the right,&nbsp; $\rho = 4$&nbsp; was assumed. For&nbsp; $\rho = 16$&nbsp; the BSEC&ndash;model could be replaced by the simpler BEC&ndash;variant without serious differences.}}<br>
  
== Maximum-a-posteriori– und Maximum-Likelihood–Kriterium ==
+
== Maximum-a-posteriori– and Maximum-Likelihood–criterion==
 
<br>
 
<br>
Wir gehen nun von dem nachfolgend skizzierten Modell aus und wenden die bereits im Kapitel&nbsp; [[Digitalsignal%C3%BCbertragung/Struktur_des_optimalen_Empf%C3%A4ngers| Struktur des optimalen Empfängers]]&nbsp; des Buches "Digitalsignalübertragung" genannten Entscheidungskriterien auf den Decodiervorgang an.<br>
+
We now start from the model sketched below and apply the methods already described in chapter&nbsp; [[Digital_Signal_Transmission/Structure_of_the_Optimal_Receiver| structure of the optimal receiver]]&nbsp; of the book "Digital Signal Transmission" to the decoding process.<br>
  
[[File:P ID2345 KC T 1 2 S5 v2.png|center|frame|Modell zur Beschreibung von MAP– und ML–Decodierung|class=fit]]
+
[[File:P ID2345 KC T 1 2 S5 v2.png|center|frame|Model for the description of MAP and ML decoding|class=fit]]
  
Aufgabe des Kanaldecodierers&nbsp; (oder Kanaldecoders) ist es, den Vektor&nbsp; $\underline{v}$&nbsp; so zu bestimmen, dass dieser "möglichst gut" mit dem Informationswort&nbsp; $\underline{u}$&nbsp; übereinstimmt.  
+
The task of the channel decoder&nbsp; (or channel decoder) is to determine the vector&nbsp; $\underline{v}$&nbsp; so that it matches the information word&nbsp; $\underline{u}$&nbsp; "as well as possible".  
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Etwas genauer formuliert:}$&nbsp;   
+
$\text{Formulated a little more precisely:}$&nbsp;   
*Es soll die&nbsp; '''Blockfehlerwahrscheinlichkeit'''&nbsp; ${\rm Pr(Blockfehler)} = {\rm Pr}(\underline{v} \ne \underline{u}) $&nbsp; bezogen auf die Vektoren&nbsp; $\underline{u}$&nbsp; und&nbsp; $\underline{v}$&nbsp; der Länge&nbsp; $k$&nbsp; möglichst gering sein.  
+
*It shall minimize the&nbsp; '''block error probability'''&nbsp; ${\rm Pr(block error)} = {\rm Pr}(\underline{v} \ne \underline{u}) $&nbsp; related to the vectors&nbsp; $\underline{u}$&nbsp; and&nbsp; $\underline{v}$&nbsp; of length&nbsp; $k$&nbsp;.  
  
*Aufgrund der eindeutigen Zuordnung&nbsp; $\underline{x} = {\rm enc}(\underline{u})$&nbsp; durch den Kanalcoder bzw. empfängerseitig&nbsp; $\underline{v} = {\rm enc}^{-1}(\underline{z})$&nbsp; gilt in gleicher Weise:
+
*Because of the unique assignment&nbsp; $\underline{x} = {\rm enc}(\underline{u})$&nbsp; by the channel encoder or receiver side&nbsp; $\underline{v} = {\rm enc}^{-1}(\underline{z})$&nbsp; applies in the same way:
  
::<math>{\rm Pr(Blockfehler)} = {\rm Pr}(\underline{z} \ne \underline{x})\hspace{0.05cm}. </math>}}
+
::<math>{\rm Pr(block error)} = {\rm Pr}(\underline{z} \ne \underline{x})\hspace{0.05cm}. </math>}}
  
 +
The channel decoder in the above model consists of two parts:
 +
*The&nbsp; <i>code word estimator</i>&nbsp; determines from the receive vector&nbsp; $\underline{y}$&nbsp; an estimate&nbsp; $\underline{z} \in \mathcal{C}$&nbsp; according to a given criterion.<br>
  
Der Kanaldecoder in obigem Modell besteht aus zwei Teilen:
+
*From the (received) codeword&nbsp; $\underline{z}$&nbsp; the information word&nbsp; $\underline{v}$&nbsp; is determinedby&nbsp; <i>simple mapping</i>&nbsp;. This should match&nbsp; $\underline{u}$&nbsp;.<br><br>
*Der&nbsp; <i>Codewortschätzer</i>&nbsp; ermittelt aus dem Empfangsvektor&nbsp; $\underline{y}$&nbsp; einen Schätzwert&nbsp; $\underline{z} \in \mathcal{C}$&nbsp; gemäß einem vorgegebenen Kriterium.<br>
 
  
*Aus dem (empfangenen) Codewort&nbsp; $\underline{z}$&nbsp; wird das Informationswort&nbsp; $\underline{v}$&nbsp; durch&nbsp; <i>einfaches Mapping</i>&nbsp; ermittelt. Dieses sollte mit&nbsp; $\underline{u}$&nbsp; übereinstimmen.<br><br>
+
There are a total of four different variants for the codeword estimator, viz.
 +
*the maximum&ndash;a&ndash;posteriori&ndash;receiver (MAP receiver) for the entire codeword&nbsp; $\underline{x}$,<br>
  
Für den Codewortschätzer gibt es insgesamt vier unterschiedliche Varianten, nämlich
+
*the maximum&ndash;a&ndash;posteriori&ndash;receiver (MAP receiver) for the individual code bits&nbsp; $x_i$,<br>
*den Maximum&ndash;a&ndash;posteriori&ndash;Empfänger (MAP&ndash;Empfänger) für das gesamte Codewort&nbsp; $\underline{x}$,<br>
 
  
*den Maximum&ndash;a&ndash;posteriori&ndash;Empfänger (MAP&ndash;Empfänger) für die einzelnen Codebits&nbsp; $x_i$,<br>
+
*the Maximum&ndash;Likelihood&ndash;Receiver (ML receiver) for the entire codeword&nbsp; $\underline{x}$,<br>
  
*den Maximum&ndash;Likelihood&ndash;Empfänger (ML&ndash;Empfänger) für das gesamte Codewort&nbsp; $\underline{x}$,<br>
+
*the Maximum&ndash;Likelihood&ndash;Receiver (ML receiver) for the individual code bits&nbsp; $x_i$.<br><br>
  
*den Maximum&ndash;Likelihood&ndash;Empfänger (ML&ndash;Empfänger)  für die einzelnen Codebits&nbsp; $x_i$.<br><br>
+
Their definitions follow on the next page. First of all, however, the essential distinguishing feature between MAP and ML:
 
 
Deren Definitionen folgen auf der nächsten Seite. Vorab aber gleich das wesentliche Unterscheidungsmerkmal zwischen MAP und ML:
 
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Fazit:}$&nbsp;   
+
$\text{Conclusion:}$&nbsp;   
*Ein MAP&ndash;Empfänger berücksichtigt im Gegensatz zum ML&ndash;Empfänger auch unterschiedliche Auftrittswahrscheinlichkeiten für das gesamte Codewort bzw. für deren einzelne Bits.<br>
+
*A MAP&ndash;receiver, in contrast to the ML&ndash;receiver, also considers different occurrence probabilities for the entire codeword or for their individual bits.<br>
  
*Sind alle  Codeworte&nbsp; $\underline{x}$&nbsp; und damit auch alle Bits&nbsp; $x_i$&nbsp; der Codeworte gleichwahrscheinlich, so ist der einfachere ML&ndash;Empfänger  äquivalent zum entsprechenden MAP&ndash;Empfänger.}}<br><br>
+
*If all codewords&nbsp; $\underline{x}$&nbsp; and thus all bits&nbsp; $x_i$&nbsp; of the codewords are equally probable, the simpler ML&ndash;receiver is equivalent to the corresponding MAP&ndash;receiver.}}<br><br>
  
== Definitionen der verschiedenen Optimalempfänger ==
+
== Definitions of the different optimal receivers ==
 
<br>
 
<br>
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Der&nbsp; '''Maximum&ndash;a&ndash;posteriori&ndash;Empfänger auf Blockebene'''&nbsp; &ndash; kurz: &nbsp;<b>block&ndash;wise MAP</b> &ndash;  entscheidet sich unter den&nbsp; $2^k$&nbsp; Codeworten&nbsp; $\underline{x}_i \in \mathcal{C}$&nbsp; für das Codewort mit der größten Rückschlusswahrscheinlichkeit (englisch: &nbsp; <i>a&ndash;posteriori probability</i>, APP):
+
$\text{Definition:}$&nbsp; The&nbsp; '''maximum&ndash;a&ndash;posteriori&ndash;block-level receiver''''&nbsp; &ndash; for short: &nbsp;<b>block&ndash;wise MAP</b> &ndash;  decides among the&nbsp; $2^k$&nbsp; codewords&nbsp; $\underline{x}_i \in \mathcal{C}$&nbsp; for the codeword with the highest a posteriori probability.
  
 
::<math>\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.03cm} \in \hspace{0.05cm} \mathcal{C} } \hspace{0.1cm} {\rm Pr}( \underline{x}_{\hspace{0.03cm}i} \vert\hspace{0.05cm} \underline{y} ) \hspace{0.05cm}.</math>
 
::<math>\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.03cm} \in \hspace{0.05cm} \mathcal{C} } \hspace{0.1cm} {\rm Pr}( \underline{x}_{\hspace{0.03cm}i} \vert\hspace{0.05cm} \underline{y} ) \hspace{0.05cm}.</math>
  
${\rm Pr}( \underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm}\vert \hspace{0.05cm} \underline{y} )$&nbsp; ist die&nbsp; [[Theory_of_Stochastic_Signals/Statistische_Abh%C3%A4ngigkeit_und_Unabh%C3%A4ngigkeit#Bedingte_Wahrscheinlichkeit| bedingte Wahrscheinlichkeit]], dass&nbsp; $\underline{x}_i$&nbsp; gesendet wurde, wenn&nbsp; $\underline{y}$&nbsp; empfangen wird.}}<br>
+
${\rm Pr}( \underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm}\vert \hspace{0.05cm} \underline{y} )$&nbsp; ist die&nbsp; [[Theory_of_Stochastic_Signals/Statistical_Dependence_and_Independence#Conditional_Probability| conditional probability]], dass&nbsp; $\underline{x}_i$&nbsp; gesendet wurde, wenn&nbsp; $\underline{y}$&nbsp; empfangen wird.}}<br>
  
 
Wir versuchen nun, diese Entscheidungsregel schrittweise zu vereinfachen. Die Rückschlusswahrscheinlichkeit kann  nach dem "Satz von Bayes" wie folgt umgeformt werden:
 
Wir versuchen nun, diese Entscheidungsregel schrittweise zu vereinfachen. Die Rückschlusswahrscheinlichkeit kann  nach dem "Satz von Bayes" wie folgt umgeformt werden:

Revision as of 23:39, 17 May 2022


AWGN channel at Binary Input


We consider the well-known discrete-time  AWGN Channel model  according to the lower left graph:

  • The binary and discrete-time message signal  $x$  takes the values  $0$  and  $1$  with equal probability; that is, it is  ${\rm Pr}(x = 0) = {\rm Pr}(\tilde{x} =+1) = 1/2$  and  ${\rm Pr}(x = 1) = {\rm Pr}(\tilde{x} =-1) = 1/2$.
  • Transmission is affected by  additive white gaussian noise  (AWGN)  $n$  with the (normalised) noise power  $\sigma^2 = N_0/E_{\rm B}$ . The dispersion of the Gaussian–WDF is  $\sigma$.
  • Because of the Gaussian WDF, the output signal  $y = \tilde{x} +n$  can take on any real value in the range  $-\infty$  to  $+\infty$ . The signal value  $y$  is therefore discrete in time like  $x$   $($bzw. $\tilde{x})$  but in contrast to the latter it is continuous in value.


PDF of the AWGN Channel

The graph on the right shows (in blue and red respectively) the conditional probability density functions:

\[f_{y \hspace{0.03cm}| \hspace{0.03cm}x=0 } \hspace{0.05cm} (y \hspace{0.05cm}| \hspace{0.05cm}x=0 )\hspace{-0.1cm} = \hspace{-0.1cm} \frac {1}{\sqrt{2\pi} \cdot \sigma } \cdot {\rm e}^{ - (y-1)^2/(2\sigma^2) }\hspace{0.05cm},\]
\[f_{y \hspace{0.03cm}| \hspace{0.03cm}x=1 } \hspace{0.05cm} (y \hspace{0.05cm}| \hspace{0.05cm}x=1 )\hspace{-0.1cm} = \hspace{-0.1cm} \frac {1}{\sqrt{2\pi} \cdot \sigma } \cdot {\rm e}^{ - (y+1)^2/(2\sigma^2) }\hspace{0.05cm}.\]

Not shown is the total (unconditional) WDF, for which applies in the case of equally probable symbols:

\[f_y(y) = {1}/{2} \cdot \left [ f_{y \hspace{0.03cm}| \hspace{0.03cm}x=0 } \hspace{0.05cm} (y \hspace{0.05cm}| \hspace{0.05cm}x=0 ) + f_{y \hspace{0.03cm}| \hspace{0.03cm}x=1 } \hspace{0.05cm} (y \hspace{0.05cm}| \hspace{0.05cm}x=1 )\right ]\hspace{0.05cm}.\]

The two shaded areas  $($each  $\varepsilon)$  mark decision errors under the condition  $x=0$   ⇒   $\tilde{x} = +1$  (blue)   and respectively $x=1$   ⇒   $\tilde{x} = -1$  (red) when hard decisions are made:

\[z = \left\{ \begin{array}{c} 0\\ 1 \end{array} \right.\quad \begin{array}{*{1}c} {\rm if} \hspace{0.15cm} y > 0\hspace{0.05cm},\\ {\rm if} \hspace{0.15cm}y < 0\hspace{0.05cm}.\\ \end{array}\]

For equally probable input symbols, the mean bit error probability  ${\rm Pr}(z \ne x)$  is then also equal  $\varepsilon$. With the  complementary gaussian error integral  ${\rm Q}(x)$ the following holds:

\[\varepsilon = {\rm Q}(1/\sigma) = {\rm Q}(\sqrt{\rho}) = \frac {1}{\sqrt{2\pi} } \cdot \int_{\sqrt{\rho}}^{\infty}{\rm e}^{- \alpha^2/2} \hspace{0.1cm}{\rm d}\alpha \hspace{0.05cm}.\]

where  $\rho = 1/\sigma^2 = 2 \cdot E_{\rm S}/N_0$  denotes the signal–to–noise ratio (SNR) before the decision maker, using the following system quantities:

  • $E_{\rm S}$  is the signal energy per symbol (without coding equal  $E_{\rm B}$, thus equal to the signal energy per bit),
  • $N_0$  denotes the constant (one-sided) noise power density of the AWGN–channel.

Notes: The presented facts are clarified with the interactive applet  Symbol error probability of digital systems

Binary Symmetric Channel – BSC


The AWGN–channel model is not a digital channel model as we have presupposed in the paragraph  block diagram and prerequisities  for the introductory description of channel coding methods. However, if we take into account a hard decision, we arrive at the digital model  Binary Symmetric Channel  (BSC):

BSC–Model and relation with The AWGN Model

Choosing the falsification probabilities  ${\rm Pr}(y = 1\hspace{0.05cm}|\hspace{0.05cm} x=0)$  respectively,  ${\rm Pr}(y = 0\hspace{0.05cm}|\hspace{0.05cm} x=1)$  respectively to be

\[\varepsilon = {\rm Q}(\sqrt{\rho})\hspace{0.05cm},\]

then the connection to the  AWGN–Kanalmodell    is established. The decision boundary is at  $G = 0$, which also gives rise to the property "symmetrical".

Note:  In the AWGN–model, we have denoted the binary output (after threshold decision) as  $z \in \{0, \hspace{0.05cm}1\}$ . For the digital channel models (BSC, BEC, BSEC), we now denote the discrete value output again by  $y$. To avoid confusion, we now call the output signal of the AWGN–model  $y_{\rm A}$. For the analog receive signal then  $y_{\rm A} = \tilde{x} +n$.

The BSC–model provides a statistically independent error sequence and is thus suitable for modeling memoryless zero feedback channels, which are considered without exception in this book.

For the description of memory-affected channels, other models must be used, which are discussed in the fifth main chapter of the book "Digital Signal Transmission", for example, bundle error channels according to the

Statistically independent errors (left) and burst errors (right)

$\text{Example 1:}$  The figure shows

  • statistically independent errors according to the BSC–model (left), and
  • so-called burst errors according to Gilbert–Elliott (right).


The bit error rate is $10\%$ in both cases. From the right graph it can be seen from the burst noise that the image was transmitted line by line.


Binary Erasure Channel – BEC


The BSC–model only provides the statements "correct" and "incorrect". However, some receivers– such as the so-called  Soft–in Soft–out Decoder  – can also provide some information about the certainty of the decision, although they must of course be informed about which of their input values are certain and which are rather uncertain.

Binary Erasure Channel (BEC) and connection with the AWGN model

The  Binary Erasure Channel  (BEC) provides such information. On the basis of the graph you can see:

  • The input alphabet of the BEC–channel model is binary   ⇒   $x ∈ \{0, \hspace{0.05cm}1\}$ and the output alphabet is ternary   ⇒   $y ∈ \{0, \hspace{0.05cm}1, \hspace{0.05cm}\rm E\}$. A  $\rm E$  denotes an uncertain decision. This new "symbol" stands for Erasure.
  • Bit errors are excluded by the BEC–model per se. An unsafe decision  $\rm (E)$  is made with probability $\lambda$, while the probability for a correct (and at the same time safe) decision  is $1-\lambda$ .
  • In the upper right, the relationship between BEC– and AWGN–channel model is shown, with the erasure–decision area  $\rm (E)$  highlighted in gray. In contrast to the BSC–model, there are now two decision boundaries  $G_0 = G$  and  $G_1 = -G$. It holds:
\[\lambda = {\rm Q}\big[\sqrt{\rho} \cdot (1 - G)\big]\hspace{0.05cm}.\]

We refer here again to the following applets:


Binary Symmetric Error & Erasure Channel – BSEC


The BEC–model  $($error probability $0)$  is rather unrealistic and only an approximation for an extremely large signal–to–noise–power ratio (SNR for short)  $\rho$.

More severe disturbances   ⇒   a smaller  $\rho$  would be better served by the  Binary Symmetric Error & Erasure Channel  (BSEC) with the two parameters

  • Falsification probability   $\varepsilon = {\rm Pr}(y = 1\hspace{0.05cm}|\hspace{0.05cm} x=0)= {\rm Pr}(y = 0\hspace{0.05cm}|\hspace{0.05cm} x=1)$,
  • Erasure–Probability   $\lambda = {\rm Pr}(y = {\rm E}\hspace{0.05cm}|\hspace{0.05cm} x=0)= {\rm Pr}(y = {\rm E}\hspace{0.05cm}|\hspace{0.05cm} x=1)$


can be modeled. As with the BEC–model,  $x ∈ \{0, \hspace{0.05cm}1\}$  and  $y ∈ \{0, \hspace{0.05cm}1, \hspace{0.05cm}\rm E\}$.

Binary Symmetric Error & Erasure Channel (BSEC) & connection with the AWGN model

$\text{Example 2:}$  We consider the BSEC–model with the two decision lines  $G_0 = G = 0.5$  and  $G_1 = -G = -0.5$, whose parameters  $\varepsilon$  and  $\lambda$  are fixed by the SNR  $\rho=1/\sigma^2$  of the comparable AWGN–channel. Then

  • for  $\sigma = 0.5$   ⇒   $\rho = 4$:
\[\varepsilon = {\rm Q}\big[\sqrt{\rho} \cdot (1 + G)\big] = {\rm Q}(3) \approx 0.14\%\hspace{0.05cm},\hspace{0.6cm} {\it \lambda} = {\rm Q}\big[\sqrt{\rho} \cdot (1 - G)\big] - \varepsilon = {\rm Q}(1) - {\rm Q}(3) \approx 15.87\% - 0.14\% = 15.73\%\hspace{0.05cm},\]
  • for  $\sigma = 0.25$   ⇒   $\rho = 16$:
\[\varepsilon = {\rm Q}(6) \approx 10^{-10}\hspace{0.05cm},\hspace{0.6cm} {\it \lambda} = {\rm Q}(2) \approx 2.27\%\hspace{0.05cm}.\]

For the PDF shown on the right,  $\rho = 4$  was assumed. For  $\rho = 16$  the BSEC–model could be replaced by the simpler BEC–variant without serious differences.


Maximum-a-posteriori– and Maximum-Likelihood–criterion


We now start from the model sketched below and apply the methods already described in chapter  structure of the optimal receiver  of the book "Digital Signal Transmission" to the decoding process.

Model for the description of MAP and ML decoding

The task of the channel decoder  (or channel decoder) is to determine the vector  $\underline{v}$  so that it matches the information word  $\underline{u}$  "as well as possible".

$\text{Formulated a little more precisely:}$ 

  • It shall minimize the  block error probability  ${\rm Pr(block error)} = {\rm Pr}(\underline{v} \ne \underline{u}) $  related to the vectors  $\underline{u}$  and  $\underline{v}$  of length  $k$ .
  • Because of the unique assignment  $\underline{x} = {\rm enc}(\underline{u})$  by the channel encoder or receiver side  $\underline{v} = {\rm enc}^{-1}(\underline{z})$  applies in the same way:
\[{\rm Pr(block error)} = {\rm Pr}(\underline{z} \ne \underline{x})\hspace{0.05cm}. \]

The channel decoder in the above model consists of two parts:

  • The  code word estimator  determines from the receive vector  $\underline{y}$  an estimate  $\underline{z} \in \mathcal{C}$  according to a given criterion.
  • From the (received) codeword  $\underline{z}$  the information word  $\underline{v}$  is determinedby  simple mapping . This should match  $\underline{u}$ .

There are a total of four different variants for the codeword estimator, viz.

  • the maximum–a–posteriori–receiver (MAP receiver) for the entire codeword  $\underline{x}$,
  • the maximum–a–posteriori–receiver (MAP receiver) for the individual code bits  $x_i$,
  • the Maximum–Likelihood–Receiver (ML receiver) for the entire codeword  $\underline{x}$,
  • the Maximum–Likelihood–Receiver (ML receiver) for the individual code bits  $x_i$.

Their definitions follow on the next page. First of all, however, the essential distinguishing feature between MAP and ML:

$\text{Conclusion:}$ 

  • A MAP–receiver, in contrast to the ML–receiver, also considers different occurrence probabilities for the entire codeword or for their individual bits.
  • If all codewords  $\underline{x}$  and thus all bits  $x_i$  of the codewords are equally probable, the simpler ML–receiver is equivalent to the corresponding MAP–receiver.



Definitions of the different optimal receivers


$\text{Definition:}$  The  maximum–a–posteriori–block-level receiver'  – for short:  block–wise MAP – decides among the  $2^k$  codewords  $\underline{x}_i \in \mathcal{C}$  for the codeword with the highest a posteriori probability.

\[\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.03cm} \in \hspace{0.05cm} \mathcal{C} } \hspace{0.1cm} {\rm Pr}( \underline{x}_{\hspace{0.03cm}i} \vert\hspace{0.05cm} \underline{y} ) \hspace{0.05cm}.\]

${\rm Pr}( \underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm}\vert \hspace{0.05cm} \underline{y} )$  ist die  conditional probability, dass  $\underline{x}_i$  gesendet wurde, wenn  $\underline{y}$  empfangen wird.


Wir versuchen nun, diese Entscheidungsregel schrittweise zu vereinfachen. Die Rückschlusswahrscheinlichkeit kann nach dem "Satz von Bayes" wie folgt umgeformt werden:

\[{\rm Pr}( \underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm}\vert \hspace{0.05cm} \underline{y} ) = \frac{{\rm Pr}( \underline{y} \hspace{0.08cm} |\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} ) \cdot {\rm Pr}( \underline{x}_{\hspace{0.03cm}i} )}{{\rm Pr}( \underline{y} )} \hspace{0.05cm}.\]

Die Wahrscheinlichkeit  ${\rm Pr}( \underline{y}) $  ist unabhängig von  $\underline{x}_i$  und muss bei der Maximierung nicht berücksichtigt werden. Sind zudem alle  $2^k$  Informationsworte  $\underline{u}_i$  gleichwahrscheinlich, so kann man bei der Maximierung auch auf den Beitrag  ${\rm Pr}( \underline{x}_{\hspace{0.03cm}i} ) = 2^{-k}$  im Zähler verzichten.

$\text{Definition:}$  Der  Maximum–Likelihood–Empfänger auf Blockebene  – kurz:  block–wise ML  – entscheidet sich unter den  $2^k$  zulässigen Codeworten  $\underline{x}_i \in \mathcal{C}$  für das Codewort mit der größten Übergangswahrscheinlichkeit:

\[\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C} } \hspace{0.1cm} {\rm Pr}( \underline{y} \hspace{0.05cm}\vert\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} ) \hspace{0.05cm}.\]

Die bedingte Wahrscheinlichkeit  ${\rm Pr}( \underline{y} \hspace{0.05cm}\vert\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} )$  ist nun in Vorwärtsrichtung zu verstehen, nämlich als die Wahrscheinlichkeit, dass der Vektor  $\underline{y}$  empfangen wird, wenn das Codewort  $\underline{x}_i$  gesendet wurde.

Im Folgenden verwenden wir auf Blockebene stets den Maximum–Likelihood–Empfänger. Aufgrund der vorausgesetzten gleichwahrscheinlichen Informationsworte liefert auch dieser stets die bestmögliche Entscheidung.


Anders sieht es jedoch auf Bitebene aus. Ziel einer iterativen Decodierung ist es gerade, für alle Codebits  $x_i \in \{0, 1\}$  Wahrscheinlichkeiten zu schätzen und diese an die nächste Stufe weiterzugeben. Hierzu benötigt man einen MAP–Empfänger.

$\text{Definition:}$  Der  Maximum–a–posteriori–Empfänger auf Bitebene  (kurz:  bit–wise MAP) wählt für jedes einzelne Codebit  $x_i$  den Wert  $(0$ oder $1)$  mit der größten Rückschlusswahrscheinlichkeit  ${\rm Pr}( {x}_{\hspace{0.03cm}i}\vert \hspace{0.05cm} \underline{y} )$  aus:

\[\underline{z} = {\rm arg}\hspace{-0.1cm}{ \max_{ {x}_{\hspace{0.03cm}i} \hspace{0.03cm} \in \hspace{0.05cm} \{0, 1\} } \hspace{0.03cm} {\rm Pr}( {x}_{\hspace{0.03cm}i}\vert \hspace{0.05cm} \underline{y} ) \hspace{0.05cm} }.\]


Maximum likelihood decision at the BSC channel


Wir wenden nun das Maximum–Likelihood–Kriterium auf den gedächtnislosen  BSC–Kanal  an. Dann gilt:

\[{\rm Pr}( \underline{y} \hspace{0.05cm}|\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} ) = \prod\limits_{l=1}^{n} {\rm Pr}( y_l \hspace{0.05cm}|\hspace{0.05cm} x_l ) \hspace{0.2cm}{\rm mit}\hspace{0.2cm} {\rm Pr}( y_l \hspace{0.05cm}|\hspace{0.05cm} x_l ) = \left\{ \begin{array}{c} 1 - \varepsilon\\ \varepsilon \end{array} \right.\quad \begin{array}{*{1}c} {\rm falls} \hspace{0.15cm} y_l = x_l \hspace{0.05cm},\\ {\rm falls} \hspace{0.15cm}y_l \ne x_l\hspace{0.05cm}.\\ \end{array} \hspace{0.05cm}.\]
\[\Rightarrow \hspace{0.3cm} {\rm Pr}( \underline{y} \hspace{0.05cm}|\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} ) = \varepsilon^{d_{\rm H}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})} \cdot (1-\varepsilon)^{n-d_{\rm H}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})} \hspace{0.05cm}.\]

$\text{Beweis:}$  Dieses Ergebnis lässt sich wie folgt begründen:

  • Die  Hamming–Distanz  $d_{\rm H}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})$  gibt die Anzahl der Bitpositionen an, in denen sich die Worte  $\underline{y}$  und  $\underline{x}_{\hspace{0.03cm}i}$  mit jeweils  $n$  binären Elementen unterscheiden. Beispiel:   Die Hamming–Distanz zwischen  $\underline{y}= (0, 1, 0, 1, 0, 1, 1)$  und  $\underline{x}_{\hspace{0.03cm}i} = (0, 1, 0, 0, 1, 1, 1)$  ist  $2$.
  • In  $n - d_{\rm H}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})$  Positionen unterscheiden sich demnach die beiden Vektoren  $\underline{y}$  und  $\underline{x}_{\hspace{0.03cm}i}$  nicht. Im obigen Beispiel sind fünf der  $n = 7$  Bit identisch.
  • Zu obiger Gleichung kommt man schließlich durch Einsetzen der Verfälschungswahrscheinlichkeit  $\varepsilon$  bzw. deren Ergänzung  $1-\varepsilon$.


Die Vorgehensweise bei der Maximum–Likelihood–Detektion ist, dasjenige Codewort  $\underline{x}_{\hspace{0.03cm}i}$  zu finden, das die Übergangswahrscheinlichkeit  ${\rm Pr}( \underline{y} \hspace{0.05cm}|\hspace{0.05cm} \underline{x}_{\hspace{0.03cm}i} )$  maximiert:

\[\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm} \left [ \varepsilon^{d_{\rm H}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})} \cdot (1-\varepsilon)^{n-d_{\rm H}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})} \right ] \hspace{0.05cm}.\]

Da der Logarithmus eine monoton steigende Funktion ist, erhält man das gleiche Ergebnis nach folgender Maximierung:

\[\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm} L(\underline{x}_{\hspace{0.03cm}i})\hspace{0.5cm} {\rm mit}\hspace{0.5cm} L(\underline{x}_{\hspace{0.03cm}i}) = \ln \left [ \varepsilon^{d_{\rm H}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})} \cdot (1-\varepsilon)^{n-d_{\rm H}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})} \right ] \]
\[ \Rightarrow \hspace{0.3cm} L(\underline{x}_{\hspace{0.03cm}i}) = d_{\rm H}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i}) \cdot \ln \hspace{0.05cm} \varepsilon + \big [n -d_{\rm H}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})\big ] \cdot \ln \hspace{0.05cm} (1- \varepsilon) = \ln \frac{\varepsilon}{1-\varepsilon} \cdot d_{\rm H}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i}) + n \cdot \ln \hspace{0.05cm} (1- \varepsilon) \hspace{0.05cm}.\]

Hierbei ist zu berücksichtigen:

  • Der zweite Term dieser Gleichung ist unabhängig von  $\underline{x}_{\hspace{0.03cm}i}$  und muss für die Maximierung nicht weiter betrachtet werden.
  • Auch der Faktor vor der Hamming–Distanz ist für alle  $\underline{x}_{\hspace{0.03cm}i}$  gleich.
  • Da  $\ln \, {\varepsilon}/(1-\varepsilon)$  negativ ist (zumindest für  $\varepsilon <0.5$, was ohne große Einschränkung vorausgestzt werden kann), wird aus der Maximierung eine Minimierung, und man erhält folgendes Endergebnis:


$\text{Maximum–Likelihood-Entscheidung beim BSC-Kanal:}$ 

Wähle von den  $2^k$  zulässigen Codeworten  $\underline{x}_{\hspace{0.03cm}i}$  dasjenige mit der geringsten Hamming–Distanz  $d_{\rm H}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})$  zum Empfangsvektor  $\underline{y}$  aus:

\[\underline{z} = {\rm arg} \min_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C} } \hspace{0.1cm} d_{\rm H}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})\hspace{0.05cm}, \hspace{0.2cm} \underline{y} \in {\rm GF}(2^n) \hspace{0.05cm}, \hspace{0.2cm}\underline{x}_{\hspace{0.03cm}i}\in {\rm GF}(2^n) \hspace{0.05cm}.\]


Anwendungen der ML/BSC–Entscheidung finden Sie auf den folgenden Seiten:

Maximum likelihood decision at the AWGN channel


Das AWGN–Modell für einen  $(n, k)$–Blockcode unterscheidet sich vom  Modell  auf der ersten Kapitelseite dadurch, dass für  $x$,  $\tilde{x}$  und  $y$  nun die entsprechenden Vektoren  $\underline{x}$,  $\underline{\tilde{x}}$  und  $\underline{y}$  verwendet werden müssen, jeweils bestehend aus  $n$  Elementen.

Die Schritte zur Herleitung des Maximum–Likelihood–Entscheiders bei AWGN werden nachfolgend nur stichpunktartig angegeben:

  • Der AWGN–Kanal ist per se gedächtnislos (hierfür steht das "White" im Namen). Für die bedingte Wahrscheinlichkeitsdichtefunktion kann somit geschrieben werden:
\[f( \underline{y} \hspace{0.05cm}|\hspace{0.05cm} \underline{\tilde{x}} ) = \prod\limits_{l=1}^{n} f( y_l \hspace{0.05cm}|\hspace{0.05cm} \tilde{x}_l ) \hspace{0.05cm}.\]
  • Die bedingte WDF ist für jedes einzelne Codeelement  $(l = 1, \hspace{0.05cm}\text{...} \hspace{0.05cm}, n)$  gaußisch. Damit genügt auch die gesamte WDF einer (eindimensionalen) Gaußverteilung:
\[f({y_l \hspace{0.03cm}| \hspace{0.03cm}\tilde{x}_l }) = \frac {1}{\sqrt{2\pi} \cdot \sigma } \cdot \exp \left [ - \frac {(y_l - \tilde{x}_l)^2}{2\sigma^2} \right ]\hspace{0.3cm} \Rightarrow \hspace{0.3cm} f( \underline{y} \hspace{0.05cm}|\hspace{0.05cm} \underline{\tilde{x}} ) = \frac {1}{(2\pi)^{n/2} \cdot \sigma^n } \cdot \exp \left [ - \frac {1}{2\sigma^2} \cdot \sum_{l=1}^{n} \hspace{0.2cm}(y_l - \tilde{x}_l)^2 \right ] \hspace{0.05cm}.\]
  • Da  $\underline{y}$  nun nicht mehr wie beim BSC–Modell wertdiskret ist, sondern wertkontinuierlich, müssen jetzt nach der ML–Entscheidungsregel  Wahrscheinlichkeitsdichten  untersucht werden und nicht mehr Wahrscheinlichkeiten. Das optimale Ergebnis lautet:
\[\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm} f( \underline{y} \hspace{0.05cm}|\hspace{0.05cm} \underline{\tilde{x}}_i )\hspace{0.05cm}, \hspace{0.5cm} \underline{y} \in R^n\hspace{0.05cm}, \hspace{0.2cm}\underline{x}_{\hspace{0.03cm}i}\in {\rm GF}(2^n) \hspace{0.05cm}.\]
  • In der Algebra bezeichnet man den Abstand zweier Punkte  $\underline{y}$  und  $\underline{\tilde{x}}$  im  $n$–dimensionalen Raum als die  Euklidische Distanz, benannt nach dem griechischen Mathematiker  Euklid, der im dritten Jahrhundert vor Christus lebte:
\[d_{\rm E}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{\tilde{x}}) = \sqrt{\sum_{l=1}^{n} \hspace{0.2cm}(y_l - \tilde{x}_l)^2}\hspace{0.05cm},\hspace{0.8cm} \underline{y} \in R^n\hspace{0.05cm}, \hspace{0.2cm}\underline{x}_{\hspace{0.03cm}i}\in \mathcal{C} \hspace{0.05cm}.\]
  • Damit lautet die ML–Entscheidungsregel beim AWGN–Kanal für einen jeden Blockcode unter Berücksichtigung der Tatsache, dass der erste Faktor der WDF  $f( \underline{y} \hspace{0.05cm}|\hspace{0.05cm} \underline{\tilde{x}_i} )$  konstant ist:
\[\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm} \exp \left [ - \frac {d_{\rm E}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{\tilde{x}}_i)}{2\sigma^2} \right ]\hspace{0.05cm}, \hspace{0.8cm} \underline{y} \in R^n\hspace{0.05cm}, \hspace{0.2cm}\underline{x}_{\hspace{0.03cm}i}\in {\rm GF}(2^n) \hspace{0.05cm}.\]

Nach einigen weiteren Zwischenschritten kommt man zum Ergebnis:

$\text{Maximum–Likelihood-Entscheidung beim AWGN-Kanal:}$ 

Wähle von den  $2^k$  zulässigen Codeworten  $\underline{x}_{\hspace{0.03cm}i}$  dasjenige mit der kleinsten Euklidischen Distanz  $d_{\rm E}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})$  zum Empfangsvektor  $\underline{y}$  aus:

\[\underline{z} = {\rm arg} \min_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C} } \hspace{0.1cm} d_{\rm E}(\underline{y} \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})\hspace{0.05cm}, \hspace{0.8cm} \underline{y} \in R^n\hspace{0.05cm}, \hspace{0.2cm}\underline{x}_{\hspace{0.03cm}i}\in {\rm GF}(2^n) \hspace{0.05cm}.\]

Aufgaben zum Kapitel


Aufgabe 1.3: Kanalmodelle BSC–BEC–BSEC–AWGN

Aufgabe 1.4: Maximum–Likelihood–Entscheidung