Difference between revisions of "Aufgaben:Exercise 3.14: Channel Coding Theorem"

From LNTwww
Line 3: Line 3:
 
}}
 
}}
  
[[File:EN_Inf_A_3_14.png|right|frame|Informationstheoretische Größen von  $\rm BSC$  und  $\rm EUC–Modell$]]
+
[[File:EN_Inf_A_3_14.png|right|frame|Information-theoretical quantities of the  $\rm BSC$   and  $\rm EUC models$]]
[https://de.wikipedia.org/wiki/Claude_Shannon Shannons]  Kanalcodierungstheorem besagt, dass über einen  ''diskreten gedächtnislosen Kanal''  (englisch:  ''Discrete Memoryless Channel'',  $\rm DMC)$  mit der Coderate  $R$  fehlerfrei übertragen werden kann, so lange  $R$  nicht größer ist als die Kanalkapazität
+
[https://en.wikipedia.org/wiki/Claude_Shannon Shannon's]  channel coding theorem states that an error-free transmission can be made over a ''discrete memoryless channel'' (DMC) with the code rate  $R$  as long as  $R$  is not greater than the channel capacity
 
:$$C = \max_{P_X(X)} \hspace{0.15cm} I(X;Y) \hspace{0.05cm}.$$
 
:$$C = \max_{P_X(X)} \hspace{0.15cm} I(X;Y) \hspace{0.05cm}.$$
Das Kanalcodierungstheorem soll in dieser Aufgabe numerisch ausgewertet werden, wobei zwei typische Kanalmodelle zu betrachten sind:
+
The channel coding theorem is to be evaluated numerically in this task, whereby two typical channel models are to be considered:
* das  $\rm BSC$–Modell  (''Binary Symmetric Channel'')  mit Verfälschungswahrscheinlichkeit  $ε = 0.25$  und der Kanalkapazität  $C = 1 - H_{\rm bin}(ε),$
+
* the  $\rm BSC$ model  (''Binary Symmetric Channel'')  with distortion probability $ε = 0.25$  and channel capacity  $C = 1 - H_{\rm bin}(ε),$
* das  $\rm EUC$–Modell  (von  ''Extremely Unsymmetric Channel'', diese Bezeichnung stammt von uns und ist nicht allgemein üblich)  entsprechend der  [[Aufgaben:Aufgabe_3.11Z:_Extrem_unsymmetrischer_Kanal|Aufgabe 3.11Z]].
+
* the  $\rm EUC$ model  (from  ''Extremely Unsymmetric Channel'', this designation originates from us and is not common) according to)  [[Aufgaben:Aufgabe_3.11Z:_Extrem_unsymmetrischer_Kanal|Exercise 3.11Z]].
  
  
Die Grafiken zeigen die numerischen Werte der informationstheoretischen Größen für die beiden Kanäle  $\rm BSC$  und  $\rm EUC$:
+
The graphs show the numerical values of the information-theoretical quantities for the two channels  $\rm BSC$  and  $\rm EUC$:
* die Quellenentropie  $H(X),$
+
* the source entropy  $H(X),$
* die Äquivokation  $H(X|Y),$
+
* the equivocation  $H(X|Y),$
* die Transinformation  $I(X; Y),$
+
* the mutual information  $I(X; Y),$
* die Irrelevanz  $H(Y|X),$  und
+
* the irrelevance  $H(Y|X),$  and
* die Sinkenentropie  $H(Y).$
+
* the sink entropy  $H(Y).$
  
  
Der Parameter in diesen Tabellen ist &nbsp;$p_0 = {\rm Pr}(X = 0)$&nbsp; im Bereich zwischen &nbsp;$p_0 = 0.3$&nbsp; bis &nbsp;$p_0 = 0.7$.&nbsp; <br>Für die zweite Quellensymbolwahrscheinlichkeit gilt:  &nbsp; $p_1 = {\rm Pr}(X = 1) =1 - p_0$.
+
The parameter in these tables is &nbsp;$p_0 = {\rm Pr}(X = 0)$&nbsp; in the range between &nbsp;$p_0 = 0.3$&nbsp; to &nbsp;$p_0 = 0.7$.&nbsp; <br>For the second source symbol probability, &nbsp; $p_1 = {\rm Pr}(X = 1) =1 - p_0$.
  
  
Line 27: Line 27:
  
  
 
+
Hints:
''Hinweise:''
+
*The exercise belongs to the chapter&nbsp; [[Information_Theory/Anwendung_auf_die_Digitalsignalübertragung|Application to Digital Signal Transmission]].
*Die Aufgabe gehört zum  Kapitel&nbsp; [[Information_Theory/Anwendung_auf_die_Digitalsignalübertragung|Anwendung auf die Digitalsignalübertragung]].
+
*Reference is made in particular to the page&nbsp;    [[Information_Theory/Anwendung_auf_die_Digitalsignalübertragung#Definition_and_meaning_of_channel_capacity|Definition and meaning of channel capacity]].
*Bezug genommen wird insbesondere auf die Seite&nbsp;    [[Information_Theory/Anwendung_auf_die_Digitalsignalübertragung#Definition_und_Bedeutung_der_Kanalkapazit.C3.A4t|Definition und Bedeutung der Kanalkapazität]].
 
 
   
 
   
  
  
  
===Fragebogen===
+
===Questions===
  
 
<quiz display=simple>
 
<quiz display=simple>
{Welche Aussagen gelten für uncodierte Übertragung &nbsp; &rArr; &nbsp;$\underline{R = 1}$, wenn man von &nbsp;$p_0 = p_1 = 0.5$&nbsp; ausgeht?
+
{Which statements are true for uncoded transmission &nbsp; &rArr; &nbsp;$\underline{R = 1}$ assuming&nbsp;$p_0 = p_1 = 0.5$&nbsp;?
 
|type="()"}
 
|type="()"}
- Mit BSC ergibt sich eine kleinere Bitfehlerwahrscheinlichkeit.
+
- BSC results in a smaller bit error probability.
- Mit EUC ergibt sich eine kleinere Bitfehlerwahrscheinlichkeit.
+
- EUC results in a smaller bit error probability.
+ Beide Modelle führen zur gleichen Bitfehlerwahrscheinlichkeit.
+
+ Both models lead to the same bit error probability.
 
   
 
   
{Lässt sich bei &nbsp;$\underline{R = 1}$&nbsp; durch andere Werte von&nbsp; $p_0$ &nbsp;bzw.&nbsp; $p_1&nbsp;das Ergebnis (formal) verbessern?
+
{With &nbsp;$\underline{R = 1}$&nbsp; can the result be (formally) improved by other values of&nbsp; $p_0$ &nbsp;or&nbsp; $p_1&nbsp;?
 
|type="()"}
 
|type="()"}
- Bei beiden Kanälen.
+
- For both channels.
- Beim BSC–Modell.
+
- With the BSC model.
+ Beim EUC–Modell.
+
+ With the EUC model.
- Bei keinem Modell.
+
- Not for any model.
  
{Über welchen Kanal lässt sich mit der Rate&nbsp; $\underline{R = 0.16}$&nbsp; fehlerfrei übertragen?  
+
{Over which channel can error-free transmission be achieved with the&nbsp; $\underline{R = 0.16}$&nbsp;?
 
|type="()"}
 
|type="()"}
+ Bei beiden Kanälen.
+
+ For both channels.
- Beim BSC–Modell.
+
- For the BSC model.
- Beim EUC–Modell.
+
- With the EUC model.
- Bei keinem Modell.
+
- With none of the models.
  
{Über welchen Kanal lässt sich mit der Rate&nbsp; $\underline{R = 0.32}$&nbsp; fehlerfrei übertragen?
+
{Over which channel can error-free transmission be achieved with the&nbsp; $\underline{R = 0.32}$&nbsp;?
 
|type="()"}
 
|type="()"}
 
- Bei beiden Kanälen.
 
- Bei beiden Kanälen.
Line 67: Line 66:
 
{Über welchen Kanal lässt sich mit der Rate&nbsp; $\underline{R = 0.48}$&nbsp; fehlerfrei übertragen?
 
{Über welchen Kanal lässt sich mit der Rate&nbsp; $\underline{R = 0.48}$&nbsp; fehlerfrei übertragen?
 
|type="()"}
 
|type="()"}
- Bei beiden Kanälen.
+
- For both channels.
- Beim BSC–Modell.
+
- For the BSC model.
- Beim EUC–Modell.
+
- With the EUC model.
+ Bei keinem Modell.
+
+ With none of the models.
 
</quiz>
 
</quiz>
  
===Musterlösung===
+
===Solution===
 
{{ML-Kopf}}
 
{{ML-Kopf}}
'''(1)''' &nbsp; Richtig ist der <u>Lösungsvorschlag 3</u>:
+
'''(1)''' &nbsp; <u>Proposed solution 3</u> is correct:
*Die BSC–Fehlerwahrscheinlichkeit ist mit&nbsp; $p_0 = p_1 = 0.5$&nbsp; bei uncodierter Übertragung &nbsp; &rArr; &nbsp; $R = 1$:
+
*The BSC error probability is&nbsp; &rArr; &nbsp; $R = 1$ with $p_0 = p_1 = 0.5$&nbsp; for uncoded transmission: &nbsp;  
 
:$$ p_{\rm B} = 0.5 \cdot 0.25 + 0.5 \cdot 0.25=0.25 \hspace{0.05cm}.$$
 
:$$ p_{\rm B} = 0.5 \cdot 0.25 + 0.5 \cdot 0.25=0.25 \hspace{0.05cm}.$$
*Entsprechend gilt bei gleichen Randbedingungen für das EUC–Modell:
+
*Correspondingly, with the same boundary conditions for the EUC model::
 
:$$ p_{\rm B} = 0.5 \cdot 0 + 0.5 \cdot 0.5=0.25 \hspace{0.05cm}.$$
 
:$$ p_{\rm B} = 0.5 \cdot 0 + 0.5 \cdot 0.5=0.25 \hspace{0.05cm}.$$
  
  
  
'''(2)''' &nbsp; Richtig ist der <u>Lösungsvorschlag 3</u>:
+
'''(2)''' &nbsp; <u>Proposed solution 3</u> is correct:
*Beim BSC–Modell mit der Verfälschungswahrscheinlichkeit&nbsp; $ε = 0.25$&nbsp; ist bei uncodierter Übertragung &nbsp; &rArr; &nbsp; $R = 1$ unabhängig von&nbsp; $p_0$&nbsp; und&nbsp; $p_1$&nbsp; die Bitfehlerwahrscheinlichkeit gleich&nbsp; $p_{\rm B} = 0.25$.
+
*In the BSC model with the distortion probability&nbsp; $ε = 0.25$&nbsp;, for uncoded transmission &nbsp; &rArr; &nbsp; $R = 1$ &nbsp;, the bit error probability is equal to&nbsp; $p_{\rm B} = 0.25$. regardless of&nbsp; $p_0$&nbsp; and&nbsp; $p_1$  
*Dagegen erhält man beim EUC–Modell beispielsweise mit&nbsp; $p_0 = 0.6$&nbsp; und&nbsp; $p_1 = 0.4$&nbsp; eine  kleinere Bitfehlerwahrscheinlichkeit:
+
*In contrast, with the EUC model, for example, a smaller bit error probability is obtained with&nbsp; $p_0 = 0.6$&nbsp; and&nbsp; $p_1 = 0.4$&nbsp;:
 
:$$p_{\rm B} = 0.6 \cdot 0 + 0.4 \cdot 0.5=0.2 \hspace{0.05cm}.$$
 
:$$p_{\rm B} = 0.6 \cdot 0 + 0.4 \cdot 0.5=0.2 \hspace{0.05cm}.$$
*Zu beachten ist jedoch, dass nun die Quellenentropie nicht mehr&nbsp; $H(X) = 1\ \rm  (bit)$&nbsp; beträgt, sondern nurmehr&nbsp; $H(X) = H_{bin} (0.6) = 0.971 \ \rm  (bit)$.  
+
*Note, however, that now the source entropy is no longer&nbsp; $H(X) = 1\ \rm  (bit)$&nbsp; but only&nbsp; $H(X) = H_{bin} (0.6) = 0.971 \ \rm  (bit)$.  
*Im Grenzfall&nbsp; $p_0 = 1$&nbsp; werden nur noch Nullen übertragen und es gilt&nbsp; $H(X) = 0$.&nbsp; Für die Bitfehlerwahrscheinlichkeit gilt dann aber tatsächlich:
+
*In the limiting case&nbsp; $p_0 = 1$&nbsp;, only zeros are transmitted and&nbsp; $H(X) = 0$.&nbsp; For the bit error probability, however, the following then actually applies:
 
:$$ p_{\rm B} = 1 \cdot 0 + 0 \cdot 0.5=0 \hspace{0.05cm}.$$
 
:$$ p_{\rm B} = 1 \cdot 0 + 0 \cdot 0.5=0 \hspace{0.05cm}.$$
:Man überträgt also keinerlei Information, diese aber mit der Bitfehlerwahrscheinlichkeit "Null".
+
:So no information is transmitted, but it is transmitted with the bit error probability "zero".
  
  
  
'''(3)''' &nbsp; Richtig ist der <u>Lösungsvorschlag 1</u>:
+
'''(3)''' &nbsp; <u>Proposed solution 1</u> is correct:
*Aus der Grafik auf der Angabenseite lässt sich für die Kapazitäten der beiden Kanäle ablesen:
+
*From the graph on the information page, it can be read for the capacities of the two channels:
 
:$$C_{\rm BSC} = 0.1887 \ \rm {bit/use}, \hspace{0.5cm}C_{rm EUC} = 0.3219 \ \rm {bit/use}.$$
 
:$$C_{\rm BSC} = 0.1887 \ \rm {bit/use}, \hspace{0.5cm}C_{rm EUC} = 0.3219 \ \rm {bit/use}.$$
*Nach dem Kanalcodierungstheorem kann bei&nbsp; $R ≤ C$&nbsp; eine Kanalcodierung gefunden werden, mit der die Fehlerwahrscheinlichkeit zu Null gemacht werden kann.  
+
*According to the channel coding theorem, a channel coding can be found at&nbsp; $R ≤ C$&nbsp; with which the error probability can be made zero.
*Bei beiden Kanälen trifft diese Bedingung mit der Rate&nbsp; $R = 0.16$&nbsp; zu.
+
*For both channels this condition is true with rate&nbsp; $R = 0.16$&nbsp;.  
  
  
  
'''(4)''' &nbsp; Richtig ist der <u>Lösungsvorschlag 3</u>:  
+
'''(4)''' &nbsp; <u>Proposed solution 3</u> is correct:
*Beim EUC–Modell wird mit &nbsp;$R = 0.32$ &nbsp;und&nbsp; $C = 0.3219$&nbsp; die notwendige Bedingung&nbsp; $R ≤ C$&nbsp; für eine fehlerfreie Übertragung erfüllt.
+
*With the EUC model, the necessary condition &nbsp; $R ≤ C$&nbsp; for an error-free transmission is fulfilled with &nbsp;$R = 0.32$ &nbsp;and&nbsp; $C = 0.3219$&nbsp;  
*Voraussetzung hierfür ist allerdings die Wahrscheinlichkeitsfunktion&nbsp; $P_X(X) = (0.6,\ 0.4).$  
+
*However, the prerequisite for this is the probability function &nbsp; $P_X(X) = (0.6,\ 0.4).$  
*Dagegen ergäbe sich für gleichwahrscheinliche Symbole &nbsp; &rArr; &nbsp; $P_X(X) = (0.5,\ 0.5)$&nbsp; die Transinformation&nbsp; $I(X; Y) = 0.3113$, <br>also ein kleinerer Wert als für die Kanalkapazität&nbsp; $C$, und es gilt auch&nbsp; $I(X; Y) < R$.
+
*In contrast, for equally probable symbols &nbsp; &rArr; &nbsp; $P_X(X) = (0.5,\ 0.5)$&nbsp; the mutual information&nbsp; $I(X; Y) = 0.3113$ would result, <br>i.e. a smaller value than for the channel capacity&nbsp; $C$, and&nbsp; $I(X; Y) < R$ also applies.
*Man erkennt: &nbsp; Das EUC–Modell bietet mehr Potenzial für die Anwendung einer Kanalcodierung als das BSC–Modell.&nbsp; Hier kann beispielsweise im Code ausgenutzt werden, dass eine gesendete „0” stets fehlerfrei übertragen wird.
+
*It can be seen that the EUC model offers more potential for the application of channel coding than the BSC model.&nbsp; Here, for example, it can be exploited in the code that a transmitted "0" is always transmitted without errors.
  
  
'''(5)''' &nbsp; Aus der Kommentierung der Teilaufgaben&nbsp; '''(3)'''&nbsp; und&nbsp; '''(4)'''&nbsp; geht hervor, dass der <u>Lösungsvorschlag 4</u> zutrifft.
+
'''(5)''' &nbsp; The comments on subtasks&nbsp; '''(3)'''&nbsp; and&nbsp; '''(4)'''&nbsp; show that the<u>proposed solution 4</u> applies.
  
 
{{ML-Fuß}}
 
{{ML-Fuß}}

Revision as of 14:20, 20 September 2021

Information-theoretical quantities of the  $\rm BSC$   and  $\rm EUC models$

Shannon's  channel coding theorem states that an error-free transmission can be made over a discrete memoryless channel (DMC) with the code rate  $R$  as long as  $R$  is not greater than the channel capacity

$$C = \max_{P_X(X)} \hspace{0.15cm} I(X;Y) \hspace{0.05cm}.$$

The channel coding theorem is to be evaluated numerically in this task, whereby two typical channel models are to be considered:

  • the  $\rm BSC$ model  (Binary Symmetric Channel)  with distortion probability $ε = 0.25$  and channel capacity  $C = 1 - H_{\rm bin}(ε),$
  • the  $\rm EUC$ model  (from  Extremely Unsymmetric Channel, this designation originates from us and is not common) according to)  Exercise 3.11Z.


The graphs show the numerical values of the information-theoretical quantities for the two channels  $\rm BSC$  and  $\rm EUC$:

  • the source entropy  $H(X),$
  • the equivocation  $H(X|Y),$
  • the mutual information  $I(X; Y),$
  • the irrelevance  $H(Y|X),$  and
  • the sink entropy  $H(Y).$


The parameter in these tables is  $p_0 = {\rm Pr}(X = 0)$  in the range between  $p_0 = 0.3$  to  $p_0 = 0.7$. 
For the second source symbol probability,   $p_1 = {\rm Pr}(X = 1) =1 - p_0$.




Hints:



Questions

1

Which statements are true for uncoded transmission   ⇒  $\underline{R = 1}$ assuming $p_0 = p_1 = 0.5$ ?

BSC results in a smaller bit error probability.
EUC results in a smaller bit error probability.
Both models lead to the same bit error probability.

2

With  $\underline{R = 1}$  can the result be (formally) improved by other values of  $p_0$  or  $p_1 ?

For both channels.
With the BSC model.
With the EUC model.
Not for any model.

3

Over which channel can error-free transmission be achieved with the  $\underline{R = 0.16}$ ?

For both channels.
For the BSC model.
With the EUC model.
With none of the models.

4

Over which channel can error-free transmission be achieved with the  $\underline{R = 0.32}$ ?

Bei beiden Kanälen.
Beim BSC–Modell.
Beim EUC–Modell.
Bei keinem Modell.

5

Über welchen Kanal lässt sich mit der Rate  $\underline{R = 0.48}$  fehlerfrei übertragen?

For both channels.
For the BSC model.
With the EUC model.
With none of the models.


Solution

(1)   Proposed solution 3 is correct:

  • The BSC error probability is  ⇒   $R = 1$ with $p_0 = p_1 = 0.5$  for uncoded transmission:  
$$ p_{\rm B} = 0.5 \cdot 0.25 + 0.5 \cdot 0.25=0.25 \hspace{0.05cm}.$$
  • Correspondingly, with the same boundary conditions for the EUC model::
$$ p_{\rm B} = 0.5 \cdot 0 + 0.5 \cdot 0.5=0.25 \hspace{0.05cm}.$$


(2)   Proposed solution 3 is correct:

  • In the BSC model with the distortion probability  $ε = 0.25$ , for uncoded transmission   ⇒   $R = 1$  , the bit error probability is equal to  $p_{\rm B} = 0.25$. regardless of  $p_0$  and  $p_1$
  • In contrast, with the EUC model, for example, a smaller bit error probability is obtained with  $p_0 = 0.6$  and  $p_1 = 0.4$ :
$$p_{\rm B} = 0.6 \cdot 0 + 0.4 \cdot 0.5=0.2 \hspace{0.05cm}.$$
  • Note, however, that now the source entropy is no longer  $H(X) = 1\ \rm (bit)$  but only  $H(X) = H_{bin} (0.6) = 0.971 \ \rm (bit)$.
  • In the limiting case  $p_0 = 1$ , only zeros are transmitted and  $H(X) = 0$.  For the bit error probability, however, the following then actually applies:
$$ p_{\rm B} = 1 \cdot 0 + 0 \cdot 0.5=0 \hspace{0.05cm}.$$
So no information is transmitted, but it is transmitted with the bit error probability "zero".


(3)   Proposed solution 1 is correct:

  • From the graph on the information page, it can be read for the capacities of the two channels:
$$C_{\rm BSC} = 0.1887 \ \rm {bit/use}, \hspace{0.5cm}C_{rm EUC} = 0.3219 \ \rm {bit/use}.$$
  • According to the channel coding theorem, a channel coding can be found at  $R ≤ C$  with which the error probability can be made zero.
  • For both channels this condition is true with rate  $R = 0.16$ .


(4)   Proposed solution 3 is correct:

  • With the EUC model, the necessary condition   $R ≤ C$  for an error-free transmission is fulfilled with  $R = 0.32$  and  $C = 0.3219$ 
  • However, the prerequisite for this is the probability function   $P_X(X) = (0.6,\ 0.4).$
  • In contrast, for equally probable symbols   ⇒   $P_X(X) = (0.5,\ 0.5)$  the mutual information  $I(X; Y) = 0.3113$ would result,
    i.e. a smaller value than for the channel capacity  $C$, and  $I(X; Y) < R$ also applies.
  • It can be seen that the EUC model offers more potential for the application of channel coding than the BSC model.  Here, for example, it can be exploited in the code that a transmitted "0" is always transmitted without errors.


(5)   The comments on subtasks  (3)  and  (4)  show that theproposed solution 4 applies.