Difference between revisions of "Aufgaben:Exercise 3.13: Code Rate and Reliability"

From LNTwww
Line 3: Line 3:
 
}}
 
}}
  
[[File:P_ID2805__Inf_A_3_12.png|right|frame|Binäre Entropiefunktion]]
+
[[File:P_ID2805__Inf_A_3_12.png|right|frame|Binary entropy function]]
Das Kanalcodierungstheorem von  [https://de.wikipedia.org/wiki/Claude_Shannon Claude E. Shannon]  besagt unter anderem, dass über einen Kanal mit beliebig kleiner Blockfehlerwahrscheinlichkeit übertragen werden kann, so lange die Coderate  $R$  nicht größer ist als die Kanalkapazität  $C$.  Dieses Ergebnis erreicht man mit  ''Kanalcodierung''  (englisch:  ''Channel Coding'')  allerdings nur bei sehr großen Blocklängen:  $n → ∞$, was mit einem beliebig großen Aufwand verbunden ist.
+
  [https://en.wikipedia.org/wiki/Claude_Shannon Claude E. Shannon]  channel coding theorem states, among other things, that a channel can be used to transmit with an arbitrarily small block error probability as long as the code rate  $R$  is not greater than the channel capacity  $C$.  However, this result can only be achieved with channel coding for very large block lengths:  $n → ∞$, which is associated with an arbitrarily large effort.
  
Diese Aussage basiert auf informationstheoretischen Gesetzmäßigkeiten, die Shannon selbst aufgestellt hat.  Shannon sagt aber  nicht, wie diese „unendlich gute” Kanalcodierung aussehen muss, er beweist nur, dass es sie gibt.
+
This statement is based on information-theoretical laws that Shannon himself established.  However, Shannon does not say what this "infinitely good" channel coding must look like, he only proves that it exists.
  
Der Umkehrschluss des Kanalcodierungstheorems sagt aus, dass mit einer Rate  $R > C$  keine fehlerfreie Übertragung möglich ist.  Es gibt dann kein Codiersystem mit verschwindend kleiner Fehlerwahrscheinlichkeit, auch wenn die Codierung noch so aufwändig und ausgeklügelt wäre.
+
The inverse of the channel coding theorem states that no error-free transmission is possible with a rate  $R > C$  keine fehlerfreie Übertragung möglich ist.  There is then no coding system with a vanishingly small error probability, no matter how elaborate and sophisticated the coding.
  
Vielmehr lassen sich für den Fall  $R > C$  zwei Schranken angeben:
+
Rather, two bounds can be specified for the case  $R > C$ :
  
* Überträgt man über einen  ''diskreten gedächtnislosen Kanal''  $\rm (DMC)$  mit einer Rate  $R$  größer als die Kanalkapazität  $C$, so gibt es eine untere Schranke für die Bitfehlerwahrscheinlichkeit:
+
*If one transmits via a  ''discrete memoryless channel''  $\rm (DMC)$  with a rate  $R$  greater than the channel capacity  $C$, there is a lower bound for the bit error probability:
 
:$$ p_{\rm B} \ge H_{\rm bin}^{-1} \left (1 - {C}/{R} \right) > 0 \hspace{0.05cm}.$$
 
:$$ p_{\rm B} \ge H_{\rm bin}^{-1} \left (1 - {C}/{R} \right) > 0 \hspace{0.05cm}.$$
* Soll die Bitfehlerwahrscheinlichkeit nach bestmöglicher Decodierung den Wert  $p_{\rm B}$  nicht überschreiten, so darf die Rate einen gewissen Grenzwert nicht überschreiten:
+
*If the bit error probability is not to exceed the value  $p_{\rm B}$  after the best possible decoding, the rate must not exceed a certain limit:
 
:$$ R \le \frac{C}{1 - H_{\rm bin}( p_{\rm B})} \hspace{0.05cm}.$$
 
:$$ R \le \frac{C}{1 - H_{\rm bin}( p_{\rm B})} \hspace{0.05cm}.$$
  
In dieser Aufgabe sollen diese Gleichungen unter Verwendung der  [[Information_Theory/Ged%C3%A4chtnislose_Nachrichtenquellen#Bin.C3.A4re_Entropiefunktion|binären Entropiefunktion]]
+
In this exercise, these equations are to be calculated using the  [[Information_Theory/Ged%C3%A4chtnislose_Nachrichtenquellen#Binary_entropy_function|binary entropy function]]
 
:$$ H_{\rm bin}( p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}$$
 
:$$ H_{\rm bin}( p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}$$
numerisch ausgewertet werden.&nbsp; Diese ist oben skizziert.&nbsp; Wegen&nbsp; $0 < p_B ≤ 1$&nbsp; und&nbsp; $0 < C/R < 1$&nbsp; liegt das Argument der Funktion&nbsp; $H_{\rm bin}(⋅)$&nbsp; und deren Umkehrfunktion&nbsp; $H_{\rm bin}^{ –1 }(⋅)$&nbsp; stets zwischen&nbsp; $0$&nbsp; und&nbsp; $1$.
+
can be evaluated numerically.&nbsp; This is sketched above.&nbsp; Because of&nbsp; $0 < p_B ≤ 1$&nbsp; and&nbsp; $0 < C/R < 1$&nbsp; the argument of the function&nbsp; $H_{\rm bin}(⋅)$&nbsp; nd its inverse function&nbsp; $H_{\rm bin}^{ –1 }(⋅)$&nbsp; is always between&nbsp; $0$&nbsp; and&nbsp; $1$.
  
  
Line 27: Line 27:
  
  
''Hinweise:''
+
Hints:
*Die Aufgabe gehört zum  Kapitel&nbsp; [[Information_Theory/Anwendung_auf_die_Digitalsignalübertragung|Anwendung auf die Digitalsignalübertragung]].
+
*The exercise belongs to the chapter&nbsp; [[Information_Theory/Anwendung_auf_die_Digitalsignalübertragung|Application to digital signal transmission]].
*Bezug genommen wird insbesondere auf die Seite&nbsp;    [[Information_Theory/Anwendung_auf_die_Digitalsignalübertragung#Rate.2C_Kanalkapazit.C3.A4t_und_Bitfehlerwahrscheinlichkeit|Rate, Kanalkapazität und Bitfehlerwahrscheinlichkeit]].
+
*Reference is made in particular to the page&nbsp;    [[Information_Theory/Anwendung_auf_die_Digitalsignalübertragung#Rate.2C_channel_capacity_and_bit_error_probability|Rate, channel capacity and bit error probability]].
*Die Werte der binären Entropiefunktion werden zum Beispiel durch das interaktice Applet&nbsp; [[Applets:Entropie_und_Näherungen_binärer_Nachrichtenquellen|Entropie und Näherungen binärer Nachrichtenquellen]]&nbsp; bereitgestellt.
+
*The values of the binary entropy function are provided, for example, by the interactive applet&nbsp; [[Applets:Entropie_und_Näherungen_binärer_Nachrichtenquellen|Entropy and approximations of binary message sources]]&nbsp;.
 
   
 
   
  
  
  
===Fragebogen===
+
===Questions===
  
 
<quiz display=simple>
 
<quiz display=simple>
{Wie lautet die untere Bitfehlerwahrscheinlichkeitsschranke für&nbsp; $\underline{R/C = 4}$?
+
{What is the lower bit error probability bound for&nbsp; $\underline{R/C = 4}$?
 
|type="{}"}
 
|type="{}"}
 
$p_{\text{B, min}} \ = \ $ { 0.215 3% }
 
$p_{\text{B, min}} \ = \ $ { 0.215 3% }
  
{Mit welcher Rate&nbsp; $R$&nbsp; kann man über einen Kanal mit der Kanalkapazität&nbsp; $\underline{C = 0.5 \ \rm (bit)}$&nbsp; bei gegebener Grenz–Fehlerwahrscheinlichkeit&nbsp; $p_{\rm B}$&nbsp; übertragen?
+
{At what rate&nbsp; $R$&nbsp; can you transmit over a channel with channel capacity&nbsp; $\underline{C = 0.5 \ \rm (bit)}$&nbsp; for a given marginal error probability&nbsp; $p_{\rm B}$&nbsp;?
 
|type="{}"}
 
|type="{}"}
 
$p_{\rm B} = 0.10\text{:} \hspace{0.5cm}R_{\rm max} \ = \ $ { 0.942 3% }
 
$p_{\rm B} = 0.10\text{:} \hspace{0.5cm}R_{\rm max} \ = \ $ { 0.942 3% }
Line 48: Line 48:
  
  
{Welche Relation besteht zwischen &nbsp;$H_{\rm bin}(p)$&nbsp; und der Näherung &nbsp;$p · \log_2 (1/p)$?
+
{What is the relation between&nbsp;$H_{\rm bin}(p)$&nbsp; and the approximation&nbsp;$p · \log_2 (1/p)$?
 
|type="[]"}
 
|type="[]"}
- Es gilt&nbsp; &nbsp;$H_{\rm bin}(p) < p · \log_2 \, (1/p)$.
+
- &nbsp; &nbsp;$H_{\rm bin}(p) < p · \log_2 \, (1/p)$ is valid.
+ Es gilt &nbsp;$H_{\rm bin}(p) = p · \log_2 \, (1/p)$.
+
+ &nbsp;$H_{\rm bin}(p) = p · \log_2 \, (1/p)$ is valid.
+ $H_{\rm bin}(p) - p · \log_2 \, (1/p)$&nbsp; wird um so kleiner, je kleiner &nbsp;$p$&nbsp; ist.
+
+ $H_{\rm bin}(p) - p · \log_2 \, (1/p)$&nbsp; becomes smaller the smaller&nbsp;$p$&nbsp; is.
  
{Welche der folgenden Gleichungen sind obere Schranken für die Rate?
+
{Which of the following equations are upper bounds on the rate?
 
|type="[]"}
 
|type="[]"}
 
+ $R/C  ≤  [1 – H_{\rm bin}(p_{\rm B})]^{ –1 }$,
 
+ $R/C  ≤  [1 – H_{\rm bin}(p_{\rm B})]^{ –1 }$,
Line 64: Line 64:
 
</quiz>
 
</quiz>
  
===Musterlösung===
+
===Solution===
 
{{ML-Kopf}}
 
{{ML-Kopf}}
'''(1)'''&nbsp; Entsprechend der vorgegebenen Gleichung gilt:
+
'''(1)'''&nbsp; According to the given equation:
 
:$$ p_{\rm B,\hspace{0.05cm} min} = H_{\rm bin}^{-1} \left (1 - \frac{C}{R} \right) = H_{\rm bin}^{-1} (0.75) \hspace{0.05cm}.$$
 
:$$ p_{\rm B,\hspace{0.05cm} min} = H_{\rm bin}^{-1} \left (1 - \frac{C}{R} \right) = H_{\rm bin}^{-1} (0.75) \hspace{0.05cm}.$$
Aus der Grafik auf der Angabenseite (blaue Markierung) lässt sich ablesen: &nbsp; $ p_{\rm B,\hspace{0.05cm} min} \hspace{0.15cm} \underline {=0.215} \hspace{0.05cm}.$
+
From the graph on the data page (blue marking) we can read: &nbsp; $ p_{\rm B,\hspace{0.05cm} min} \hspace{0.15cm} \underline {=0.215} \hspace{0.05cm}.$
  
  
  
'''(2)'''&nbsp; Durch Umstellung obiger Gleichung erhält man mit&nbsp; $H_{\rm bin}(p_{\rm B})$&nbsp; aus der Grafik:
+
'''(2)'''&nbsp; By rearranging the above equation, we obtain with&nbsp; $H_{\rm bin}(p_{\rm B})$&nbsp; from the graph:
 
:$$\begin{align*} R_{\rm max} = \frac{C}{1 - H_{\rm bin}( p_{\rm B})} \hspace{0.3cm}\Rightarrow \hspace{0.3cm} p_{\rm B}  &=  0.10:\hspace{0.2cm} R_{\rm max} = \frac{0.5}{1 - 0.469}\hspace{0.15cm} \underline {=0.942} \hspace{0.05cm},\\
 
:$$\begin{align*} R_{\rm max} = \frac{C}{1 - H_{\rm bin}( p_{\rm B})} \hspace{0.3cm}\Rightarrow \hspace{0.3cm} p_{\rm B}  &=  0.10:\hspace{0.2cm} R_{\rm max} = \frac{0.5}{1 - 0.469}\hspace{0.15cm} \underline {=0.942} \hspace{0.05cm},\\
 
\Rightarrow \hspace{0.3cm} p_{\rm B}  &=  0.05:\hspace{0.2cm} R_{\rm max} = \frac{0.5}{1 - 0.286}\hspace{0.15cm} \underline {=0.700}\hspace{0.05cm}.\end{align*}$$
 
\Rightarrow \hspace{0.3cm} p_{\rm B}  &=  0.05:\hspace{0.2cm} R_{\rm max} = \frac{0.5}{1 - 0.286}\hspace{0.15cm} \underline {=0.700}\hspace{0.05cm}.\end{align*}$$
Line 78: Line 78:
  
  
'''(3)'''&nbsp; Richtig sind die <u>Lösungsvorschläge 2 und 3</u>:
+
'''(3)'''&nbsp;<u>Proposed solutions 2 and 3</u> are correct:
*Für die binäre Entropiefunktion gilt definitionsgemäß:
+
*For the binary entropy function, by definition:
 
:$$H_{\rm bin}( p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}\hspace{0.05cm}.$$
 
:$$H_{\rm bin}( p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}\hspace{0.05cm}.$$
*Beide Terme sind positiv.&nbsp; Daraus folgt der <u>Lösungsvorschlag 2</u>: &nbsp; $H_{\rm bin}(p) = p · \log_2 \, (1/p)$.
+
*Both terms are positive.&nbsp; From this follows the <u>proposed solution 2</u>: &nbsp; $H_{\rm bin}(p) = p · \log_2 \, (1/p)$.
*Die Differenz ist durch den zweiten Term der binären Entropiefunktion gegeben:
+
*The difference is given by the second term of the binary entropy function:
 
:$$ H_{\rm bin}( p) - p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} = (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}\hspace{0.05cm}.$$
 
:$$ H_{\rm bin}( p) - p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} = (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}\hspace{0.05cm}.$$
*Dieser Term wird umso kleiner, je kleiner&nbsp; $p$&nbsp; ist.  
+
*This term becomes smaller the smaller&nbsp; $p$&nbsp; is.
*Zutreffend ist also auch der <u>Lösungsvorschlag 3</u>, wie die folgenden Rechnungen zeigen:
+
*<u>Proposed solution 3</u> is therefore also correct, as the following calculations show:
 
:$$ p_{\rm B} = 10^{-3}\text{:} \hspace{0.3cm} 0.999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.999}= 1.4420 \cdot 10^{-3} \hspace{0.05cm},$$
 
:$$ p_{\rm B} = 10^{-3}\text{:} \hspace{0.3cm} 0.999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.999}= 1.4420 \cdot 10^{-3} \hspace{0.05cm},$$
 
:$$p_{\rm B} = 10^{-4}\text{:} \hspace{0.3cm} 0.9999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.9999}= 1.4427 \cdot 10^{-4} \hspace{0.05cm},$$
 
:$$p_{\rm B} = 10^{-4}\text{:} \hspace{0.3cm} 0.9999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.9999}= 1.4427 \cdot 10^{-4} \hspace{0.05cm},$$
Line 92: Line 92:
  
  
'''(4)'''&nbsp; <u>Alle Lösungsvorschläge</u> sind zutreffend:
+
'''(4)'''&nbsp; <u>All proposed solutions</u> are correct:
*Der Ausdruck&nbsp; $R/C$&nbsp; gibt die obere Schranke gemäß dem inversen Kanalcodierungstheorem an.&nbsp; Für&nbsp; $p_{\rm B} = 10^{ –3 }$&nbsp; erhält man folgende Schranke:  
+
*The expression&nbsp; $R/C$&nbsp; gives the upper bound according to the inverse channel coding theorem.&nbsp; For&nbsp; $p_{\rm B} = 10^{ –3 }$&nbsp;, the following bound is obtained:
 
:$$R/C ≤ 1.01154  \hspace{0.5cm} ⇒ \hspace{0.5cm}  R/C - 1 ≤ 1.154 · 10^{ –2 }.$$
 
:$$R/C ≤ 1.01154  \hspace{0.5cm} ⇒ \hspace{0.5cm}  R/C - 1 ≤ 1.154 · 10^{ –2 }.$$
* Beim Vorschlag 2 ist die Näherung gemäß Teilaufgabe&nbsp; '''(3)'''&nbsp; berücksichtigt.&nbsp; Da nun der Nenner vergrößert wird, ist&nbsp; $R′/C < R/C$, beispielsweise gilt für
+
* Proposition 2 takes into account the approximation according to subtask&nbsp; '''(3)'''&nbsp;.&nbsp; Since the denominator is now increased,&nbsp; $R′/C < R/C$, for example, applies for
 
:$$p_{\rm B} = 10^{ –3 }\text{:}\hspace{0.5cm} R′/C = 1.01007 · 10^{ –2 }.$$
 
:$$p_{\rm B} = 10^{ –3 }\text{:}\hspace{0.5cm} R′/C = 1.01007 · 10^{ –2 }.$$
: Es handelt sich auch hier um eine obere Schranke, etwas sicherer als die erste Schranke&nbsp; $R/C$.
+
: This is also an upper bound, somewhat safer than the first bound&nbsp; $R/C$.
* Die Schranke&nbsp; $R′′ < R′$&nbsp; ergibt sich, wenn man&nbsp; $1/(1 – ε)$&nbsp; durch&nbsp; $1 + ε$&nbsp; ersetzt&nbsp; $(ε$&nbsp; ist positiv$)$.&nbsp; Für&nbsp; $p_{\rm B} = 10^{–3}$&nbsp; erhält man nun beispielsweise
+
* The bound&nbsp; $R′′ < R′$&nbsp; is obtained by replacing&nbsp; $1/(1 – ε)$&nbsp; by&nbsp; $1 + ε$&nbsp; ersetzt&nbsp; $(ε$&nbsp; is positive$)$.&nbsp; For example, for&nbsp; $p_{\rm B} = 10^{–3}$&nbsp; one now obtains
 
:$$R′′/C = 1.00997 \hspace{0.5cm}  ⇒ \hspace{0.5cm}  R′′/C - 1 ≤ 0.997 · 10^{–2}.$$  
 
:$$R′′/C = 1.00997 \hspace{0.5cm}  ⇒ \hspace{0.5cm}  R′′/C - 1 ≤ 0.997 · 10^{–2}.$$  
* $R′′′$&nbsp; entsprechend dem letzten Vorschlag ist identisch mit&nbsp; $R′′$&nbsp; und für Überschlagsrechnungen bei ganzzahligem Exponenten&nbsp; $i$&nbsp; gut geeignet.&nbsp; <br>Für den Zehnerlogarithmus gilt der Zahlenwert&nbsp; $\lg(2) ≈ 0.30103.$
+
* $R′′′$&nbsp; according to the last suggestion is identical to&nbsp; $R′′$&nbsp; and well suited for rollover calculations with integer exponent&nbsp; $i$&nbsp;.&nbsp; <br>For the logarithm to the base ten, the numerical value&nbsp; $\lg(2) ≈ 0.30103 applies.$
  
  
[[File:P_ID2806__Inf_A_3_12d.png|right|frame|Berechnete Schranken für die Coderaten; es gilt &nbsp; $p_{\rm B} = 10^{ –i}$]]
+
[[File:P_ID2806__Inf_A_3_12d.png|right|frame|Calculated bounds for the code rates;&nbsp; $p_{\rm B} = 10^{ –i}$ applies]]
  
Die Tabelle zeigt für verschiedene Bitfehlerwahrscheinlichkeiten&nbsp; $p_{\rm B}$&nbsp; die Abweichungen
+
The table shows for different bit error probabilities&nbsp; $p_{\rm B}$&nbsp; the deviations
* der ersten Schranke&nbsp; $(R/C-1)$&nbsp; und
+
* of the first bound&nbsp; $(R/C-1)$&nbsp; and
* der letzten Näherung&nbsp;  $(R'''/C-1)$.&nbsp;  
+
* of the last approximation&nbsp;  $(R'''/C-1)$.&nbsp;  
  
Man erkennt die gute Übereinstimmung beider Angaben.
+
One can see the good agreement of both specifications.
  
 
{{ML-Fuß}}
 
{{ML-Fuß}}

Revision as of 14:27, 20 September 2021

Binary entropy function

  Claude E. Shannon  channel coding theorem states, among other things, that a channel can be used to transmit with an arbitrarily small block error probability as long as the code rate  $R$  is not greater than the channel capacity  $C$.  However, this result can only be achieved with channel coding for very large block lengths:  $n → ∞$, which is associated with an arbitrarily large effort.

This statement is based on information-theoretical laws that Shannon himself established.  However, Shannon does not say what this "infinitely good" channel coding must look like, he only proves that it exists.

The inverse of the channel coding theorem states that no error-free transmission is possible with a rate  $R > C$  keine fehlerfreie Übertragung möglich ist.  There is then no coding system with a vanishingly small error probability, no matter how elaborate and sophisticated the coding.

Rather, two bounds can be specified for the case  $R > C$ :

  • If one transmits via a  discrete memoryless channel  $\rm (DMC)$  with a rate  $R$  greater than the channel capacity  $C$, there is a lower bound for the bit error probability:
$$ p_{\rm B} \ge H_{\rm bin}^{-1} \left (1 - {C}/{R} \right) > 0 \hspace{0.05cm}.$$
  • If the bit error probability is not to exceed the value  $p_{\rm B}$  after the best possible decoding, the rate must not exceed a certain limit:
$$ R \le \frac{C}{1 - H_{\rm bin}( p_{\rm B})} \hspace{0.05cm}.$$

In this exercise, these equations are to be calculated using the  binary entropy function

$$ H_{\rm bin}( p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}$$

can be evaluated numerically.  This is sketched above.  Because of  $0 < p_B ≤ 1$  and  $0 < C/R < 1$  the argument of the function  $H_{\rm bin}(⋅)$  nd its inverse function  $H_{\rm bin}^{ –1 }(⋅)$  is always between  $0$  and  $1$.




Hints:



Questions

1

What is the lower bit error probability bound for  $\underline{R/C = 4}$?

$p_{\text{B, min}} \ = \ $

2

At what rate  $R$  can you transmit over a channel with channel capacity  $\underline{C = 0.5 \ \rm (bit)}$  for a given marginal error probability  $p_{\rm B}$ ?

$p_{\rm B} = 0.10\text{:} \hspace{0.5cm}R_{\rm max} \ = \ $

$p_{\rm B} = 0.05\text{:} \hspace{0.5cm}R_{\rm max} \ = \ $

3

What is the relation between $H_{\rm bin}(p)$  and the approximation $p · \log_2 (1/p)$?

   $H_{\rm bin}(p) < p · \log_2 \, (1/p)$ is valid.
 $H_{\rm bin}(p) = p · \log_2 \, (1/p)$ is valid.
$H_{\rm bin}(p) - p · \log_2 \, (1/p)$  becomes smaller the smaller $p$  is.

4

Which of the following equations are upper bounds on the rate?

$R/C ≤ [1 – H_{\rm bin}(p_{\rm B})]^{ –1 }$,
$R′/C ≤ [1 + p_{\rm B} · \log_2 (p_{\rm B})]^{ –1 }$,
$R′′/C ≤ 1 – p_{\rm B} · \log_2 (p_{\rm B})$,
$R′′′/C ≤ 1 + i · p_{\rm B}/ \lg(2)$   für   $p_{\rm B} = 10^{ –i}$.


Solution

(1)  According to the given equation:

$$ p_{\rm B,\hspace{0.05cm} min} = H_{\rm bin}^{-1} \left (1 - \frac{C}{R} \right) = H_{\rm bin}^{-1} (0.75) \hspace{0.05cm}.$$

From the graph on the data page (blue marking) we can read:   $ p_{\rm B,\hspace{0.05cm} min} \hspace{0.15cm} \underline {=0.215} \hspace{0.05cm}.$


(2)  By rearranging the above equation, we obtain with  $H_{\rm bin}(p_{\rm B})$  from the graph:

$$\begin{align*} R_{\rm max} = \frac{C}{1 - H_{\rm bin}( p_{\rm B})} \hspace{0.3cm}\Rightarrow \hspace{0.3cm} p_{\rm B} &= 0.10:\hspace{0.2cm} R_{\rm max} = \frac{0.5}{1 - 0.469}\hspace{0.15cm} \underline {=0.942} \hspace{0.05cm},\\ \Rightarrow \hspace{0.3cm} p_{\rm B} &= 0.05:\hspace{0.2cm} R_{\rm max} = \frac{0.5}{1 - 0.286}\hspace{0.15cm} \underline {=0.700}\hspace{0.05cm}.\end{align*}$$


(3) Proposed solutions 2 and 3 are correct:

  • For the binary entropy function, by definition:
$$H_{\rm bin}( p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}\hspace{0.05cm}.$$
  • Both terms are positive.  From this follows the proposed solution 2:   $H_{\rm bin}(p) = p · \log_2 \, (1/p)$.
  • The difference is given by the second term of the binary entropy function:
$$ H_{\rm bin}( p) - p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} = (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}\hspace{0.05cm}.$$
  • This term becomes smaller the smaller  $p$  is.
  • Proposed solution 3 is therefore also correct, as the following calculations show:
$$ p_{\rm B} = 10^{-3}\text{:} \hspace{0.3cm} 0.999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.999}= 1.4420 \cdot 10^{-3} \hspace{0.05cm},$$
$$p_{\rm B} = 10^{-4}\text{:} \hspace{0.3cm} 0.9999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.9999}= 1.4427 \cdot 10^{-4} \hspace{0.05cm},$$
$$p_{\rm B} = 10^{-5}\text{:} \hspace{0.3cm} 0.99999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.99999}= 1.4427 \cdot 10^{-5} \hspace{0.05cm}.$$


(4)  All proposed solutions are correct:

  • The expression  $R/C$  gives the upper bound according to the inverse channel coding theorem.  For  $p_{\rm B} = 10^{ –3 }$ , the following bound is obtained:
$$R/C ≤ 1.01154 \hspace{0.5cm} ⇒ \hspace{0.5cm} R/C - 1 ≤ 1.154 · 10^{ –2 }.$$
  • Proposition 2 takes into account the approximation according to subtask  (3) .  Since the denominator is now increased,  $R′/C < R/C$, for example, applies for
$$p_{\rm B} = 10^{ –3 }\text{:}\hspace{0.5cm} R′/C = 1.01007 · 10^{ –2 }.$$
This is also an upper bound, somewhat safer than the first bound  $R/C$.
  • The bound  $R′′ < R′$  is obtained by replacing  $1/(1 – ε)$  by  $1 + ε$  ersetzt  $(ε$  is positive$)$.  For example, for  $p_{\rm B} = 10^{–3}$  one now obtains
$$R′′/C = 1.00997 \hspace{0.5cm} ⇒ \hspace{0.5cm} R′′/C - 1 ≤ 0.997 · 10^{–2}.$$
  • $R′′′$  according to the last suggestion is identical to  $R′′$  and well suited for rollover calculations with integer exponent  $i$ . 
    For the logarithm to the base ten, the numerical value  $\lg(2) ≈ 0.30103 applies.$


Calculated bounds for the code rates;  $p_{\rm B} = 10^{ –i}$ applies

The table shows for different bit error probabilities  $p_{\rm B}$  the deviations

  • of the first bound  $(R/C-1)$  and
  • of the last approximation  $(R'''/C-1)$. 

One can see the good agreement of both specifications.