Difference between revisions of "Aufgaben:Exercise 3.13: Code Rate and Reliability"

From LNTwww
 
(21 intermediate revisions by 4 users not shown)
Line 1: Line 1:
  
{{quiz-Header|Buchseite=Informationstheorie/Anwendung auf die Digitalsignalübertragung
+
{{quiz-Header|Buchseite=Information_Theory/Application_to_Digital_Signal_Transmission
 
}}
 
}}
  
[[File:P_ID2805__Inf_A_3_12.png|right|frame|Binäre Entropiefunktion]]
+
[[File:P_ID2805__Inf_A_3_12.png|right|frame|Binary entropy function]]
Das Kanalcodierungstheorem von [https://de.wikipedia.org/wiki/Claude_Shannon Claude E. Shannon] besagt unter anderem, dass über einen Kanal mit beliebig kleiner Blockfehlerwahrscheinlichkeit übertragen werden kann, so lange die Coderate $R$ nicht größer ist als die Kanalkapazität $C$. Dieses Ergebnis erreicht man mit ''Kanalcodierung'' (englisch: ''Channel Coding'') allerdings nur bei sehr großen Blocklängen: $n → ∞$, was mit einem beliebig großen Aufwand verbunden ist.
+
[https://en.wikipedia.org/wiki/Claude_Shannon Claude E. Shannon's]  channel coding theorem states,  among other things,  that a channel can be used to transmit with an arbitrarily small block error probability as long as the code rate  $R$  is not greater than the channel capacity  $C$.  However,  this result can only be achieved with channel coding for very large block lengths:  $n → ∞$, which is associated with an arbitrarily large effort.
  
Diese Aussage basiert auf informationstheoretischen Gesetzmäßigkeiten, die Shannon selbst aufgestellt hat. Shannon sagt nicht, wie diese „unendlich gute” Kanalcodierung aussehen muss, er beweist nur, dass es sie gibt.
+
This statement is based on information-theoretical laws that Shannon himself established.  However, Shannon does not say what this "infinitely good" channel coding must look like, he only proves that it exists.
  
Der Umkehrschluss des Kanalcodierungstheorems sagt aus, dass mit einer Rate $R > C$ keine fehlerfreie Übertragung möglich ist. Es gibt dann kein Codiersystem mit verschwindend kleiner Fehlerwahrscheinlichkeit, auch wenn die Codierung noch so aufwändig und ausgeklügelt wäre.
+
The inverse of the channel coding theorem states that no error-free transmission is possible with a rate  $R > C$.  There is then no coding system with a vanishingly small error probability, no matter how elaborate and sophisticated the coding.
  
Vielmehr lassen sich für den Fall $R > C$ zwei Schranken angeben:
 
  
* Überträgt man über einen ''diskreten gedächtnislosen Kanal'' (DMC) mit einer Rate $R$ größer als die Kanalkapazität $C$, so gibt es eine untere Schranke für die Bitfehlerwahrscheinlichkeit:
+
Rather, two bounds can be specified for the case  $R > C$ :
:$$ p_{\rm B} \ge H_{\rm bin}^{-1} \left (1 - \frac{C}{R} \right) > 0 \hspace{0.05cm}.$$
+
 
* Soll die Bitfehlerwahrscheinlichkeit nach bestmöglicher Decodierung den Wert $p_B$ nicht überschreiten, so darf die Coderate einen vorgegebenen Grenzwert nicht unterschreiten:
+
*If one transmits via a  "discrete memoryless channel"  $\rm (DMC)$  with a rate  $R$  greater than the channel capacity  $C$,  there is a lower bound for the bit error probability:
 +
:$$ p_{\rm B} \ge H_{\rm bin}^{-1} \left (1 - {C}/{R} \right) > 0 \hspace{0.05cm}.$$
 +
*If the bit error probability is not to exceed the value  $p_{\rm B}$  after best possible decoding, the rate must not exceed a certain limit:
 
:$$ R \le \frac{C}{1 - H_{\rm bin}( p_{\rm B})} \hspace{0.05cm}.$$
 
:$$ R \le \frac{C}{1 - H_{\rm bin}( p_{\rm B})} \hspace{0.05cm}.$$
  
In dieser Aufgabe sollen diese Gleichungen unter Verwendung der [[Informationstheorie/Ged%C3%A4chtnislose_Nachrichtenquellen#Bin.C3.A4re_Entropiefunktion|binären Entropiefunktion]]
+
In this exercise,  these equations are to be evaluated numerically using the  [[Information_Theory/Ged%C3%A4chtnislose_Nachrichtenquellen#Binary_entropy_function|binary entropy function]]
:$$ H_{\rm bin}( p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}$$
+
:$$ H_{\rm bin}( p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}.$$
numerisch ausgewertet werden. Diese ist oben skizziert. Wegen $0 < p_B ≤ 1$ und $0 < C/R < 1$ liegt das Argument der Funktion $H_{\rm bin}(⋅)$ und deren Umkehrfunktion $H_{\rm bin}^{ –1 }(⋅)$ stets zwischen $0$ und $1$.
+
$H_{\rm bin}(p)$&nbsp; is sketched above.&nbsp; Because of&nbsp; $0 < p_B ≤ 1$&nbsp; and&nbsp; $0 < C/R < 1$&nbsp; the argument of the function&nbsp; $H_{\rm bin}(⋅)$&nbsp; and its inverse&nbsp; $H_{\rm bin}^{ –1 }(⋅)$&nbsp; is always between&nbsp; $0$&nbsp; and&nbsp; $1$.
 +
 
 +
 
  
  
''Hinweise:''
 
*Die Aufgabe gehört zum  Kapitel [[Informationstheorie/Anwendung_auf_die_Digitalsignalübertragung|Anwendung auf die Digitalsignalübertragung]].
 
*Bezug genommen wird insbesondere auf die Seite    [[Informationstheorie/Anwendung_auf_die_Digitalsignalübertragung#Rate.2C_Kanalkapazit.C3.A4t_und_Bitfehlerwahrscheinlichkeit|Rate, Kanalkapazität und Bitfehlerwahrscheinlichkeit]].
 
*Die Werte der binären Entropiefunktion werden zum Beispiel durch das interaktice Berechnungsmodul [[Entropien von Nachrichtenquellen]] bereitgestellt.
 
*Sollte die Eingabe des Zahlenwertes &bdquo;0&rdquo; erforderlich sein, so geben Sie bitte &bdquo;0.&rdquo; ein.
 
  
  
  
===Fragebogen===
+
Hints:
 +
*The exercise belongs to the chapter&nbsp; [[Information_Theory/Anwendung_auf_die_Digitalsignalübertragung|Application to digital signal transmission]].
 +
*Reference is made in particular to the page&nbsp;    [[Information_Theory/Anwendung_auf_die_Digitalsignalübertragung#Rate.2C_channel_capacity_and_bit_error_probability|Rate, channel capacity and bit error probability]].
 +
*The values of the binary entropy function are provided, for example, by the&nbsp; (German language)&nbsp; interactive SWF applet<br> &nbsp; &nbsp; [[Applets:Entropien_von_Nachrichtenquellen|Entropien und Näherungen von digitalen Nachrichtenquellen]] &nbsp; &rArr; &nbsp;  "Entropies and approximations of digital sources".
 +
 
 +
 
 +
 
 +
 
 +
 
 +
===Questions===
  
 
<quiz display=simple>
 
<quiz display=simple>
{Wie lautet die untere Bitfehlerwahrscheinlichkeitsschranke für $R/C = 4$?
+
{What is the lower bit error probability bound for&nbsp; $\underline{R/C = 4}$?
 
|type="{}"}
 
|type="{}"}
 
$p_{\text{B, min}} \ = \ $ { 0.215 3% }
 
$p_{\text{B, min}} \ = \ $ { 0.215 3% }
  
{Mit welcher Rate $R$ kann man über einen Kanal mit der Kanalkapazität $C = 0.5 \ \rm (bit)$ bei gegebener Grenz–Fehlerwahrscheinlichkeit $p_{\rm B}$ übertragen?
+
{At what rate&nbsp; $R$&nbsp; you can transmit over a channel with capacity&nbsp; $\underline{C = 0.5 \ \rm (bit)}$&nbsp; for a given marginal error probability&nbsp; $p_{\rm B}$&nbsp;?
 
|type="{}"}
 
|type="{}"}
$p_{\rm B} = 0.10\text{:} \ \    R_{\rm max} \ = \ $ { 0.942 3% }
+
$p_{\rm B} = 0.10\text{:} \hspace{0.5cm}R_{\rm max} \ = \ $ { 0.942 3% }
$p_{\rm B} = 0.05\text{:} \ \    R_{\rm max} \ = \ $ { 0.7 3% }  
+
$p_{\rm B} = 0.05\text{:} \hspace{0.5cm}R_{\rm max} \ = \ $ { 0.7 3% }  
  
  
{Welche Relation besteht zwischen $H_{\rm bin}(p)$ und der Näherung $p · \log_2 (1/p)$?
+
{What is the relation between&nbsp;$H_{\rm bin}(p)$&nbsp; and the approximation&nbsp; $p · \log_2 (1/p)$?
 
|type="[]"}
 
|type="[]"}
- Es gilt $H_{\rm bin}(p) < p · \log_2 \, (1/p)$.
+
- &nbsp;$H_{\rm bin}(p) < p · \log_2 \, (1/p)$ is valid.
+ Es gilt $H_{\rm bin}(p) = p · \log_2 \, (1/p)$.
+
+ &nbsp;$H_{\rm bin}(p) > p · \log_2 \, (1/p)$ is valid.
+ $H_{\rm bin}(p) - p · \log_2 \, (1/p)$ wird um so kleiner, je kleiner $p$ ist.
+
+ $H_{\rm bin}(p) - p · \log_2 \, (1/p)$&nbsp; becomes smaller the smaller&nbsp;$p$&nbsp; is.
  
{Welche der folgenden Gleichungen sind obere Schranken für die Rate?
+
{Which of the following equations are upper bounds on the rate?
 
|type="[]"}
 
|type="[]"}
 
+ $R/C  ≤  [1 – H_{\rm bin}(p_{\rm B})]^{ –1 }$,
 
+ $R/C  ≤  [1 – H_{\rm bin}(p_{\rm B})]^{ –1 }$,
 
+ $R′/C  ≤  [1 + p_{\rm B} · \log_2 (p_{\rm B})]^{ –1 }$,
 
+ $R′/C  ≤  [1 + p_{\rm B} · \log_2 (p_{\rm B})]^{ –1 }$,
 
+ $R′′/C  ≤  1 – p_{\rm B} · \log_2 (p_{\rm B})$,
 
+ $R′′/C  ≤  1 – p_{\rm B} · \log_2 (p_{\rm B})$,
+ $R′′′/C  ≤  1 + i · p_{\rm B}/ \lg(2)$   für   $p_{\rm B} = 10^{ –i}$.
+
+ $R′′′/C  ≤  1 + i · p_{\rm B}/ \lg(2)$ &nbsp; für &nbsp; $p_{\rm B} = 10^{ –i}$.
  
  
 
</quiz>
 
</quiz>
  
===Musterlösung===
+
===Solution===
 
{{ML-Kopf}}
 
{{ML-Kopf}}
'''(1)'''&nbsp; Entsprechend der vorgegebenen Gleichung gilt:
+
'''(1)'''&nbsp; According to the given equation:
 
:$$ p_{\rm B,\hspace{0.05cm} min} = H_{\rm bin}^{-1} \left (1 - \frac{C}{R} \right) = H_{\rm bin}^{-1} (0.75) \hspace{0.05cm}.$$
 
:$$ p_{\rm B,\hspace{0.05cm} min} = H_{\rm bin}^{-1} \left (1 - \frac{C}{R} \right) = H_{\rm bin}^{-1} (0.75) \hspace{0.05cm}.$$
Aus der Grafik auf der Angabenseite (blaue Markierung) lässt sich ablesen: &nbsp; $ p_{\rm B,\hspace{0.05cm} min} \hspace{0.15cm} \underline {=0.215} \hspace{0.05cm}.$
+
*From the graph on the data page&nbsp; (blue marking)&nbsp; we can read: &nbsp;  
 +
:$$ p_{\rm B,\hspace{0.05cm} min} \hspace{0.15cm} \underline {=0.215} \hspace{0.05cm}.$$
  
'''(2)'''&nbsp; Durch Umstellung obiger Gleichung erhält man mit $H_{bin}(p_B)$ aus der Grafik:
+
 
 +
'''(2)'''&nbsp; By rearranging the above equation, we obtain with&nbsp; $H_{\rm bin}(p_{\rm B})$&nbsp; from the graph:
 
:$$\begin{align*} R_{\rm max} = \frac{C}{1 - H_{\rm bin}( p_{\rm B})} \hspace{0.3cm}\Rightarrow \hspace{0.3cm} p_{\rm B}  &=  0.10:\hspace{0.2cm} R_{\rm max} = \frac{0.5}{1 - 0.469}\hspace{0.15cm} \underline {=0.942} \hspace{0.05cm},\\
 
:$$\begin{align*} R_{\rm max} = \frac{C}{1 - H_{\rm bin}( p_{\rm B})} \hspace{0.3cm}\Rightarrow \hspace{0.3cm} p_{\rm B}  &=  0.10:\hspace{0.2cm} R_{\rm max} = \frac{0.5}{1 - 0.469}\hspace{0.15cm} \underline {=0.942} \hspace{0.05cm},\\
 
\Rightarrow \hspace{0.3cm} p_{\rm B}  &=  0.05:\hspace{0.2cm} R_{\rm max} = \frac{0.5}{1 - 0.286}\hspace{0.15cm} \underline {=0.700}\hspace{0.05cm}.\end{align*}$$
 
\Rightarrow \hspace{0.3cm} p_{\rm B}  &=  0.05:\hspace{0.2cm} R_{\rm max} = \frac{0.5}{1 - 0.286}\hspace{0.15cm} \underline {=0.700}\hspace{0.05cm}.\end{align*}$$
  
'''(3)'''&nbsp; Richtig sind die <u>Lösungsvorschläge 2 und 3</u>:
+
 
*Für die binäre Entropiefunktion gilt definitionsgemäß:
+
'''(3)'''&nbsp;The&nbsp; <u>proposed solutions 2 and 3</u> are correct:
 +
*For the binary entropy function, by definition:
 
:$$H_{\rm bin}( p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}\hspace{0.05cm}.$$
 
:$$H_{\rm bin}( p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}\hspace{0.05cm}.$$
*Beide Terme sind positiv. Daraus folgt der <u>Lösungsvorschlag 2</u>: &nbsp; $H_{\rm bin}(p) = p · \log_2 \, (1/p)$.
+
*Both terms are positive.&nbsp; From this follows the <u>proposed solution 2</u>: &nbsp; $H_{\rm bin}(p) > p · \log_2 \, (1/p)$.
*Die Differenz ist durch den zweiten Term der binären Entropiefunktion gegeben:
+
*The difference is given by the second term of the binary entropy function:
 
:$$ H_{\rm bin}( p) - p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} = (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}\hspace{0.05cm}.$$
 
:$$ H_{\rm bin}( p) - p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} = (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}\hspace{0.05cm}.$$
Dieser Term wird umso kleiner, je kleiner $p$ ist. Zutreffend ist also auch der <u>Lösungsvorschlag 3</u>, wie die folgenden Rechnungen zeigen:
+
*This term becomes smaller the smaller&nbsp; $p$&nbsp; is.
:$$ p_{\rm B} \hspace{-0.15cm}  =\hspace{-0.15cm} 10^{-3}\text{:} \hspace{0.3cm} 0.999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.999}= 1.4420 \cdot 10^{-3} \hspace{0.05cm},$$
+
*The&nbsp; <u>proposed solution 3</u> is therefore also correct, as the following calculations show:
:$$p_{\rm B} \hspace{-0.15cm}  =\hspace{-0.15cm} 10^{-4}\text{:} \hspace{0.3cm} 0.9999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.9999}= 1.4427 \cdot 10^{-4} \hspace{0.05cm},$$
+
:$$ p_{\rm B} = 10^{-3}\text{:} \hspace{0.3cm} 0.999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.999}= 1.4420 \cdot 10^{-3} \hspace{0.05cm},$$
:$$p_{\rm B} \hspace{-0.15cm} =\hspace{-0.15cm} 10^{-5}\text{:} \hspace{0.3cm} 0.99999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.99999}= 1.4427 \cdot 10^{-5} \hspace{0.05cm}.$$
+
:$$p_{\rm B} = 10^{-4}\text{:} \hspace{0.3cm} 0.9999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.9999}= 1.4427 \cdot 10^{-4} \hspace{0.05cm},$$
 +
:$$p_{\rm B} = 10^{-5}\text{:} \hspace{0.3cm} 0.99999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.99999}= 1.4427 \cdot 10^{-5} \hspace{0.05cm}.$$
 +
 
 +
 
 +
'''(4)'''&nbsp; <u>All proposed solutions</u> are correct:
 +
*The expression&nbsp; $R/C$&nbsp; gives the upper bound according to the inverse channel coding theorem.&nbsp;
 +
*For&nbsp; $p_{\rm B} = 10^{ –3 }$,&nbsp; the following bound is obtained:
 +
:$$R/C ≤ 1.01154  \hspace{0.5cm} ⇒ \hspace{0.5cm}  R/C - 1 ≤ 1.154 · 10^{ –2 }.$$
 +
* Proposition 2 takes into account the approximation according to subtask&nbsp; '''(3)'''&nbsp;.&nbsp; Since the denominator is now increased,&nbsp; $R′/C < R/C$, for example, applies for
 +
:$$p_{\rm B} = 10^{ –3 }\text{:}\hspace{0.5cm} R′/C = 1.01007 · 10^{ –2 }.$$
 +
: This is also an upper bound, somewhat safer than the first bound&nbsp; $R/C$.
 +
* The bound&nbsp; $R′′ < R′$&nbsp; is obtained by replacing&nbsp; $1/(1 – ε)$&nbsp; by&nbsp; $1 + ε$&nbsp; $(ε$&nbsp; is positive$)$.&nbsp; For example, for&nbsp; $p_{\rm B} = 10^{–3}$&nbsp; one obtains
 +
:$$R′′/C = 1.00997 \hspace{0.5cm}  ⇒ \hspace{0.5cm}  R′′/C - 1 ≤ 0.997 · 10^{–2}.$$
 +
* $R′′′$&nbsp; according to the last suggestion is identical to&nbsp; $R′′$&nbsp; and well suited for rollover calculations with integer exponent&nbsp; $i$&nbsp;.&nbsp; <br>For the logarithm to the base ten, the numerical value&nbsp; $\lg(2) ≈ 0.30103$&nbsp; applies.
 +
 
  
 +
[[File:P_ID2806__Inf_A_3_12d.png|right|frame|Calculated bounds for the code rates;&nbsp; $p_{\rm B} = 10^{ –i}$ applies]]
  
'''(4)'''&nbsp; <u>Alle Lösungsvorschläge</u> sind zutreffend:
+
The table shows for different bit error probabilities&nbsp; $p_{\rm B}$&nbsp; the deviations
*Der Ausdruck $R/C$ gibt die obere Schranke gemäß dem inversen Kanalcodierungstheorem an. Für $p_B = 10^{ –3 }$ erhält man folgende Schranke: &nbsp; $R/C ≤ 1.01154  ⇒  R/C – 1 ≤ 1.154 · 10^{ –2 }$.
+
* of the first bound&nbsp; $(R/C-1)$&nbsp; and
* Beim Vorschlag 2 ist die Näherung gemäß (3) berücksichtigt. Da nun der Nenner vergrößert wird, ist $R′/C < R/C$, beispielsweise gilt für $p_{\rm B} = 10{ –3 }\text{:}\hspace{0.15cm} R′/C = 1.01007 · 10{ –2 }$. Es handelt sich auch hier um eine obere Schranke, etwas sicherer als die erste Schranke $R/C$.
+
* of the last approximation&nbsp;  $(R'''/C-1)$.&nbsp;
* Die Schranke $R′′ < R′$ ergibt sich, wenn man $1/(1 – ε)$ durch $1 + ε$ ersetzt ($ε$ ist positiv). Für $p_{\rm B} = 10^{–3}$ erhält man nun beispielsweise $R′′/C = 1.00997  ⇒  R′′/C – 1 ≤ 0.997 · 10^{–2}$.  
 
* $R′′′$ entsprechend dem letzten Vorschlag ist identisch mit $R′′$ und für Überschlagsrechnungen bei ganzzahligem Exponenten $i$ gut geeignet. Für den Zehnerlogarithmus gilt der Zahlenwert $\lg(2) ≈ 0.30103.$
 
  
Die Tabelle zeigt für verschiedene Bitfehlerwahrscheinlichkeiten $p_{\rm B}$ die Abweichungen der ersten Schranke ($R/C-1$) und der letzten Näherung  ($R'''/C-1$). Man erkennt die gute Übereinstimmung beider Schranken.
 
  
[[File:P_ID2806__Inf_A_3_12d.png|center|frame|Berechnete Schranken für die Coderaten]]
+
One can see the good agreement of both specifications.
  
 
{{ML-Fuß}}
 
{{ML-Fuß}}
Line 95: Line 117:
  
  
[[Category:Aufgaben zu  Informationstheorie|^3.3 Anwendung auf DSÜ-Kanäle^]]
+
[[Category:Information Theory: Exercises|^3.3 Application to Digital Signal Transmission^]]

Latest revision as of 12:57, 24 September 2021

Binary entropy function

Claude E. Shannon's  channel coding theorem states,  among other things,  that a channel can be used to transmit with an arbitrarily small block error probability as long as the code rate  $R$  is not greater than the channel capacity  $C$.  However,  this result can only be achieved with channel coding for very large block lengths:  $n → ∞$, which is associated with an arbitrarily large effort.

This statement is based on information-theoretical laws that Shannon himself established.  However, Shannon does not say what this "infinitely good" channel coding must look like, he only proves that it exists.

The inverse of the channel coding theorem states that no error-free transmission is possible with a rate  $R > C$.  There is then no coding system with a vanishingly small error probability, no matter how elaborate and sophisticated the coding.


Rather, two bounds can be specified for the case  $R > C$ :

  • If one transmits via a  "discrete memoryless channel"  $\rm (DMC)$  with a rate  $R$  greater than the channel capacity  $C$,  there is a lower bound for the bit error probability:
$$ p_{\rm B} \ge H_{\rm bin}^{-1} \left (1 - {C}/{R} \right) > 0 \hspace{0.05cm}.$$
  • If the bit error probability is not to exceed the value  $p_{\rm B}$  after best possible decoding, the rate must not exceed a certain limit:
$$ R \le \frac{C}{1 - H_{\rm bin}( p_{\rm B})} \hspace{0.05cm}.$$

In this exercise,  these equations are to be evaluated numerically using the  binary entropy function

$$ H_{\rm bin}( p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}.$$

$H_{\rm bin}(p)$  is sketched above.  Because of  $0 < p_B ≤ 1$  and  $0 < C/R < 1$  the argument of the function  $H_{\rm bin}(⋅)$  and its inverse  $H_{\rm bin}^{ –1 }(⋅)$  is always between  $0$  and  $1$.




Hints:



Questions

1

What is the lower bit error probability bound for  $\underline{R/C = 4}$?

$p_{\text{B, min}} \ = \ $

2

At what rate  $R$  you can transmit over a channel with capacity  $\underline{C = 0.5 \ \rm (bit)}$  for a given marginal error probability  $p_{\rm B}$ ?

$p_{\rm B} = 0.10\text{:} \hspace{0.5cm}R_{\rm max} \ = \ $

$p_{\rm B} = 0.05\text{:} \hspace{0.5cm}R_{\rm max} \ = \ $

3

What is the relation between $H_{\rm bin}(p)$  and the approximation  $p · \log_2 (1/p)$?

 $H_{\rm bin}(p) < p · \log_2 \, (1/p)$ is valid.
 $H_{\rm bin}(p) > p · \log_2 \, (1/p)$ is valid.
$H_{\rm bin}(p) - p · \log_2 \, (1/p)$  becomes smaller the smaller $p$  is.

4

Which of the following equations are upper bounds on the rate?

$R/C ≤ [1 – H_{\rm bin}(p_{\rm B})]^{ –1 }$,
$R′/C ≤ [1 + p_{\rm B} · \log_2 (p_{\rm B})]^{ –1 }$,
$R′′/C ≤ 1 – p_{\rm B} · \log_2 (p_{\rm B})$,
$R′′′/C ≤ 1 + i · p_{\rm B}/ \lg(2)$   für   $p_{\rm B} = 10^{ –i}$.


Solution

(1)  According to the given equation:

$$ p_{\rm B,\hspace{0.05cm} min} = H_{\rm bin}^{-1} \left (1 - \frac{C}{R} \right) = H_{\rm bin}^{-1} (0.75) \hspace{0.05cm}.$$
  • From the graph on the data page  (blue marking)  we can read:  
$$ p_{\rm B,\hspace{0.05cm} min} \hspace{0.15cm} \underline {=0.215} \hspace{0.05cm}.$$


(2)  By rearranging the above equation, we obtain with  $H_{\rm bin}(p_{\rm B})$  from the graph:

$$\begin{align*} R_{\rm max} = \frac{C}{1 - H_{\rm bin}( p_{\rm B})} \hspace{0.3cm}\Rightarrow \hspace{0.3cm} p_{\rm B} &= 0.10:\hspace{0.2cm} R_{\rm max} = \frac{0.5}{1 - 0.469}\hspace{0.15cm} \underline {=0.942} \hspace{0.05cm},\\ \Rightarrow \hspace{0.3cm} p_{\rm B} &= 0.05:\hspace{0.2cm} R_{\rm max} = \frac{0.5}{1 - 0.286}\hspace{0.15cm} \underline {=0.700}\hspace{0.05cm}.\end{align*}$$


(3) The  proposed solutions 2 and 3 are correct:

  • For the binary entropy function, by definition:
$$H_{\rm bin}( p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}\hspace{0.05cm}.$$
  • Both terms are positive.  From this follows the proposed solution 2:   $H_{\rm bin}(p) > p · \log_2 \, (1/p)$.
  • The difference is given by the second term of the binary entropy function:
$$ H_{\rm bin}( p) - p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} = (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}\hspace{0.05cm}.$$
  • This term becomes smaller the smaller  $p$  is.
  • The  proposed solution 3 is therefore also correct, as the following calculations show:
$$ p_{\rm B} = 10^{-3}\text{:} \hspace{0.3cm} 0.999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.999}= 1.4420 \cdot 10^{-3} \hspace{0.05cm},$$
$$p_{\rm B} = 10^{-4}\text{:} \hspace{0.3cm} 0.9999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.9999}= 1.4427 \cdot 10^{-4} \hspace{0.05cm},$$
$$p_{\rm B} = 10^{-5}\text{:} \hspace{0.3cm} 0.99999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.99999}= 1.4427 \cdot 10^{-5} \hspace{0.05cm}.$$


(4)  All proposed solutions are correct:

  • The expression  $R/C$  gives the upper bound according to the inverse channel coding theorem. 
  • For  $p_{\rm B} = 10^{ –3 }$,  the following bound is obtained:
$$R/C ≤ 1.01154 \hspace{0.5cm} ⇒ \hspace{0.5cm} R/C - 1 ≤ 1.154 · 10^{ –2 }.$$
  • Proposition 2 takes into account the approximation according to subtask  (3) .  Since the denominator is now increased,  $R′/C < R/C$, for example, applies for
$$p_{\rm B} = 10^{ –3 }\text{:}\hspace{0.5cm} R′/C = 1.01007 · 10^{ –2 }.$$
This is also an upper bound, somewhat safer than the first bound  $R/C$.
  • The bound  $R′′ < R′$  is obtained by replacing  $1/(1 – ε)$  by  $1 + ε$  $(ε$  is positive$)$.  For example, for  $p_{\rm B} = 10^{–3}$  one obtains
$$R′′/C = 1.00997 \hspace{0.5cm} ⇒ \hspace{0.5cm} R′′/C - 1 ≤ 0.997 · 10^{–2}.$$
  • $R′′′$  according to the last suggestion is identical to  $R′′$  and well suited for rollover calculations with integer exponent  $i$ . 
    For the logarithm to the base ten, the numerical value  $\lg(2) ≈ 0.30103$  applies.


Calculated bounds for the code rates;  $p_{\rm B} = 10^{ –i}$ applies

The table shows for different bit error probabilities  $p_{\rm B}$  the deviations

  • of the first bound  $(R/C-1)$  and
  • of the last approximation  $(R'''/C-1)$. 


One can see the good agreement of both specifications.