Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Difference between revisions of "Aufgaben:Exercise 3.13: Code Rate and Reliability"

From LNTwww
m (Text replacement - "Category:Aufgaben zu Informationstheorie" to "Category:Information Theory: Exercises")
(No difference)

Revision as of 16:57, 22 July 2021

Binäre Entropiefunktion

Das Kanalcodierungstheorem von  Claude E. Shannon  besagt unter anderem, dass über einen Kanal mit beliebig kleiner Blockfehlerwahrscheinlichkeit übertragen werden kann, so lange die Coderate  R  nicht größer ist als die Kanalkapazität  C.  Dieses Ergebnis erreicht man mit  Kanalcodierung  (englisch:  Channel Coding)  allerdings nur bei sehr großen Blocklängen:  n, was mit einem beliebig großen Aufwand verbunden ist.

Diese Aussage basiert auf informationstheoretischen Gesetzmäßigkeiten, die Shannon selbst aufgestellt hat.  Shannon sagt aber nicht, wie diese „unendlich gute” Kanalcodierung aussehen muss, er beweist nur, dass es sie gibt.

Der Umkehrschluss des Kanalcodierungstheorems sagt aus, dass mit einer Rate  R>C  keine fehlerfreie Übertragung möglich ist.  Es gibt dann kein Codiersystem mit verschwindend kleiner Fehlerwahrscheinlichkeit, auch wenn die Codierung noch so aufwändig und ausgeklügelt wäre.

Vielmehr lassen sich für den Fall  R>C  zwei Schranken angeben:

  • Überträgt man über einen  diskreten gedächtnislosen Kanal  (DMC)  mit einer Rate  R  größer als die Kanalkapazität  C, so gibt es eine untere Schranke für die Bitfehlerwahrscheinlichkeit:
pBH1bin(1C/R)>0.
  • Soll die Bitfehlerwahrscheinlichkeit nach bestmöglicher Decodierung den Wert  pB  nicht überschreiten, so darf die Rate einen gewissen Grenzwert nicht überschreiten:
RC1Hbin(pB).

In dieser Aufgabe sollen diese Gleichungen unter Verwendung der  binären Entropiefunktion

Hbin(p)=plog21p+(1p)log211p

numerisch ausgewertet werden.  Diese ist oben skizziert.  Wegen  0<pB1  und  0<C/R<1  liegt das Argument der Funktion  Hbin()  und deren Umkehrfunktion  H_{\rm bin}^{ –1 }(⋅)  stets zwischen  0  und  1.




Hinweise:



Fragebogen

1

Wie lautet die untere Bitfehlerwahrscheinlichkeitsschranke für  \underline{R/C = 4}?

p_{\text{B, min}} \ = \

2

Mit welcher Rate  R  kann man über einen Kanal mit der Kanalkapazität  \underline{C = 0.5 \ \rm (bit)}  bei gegebener Grenz–Fehlerwahrscheinlichkeit  p_{\rm B}  übertragen?

p_{\rm B} = 0.10\text{:} \hspace{0.5cm}R_{\rm max} \ = \

p_{\rm B} = 0.05\text{:} \hspace{0.5cm}R_{\rm max} \ = \

3

Welche Relation besteht zwischen  H_{\rm bin}(p)  und der Näherung  p · \log_2 (1/p)?

Es gilt   H_{\rm bin}(p) < p · \log_2 \, (1/p).
Es gilt  H_{\rm bin}(p) = p · \log_2 \, (1/p).
H_{\rm bin}(p) - p · \log_2 \, (1/p)  wird um so kleiner, je kleiner  p  ist.

4

Welche der folgenden Gleichungen sind obere Schranken für die Rate?

R/C ≤ [1 – H_{\rm bin}(p_{\rm B})]^{ –1 },
R′/C ≤ [1 + p_{\rm B} · \log_2 (p_{\rm B})]^{ –1 },
R′′/C ≤ 1 – p_{\rm B} · \log_2 (p_{\rm B}),
R′′′/C ≤ 1 + i · p_{\rm B}/ \lg(2)   für   p_{\rm B} = 10^{ –i}.


Musterlösung

(1)  Entsprechend der vorgegebenen Gleichung gilt:

p_{\rm B,\hspace{0.05cm} min} = H_{\rm bin}^{-1} \left (1 - \frac{C}{R} \right) = H_{\rm bin}^{-1} (0.75) \hspace{0.05cm}.

Aus der Grafik auf der Angabenseite (blaue Markierung) lässt sich ablesen:   p_{\rm B,\hspace{0.05cm} min} \hspace{0.15cm} \underline {=0.215} \hspace{0.05cm}.


(2)  Durch Umstellung obiger Gleichung erhält man mit  H_{\rm bin}(p_{\rm B})  aus der Grafik:

\begin{align*} R_{\rm max} = \frac{C}{1 - H_{\rm bin}( p_{\rm B})} \hspace{0.3cm}\Rightarrow \hspace{0.3cm} p_{\rm B} &= 0.10:\hspace{0.2cm} R_{\rm max} = \frac{0.5}{1 - 0.469}\hspace{0.15cm} \underline {=0.942} \hspace{0.05cm},\\ \Rightarrow \hspace{0.3cm} p_{\rm B} &= 0.05:\hspace{0.2cm} R_{\rm max} = \frac{0.5}{1 - 0.286}\hspace{0.15cm} \underline {=0.700}\hspace{0.05cm}.\end{align*}


(3)  Richtig sind die Lösungsvorschläge 2 und 3:

  • Für die binäre Entropiefunktion gilt definitionsgemäß:
H_{\rm bin}( p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}\hspace{0.05cm}.
  • Beide Terme sind positiv.  Daraus folgt der Lösungsvorschlag 2:   H_{\rm bin}(p) = p · \log_2 \, (1/p).
  • Die Differenz ist durch den zweiten Term der binären Entropiefunktion gegeben:
H_{\rm bin}( p) - p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} = (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p}\hspace{0.05cm}.
  • Dieser Term wird umso kleiner, je kleiner  p  ist.
  • Zutreffend ist also auch der Lösungsvorschlag 3, wie die folgenden Rechnungen zeigen:
p_{\rm B} = 10^{-3}\text{:} \hspace{0.3cm} 0.999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.999}= 1.4420 \cdot 10^{-3} \hspace{0.05cm},
p_{\rm B} = 10^{-4}\text{:} \hspace{0.3cm} 0.9999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.9999}= 1.4427 \cdot 10^{-4} \hspace{0.05cm},
p_{\rm B} = 10^{-5}\text{:} \hspace{0.3cm} 0.99999 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.99999}= 1.4427 \cdot 10^{-5} \hspace{0.05cm}.


(4)  Alle Lösungsvorschläge sind zutreffend:

  • Der Ausdruck  R/C  gibt die obere Schranke gemäß dem inversen Kanalcodierungstheorem an.  Für  p_{\rm B} = 10^{ –3 }  erhält man folgende Schranke:
R/C ≤ 1.01154 \hspace{0.5cm} ⇒ \hspace{0.5cm} R/C - 1 ≤ 1.154 · 10^{ –2 }.
  • Beim Vorschlag 2 ist die Näherung gemäß Teilaufgabe  (3)  berücksichtigt.  Da nun der Nenner vergrößert wird, ist  R′/C < R/C, beispielsweise gilt für
p_{\rm B} = 10^{ –3 }\text{:}\hspace{0.5cm} R′/C = 1.01007 · 10^{ –2 }.
Es handelt sich auch hier um eine obere Schranke, etwas sicherer als die erste Schranke  R/C.
  • Die Schranke  R′′ < R′  ergibt sich, wenn man  1/(1 – ε)  durch  1 + ε  ersetzt    ist positiv).  Für  p_{\rm B} = 10^{–3}  erhält man nun beispielsweise
R′′/C = 1.00997 \hspace{0.5cm} ⇒ \hspace{0.5cm} R′′/C - 1 ≤ 0.997 · 10^{–2}.
  • R′′′  entsprechend dem letzten Vorschlag ist identisch mit  R′′  und für Überschlagsrechnungen bei ganzzahligem Exponenten  i  gut geeignet. 
    Für den Zehnerlogarithmus gilt der Zahlenwert  \lg(2) ≈ 0.30103.


Berechnete Schranken für die Coderaten; es gilt   p_{\rm B} = 10^{ –i}

Die Tabelle zeigt für verschiedene Bitfehlerwahrscheinlichkeiten  p_{\rm B}  die Abweichungen

  • der ersten Schranke  (R/C-1)  und
  • der letzten Näherung  (R'''/C-1)

Man erkennt die gute Übereinstimmung beider Angaben.