Difference between revisions of "Aufgaben:Exercise 3.10Z: BSC Channel Capacity"

From LNTwww
Line 30: Line 30:
  
 
<quiz display=simple>
 
<quiz display=simple>
{ Welche Aussagen gelten für die bedingten Entropien beim BSC?
+
{ Welche Aussagen gelten für die bedingten Entropien beim BSC–Modell?
 
|type="[]"}
 
|type="[]"}
 
- Die Äquivokation ergibt sich zu $H(X|Y) = H_{\rm bin}(ε)$.
 
- Die Äquivokation ergibt sich zu $H(X|Y) = H_{\rm bin}(ε)$.
Line 58: Line 58:
 
===Musterlösung===
 
===Musterlösung===
 
{{ML-Kopf}}
 
{{ML-Kopf}}
'''1.'''  Aus der Tabelle auf der Angabenseite erkennt man, dass beim BSC–Modell (blaue Hinterlegung) wie auch beim allgemeineren (unsymmetrischen) BC–Modell (rote Hinterlegung) die Äquivokation $H(X|Y)$ von den Quellensymbolwahrscheinlichkeiten $p_0$ und $p_1$ abhängt. Daraus folgt, dass der Lösungsvorschlag 1 nicht richtig sein kann. Dagegen ist die Irrelevanz $H(Y|X)$ unabhängig von der Quellenstatistik, so dass auch der Lösungsvorschlag 3 ausgeschlossen werden kann.
+
'''(1)'''&nbsp;  Richtig ist der <u>Lösungsvorschlag 2</u>, wie die folgende Rechnung zeigt:
 +
:$$H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) = p_0 \cdot (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} + p_0 \cdot \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} +p_1 \cdot \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} + p_1 \cdot (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} $$
 +
:$$\Rightarrow \hspace{0.3cm} H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) = (p_0 + p_1) \cdot \left [ \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} + (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} \right ] \hspace{0.05cm}.$$
 +
*Mit $p_0 + p_1 = 1$  und der binären Entropiefunktio] $H_{\rm bin}$ erhält man das vorgeschlagene Ergebnis: $H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) = H_{\rm bin}(\varepsilon)\hspace{0.05cm}.$
 +
*Für $ε = 0.1$ ergibt sich $H(Y|X) = 0.4690 \ \rm bit$. Der gleiche Wert steht für alle $p_0$ in der vorgegebenen Tabelle.
 +
*Aus der Tabelle erkennt man auch, dass beim BSC–Modell (blaue Hinterlegung) wie auch beim allgemeineren (unsymmetrischen) BC–Modell (rote Hinterlegung) die Äquivokation $H(X|Y)$ von den Quellensymbolwahrscheinlichkeiten $p_0$ und $p_1$ abhängt. Daraus folgt, dass der Lösungsvorschlag 1 nicht richtig sein kann.  
 +
*Die Irrelevanz $H(Y|X)$ istunabhängig von der Quellenstatistik, so dass auch der Lösungsvorschlag 3 ausgeschlossen werden kann.
  
Richtig ist vielmehr der ''Lösungsvorschlag 2'', wie die folgende Rechnung zeigt:
 
$$H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) \hspace{-0.15cm} =\hspace{-0.15cm} p_0 \cdot (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} + p_0 \cdot \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} +$$ $$ \hspace{-0.15cm} p_1 \cdot \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} + p_1 \cdot (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} =$$
 
$$=\hspace{-0.15cm} (p_0 + p_1) \cdot \left [ \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} + (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} \right ] \hspace{0.05cm}.$$
 
Mit $p_0 + p_1 = 1$n  und der [http://en.lntwww.de/Informationstheorie/Ged%C3%A4chtnislose_Nachrichtenquellen#Bin.C3.A4re_Entropiefunktion binären Entropiefunktion] $\Rightarrow  H_{bin}$ erhält man das vorgeschlagene Ergebnis:
 
$$H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) = H_{\rm bin}(\varepsilon)\hspace{0.05cm}$$
 
Für $ε = 0.1$ ergibt sich $H(Y|X) = 0.4690 bit$. Der gleiche Wert steht für alle $p_0$ in der gegebenen Tabelle.
 
'''2.''' Zutreffend sind hier ''alle vorgegebenen Lösungsalternativen''. Die Kanalkapazität ist definiert als die maximale Transinformation, wobei die Maximierung hinsichtlich $P_X = (p_0, p_1)$ zu erfolgen hat:
 
$$C = \max_{P_X(X)} \hspace{0.15cm} I(X;Y) \hspace{0.05cm}$$
 
Diese Gleichung gilt allgemein, also auch für den rot hinterlegten [http://en.lntwww.de/Aufgaben:3.09Z_BSC%E2%80%93Kanalkapazit%C3%A4t unsymmetrischen Binärkanal] (BC).
 
  
Die Transinformation kann zum Beispiel allgemein wie folgt berechnet werden:
+
'''(2)'''&nbsp;  Zutreffend sind hier <u>alle vorgegebenen Lösungsalternativen</u>:
$$I(X;Y) = H(Y) - H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X)\hspace{0.05cm}$$  
+
*Die Kanalkapazität ist definiert als die maximale Transinformation, wobei die Maximierung hinsichtlich $P_X = (p_0, p_1)$ zu erfolgen hat (die Gleichung gilt allgemein, also auch für den rot hinterlegten unsymmetrischen Binärkanal):
 +
:$$C = \max_{P_X(X)} \hspace{0.15cm} I(X;Y) \hspace{0.05cm}.$$
 +
*Die Transinformation kann zum Beispiel berechnet werden als $I(X;Y) = H(Y) - H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X)\hspace{0.05cm}$, wobei entsprechend der Teilaufgabe (1) der Term $H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X)\hspace{0.05cm}$ unabhängig von $p_0$ bzw. $p_1 = 1- p_0$ ist.
 +
*Die maximale Transinformation ergibt sich somit genau dann, wenn die Sinkenentropie $H(Y)$ maximal ist. Dies ist der Fall für $p_0 = p_1 = 0.5$ &nbsp; &#8658; &nbsp; $H(X) = H(Y) =  1 \ \rm bit$.
  
[[File:P_ID2790__Inf_Z_3_9_B.png|right|]]
 
'''3.'''Die Grafik rechts zeigt  die binäre Entropiefunktion und rechts die Kanalkapazität. Man erhält:
 
:* für $ε = 0$ (fehlerfreier Kanal): $C = 1 (bit) \Rightarrow$  Punkt mit gelber Füllung,
 
:* für $ε = 0.1$ (bisher betrachtet): $C = 0.531 (bit) ) \Rightarrow$    Punkt mit grüner Füllung,
 
:* für $ε = 0.5$ (vollkommen gestört): $C = 0 (bit)  \Rightarrow$  Punkt mit grauer Füllung
 
  
'''4.''' Aus der Grafik erkennt man, dass aus informationstheoretischer Sicht $ε = 1$ gleich ist wie $ε = 0$ :  
+
'''(3)'''&nbsp;  Entsprechend den Teilaufgaben (1) und (2) erhält man für die BSC&ndash;Kanalkapazität:
 +
:$$C = \max_{P_X(X)} \hspace{0.15cm}  I(X;Y)  \hspace{0.05cm}.$$
 +
 
 +
Die Grafik rechts zeigt  die binäre Entropiefunktion und rechts die Kanalkapazität. Man erhält:
 +
* für $ε = 0$ (fehlerfreier Kanal): $C = 1\ \rm  (bit)$  &nbsp; &rArr; &nbsp; Punkt mit gelber Füllung,
 +
* für $ε = 0.1$ (bisher betrachtet): $C = 0.531\ \rm  (bit)$  &nbsp; &rArr; &nbsp;  Punkt mit grüner Füllung,
 +
* für $ε = 0.5$ (vollkommen gestört): $C = 0\ \rm  (bit)$  &nbsp; &rArr; &nbsp;  Punkt mit grauer Füllung.
 +
 
 +
:[[File:P_ID2790__Inf_Z_3_9_B.png|Binäre Entropiefunktion und BSC–Kanalkapazität]]
 +
 
 +
'''(4)'''&nbsp;  Aus der Grafik erkennt man, dass aus informationstheoretischer Sicht $ε = 1$ identisch mit $ε = 0$ ist:  
 
$$C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}1} \hspace{0.05cm}= C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0} \hspace{0.15cm} \underline {=1\,{\rm (bit)}} \hspace{0.05cm}$$
 
$$C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}1} \hspace{0.05cm}= C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0} \hspace{0.15cm} \underline {=1\,{\rm (bit)}} \hspace{0.05cm}$$
Der Kanal nimmt hier nur eine Umbenennung vor. Man spricht von Mapping. Aus jeder $„0”$ wird eine $„1”$ und aus jeder $„1”$ eine $„0”$. Entsprechend gilt:
+
*Der Kanal nimmt hier nur eine Umbenennung vor. Man spricht von &bdquo;Mapping&rdquo;.
$$C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0.9} \hspace{0.05cm}= C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0.1} \hspace{0.15cm} \underline {=0.531\,{\rm (bit)}} \hspace{0.05cm}$$
+
* Aus jeder $0$ wird eine $1$ und aus jeder $1$ eine $0$. Entsprechend gilt:
 +
:$$C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0.9} \hspace{0.05cm}= C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0.1} \hspace{0.15cm} \underline {=0.531\,{\rm (bit)}} \hspace{0.05cm}$$
  
 
{{ML-Fuß}}
 
{{ML-Fuß}}

Revision as of 10:47, 7 June 2017

Entropien der Kanalmodelle „BC” und „BSC”

Die Kanalkapazität $C$ wurde von Claude E. Shannon als die maximale Transinformation definiert, wobei sich die Maximierung allein auf die Quellenstatistik bezieht:

$$ C = \max_{P_X(X)} \hspace{0.15cm} I(X;Y) \hspace{0.05cm}$$

Beim Binärkanal mit der Wahrscheinlichkeitsfunktion $P_X(X) = [p_0, p_1]$ ist nur ein Parameter optimierbar, beispielsweise $p_0$. Die Wahrscheinlichkeit für eine $1$ ist damit ebenfalls festgelegt: $p_1 = 1 – p_0.$

Die obere Grafik (rot hinterlegt) fasst die Ergebnisse für den unsymmetrischen Binärkanal mit $ε_0 = 0.01$ und $ε_1 = 0.2$ zusammen, der auch im Theorieteil betrachtet wurde. Die Maximierung führt zum Ergebnis $p_0 = 0.55$   ⇒   $p_1 = 0.45$, und man erhält für die Kanalkapazität:

$$C_{\rm BC} = \hspace{-0.05cm} \max_{P_X(X)} \hspace{0.1cm} I(X;Y) \big |_{p_0 \hspace{0.05cm} = \hspace{0.05cm}0.55} \hspace{0.05cm}=\hspace{0.05cm} 0.5779\,{\rm bit} \hspace{0.05cm}.$$

In der unteren Grafik (blaue Hinterlegung) sind die gleichen informationstheoretischen Größen für den symmetrischen Kanal   ⇒   Binary Symmetric Channel (BSC) mit den Verfälschungswahrscheinlichkeiten $ε1 = ε2 = ε = 0.1$ angegeben, der auch für die Aufgabe 3.9 vorausgesetzt wurde.

In der vorliegenden Aufgabe sollen Sie für das BSC–Kanalmodell (zunächst für $ε = 0.1$)

  • die Entropien $H(X)$, $H(Y)$, $H(X|Y)$, $H(Y|X)$ analysieren,
  • den Quellenparameter $p_0$ hinsichtlich maximaler Transinformation $I(X; Y)$ optimieren,
  • somit die Kanalkapazität $C(ε)$ bestimmen, sowie
  • durch Verallgemeinerung eine geschlossene Gleichung für $C(ε)$ angeben.


Hinweise:


Fragebogen

1

Welche Aussagen gelten für die bedingten Entropien beim BSC–Modell?

Die Äquivokation ergibt sich zu $H(X|Y) = H_{\rm bin}(ε)$.
Die Irrelevanz ergibt sich zu $H(Y|X) = H_{\rm bin}(ε)$.
Die Irrelevanz ergibt sich zu $H(Y|X) = H_{\rm bin}(p_0)$.

2

Welche Aussage gilt für die Kanalkapazität $C_{\rm BSC}$ des BSC–Modells?

Die Kanalkapazität ist gleich der maximalen Transinformation.
Die Maximierung führt beim BSC zum Ergebnis $p_0 = p_1 = 0.5$.
Für $p_0 = p_1 = 0.5$ gilt $H(X) = H(Y) = 1 \ \rm bit$.

3

Welche Kanalkapazität $C_{\rm BSC}$ ergibt sich abhängig vom BSC–Parameter $ε$?

$ε = 0.0\text{:} \ \ C_{\rm BSC} \ = \ $

$\ \rm bit$
$ε = 0.1\text{:} \ \ C_{\rm BSC} \ = \ $

$\ \rm bit$
$ε = 0.5\text{:} \ \ C_{\rm BSC} \ = \ $

$\ \rm bit$

4

Welche Kanalkapazität $C_{\rm BSC}$ ergibt sich abhängig vom BSC–Parameter $ε$?

$ε = 1.0\text{:} \ \ C_{\rm BSC} \ = \ $

$\ \rm bit$
$ε = 0.9\text{:} \ \ C_{\rm BSC} \ = \ $

$\ \rm bit$


Musterlösung

(1)  Richtig ist der Lösungsvorschlag 2, wie die folgende Rechnung zeigt:

$$H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) = p_0 \cdot (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} + p_0 \cdot \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} +p_1 \cdot \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} + p_1 \cdot (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} $$
$$\Rightarrow \hspace{0.3cm} H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) = (p_0 + p_1) \cdot \left [ \varepsilon \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{\varepsilon} + (1 - \varepsilon) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1 - \varepsilon} \right ] \hspace{0.05cm}.$$
  • Mit $p_0 + p_1 = 1$ und der binären Entropiefunktio] $H_{\rm bin}$ erhält man das vorgeschlagene Ergebnis: $H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X) = H_{\rm bin}(\varepsilon)\hspace{0.05cm}.$
  • Für $ε = 0.1$ ergibt sich $H(Y|X) = 0.4690 \ \rm bit$. Der gleiche Wert steht für alle $p_0$ in der vorgegebenen Tabelle.
  • Aus der Tabelle erkennt man auch, dass beim BSC–Modell (blaue Hinterlegung) wie auch beim allgemeineren (unsymmetrischen) BC–Modell (rote Hinterlegung) die Äquivokation $H(X|Y)$ von den Quellensymbolwahrscheinlichkeiten $p_0$ und $p_1$ abhängt. Daraus folgt, dass der Lösungsvorschlag 1 nicht richtig sein kann.
  • Die Irrelevanz $H(Y|X)$ istunabhängig von der Quellenstatistik, so dass auch der Lösungsvorschlag 3 ausgeschlossen werden kann.


(2)  Zutreffend sind hier alle vorgegebenen Lösungsalternativen:

  • Die Kanalkapazität ist definiert als die maximale Transinformation, wobei die Maximierung hinsichtlich $P_X = (p_0, p_1)$ zu erfolgen hat (die Gleichung gilt allgemein, also auch für den rot hinterlegten unsymmetrischen Binärkanal):
$$C = \max_{P_X(X)} \hspace{0.15cm} I(X;Y) \hspace{0.05cm}.$$
  • Die Transinformation kann zum Beispiel berechnet werden als $I(X;Y) = H(Y) - H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X)\hspace{0.05cm}$, wobei entsprechend der Teilaufgabe (1) der Term $H(Y \hspace{-0.1cm}\mid \hspace{-0.1cm} X)\hspace{0.05cm}$ unabhängig von $p_0$ bzw. $p_1 = 1- p_0$ ist.
  • Die maximale Transinformation ergibt sich somit genau dann, wenn die Sinkenentropie $H(Y)$ maximal ist. Dies ist der Fall für $p_0 = p_1 = 0.5$   ⇒   $H(X) = H(Y) = 1 \ \rm bit$.


(3)  Entsprechend den Teilaufgaben (1) und (2) erhält man für die BSC–Kanalkapazität:

$$C = \max_{P_X(X)} \hspace{0.15cm} I(X;Y) \hspace{0.05cm}.$$

Die Grafik rechts zeigt die binäre Entropiefunktion und rechts die Kanalkapazität. Man erhält:

  • für $ε = 0$ (fehlerfreier Kanal): $C = 1\ \rm (bit)$   ⇒   Punkt mit gelber Füllung,
  • für $ε = 0.1$ (bisher betrachtet): $C = 0.531\ \rm (bit)$   ⇒   Punkt mit grüner Füllung,
  • für $ε = 0.5$ (vollkommen gestört): $C = 0\ \rm (bit)$   ⇒   Punkt mit grauer Füllung.
Binäre Entropiefunktion und BSC–Kanalkapazität

(4)  Aus der Grafik erkennt man, dass aus informationstheoretischer Sicht $ε = 1$ identisch mit $ε = 0$ ist: $$C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}1} \hspace{0.05cm}= C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0} \hspace{0.15cm} \underline {=1\,{\rm (bit)}} \hspace{0.05cm}$$

  • Der Kanal nimmt hier nur eine Umbenennung vor. Man spricht von „Mapping”.
  • Aus jeder $0$ wird eine $1$ und aus jeder $1$ eine $0$. Entsprechend gilt:
$$C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0.9} \hspace{0.05cm}= C_{\rm BSC} \big |_{\hspace{0.05cm}\varepsilon \hspace{0.05cm} = \hspace{0.05cm}0.1} \hspace{0.15cm} \underline {=0.531\,{\rm (bit)}} \hspace{0.05cm}$$