Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Exercise 4.6: AWGN Channel Capacity

From LNTwww
Revision as of 14:03, 29 May 2018 by Mwiki-lnt (talk | contribs) (Textersetzung - „\*\s*Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0\.” ein.“ durch „ “)

Flussdiagramm der Information

Wir gehen vom AWGN-Kanalmodell aus:

  • X kennzeichnet den Eingang (Sender).
  • N steht für eine gaußverteilte Störung.
  • Y=X+N beschreibt den Ausgang (Empfänger) bei additiver Störung.

Für die Wahrscheinlichkeitsdichtefunktion der Störung gelte:

fN(n)=12πσ2Nen2/(2σ2N).

Da die Zufallsgröße N mittelwertfrei ist   ⇒   mN=0, kann man die Varianz σ2N mit der Leistung PN gleichsetzen. In diesem Fall ist die differentielle Entropie der Zufallsgröße N wie folgt angebbar (mit der Pseudo–Einheit „bit”):

h(N)=1/2log2(2πePN).

In dieser Aufgabe wird PN=1mW vorgegeben. Dabei ist zu beachten:

  • Die Leistung PN in obiger Gleichung muss wie die Varianz σ2N dimensionslos sein.
  • Um mit dieser Gleichung arbeiten zu können, muss die physikalische Größe PN geeignet normiert werden, zum Beispiel entsprechend PN=1mW   ⇒   PN=1.
  • Bei anderer Normierung, beispielsweise PN=1mW   ⇒   PN=0.001 ergäbe sich für h(N) ein völlig anderer Zahlenwert.


Weiter können Sie bei der Lösung dieser Aufgabe berücksichtigen:

  • Die Kanalkapazität ist definiert als die maximale Transinformation zwischen Eingang X und Ausgang Y bei bestmöglicher Eingangsverteilung:
C=max
  • Die Kanalkapazität des AWGN–Kanals lautet:
C_{\rm AWGN} = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P_X}{P_N} \right ) = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P\hspace{0.05cm}'_{\hspace{-0.05cm}X}}{P\hspace{0.05cm}'_{\hspace{-0.05cm}N}} \right )\hspace{0.05cm}.
Daraus ist ersichtlich, dass die die Kanalkapazität C und auch die Transinformation I(X; Y) im Gegensatz zu den differentiellen Entropien unabhängig von obiger Normierung ist.
  • Bei gaußförmiger Stör–WDF f_N(n) führt eine ebenfalls gaußförmige Eingangs–WDF f_X(x) zur maximalen Transinformation und damit zur Kanalkapazität.


Hinweise:


Fragebogen

1

Welche Sendeleistung ist für C = 2 \ \rm bit erforderlich?

P_X \ = \

\ \rm mW

2

Unter welchen Voraussetzungen ist I(X; Y) = 2 \ \rm bit überhaupt erreichbar?

P_X ist wie unter (1) ermittelt oder größer.
Die Zufallsgröße X ist gaußverteilt.
Die Zufallsgröße X ist mittelwertfrei.
Die Zufallsgrößen X und N sind unkorreliert.
Die Zufallsgrößen X und Y sind unkorreliert.

3

Berechnen Sie die differentiellen Entropien der Zufallsgrößen N, X und Y bei geeigneter Normierung, zum Beispiel P_N = 1 \rm mW   ⇒   P_N' = 1.

h(N) \ = \

\ \rm bit
h(X) \ = \

\ \rm bit
h(Y) \ = \

\ \rm bit

4

Wie lauten die weiteren informationstheoretischen Beschreibungsgrößen?

h(Y|X) \ = \

\ \rm bit
h(X|Y) \ = \

\ \rm bit
h(XY) \ = \

\ \rm bit

5

Welche Größen ergäben sich bei gleichem P_X im Grenzfall P_N ' \to 0 ?

h(X) \ = \

\ \rm bit
h(Y|X) \ = \

\ \rm bit
h(Y) \ = \

\ \rm bit
I(X;Y) \ = \

\ \rm bit
h(X|Y) \ = \

\ \rm bit


Musterlösung

(1)  Die Gleichung für die AWGN–Kanalkapazität in „bit” lautet:

C_{\rm bit} = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + {P_X}/{P_N} \right )\hspace{0.05cm}.

Mit Cbit = 2 ergibt sich daraus:

4 \stackrel{!}{=} {\rm log}_2\hspace{0.05cm}\left ( 1 + {P_X}/{P_N} \right ) \hspace{0.3cm}\Rightarrow \hspace{0.3cm} 1 + {P_X}/{P_N} \stackrel {!}{=} 2^4 = 16 \hspace{0.3cm}\Rightarrow \hspace{0.3cm} P_X = 15 \cdot P_N \hspace{0.15cm}\underline{= 15\,{\rm mW}} \hspace{0.05cm}.

(2)  Richtig sind die Lösungsvorschläge 1 bis 4. Begründung:

  • Für PX < 15 mW wird die Transinformation I(X; Y) stets kleiner als 2 bit sein, unabhängig von allen anderen Gegebenheiten.
  • Mit PX = 15 mW ist die maximale Transinformation I(X; Y) = 2 bit nur erreichbar, wenn die Eingangsgröße X gaußverteilt ist. Die Ausgangsgröße Y ist dann ebenfalls gaußverteilt.
  • Weist die Zufallsgröße X einen Gleichanteil mX auf, so ist die Varianz σX2 = PXmX2 bei gegebenem PX  kleiner, und es gilt I(X;Y) = 1/2 · log2 (1 + σX2/PN) < 2 bit.
  • Voraussetzung für die gegebene Kanalkapazitätsgleichung ist, dass X und N unkorreliert sind. Wären dagegen die Zufallsgrößen X und Y unkorreliert, so ergäbe sich I(X; Y) = 0.


Informationstheoretische Größen für den AWGN-Kanal

(3)  Die angegebene Gleichung für die differentielle Entropie macht nur bei dimensionsloser Leistung Sinn. Mit der vorgeschlagenen Normierung erhält man:

  • Für PN = 1 mW  ⇒  P'N = 1:
h(N) \ = \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot 1 \right ) = \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 17.08 \right ) \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm},
  • Für PX = 15 mW  ⇒  P′X = 15:
h(X) \ = \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot 15 \right ) = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \right ) + {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left (15 \right ) \hspace{0.15cm}\underline{= 4.000\,{\rm bit}}\hspace{0.05cm},
  • Für PY = PX + PN = 16 mW  ⇒  P′Y = 16:
h(Y) = 2.047\,{\rm bit} + 2.000\,{\rm bit} \hspace{0.15cm}\underline{= 4.047\,{\rm bit}}\hspace{0.05cm}.


(4)  Für die differentielle Irrelevanz gilt beim AWGN–Kanal:

h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(N) \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}.

Entsprechend nebenstehender Grafik gilt aber auch:

h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(Y) - I(X;Y) = 4.047 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}.

Daraus kann die differentielle Äquivokation wie folgt berechnet werden:

h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) = h(X) - I(X;Y) = 4.000 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 2.000\,{\rm bit}}\hspace{0.05cm}.

Abschließend wird auch noch die differentielle Verbundentropie angegeben, die aus obigem Schaubild nicht direkt ablesbar ist:

h(XY) = h(X) + h(Y) - I(X;Y) = 4.000 \,{\rm bit} + 4.047 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 6.047\,{\rm bit}}\hspace{0.05cm}.
Informationstheoretische Größen beim idealen Kanal

(5)  Bei einem idealen Kanal erhält man mit h(X) = 4 bit:

h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) \ = \ h(N) \hspace{0.15cm}\underline{= 0\,{\rm (bit)}}\hspace{0.05cm},
h(Y) \ = \ h(X) \hspace{0.15cm}\underline{= 4\,{\rm bit}}\hspace{0.05cm},
I(X;Y) \ = \ h(Y) - h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X)\hspace{0.15cm}\underline{= 4\,{\rm bit}}\hspace{0.05cm}, h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) \ = \ h(X) - I(X;Y)\hspace{0.15cm}\underline{= 0\,{\rm (bit)}}\hspace{0.05cm}.

Die Grafik zeigt diese Größen in einem Flussdiagramm.


Das gleiche Diagramm ergäbe sich auch im wertdiskreten Fall mit M = 16 gleichwahrscheinlichen Symbolen  ⇒  H(X) = 4 bit. Man müsste nur jedes „h” durch ein „H” ersetzen.