Difference between revisions of "Aufgaben:Exercise 4.6: AWGN Channel Capacity"
Line 10: | Line 10: | ||
Für die Wahrscheinlichkeitsdichtefunktion der Störung gelte: | Für die Wahrscheinlichkeitsdichtefunktion der Störung gelte: | ||
− | :$$f_N(n) = \frac{1}{\sqrt{2\pi \hspace{0.03cm}\sigma_{\hspace{-0.05cm}N}^2}} \cdot | + | :$$f_N(n) = \frac{1}{\sqrt{2\pi \hspace{0.03cm}\sigma_{\hspace{-0.05cm}N}^2}} \cdot {\rm e}^{ |
− | + | - \hspace{0.05cm}{n^2}\hspace{-0.05cm}/{(2 \hspace{0.03cm} \sigma_{\hspace{-0.05cm}N}^2) }} \hspace{0.05cm}.$$ | |
− | |||
Da die Zufallsgröße $N$ mittelwertfrei ist ⇒ $m_{N} = 0$, kann man die Varianz $\sigma_{\hspace{-0.05cm}N}^2$ mit der Leistung $P_N$ gleichsetzen. In diesem Fall ist die differentielle Entropie der Zufallsgröße $N$ wie folgt angebbar (mit der Pseudo–Einheit „bit”): | Da die Zufallsgröße $N$ mittelwertfrei ist ⇒ $m_{N} = 0$, kann man die Varianz $\sigma_{\hspace{-0.05cm}N}^2$ mit der Leistung $P_N$ gleichsetzen. In diesem Fall ist die differentielle Entropie der Zufallsgröße $N$ wie folgt angebbar (mit der Pseudo–Einheit „bit”): | ||
:$$h(N) = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot P_N \right )\hspace{0.05cm}.$$ | :$$h(N) = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot P_N \right )\hspace{0.05cm}.$$ | ||
Line 48: | Line 47: | ||
<quiz display=simple> | <quiz display=simple> | ||
− | {Welche Sendeleistung ist für | + | {Welche Sendeleistung ist für $C = 2 \ \rm bit$ erforderlich? |
|type="{}"} | |type="{}"} | ||
− | $ | + | $P_X \ = \ $ { 15 3% } $\ \rm mW$ |
− | {Unter welchen Voraussetzungen ist | + | {Unter welchen Voraussetzungen ist $I(X; Y) = 2 \ \rm bit$ überhaupt erreichbar? |
|type="[]"} | |type="[]"} | ||
− | + | + | + $P_X$ ist wie unter (1) ermittelt oder größer. |
− | + Die Zufallsgröße | + | + Die Zufallsgröße $X$ ist gaußverteilt. |
− | + Die Zufallsgröße | + | + Die Zufallsgröße $X$ ist mittelwertfrei. |
− | + Die Zufallsgrößen | + | + Die Zufallsgrößen $X$ und $N$ sind unkorreliert. |
− | - Die Zufallsgrößen | + | - Die Zufallsgrößen $X$ und $Y$ sind unkorreliert. |
− | {Berechnen Sie die differentiellen Entropien der Zufallsgrößen | + | {Berechnen Sie die differentiellen Entropien der Zufallsgrößen $N$, $X$ und $Y$ bei geeigneter Normierung, zum Beispiel $P_N = 1 \rm mW$ ⇒ $P_N' = 1$. |
|type="{}"} | |type="{}"} | ||
− | $h(N)$ | + | $h(N) \ = \ $ { 2.047 3% } $\ \rm bit$ |
− | $h(X)$ | + | $h(X) \ = \ $ { 4 3% } $\ \rm bit$ |
− | $h(Y)$ | + | $h(Y) \ = \ $ { 4.047 3% } $\ \rm bit$ |
{Wie lauten die weiteren informationstheoretischen Beschreibungsgrößen? | {Wie lauten die weiteren informationstheoretischen Beschreibungsgrößen? | ||
|type="{}"} | |type="{}"} | ||
− | $h(Y|X)$ | + | $h(Y|X) \ = \ $ { 2.047 3% } $\ \rm bit$ |
− | $h(X|Y)$ | + | $h(X|Y) \ = \ $ { 2 3% } $\ \rm bit$ |
− | $h(XY)$ | + | $h(XY) \ = \ $ { 6.047 3% } $\ \rm bit$ |
− | {Welche Größen ergäben sich bei gleichem | + | {Welche Größen ergäben sich bei gleichem $P_X$ im Grenzfall $P_N ' \to 0$ ? |
|type="{}"} | |type="{}"} | ||
− | $h(X)$ | + | $h(X) \ = \ $ { 4 3% } $\ \rm bit$ |
− | $h(Y)$ | + | $h(Y) \ = \ $ { 4 3% } $\ \rm bit$ |
− | $h(Y|X)$ | + | $h(Y|X) \ = \ $ { 0 3% } $\ \rm bit$ |
− | $h(X|Y)$ | + | $h(X|Y) \ = \ $ { 0. } $\ \rm bit$ |
− | $I(X;Y)$ | + | $I(X;Y) \ = \ $ { 4 3% } $\ \rm bit$ |
Revision as of 11:45, 12 June 2017
Wir gehen vom AWGN-Kanalmodell aus:
- $X$ kennzeichnet den Eingang (Sender).
- $N$ steht für eine gaußverteilte Störung.
- $Y = X +N$ beschreibt den Ausgang (Empfänger) bei additiver Störung.
Für die Wahrscheinlichkeitsdichtefunktion der Störung gelte:
- $$f_N(n) = \frac{1}{\sqrt{2\pi \hspace{0.03cm}\sigma_{\hspace{-0.05cm}N}^2}} \cdot {\rm e}^{ - \hspace{0.05cm}{n^2}\hspace{-0.05cm}/{(2 \hspace{0.03cm} \sigma_{\hspace{-0.05cm}N}^2) }} \hspace{0.05cm}.$$
Da die Zufallsgröße $N$ mittelwertfrei ist ⇒ $m_{N} = 0$, kann man die Varianz $\sigma_{\hspace{-0.05cm}N}^2$ mit der Leistung $P_N$ gleichsetzen. In diesem Fall ist die differentielle Entropie der Zufallsgröße $N$ wie folgt angebbar (mit der Pseudo–Einheit „bit”):
- $$h(N) = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot P_N \right )\hspace{0.05cm}.$$
In dieser Aufgabe wird $P_N = 1 \rm mW$ vorgegeben. Dabei ist zu beachten:
- Die Leistung $P_N$ in obiger Gleichung muss wie die Varianz $\sigma_{\hspace{-0.05cm}N}^2$ dimensionslos sein.
- Um mit dieser Gleichung arbeiten zu können, muss die physikalische Größe $P_N$ geeignet normiert werden, zum Beispiel entsprechend $P_N = 1 \rm mW$ ⇒ $P_N' = 1$.
- Bei anderer Normierung, beispielsweise $P_N = 1 \rm mW$ ⇒ $P_N' = 0.001$ ergäbe sich für $h(N)$ ein völlig anderer Zahlenwert.
Weiter können Sie bei der Lösung dieser Aufgabe berücksichtigen:
- Die Kanalkapazität ist definiert als die maximale Transinformation zwischen Eingang $X$ und Ausgang $Y$ bei bestmöglicher Eingangsverteilung:
- $$C = \max_{\hspace{-0.15cm}f_X:\hspace{0.05cm} {\rm E}[X^2] \le P_X} \hspace{-0.2cm} I(X;Y) \hspace{0.05cm}.$$
- Die Kanalkapazität des AWGN–Kanals lautet:
- $$C_{\rm AWGN} = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P_X}{P_N} \right ) = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 1 + \frac{P\hspace{0.05cm}'_{\hspace{-0.05cm}X}}{P\hspace{0.05cm}'_{\hspace{-0.05cm}N}} \right )\hspace{0.05cm}.$$
- Daraus ist ersichtlich, dass die die Kanalkapazität $C$ und auch die Transinformation $I(X; Y)$ im Gegensatz zu den differentiellen Entropien unabhängig von obiger Normierung ist.
- Bei gaußförmiger Stör–WDF $f_N(n)$ führt eine ebenfalls gaußförmige Eingangs–WDF $f_X(x)$ zur maximalen Transinformation und damit zur Kanalkapazität.
Hinweise:
- Die Aufgabe gehört zum Kapitel AWGN–Kanalkapazität bei wertkontinuierlichem Eingang.
- Da die Ergebnisse in „bit” angegeben werden sollen, wird in den Gleichungen „log” ⇒ „log2” verwendet.
- Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0.” ein.
Fragebogen
Musterlösung
- Für PX < 15 mW wird die Transinformation I(X; Y) stets kleiner als 2 bit sein, unabhängig von allen anderen Gegebenheiten.
- Mit PX = 15 mW ist die maximale Transinformation I(X; Y) = 2 bit nur erreichbar, wenn die Eingangsgröße X gaußverteilt ist. Die Ausgangsgröße Y ist dann ebenfalls gaußverteilt.
- Weist die Zufallsgröße X einen Gleichanteil mX auf, so ist die Varianz σX2 = PX – mX2 bei gegebenem PX kleiner, und es gilt I(X;Y) = 1/2 · log2 (1 + σX2/PN) < 2 bit.
- Voraussetzung für die gegebene Kanalkapazitätsgleichung ist, dass X und N unkorreliert sind. Wären dagegen die Zufallsgrößen X und Y unkorreliert, so ergäbe sich I(X; Y) = 0.
c) Die angegebene Gleichung für die differentielle Entropie macht nur bei dimensionsloser Leistung Sinn. Mit der vorgeschlagenen Normierung erhält man:
- PN = 1 mW ⇒ P'N = 1:
$$h(N) \ = \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot 1 \right ) $$ $$ = \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 17.08 \right ) \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm},$$
- PX = 15 mW ⇒ P′X = 15:
$$h(X) \ = \ {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \cdot 15 \right ) $$ $$ = {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left ( 2\pi {\rm e} \right ) + {1}/{2} \cdot {\rm log}_2\hspace{0.05cm}\left (15 \right ) $$ $$ = \ 2.047\,{\rm bit} + 1.953\,{\rm bit} \hspace{0.15cm}\underline{= 4.000\,{\rm bit}}\hspace{0.05cm}, $$
- PY = PX + PN = 16 mW ⇒ P′Y = 16:
$$h(Y) = 2.047\,{\rm bit} + 2.000\,{\rm bit} \hspace{0.15cm}\underline{= 4.047\,{\rm bit}}\hspace{0.05cm}.$$ d) Für die differentielle Irrelevanz gilt beim AWGN–Kanal: $$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(N) \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}.$$ Entsprechend nebenstehender Grafik gilt aber auch: $$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) = h(Y) - I(X;Y) = 4.047 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 2.047\,{\rm bit}}\hspace{0.05cm}. $$ Entsprechend kann die differentielle Äquivokation wie folgt berechnet werden: $$h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) = h(X) - I(X;Y) = 4.000 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 2.000\,{\rm bit}}\hspace{0.05cm}.$$ Abschließend wird auch noch die differentielle Verbundentropie angegeben, die aus obigem Schaubild nicht direkt ablesbar ist: $$h(XY) = h(X) + h(Y) - I(X;Y) = 4.000 \,{\rm bit} + 4.047 \,{\rm bit} - 2 \,{\rm bit} \hspace{0.15cm}\underline{= 6.047\,{\rm bit}}\hspace{0.05cm}.$$
e) Bei einem idealen Kanal erhält man mit h(X) = 4 bit: $$h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X) \ = \ h(N) \hspace{0.15cm}\underline{= 0\,{\rm (bit)}}\hspace{0.05cm},$$ $$ h(Y) \ = \ h(X) \hspace{0.15cm}\underline{= 4\,{\rm bit}}\hspace{0.05cm},$$ $$ I(X;Y) \ = \ h(Y) - h(Y \hspace{-0.05cm}\mid \hspace{-0.05cm} X)\hspace{0.15cm}\underline{= 4\,{\rm bit}}\hspace{0.05cm},$$ $$ h(X \hspace{-0.05cm}\mid \hspace{-0.05cm} Y) \ = \ h(X) - I(X;Y)\hspace{0.15cm}\underline{= 0\,{\rm (bit)}}\hspace{0.05cm}.$$ Die Grafik zeigt diese Größen in einem Flussdiagramm.
Das gleiche Diagramm ergäbe sich auch im wertdiskreten Fall mit M = 16 gleichwahrscheinlichen Symbolen ⇒ H(X) = 4 bit. Man müsste nur jedes „h” durch ein „H” ersetzen.
x