Difference between revisions of "Information Theory/AWGN Channel Capacity for Discrete-Valued Input"

From LNTwww
 
(103 intermediate revisions by 7 users not shown)
Line 1: Line 1:
 
{{LastPage}}  
 
{{LastPage}}  
 
{{Header
 
{{Header
|Untermenü=Wertkontinuierliche Informationstheorie
+
|Untermenü=Information Theory for Continuous Random Variables
|Vorherige Seite=AWGN–Kanalkapazität bei wertkontinuierlichem Eingang
+
|Vorherige Seite=AWGN Channel Capacity for Continuous Input
 
|Nächste Seite=
 
|Nächste Seite=
 
}}
 
}}
  
==AWGN–Modell für zeitdiskrete bandbegrenzte Signale==   
+
==AWGN model for discrete-time band-limited signals==   
 
<br>
 
<br>
Am Ende des&nbsp; [[Informationstheorie/AWGN–Kanalkapazität_bei_wertkontinuierlichem_Eingang#Kanalkapazit.C3.A4t_des_AWGN.E2.80.93Kanals|letzten  Kapitels]]&nbsp; wurde das AWGN–Modell entsprechend der linken Grafik verwendet, gekennzeichnet durch die beiden Zufallsgrößen&nbsp; $X$&nbsp; und&nbsp; $Y$&nbsp; am Eingang und Ausgang sowie die stochastische Störung&nbsp; $N$&nbsp; als das Ergebnis eines mittelwertfreien Gaußschen Zufallsprozesses &nbsp; ⇒  &nbsp; „Weißes Rauschen” mit der Varianz&nbsp; $σ_N^2$.&nbsp; Die Störleistung&nbsp; $P_N$&nbsp; ist ebenfalls gleich&nbsp; $σ_N^2$.
+
At the end of the&nbsp; [[Information_Theory/AWGN–Kanalkapazität_bei_wertkontinuierlichem_Eingang#Channel_capacity_of_the_AWGN_channel|"last chapter"]],&nbsp; the AWGN model was used according to the left graph,&nbsp; characterized by the two random variables&nbsp; $X$&nbsp; and&nbsp; $Y$&nbsp; at the input and output and the stochastic noise&nbsp; $N$&nbsp; as the result of a mean-free Gaussian random process &nbsp; ⇒  &nbsp; "white noise" with variance&nbsp; $σ_N^2$.&nbsp; The noise power&nbsp; $P_N$&nbsp; is also equal to&nbsp; $σ_N^2$.
  
[[File:P_ID2931__Inf_T_4_3_S1a.png|center|frame|Zwei weitgehend äquivalente Modelle für den  AWGN–Kanal]]
+
[[File:EN_Inf_T_4_3_S1a.png|right|frame|Two largely equivalent models for the AWGN channel<br><br><br><br>]]
  
Die maximale Transinformation &nbsp;$I(X; Y)$&nbsp; zwischen Eingang und Ausgang &nbsp; ⇒ &nbsp; Kanalkapazität &nbsp;$C$&nbsp; ergibt sich dann, wenn eine Gaußsche Eingangs–WDF&nbsp;$f_X(x)$&nbsp; vorliegt.&nbsp; Mit der Sendeleistung&nbsp; $P_X = σ_X^2$ &nbsp; ⇒  &nbsp; Varianz der Zufallsgröße&nbsp; $X$&nbsp; lautet die Kanalkapazitätsgleichung:
+
*The maximum mutual information &nbsp;$I(X; Y)$&nbsp; between input and output &nbsp; ⇒ &nbsp; channel capacity &nbsp;$C$&nbsp; is obtained when there is a Gaussian input PDF&nbsp;$f_X(x)$.&nbsp;  
 +
 
 +
*With the transmission power&nbsp; $P_X = σ_X^2$ &nbsp; ⇒  &nbsp; variance of the random variable&nbsp; $X$,&nbsp; the channel capacity equation is:
 
   
 
   
 
:$$C = 1/2 \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + {P_X}/{P_N})  
 
:$$C = 1/2 \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + {P_X}/{P_N})  
 
\hspace{0.05cm}.$$
 
\hspace{0.05cm}.$$
  
Nun beschreiben wir das AWGN–Kanalmodell gemäß dem rechts skizzierten Fall, dass am Kanaleingang die Folge&nbsp; $〈X_ν〉$&nbsp; anliegt, wobei der Abstand zwischen aufeinander folgenden Werten&nbsp; $T_{\rm A}$&nbsp; beträgt.&nbsp; Diese Folge ist das zeitdiskrete Äquivalent des zeitkontinuierlichen Signals&nbsp; $X(t)$&nbsp; nach Bandbegrenzung und Abtastung.
+
*Now we describe the AWGN channel model according to the sketch on the right,&nbsp; where the sequence&nbsp; $〈X_ν〉$&nbsp; is applied to the channel input,&nbsp; where the distance between successive values is&nbsp; $T_{\rm A}$.&nbsp;  
 +
 
 +
*This sequence is the discrete-time equivalent of the continuous-time signal&nbsp; $X(t)$&nbsp; after band-limiting  and sampling.
 +
 
 +
*The relationship between the two models can be established by means of a graph, which is described in more detail below.
 +
 
  
Der Zusammenhang zwischen beiden Modellen kann anhand einer Grafik hergestellt werden, die anschließend genauer beschrieben wird.
+
{{BlaueBox|TEXT=&nbsp; $\text{The main findings at the outset:}$&nbsp;
 +
*In the right-hand model, the same relationship&nbsp; $Y_ν = X_ν + N_ν$&nbsp; applies at the sampling times&nbsp; $ν·T_{\rm A}$&nbsp; as in the left-hand model.
  
{{BlaueBox|TEXT=&nbsp; Die&nbsp; $\text{wesentlichen Erkenntnisse}$&nbsp; vorneweg:
+
*The noise component&nbsp; $N_ν$&nbsp; is now to be modelled by band-limited&nbsp; $(±B)$&nbsp; white noise with the two-sided power density &nbsp;${\it Φ}_N(f) = N_0/2$,&nbsp; where &nbsp;$B = 1/(2T_{\rm A})$&nbsp; must hold &nbsp; ⇒  &nbsp;see &nbsp; [[Signal_Representation/Discrete-Time_Signal_Representation#Sampling_theorem|"sampling theorem"]].}}
*Beim rechten Modell gilt zu den Abtastzeitpunkten&nbsp; $ν·T_{\rm A}$&nbsp; der gleiche Zusammenhang&nbsp; $Y_ν = X_ν + N_ν$&nbsp; wie beim linken Modell.
 
*Die Störkomponente&nbsp; $N_ν$&nbsp; ist nun durch&nbsp; $($auf&nbsp; $±B)$&nbsp; bandbegrenztes Weißes Rauschen mit der zweiseitigen Leistungsdichte &nbsp;${\it Φ}_N(f) = N_0/2$&nbsp; zu modellieren, wobei &nbsp;$B = 1/(2T_{\rm A})$&nbsp; gelten muss &nbsp; ⇒  &nbsp;siehe&nbsp; [[Signaldarstellung/Zeitdiskrete_Signaldarstellung#Das_Abtasttheorem|Abtasttheorem]].}}
 
  
  
 
$\text{ Interpretation:}$
 
$\text{ Interpretation:}$
  
Beim modifizierten Modell gehen wir von einer unendlichen Folge&nbsp; $〈X_ν〉$&nbsp; von Gaußschen Zufallsgrößen aus, die einem&nbsp; [[Signaldarstellung/Zeitdiskrete_Signaldarstellung#Zeitbereichsdarstellung|Diracpuls]]&nbsp; $p_δ(t)$&nbsp; eingeprägt werden.&nbsp; Das resultierende zeitdiskrete Signal lautet somit:
+
In the modified model,&nbsp; we assume an infinite sequence&nbsp; $〈X_ν〉$&nbsp; of Gaussian random variables impressed on a&nbsp; [[Signal_Representation/Discrete-Time_Signal_Representation#Time_domain_representation|"Dirac comb"]]&nbsp; $p_δ(t)$.&nbsp; The resulting discrete-time signal is thus:
+
 
 
:$$X_{\delta}(t) = T_{\rm A} \cdot \hspace{-0.1cm} \sum_{\nu = - \infty }^{+\infty} X_{\nu} \cdot
 
:$$X_{\delta}(t) = T_{\rm A} \cdot \hspace{-0.1cm} \sum_{\nu = - \infty }^{+\infty} X_{\nu} \cdot
 
  \delta(t- \nu \cdot T_{\rm A}
 
  \delta(t- \nu \cdot T_{\rm A}
 
  )\hspace{0.05cm}.$$
 
  )\hspace{0.05cm}.$$
 +
[[File:EN_Inf_T_4_3_S1b_v2.png|right|frame| AWGN model considering time discretization and band-limitation]]
  
Der Abstand aller (gewichteten) Diracfunktionen ist einheitlich&nbsp; $T_{\rm A}$.
+
The spacing of all&nbsp; $($weighted$)$&nbsp; "Dirac delta functions"&nbsp; is uniform&nbsp; $T_{\rm A}$.&nbsp; Through the interpolation filter with the impulse response&nbsp; $h(t)$&nbsp; as well as the frequency response&nbsp; $H(f)$, where
 
 
[[File:P_ID2932__Inf_T_4_3_S1b.png|center|frame| AWGN–Modell unter Berücksichtigung von Zeitdiskretisierung und Bandbegrenzung]]
 
 
 
Durch das Interpolationsfilter mit der Impulsantwort&nbsp; $h(t)$&nbsp; sowie dem Frequenzgang&nbsp; $H(f)$, wobei
 
 
   
 
   
:$$h(t) = 1/T_{\rm A} \cdot {\rm si}(\pi \cdot t/T_{\rm A}) \quad \circ\!\!\!-\!\!\!-\!\!\!-\!\!\bullet \quad H(f) =
+
:$$h(t) = 1/T_{\rm A} \cdot {\rm sinc}(t/T_{\rm A}) \quad \circ\!\!\!-\!\!\!-\!\!\!-\!\!\bullet \quad H(f) =
\left\{ \begin{array}{c} 1 \\  0 \\  \end{array} \right. \begin{array}{*{20}c}  {\rm{f\ddot{u}r}} \hspace{0.3cm} |f| \le B, \\    {\rm{f\ddot{u}r}} \hspace{0.3cm} |f| > B, \\ \end{array}
+
\left\{ \begin{array}{c} 1 \\  0 \\  \end{array} \right. \begin{array}{*{20}c}  {\rm{for}} \hspace{0.3cm} |f| \le B, \\    {\rm{for}} \hspace{0.3cm} |f| > B, \\ \end{array},$$
\hspace{0.5cm} B = \frac{1}{T_{\rm A}}$$
 
  
gelten muss, entsteht das zeitkontinuierliche Signal&nbsp; $X(t)$&nbsp; mit folgenden Eigenschaften:
+
where the&nbsp; (one-sided)&nbsp; bandwidth&nbsp; $B = 1/(2T_{\rm A})$,&nbsp; the continuous-time signal&nbsp; $X(t)$&nbsp; is obtained with the following properties:
*Die Abtastwerte&nbsp; $X(ν·T_{\rm A})$&nbsp; sind für alle ganzzahligen &nbsp;$ν$&nbsp; identisch mit den Eingangswerten&nbsp; $X_ν$, was mit den äquidistanten Nullstellen der&nbsp; [[Signaldarstellung/Einige_Sonderfälle_impulsartiger_Signale#Rechteckimpuls|Spaltfunktion]] &nbsp; ⇒ &nbsp; $\text{si}(x) = \sin(x)/x$&nbsp; begründet werden kann.
+
*The samples&nbsp; $X(ν·T_{\rm A})$&nbsp; are identical to the input values&nbsp; $X_ν$ for all integers&nbsp;$ν$,&nbsp; which can be justified by the equidistant zeros of the&nbsp; [[Signal_Representation/Special_Cases_of_Pulses#Rectangular_pulse| $\text{function&nbsp; $\text{sinc}(x) = \sin(\pi x)/(\pi x)$}$]].
*Gemäß dem Abtasttheorem ist&nbsp; $X(t)$&nbsp; auf den Spektralbereich&nbsp; $±B$&nbsp; ideal bandbegrenzt, wie die obige Rechnung gezeigt hat &nbsp; ⇒  &nbsp; rechteckförmiger Frequenzgang&nbsp; $H(f)$&nbsp; der einseitigen Bandbreite&nbsp; $B$.
+
*According to the sampling theorem,&nbsp; $X(t)$&nbsp; is ideally band-limited  to the spectral range &nbsp; ⇒  &nbsp; rectangular frequency response&nbsp; $H(f)$&nbsp; of the one-sided bandwidth&nbsp; $B$.
  
  
 
{{BlaueBox|TEXT=
 
{{BlaueBox|TEXT=
$\text{Störleisungsbetrachtung:}$&nbsp; Nach der Addition der Störung&nbsp; $N(t)$&nbsp; mit der (zweiseitigen) Leistungsdichte&nbsp; &nbsp;${\it Φ}_N(t) = N_0/2$&nbsp; folgt das Matched–Filter&nbsp; $\rm (MF)$&nbsp; mit si–förmiger Impulsantwort.&nbsp; Für die&nbsp; '''Störleistung am MF–Ausgang'''&nbsp; gilt dann:
+
$\text{Noise power:}$&nbsp; After adding the noise component&nbsp; $N(t)$&nbsp; with the (two-sided) power density&nbsp; &nbsp;${\it Φ}_N(t) = N_0/2$,&nbsp; the matched filter&nbsp; $\rm (MF)$&nbsp; with sinc–shaped impulse response follows.&nbsp; The following then applies to the&nbsp; &raquo;'''noise power at the matched filter output'''&laquo;:
 
   
 
   
 
:$$P_N = {\rm E}\big[N_\nu^2 \big] = \frac{N_0}{2T_{\rm A} } = N_0 \cdot B\hspace{0.05cm}.$$}}
 
:$$P_N = {\rm E}\big[N_\nu^2 \big] = \frac{N_0}{2T_{\rm A} } = N_0 \cdot B\hspace{0.05cm}.$$}}
Line 56: Line 58:
  
 
{{BlaueBox|TEXT=
 
{{BlaueBox|TEXT=
$\text{Beweis:}$&nbsp;  
+
$\text{Proof:}$&nbsp;  
Mit&nbsp; $B = 1/(2T_{\rm A} )$&nbsp; erhält man für die Impulsantwort&nbsp; $h_{\rm E}(t)$&nbsp; und die Spektralfunktion&nbsp; $H_{\rm E}(f)$:
+
With&nbsp; $B = 1/(2T_{\rm A} )$&nbsp; one obtains for the impulse response&nbsp; $h_{\rm E}(t)$&nbsp; and the spectral function&nbsp; $H_{\rm E}(f)$:
 
   
 
   
 
:$$h_{\rm E}(t) = 2B \cdot {\rm si}(2\pi \cdot B \cdot t) \quad \circ\!\!\!-\!\!\!-\!\!\!-\!\!\bullet \quad H_{\rm E}(f) =
 
:$$h_{\rm E}(t) = 2B \cdot {\rm si}(2\pi \cdot B \cdot t) \quad \circ\!\!\!-\!\!\!-\!\!\!-\!\!\bullet \quad H_{\rm E}(f) =
 
\left\{ \begin{array}{c} 1 \\  0 \\  \end{array} \right.  
 
\left\{ \begin{array}{c} 1 \\  0 \\  \end{array} \right.  
\begin{array}{*{20}c} \text{für} \hspace{0.3cm} \vert f \vert \le B, \\    \text{für} \hspace{0.3cm} \vert f \vert  > B. \\ \end{array}  
+
\begin{array}{*{20}c} \text{for} \hspace{0.3cm} \vert f \vert \le B, \\    \text{for} \hspace{0.3cm} \vert f \vert  > B. \\ \end{array}  
 
$$
 
$$
  
Daraus folgt entsprechend den Erkenntnissen der&nbsp; [[Stochastische_Signaltheorie/Stochastische_Systemtheorie#Problemstellung|Stochastischen Systemtheorie]]:
+
It follows,&nbsp; according to the insights of the book&nbsp; [[Theory_of_Stochastic_Signals/Stochastic_System_Theory#System_model_and_problem_definition|"Theory of Stochastic Signals"]]:
 
   
 
   
 
:$$P_N =
 
:$$P_N =
Line 75: Line 77:
  
  
Weiter gilt:
+
Further:
*Tastet man das Matched&ndash;Filter–Ausgangssignal in äquidistanten Abständen&nbsp; $T_{\rm A}$&nbsp; ab, so ergibt sich für die Zeitpunkte&nbsp; $ν ·T_{\rm A}$&nbsp; die gleiche Konstellation wie bisher, nämlich: &nbsp; $Y_ν = X_ν + N_ν$.
+
*If one samples the matched filter output at equidistant intervals &nbsp; $T_{\rm A}$,&nbsp; the same constellation&nbsp; $Y_ν = X_ν + N_ν$&nbsp; as before results for the time instants&nbsp; $ν ·T_{\rm A}$.
  
*Der Störanteil&nbsp; $N_ν$&nbsp; im zeitdiskreten Ausgangssignal&nbsp; &nbsp;$Y_ν$&nbsp; ist somit „bandbegrenzt” und „weiß”.&nbsp; Die Kanalkapazitätsgleichung muss somit nur geringfügig angepasst werden.
+
*The noise component&nbsp; $N_ν$&nbsp; in the discrete-time output&nbsp; &nbsp;$Y_ν$&nbsp; is thus&nbsp; "band-limited"&nbsp;  and&nbsp; "white".&nbsp; The channel capacity equation thus needs to be adjusted only slightly.
  
*Mit der&nbsp; $\text{Energie pro Symbol}$&nbsp; &nbsp;$E_{\rm S} =  P_X \cdot T_{\rm A}$ &nbsp; ⇒ &nbsp; Sende–Energie innerhalb einer &bdquo;Symboldauer&rdquo; &nbsp;$T_{\rm A}$&nbsp; gilt dann:
+
*With &nbsp;$E_{\rm S} =  P_X \cdot T_{\rm A}$ &nbsp; ⇒ &nbsp; transmission energy within a symbol duration &nbsp;$T_{\rm A}$&nbsp; &rArr; &nbsp; &raquo;'''energy per symbol'''&laquo;&nbsp; then holds:
 
   
 
   
 
:$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac {P_X}{N_0 \cdot B})  
 
:$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac {P_X}{N_0 \cdot B})  
Line 89: Line 91:
  
  
==Die Kanalkapazität&nbsp; $C$&nbsp; als Funktion von&nbsp; $E_{\rm S}/N_0$ ==   
+
==The channel capacity&nbsp; $C$&nbsp; as a function of&nbsp; $E_{\rm S}/N_0$ ==   
 
<br>
 
<br>
 
{{GraueBox|TEXT=
 
{{GraueBox|TEXT=
$\text{Beispiel 1:}$&nbsp; Die Grafik zeigt den Verlauf der AWGN–Kanalkapazität in Abhängigkeit des Quotienten &nbsp;$E_{\rm S}/N_0$, wobei die linke Koordinatenachse und die roten Beschriftungen gültig sind:
+
$\text{Example 1:}$&nbsp; The graphic shows the variation of the AWGN channel capacity as a function of the quotient &nbsp;$E_{\rm S}/N_0$,&nbsp; where the left axis and the red labels are valid:
+
[[File:EN_Inf_T_4_3_S2a.png|right|frame|Channel capacities&nbsp; $C$&nbsp; and&nbsp; $C^{\hspace{0.05cm}*}$&nbsp; as a function of&nbsp; $E_{\rm S}/N_0$]]
:$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot E_{\rm S} }{N_0})  
+
:$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot E_{\rm S} }{N_0});
\hspace{0.5cm}{\rm Einheit\hspace{-0.15cm}: \hspace{0.05cm}bit/Kanalzugriff\hspace{0.15cm} (englisch\hspace{-0.15cm}: \hspace{0.05cm}bit/channel\hspace{0.15cm}use)}
+
\hspace{0.5cm}{\rm unit\hspace{-0.15cm}: \hspace{0.05cm}bit/channel\hspace{0.15cm}use}
 
\hspace{0.05cm}.$$
 
\hspace{0.05cm}.$$
  
Die (Pseudo&ndash;)Einheit wird manchmal auch mit „bit/Quellensymbol” oder kurz „bit/Symbol” bezeichnet.
+
The&nbsp; $($pseudo&ndash;$)$unit&nbsp; "bit/channel use"&nbsp; is sometimes also referred to
 +
*as&nbsp; "bit/source symbol"&nbsp;
 +
 
 +
*or&nbsp; "bit/symbol"&nbsp; for short.
 +
 
 +
 
  
[[File:P_ID2934__Inf_T_4_3_S2a.png|center|frame|Kanalkapazitäten&nbsp; $C$&nbsp; und&nbsp; $C^{\hspace{0.05cm}*}$&nbsp; über&nbsp; $E_{\rm S}/N_0$]]
+
&rArr; &nbsp; The right&nbsp; $($blue$)$&nbsp; axis label takes into account the result of the&nbsp; "sampling theorem" &nbsp; &rArr; &nbsp; $B = 1/(2T_{\rm A})$&nbsp; and
 +
*thus provides an upper bound for the bit rate&nbsp; $R$&nbsp; of a digital system
  
Die rechte (blaue) Achsenbeschriftung berücksichtigt die Beziehung &nbsp;$B = 1/(2T_{\rm A})$&nbsp; und liefert somit eine obere Schranke für die Bitrate&nbsp; $R$&nbsp; eines Digitalsystems, die bei diesem AWGN–Kanal noch möglich ist.
+
*that is still possible for this AWGN channel:
 
   
 
   
:$$C^{\hspace{0.05cm}*} = \frac{C}{T_{\rm A} }  = B \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac {  2 \cdot E_{\rm S} }{N_0})  
+
:$$C^{\hspace{0.05cm}*} = \frac{C}{T_{\rm A} }  = B \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac {  2 \cdot E_{\rm S} }{N_0});
\hspace{1.0cm}{\rm Einheit\hspace{-0.15cm}: \hspace{0.05cm}bit/Sekunde}
+
\hspace{0.5cm}{\rm unit\hspace{-0.15cm}: \hspace{0.05cm}bit/second}
 
\hspace{0.05cm}.$$}}
 
\hspace{0.05cm}.$$}}
 +
  
  
 
{{GraueBox|TEXT=
 
{{GraueBox|TEXT=
$\text{Beispiel 2:}$&nbsp;  
+
$\text{Example 2:}$&nbsp;  
Oft gibt man den Quotienten aus Symbolenergie&nbsp; $(E_{\rm S})$&nbsp; und AWGN–Rauschleistungsdichte&nbsp; $(N_0)$&nbsp; logarithmisch an.
+
Often one gives the quotient of symbol energy&nbsp; $(E_{\rm S})$&nbsp; and AWGN noise power density&nbsp; $(N_0)$&nbsp; logarithmically.
 +
[[File:EN_Inf_T_4_3_S2b.png|right|frame|AWGN channel capacities&nbsp; $C$&nbsp; and&nbsp; $C^{\hspace{0.05cm}*}$&nbsp; as a function of&nbsp;  $10 \cdot \lg \ E_{\rm S}/N_0$]]
  
[[File:P_ID2935__Inf_T_4_3_S2b.png|center|frame|AWGN–Kanalkapazitäten&nbsp; $C$&nbsp; und&nbsp; $C^{\hspace{0.05cm}*}$&nbsp; als Funktion von&nbsp;  $10 \cdot \lg \ E_{\rm S}/N_0$]]
 
 
   
 
   
*Diese Grafik zeigt die Kanalkapazitäten&nbsp; $C$&nbsp; bzw.&nbsp; $C^{\hspace{0.05cm}*}$&nbsp; als Funktion von&nbsp; $10 · \lg (E_{\rm S}/N_0)$&nbsp; im Bereich von &nbsp;$-20 \ \rm dB$ &nbsp;bis&nbsp; $+30 \ \rm dB$.  
+
This graph shows the channel capacities&nbsp; $C$&nbsp; resp.&nbsp; $C^{\hspace{0.05cm}*}$&nbsp;  
*Ab etwa&nbsp; $10 \ \rm dB$&nbsp; ergibt sich hier ein (nahezu) linearer Verlauf.
+
*as a function of&nbsp; $10 · \lg (E_{\rm S}/N_0)$&nbsp;  
 +
 
 +
*in the range from &nbsp;$-20 \ \rm dB$ &nbsp;to&nbsp; $+30 \ \rm dB$.  
 +
 
 +
 
 +
 
 +
 
 +
From about&nbsp; $10 \ \rm dB$&nbsp; onwards,&nbsp; a&nbsp; $($nearly$)$&nbsp; linear curve results here.
  
 
}}
 
}}
 
 
 
 
==Systemmodell zur Interpretation der AWGN–Kanalkapazität== 
+
==System model for the interpretation of the AWGN channel capacity== 
 
<br>
 
<br>
Um das&nbsp; [[Informationstheorie/Anwendung_auf_die_Digitalsignalübertragung#Definition_und_Bedeutung_der_Kanalkapazit.C3.A4t|Kanalcodierungstheorem]]&nbsp; im Zusammenhang mit dem AWGN–Kanal besprechen zu können, benötigen wir noch eine &bdquo;Codiervorrichtung&rdquo;, die hier allerdings informationstheoretisch allein durch die Coderate $R$  gekennzeichnet wird.
+
In order to discuss the&nbsp; [[Information_Theory/Anwendung_auf_die_Digitalsignalübertragung#Definition_and_meaning_of_channel_capacity|"Channel Coding Theorem"]]&nbsp;  in the context of the AWGN channel,&nbsp;
 +
[[File:EN_Inf_T_4_3_S3.png|right|frame|Model for the interpretation of the AWGN channel capacity]]
 +
 +
*we still need an&nbsp; "encoder",&nbsp;
 +
 
 +
*but here the&nbsp; "encoder" is characterized in information-theoretic terms by the code rate&nbsp; $R$&nbsp; alone.
 +
 
 +
 
 +
The graph describes the transmission system considered by Shannon with the blocks source,&nbsp; encoder,&nbsp; AWGN channel,&nbsp; decoder and receiver.&nbsp; In the background you can see an original figure from a paper about the Shannon theory.&nbsp; We have drawn in red some designations and explanations for the following text:
 +
*The source symbol&nbsp; $U$&nbsp; comes from an alphabet with&nbsp; $M_U = |U| = 2^k$&nbsp; symbols and can be represented by&nbsp; $k$&nbsp; equally probable statistically independent binary symbols.
  
[[File:P_ID2937__Inf_T_4_3_S3_neu.png|center|frame|Modell zur Interpretation der AWGN–Kanalkapazität]]
+
*The alphabet of the code symbol&nbsp; $X$&nbsp; has the symbol set size&nbsp; $M_X = |X| = 2^n$, where&nbsp; $n$&nbsp; results from the code rate&nbsp; $R = k/n$&nbsp;.
  
Die Grafik beschreibt das von Shannon betrachtete Nachrichtensystem mit den Blöcken Quelle, Coder, (AWGN–)Kanal, Decoder und Empfänger. Im Hintergrund erkennt man ein Originalbild aus einem Aufsatz über die Shannon–Theorie. Rot eingezeichnet wurden von uns einige Bezeichnungen und Erläuterungen für den folgenden Text:
+
*Thus,&nbsp; for code rate&nbsp; $R = 1$ &nbsp; &rArr; &nbsp; $n = k$.&nbsp; The case&nbsp; $n > k$&nbsp; leads to a code rate&nbsp; $R < 1$.
*Das Quellensymbol $U$ entstammt einem Alphabet mit $M_U = |U| = 2^k$ Symbolen und kann durch $k$ gleichwahrscheinliche statistisch unabhängige Binärsymbole repräsentiert werden.
+
<br clear=all>
*Das Alphabet des Codesymbols $X$ hat den Symbolumfang $M_X = |X| = 2^n$, wobei sich $n$ aus der Coderate $R = k/n$ ergibt.
+
{{BlaueBox|TEXT= $\text{Channel Coding Theorem}$&nbsp;
*Für die Coderate $R = 1$ gilt somit $n = k$.
 
*Der Fall $n > k$ führt zu einer Coderate $R < 1$ und aus $n < k$ folgt für die Coderate $R > 1$.
 
  
 +
This states that there is&nbsp; $($at least$)$&nbsp; one code of rate&nbsp; $R$&nbsp; that leads to symbol error probability&nbsp; $p_{\rm S} = \text{Pr}(V ≠ U) \equiv 0$&nbsp; if the following conditions are satisfied:
 +
*The code rate&nbsp; $R$&nbsp; is not larger than the channel capacity&nbsp; $C$.
  
{{BlaueBox|TEXT=
+
*Such a suitable code is infinitely long: &nbsp; $n → ∞$.&nbsp; Therefore, a Gaussian distribution &nbsp;$f_X(x)$&nbsp; at the channel input is indeed possible, which has always been the basis of the previous calculation of the AWGN channel capacity:
Das $\rm Kanalcodierungstheorem$ besagt, dass es (mindestens) einen Code der Rate $R$ gibt, der zur Symbolfehlerwahrscheinlichkeit $p_{\rm S} = \text{Pr}(V ≠ U) \equiv 0$ führt, falls folgende Bedingungen erfüllt sind:
 
*Die Coderate $R$ ist nicht größer als die Kanalkapazität $C$.
 
*Ein solcher geeigneter Code ist unendlich lang: &nbsp; $n → ∞$, das heißt, dass die Kanaleingangsgröße $X$ wertkontinuierlich ist.  
 
*Gleiches gilt für $U$ sowie für die Zufallsgrößen $Y$ &nbsp;und&nbsp; $V$ nach dem AWGN–Kanal.
 
*Wegen $n → ∞$ ist auch tatsächlich eine Gaußverteilung &nbsp;$f_X(x)$&nbsp; am Kanaleingang möglich, die der bisherigen Berechnung der AWGN–Kanalkapazität stets zugrunde gelegt wurde:
 
 
 
:$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot E_{\rm S} }{N_0})  
 
:$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot E_{\rm S} }{N_0})  
\hspace{0.5cm}{\rm Einheit\hspace{-0.15cm}: \hspace{0.05cm}bit/Kanalzugriff\hspace{0.15cm} (englisch\hspace{-0.15cm}: \hspace{0.05cm}bit/channel \hspace{0.15cm}use)}
+
\hspace{1.2cm}{\rm unit\hspace{-0.15cm}: \hspace{0.05cm}\text{bit/channel use} }
\hspace{0.05cm}.$$
+
\hspace{0.05cm}.$$  
 +
*Thus, the channel input quantity&nbsp; $X$&nbsp; is continuous in value.&nbsp; The same is true for&nbsp; $U$&nbsp; and for the quantities&nbsp; $Y$&nbsp; and&nbsp; $V$&nbsp; after the AWGN channel.
  
*Für einen Systemvergleich ist die Energie pro Symbol $(E_{\rm S} )$ allerdings ungeeignet. Ein Vergleich sollte vielmehr auf der Energie $E_{\rm B}$ pro Informationsbit  &nbsp; ⇒ &nbsp;  kurz:&nbsp; '''Energie pro Bit''' &nbsp; basieren. Mit &nbsp;$E_{\rm B} = E_{\rm S}/R$&nbsp; gilt somit auch:
+
*For a system comparison,&nbsp; however,&nbsp; the&nbsp; "energy per symbol"&nbsp; $(E_{\rm S} )$&nbsp; is unsuitable.&nbsp;
 +
 +
*A comparison should rather be based on the "energy per information bit"&nbsp; $(E_{\rm B})$&nbsp; &nbsp; ⇒ &nbsp;  &nbsp; "energy per bit"&nbsp; for short.&nbsp; Thus, with &nbsp;$E_{\rm B} = E_{\rm S}/R$&nbsp; also holds:
 
   
 
   
 
:$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot R  \cdot E_{\rm B} }{N_0})  
 
:$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot R  \cdot E_{\rm B} }{N_0})  
\hspace{0.2cm}{\rm Einheit\hspace{-0.15cm}: \hspace{0.05cm}bit/Kanalzugriff\hspace{0.1cm} (englisch\hspace{-0.15cm}: \hspace{0.05cm}bit/channel \hspace{0.15cm}use)}
+
\hspace{0.7cm}{\rm unit\hspace{-0.15cm}: bit/channel \hspace{0.15cm}use}
\hspace{0.05cm}.$$}}
+
\hspace{0.05cm}.$$
  
 +
These two equations are discussed in the next section.}}
  
Diese beiden Gleichungen werden auf der nächsten Seite diskutiert.
+
  
  
==Die Kanalkapazität $C$ als Funktion von $E_{\rm B}/N_0$==   
+
==The channel capacity&nbsp; $C$&nbsp; as a function of&nbsp; $E_{\rm B}/N_0$==   
 
<br>
 
<br>
 
{{GraueBox|TEXT=
 
{{GraueBox|TEXT=
$\text{Beispiel 3:}$&nbsp; Die Grafik zu diesem Beispiel zeigt die AWGN–Kanalkapazität $C$ als Funktion
+
$\text{Example 3:}$&nbsp; This graph shows the AWGN channel capacity&nbsp; $C$&nbsp;
*von $10 · \lg (E_{\rm S}/N_0)$  &nbsp; ⇒  &nbsp; roter Kurvenverlauf:
+
[[File:EN_Inf_T_4_3_S4.png|right|frame|The AWGN channel capacitance in two different representations.<br>&nbsp; &nbsp; &nbsp;The pseudo&ndash;unit&nbsp; "bit/symbol"&nbsp; is identical to&nbsp; "bit/channel use".]] 
:$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot E_{\rm S} }{N_0})  
+
&rArr; &nbsp; as a function of&nbsp; $10 · \lg (E_{\rm S}/N_0)$  &nbsp; ⇒  &nbsp; <u>red curve</u>:
\hspace{0.5cm}{\rm Einheit\hspace{-0.15cm}: \hspace{0.05cm}bit/Kanalzugriff\hspace{0.15cm} (oder\hspace{-0.15cm}: \hspace{0.05cm}bit/Symbol)}
+
::$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot E_{\rm S} }{N_0})  
 +
\hspace{1.5cm}{\rm unit\hspace{-0.15cm}: \hspace{0.05cm}bit/symbol}
 
\hspace{0.05cm}.$$
 
\hspace{0.05cm}.$$
 +
Red numbers:&nbsp; Capacity&nbsp; $C$&nbsp; in&nbsp; "bit/symbol"&nbsp; for abscissas&nbsp; <br>&nbsp; &nbsp; 
 +
:$$10 · \lg (E_{\rm S}/N_0) = -20 \ \rm dB, -15 \ \rm dB$, ... , $+30\ \rm dB:$$
  
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; $\text{Rote Zahlen:}$ &nbsp; Kapazität $C$ in „bit/Symbol” für $10 · \lg (E_{\rm S}/N_0) = -20 \ \rm dB, -15 \ \rm dB$, ... , $+30\ \rm dB$.
+
&rArr; &nbsp; as a function of&nbsp; $10 · \lg (E_{\rm B}/N_0)$  &nbsp; ⇒  &nbsp;  <u>green curve</u>:
*von $10 · \lg (E_{\rm B}/N_0)$  &nbsp; ⇒  &nbsp;  grüner Kurvenverlauf:
+
::$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot R  \cdot E_{\rm B} }{N_0})  
:$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot R  \cdot E_{\rm B} }{N_0})  
+
\hspace{1.0cm}{\rm unit\hspace{-0.15cm}: \hspace{0.05cm}bit/symbol}
\hspace{0.2cm}{\rm Einheit\hspace{-0.15cm}: \hspace{0.05cm}bit/Kanalzugriff\hspace{0.1cm} (oder \hspace{-0.15cm}: \hspace{0.05cm}bit/Symbol)}
 
 
\hspace{0.05cm}.$$
 
\hspace{0.05cm}.$$
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; $\text{Grüne Zahlen:}$ &nbsp; Erforderliches $10 · \lg (E_{\rm B}/N_0)$ in „dB” für $C = 0, 1$, ... , $5$ in „bit/Symbol”.
+
Green numbers:&nbsp; Required&nbsp; $10 · \lg (E_{\rm B}/N_0)$&nbsp; in&nbsp; "dB" for&nbsp; ordinate&nbsp; $($in&nbsp; "bit/symbol"$)$.
 +
:$$C = 0,\ 1,&nbsp; \text{...} ,&nbsp; 5.$$
 +
&rArr; &nbsp; The detailed&nbsp;  $C(E_{\rm B}/N_0)$&nbsp; calculation can be found in&nbsp; [[Aufgaben:Exercise_4.8:_Numerical_Analysis_of_the_AWGN_Channel_Capacity|"Exercise 4.8"]].
 +
<br clear=all>
 +
In the following,&nbsp; we interpret the green &nbsp;$C(E_{\rm B}/N_0)$&nbsp; result in comparison to the red &nbsp;$C(E_{\rm S}/N_0)$&nbsp; curve:
 +
#Because of &nbsp;$E_{\rm S} = R · E_{\rm B}$,&nbsp; the Intersection of both curves is at &nbsp;$C (= R) = 1$&nbsp; bit/symbol.&nbsp; Required are  &nbsp;$10 · \lg (E_{\rm S}/N_0) =10 · \lg (E_{\rm B}/N_0) = 1.76$&nbsp; dB.<br>
 +
#For &nbsp;$C > 1$&nbsp; the green curve always lies above the red curve,&nbsp; e.g. for &nbsp;$10 · \lg (E_{\rm B}/N_0) = 20$&nbsp; dB &nbsp; &rArr;  &nbsp; $C ≈ 5$;&nbsp; for &nbsp;$10 · \lg (E_{\rm S}/N_0) = 20$&nbsp; dB &nbsp; &rArr; &nbsp; $C = 3.83$.<br>
 +
#Comparison in horizontal direction: &nbsp;$C = 3$&nbsp; bit/symbol is already achievable with &nbsp;$10 · \lg (E_{\rm B}/N_0) \approx 10$&nbsp; dB,&nbsp;  but one needs &nbsp;$10 · \lg (E_{\rm S}/N_0) \approx 15$&nbsp; dB.
 +
#For &nbsp;$C < 1$&nbsp;, the red curve is always above the green one.&nbsp; For any &nbsp;$E_{\rm S}/N_0 > 0$&nbsp; &rArr; &nbsp;$C > 0$.&nbsp;
 +
#Thus,&nbsp; for logarithmic abscissa as in the present plot, the red curve extends to&nbsp; "minus infinity".
 +
#The green curve ends at &nbsp;$E_{\rm B}/N_0 = \ln (2) = 0.693$ &nbsp; ⇒ &nbsp; $10 · \lg (E_{\rm B}/N_0)= -1.59$&nbsp; dB  &nbsp; ⇒ &nbsp;  absolute limit for&nbsp; $($error-free$)$&nbsp; transmission over AWGN.}}
  
[[File:P_ID2938__Inf_T_4_3_S4.png|center|frame|Die AWGN–Kanalkapazität in zwei unterschiedlichen Darstellungen]]
 
  
Die ausführliche $C(E_{\rm B}/N_0)$–Berechnung finden Sie in der [[Aufgaben:4.8_Numerische_Auswertung_der_AWGN-Kanalkapazität|Aufgabe 4.8]] und der zugehörigen Musterlösung.
+
==AWGN channel capacity for binary input signals ==
 +
<br>
 +
In the previous sections of this chapter we always assumed a Gaussian distributed,nbsp; i.e. a continuous-valued AWGN input&nbsp; $X$&nbsp; according to Shannon theory.&nbsp;
 +
[[File:EN_Inf_T_4_3_S5a_v2.png|right|frame|Calculation of the AWGN channel capacity for BPSK]]
 +
[[File:EN_Inf_T_4_3_S5b.png|right|frame|Conditional PDF for&nbsp; $X=-1$&nbsp; $($red$)$&nbsp; and&nbsp; $X=+1$&nbsp; $($blue$)$ ]]
  
Im Folgenden interpretieren wir das (grüne) &nbsp;$C(E_{\rm B}/N_0)$–Ergebnis im Vergleich zur (roten) &nbsp;$C(E_{\rm S}/N_0)$–Kurve:
+
Now we consider the binary case and thus only now do justice to the title of the chapter "AWGN channel capacity for discrete-valued  input”.&nbsp; The graph shows the underlying block diagram for  &nbsp;[[Digital_Signal_Transmission/Linear_Digital_Modulation_-_Coherent_Demodulation#Common_block_diagram_for_ASK_and_BPSK|"Binary Phase Shift Keying"]]&nbsp; $\rm (BPSK)$&nbsp;  with binary input&nbsp; $U$&nbsp; and binary output&nbsp; $V$.&nbsp;  
*Wegen &nbsp;$E_{\rm S} = R · E_{\rm B}$&nbsp; liegt der Schnittpunkt beider Kurven bei &nbsp;$C (= R) = 1$ (bit/Symbol). Erforderlich sind  &nbsp;$10 · \lg (E_{\rm S}/N_0) = 1.76\ \rm  dB$ &nbsp;bzw.&nbsp; $10 · \lg (E_{\rm B}/N_0) = 1.76\ \rm dB$ gleichermaßen.
+
*The best possible encoding is to achieve that the bit error probability  becomes vanishingly small:&nbsp; $\text{Pr}(V ≠ U) \to 0 $&nbsp;.
*Im Bereich &nbsp;$C > 1$&nbsp; liegt die grüne Kurve stets über der roten. Beispielsweise ergibt sich für &nbsp;$10 · \lg (E_{\rm B}/N_0) = 20\ \rm  dB$&nbsp; die Kanalkapazität &nbsp;$C ≈ 5$, für &nbsp;$10 · \lg (E_{\rm S}/N_0) = 20\ \rm  dB$ &nbsp;nur&nbsp; $C = 3.83$.
 
*Ein Vergleich in horizontaler Richtung zeigt, dass die Kanalkapazität &nbsp;$C = 3$ bit/Symbol schon mit &nbsp;$10 · \lg (E_{\rm B}/N_0) \approx 10\ \rm  dB$&nbsp; erreichbar ist, man aber &nbsp;$10 · \lg (E_{\rm S}/N_0) \approx 15\ \rm  dB$ benötigt.
 
*Im Bereich &nbsp;$C < 1$&nbsp; liegt die rote Kurve stets über der grünen. Für jedes &nbsp;$E_{\rm S}/N_0 > 0$&nbsp; gilt &nbsp;$C > 0$. Bei logarithmischer Abszisse wie in der vorliegenden Darstellung reicht somit die rote Kurve bis ins „Minus–Unendliche”.
 
*Dagegen endet die grüne Kurve bei &nbsp;$E_{\rm B}/N_0 = \ln (2) = 0.693$ &nbsp; ⇒ &nbsp; $10 · \lg (E_{\rm B}/N_0)= -1.59 \rm  dB$  &nbsp; ⇒ &nbsp;  absolute Grenze für die (fehlerfreie) Übertragung über den AWGN–Kanal.}}
 
  
 +
*The encoder output is characterized by the random variable&nbsp; $X \hspace{0.03cm}' = \{0, 1\}$ &nbsp; ⇒ &nbsp; $M_{X'} = 2$.&nbsp; The AWGN  output&nbsp; $Y$&nbsp; remains continuous-valued: &nbsp; $M_Y → ∞$.
  
==AWGN–Kanalkapazität für binäre Eingangssignale ==  
+
*Mapping&nbsp; $X = 1 - 2X\hspace{0.03cm} '$&nbsp; takes us from the unipolar representation to the bipolar description more suitable for BPSK: &nbsp; :$$X\hspace{0.03cm} ' = 0 → \ X = +1; \hspace{0.5cm} X\hspace{0.03cm} ' = 1 → X = -1.$$
<br>
 
Auf den bisherigen Seiten dieses Kapitels wurde stets gemäß der Shannon–Theorie von einem gaußverteilten, also wertkontinuierlichen AWGN–Eingang $X$ ausgegangen. Nun betrachten wir den binären Fall und werden somit erst jetzt der Kapitel&ndash;Überschrift „AWGN–Kanalkapazität bei wertdiskretem Eingang” gerecht.
 
  
[[File:P_ID2941__Inf_T_4_3_S5a_neu.png|center|frame|Zur Berechnung der AWGN–Kanalkapazität für BPSK]]
+
*The AWGN channel is characterized by two conditional probability density functions&nbsp; $\rm (PDFs)$:
 +
:$$f_{Y\hspace{0.05cm}|\hspace{0.03cm}{X}}(y\hspace{0.05cm}|\hspace{0.03cm}{X}=+1) =\frac{1}{\sqrt{2\pi\sigma^2}} \cdot {\rm e}^{-{(y -  1)^2}/(2 \sigma^2)} \hspace{0.05cm}\hspace{0.05cm},\hspace{0.5cm}\text{short form:} \ \ f_{Y\hspace{0.05cm}|\hspace{0.03cm}{X}}(y\hspace{0.05cm}|\hspace{0.03cm}+1)\hspace{0.05cm},$$
 +
:$$f_{Y\hspace{0.05cm}|\hspace{0.03cm}{X}}(y\hspace{0.05cm}|\hspace{0.03cm}{X}=-1) =\frac{1}{\sqrt{2\pi\sigma^2}} \cdot {\rm e}^{-{(y +  1)^2}/(2 \sigma^2)} \hspace{0.05cm}\hspace{0.05cm},\hspace{0.5cm}\text{short form:} \ \ f_{Y\hspace{0.05cm}|\hspace{0.03cm}{X}}(y\hspace{0.05cm}|\hspace{0.03cm}-1)\hspace{0.05cm}.$$
 +
*Since here the signal &nbsp;$X$&nbsp; is normalized to &nbsp;$±1$&nbsp; &nbsp; ⇒ &nbsp; power&nbsp; $1$&nbsp; instead of &nbsp;$P_X$,&nbsp; the variance of the AWGN noise&nbsp; $N$&nbsp; must be normalized in the same way: &nbsp;  $σ^2 = P_N/P_X$.
  
Die Grafik zeigt das zugrundeliegende Blockschaltbild für &nbsp;[[Digitalsignalübertragung/Lineare_digitale_Modulation_–_Kohärente_Demodulation#Gemeinsames_Blockschaltbild_f.C3.BCr_ASK_und_BPSK|Binary Phase Shift Keying]] (BPSK) mit binärem Eingang $U$ und binärem Ausgang $V$. Durch eine bestmögliche Codierung soll erreicht werden, dass die Fehlerwahrscheinlichkeit &nbsp;$\text{Pr}(V ≠ U)$&nbsp; verschwindend klein wird.
+
*The receiver makes a &nbsp; [[Channel_Coding/Channel_Models_and_Decision_Structures#Maximum-likelihood_decision_at_the_AWGN_channel|"maximum likelihood decision"]]&nbsp; from the real-valued random variable &nbsp;$Y$&nbsp; $($at the AWGN channel output$)$ &nbsp; &rArr; &nbsp; the receiver output &nbsp;$V$&nbsp; is binary&nbsp; $(0$ &nbsp;or&nbsp; $1)$.
*Der Coderausgang ist gekennzeichnet durch die binäre Zufallsgröße $X \hspace{0.03cm}' = \{0, 1\}$ &nbsp; &nbsp; $M_{X'} = 2$, während der Ausgang $Y$ des AWGN–Kanals weiterhin wertkontinuierlich ist: &nbsp; $M_Y → ∞$.
 
*Durch das Mapping $X = 1 - 2X\hspace{0.03cm} '$ kommt man von der unipolaren Darstellung zu der für BPSK besser geeigneten bipolaren (antipodalen) Beschreibung: &nbsp; $X\hspace{0.03cm} ' = 0 → \ X = +1; \hspace{0.5cm} X\hspace{0.03cm} ' = 1 → X = –1$.
 
  
[[File:P_ID2942__Inf_T_4_3_S5b_neu.png|right|frame|Bedingte WDF für <br>$-1$ (rot) und $+1$ (blau) ]]
 
  
*Der AWGN–Kanal wird durch zwei bedingte Wahrscheinlichkeitsdichtefunktionen charakterisiert:
+
Based on this model,&nbsp; we now calculate the channel capacity of the AWGN channel.&nbsp; For a binary input variable&nbsp; $X$,&nbsp; this is generally &nbsp;
:$$f_{Y\hspace{0.05cm}|\hspace{0.03cm}{X}}(y\hspace{0.05cm}|\hspace{0.03cm}{X}=+1) =\frac{1}{\sqrt{2\pi\sigma^2}} \cdot {\rm exp}\left [-\frac{(y -  1)^2}  { 2 \sigma^2})\right ] \hspace{0.05cm}\hspace{0.05cm},\hspace{0.5cm}\text{Kurzform:} \ \ f_{Y\hspace{0.05cm}|\hspace{0.03cm}{X}}(y|\hspace{0.03cm}+1)\hspace{0.05cm},$$
+
:$$\text{Pr}(X = -1) = 1 - \text{Pr}(X = +1) \hspace{0.3cm} \Rightarrow \hspace{0.3cm} C_{\rm BPSK} \max_{ {\rm Pr}({X} =+1)} \hspace{-0.15cm} I(X;Y) \hspace{0.05cm}.$$
:$$f_{Y\hspace{0.05cm}|\hspace{0.03cm}{X}}(y\hspace{0.05cm}|\hspace{0.03cm}{X}=-1) =\frac{1}{\sqrt{2\pi\sigma^2}} \cdot {\rm exp}\left [-\frac{(y +  1)^2}  { 2 \sigma^2})\right ] \hspace{0.05cm}\hspace{0.05cm},\hspace{0.5cm}\text{Kurzform:} \ \ f_{Y\hspace{0.05cm}|\hspace{0.03cm}{X}}(y|\hspace{0.03cm}-1)\hspace{0.05cm}.$$
+
Due to the symmetrical channel,&nbsp; it is obvious that the input probabilities
*Da hier das Nutzsignal &nbsp;$X$&nbsp; auf &nbsp;$±1$&nbsp; normiert ist &nbsp; ⇒ &nbsp; Leistung $1$ anstelle von &nbsp;$P_X$, muss die Varianz des AWGN–Rauschens $N$ in gleicher Weise normiert werden: &nbsp;  $σ^2 = P_N/P_X$.
+
*Der Empfänger trifft aus der reellwertigen Zufallsgröße &nbsp;$Y$&nbsp; (am AWGN–Kanalausgang) eine&nbsp; [[Kanalcodierung/Klassifizierung_von_Signalen#ML.E2.80.93Entscheidung_beim_AWGN.E2.80.93Kanal|Maximum–Likelihood–Entscheidung]]. Der Empfängerausgang &nbsp;$V$&nbsp; ist binär ($0$ &nbsp;oder&nbsp; $1$).
+
:$${\rm Pr}(X =+1) = {\rm Pr}(X =-1) = 0.5 $$
  
 +
will lead to the optimum.&nbsp; According to the section&nbsp; [[Information_Theory/AWGN–Kanalkapazität_bei_wertkontinuierlichem_Eingang#Calculation_of_mutual_information_with_additive_noise|"Calculation of mutual information with additive noise"]],&nbsp; there are several calculation possibilities:
 +
 +
*$ C_{\rm BPSK}  =    h(X) + h(Y) - h(XY)\hspace{0.05cm},$
  
Ausgehend von diesem Modell berechnen wir nun die Kanalkapazität des AWGN–Kanals.  
+
*$C_{\rm BPSK} =  h(Y) - h(Y|X)\hspace{0.05cm},$
  
Diese lautet  bei einer binären Eingangsgröße $X$ allgemein unter Berücksichtigung von &nbsp;$\text{Pr}(X = -1) = 1 - \text{Pr}(X = +1)$:
+
*$C_{\rm BPSK} = h(X) - h(X|Y)\hspace{0.05cm}. $
 
:$$C_{\rm BPSK} = \max_{ {\rm Pr}({X} =+1)} \hspace{-0.15cm}  I(X;Y)  
 
\hspace{0.05cm}.$$
 
  
Aufgrund des symmetrischen Kanals ist offensichtlich, dass die Eingangswahrscheinlichkeiten
 
 
:$${\rm Pr}(X =+1) = {\rm Pr}(X =-1) = 0.5 $$
 
  
zum Optimum führen werden. Gemäß der Seite&nbsp; [[Informationstheorie/AWGN–Kanalkapazität_bei_wertkontinuierlichem_Eingang#Transinformationsberechnung_bei_additiver_St.C3.B6rung|Transinformationsberechnung bei additiver Störung]]&nbsp; gibt es mehrere Berechnungsmöglichkeiten:
+
[[File:EN_Inf_T_4_3_S6a.png|right|frame|Comparison of the channel capacity limits&nbsp; $C_{\rm BPSK}$&nbsp;  and&nbsp; $C_{\rm Gaussian}$;&nbsp; here,&nbsp; $10 · \lg (SNR)$&nbsp; is drawn as a second,&nbsp; additional abscissa axis;&nbsp; "SNR"&nbsp; stands for&nbsp; "signal-to-noise ratio" ]]
 
:$$ \begin{align*}C_{\rm BPSK} & =    h(X) + h(Y) - h(XY)\hspace{0.05cm},\\
 
C_{\rm BPSK} & =  h(Y) - h(Y|X)\hspace{0.05cm},\\
 
C_{\rm BPSK} & = h(X) - h(X|Y)\hspace{0.05cm}. \end{align*}$$
 
  
Alle Ergebnisse sind noch um die Pseudo–Einheit „bit/Kanalzugriff” zu ergänzen. Wir wählen hier die mittlere Gleichung:
+
All results still have to be supplemented by the pseudo-unit&nbsp; "bit/channel use". &nbsp; We choose the middle equation here:
*Die hierfür benötigte bedingte differentielle Entropie ist gleich
+
*The conditional differential entropy required for this is equal to
 
:$$h(Y\hspace{0.03cm}|\hspace{0.03cm}X) = h(N) = 1/2 \cdot {\rm log}_2 \hspace{0.1cm}(2\pi{\rm e}\cdot \sigma^2)
 
:$$h(Y\hspace{0.03cm}|\hspace{0.03cm}X) = h(N) = 1/2 \cdot {\rm log}_2 \hspace{0.1cm}(2\pi{\rm e}\cdot \sigma^2)
 
\hspace{0.05cm}. $$
 
\hspace{0.05cm}. $$
  
*Die differentielle Entropie &nbsp;$h(Y)$&nbsp; ist vollständig durch die WDF &nbsp;$f_Y(y)$&nbsp; gegeben. Mit den vorne definierten und skizzierten bedingten Wahrscheinlichkeitsdichtefunktionen erhält man:
+
*The differential entropy &nbsp;$h(Y)$&nbsp; is completely given by the PDF &nbsp;$f_Y(y)$.&nbsp; Using the conditional PDFs defined and sketched in the second graph on this page,&nbsp; we obtain:
:$$f_Y(y) = {1}/{2} \cdot \big [ f_{Y\hspace{0.03cm}|\hspace{0.03cm}{X}}(y\hspace{0.05cm}|\hspace{0.05cm}{X}=-1) + f_{Y\hspace{0.03cm}|\hspace{0.03cm}{X}}(y\hspace{0.05cm}|\hspace{0.05cm}{X}=+1) \big  ]\hspace{0.3cm}
+
:$$f_Y(y) = {1}/{2} \cdot \big [ f_{Y\hspace{0.03cm}|\hspace{0.03cm}{X}}(y\hspace{0.05cm}|\hspace{0.05cm}{X}=-1) + f_{Y\hspace{0.03cm}|\hspace{0.03cm}{X}}(y\hspace{0.05cm}|\hspace{0.05cm}{X}=+1) \big  ]$$
\Rightarrow \hspace{0.3cm}  h(Y) \hspace{-0.01cm}=\hspace{0.05cm}
+
:$$\Rightarrow \hspace{0.3cm}  h(Y) \hspace{-0.01cm}=\hspace{0.05cm}
 
-\hspace{-0.7cm}  \int\limits_{y \hspace{0.05cm}\in \hspace{0.05cm}{\rm supp}(f_Y)} \hspace{-0.65cm}  f_Y(y) \cdot {\rm log}_2 \hspace{0.1cm} [f_Y(y)] \hspace{0.1cm}{\rm d}y
 
-\hspace{-0.7cm}  \int\limits_{y \hspace{0.05cm}\in \hspace{0.05cm}{\rm supp}(f_Y)} \hspace{-0.65cm}  f_Y(y) \cdot {\rm log}_2 \hspace{0.1cm} [f_Y(y)] \hspace{0.1cm}{\rm d}y
 
\hspace{0.05cm}.$$
 
\hspace{0.05cm}.$$
  
Es ist offensichtlich, dass &nbsp;$h(Y)$&nbsp; nur durch numerische Integration ermittelt werden kann, insbesondere, wenn man berücksichtigt, dass sich &nbsp;$f_Y(y)$&nbsp; im Überlappungsbereich aus der Summe der beiden bedingten Gauß–Funktionen ergibt.
+
*It is obvious that &nbsp;$h(Y)$&nbsp; can only be determined by numerical integration,&nbsp; especially if we consider that &nbsp;$f_Y(y)$&nbsp; in the overlap region results from the sum of two Gaussian functions.
 +
<br clear=all>
 +
In the graph on the right,&nbsp; three curves are shown above the abscissa &nbsp;$10 · \lg (E_{\rm B}/N_0)$:
 +
*the channel capacity &nbsp;$C_{\rm Gaussian}$,&nbsp; drawn in blue,&nbsp; valid for a Gaussian input quantity&nbsp; $X$  &nbsp; ⇒ &nbsp;  $M_X → ∞$,
  
In der folgenden Grafik sind über der Abszisse &nbsp;$10 · \lg (E_{\rm B}/N_0)$&nbsp; drei Kurven dargestellt:
+
*the channel capacity &nbsp;$C_{\rm BPSK}$&nbsp; drawn in green for the random quantity&nbsp; $X = (+1, –1)$,&nbsp; and
*die blau gezeichnete Kanalkapazität &nbsp;$C_{\rm Gauß}$, gültig für eine Gaußsche Eingangsgröße $X$  &nbsp; ⇒ &nbsp;  $M_X → ∞$,
 
*die grün gezeichnete Kanalkapazität &nbsp;$C_{\rm BPSK}$&nbsp; für die Zufallsgröße $X = (+1, –1)$, sowie
 
*die mit „BPSK ohne Codierung” bezeichnete rote Horizontale.
 
  
 +
*the red horizontal line marked&nbsp; "BPSK without coding".
  
[[File:P_ID2946__Inf_T_4_3_S5c_neu.png|center|frame|Die Kanalkapazitätsgrenzen $C_{\rm BPSK}$  und $C_{\rm Gauß}$  im Vergleich]]
 
  
Diese Kurvenverläufe sind wie folgt zu interpretieren:
+
These curves can be interpreted as follows:
*Die grüne Kurve &nbsp;$C_{\rm BPSK}$&nbsp; gibt die maximal zulässige Coderate &nbsp;$R$&nbsp; von ''Binary Phase Shift Keying'' (BPSK) an, bei der für das gegebene &nbsp;$E_{\rm B}/N_0$&nbsp; durch bestmögliche Codierung die Bitfehlerwahrscheinlichkeit &nbsp;$p_{\rm B} \equiv 0$&nbsp; möglich ist.
+
#The green curve &nbsp;$C_{\rm BPSK}$&nbsp; indicates the maximum permissible code rate &nbsp;$R$&nbsp; of&nbsp; "Binary Phase Shift Keying"&nbsp; at which the bit error probability &nbsp; $p_{\rm B} \equiv 0$ &nbsp; is possible for the given &nbsp;$E_{\rm B}/N_0$&nbsp; by best possible coding.
*Für alle BPSK–Systeme mit den Koordinaten &nbsp;$(10 · \lg \ E_{\rm B}/N_0, \ R)$&nbsp; im „grünen Bereich” ist &nbsp;$p_{\rm B} \equiv 0$&nbsp; prinzipiell erreichbar. Aufgabe der Nachrichtentechniker ist es, hierfür geeignete Codes zu finden.
+
#For all BPSK systems with coordinates &nbsp;$(10 · \lg \ E_{\rm B}/N_0, \ R)$&nbsp; in the&nbsp; "green range" &nbsp;&rArr;  &nbsp; $p_{\rm B} \equiv 0$&nbsp; is achievable in principle.&nbsp; It is the task of communications engineers to find suitable codes for this.
*Die BPSK–Kurve liegt stets unter der absoluten Shannon–Grenzkurve &nbsp;$C_{\rm Gauß}$&nbsp; für &nbsp;$M_X → ∞$. Im unteren Bereich gilt &nbsp;$C_{\rm BPSK} ≈ C_{\rm Gauß}$. Zum Beispiel muss ein BPSK–System mit &nbsp;$R = 1/2$&nbsp; nur ein um $0.1\ \rm  dB$ größeres &nbsp;$E_{\rm B}/N_0$&nbsp; bereitstellen, als es die (absolute) Kanalkapazität &nbsp;$C_{\rm Gauß}$&nbsp; fordert.
+
#The BPSK curve always lies below the absolute Shannon limit curve &nbsp;$C_{\rm Gaussian}$&nbsp; for &nbsp;$M_X → ∞$&nbsp; $($blue curve$)$.&nbsp; In the lower range,  &nbsp;$C_{\rm BPSK} ≈ C_{\rm Gaussian}$.&nbsp; For example, a BPSK system with &nbsp;$R = 1/2$&nbsp; only has to provide a&nbsp; $0.1\ \rm  dB$&nbsp; larger &nbsp;$E_{\rm B}/N_0$&nbsp; than required by the&nbsp; $($absolute$)$&nbsp; channel capacity &nbsp;$C_{\rm Gaussian}$.
*Ist &nbsp;$E_{\rm B}/N_0$&nbsp; endlich, so gilt stets &nbsp;$C_{\rm BPSK} < 1$ &nbsp; ⇒ &nbsp;  siehe [[Aufgaben:4.9Z_Ist_bei_BPSK_die_Kanalkapazität_C_≡_1_möglich%3F|Aufgabe 4.9Z]]. Eine BPSK mit &nbsp;$R = 1$&nbsp; (und somit ohne Codierung) wird also stets eine Bitfehlerwahrscheinlichkeit &nbsp;$p_{\rm B} > 0$&nbsp; zur Folge haben.
+
#If &nbsp;$E_{\rm B}/N_0$&nbsp; is finite, &nbsp;$C_{\rm BPSK} < 1$ &nbsp;  always applies &nbsp; ⇒ &nbsp;  see&nbsp; [[Aufgaben:Exercise_4.9Z:_Is_Channel_Capacity_C_≡_1_possible_with_BPSK%3F|"Exercise 4.9Z"]].&nbsp; BPSK with &nbsp;$R = 1$&nbsp; $($and thus without coding$)$&nbsp; will therefore always result in a bit error probability &nbsp;$p_{\rm B} > 0$.
*Die Fehlerwahrscheinlichkeiten eines solchen BPSK–Systems ohne Codierung (mit  &nbsp;$R = 1$) sind auf der roten Horizontalen angegeben. Um &nbsp;$p_{\rm B} ≤ 10^{–5}$&nbsp; zu erreichen, benötigt man mindestens &nbsp;$10 · \lg (E_{\rm B}/N_0) = 9.6\ \rm  dB$.
+
#The bit error probabilities of such a BPSK system without coding&nbsp; $(R = 1)$&nbsp; are indicated on the red horizontal line.&nbsp; To achieve &nbsp;$p_{\rm B} ≤ 10^{–5}$,&nbsp; one needs at least &nbsp;$10 · \lg (E_{\rm B}/N_0) = 9.6\ \rm  dB$.&nbsp; According to the chapter&nbsp; [[Digital_Signal_Transmission/Linear_Digital_Modulation_-_Coherent_Demodulation#Error_probability_of_the_optimal_BPSK_system|"Error probability of the optimal BPSK system"]],&nbsp; these probabilities result in
*Diese Wahrscheinlichkeiten ergeben sich gemäß dem  Kapitel&nbsp; [[Digitalsignalübertragung/Lineare_digitale_Modulation_–_Kohärente_Demodulation#Fehlerwahrscheinlichkeit_des_optimalen_BPSK.E2.80.93Systems|Fehlerwahrscheinlichkeit des optimalen BPSK-Systems]] im Buch &bdquo;Digitalsignalübertragung&rdquo; zu
 
  
:$$p_{\rm B} = {\rm Q} \left ( \sqrt{S \hspace{-0.06cm}N\hspace{-0.06cm}R}\right ) \hspace{0.45cm} {\rm mit } \hspace{0.45cm}  
+
:::$$p_{\rm B} = {\rm Q} \left ( {\rm \sqrt{SNR}}\right ) \hspace{0.45cm} {\rm with } \hspace{0.45cm}  
S\hspace{-0.06cm}N\hspace{-0.06cm}R = 2\cdot E_{\rm B}/{N_0}
+
{\rm SNR }= 2\cdot E_{\rm B}/{N_0}
 
\hspace{0.05cm}. $$
 
\hspace{0.05cm}. $$
  
''Hinweise'':  
+
==Comparison between theory and practice== 
*In obiger Grafik ist als zweite, zusätzliche Abszissenachse $10 · \lg (SNR)$ eingezeichnet.
+
<br>
*Die Funktion ${\rm Q}(x)$ bezeichnet man als die [[Stochastische_Signaltheorie/Gaußverteilte_Zufallsgrößen#.C3.9Cberschreitungswahrscheinlichkeit|komplementäre Gaußsche Fehlerfunktion]].
+
Two graphs are used to show how far established channel codes approach the BPSK channel capacity&nbsp; $($green curve$)$.&nbsp; The rate &nbsp;$R = k/n$&nbsp; of these codes or the capacity &nbsp;$C$&nbsp; $($if the pseudo-unit&nbsp; "bit/channel use"&nbsp; is added$)$&nbsp; is plotted as the ordinate.&nbsp; Provided is:
 +
*the AWGN channel,&nbsp; marked by &nbsp;$10 · \lg (E_{\rm B}/N_0)$&nbsp; in dB,&nbsp; and
  
 +
*for the realized codes marked by crosses, a&nbsp; [[Digital_Signal_Transmission/Error_Probability_for_Baseband_Transmission#Definition_of_the_bit_error_rate|"bit error rate"]]&nbsp; of&nbsp; $\rm BER=10^{–5}$.
  
==Vergleich zwischen Theorie und Praxis== 
 
<br>
 
Anhand zweier Grafiken soll gezeigt werden, in wie weit sich etablierte Kanalcodes der BPSK–Kanalkapazität (grüne Kurve) annähern. Als Ordinate aufgetragen ist die Rate &nbsp;$R = k/n$&nbsp; dieser Codes bzw. die Kapazität &nbsp;$C$&nbsp; (wenn noch die Pseudo–Einheit „bit/Kanalzugriff” hinzugefügt wird).
 
Vorausgesetzt ist:
 
*der AWGN–Kanal, gekennzeichnet durch &nbsp;$10 · \lg (E_{\rm B}/N_0)$ in dB, und
 
*für die durch Kreuze markierten realisierten Codes eine&nbsp; [[Digitalsignalübertragung/Fehlerwahrscheinlichkeit_bei_Basisbandübertragung#Definition_der_Bitfehlerquote|Bitfehlerrate]] (BER) von $10^{–5}$.
 
  
 +
Note that the channel capacity curves are always for &nbsp;$n → ∞$&nbsp; and &nbsp;$\rm BER \equiv 0$.
 +
*If one were to apply this strict requirement&nbsp; "error-free"&nbsp; also to the channel codes  of finite code length &nbsp;$n$,&nbsp; &nbsp;$10 · \lg \ (E_{\rm B}/N_0) \to \infty$  would always be required.
 +
 +
*However,&nbsp; this is a rather academic problem,&nbsp; i.e. of little practical relevance.&nbsp; For &nbsp;$\text{BER} = 10^{–10}$,&nbsp; a qualitatively similar graph would result.
  
Zu beachten ist, dass die Kanalkapazitätskurven stets für &nbsp;$n → ∞$&nbsp; und &nbsp;$\rm BER \equiv 0$&nbsp; gelten.
 
*Würde man diese strenge Forderung „feherfrei” auch an die betrachteten Kanalcodes endlicher Codelänge &nbsp;$n$&nbsp; anlegen, so wäre hierfür stets &nbsp;$10 · \lg \ (E_{\rm B}/N_0) \to \infty$  erforderlich.
 
*Dies ist aber ein eher akademisches Problem, also wenig praxisrelevant. Für &nbsp;$\text{BER} = 10^{–10}$&nbsp; ergäbe sich eine qualitativ ähnliche Grafik.
 
  
 +
{{GraueBox|TEXT=
 +
$\text{Example 4:}$&nbsp;
 +
The graph shows the characteristics of early systems with channel coding and classical decoding.&nbsp; Some explanations of the data follow,&nbsp; which were taken from the lecture&nbsp; [Liv10]<ref name = 'Liv10'>Liva, G.:&nbsp; Channel Coding. Lecture manuscript, Chair of Communications Engineering, TU München and DLR Oberpfaffenhofen, 2010.</ref>.&nbsp; The links in these explanations often refer to the&nbsp; $\rm LNTwww$&nbsp; book&nbsp; [[Channel_Coding|"Channel Coding"]].
  
{{GraueBox|TEXT=
+
[[File:EN_Inf_T_4_3_S6a_v2.png|right|frame|Rates and required &nbsp;$E_{\rm B}/{N_0}$&nbsp; of different channel codes]]
$\text{Beispiel 4:}$&nbsp;  
 
In der Grafik sind die Kenndaten von frühen Systemen mit  Kanalcodierung und klassischer Decodierung angegeben.
 
*Es folgen einige Erläuterungen zu den Daten, die der Vorlesung [Liv10]<ref name = 'Liv10'>Liva, G.: ''Channel Coding''. Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010.</ref> entnommen wurden.
 
*Die Links bei diesen Erläuterungen beziehen sich oft auf das $\rm LNTwww$&ndash;Buch [[Kanalcodierung]].
 
  
[[File:P_ID2949__Inf_T_4_3_S6a.png|center|frame|Raten und erforderliches &nbsp;$E_{\rm B}/{N_0}$&nbsp; verschiedener Kanalcodes]]
+
#Points&nbsp; $\rm A$,&nbsp; $\rm B$,&nbsp;  $\rm C$&nbsp; marks&nbsp; [[Channel_Coding/Examples_of_Binary_Block_Codes#Hamming_Codes|"Hamming codes"]]&nbsp; of rates&nbsp; $R = 4/7 ≈ 0.57$,&nbsp; $R ≈ 0.73$&nbsp; and&nbsp; $R ≈ 0.84$,&nbsp; resp.&nbsp;
 +
#For&nbsp; $\text{BER} = 10^{–5}$,&nbsp; these very early codes&nbsp; $($from the 1950s$)$&nbsp; all require &nbsp; $10 · \lg (E_{\rm B}/N_0) > 8\ \rm  dB$.
 +
#Point&nbsp; $\rm D$&nbsp; indicates the binary&nbsp; [https://en.wikipedia.org/wiki/Binary_Golay_code "Golay code"]&nbsp; with rate&nbsp; $R = 1/2$&nbsp; and point&nbsp; $\rm E$&nbsp; a&nbsp; [https://en.wikipedia.org/wiki/Reed%E2%80%93Muller_code "Reed–Muller code"].&nbsp; This very low-rate code was already used in 1971 on the&nbsp; [https://en.wikipedia.org/wiki/Mariner_program "Mariner 9 space probe"]&nbsp;.
 +
#The&nbsp; [[Channel_Coding/Definition_and_Properties_of_Reed-Solomon_Codes#Generator_matrix_of_Reed-Solomon_codes|"Reed–Solomon codes"]]&nbsp; from the 1960s&nbsp; are a class of cyclic block codes.&nbsp; $\rm F$ marks an RS code of rate&nbsp; $223/255 \approx 0.875$&nbsp; and a required&nbsp; $E_{\rm B}/N_0 < 6 \ \rm  dB$.
 +
#$\rm G$&nbsp; and&nbsp; $\rm H$&nbsp; denote two&nbsp; [[Channel_Coding/Grundlagen_der_Faltungscodierung|"convolutional codes"]]&nbsp; $\rm (CC)$&nbsp; of medium rate.&nbsp; The code&nbsp; $\rm G$&nbsp; was already used in 1972 for the&nbsp; [https://en.wikipedia.org/wiki/Pioneer_10 "Pioneer 10 mission"].
 +
#The channel coding of the&nbsp; [https://voyager.jpl.nasa.gov/mission/ "Voyager mission"]&nbsp; at the end of the 1970s is marked &nbsp;$\rm I$&nbsp;. It is the&nbsp; [[Channel_Coding/Soft-in_Soft-Out_Decoder#Basic_structure_of_concatenated_coding_systems|"concatenation"]]&nbsp; of a&nbsp; $\text{CC(2, 1, 7)}$&nbsp; with a Reed-Solomon code.
  
*Die Punkte $\rm A$, $\rm B$ und $\rm C$ markieren [[Kanalcodierung/Beispiele_binärer_Blockcodes#Hamming.E2.80.93Codes_.281.29|Hamming–Codes]] der Raten $R = 4/7 ≈ 0.57$, $R ≈ 0.73$ bzw. $R ≈ 0.84$. Für $\text{BER} = 10^{–5}$ benötigen diese sehr frühen Codes (aus dem Jahr 1950) alle $10 · \lg (E_{\rm B}/N_0) > 8\ \rm  dB$.
 
*Die Markierung $\rm D$ kennzeichnet den binären [https://de.wikipedia.org/wiki/Golay-Code Golay–Code] mit der Rate $R = 1/2$ und der Punkt $\rm E$ einen [https://de.wikipedia.org/wiki/Reed-Muller-Code Reed–Muller–Code]. Dieser sehr niederratige Code kam bereits 1971 bei der [https://de.wikipedia.org/wiki/Mariner Raumsonde Mariner 9] zum Einsatz.
 
*Die [[Kanalcodierung/Definition_und_Eigenschaften_von_Reed–Solomon–Codes#Konstruktion_von_Reed.E2.80.93Solomon.E2.80.93Codes_.281.29|Reed–Solomon–Codes]] (RS–Codes, ca. 1960) sind eine Klasse zyklischer Blockcodes. $\rm F$ markiert einen RS–Code der Rate $223/255 > 0.9$ und einem erforderlichen $E_{\rm B}/N_0 < 6 \ \rm  dB$.
 
*Die Punkte $\rm G$ und $\rm H$ bezeichnen zwei [[Kanalcodierung/Grundlagen_der_Faltungscodierung|Faltungscodes]] (englisch: ''Convolutional Codes'', CC) mittlerer Rate. Der Code $\rm G$ wurde schon 1972 bei der [https://de.wikipedia.org/wiki/Pioneer_10 Pioneer 10–Mission] eingesetzt.
 
*Die Kanalcodierung der [https://voyager.jpl.nasa.gov/mission/ Voyager–Mission] Ende der 1970er Jahre ist mit &nbsp;$\rm I$ markiert. Es handelt sich um die [[Kanalcodierung/Soft–in_Soft–out_Decoder#Grundstruktur_von_verketteten_Codiersystemen|Verkettung]] eines (2, 1, 7)–Faltungscodes mit einem RS–Code.
 
  
 +
It should be noted that in the convolutional codes the third parameter has a different meaning than in the block codes.&nbsp; For example, the identifier&nbsp; $\text{(2, 1, 32)}$&nbsp; indicates the memory&nbsp; $m = 32$&nbsp;.}}
  
Anzumerken ist, dass bei den Faltungscodes der dritte Kennungsparameter eine andere Bedeutung hat als bei den Blockcodes. So weist die Kennung (2, 1, 32) beispielsweise auf das Memory $m = 32$ hin.}}
 
  
  
 
{{GraueBox|TEXT=
 
{{GraueBox|TEXT=
$\text{Beispiel 5:}$&nbsp;  
+
$\text{Example 5:}$&nbsp;  
Die im $\text{Beispiel 4}$ genannten frühen Kanalcodes liegen noch relativ weit von der Kanalkapazitätskurve entfernt. Dies war wahrscheinlich auch ein Grund, warum dem Autor dieses Lerntutorials die auch große praktische Bedeutung der Informationstheorie verschlossen blieb, als er diese Anfang der 1970er Jahre im Studium kennenlernte.
+
The early channel codes mentioned in&nbsp; $\text{Example 4}$&nbsp;  are still relatively far away from the channel capacity curve. &nbsp; This was probably also a reason why the author of this learning tutorial was unaware of the also great practical significance of information theory when he became acquainted with it in his studies in the early 1970s.&nbsp; The view changed significantly when very long channel codes together with iterative decoding appeared in the 1990s.&nbsp; The new marker points are much closer to the capacity limit curve.
 +
<br clear=all>
 +
[[File:EN_Inf_T_4_3_S6b_v2.png|right|frame|Rates and required &nbsp;$E_{\rm B}/{N_0}$&nbsp;  of iterative coding methods]]
 +
Here are a few more explanations of this graph:
 +
#Red crosses mark the so-called&nbsp; [https://en.wikipedia.org/wiki/Turbo_code "turbo codes"]&nbsp; according&nbsp; $\rm CCSDS$&nbsp; $($"Consultative Committee for Space Data Systems"$)$&nbsp; with&nbsp; $k = 6920$&nbsp; information bits each and different code lengths&nbsp; $n = k/R$.&nbsp;
 +
#These codes,&nbsp;  invented by&nbsp; [https://en.wikipedia.org/wiki/Claude_Berrou $\text{Claude Berrou}$]&nbsp; around 1990,&nbsp;  can be decoded iteratively.&nbsp; The&nbsp;  $($red$)$&nbsp;  markings are each less than&nbsp; $1 \ \rm dB$&nbsp; away from the Shannon bound.
 +
#The&nbsp; [https://en.wikipedia.org/wiki/Low-density_parity-check_code "LDPC codes"]&nbsp; ("Low Density Parity–check Codes")&nbsp; with constant code length&nbsp; $n = 64800$ &nbsp;  ⇒ &nbsp; white rectangles have been used since 2006 for&nbsp; [https://en.wikipedia.org/wiki/DVB-S "DVB–S2"]&nbsp; ("Digital Video Broadcast over Satellite").&nbsp;
 +
#They are very well suited for iterative decoding by means of&nbsp; [https://en.wikipedia.org/wiki/Factor_graph "text{Factor Graph"]&nbsp; and&nbsp; [https://en.wikipedia.org/wiki/EXIT_chart "Exit Charts"] due to the sparse one assignment of the check matrix.
 +
#Black dots mark the&nbsp; [https://en.wikipedia.org/wiki/Low-density_parity-check_code "LDPC codes"]&nbsp; specified by&nbsp; $\rm CCSDS$&nbsp; with constant number of information bits&nbsp; $(k = 16384)$&nbsp; and variable word length&nbsp; $n = k/R$.&nbsp; This code class requires a similar&nbsp; $E_{\rm B}/N_0$&nbsp; to the red crosses and white rectangles.
 +
#Around the year 2000,&nbsp;  many researchers had the ambition to approach the Shannon limit to within fractions of a&nbsp; $\rm dB$&nbsp;.&nbsp; The yellow cross marks such a result&nbsp; $(0.0045 \ \rm dB)$&nbsp; of&nbsp; [CFRU01]<ref name='CFRU01'>
 +
Chung S.Y; Forney Jr., G.D.; Richardson, T.J.; Urbanke, R.:&nbsp; On the Design of Low-Density Parity- Check Codes within 0.0045 dB of the Shannon Limit. – <br>In: IEEE Communications Letters, vol. 5, no. 2 (2001), pp. 58–60.</ref>&nbsp; with an irregular LDPC code of rate&nbsp; $ R =1/2$&nbsp; and length&nbsp; $n = 10^7$.}}
  
Die Sichtweise hat sich deutlich verändert, als in den 1990er Jahren sehr lange Kanalcodes zusammen mit iterativer Decodierung aufkamen. Die neuen Markierungspunkte liegen näher an der Kapazitätsgrenzkurve.
 
  
[[File:P_ID2950__Inf_T_4_3_S6b.png|center|frame|Raten und erforderliches &nbsp;$E_{\rm B}/{N_0}$&nbsp;  für iterative Codierverfahren ]]
+
{{BlaueBox|TEXT=
 +
$\text{Conclusion:}$&nbsp;
 +
At this point,&nbsp;  the brilliance and farsightedness of&nbsp; [https://en.wikipedia.org/wiki/Claude_Shannon $\text{Claude E. Shannon}$]&nbsp; should be emphasized once again:
 +
*In 1948,&nbsp;  he developed a theory that had not been known before,&nbsp;  showing the possibilities,&nbsp;  but also the limits of digital signal transmission.
  
Hier noch einige Erläuterungen zu dieser Grafik:
+
*At that time,&nbsp;  the first thoughts on digital signal transmission were only ten years old  &nbsp; ⇒ &nbsp; [[Modulation_Methods/Pulscodemodulation|"pulse code modulation"]]&nbsp; [https://en.wikipedia.org/wiki/Alec_Reeves $\text{(Alec Reeves}$], 1938$)$&nbsp;  and even the pocket calculator did not arrive until more than twenty years later.
*Rote Kreuze markieren die so genannten [https://de.wikipedia.org/wiki/Turbo-Code Turbo–Codes] nach CCSDS (''Consultative Committee for Space Data Systems'') mit jeweils $k = 6920$ Informationsbits und unterschiedlichen Codelängen $n = k/R$. Diese von [https://de.wikipedia.org/wiki/Claude_Berrou Claude Berrou] um 1990 erfundenen Codes können iterativ decodiert werden. Die (roten) Markierungen liegen jeweils weniger als $1 \ \rm dB$ von der Shannon–Grenze entfernt.
 
*Ähnlich verhalten sich die [https://en.wikipedia.org/wiki/Low-density_parity-check_code LDPC–Codes] (''Low Density Parity–check Codes'') mit konstanter Codelänge $n = 64800$ &nbsp;  ⇒ &nbsp; weiße Rechtecke). Sie werden seit 2006 bei [https://de.wikipedia.org/wiki/DVB-S DVB–S2] (''Digital Video Broadcast over Satellite'') eingesetzt und eignen sich aufgrund der spärlichen Einsen–Belegung der Prüfmatrix sehr gut für die iterative Decodierung mittels [https://en.wikipedia.org/wiki/Factor_graph Faktor–Graphen] und [https://en.wikipedia.org/wiki/EXIT_chart Exit Charts].
 
*Schwarze Punkte markieren die von CCSDS spezifizierten [https://de.wikipedia.org/wiki/Low-Density-Parity-Check-Code LDPC–Codes] mit konstanter Anzahl an Informationsbits $(k = 16384)$ und variabler Wortlänge $n = k/R$. Diese Codeklasse erfordert ein ähnliches $E_{\rm B}/N_0$ wie die roten Kreuze und die weißen Rechtecke.
 
  
*Um das Jahr 2000 hatten viele Forscher den Ehrgeiz, sich der Shannon–Grenze bis auf Bruchteile von einem $\rm dB$ anzunähern. Das gelbe Kreuz markiert ein solches Ergebnis $(0.0045 \ \rm dB)$ von [CFRU01]<ref name='CFRU01'>
+
*Shannon's work shows us that great things can also be done without gigantic computers.}}
Chung S.Y; Forney Jr., G.D.; Richardson, T.J.; Urbanke, R.: On the Design of Low-Density Parity- Check Codes within 0.0045 dB of the Shannon Limit. – In: IEEE Communications Letters, vol. 5, no. 2 (2001), pp. 58–60.</ref> mit einem irregulären LDPC–Code der Rate $ R =1/2$ und der Länge $n = 10^7$.}}
 
  
  
{{BlaueBox|TEXT=
+
== Channel capacity of the complex AWGN channel== 
$\text{Fazit:}$&nbsp;  
+
<br>
An dieser Stelle soll nochmals die Brillianz und der Weitblick von [https://de.wikipedia.org/wiki/Claude_Shannon Claude E. Shannon] hervorgehoben werden:
+
Higher-level modulation methods can each be represented by an&nbsp; "in-phase"&nbsp; and a&nbsp; "quadrature component".&nbsp; These include,&nbsp; for example
*Er hat 1948 eine bis dahin nicht bekannte Theorie entwickelt, mit der die Möglichkeiten, aber auch die Grenzen der Digitalsignalübertragung aufgezeigt werden.
+
*the&nbsp; [[Modulation_Methods/Quadrature_Amplitude_Modulation#Quadratic_QAM_signal_space_constellations|$\text{M–QAM}$]]&nbsp; &nbsp; ⇒  &nbsp; quadrature amplitude modulation;&nbsp; $M ≥ 4$ &nbsp; quadrature signal space points,
*Zu dieser Zeit waren die ersten Überlegungen zur digitalen Nachrichtenübertragung gerade mal zehn Jahre alt  &nbsp; &nbsp; [[Modulationsverfahren/Pulscodemodulation|Pulscodemodulation]] ([https://de.wikipedia.org/wiki/Alec_Reeves Alec Reeves], 1938) und selbst der Taschenrechner kam erst mehr als zwanzig Jahre später.
 
*Shannon's Arbeiten zeigen uns, dass man auch ohne gigantische Computer Großes leisten kann.}}
 
 
 
  
== Kanalkapazität des komplexen AWGN–Kanals== 
+
*the&nbsp; [[Modulation_Methods/Quadrature_Amplitude_Modulation#Other_signal_space_constellations|$\text{M–PSK}$]]  &nbsp; ⇒  &nbsp;  $M ≥ 4$ &nbsp; signal space points arranged in a circle.
<br>
 
Höherstufige Modulationsverfahren können jeweils durch eine Inphase– und eine Quadraturkomponente dargestellt werden. Hierzu gehören zum Beispiel
 
*die [[Modulationsverfahren/Quadratur–Amplitudenmodulation#QAM.E2.80.93Signalraumkonstellationen|M–QAM]] &nbsp; ⇒  &nbsp; Quadraturamplitudenmodulation; $M ≥ 4$ quadratisch angeordnete Signalraumpunkte,
 
*die [[Modulationsverfahren/Quadratur–Amplitudenmodulation#Weitere_Signalraumkonstellationen|M–PSK]]  &nbsp; ⇒  &nbsp;  $M ≥ 4$ Signalraumpunkte in kreisförmiger Anordnung
 
  
  
Die beiden Komponenten lassen sich im [[Signaldarstellung/Äquivalentes_Tiefpass-Signal_und_zugehörige_Spektralfunktion#Motivation|äquivalenten Tiefpassbereich]] auch als ''Realteil'' &nbsp;bzw. ''Imaginärteil'' &nbsp;eines komplexen Rauschterms $N$ beschreiben.
+
The two components can also be described in the&nbsp; [[Signal_Representation/Equivalent_Low-Pass_Signal_and_its_Spectral_Function|"equivalent low-pass range"]]&nbsp; as the&nbsp; "real part" &nbsp;and the&nbsp; "imaginary part" &nbsp;of a complex noise term&nbsp; $N$,&nbsp; respectively.
*Alle oben genannten Verfahren sind zweidimensional.  
+
*All the above methods are two-dimensional.
*Der (komplexe) AWGN–Kanal stellt somit &nbsp;$K = 2$&nbsp; voneinander unabhängige Gaußkanäle zur Verfügung.  
+
*Entsprechend der Seite&nbsp;  [[Informationstheorie/AWGN–Kanalkapazität_bei_wertkontinuierlichem_Eingang#Parallele_Gau.C3.9Fsche_Kan.C3.A4le|Parallele Gaußsche Kanäle]] ergibt sich deshalb für die Kapazität eines solchen Kanals:
+
*The&nbsp; $($complex$)$&nbsp; AWGN channel thus provides &nbsp;$K = 2$&nbsp; independent Gaussian channels.
[[File:P_ID2955__Inf_T_4_3_S7.png|right|frame|2D–WDF des Komplexen Gaußschen Rauschens]]  
+
:$$C_{\text{ Gauß, komplex} }= C_{\rm Gesamt} ( K=2)  
+
*According to the section&nbsp;  [[Information_Theory/AWGN–Kanalkapazität_bei_wertkontinuierlichem_Eingang#Parallel_Gaussian_channels|"Parallel Gaussian channels"]],&nbsp; the capacity of such a channel is therefore given by:
 +
[[File:P_ID2955__Inf_T_4_3_S7.png|right|frame|2D&ndash;PDF of complex Gaussian noise]]  
 +
:$$C_{\text{ Gaussian, complex} }= C_{\rm total} ( K=2)  
 
=  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac{P_X/2}{\sigma^2})  
 
=  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac{P_X/2}{\sigma^2})  
 
\hspace{0.05cm}.$$
 
\hspace{0.05cm}.$$
 +
*$P_X$&nbsp; denotes the total useful power of the inphase and the quadrature components.
  
*$P_X$ bezeichnet die gesamte Nutzleistung von Inphase– und Quadraturkomponente.
+
*In contrast,&nbsp; the variance&nbsp; $σ^2$&nbsp; of the perturbation refers to only one dimension: &nbsp; $σ^2 = σ_{\rm I}^2 = σ_{\rm Q}^2$.
*Dagegen bezieht sich die Varianz $σ^2$ der Störung nur auf eine Dimension: &nbsp; $σ^2 = σ_{\rm I}^2 = σ_{\rm Q}^2$.
 
  
  
Die Skizze zeigt die 2D–WDF $f_N(n)$ des Gaußschen Rauschprozesses $N$ über den beiden Achsen
+
The sketch on the right shows the two-dimensional PDF&nbsp; $f_N(n)$&nbsp; of the Gaussian noise process&nbsp; $N$&nbsp; over the two axes:
* $N_{\rm I}$ (Inphase–Anteil, Realteil) und
+
* $N_{\rm I}$&nbsp; $($inphase component,&nbsp; real component$)$&nbsp; and
* $N_{\rm Q}$ (Quadraturanteil, Imaginärteil).
 
  
 +
* $N_{\rm Q}$&nbsp; $($quadrature component,&nbsp; imaginary part$)$.
  
Dunklere Bereiche der rotationssymmetrischen WDF $f_N(n)$ um den Nullpunkt weisen auf mehr Störanteile hin. Für die Varianz des komplexen Gaußschen Rauschens $N$ gilt aufgrund der Rotationsinvarianz $(σ_{\rm I} = σ_{\rm Q})$ folgender Zusammenhang:
+
 
 +
Darker areas of the rotationally symmetrical PDF&nbsp; $f_N(n)$&nbsp; around the zero point indicate more noise components.&nbsp; The following relationship applies to the variance of the complex Gaussian noise&nbsp; $N$&nbsp; due to the rotational invariance&nbsp; $(σ_{\rm I} = σ_{\rm Q})$:
 
:$$\sigma_N^2 = \sigma_{\rm I}^2 + \sigma_{\rm Q}^2 = 2\cdot \sigma^2  
 
:$$\sigma_N^2 = \sigma_{\rm I}^2 + \sigma_{\rm Q}^2 = 2\cdot \sigma^2  
 
\hspace{0.05cm}.$$
 
\hspace{0.05cm}.$$
  
Damit lässt sich die Kanalkapazität auch wie folgt ausdrücken:
+
Thus,&nbsp; the channel capacity can also be expressed as follows:
 
   
 
   
:$$C_{\text{ Gauß, komplex} }= {\rm log}_2 \hspace{0.1cm} ( 1 + \frac{P_X}{\sigma_N^2})  = {\rm log}_2 \hspace{0.1cm} ( 1 + SNR)
+
:$$C_{\text{ Gaussian, complex} }= {\rm log}_2 \hspace{0.1cm} ( 1 + \frac{P_X}{\sigma_N^2})  = {\rm log}_2 \hspace{0.1cm} ( 1 + SNR)
 
\hspace{0.05cm}.$$
 
\hspace{0.05cm}.$$
  
Diese Gleichung wird auf der nächsten Seite numerisch ausgewertet. Bereits aus dieser Gleichung ist aber zu ersehen, dass für das Signal–zu–Störleistungsverhältnis gelten wird: &nbsp; $SNR = {P_X}/{\sigma_N^2}
+
The equation is evaluated numerically in the next section.&nbsp; However,&nbsp; we can already say that for the signal-to-noise power ratio  will be:
\hspace{0.05cm}.$
+
:$$\rm SNR = {P_X}/{\sigma_N^2}
 +
\hspace{0.05cm}.$$
  
==Maximale Coderate für QAM–Strukturen== 
+
==Maximum code rate for QAM structures== 
 
<br>
 
<br>
[[File:P_ID2956__Inf_T_4_3_S8_neu.png|right|frame|Kanalkapazität von BPSK und <i>M</i>–QAM]]
+
[[File:EN_Inf_T_4_3_S8a_neu.png|right|frame|Channel capacity of&nbsp; $\rm BPSK$&nbsp; and&nbsp; $M\text{–QAM}$]]
Die Grafik zeigt die Kapazität des komplexen AWGN–Kanals als rote Kurve:
+
The graph shows the capacity of the complex AWGN channel as a red curve:
:$$C_{\text{ Gauß, komplex} }= {\rm log}_2 \hspace{0.1cm} ( 1 + SNR)
+
:$$C_{\text{ Gaussian, complex} }= {\rm log}_2 \hspace{0.1cm} ( 1 + \rm SNR)
 
\hspace{0.05cm}.$$
 
\hspace{0.05cm}.$$
*Die Einheit dieser Kanalkapazität ist „bit/Kanalzugriff” oder „bit/Quellensymbol”.  
+
*The unit of this channel capacity is&nbsp; "bit/channel use"&nbsp; or&nbsp; "bit/source symbol".
*Als Abszisse ist das Signal–zu–Störleistungsverhältnis $10 · \lg (SNR)$ mit ${SNR} = P_X/σ_N^2$ aufgetragen.
+
*Die Grafik wurde [Göb10]<ref name='Göb10'>Göbel, B.: ''Information–Theoretic Aspects of Fiber–Optic Communication Channels''. Dissertation. TU München. Verlag Dr. Hut, Reihe Informationstechnik, ISBN 978-3-86853-713-0, 2010.</ref> entnommen. Wir danken [[Biografien_und_Bibliografien/Beteiligte_der_Professur_Leitungsgebundene_Übertragungstechnik#Dr.-Ing._Bernhard_Göbel_(bei_LÜT_von_2004-2010)|Bernhard Göbel]], unserem ehemaligen Kollegen am LÜT, für sein Einverständnis, diese Abbildung verwenden zu dürfen, sowie für seine große Unterstützung unseres Lerntutorials während seiner gesamten aktiven Zeit.
+
*The abscissa denotes the signal-to-interference power ratio&nbsp; $10 · \lg \rm (SNR)$&nbsp; with&nbsp; $\rm {SNR} = P_X/σ_N^2$.
 +
 
 +
*The graph was taken from&nbsp; [Göb10]<ref name='Göb10'>Göbel, B.:&nbsp; Information–Theoretic Aspects of Fiber–Optic Communication Channels. Dissertation. TU München. <br>Verlag Dr. Hut, Reihe Informationstechnik, ISBN 978-3-86853-713-0, 2010.</ref>.&nbsp; &nbsp; We would like to thank our former colleague&nbsp; [[Biographies_and_Bibliographies/Beteiligte_der_Professur_Leitungsgebundene_Übertragungstechnik#Dr.-Ing._Bernhard_Göbel_(at_LÜT_from_2004-2010)|$\text{Bernhard Göbel}$]]&nbsp; for his permission to use this figure and for his great support of our learning tutorial during his entire active time.
 +
 
 +
 
 +
 
 +
According to Shannon theory,&nbsp; the red curve is again based on a Gaussian distribution&nbsp; $f_X(x)$&nbsp; at the input.&nbsp; Additionally drawn in are ten further capacitance curves for discrete-valued input:
 +
*the curve for&nbsp; [[Modulation_Methods/Linear_Digital_Modulation#BPSK_.E2.80.93_Binary_Phase_Shift_Keying|"Binary Phase Shift Keying"]]&nbsp; $(\rm BPSK$,&nbsp; marked with&nbsp; "1" &nbsp; &rArr; &nbsp;  $K = 1)$,
 +
 
 +
*the curve for &nbsp;[[Modulation_Methods/Quadrature_Amplitude_Modulation#Quadratic_QAM_signal_space_constellations|"$M$-step quadrature amplitude modulation"]]&nbsp; $($with&nbsp; $M = 2^K,\ K  = 2$, ... , $10)$.
  
  
Die rote Kurve basiert entsprechend der Shannon–Theorie wieder auf einer Gaußverteilung $f_X(x)$ am Eingang. Zusätzlich eingezeichnet sind zehn weitere Kapazitätskurven für wertdiskreten Eingang:
 
*die Kurve für&nbsp; [[Modulationsverfahren/Lineare_digitale_Modulationsverfahren#BPSK_.E2.80.93_Binary_Phase_Shift_Keying|Binary Phase Shift Keying]]&nbsp; <br>(BPSK,  mit „1” markiert &nbsp; &rArr;&nbsp;  $K = 1$),
 
*die &nbsp;[[Modulationsverfahren/Quadratur–Amplitudenmodulation#QAM.E2.80.93Signalraumkonstellationen|''M''&ndash;stufige Quadratur–Amplitudenmodulation]]&nbsp; <br>(mit $M = 2^K, K  = 2$, ... , $10$).
 
  
  
Man erkennt aus dieser Darstellung:
+
One can see from this representation:
*Die BPSK&ndash;Kurve und alle $M$–QAM&ndash;Kurven liegen rechts von der roten Shannon–Grenzkurve. Bei kleinem $SNR$ sind allerdings alle Kurven von der roten Kurve fast nicht mehr zu unterscheiden.
+
#All curves&nbsp; $($BPSK and&nbsp; M–QAM$)$&nbsp; lie right of the red&nbsp; "Shannon limit"&nbsp; curve.&nbsp;
*Der Endwert aller Kurven für wertdiskrete Eingangssignale ist $K = \log_2 (M)$. Für $SNR  \to ∞$ erhält man beispielsweise $C_{\rm BPSK} = 1 \ \rm bit/Symbol$ &nbsp;sowie&nbsp; $C_{\rm 4-QAM} = C_{\rm QPSK} = 2\ \rm bit/Symbol$.
+
#At low&nbsp; SNR,&nbsp; however,&nbsp; all curves are almost indistinguishable from the red curve.
*Die blauen Markierungen zeigen, dass eine $\rm 2^{10}–QAM$ mit &nbsp;$10 · \lg (SNR) ≈ 27 \ \rm dB$&nbsp; eine Coderate von &nbsp;$R ≈ 8.2$&nbsp; ermöglicht. Der Abstand zur Shannon–Kurve beträgt hier &nbsp;$1.53\ \rm dB$.
+
#The final value of all curves for discrete-valued input signals is&nbsp; $K = \log_2 (M)$.&nbsp; For example,&nbsp; for&nbsp; $\rm SNR  \to ∞$:&nbsp; $C_{\rm BPSK} = 1$&nbsp; $($bit/use$)$,&nbsp; $C_{\rm 4-QAM} = C_{\rm QPSK} = 2$.
*Der ''Shaping Gain'' beträgt $10 · \lg (π{\rm e}/6) = 1.53 \ \rm dB$. Diese Verbesserung lässt sich erzielen, wenn man die Lage der $2^{10} = 32^2$ quadratisch angeordneten Signalraumpunkte so ändert, dass sich eine gaußähnliche Eingangs–WDF ergibt &nbsp; ⇒  &nbsp;''Signal Shaping''.
+
#The blue markings show that a&nbsp; $\rm 2^{10}–QAM$&nbsp; with &nbsp;$10 · \lg \rm (SNR) ≈ 27 \ \rm dB$&nbsp; allows a code rate of &nbsp;$R ≈ 8.2$.&nbsp; Distance to the Shannon curve:&nbsp; $1.53\ \rm dB$.
 +
#Therefor the&nbsp; "shaping gain"&nbsp; is&nbsp; $10 · \lg (π \cdot {\rm e}/6) = 1.53 \ \rm dB$.&nbsp; This improvement can be achieved by changing the position of the&nbsp; $2^{10} = 32^2$&nbsp; square signal space points to give a Gaussian-like input PDF &nbsp; ⇒  &nbsp;"signal shaping".
  
  
 
{{BlaueBox|TEXT=
 
{{BlaueBox|TEXT=
$\text{Fazit:}$&nbsp;  
+
$\text{Conclusion:}$&nbsp;  
In [[Aufgaben:4.Zehn_QPSK–Kanalkapazität| Aufgabe 4.10]] werden die AWGN–Kapazitätskurven von BPSK und QPSK diskutiert:
+
&nbsp; [[Aufgaben:Exercise_4.Ten:_QPSK_Channel_Capacity|"Exercise 4.10"]]&nbsp; discusses the AWGN capacity curves of BPSK and QPSK:
*Ausgehend $10 · \lg (E_{\rm B}/N_0)$ mit $E_{\rm B}$: Energie pro Informationsbit kommt man zur QPSK–Kurve durch Verdopplung der BPSK–Kurve:
+
*Starting from the abscissa &nbsp; $10 · \lg (E_{\rm B}/N_0)$ &nbsp; with &nbsp; $E_{\rm B}$&nbsp; $($energy per information <u>bit</u>$)$&nbsp; one arrives at the QPSK curve by doubling the BPSK curve:
 
:$$C_{\rm QPSK}\big [10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm B}/{N_0})\big ]  
 
:$$C_{\rm QPSK}\big [10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm B}/{N_0})\big ]  
 
=
 
=
 
2 \cdot C_{\rm BPSK}\big [10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm B}/{N_0}) \big ] .$$
 
2 \cdot C_{\rm BPSK}\big [10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm B}/{N_0}) \big ] .$$
  
*Vergleicht man aber BPSK und QPSK bei gleicher Energie $E_{\rm S}$ pro Informationssymbol , so gilt:
+
*However,&nbsp; if we compare BPSK and QPSK at the same energy&nbsp; $E_{\rm S}$&nbsp; per information <u>symbol</u>,&nbsp; then:
 
:$$C_{\rm QPSK}[10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm S}/{N_0})]  
 
:$$C_{\rm QPSK}[10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm S}/{N_0})]  
 
=
 
=
 
2 \cdot C_{\rm BPSK}[10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm S}/{N_0}) - 3\,{\rm dB}] .$$
 
2 \cdot C_{\rm BPSK}[10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm S}/{N_0}) - 3\,{\rm dB}] .$$
 
   
 
   
:Hierbei ist berücksichtigt, dass bei QPSK die Energie in einer Dimension nur $E_{\rm S}/2$ beträgt.}}
+
:This takes into account that with QPSK the energy in one dimension is only&nbsp; $E_{\rm S}/2$&nbsp;.}}
 
   
 
   
== Aufgaben zum Kapitel ==  
+
== Exercises for the chapter ==  
 
<br>
 
<br>
[[Aufgaben:4.8 Numerische Auswertung der AWGN-Kanalkapazität|Aufgabe 4.8: Numerische Auswertung der AWGN-Kanalkapazität]]
+
[[Aufgaben:Exercise_4.8:_Numerical_Analysis_of_the_AWGN_Channel_Capacity|Exercise 4.8: Numerical Analysis of the AWGN Channel Capacity]]
  
[[Aufgaben:4.8Z Was sagt die AWGN-Kanalkapazitätskurve aus?|Aufgabe 4.8Z: Was sagt die AWGN-Kanalkapazitätskurve aus?]]
+
[[Aufgaben:Exercise_4.8Z:_What_does_the_AWGN_Channel_Capacity_Curve_say%3F|Exercise 4.8Z: What does the AWGN Channel Capacity Curve say?]]
  
[[Aufgaben:4.9 Höherstufige Modulation|Aufgabe 4.9: Höherstufige Modulation]]
+
[[Aufgaben:Exercise_4.9:_Higher-Level_Modulation|Exercise 4.9: Higher-Level Modulation]]
  
[[Aufgaben:4.9Z Ist bei BPSK die Kanalkapazität C ≡ 1 möglich?|Aufgabe 4.9Z:  Ist bei BPSK die Kanalkapazität $C ≡ 1$ möglich?]]
+
[[Aufgaben:Exercise_4.9Z:_Is_Channel_Capacity_C_≡_1_possible_with_BPSK%3F|Exercise 4.9Z:  Is Channel Capacity C ≡ 1 possible with BPSK?]]
  
[[Aufgaben:Aufgabe_4.Zehn:_QPSK–Kanalkapazität|Aufgabe 4.10: &nbsp; QPSK–Kanalkapazität]]
+
[[Aufgaben:Exercise_4.Ten:_QPSK_Channel_Capacity|Exercise 4.10: &nbsp; QPSK Channel Capacity]]
  
== Quellenverzeichnis==  
+
== References==  
  
  
 
{{Display}}
 
{{Display}}

Latest revision as of 15:28, 28 February 2023

AWGN model for discrete-time band-limited signals


At the end of the  "last chapter",  the AWGN model was used according to the left graph,  characterized by the two random variables  $X$  and  $Y$  at the input and output and the stochastic noise  $N$  as the result of a mean-free Gaussian random process   ⇒   "white noise" with variance  $σ_N^2$.  The noise power  $P_N$  is also equal to  $σ_N^2$.

Two largely equivalent models for the AWGN channel



  • The maximum mutual information  $I(X; Y)$  between input and output   ⇒   channel capacity  $C$  is obtained when there is a Gaussian input PDF $f_X(x)$. 
  • With the transmission power  $P_X = σ_X^2$   ⇒   variance of the random variable  $X$,  the channel capacity equation is:
$$C = 1/2 \cdot {\rm log}_2 \hspace{0.1cm} ( 1 + {P_X}/{P_N}) \hspace{0.05cm}.$$
  • Now we describe the AWGN channel model according to the sketch on the right,  where the sequence  $〈X_ν〉$  is applied to the channel input,  where the distance between successive values is  $T_{\rm A}$. 
  • This sequence is the discrete-time equivalent of the continuous-time signal  $X(t)$  after band-limiting and sampling.
  • The relationship between the two models can be established by means of a graph, which is described in more detail below.


  $\text{The main findings at the outset:}$ 

  • In the right-hand model, the same relationship  $Y_ν = X_ν + N_ν$  applies at the sampling times  $ν·T_{\rm A}$  as in the left-hand model.
  • The noise component  $N_ν$  is now to be modelled by band-limited  $(±B)$  white noise with the two-sided power density  ${\it Φ}_N(f) = N_0/2$,  where  $B = 1/(2T_{\rm A})$  must hold   ⇒  see   "sampling theorem".


$\text{ Interpretation:}$

In the modified model,  we assume an infinite sequence  $〈X_ν〉$  of Gaussian random variables impressed on a  "Dirac comb"  $p_δ(t)$.  The resulting discrete-time signal is thus:

$$X_{\delta}(t) = T_{\rm A} \cdot \hspace{-0.1cm} \sum_{\nu = - \infty }^{+\infty} X_{\nu} \cdot \delta(t- \nu \cdot T_{\rm A} )\hspace{0.05cm}.$$
AWGN model considering time discretization and band-limitation

The spacing of all  $($weighted$)$  "Dirac delta functions"  is uniform  $T_{\rm A}$.  Through the interpolation filter with the impulse response  $h(t)$  as well as the frequency response  $H(f)$, where

$$h(t) = 1/T_{\rm A} \cdot {\rm sinc}(t/T_{\rm A}) \quad \circ\!\!\!-\!\!\!-\!\!\!-\!\!\bullet \quad H(f) = \left\{ \begin{array}{c} 1 \\ 0 \\ \end{array} \right. \begin{array}{*{20}c} {\rm{for}} \hspace{0.3cm} |f| \le B, \\ {\rm{for}} \hspace{0.3cm} |f| > B, \\ \end{array},$$

where the  (one-sided)  bandwidth  $B = 1/(2T_{\rm A})$,  the continuous-time signal  $X(t)$  is obtained with the following properties:

  • The samples  $X(ν·T_{\rm A})$  are identical to the input values  $X_ν$ for all integers $ν$,  which can be justified by the equidistant zeros of the  $\text{function  $\text{sinc}(x) = \sin(\pi x)/(\pi x)$}$.
  • According to the sampling theorem,  $X(t)$  is ideally band-limited to the spectral range   ⇒   rectangular frequency response  $H(f)$  of the one-sided bandwidth  $B$.


$\text{Noise power:}$  After adding the noise component  $N(t)$  with the (two-sided) power density   ${\it Φ}_N(t) = N_0/2$,  the matched filter  $\rm (MF)$  with sinc–shaped impulse response follows.  The following then applies to the  »noise power at the matched filter output«:

$$P_N = {\rm E}\big[N_\nu^2 \big] = \frac{N_0}{2T_{\rm A} } = N_0 \cdot B\hspace{0.05cm}.$$


$\text{Proof:}$  With  $B = 1/(2T_{\rm A} )$  one obtains for the impulse response  $h_{\rm E}(t)$  and the spectral function  $H_{\rm E}(f)$:

$$h_{\rm E}(t) = 2B \cdot {\rm si}(2\pi \cdot B \cdot t) \quad \circ\!\!\!-\!\!\!-\!\!\!-\!\!\bullet \quad H_{\rm E}(f) = \left\{ \begin{array}{c} 1 \\ 0 \\ \end{array} \right. \begin{array}{*{20}c} \text{for} \hspace{0.3cm} \vert f \vert \le B, \\ \text{for} \hspace{0.3cm} \vert f \vert > B. \\ \end{array} $$

It follows,  according to the insights of the book  "Theory of Stochastic Signals":

$$P_N = \int_{-\infty}^{+\infty} \hspace{-0.3cm} {\it \Phi}_N (f) \cdot \vert H_{\rm E}(f)\vert^2 \hspace{0.15cm}{\rm d}f = \int_{-B}^{+B} \hspace{-0.3cm} {\it \Phi}_N (f) \hspace{0.15cm}{\rm d}f = \frac{N_0}{2} \cdot 2B = N_0 \cdot B \hspace{0.05cm}.$$


Further:

  • If one samples the matched filter output at equidistant intervals   $T_{\rm A}$,  the same constellation  $Y_ν = X_ν + N_ν$  as before results for the time instants  $ν ·T_{\rm A}$.
  • The noise component  $N_ν$  in the discrete-time output   $Y_ν$  is thus  "band-limited"  and  "white".  The channel capacity equation thus needs to be adjusted only slightly.
  • With  $E_{\rm S} = P_X \cdot T_{\rm A}$   ⇒   transmission energy within a symbol duration  $T_{\rm A}$  ⇒   »energy per symbol«  then holds:
$$C = {1}/{2} \cdot {\rm log}_2 \hspace{0.1cm} ( 1 + \frac {P_X}{N_0 \cdot B}) = {1}/{2} \cdot {\rm log}_2 \hspace{0.1cm} ( 1 + \frac {2 \cdot P_X \cdot T_{\rm A}}{N_0}) = {1}/{2} \cdot {\rm log}_2 \hspace{0.1cm} ( 1 + \frac {2 \cdot E_{\rm S}}{N_0}) \hspace{0.05cm}.$$


The channel capacity  $C$  as a function of  $E_{\rm S}/N_0$


$\text{Example 1:}$  The graphic shows the variation of the AWGN channel capacity as a function of the quotient  $E_{\rm S}/N_0$,  where the left axis and the red labels are valid:

Channel capacities  $C$  and  $C^{\hspace{0.05cm}*}$  as a function of  $E_{\rm S}/N_0$
$$C = {1}/{2} \cdot {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot E_{\rm S} }{N_0}); \hspace{0.5cm}{\rm unit\hspace{-0.15cm}: \hspace{0.05cm}bit/channel\hspace{0.15cm}use} \hspace{0.05cm}.$$

The  $($pseudo–$)$unit  "bit/channel use"  is sometimes also referred to

  • as  "bit/source symbol" 
  • or  "bit/symbol"  for short.


⇒   The right  $($blue$)$  axis label takes into account the result of the  "sampling theorem"   ⇒   $B = 1/(2T_{\rm A})$  and

  • thus provides an upper bound for the bit rate  $R$  of a digital system
  • that is still possible for this AWGN channel:
$$C^{\hspace{0.05cm}*} = \frac{C}{T_{\rm A} } = B \cdot {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot E_{\rm S} }{N_0}); \hspace{0.5cm}{\rm unit\hspace{-0.15cm}: \hspace{0.05cm}bit/second} \hspace{0.05cm}.$$


$\text{Example 2:}$  Often one gives the quotient of symbol energy  $(E_{\rm S})$  and AWGN noise power density  $(N_0)$  logarithmically.

AWGN channel capacities  $C$  and  $C^{\hspace{0.05cm}*}$  as a function of  $10 \cdot \lg \ E_{\rm S}/N_0$


This graph shows the channel capacities  $C$  resp.  $C^{\hspace{0.05cm}*}$ 

  • as a function of  $10 · \lg (E_{\rm S}/N_0)$ 
  • in the range from  $-20 \ \rm dB$  to  $+30 \ \rm dB$.



From about  $10 \ \rm dB$  onwards,  a  $($nearly$)$  linear curve results here.

System model for the interpretation of the AWGN channel capacity


In order to discuss the  "Channel Coding Theorem"  in the context of the AWGN channel, 

Model for the interpretation of the AWGN channel capacity
  • we still need an  "encoder", 
  • but here the  "encoder" is characterized in information-theoretic terms by the code rate  $R$  alone.


The graph describes the transmission system considered by Shannon with the blocks source,  encoder,  AWGN channel,  decoder and receiver.  In the background you can see an original figure from a paper about the Shannon theory.  We have drawn in red some designations and explanations for the following text:

  • The source symbol  $U$  comes from an alphabet with  $M_U = |U| = 2^k$  symbols and can be represented by  $k$  equally probable statistically independent binary symbols.
  • The alphabet of the code symbol  $X$  has the symbol set size  $M_X = |X| = 2^n$, where  $n$  results from the code rate  $R = k/n$ .
  • Thus,  for code rate  $R = 1$   ⇒   $n = k$.  The case  $n > k$  leads to a code rate  $R < 1$.


$\text{Channel Coding Theorem}$ 

This states that there is  $($at least$)$  one code of rate  $R$  that leads to symbol error probability  $p_{\rm S} = \text{Pr}(V ≠ U) \equiv 0$  if the following conditions are satisfied:

  • The code rate  $R$  is not larger than the channel capacity  $C$.
  • Such a suitable code is infinitely long:   $n → ∞$.  Therefore, a Gaussian distribution  $f_X(x)$  at the channel input is indeed possible, which has always been the basis of the previous calculation of the AWGN channel capacity:
$$C = {1}/{2} \cdot {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot E_{\rm S} }{N_0}) \hspace{1.2cm}{\rm unit\hspace{-0.15cm}: \hspace{0.05cm}\text{bit/channel use} } \hspace{0.05cm}.$$
  • Thus, the channel input quantity  $X$  is continuous in value.  The same is true for  $U$  and for the quantities  $Y$  and  $V$  after the AWGN channel.
  • For a system comparison,  however,  the  "energy per symbol"  $(E_{\rm S} )$  is unsuitable. 
  • A comparison should rather be based on the "energy per information bit"  $(E_{\rm B})$    ⇒     "energy per bit"  for short.  Thus, with  $E_{\rm B} = E_{\rm S}/R$  also holds:
$$C = {1}/{2} \cdot {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot R \cdot E_{\rm B} }{N_0}) \hspace{0.7cm}{\rm unit\hspace{-0.15cm}: bit/channel \hspace{0.15cm}use} \hspace{0.05cm}.$$

These two equations are discussed in the next section.



The channel capacity  $C$  as a function of  $E_{\rm B}/N_0$


$\text{Example 3:}$  This graph shows the AWGN channel capacity  $C$ 

The AWGN channel capacitance in two different representations.
     The pseudo–unit  "bit/symbol"  is identical to  "bit/channel use".

⇒   as a function of  $10 · \lg (E_{\rm S}/N_0)$   ⇒   red curve:

$$C = {1}/{2} \cdot {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot E_{\rm S} }{N_0}) \hspace{1.5cm}{\rm unit\hspace{-0.15cm}: \hspace{0.05cm}bit/symbol} \hspace{0.05cm}.$$

Red numbers:  Capacity  $C$  in  "bit/symbol"  for abscissas 
   

$$10 · \lg (E_{\rm S}/N_0) = -20 \ \rm dB, -15 \ \rm dB$, ... , $+30\ \rm dB:$$

⇒   as a function of  $10 · \lg (E_{\rm B}/N_0)$   ⇒   green curve:

$$C = {1}/{2} \cdot {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot R \cdot E_{\rm B} }{N_0}) \hspace{1.0cm}{\rm unit\hspace{-0.15cm}: \hspace{0.05cm}bit/symbol} \hspace{0.05cm}.$$

Green numbers:  Required  $10 · \lg (E_{\rm B}/N_0)$  in  "dB" for  ordinate  $($in  "bit/symbol"$)$.

$$C = 0,\ 1,  \text{...} ,  5.$$

⇒   The detailed  $C(E_{\rm B}/N_0)$  calculation can be found in  "Exercise 4.8".
In the following,  we interpret the green  $C(E_{\rm B}/N_0)$  result in comparison to the red  $C(E_{\rm S}/N_0)$  curve:

  1. Because of  $E_{\rm S} = R · E_{\rm B}$,  the Intersection of both curves is at  $C (= R) = 1$  bit/symbol.  Required are  $10 · \lg (E_{\rm S}/N_0) =10 · \lg (E_{\rm B}/N_0) = 1.76$  dB.
  2. For  $C > 1$  the green curve always lies above the red curve,  e.g. for  $10 · \lg (E_{\rm B}/N_0) = 20$  dB   ⇒   $C ≈ 5$;  for  $10 · \lg (E_{\rm S}/N_0) = 20$  dB   ⇒   $C = 3.83$.
  3. Comparison in horizontal direction:  $C = 3$  bit/symbol is already achievable with  $10 · \lg (E_{\rm B}/N_0) \approx 10$  dB,  but one needs  $10 · \lg (E_{\rm S}/N_0) \approx 15$  dB.
  4. For  $C < 1$ , the red curve is always above the green one.  For any  $E_{\rm S}/N_0 > 0$  ⇒  $C > 0$. 
  5. Thus,  for logarithmic abscissa as in the present plot, the red curve extends to  "minus infinity".
  6. The green curve ends at  $E_{\rm B}/N_0 = \ln (2) = 0.693$   ⇒   $10 · \lg (E_{\rm B}/N_0)= -1.59$  dB   ⇒   absolute limit for  $($error-free$)$  transmission over AWGN.


AWGN channel capacity for binary input signals


In the previous sections of this chapter we always assumed a Gaussian distributed,nbsp; i.e. a continuous-valued AWGN input  $X$  according to Shannon theory. 

Calculation of the AWGN channel capacity for BPSK
Conditional PDF for  $X=-1$  $($red$)$  and  $X=+1$  $($blue$)$

Now we consider the binary case and thus only now do justice to the title of the chapter "AWGN channel capacity for discrete-valued input”.  The graph shows the underlying block diagram for  "Binary Phase Shift Keying"  $\rm (BPSK)$  with binary input  $U$  and binary output  $V$. 

  • The best possible encoding is to achieve that the bit error probability becomes vanishingly small:  $\text{Pr}(V ≠ U) \to 0 $ .
  • The encoder output is characterized by the random variable  $X \hspace{0.03cm}' = \{0, 1\}$   ⇒   $M_{X'} = 2$.  The AWGN output  $Y$  remains continuous-valued:   $M_Y → ∞$.
  • Mapping  $X = 1 - 2X\hspace{0.03cm} '$  takes us from the unipolar representation to the bipolar description more suitable for BPSK:   :$$X\hspace{0.03cm} ' = 0 → \ X = +1; \hspace{0.5cm} X\hspace{0.03cm} ' = 1 → X = -1.$$
  • The AWGN channel is characterized by two conditional probability density functions  $\rm (PDFs)$:
$$f_{Y\hspace{0.05cm}|\hspace{0.03cm}{X}}(y\hspace{0.05cm}|\hspace{0.03cm}{X}=+1) =\frac{1}{\sqrt{2\pi\sigma^2}} \cdot {\rm e}^{-{(y - 1)^2}/(2 \sigma^2)} \hspace{0.05cm}\hspace{0.05cm},\hspace{0.5cm}\text{short form:} \ \ f_{Y\hspace{0.05cm}|\hspace{0.03cm}{X}}(y\hspace{0.05cm}|\hspace{0.03cm}+1)\hspace{0.05cm},$$
$$f_{Y\hspace{0.05cm}|\hspace{0.03cm}{X}}(y\hspace{0.05cm}|\hspace{0.03cm}{X}=-1) =\frac{1}{\sqrt{2\pi\sigma^2}} \cdot {\rm e}^{-{(y + 1)^2}/(2 \sigma^2)} \hspace{0.05cm}\hspace{0.05cm},\hspace{0.5cm}\text{short form:} \ \ f_{Y\hspace{0.05cm}|\hspace{0.03cm}{X}}(y\hspace{0.05cm}|\hspace{0.03cm}-1)\hspace{0.05cm}.$$
  • Since here the signal  $X$  is normalized to  $±1$    ⇒   power  $1$  instead of  $P_X$,  the variance of the AWGN noise  $N$  must be normalized in the same way:   $σ^2 = P_N/P_X$.
  • The receiver makes a   "maximum likelihood decision"  from the real-valued random variable  $Y$  $($at the AWGN channel output$)$   ⇒   the receiver output  $V$  is binary  $(0$  or  $1)$.


Based on this model,  we now calculate the channel capacity of the AWGN channel.  For a binary input variable  $X$,  this is generally  

$$\text{Pr}(X = -1) = 1 - \text{Pr}(X = +1) \hspace{0.3cm} \Rightarrow \hspace{0.3cm} C_{\rm BPSK} = \max_{ {\rm Pr}({X} =+1)} \hspace{-0.15cm} I(X;Y) \hspace{0.05cm}.$$

Due to the symmetrical channel,  it is obvious that the input probabilities

$${\rm Pr}(X =+1) = {\rm Pr}(X =-1) = 0.5 $$

will lead to the optimum.  According to the section  "Calculation of mutual information with additive noise",  there are several calculation possibilities:

  • $ C_{\rm BPSK} = h(X) + h(Y) - h(XY)\hspace{0.05cm},$
  • $C_{\rm BPSK} = h(Y) - h(Y|X)\hspace{0.05cm},$
  • $C_{\rm BPSK} = h(X) - h(X|Y)\hspace{0.05cm}. $


Comparison of the channel capacity limits  $C_{\rm BPSK}$  and  $C_{\rm Gaussian}$;  here,  $10 · \lg (SNR)$  is drawn as a second,  additional abscissa axis;  "SNR"  stands for  "signal-to-noise ratio"

All results still have to be supplemented by the pseudo-unit  "bit/channel use".   We choose the middle equation here:

  • The conditional differential entropy required for this is equal to
$$h(Y\hspace{0.03cm}|\hspace{0.03cm}X) = h(N) = 1/2 \cdot {\rm log}_2 \hspace{0.1cm}(2\pi{\rm e}\cdot \sigma^2) \hspace{0.05cm}. $$
  • The differential entropy  $h(Y)$  is completely given by the PDF  $f_Y(y)$.  Using the conditional PDFs defined and sketched in the second graph on this page,  we obtain:
$$f_Y(y) = {1}/{2} \cdot \big [ f_{Y\hspace{0.03cm}|\hspace{0.03cm}{X}}(y\hspace{0.05cm}|\hspace{0.05cm}{X}=-1) + f_{Y\hspace{0.03cm}|\hspace{0.03cm}{X}}(y\hspace{0.05cm}|\hspace{0.05cm}{X}=+1) \big ]$$
$$\Rightarrow \hspace{0.3cm} h(Y) \hspace{-0.01cm}=\hspace{0.05cm} -\hspace{-0.7cm} \int\limits_{y \hspace{0.05cm}\in \hspace{0.05cm}{\rm supp}(f_Y)} \hspace{-0.65cm} f_Y(y) \cdot {\rm log}_2 \hspace{0.1cm} [f_Y(y)] \hspace{0.1cm}{\rm d}y \hspace{0.05cm}.$$
  • It is obvious that  $h(Y)$  can only be determined by numerical integration,  especially if we consider that  $f_Y(y)$  in the overlap region results from the sum of two Gaussian functions.


In the graph on the right,  three curves are shown above the abscissa  $10 · \lg (E_{\rm B}/N_0)$:

  • the channel capacity  $C_{\rm Gaussian}$,  drawn in blue,  valid for a Gaussian input quantity  $X$   ⇒   $M_X → ∞$,
  • the channel capacity  $C_{\rm BPSK}$  drawn in green for the random quantity  $X = (+1, –1)$,  and
  • the red horizontal line marked  "BPSK without coding".


These curves can be interpreted as follows:

  1. The green curve  $C_{\rm BPSK}$  indicates the maximum permissible code rate  $R$  of  "Binary Phase Shift Keying"  at which the bit error probability   $p_{\rm B} \equiv 0$   is possible for the given  $E_{\rm B}/N_0$  by best possible coding.
  2. For all BPSK systems with coordinates  $(10 · \lg \ E_{\rm B}/N_0, \ R)$  in the  "green range"  ⇒   $p_{\rm B} \equiv 0$  is achievable in principle.  It is the task of communications engineers to find suitable codes for this.
  3. The BPSK curve always lies below the absolute Shannon limit curve  $C_{\rm Gaussian}$  for  $M_X → ∞$  $($blue curve$)$.  In the lower range,  $C_{\rm BPSK} ≈ C_{\rm Gaussian}$.  For example, a BPSK system with  $R = 1/2$  only has to provide a  $0.1\ \rm dB$  larger  $E_{\rm B}/N_0$  than required by the  $($absolute$)$  channel capacity  $C_{\rm Gaussian}$.
  4. If  $E_{\rm B}/N_0$  is finite,  $C_{\rm BPSK} < 1$   always applies   ⇒   see  "Exercise 4.9Z".  BPSK with  $R = 1$  $($and thus without coding$)$  will therefore always result in a bit error probability  $p_{\rm B} > 0$.
  5. The bit error probabilities of such a BPSK system without coding  $(R = 1)$  are indicated on the red horizontal line.  To achieve  $p_{\rm B} ≤ 10^{–5}$,  one needs at least  $10 · \lg (E_{\rm B}/N_0) = 9.6\ \rm dB$.  According to the chapter  "Error probability of the optimal BPSK system",  these probabilities result in
$$p_{\rm B} = {\rm Q} \left ( {\rm \sqrt{SNR}}\right ) \hspace{0.45cm} {\rm with } \hspace{0.45cm} {\rm SNR }= 2\cdot E_{\rm B}/{N_0} \hspace{0.05cm}. $$

Comparison between theory and practice


Two graphs are used to show how far established channel codes approach the BPSK channel capacity  $($green curve$)$.  The rate  $R = k/n$  of these codes or the capacity  $C$  $($if the pseudo-unit  "bit/channel use"  is added$)$  is plotted as the ordinate.  Provided is:

  • the AWGN channel,  marked by  $10 · \lg (E_{\rm B}/N_0)$  in dB,  and
  • for the realized codes marked by crosses, a  "bit error rate"  of  $\rm BER=10^{–5}$.


Note that the channel capacity curves are always for  $n → ∞$  and  $\rm BER \equiv 0$.

  • If one were to apply this strict requirement  "error-free"  also to the channel codes of finite code length  $n$,   $10 · \lg \ (E_{\rm B}/N_0) \to \infty$ would always be required.
  • However,  this is a rather academic problem,  i.e. of little practical relevance.  For  $\text{BER} = 10^{–10}$,  a qualitatively similar graph would result.


$\text{Example 4:}$  The graph shows the characteristics of early systems with channel coding and classical decoding.  Some explanations of the data follow,  which were taken from the lecture  [Liv10][1].  The links in these explanations often refer to the  $\rm LNTwww$  book  "Channel Coding".

Rates and required  $E_{\rm B}/{N_0}$  of different channel codes
  1. Points  $\rm A$,  $\rm B$,  $\rm C$  marks  "Hamming codes"  of rates  $R = 4/7 ≈ 0.57$,  $R ≈ 0.73$  and  $R ≈ 0.84$,  resp. 
  2. For  $\text{BER} = 10^{–5}$,  these very early codes  $($from the 1950s$)$  all require   $10 · \lg (E_{\rm B}/N_0) > 8\ \rm dB$.
  3. Point  $\rm D$  indicates the binary  "Golay code"  with rate  $R = 1/2$  and point  $\rm E$  a  "Reed–Muller code".  This very low-rate code was already used in 1971 on the  "Mariner 9 space probe" .
  4. The  "Reed–Solomon codes"  from the 1960s  are a class of cyclic block codes.  $\rm F$ marks an RS code of rate  $223/255 \approx 0.875$  and a required  $E_{\rm B}/N_0 < 6 \ \rm dB$.
  5. $\rm G$  and  $\rm H$  denote two  "convolutional codes"  $\rm (CC)$  of medium rate.  The code  $\rm G$  was already used in 1972 for the  "Pioneer 10 mission".
  6. The channel coding of the  "Voyager mission"  at the end of the 1970s is marked  $\rm I$ . It is the  "concatenation"  of a  $\text{CC(2, 1, 7)}$  with a Reed-Solomon code.


It should be noted that in the convolutional codes the third parameter has a different meaning than in the block codes.  For example, the identifier  $\text{(2, 1, 32)}$  indicates the memory  $m = 32$ .


$\text{Example 5:}$  The early channel codes mentioned in  $\text{Example 4}$  are still relatively far away from the channel capacity curve.   This was probably also a reason why the author of this learning tutorial was unaware of the also great practical significance of information theory when he became acquainted with it in his studies in the early 1970s.  The view changed significantly when very long channel codes together with iterative decoding appeared in the 1990s.  The new marker points are much closer to the capacity limit curve.

Rates and required  $E_{\rm B}/{N_0}$  of iterative coding methods

Here are a few more explanations of this graph:

  1. Red crosses mark the so-called  "turbo codes"  according  $\rm CCSDS$  $($"Consultative Committee for Space Data Systems"$)$  with  $k = 6920$  information bits each and different code lengths  $n = k/R$. 
  2. These codes,  invented by  $\text{Claude Berrou}$  around 1990,  can be decoded iteratively.  The  $($red$)$  markings are each less than  $1 \ \rm dB$  away from the Shannon bound.
  3. The  "LDPC codes"  ("Low Density Parity–check Codes")  with constant code length  $n = 64800$   ⇒   white rectangles have been used since 2006 for  "DVB–S2"  ("Digital Video Broadcast over Satellite"). 
  4. They are very well suited for iterative decoding by means of  "text{Factor Graph"  and  "Exit Charts" due to the sparse one assignment of the check matrix.
  5. Black dots mark the  "LDPC codes"  specified by  $\rm CCSDS$  with constant number of information bits  $(k = 16384)$  and variable word length  $n = k/R$.  This code class requires a similar  $E_{\rm B}/N_0$  to the red crosses and white rectangles.
  6. Around the year 2000,  many researchers had the ambition to approach the Shannon limit to within fractions of a  $\rm dB$ .  The yellow cross marks such a result  $(0.0045 \ \rm dB)$  of  [CFRU01][2]  with an irregular LDPC code of rate  $ R =1/2$  and length  $n = 10^7$.


$\text{Conclusion:}$  At this point,  the brilliance and farsightedness of  $\text{Claude E. Shannon}$  should be emphasized once again:

  • In 1948,  he developed a theory that had not been known before,  showing the possibilities,  but also the limits of digital signal transmission.
  • At that time,  the first thoughts on digital signal transmission were only ten years old   ⇒   "pulse code modulation"  $\text{(Alec Reeves}$, 1938$)$  and even the pocket calculator did not arrive until more than twenty years later.
  • Shannon's work shows us that great things can also be done without gigantic computers.


Channel capacity of the complex AWGN channel


Higher-level modulation methods can each be represented by an  "in-phase"  and a  "quadrature component".  These include,  for example

  • the  $\text{M–QAM}$    ⇒   quadrature amplitude modulation;  $M ≥ 4$   quadrature signal space points,
  • the  $\text{M–PSK}$   ⇒   $M ≥ 4$   signal space points arranged in a circle.


The two components can also be described in the  "equivalent low-pass range"  as the  "real part"  and the  "imaginary part"  of a complex noise term  $N$,  respectively.

  • All the above methods are two-dimensional.
  • The  $($complex$)$  AWGN channel thus provides  $K = 2$  independent Gaussian channels.
2D–PDF of complex Gaussian noise
$$C_{\text{ Gaussian, complex} }= C_{\rm total} ( K=2) = {\rm log}_2 \hspace{0.1cm} ( 1 + \frac{P_X/2}{\sigma^2}) \hspace{0.05cm}.$$
  • $P_X$  denotes the total useful power of the inphase and the quadrature components.
  • In contrast,  the variance  $σ^2$  of the perturbation refers to only one dimension:   $σ^2 = σ_{\rm I}^2 = σ_{\rm Q}^2$.


The sketch on the right shows the two-dimensional PDF  $f_N(n)$  of the Gaussian noise process  $N$  over the two axes:

  • $N_{\rm I}$  $($inphase component,  real component$)$  and
  • $N_{\rm Q}$  $($quadrature component,  imaginary part$)$.


Darker areas of the rotationally symmetrical PDF  $f_N(n)$  around the zero point indicate more noise components.  The following relationship applies to the variance of the complex Gaussian noise  $N$  due to the rotational invariance  $(σ_{\rm I} = σ_{\rm Q})$:

$$\sigma_N^2 = \sigma_{\rm I}^2 + \sigma_{\rm Q}^2 = 2\cdot \sigma^2 \hspace{0.05cm}.$$

Thus,  the channel capacity can also be expressed as follows:

$$C_{\text{ Gaussian, complex} }= {\rm log}_2 \hspace{0.1cm} ( 1 + \frac{P_X}{\sigma_N^2}) = {\rm log}_2 \hspace{0.1cm} ( 1 + SNR) \hspace{0.05cm}.$$

The equation is evaluated numerically in the next section.  However,  we can already say that for the signal-to-noise power ratio will be:

$$\rm SNR = {P_X}/{\sigma_N^2} \hspace{0.05cm}.$$

Maximum code rate for QAM structures


Channel capacity of  $\rm BPSK$  and  $M\text{–QAM}$

The graph shows the capacity of the complex AWGN channel as a red curve:

$$C_{\text{ Gaussian, complex} }= {\rm log}_2 \hspace{0.1cm} ( 1 + \rm SNR) \hspace{0.05cm}.$$
  • The unit of this channel capacity is  "bit/channel use"  or  "bit/source symbol".
  • The abscissa denotes the signal-to-interference power ratio  $10 · \lg \rm (SNR)$  with  $\rm {SNR} = P_X/σ_N^2$.
  • The graph was taken from  [Göb10][3].    We would like to thank our former colleague  $\text{Bernhard Göbel}$  for his permission to use this figure and for his great support of our learning tutorial during his entire active time.


According to Shannon theory,  the red curve is again based on a Gaussian distribution  $f_X(x)$  at the input.  Additionally drawn in are ten further capacitance curves for discrete-valued input:



One can see from this representation:

  1. All curves  $($BPSK and  M–QAM$)$  lie right of the red  "Shannon limit"  curve. 
  2. At low  SNR,  however,  all curves are almost indistinguishable from the red curve.
  3. The final value of all curves for discrete-valued input signals is  $K = \log_2 (M)$.  For example,  for  $\rm SNR \to ∞$:  $C_{\rm BPSK} = 1$  $($bit/use$)$,  $C_{\rm 4-QAM} = C_{\rm QPSK} = 2$.
  4. The blue markings show that a  $\rm 2^{10}–QAM$  with  $10 · \lg \rm (SNR) ≈ 27 \ \rm dB$  allows a code rate of  $R ≈ 8.2$.  Distance to the Shannon curve:  $1.53\ \rm dB$.
  5. Therefor the  "shaping gain"  is  $10 · \lg (π \cdot {\rm e}/6) = 1.53 \ \rm dB$.  This improvement can be achieved by changing the position of the  $2^{10} = 32^2$  square signal space points to give a Gaussian-like input PDF   ⇒  "signal shaping".


$\text{Conclusion:}$    "Exercise 4.10"  discusses the AWGN capacity curves of BPSK and QPSK:

  • Starting from the abscissa   $10 · \lg (E_{\rm B}/N_0)$   with   $E_{\rm B}$  $($energy per information bit$)$  one arrives at the QPSK curve by doubling the BPSK curve:
$$C_{\rm QPSK}\big [10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm B}/{N_0})\big ] = 2 \cdot C_{\rm BPSK}\big [10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm B}/{N_0}) \big ] .$$
  • However,  if we compare BPSK and QPSK at the same energy  $E_{\rm S}$  per information symbol,  then:
$$C_{\rm QPSK}[10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm S}/{N_0})] = 2 \cdot C_{\rm BPSK}[10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm S}/{N_0}) - 3\,{\rm dB}] .$$
This takes into account that with QPSK the energy in one dimension is only  $E_{\rm S}/2$ .

Exercises for the chapter


Exercise 4.8: Numerical Analysis of the AWGN Channel Capacity

Exercise 4.8Z: What does the AWGN Channel Capacity Curve say?

Exercise 4.9: Higher-Level Modulation

Exercise 4.9Z: Is Channel Capacity C ≡ 1 possible with BPSK?

Exercise 4.10:   QPSK Channel Capacity

References

  1. Liva, G.:  Channel Coding. Lecture manuscript, Chair of Communications Engineering, TU München and DLR Oberpfaffenhofen, 2010.
  2. Chung S.Y; Forney Jr., G.D.; Richardson, T.J.; Urbanke, R.:  On the Design of Low-Density Parity- Check Codes within 0.0045 dB of the Shannon Limit. –
    In: IEEE Communications Letters, vol. 5, no. 2 (2001), pp. 58–60.
  3. Göbel, B.:  Information–Theoretic Aspects of Fiber–Optic Communication Channels. Dissertation. TU München.
    Verlag Dr. Hut, Reihe Informationstechnik, ISBN 978-3-86853-713-0, 2010.