Difference between revisions of "Channel Coding/Information Theoretical Limits of Channel Coding"

From LNTwww
Line 25: Line 25:
 
$\text{Inverse:}$&nbsp;  If the code rate&nbsp; $R$&nbsp; is larger than the channel capacity&nbsp; $C$, then an arbitrarily small error probability cannot be achieved in any case}}.<br>
 
$\text{Inverse:}$&nbsp;  If the code rate&nbsp; $R$&nbsp; is larger than the channel capacity&nbsp; $C$, then an arbitrarily small error probability cannot be achieved in any case}}.<br>
  
To derive and calculate the channel capacity, we first assume a digital channel with&nbsp; $M_x$&nbsp; possible input values&nbsp; $x$&nbsp; and&nbsp; $M_y$&nbsp; possible output values&nbsp; $y$&nbsp;. Then, for the mean mutual information&ndash; briefly, the&nbsp; [[Information_Theory/Different_Entropy_Measures_of_Two-Dimensional_Random_Variables#Mutual_information_between_two_random_variables|mutual information]]&nbsp; &ndash; between the random variable&nbsp; $x$&nbsp; at the channel input and the random variable&nbsp; $y$&nbsp; at its output:
+
To derive and calculate the channel capacity, we first assume a digital channel with&nbsp; $M_x$&nbsp; possible input values&nbsp; $x$&nbsp; and&nbsp; $M_y$&nbsp; possible output values&nbsp; $y$&nbsp;. Then, for the mean mutual information&ndash; briefly, the&nbsp; [[Information_Theory/Different_Entropy_Measures_of_Two-Dimensional_Random_Variables#Mutual_information_between_two_random_variables|"mutual information"]]&nbsp; &ndash; between the random variable&nbsp; $x$&nbsp; at the channel input and the random variable&nbsp; $y$&nbsp; at its output:
  
 
::<math>I(x; y) =\sum_{i= 1 }^{M_X} \hspace{0.15cm}\sum_{j= 1 }^{M_Y} \hspace{0.15cm}{\rm Pr}(x_i, y_j) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i)}{{\rm Pr}(y_j)} =  \sum_{i= 1 }^{M_X} \hspace{0.15cm}\sum_{j= 1 }^{M_Y}\hspace{0.15cm}{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i) \cdot {\rm Pr}(x_i) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i)}{\sum_{k= 1}^{M_X} {\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_k) \cdot {\rm Pr}(x_k)}
 
::<math>I(x; y) =\sum_{i= 1 }^{M_X} \hspace{0.15cm}\sum_{j= 1 }^{M_Y} \hspace{0.15cm}{\rm Pr}(x_i, y_j) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i)}{{\rm Pr}(y_j)} =  \sum_{i= 1 }^{M_X} \hspace{0.15cm}\sum_{j= 1 }^{M_Y}\hspace{0.15cm}{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i) \cdot {\rm Pr}(x_i) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i)}{\sum_{k= 1}^{M_X} {\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_k) \cdot {\rm Pr}(x_k)}
 
  \hspace{0.05cm}.</math>
 
  \hspace{0.05cm}.</math>
  
In the transition from the first to the second equation, the&nbsp; [[Theory_of_Stochastic_Signals/Statistical_Dependence_and_Independence#Conditional_Probability| Theorem of Bayes]]&nbsp; and the&nbsp; [[Theory_of_Stochastic_Signals/Statistical_Dependence_and_Independence#Inference_probability| Theorem of Total Probability]]&nbsp; were considered.  
+
In the transition from the first to the second equation, the&nbsp; [[Theory_of_Stochastic_Signals/Statistical_Dependence_and_Independence#Conditional_Probability| "Theorem of Bayes"]]&nbsp; and the&nbsp; [[Theory_of_Stochastic_Signals/Statistical_Dependence_and_Independence#Inference_probability| "Theorem of Total Probability"]]&nbsp; were considered.  
  
 
Further, it should be noted:  
 
Further, it should be noted:  
*Der <i>Logarithmus dualis</i>&nbsp; ist hier mit "log<sub>2</sub>" bezeichnet ist. Teilweise verwenden wir in unserem  Lerntutorial hierfür  auch "ld".  
+
*The <i>binary logarithm </i>&nbsp; is denoted here with "log<sub>2</sub>". Partially, we also use "ld" ('''Logarithmus dualis''' in German) for this in our learning tutorial .  
*Im Gegensatz zum Buch&nbsp; [[Informationstheorie]]&nbsp; unterscheiden wir im Folgenden nicht zwischen der Zufallsgröße $($Großbuchstaben&nbsp; $X$&nbsp; bzw.&nbsp; $Y)$&nbsp; und den Realisierungen $($Kleinbuchstaben&nbsp; $x$&nbsp; bzw.&nbsp; $y)$.<br>
+
*In contrast to the book&nbsp; "[[Information_Theory]]"&nbsp; we do not distinguish in the following between the random variable $($upper case letters&nbsp; $X$&nbsp; or&nbsp; $Y)$&nbsp; and the realizations $($lower case letters&nbsp; $x$&nbsp; bzw.&nbsp; $y)$.<br>
  
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp;  Die von Shannon eingeführte&nbsp; '''Kanalkapazität'''&nbsp; gibt die maximale Transinformation&nbsp; $I(x; y)$&nbsp; zwischen der Eingangsgröße&nbsp; $x$&nbsp; und der Ausgangsgröße&nbsp; $y$&nbsp; an:
+
$\text{Definition:}$&nbsp;  The&nbsp; '''channel capacity''''&nbsp; introduced by Shannon gives the maximum mutual information&nbsp; $I(x; y)$&nbsp; between the input variable&nbsp; $x$&nbsp; and the output variable&nbsp; $y$&nbsp; :
 
 
 
::<math>C = \max_{{{\rm Pr}(x_i)}} \hspace{0.1cm} I(X; Y) \hspace{0.05cm}.</math>
 
::<math>C = \max_{{{\rm Pr}(x_i)}} \hspace{0.1cm} I(X; Y) \hspace{0.05cm}.</math>
  
Hinzugefügt werden muss die Pseudo&ndash;Einheit "bit/Kanalzugriff".}}<br>
+
The pseudo&ndash;unit "bit/channel use" must be added.}}<br>
  
Da die Maximierung der Transinformation über alle möglichen (diskreten) Eingangsverteilungen&nbsp; ${\rm Pr}(x_i)$&nbsp; erfolgen muss, ist die Kanalkapazität unabhängig vom Eingang und damit eine reine Kanalkenngröße.<br>
+
Since the maximization of the mutual information must be done over all possible (discrete) input distributions&nbsp; ${\rm Pr}(x_i)$&nbsp; the channel capacity is independent of the input and thus a pure channel parameter.<br>
  
== Kanalkapazität des BSC–Modells ==
+
== Channel capacity of the BSC model ==
 
<br>
 
<br>
Wir wenden nun diese Definitionen auf das&nbsp; [[Channel_Coding/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC|BSC&ndash;Modell]]&nbsp; (''Binary Symmetric Channel&nbsp;'') an:
+
We now apply these definitions to the&nbsp; [[Channel_Coding/Channel_Models_and_Decision_Structures#Binary_Symmetric_Channel_.E2.80.93_BSC|"BSC model"]]&nbsp; (''Binary Symmetric Channel&nbsp;''):
  
 
::<math>I(x; y) = {\rm Pr}(y = 0 \hspace{0.03cm}| \hspace{0.03cm}x = 0) \cdot {\rm Pr}(x = 0)  
 
::<math>I(x; y) = {\rm Pr}(y = 0 \hspace{0.03cm}| \hspace{0.03cm}x = 0) \cdot {\rm Pr}(x = 0)  
Line 61: Line 60:
 
  \hspace{0.05cm}.</math>
 
  \hspace{0.05cm}.</math>
  
[[File:KC_T_1_7_Zusatz_version2.png|right|frame|BSC–Kanalmodell|class=fit]]
+
[[File:KC_T_1_7_Zusatz_version2.png|right|frame|BSC channel model|class=fit]]
  
Zur Kanalkapazität gelangt man durch folgende Überlegungen:
+
The channel capacity is arrived at by the following considerations:
*Die Maximierung bezüglich der Eingangsverteilung führt auf gleichwahrscheinliche Symbole:
+
*Maximization with respect to the input distribution leads to equally probable symbols:
  
 
::<math>{\rm Pr}(x = 0) = {\rm Pr}(x = 1) = 1/2
 
::<math>{\rm Pr}(x = 0) = {\rm Pr}(x = 1) = 1/2
 
  \hspace{0.05cm}.</math>
 
  \hspace{0.05cm}.</math>
  
*Aufgrund der aus dem Modell erkennbaren Symmetrie gilt dann gleichzeitig:
+
*Due to the symmetry evident from the model, the following then holds simultaneously:
  
 
::<math>{\rm Pr}(y = 0) = {\rm Pr}(y = 1) = 1/2
 
::<math>{\rm Pr}(y = 0) = {\rm Pr}(y = 1) = 1/2
 
  \hspace{0.05cm}.</math>
 
  \hspace{0.05cm}.</math>
  
*Wir berücksichtigen zudem die BSC&ndash;Übergangswahrscheinlichkeiten:
+
*We also consider the BSC transmission probabilities:
  
 
::<math>{\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 0) = {\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 1) = \varepsilon \hspace{0.05cm},</math>
 
::<math>{\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 0) = {\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 1) = \varepsilon \hspace{0.05cm},</math>
 
::<math>{\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 0) = {\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 1) = 1-\varepsilon  \hspace{0.05cm}.</math>
 
::<math>{\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 0) = {\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 1) = 1-\varepsilon  \hspace{0.05cm}.</math>
  
*Nach Zusammenfassen je zweier Terme erhält man somit:
+
*After combining two terms each, we thus obtain:
  
 
::<math>C \hspace{0.15cm}  =  \hspace{0.15cm} 2 \cdot 1/2 \cdot \varepsilon \cdot {\rm log_2 } \hspace{0.15cm}\frac{\varepsilon}{1/2 }+  
 
::<math>C \hspace{0.15cm}  =  \hspace{0.15cm} 2 \cdot 1/2 \cdot \varepsilon \cdot {\rm log_2 } \hspace{0.15cm}\frac{\varepsilon}{1/2 }+  
Line 86: Line 85:
 
::<math>\Rightarrow \hspace{0.3cm} C \hspace{0.15cm}  =  \hspace{0.15cm}  1 - H_{\rm bin}(\varepsilon). </math>
 
::<math>\Rightarrow \hspace{0.3cm} C \hspace{0.15cm}  =  \hspace{0.15cm}  1 - H_{\rm bin}(\varepsilon). </math>
  
*Verwendet ist hier die ''binäre Entropiefunktion'':
+
*The ''binary entropy function'' is used here:
  
 
::<math>H_{\rm bin}(\varepsilon) =  \varepsilon \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{\varepsilon}+  
 
::<math>H_{\rm bin}(\varepsilon) =  \varepsilon \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{\varepsilon}+  
 
(1- \varepsilon)  \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{1- \varepsilon}\hspace{0.05cm}.</math>
 
(1- \varepsilon)  \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{1- \varepsilon}\hspace{0.05cm}.</math>
  
Die folgende rechte Grafik zeigt die BSC&ndash;Kanalkapazität abhängig von der Verfälschungswahrscheinlichkeit&nbsp; $\varepsilon$. Links ist zum Vergleich die binäre Entropiefunktion dargestellt, die bereits im Kapitel&nbsp; [[Information_Theory/Ged%C3%A4chtnislose_Nachrichtenquellen#Bin.C3.A4re_Entropiefunktion|Gedächtnislose Nachrichtenquellen]]&nbsp; des Buches "Informationstheorie" definiert wurde.<br>
+
The following right graph shows the BSC channel capacity depending on the corruption probability&nbsp; $\varepsilon$. On the left, for comparison, the binary entropy function is shown, which has already been defined in the chapter&nbsp; [[Information_Theory/Discrete_Memoryless_Sources#Binary_entropy_function|"memoryless sources"]]&nbsp; of the book "Information Theory".<br>
  
 
[[File:P ID2379 KC T 1 7 S2 v2.png|center|frame|Kanalkapazität des BSC–Modells|class=fit]]
 
[[File:P ID2379 KC T 1 7 S2 v2.png|center|frame|Kanalkapazität des BSC–Modells|class=fit]]
Man erkennt aus dieser Darstellung:
+
One can see from this representation:
*Die Verfälschungswahrscheinlichkeit&nbsp; $\varepsilon$&nbsp; führt zur Kanalkapazität $C(\varepsilon)$. Eine fehlerfreie Decodierung nach bestmöglicher Codierung ist nach dem&nbsp; [[Channel_Coding/Informationstheoretische_Grenzen_der_Kanalcodierung#Kanalcodierungstheorem_und_Kanalkapazit.C3.A4t |Kanalcodierungstheorem]]&nbsp; nur dann möglich, wenn die Coderate $R$ nicht größer ist als&nbsp; $C(\varepsilon)$.
+
*The corruption probability&nbsp; $\varepsilon$&nbsp; leads to the channel capacity $C(\varepsilon)$. According to the&nbsp; [[Channel_Coding/Information_Theoretical_Limits_of_Channel_Coding#Channel_coding_theorem_and_channel_capacity |"channel coding theorem"]]&nbsp; error-free decoding is only possible if the code rate $R$ is not greater than&nbsp; $C(\varepsilon)$.
 +
 
  
*Mit&nbsp; $\varepsilon = 10\%$&nbsp; ist wegen&nbsp; $C(0.1) = 0.531$&nbsp; eine fehlerfreie Decodierung nicht möglich, wenn die Coderate&nbsp; $R > 0.531$&nbsp; beträgt. Bei 50&ndash;prozentiger Verfälschung ist eine fehlerfreie Decodierung auch bei beliebig kleiner Coderate unmöglich: &nbsp; $C(0.5) = 0$ .<br>
+
*With&nbsp; $\varepsilon = 10\%$&nbsp; error-free decoding is impossible because of&nbsp; $C(0.1) = 0.531$&nbsp; if the code rate&nbsp; $R > 0.531$&nbsp;. At 50&ndash;percent corruption, error-free decoding is impossible even if the code rate is arbitrarily small: &nbsp; $C(0.5) = 0$ .<br>
  
*Aus informationstheoretischer Sicht ist&nbsp; $\varepsilon = 1$&nbsp; (Invertierung aller Bits) gleich gut wie&nbsp; $\varepsilon = 0$&nbsp; (fehlerfreie Übertragung). Ebenso ist&nbsp; $\varepsilon = 0.9$&nbsp; äquivalent zu&nbsp; $\varepsilon = 0.1$. Eine fehlerfreie Decodierung erzielt man hier durch Vertauschen der Nullen und Einsen, also durch ein  so genanntes <i>Mapping</i>.<br>
+
*From an information theory point of view&nbsp; $\varepsilon = 1$&nbsp; (inversion of all bits) is equivalent to&nbsp; $\varepsilon = 0$&nbsp; (error-free transmission). Similarly&nbsp; $\varepsilon = 0.9$&nbsp; is equivalent to&nbsp; $\varepsilon = 0.1$. Error-free decoding is achieved here by swapping the zeros and ones, i.e. by a so-called <i>mapping</i>.<br>
  
== Kanalkapazität des AWGN–Modells==
+
== Channel capacity of the AWGN model==
 
<br>
 
<br>
[[File:P ID2372 KC T 1 7 S3a.png|right|frame|AWGN–Kanalmodell|class=fit]]
+
[[File:P ID2372 KC T 1 7 S3a.png|right|frame|AWGN channel model|class=fit]]
Wir betrachten nun den&nbsp; [[Digitalsignalübertragung/Systemkomponenten_eines_Basisbandübertragungssystems#.C3.9Cbertragungskanal_und_St.C3.B6rungen|AWGN&ndash;Kanal]]&nbsp; (<i>Additive White Gaussian Noise</i>&nbsp;). Hier gilt für das Ausgangssignal&nbsp; $y = x + n$, wobei&nbsp; $n$&nbsp; eine&nbsp; [[Theory_of_Stochastic_Signals/Gaußverteilte_Zufallsgrößen|gaußverteilte Zufallsgröße]]&nbsp; beschreibt, und es gilt für deren Erwartungswerte (Momente):
+
We now consider the&nbsp; [[Digital_Signal_Transmission/System_Components_of_a_Baseband_Transmission_System#Transmission_channel_and_interference|AWGN channel]]&nbsp; (<i>Additive White Gaussian Noise</i>&nbsp;). Here, for the output signal&nbsp; $y = x + n$, where&nbsp; $n$&nbsp; describes a&nbsp; [[Theory_of_Stochastic_Signals/Gaussian_Distributed_Random_Variables|Gaussian distributed random variable]]&nbsp; and it applies to their expected values (moments):
 
:$${\rm E}[n] = 0,\hspace{1cm} {\rm E}[n^2] = P_n.$$
 
:$${\rm E}[n] = 0,\hspace{1cm} {\rm E}[n^2] = P_n.$$
  
Damit ergibt sich unabhängig vom Eingangssignal&nbsp; $x$&nbsp; (analog oder digital) stets ein wertkontinuierliches Ausgangssignal&nbsp; $y$, und in der&nbsp; [[Channel_Coding/Informationstheoretische_Grenzen_der_Kanalcodierung#Kanalcodierungstheorem_und_Kanalkapazit.C3.A4t|Gleichung für die Transinformation]]&nbsp; ist&nbsp; $M_y \to\infty$&nbsp; einzusetzen.<br>
+
Thus, regardless of the input signal&nbsp; $x$&nbsp; (analog or digital), there is always a continuous value output signal&nbsp; $y$, and in the&nbsp; [[Channel_Coding/Information_Theoretical_Limits_of_Channel_Coding#Channel_coding_theorem_and_channel_capacity|equation for transinformation]]&nbsp; is to be used&nbsp; $M_y \to\infty$&nbsp;.<br>
  
Die Berechnung der Kanalkapazität für den AWGN&ndash;Kanal wird hier nur in Stichworten angegeben. Die genaue Herleitung finden Sie im vierten Hauptkapitel "Wertdiskrete Informationstheorie" des Buches&nbsp; [[Informationstheorie]].
+
The calculation of the channel capacity for the AWGN channel is given here only in keywords. The exact derivation can be found in the fourth main chapter "Discrete Value Information Theory" of the book&nbsp; "[[Information_theory]]".
*Die im Hinblick auf maximale Transinformation optimierte Eingangsgröße&nbsp; $x$&nbsp; wird mit Sicherheit wertkontinuierlich sein, das heißt, beim AWGN&ndash;Kanal gilt außer&nbsp; $M_y \to\infty$&nbsp; auch&nbsp; $M_x \to\infty$.
+
*The input quantity&nbsp; $x$&nbsp; optimized with respect to maximum mutual information will certainly be value continuous, that is, for the AWGN channel, in addition to&nbsp; $M_y \to\infty$&nbsp; also&nbsp; $M_x \to\infty$ holds.
  
*Während bei wertdiskretem Eingang über alle&nbsp; ${\rm Pr}(x_i)$&nbsp; zu optimieren ist, erfolgt nun die Optimierung anhand der&nbsp; [[Theory_of_Stochastic_Signals/Gau%C3%9Fverteilte_Zufallsgr%C3%B6%C3%9Fe#Wahrscheinlichkeitsdichte-_und_Verteilungsfunktion| WDF]]&nbsp; $f_x(x)$ des Eingangssignals unter der Nebenbedingung&nbsp; [[Digitalsignal%C3%BCbertragung/Optimierung_der_Basisband%C3%BCbertragungssysteme#Leistungs.E2.80.93_und_Spitzenwertbegrenzung| Leistungsbegrenzung]]:
+
*While for discrete value input optimization is to be done over all&nbsp; ${\rm Pr}(x_i)$&nbsp; now optimization is done using the&nbsp; [[Theory_of_Stochastic_Signals/Gaussian_Distributed_Random_Variables#Probability_density_function_. E2.80.93_Cumulative_density_function| PDF]]&nbsp; $f_x(x)$ of the input signal under the constraint&nbsp; [[Digital_Signal_Transmission/Optimization_of_Baseband_Transmission_Systems#Power_and_peak_limitation| Power Limitation]]:
  
 
::<math>C = \max_{f_x(x)} \hspace{0.1cm} I(x; y)\hspace{0.05cm},\hspace{0.3cm}{\rm wobei \hspace{0.15cm} gelten  \hspace{0.15cm} muss} \text{:}\hspace{0.15cm} {\rm E} \left [ x^2 \right ] \le P_x  \hspace{0.05cm}.</math>
 
::<math>C = \max_{f_x(x)} \hspace{0.1cm} I(x; y)\hspace{0.05cm},\hspace{0.3cm}{\rm wobei \hspace{0.15cm} gelten  \hspace{0.15cm} muss} \text{:}\hspace{0.15cm} {\rm E} \left [ x^2 \right ] \le P_x  \hspace{0.05cm}.</math>
  
*Die Optimierung liefert für die Eingangs&ndash;WDF ebenfalls eine Gaußverteilung &nbsp; &#8658; &nbsp; $x$,&nbsp; $n$&nbsp; und&nbsp; $y$&nbsp; sind gaußverteilt gemäß den Dichtefunktionen&nbsp; $f_x(x)$,&nbsp; $f_n(n)$&nbsp; und&nbsp; $f_y(y)$. Die entsprechenden Leistungen benennen wir&nbsp; $P_x$,&nbsp; $P_n$&nbsp; und&nbsp; $P_y$.<br>
+
*The optimization also yields a Gaussian distribution for the input PDF &nbsp; &#8658; &nbsp; $x$,&nbsp; $n$&nbsp; and&nbsp; $y$&nbsp; are Gaussian distributed according to the density functions&nbsp; $f_x(x)$,&nbsp; $f_n(n)$&nbsp; and&nbsp; $f_y(y)$. We name the corresponding powers&nbsp; $P_x$,&nbsp; $P_n$&nbsp; and&nbsp; $P_y$.<br>
  
*Nach längerer Rechnung erhält man für die Kanalkapazität unter Verwendung des <i>Logarithmus dualis</i>&nbsp; $\log_2(\cdot)$ &ndash; wiederum mit der Pseudo&ndash;Einheit "bit/Kanalzugriff":
+
*After longer calculation one gets for the channel capacity using the <i>binary logarithm</i>&nbsp; $\log_2(\cdot)$ &ndash; again with the pseudo unit "bit/channel use":
  
 
::<math>C = {\rm log_2 } \hspace{0.15cm} \sqrt{\frac{P_y}{P_n }} = {\rm log_2 } \hspace{0.15cm} \sqrt{\frac{P_x + P_n}{P_n }} =  {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + \frac{P_x}{P_n } \right )\hspace{0.05cm}.</math>
 
::<math>C = {\rm log_2 } \hspace{0.15cm} \sqrt{\frac{P_y}{P_n }} = {\rm log_2 } \hspace{0.15cm} \sqrt{\frac{P_x + P_n}{P_n }} =  {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + \frac{P_x}{P_n } \right )\hspace{0.05cm}.</math>
  
*Beschreibt&nbsp; $x$ ein&nbsp; zeitdiskretes Signal mit der Symbolrate&nbsp; $1/T_{\rm S}$, so muss dieses auf&nbsp; $B = 1/(2T_{\rm S})$&nbsp; bandbegrenzt sein, und die gleiche Bandbreite&nbsp; $B$&nbsp; muss man auch für das Rauschsignal&nbsp; $n$&nbsp;  ansetzen &nbsp; &#8658; &nbsp; "Rauschbandbreite":
+
*If&nbsp; $x$ describes a&nbsp; discrete-time signal with symbol rate&nbsp; $1/T_{\rm S}$, it must be bandlimited to&nbsp; $B = 1/(2T_{\rm S})$&nbsp; bandlimited, and the same bandwidth&nbsp; $B$&nbsp; must be applied to the noise signal&nbsp; $n$&nbsp; &#8658; &nbsp; "noise bandwidth":
  
 
::<math>P_X  = \frac{E_{\rm S}}{T_{\rm S} } \hspace{0.05cm}, \hspace{0.4cm} P_N  = \frac{N_0}{2T_{\rm S} }\hspace{0.05cm}. </math>
 
::<math>P_X  = \frac{E_{\rm S}}{T_{\rm S} } \hspace{0.05cm}, \hspace{0.4cm} P_N  = \frac{N_0}{2T_{\rm S} }\hspace{0.05cm}. </math>
  
*Somit lässt sich die AWGN&ndash;Kanalkapazität auch durch die&nbsp; '''Sendeenergie pro Symbol''' $(E_{\rm S})$&nbsp; und die&nbsp; '''Rauschleistungsdichte'''&nbsp; $(N_0)$ ausdrücken:
+
*Thus, the AWGN channel capacity can also be expressed by the&nbsp; '''transmit energy per symbol''' $(E_{\rm S})$&nbsp; and the&nbsp; '''noise power density'''&nbsp; $(N_0)$:
  
 
::<math>C =  {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + {2 E_{\rm S}}/{N_0 } \right )\hspace{0.05cm}, \hspace{1.9cm}
 
::<math>C =  {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + {2 E_{\rm S}}/{N_0 } \right )\hspace{0.05cm}, \hspace{1.9cm}
 
\text {Einheit:}\hspace{0.3cm} \frac{\rm bit}{\rm Kanalzugriff}\hspace{0.05cm}.</math>
 
\text {Einheit:}\hspace{0.3cm} \frac{\rm bit}{\rm Kanalzugriff}\hspace{0.05cm}.</math>
*Mit der folgenden Gleichung erhält man die Kanalkapazität pro Zeiteinheit (Kennzeichnung durch $^{\star})$:
+
*The following equation gives the channel capacity per unit time (denoted by $^{\star})$:
 
::<math>C^{\star} = \frac{C}{T_{\rm S} } =    B \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + {2  E_{\rm S}}/{N_0 } \right )\hspace{0.05cm}, \hspace{0.8cm}
 
::<math>C^{\star} = \frac{C}{T_{\rm S} } =    B \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + {2  E_{\rm S}}/{N_0 } \right )\hspace{0.05cm}, \hspace{0.8cm}
 
\text {Einheit:} \hspace{0.3cm} \frac{\rm bit}{\rm Zeiteinheit}\hspace{0.05cm}.</math><br>
 
\text {Einheit:} \hspace{0.3cm} \frac{\rm bit}{\rm Zeiteinheit}\hspace{0.05cm}.</math><br>
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 1:}$&nbsp;   
+
$\text{Example 1:}$&nbsp;   
 
*Für&nbsp; $E_{\rm S}/N_0  = 7.5$ &nbsp; &#8658; &nbsp; $10 \cdot \lg \, E_{\rm S}/N_0 = 8.75 \, \rm dB$&nbsp; erhält man die Kanalkapazität&nbsp; $C =  {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm} (16) = 2 \, \rm  bit/Kanalzugriff$.  
 
*Für&nbsp; $E_{\rm S}/N_0  = 7.5$ &nbsp; &#8658; &nbsp; $10 \cdot \lg \, E_{\rm S}/N_0 = 8.75 \, \rm dB$&nbsp; erhält man die Kanalkapazität&nbsp; $C =  {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm} (16) = 2 \, \rm  bit/Kanalzugriff$.  
*Bei einem Kanal mit der (physikalischen) Bandbreite&nbsp; $B = 4 \, \rm kHz$, was der Abtastrate&nbsp; $f_{\rm A} = 8\, \rm kHz$&nbsp; entspricht, gilt zudem&nbsp; $C^\star = 16 \, \rm kbit/s$.}}<br>
+
*For a channel with the (physical) bandwidth&nbsp; $B = 4 \, \rm kHz$, which corresponds to the sampling rate&nbsp; $f_{\rm A} = 8\, \rm kHz$&nbsp; also&nbsp; $C^\star = 16 \, \rm kbit/s$.}}<br>
  
Ein Vergleich verschiedener Codierverfahren bei konstantem&nbsp; $E_{\rm S}$&nbsp; (Energie ''pro übertragenem Symbol''&nbsp;) ist allerdings nicht fair. Vielmehr sollte man für diesen Vergleich die Energie&nbsp; $E_{\rm B}$&nbsp; ''pro Nutzbit''&nbsp; fest vorgeben. Dabei gelten folgende Zusammenhänge:
+
However, a comparison of different coding methods at constant&nbsp; $E_{\rm S}$&nbsp; (energy ''per transmitted symbol''&nbsp;) is not fair. Rather, for this comparison, the energy&nbsp; $E_{\rm B}$&nbsp; ''per useful bit''&nbsp; should be fixed. The following relationships apply:
  
 
::<math>E_{\rm S} = R \cdot E_{\rm B}  \hspace{0.3cm} \Rightarrow \hspace{0.3cm}
 
::<math>E_{\rm S} = R \cdot E_{\rm B}  \hspace{0.3cm} \Rightarrow \hspace{0.3cm}
Line 145: Line 145:
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Kanalcodierungstheorem für den AWGN&ndash;Kanal:}$&nbsp;  
+
$\text{Channel Coding Theorem for the AWGN channel:}$&nbsp;  
  
Eine fehlerfreie Decodierung $($bei unendlich langen Blöcken &nbsp; &#8658; &nbsp; $n \to \infty)$&nbsp; ist immer dann möglich, falls die Coderate&nbsp; $R$&nbsp; kleiner ist als die Kanalkapazität&nbsp; $C$:
+
Error-free decoding $($at infinitely long blocks &nbsp; &#8658; &nbsp; $n \to \infty)$&nbsp; is always possible if the code rate&nbsp; $R$&nbsp; is smaller than the channel capacity&nbsp; $C$:
  
 
::<math>R < C =  {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 +2 \cdot R\cdot E_{\rm B}/{N_0 } \right )\hspace{0.05cm}.</math>
 
::<math>R < C =  {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 +2 \cdot R\cdot E_{\rm B}/{N_0 } \right )\hspace{0.05cm}.</math>
  
Für jede Coderate&nbsp $R$&nbsp; lässt sich damit  das erforderliche&nbsp; $E_{\rm B}/N_0$&nbsp; des AWGN&ndash;Kanals ermitteln, damit eine fehlerfreie Decodierung gerade noch möglich ist. Man erhält für den Grenzfall&nbsp; $R = C$:
+
For each code rate&nbsp $R$&nbsp; the required&nbsp; $E_{\rm B}/N_0$&nbsp; of the AWGN channel can thus be determined so that error-free decoding is just possible. One obtains for the limiting case&nbsp; $R = C$:
  
 
::<math>{E_{\rm B} }/{N_0} >  \frac{2^{2R}-1}{2R } \hspace{0.05cm}.</math>}}
 
::<math>{E_{\rm B} }/{N_0} >  \frac{2^{2R}-1}{2R } \hspace{0.05cm}.</math>}}
  
  
Die Grafik fasst das Ergebnis zusammen, wobei die Ordinate&nbsp; $R$&nbsp; im linearen Maßstab und die Abszisse&nbsp; $E_{\rm B}/{N_0 }$&nbsp; logarithmisch aufgetragen ist.
+
The graph summarizes the result, with the ordinate&nbsp; $R$&nbsp; plotted on a linear scale and the abscissa&nbsp; $E_{\rm B}/{N_0 }$&nbsp; plotted logarithmically.
[[File:P ID2373 KC T 1 7 S3b v3.png|right|frame|Kanalkapazität des AWGN–Kanals|class=fit]]  
+
[[File:P ID2373 KC T 1 7 S3b v3.png|right|frame|Channel capacity of the AWGN channel|class=fit]]  
*Außerhalb der blauen Fläche ist eine fehlerfreie Codierung nicht möglich.  
+
*Error-free coding is not possible outside the blue area.  
*Die blaue Grenzkurve gibt die Kanalkapazität&nbsp; $C$&nbsp; des AWGN&ndash;Kanals an.<br>
+
*The blue limit curve indicates the channel capacity&nbsp; $C$&nbsp; of the AWGN channel.<br>
 
<br clear=all>
 
<br clear=all>
Aus dieser Grafik und obiger Gleichung lässt sich Folgendes ableiten:
+
From this graph and the above equation, the following can be deduced:
*Die Kanalkapazität&nbsp; $C$&nbsp; steigt etwas weniger als linear mit&nbsp; $10 \cdot \lg \, E_{\rm B}/N_0 $&nbsp; an. In der Grafik sind einige ausgewählte Funktionswerte als blaue Kreuze angegeben.<br>
+
*Channel capacity&nbsp; $C$&nbsp; increases somewhat less than linearly with&nbsp; $10 \cdot \lg \, E_{\rm B}/N_0 $&nbsp;. In the graph, some selected function values are indicated as blue crosses.<br>
  
*Ist&nbsp; $10 \cdot \lg \, E_{\rm B}/N_0 < -1.59 \, \rm dB$, so ist eine fehlerfreie Decodierung prinzipiell unmöglich. Beträgt die Coderate&nbsp; $R = 0.5$, so muss&nbsp; $10 \cdot \lg \, E_{\rm B}/N_0 > 0 \, \rm dB$&nbsp; sein &nbsp;&nbsp;&#8658;&nbsp;&nbsp; $E_{\rm B} > N_0$.<br>
+
*If&nbsp; $10 \cdot \lg \, E_{\rm B}/N_0 < -1.59 \, \rm dB$, error-free decoding is impossible in principle. If the code rate&nbsp; $R = 0.5$, then&nbsp; $10 \cdot \lg \, E_{\rm B}/N_0 > 0 \, \rm dB$&nbsp; must be &nbsp;&nbsp;&#8658;&nbsp; $E_{\rm B} > N_0$.<br>
  
*Für alle binären Codes gilt per se&nbsp; $0 < R &#8804; 1$. Nur mit <i>nichtbinären</i> Codes sind Coderaten&nbsp; $R > 1$&nbsp; möglich. Beispielsweise beträgt die maximal mögliche Coderate eines quaternären Codes&nbsp; $R = \log_2 \, M_y = \log_2 \, 4 = 2$.<br>
+
*Für alle binären Codes gilt per se&nbsp; $0 < R &#8804; 1$. Only with <i>non-binary</i> codes code rates&nbsp; $R > 1$&nbsp; are possible. For example, the maximum possible code rate of a quaternary code&nbsp; $R = \log_2 \, M_y = \log_2 \, 4 = 2$.<br>
  
*Alle eindimensionalen Modulationsarten &ndash; also solche Verfahren, die nur die Inphase&ndash; oder nur die Quadraturkomponente nutzen wie&nbsp; [[Digitalsignalübertragung/Trägerfrequenzsysteme_mit_kohärenter_Demodulation#On.E2.80.93Off.E2.80.93Keying_.282.E2.80.93ASK.29|2&ndash;ASK]],&nbsp; [[Digitalsignalübertragung/Trägerfrequenzsysteme_mit_kohärenter_Demodulation#Binary_Phase_Shift_Keying_.28BPSK.29|BPSK]]&nbsp; und&nbsp; [[Digitalsignalübertragung/Trägerfrequenzsysteme_mit_nichtkohärenter_Demodulation#Nichtkoh.C3.A4rente_Demodulation_von_bin.C3.A4rer_FSK_.282.E2.80.93FSK.29|2&ndash;FSK]]&nbsp; &ndash; müssen im blauen Bereich der vorliegenden Grafik liegen.<br>
+
*All one-dimensional modulation types &ndash; i.e., those methods that use only the in-phase&ndash; or only the quadrature component such as&nbsp; [[Digital_Signal_Transmission/Carrier_Frequency_Systems_with_Coherent_Demodulation#On.E2.80.93off_keying_.282.E2.80.93ASK.29|2&ndash;ASK]],&nbsp;  
*Wie im Kapitel&nbsp; [[Information_Theory/AWGN–Kanalkapazität_bei_wertdiskretem_Eingang#Maximale_Coderate_f.C3.BCr_QAM.E2.80.93Strukturen|Maximale Coderate für QAM&ndash;Strukturen]]&nbsp; des Buches "Informationstheorie" gezeigt wird, gibt es für zweidimensionale Modulationsarten wie zum Beispiel die&nbsp; [[Modulation_Methods/Quadratur–Amplitudenmodulation|Quadratur&ndash;Amplitudenmodulation]]&nbsp; eine "freundlichere" Grenzkurve.   
+
[[Digital_Signal_Transmission/Carrier_Frequency_Systems_with_Coherent_Demodulation#Binary_phase_shift_keying_.28BPSK.29 |BPSK]]&nbsp; and&nbsp; [[Digital_Signal_Transmission/Carrier_Frequency_Systems_with_Non-Coherent_Demodulation#Non-Coh.C3.A4rente_Demodulation_of_bin.C3.A4rer_FSK_.282.E2.80.93FSK.29|2&ndash;FSK]]&nbsp; &ndash; must be in the blue area of the present graphic.<br>
 +
*As shown in the chapter&nbsp; [[Information_Theory/AWGN_Channel_Capacity_for_Discrete_Input#Maximum_code_rate_for_QAM_structures|Maximum code rate for QAM&ndash;structures]]&nbsp; of the book "Information Theory" is shown, there is a "friendlier" limit curve for two-dimensional modulation types such as the&nbsp; [[Modulation_Methods/Quadrature_Amplitude_Modulation|Quadrature&ndash;Amplitude Modulation]]&nbsp;.   
  
 
== AWGN–Kanalkapazität für binäre Eingangssignale ==
 
== AWGN–Kanalkapazität für binäre Eingangssignale ==

Revision as of 17:22, 12 August 2022

Channel coding theorem and channel capacity


We further consider a binary block code with  $k$  information bits per block and codewords of length  $n$, resulting in the code rate  $R=k/n$  with the unit "information bit/code symbol".

The ingenious information theorist  Claude E. Shannon  has dealt very intensively with the correctability of such codes already in 1948 and has given for this a limit for each channel which results from information-theoretical considerations alone. Up to this day, no code has been found which exceeds this limit, and this will remain so.

$\text{Shannon's channel coding theorem:}$  For each channel with channel capacity  $C > 0$  there always exists (at least) one code whose error probability approaches zero as long as the code rate  $R$  is smaller than the channel capacity  $C$. The prerequisite for this is that the following holds for the block length of this code:   $n \to \infty$.


Notes: 

  • The statement "The error probability approaches zero" is not identical with the statement "The transmission is error-free". Example:   For an infinitely long sequence, finitely many symbols are corrupted.
  • For some channels, even with  $R=C$  the error probability still goes towards zero (but not for all).


The inverse of the channel coding theorem is also true and states:

$\text{Inverse:}$  If the code rate  $R$  is larger than the channel capacity  $C$, then an arbitrarily small error probability cannot be achieved in any case

.

To derive and calculate the channel capacity, we first assume a digital channel with  $M_x$  possible input values  $x$  and  $M_y$  possible output values  $y$ . Then, for the mean mutual information– briefly, the  "mutual information"  – between the random variable  $x$  at the channel input and the random variable  $y$  at its output:

\[I(x; y) =\sum_{i= 1 }^{M_X} \hspace{0.15cm}\sum_{j= 1 }^{M_Y} \hspace{0.15cm}{\rm Pr}(x_i, y_j) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i)}{{\rm Pr}(y_j)} = \sum_{i= 1 }^{M_X} \hspace{0.15cm}\sum_{j= 1 }^{M_Y}\hspace{0.15cm}{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i) \cdot {\rm Pr}(x_i) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i)}{\sum_{k= 1}^{M_X} {\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_k) \cdot {\rm Pr}(x_k)} \hspace{0.05cm}.\]

In the transition from the first to the second equation, the  "Theorem of Bayes"  and the  "Theorem of Total Probability"  were considered.

Further, it should be noted:

  • The binary logarithm   is denoted here with "log2". Partially, we also use "ld" (Logarithmus dualis in German) for this in our learning tutorial .
  • In contrast to the book  "Information Theory"  we do not distinguish in the following between the random variable $($upper case letters  $X$  or  $Y)$  and the realizations $($lower case letters  $x$  bzw.  $y)$.


$\text{Definition:}$  The  channel capacity'  introduced by Shannon gives the maximum mutual information  $I(x; y)$  between the input variable  $x$  and the output variable  $y$  :

\[C = \max_{{{\rm Pr}(x_i)}} \hspace{0.1cm} I(X; Y) \hspace{0.05cm}.\]

The pseudo–unit "bit/channel use" must be added.


Since the maximization of the mutual information must be done over all possible (discrete) input distributions  ${\rm Pr}(x_i)$  the channel capacity is independent of the input and thus a pure channel parameter.

Channel capacity of the BSC model


We now apply these definitions to the  "BSC model"  (Binary Symmetric Channel ):

\[I(x; y) = {\rm Pr}(y = 0 \hspace{0.03cm}| \hspace{0.03cm}x = 0) \cdot {\rm Pr}(x = 0) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y = 0 \hspace{0.03cm}| \hspace{0.03cm}x = 0)}{{\rm Pr}(y = 0)} + {\rm Pr}(y = 1 \hspace{0.03cm}| \hspace{0.03cm}x = 0) \cdot {\rm Pr}(x = 0) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(Y = 1 \hspace{0.03cm}| \hspace{0.03cm}x = 0)}{{\rm Pr}(y = 1)} + \]
\[\hspace{1.45cm} + \hspace{0.15cm}{\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 1) \cdot {\rm Pr}(x = 1) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(Y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 1)}{{\rm Pr}(y = 0)} + {\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 1) \cdot {\rm Pr}(x = 1) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 1)}{{\rm Pr}(y = 1)} \hspace{0.05cm}.\]
BSC channel model

The channel capacity is arrived at by the following considerations:

  • Maximization with respect to the input distribution leads to equally probable symbols:
\[{\rm Pr}(x = 0) = {\rm Pr}(x = 1) = 1/2 \hspace{0.05cm}.\]
  • Due to the symmetry evident from the model, the following then holds simultaneously:
\[{\rm Pr}(y = 0) = {\rm Pr}(y = 1) = 1/2 \hspace{0.05cm}.\]
  • We also consider the BSC transmission probabilities:
\[{\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 0) = {\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 1) = \varepsilon \hspace{0.05cm},\]
\[{\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 0) = {\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 1) = 1-\varepsilon \hspace{0.05cm}.\]
  • After combining two terms each, we thus obtain:
\[C \hspace{0.15cm} = \hspace{0.15cm} 2 \cdot 1/2 \cdot \varepsilon \cdot {\rm log_2 } \hspace{0.15cm}\frac{\varepsilon}{1/2 }+ 2 \cdot 1/2 \cdot (1- \varepsilon) \cdot {\rm log_2 } \hspace{0.15cm}\frac{1- \varepsilon}{1/2 } \varepsilon \cdot {\rm ld } \hspace{0.15cm}2 - \varepsilon \cdot {\rm log_2 } \hspace{0.15cm} \frac{1}{\varepsilon }+ (1- \varepsilon) \cdot {\rm log_2 } \hspace{0.15cm} 2 - (1- \varepsilon) \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{1- \varepsilon}\]
\[\Rightarrow \hspace{0.3cm} C \hspace{0.15cm} = \hspace{0.15cm} 1 - H_{\rm bin}(\varepsilon). \]
  • The binary entropy function is used here:
\[H_{\rm bin}(\varepsilon) = \varepsilon \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{\varepsilon}+ (1- \varepsilon) \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{1- \varepsilon}\hspace{0.05cm}.\]

The following right graph shows the BSC channel capacity depending on the corruption probability  $\varepsilon$. On the left, for comparison, the binary entropy function is shown, which has already been defined in the chapter  "memoryless sources"  of the book "Information Theory".

Kanalkapazität des BSC–Modells

One can see from this representation:

  • The corruption probability  $\varepsilon$  leads to the channel capacity $C(\varepsilon)$. According to the  "channel coding theorem"  error-free decoding is only possible if the code rate $R$ is not greater than  $C(\varepsilon)$.


  • With  $\varepsilon = 10\%$  error-free decoding is impossible because of  $C(0.1) = 0.531$  if the code rate  $R > 0.531$ . At 50–percent corruption, error-free decoding is impossible even if the code rate is arbitrarily small:   $C(0.5) = 0$ .
  • From an information theory point of view  $\varepsilon = 1$  (inversion of all bits) is equivalent to  $\varepsilon = 0$  (error-free transmission). Similarly  $\varepsilon = 0.9$  is equivalent to  $\varepsilon = 0.1$. Error-free decoding is achieved here by swapping the zeros and ones, i.e. by a so-called mapping.

Channel capacity of the AWGN model


AWGN channel model

We now consider the  AWGN channel  (Additive White Gaussian Noise ). Here, for the output signal  $y = x + n$, where  $n$  describes a  Gaussian distributed random variable  and it applies to their expected values (moments):

$${\rm E}[n] = 0,\hspace{1cm} {\rm E}[n^2] = P_n.$$

Thus, regardless of the input signal  $x$  (analog or digital), there is always a continuous value output signal  $y$, and in the  equation for transinformation  is to be used  $M_y \to\infty$ .

The calculation of the channel capacity for the AWGN channel is given here only in keywords. The exact derivation can be found in the fourth main chapter "Discrete Value Information Theory" of the book  "Information theory".

  • The input quantity  $x$  optimized with respect to maximum mutual information will certainly be value continuous, that is, for the AWGN channel, in addition to  $M_y \to\infty$  also  $M_x \to\infty$ holds.
  • While for discrete value input optimization is to be done over all  ${\rm Pr}(x_i)$  now optimization is done using the  PDF  $f_x(x)$ of the input signal under the constraint  Power Limitation:
\[C = \max_{f_x(x)} \hspace{0.1cm} I(x; y)\hspace{0.05cm},\hspace{0.3cm}{\rm wobei \hspace{0.15cm} gelten \hspace{0.15cm} muss} \text{:}\hspace{0.15cm} {\rm E} \left [ x^2 \right ] \le P_x \hspace{0.05cm}.\]
  • The optimization also yields a Gaussian distribution for the input PDF   ⇒   $x$,  $n$  and  $y$  are Gaussian distributed according to the density functions  $f_x(x)$,  $f_n(n)$  and  $f_y(y)$. We name the corresponding powers  $P_x$,  $P_n$  and  $P_y$.
  • After longer calculation one gets for the channel capacity using the binary logarithm  $\log_2(\cdot)$ – again with the pseudo unit "bit/channel use":
\[C = {\rm log_2 } \hspace{0.15cm} \sqrt{\frac{P_y}{P_n }} = {\rm log_2 } \hspace{0.15cm} \sqrt{\frac{P_x + P_n}{P_n }} = {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + \frac{P_x}{P_n } \right )\hspace{0.05cm}.\]
  • If  $x$ describes a  discrete-time signal with symbol rate  $1/T_{\rm S}$, it must be bandlimited to  $B = 1/(2T_{\rm S})$  bandlimited, and the same bandwidth  $B$  must be applied to the noise signal  $n$  ⇒   "noise bandwidth":
\[P_X = \frac{E_{\rm S}}{T_{\rm S} } \hspace{0.05cm}, \hspace{0.4cm} P_N = \frac{N_0}{2T_{\rm S} }\hspace{0.05cm}. \]
  • Thus, the AWGN channel capacity can also be expressed by the  transmit energy per symbol $(E_{\rm S})$  and the  noise power density  $(N_0)$:
\[C = {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + {2 E_{\rm S}}/{N_0 } \right )\hspace{0.05cm}, \hspace{1.9cm} \text {Einheit:}\hspace{0.3cm} \frac{\rm bit}{\rm Kanalzugriff}\hspace{0.05cm}.\]
  • The following equation gives the channel capacity per unit time (denoted by $^{\star})$:
\[C^{\star} = \frac{C}{T_{\rm S} } = B \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + {2 E_{\rm S}}/{N_0 } \right )\hspace{0.05cm}, \hspace{0.8cm} \text {Einheit:} \hspace{0.3cm} \frac{\rm bit}{\rm Zeiteinheit}\hspace{0.05cm}.\]

$\text{Example 1:}$ 

  • Für  $E_{\rm S}/N_0 = 7.5$   ⇒   $10 \cdot \lg \, E_{\rm S}/N_0 = 8.75 \, \rm dB$  erhält man die Kanalkapazität  $C = {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm} (16) = 2 \, \rm bit/Kanalzugriff$.
  • For a channel with the (physical) bandwidth  $B = 4 \, \rm kHz$, which corresponds to the sampling rate  $f_{\rm A} = 8\, \rm kHz$  also  $C^\star = 16 \, \rm kbit/s$.


However, a comparison of different coding methods at constant  $E_{\rm S}$  (energy per transmitted symbol ) is not fair. Rather, for this comparison, the energy  $E_{\rm B}$  per useful bit  should be fixed. The following relationships apply:

\[E_{\rm S} = R \cdot E_{\rm B} \hspace{0.3cm} \Rightarrow \hspace{0.3cm} E_{\rm B} = E_{\rm S} / R \hspace{0.05cm}. \]

$\text{Channel Coding Theorem for the AWGN channel:}$ 

Error-free decoding $($at infinitely long blocks   ⇒   $n \to \infty)$  is always possible if the code rate  $R$  is smaller than the channel capacity  $C$:

\[R < C = {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 +2 \cdot R\cdot E_{\rm B}/{N_0 } \right )\hspace{0.05cm}.\]

For each code rate&nbsp $R$  the required  $E_{\rm B}/N_0$  of the AWGN channel can thus be determined so that error-free decoding is just possible. One obtains for the limiting case  $R = C$:

\[{E_{\rm B} }/{N_0} > \frac{2^{2R}-1}{2R } \hspace{0.05cm}.\]


The graph summarizes the result, with the ordinate  $R$  plotted on a linear scale and the abscissa  $E_{\rm B}/{N_0 }$  plotted logarithmically.

Channel capacity of the AWGN channel
  • Error-free coding is not possible outside the blue area.
  • The blue limit curve indicates the channel capacity  $C$  of the AWGN channel.


From this graph and the above equation, the following can be deduced:

  • Channel capacity  $C$  increases somewhat less than linearly with  $10 \cdot \lg \, E_{\rm B}/N_0 $ . In the graph, some selected function values are indicated as blue crosses.
  • If  $10 \cdot \lg \, E_{\rm B}/N_0 < -1.59 \, \rm dB$, error-free decoding is impossible in principle. If the code rate  $R = 0.5$, then  $10 \cdot \lg \, E_{\rm B}/N_0 > 0 \, \rm dB$  must be   ⇒  $E_{\rm B} > N_0$.
  • Für alle binären Codes gilt per se  $0 < R ≤ 1$. Only with non-binary codes code rates  $R > 1$  are possible. For example, the maximum possible code rate of a quaternary code  $R = \log_2 \, M_y = \log_2 \, 4 = 2$.
  • All one-dimensional modulation types – i.e., those methods that use only the in-phase– or only the quadrature component such as  2–ASK

BPSK  and  2–FSK  – must be in the blue area of the present graphic.

AWGN–Kanalkapazität für binäre Eingangssignale


In diesem Buch beschränken wir uns vorwiegend auf binäre Codes, also auf das Galoisfeld  ${\rm GF}(2^n)$. Damit ist

Bedingte Dichtefunktionen bei AWGN–Kanal und binärem Eingang
  • zum einen die Coderate auf den Bereich  $R ≤ 1$  begrenzt,
  • zum zweiten auch für  $R ≤ 1$  nicht die gesamte blaue Region verfügbar (siehe vorherige Seite).


Die nun gültige Region ergibt sich aus der  allgemeinen Gleichung  der Transinformation durch

  • die Parameter  $M_x = 2$  und  $M_y \to \infty$,
  • bipolare Signalisierung   ⇒   $x=0$   →   $\tilde{x} = +1$  und  $x=1$   →   $\tilde{x} = -1$,
  • den Übergang von bedingten Wahrscheinlichkeiten  ${\rm Pr}(\tilde{x}_i)$  zu bedingten Wahrscheinlichkeitsdichtefunktionen,
  • Ersetzen der Summe durch eine Integration.

Die Optimierung der Quelle führt auf gleichwahrscheinliche Symbole:

\[{\rm Pr}(\tilde{x} = +1) = {\rm Pr}(\tilde{x} = -1) = 1/2 \hspace{0.05cm}. \]

Damit erhält man für das Maximum der Transinformation, also für die Kanalkapazität:

\[C \hspace{-0.15cm} = {1}/{2} \cdot \int_{-\infty }^{+ \infty} \left [ f_{y\hspace{0.05cm} |\hspace{0.05cm}\tilde{x} = +1}(y)\cdot {\rm log_2 } \hspace{0.15cm}\frac {f_{y\hspace{0.05cm} |\hspace{0.05cm}\tilde{x} = +1}(y)}{f_y(y)} + f_{y\hspace{0.05cm} |\hspace{0.05cm}\tilde{x} = -1}(y)\cdot {\rm log_2 } \hspace{0.15cm}\frac {f_{y\hspace{0.05cm} |\hspace{0.05cm}\tilde{x} = -1}(y)}{f_y(y)} \right ]\hspace{0.1cm}{\rm d}y \hspace{0.05cm}.\]

Das Integral lässt sich nicht in mathematisch–geschlossener Form lösen, sondern kann nur numerisch ausgewertet werden.

  • Die grüne Kurve zeigt das Ergebnis.
  • Die blaue Kurve gibt zum Vergleich die auf der letzten Seite hergeleitete Kanalkapazität für gaußverteilte Eingangssignale an.
AWGN–Kanalkapazität für binäre Eingangssignale


Man erkennt:

  • Für  $10 \cdot \lg \, E_{\rm B}/N_0 < 0 \, \rm dB$  unterscheiden sich die beiden Kapazitätskurven nur geringfügig.
  • So muss man bei binärem bipolaren Eingang gegenüber dem Optimum (Gaußscher Eingang) die Kenngröße  $10 \cdot \lg \, E_{\rm B}/N_0$  nur etwa um  $0.1 \, \rm dB$  erhöhen, um ebenfalls die Coderate  $R = 0.5$  zu ermöglichen.
  • Ab  $10 \cdot \lg \, E_{\rm B}/N_0 \approx6 \, \rm dB$  ist die Kapazität  $C = 1 \, \rm bit/Kanalzugriff$  des AWGN–Kanals für binären Eingang (fast) erreicht.
  • Dazwischen verläuft die Grenzkurve annähernd exponentiell ansteigend.


Gebräuchliche Kanalcodes im Vergleich zur Kanalkapazität


Nun soll gezeigt werden, in wie weit sich etablierte Kanalcodes der BPSK–Kanalkapazität (grüne Kurve) annähern. In der folgenden Grafik ist als Ordinate die Rate  $R=k/n$  dieser Codes bzw. die Kapazität  $C$  (mit der zusätzlichen Pseudo–Einheit "bit/Kanalzugriff") aufgetragen. Weiter ist vorausgesetzt:

  • der AWGN–Kanal, gekennzeichnet durch  $10 \cdot \lg \, E_{\rm B}/N_0$  in dB, und
  • für die durch Kreuze markierten Codes eine Bitfehlerrate (BER) von  $10^{-5}$.


Rates and required  $E_{\rm B}/{N_0}$  of different channel codes



$\text{Bitte beachten Sie:}$ 

  • Die Kanalkapazitätskurven gelten stets für  $n \to \infty$  und  $\rm BER \to 0$  gelten.
  • Würde man diese strenge Forderung "fehlerfrei" auch an die betrachteten Kanalcodes endlicher Codelänge  $n$  anlegen, so wäre hierfür stets  $10 \cdot \lg \, E_{\rm B}/N_0 \to \infty$  erforderlich.
  • Dies ist aber ein akademisches Problem, das für die Praxis wenig Bedeutung hat. Für  $\rm BER = 10^{-10}$  ergäbe sich eine qualitativ und auch quantitativ ähnliche Grafik.


Es folgen einige Erläuterungen zu den Daten, die der Vorlesung [Liv10][1] entnommen wurden:

  • Die Punkte  $\rm A$,  $\rm B$  und  $\rm C$  markieren  Hamming–Codes  unterschiedlicher Rate. Sie alle benötigen für  $\rm BER = 10^{-5}$  mehr alss  $10 \cdot \lg \, E_{\rm B}/N_0 = 8 \, \rm dB$.
  • Die Markierung  $\rm D$  kennzeichnet den binären  Golay–Code  mit der Rate  $1/2$  und die Markierung  $\rm E$  einen  Reed–Muller–Code. Dieser sehr niederratige Code kam bereits 1971 bei der Raumsonde Mariner 9 zum Einsatz.
  • Die  Reed–Solomon–Codes  (RS–Codes) werden im zweiten Hauptkapitel ausführlich behandelt. Mit  $\rm F$  markiert ist ein hochratiger RS–Code  $(R = 223/255 > 0.9)$  und einem erforderlichen  $10 \cdot \lg \, E_{\rm B}/N_0 < 6 \, \rm dB$.
  • Die Markierungen  $\rm G$  und  $\rm H$  bezeichnen beispielhafte  Faltungscodes  (englisch:   Convolutional Codes, CC) mittlerer Rate. Der Code  $\rm G$  wurde schon 1972 bei der Pioneer10–Mission eingesetzt.
  • Die Kanalcodierung der Voyager–Mission Ende der 1970er Jahre ist mit  $\rm I$  markiert. Es handelt sich um die Verkettung eines  $\text{(2, 1, 7)}$–Faltungscodes mit einem Reed–Solomon–Code, wie im vierten Hauptkapitel beschrieben.

Anmerkung:   Bei den Faltungscodes hat insbesondere der dritte Kennungsparameter eine andere Bedeutung als bei den Blockcodes. $\text{CC (2, 1, 32)}$  weist beispielsweise auf das Memory  $m = 32$  hin.

Raten und erforderliches  $E_{\rm B}/N_0$  für iterative Codierverfahren



Mit iterativer Decodierung lassen sich deutlich bessere Ergebnisse erzielen, wie die zweite Grafik zeigt.

  • Das heißt:  Die einzelnen Markierungspunkte liegen sehr viel näher an der Kapazitätskurve.
  • Die bisher mit "Gauß–Kapazität" beschriftete durchgezogene blaue Kurve wird hier "Gauß (reell)" genannt.


Hier noch einige weitere Erläuterungen zu dieser Grafik:

  • Rote Kreuze markieren sogenannte  Turbocodes  nach  CCSDS  (Consultative Committee for Space Data Systems ) mit jeweils  $k = 6920$  Informationsbits und unterschiedlichen Codelängen  $n$. Diese von  Claude Berrou  um 1990 erfundenen Codes können iterativ decodiert werden. Die (roten) Markierungen liegen jeweils weniger als  $1 \, \rm dB$  von der Shannon–Grenze entfernt.
  • Ähnliches Verhalten zeigen die durch weiße Rechtecke gekennzeichneten  LDPC–Codes  (Low Density Parity–check Codes ), die seit 2006 bei  DVB–S(2)  (Digital Video Broadcast over Satellite ) eingesetzt werden. Diese eignen sich aufgrund der spärlichen Belegung der Prüfmatrix  $\boldsymbol {\rm H}$  (mit Einsen) sehr gut für die iterative Decodierung mittels Faktor–Graphen   und   Exit Charts. Siehe [Hag02][2]
  • Die schwarzen Punkte markieren die von CCSDS spezifizierten  LDPC–Codes, die alle von einer konstanten Anzahl von Informationsbits ausgehen  $(k = 16384)$. Dagegen ist bei allen weißen Rechtecken die Codelänge  $n = 64800$  konstant, während sich die Anzahl  $k$  der Informationsbits entsprechend der Rate  $R = k/n$  ändert.
  • Um das Jahr 2000 hatten viele Forscher den Ehrgeiz, sich der Shannon–Grenze bis auf Bruchteile von einem  $\rm dB$  anzunähern. Das gelbe Kreuz markiert ein solches Ergebnis aus [CFRU01][3]. Verwendet wurde ein irregulärer Rate–1/2–LDPC–Code der Codelänge  $n = 2 \cdot10^6$.

$\text{Fazit:}$  Festzuhalten ist, dass Shannon bereits 1948 erkannt und nachgewiesen hat, dass kein eindimensionales Modulationsverfahren links von der durchgehend eingezeichneten AWGN–Grenzkurve "Gauß (reell)" liegen kann.

  • Für zweidimensionale Verfahren wie QAM und mehrstufige PSK gilt dagegen die Grenzkurve "Gauß (komplex)", die hier gestrichelt gezeichnet ist und stets links von der durchgezogenen Kurve liegt.
  • Näheres hierzu finden Sie im Abschnitt  Maximale Coderate für QAM–Strukturen  des Buches "Informationstheorie".
  • Auch diese Grenzkurve wurde mit QAM–Verfahren und sehr langen Kanalcodes inzwischen nahezu erreicht, ohne dass sie jemals überschritten werden wird.


Aufgaben zum Kapitel


Aufgabe 1.17: Zum Kanalcodierungstheorem

Aufgabe 1.17Z: BPSK–Kanalkapazität

Quellenverzeichnis

  1. Liva, G.: Channel Coding. Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010.
  2. Hagenauer, J.: The Turbo Principle in Mobile Communications. In: Int. Symp. on Information Theory and Its Applications, Oct.2010, PDF–Dokument.
  3. Chung S.Y; Forney Jr., G.D.; Richardson, T.J.; Urbanke, R.: On the Design of Low-Density Parity- Check Codes within 0.0045 dB of the Shannon Limit. – In: IEEE Communications Letters, vol. 5, no. 2 (2001), pp. 58–60.