Difference between revisions of "Digital Signal Transmission/Error Probability for Baseband Transmission"

From LNTwww
Line 1: Line 1:
 
   
 
   
 
{{Header
 
{{Header
|Untermenü=Digitalsignalübertragung bei idealisierten Bedingungen
+
|Untermenü=Digital Signal Transmission under Idealized Conditions
 
|Vorherige Seite=Systemkomponenten eines Basisbandübertragungssystems
 
|Vorherige Seite=Systemkomponenten eines Basisbandübertragungssystems
 
|Nächste Seite=Eigenschaften von Nyquistsystemen
 
|Nächste Seite=Eigenschaften von Nyquistsystemen
 
}}
 
}}
  
== Definition der Bitfehlerwahrscheinlichkeit ==
+
== Definition of the bit error probability ==
 
<br>
 
<br>
[[File:EN_Dig_T_1_2_S1.png|right|frame|Zur Definition der Bitfehlerwahrscheinlichkeit]]
+
[[File:EN_Dig_T_1_2_S1.png|right|frame|For the definition of the bit error probability]]
Die Grafik zeigt ein sehr einfaches, aber allgemeingültiges Modell eines binären Übertragungssystems. Dieses lässt sich wie folgt charakterisieren:
+
The diagram shows a very simple, but generally valid model of a binary transmission system. This can be characterized as follows:
*Quelle und Sinke werden durch die beiden Binärfolgen &nbsp;$〈q_ν〉$&nbsp; und &nbsp;$〈v_ν〉$&nbsp; beschrieben.
+
*Source and sink are described by the two binary sequences &nbsp;$〈q_ν〉$&nbsp; and &nbsp;$〈v_ν〉$.&nbsp;  
*Das gesamte Übertragungsystem &ndash; bestehend aus Sender, Übertragungskanal inklusive Störungen und Empfänger &ndash; wird als "Black Box" mit binärem Eingang und binärem Ausgang betrachtet.
+
*The entire transmission system &ndash; consisting of transmitter, transmission channel including interference and receiver &ndash; is regarded as a "Black Box" with binary input and binary output.
*Dieser "Digitale Kanal" wird allein durch die Fehlerfolge $〈e_ν〉$ charakterisiert. Bei fehlerfreier Übertragung des $\nu$&ndash;ten Bits &nbsp;$(v_ν = q_ν)$&nbsp; gilt &nbsp;$e_ν= 0$, andernfalls  &nbsp;$(v_ν \ne q_ν)$&nbsp; wird &nbsp;$e_ν= 1$&nbsp; gesetzt.
+
*This "digital channel" is characterized solely by the error sequence $〈e_ν〉$. If the $\nu$&ndash;th bit is transmitted without errors &nbsp;$(v_ν = q_ν)$,&nbsp; &nbsp;$e_ν= 0$ is valid, otherwise &nbsp;$(v_ν \ne q_ν)$&nbsp; &nbsp;$e_ν= 1$&nbsp; is set.
 
<br clear=all>
 
<br clear=all>
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Die (mittlere) '''Bitfehlerwahrscheinlichkeit''' ist bei einem Binärsystem wie folgt gegeben:
+
$\text{Definition:}$&nbsp; The (average) '''bit error probability''' for a binary system is given as follows:
  
 
:$$p_{\rm B} = {\rm E}\big[{\rm Pr}(v_{\nu} \ne q_{\nu})\big]= \overline{  {\rm Pr}(v_{\nu} \ne q_{\nu}) } =
 
:$$p_{\rm B} = {\rm E}\big[{\rm Pr}(v_{\nu} \ne q_{\nu})\big]= \overline{  {\rm Pr}(v_{\nu} \ne q_{\nu}) } =
 
  \lim_{N \to\infty}\frac{1}{N}\cdot\sum\limits_{\nu=1}^{N}{\rm Pr}(v_{\nu}
 
  \lim_{N \to\infty}\frac{1}{N}\cdot\sum\limits_{\nu=1}^{N}{\rm Pr}(v_{\nu}
 
\ne q_{\nu})\hspace{0.05cm}.$$
 
\ne q_{\nu})\hspace{0.05cm}.$$
Diese statistische Größe ist das wichtigste Beurteilungskriterium eines jeden Digitalsystems.}}<br>
+
This statistical quantity is the most important evaluation criterion of any digital system.}}<br>
  
*Die Berechnung als Erwartungswert &nbsp;$\rm E[\text{...}]$&nbsp; gemäß dem ersten Teil der obigen Gleichung entspricht einer Scharmittelung über die Verfälschungswahrscheinlichkeit &nbsp;${\rm Pr}(v_{\nu} \ne q_{\nu})$&nbsp; des &nbsp;$\nu$&ndash;ten Symbols, während die überstreichende Linie im rechten Gleichungsteil eine Zeitmittelung  kennzeichnet.  
+
*The calculation as expected value &nbsp;$\rm E[\text{...}]$&nbsp; according to the first part of the above equation corresponds to a ensemble averaging over the falsification probability &nbsp;${\rm Pr}(v_{\nu} \ne q_{\nu})$&nbsp; of the &nbsp;$\nu$&ndash;th symbol, while the line in the right part of the equation marks a time averaging.
  
*Beide Berechnungsarten führen &ndash; unter der gerechtfertigten Annahme ergodischer Prozesse &ndash; zum gleichen Ergebnis, wie im vierten Hauptkapitel   "Zufallsgrößen mit statistischen Bindungen" des Buches &nbsp;[[Stochastische Signaltheorie]]&nbsp; gezeigt wurde.
+
*Both types of calculation lead &ndash; under the justified assumption of ergodic processes &ndash; to the same result, as shown in the fourth main chapter   "Random Variables with Statistical Dependence" of the book &nbsp;[[Stochastische Signaltheorie]].&nbsp;
  
*Auch aus der Fehlerfolge &nbsp;$〈e_ν〉$&nbsp; lässt sich die Bitfehlerwahrscheinlichkeit als Erwartungswert bestimmen, wobei zu berücksichtigen ist, dass die Fehlergröße &nbsp;$e_ν$&nbsp; nur die Werte &nbsp;$0$&nbsp; und &nbsp;$1$&nbsp; annehmen kann:
+
*Also from the error sequence &nbsp;$〈e_ν〉$&nbsp; the bit error probability can be determined as an expected value, taking into account that the error quantity &nbsp;$e_ν$&nbsp; can only take the values &nbsp;$0$&nbsp; and &nbsp;$1$:&nbsp;
 
:$$\it p_{\rm B} =  \rm E\big[\rm Pr(\it e_{\nu}=\rm 1)\big]= {\rm E}\big[{\it e_{\nu}}\big]\hspace{0.05cm}.$$
 
:$$\it p_{\rm B} =  \rm E\big[\rm Pr(\it e_{\nu}=\rm 1)\big]= {\rm E}\big[{\it e_{\nu}}\big]\hspace{0.05cm}.$$
*Die obige Definition der Bitfehlerwahrscheinlichkeit gilt unabhängig davon, ob es statistische Bindungen innerhalb der Fehlerfolge &nbsp;$〈e_ν〉$&nbsp; gibt oder nicht. Je nachdem muss man bei einer Systemsimulation unterschiedliche digitale Kanalmodelle verwenden. Der Aufwand zur &nbsp;$p_{\rm B}$&ndash;Berechnung hängt hiervon ab.
+
*The above definition of the bit error probability applies whether or not there are statistical bindings within the error sequence &nbsp;$〈e_ν〉$.&nbsp; Depending on this, one has to use different digital channel models in a system simulation. The complexity of the &nbsp;$p_{\rm B}$ calculation depends on this.
 
<br>
 
<br>
Im fünften Hauptkapitel wird gezeigt, dass das so genannte &nbsp;[[Digital_Signal_Transmission/Binary_Symmetric_Channel_(BSC)|BSC&ndash;Modell]]&nbsp; (<i>Binary Symmetrical Channel</i>) statistisch unabhängige Fehler liefert, während für die Beschreibung von Bündelfehlerkanälen auf die Modelle von &nbsp;[[Digital_Signal_Transmission/Bündelfehlerkanäle#Kanalmodell_nach_Gilbert.E2.80.93Elliott|Gilbert&ndash;Elliott]]&nbsp; [Gil60]<ref>Gilbert, E. N.: ''Capacity of Burst–Noise Channel,'' In: Bell Syst. Techn. J. Vol. 39, 1960, pp. 1253–1266.</ref> und von &nbsp;[[Digital_Signal_Transmission/Bündelfehlerkanäle#Kanalmodell_nach_McCullough|McCullough]]&nbsp; [McC68]<ref>McCullough, R.H.: ''The Binary Regenerative Channel,'' In: Bell Syst. Techn. J. (47), 1968.</ref> zurückgegriffen werden muss.
+
In the fifth main chapter it will be shown that the so-called &nbsp;[[Digital_Signal_Transmission/Binary_Symmetric_Channel_(BSC)|BSC model]]&nbsp; (<i>Binary Symmetrical Channel</i>) provides statistically independent errors, while for the description of bundle error channels one has to resort to the models of &nbsp;[[Digital_Signal_Transmission/Bündelfehlerkanäle#Kanalmodell_nach_Gilbert.E2.80.93Elliott|Gilbert&ndash;Elliott]]&nbsp; [Gil60]<ref>Gilbert, E. N.: ''Capacity of Burst–Noise Channel,'' In: Bell Syst. Techn. J. Vol. 39, 1960, pp. 1253–1266.</ref> and of &nbsp;[[Digital_Signal_Transmission/Bündelfehlerkanäle#Kanalmodell_nach_McCullough|McCullough]]&nbsp; [McC68]<ref>McCullough, R.H.: ''The Binary Regenerative Channel,'' In: Bell Syst. Techn. J. (47), 1968.</ref>.
  
  
== Definition der Bitfehlerquote==
+
== Definition of the bit error rate==
 
<br>
 
<br>
Die Bitfehlerwahrscheinlichkeit &nbsp;$p_{\rm B}$&nbsp; eignet sich zum Beispiel gut für die Konzipierung und Optimierung von Digitalsystemen. Diese ist eine &nbsp;''Apriori-Kenngröße'', die eine Vorhersage über das Fehlerverhalten eines Nachrichtensystems erlaubt, ohne dass dieses bereits realisiert sein muss.<br>
+
The bit error probability &nbsp;$p_{\rm B}$,&nbsp; for example, is well suited for the design and optimization of digital systems. It is an &nbsp;''a priori parameter'', which allows a prediction about the error behavior of a message system without having to realize it already.<br>
  
Dagegen muss zur messtechnischen Erfassung der Qualität eines realisierten Systems oder bei einer Systemsimulation auf die Bitfehlerquote übergegangen werden, die durch den Vergleich von Quellensymbolfolge &nbsp;$〈q_ν〉$&nbsp; und Sinkensymbolfolge &nbsp;$〈v_ν〉$&nbsp; ermittelt wird. Diese ist somit eine &nbsp;''Aposteriori-Kenngröße'' des Systems.
+
In contrast, to measure the quality of a realized system or in a system simulation, one must switch to the bit error rate, which is determined by comparing the source symbol sequence &nbsp;$〈q_ν〉$&nbsp; and sink symbol sequence &nbsp;$〈v_ν〉$.&nbsp; This is thus an &nbsp;''a posteriori parameter'' of the system.
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Die '''Bitfehlerquote''' (englisch: <i>Bit Error Rate</i>, BER) ist das Verhältnis aus der Anzahl &nbsp;$n_{\rm B}(N)$&nbsp;  der aufgetretenen Bitfehler &nbsp;$(v_ν \ne q_ν)$&nbsp;  und der Anzahl &nbsp;$N$&nbsp; der insgesamt übertragenen Symbole:
+
$\text{Definition:}$&nbsp; The '''bit error rate''' (BER) is the ratio of the number &nbsp;$n_{\rm B}(N)$&nbsp;  of bit errors &nbsp;$(v_ν \ne q_ν)$&nbsp;  and the number &nbsp;$N$&nbsp; of transmitted symbols:
 
:$$h_{\rm B}(N) = \frac{n_{\rm B}(N)}{N}  \hspace{0.05cm}.$$
 
:$$h_{\rm B}(N) = \frac{n_{\rm B}(N)}{N}  \hspace{0.05cm}.$$
Im Sinne der Wahrscheinlichkeitsrechnung ist die Bitfehlerquote eine &nbsp;[[Theory_of_Stochastic_Signals/Vom_Zufallsexperiment_zur_Zufallsgröße#Bernoullisches_Gesetz_der_gro.C3.9Fen_Zahlen|relative Häufigkeit]]; sie wird deshalb auch ''Bitfehlerhäufigkeit'' genannt.}}<br>
+
In terms of probability theory, the bit error rate is a &nbsp;[[Theory_of_Stochastic_Signals/From_Random_Experiment_to_Random_Variable#Bernoulli.27s_law_of_large_numbers|relative frequency]]; therefore, it is also called ''bit error frequency''.}}<br>
  
*Die Schreibweise &nbsp;$h_{\rm B}(N)$&nbsp; soll deutlich machen, dass die per Messung oder durch Simulation ermittelte Bitfehlerquote signifikant von dem Parameter &nbsp;$N$ &ndash; also der Anzahl der insgesamt übertragenen oder simulierten Symbole &ndash; abhängt.  
+
*The notation &nbsp;$h_{\rm B}(N)$&nbsp; is intended to make clear that the bit error rate determined by measurement or simulation depends significantly on the parameter &nbsp;$N$ &ndash; i.e. the total number of transmitted or simulated symbols.  
*Nach den elementaren Gesetzen der Wahrscheinlichkeitsrechnung stimmt nur im Grenzfall &nbsp;$N \to \infty$&nbsp; die Aposteriori&ndash;Kenngröße &nbsp;$h_{\rm B}(N)$&nbsp; mit der Apriori&ndash;Kenngröße &nbsp;$p_{\rm B}$&nbsp; exakt überein.<br><br>
+
*According to the elementary laws of probability theory, only in the limiting case &nbsp;$N \to \infty$&nbsp; the a posteriori parameter &nbsp;$h_{\rm B}(N)$&nbsp; coincides exactly with the a priori parameter &nbsp;$p_{\rm B}$.&nbsp; <br><br>
Der Zusammenhang zwischen Wahrscheinlichkeit und relativer Häufigkeit wird im Lernvideo [[Bernoullisches_Gesetz_der_großen_Zahlen_(Lernvideo)|Bernoullisches Gesetz der großen Zahlen]] verdeutlicht.
+
The connection between probability and relative frequency is clarified in the learning video [[Bernoullisches_Gesetz_der_großen_Zahlen_(Lernvideo)|Bernoullisches Gesetz der großen Zahlen]].
 
<br><br>
 
<br><br>
  
== Bitfehlerwahrscheinlichkeit und Bitfehlerquote beim BSC-Modell==
+
== Bit error probability and bit error rate in the BSC model==
 
<br>
 
<br>
Für die nachfolgenden Herleitungen wird das BSC&ndash;Modell (''Binary Symmetric Channel''&nbsp;) zugrunde gelegt, das in &nbsp;[[Digitalsignal%C3%BCbertragung/Binary_Symmetric_Channel_(BSC)#Fehlerkorrelationsfunktion_des_BSC.E2.80.93Modells| Kapitel 5.2]]&nbsp; im Detail beschrieben wird.
+
The following derivations are based on the BSC model (''Binary Symmetric Channel''&nbsp;), which is described in detail in &nbsp;[[Digitalsignal%C3%BCbertragung/Binary_Symmetric_Channel_(BSC)#Fehlerkorrelationsfunktion_des_BSC.E2.80.93Modells| chapter 5.2]].&nbsp;  
*Jedes Bit wird mit der Wahrscheinlichkeit &nbsp;$p = {\rm Pr}(v_{\nu} \ne q_{\nu}) = {\rm Pr}(e_{\nu} = 1)$&nbsp; verfälscht, unabhängig von den Fehlerwahrscheinlichkeiten der benachbarten Symbole.  
+
*Each bit is distorted with probability &nbsp;$p = {\rm Pr}(v_{\nu} \ne q_{\nu}) = {\rm Pr}(e_{\nu} = 1)$,&nbsp; independent of the error probabilities of the neighboring symbols.
*Die (mittlere) Bitfehlerwahrscheinlichkeit &nbsp;$p_{\rm B}$&nbsp; ist somit ebenfalls gleich &nbsp;$p$.
+
*Thus, the (average) bit error probability &nbsp;$p_{\rm B}$&nbsp; is also equal to &nbsp;$p$.
 
<br>
 
<br>
  
Nun wird abgeschätzt, wie genau beim BSC-Modell die Bitfehlerwahrscheinlichkeit &nbsp;$p_{\rm B} = p$&nbsp; durch die Bitfehlerquote &nbsp;$h_{\rm B}(N)$&nbsp; approximiert wird:
+
Now we estimate how accurately in the BSC model the bit error probability &nbsp;$p_{\rm B} = p$&nbsp; is approximated by the bit error rate &nbsp;$h_{\rm B}(N)$:&nbsp;
  
*Die Anzahl der Bitfehler bei der Übertragung von &nbsp;$N$&nbsp; Symbolen ist eine diskrete Zufallsgröße:
+
*The number of bit errors in the transmission of &nbsp;$N$&nbsp; symbols is a discrete random quantity:
 
:$$n_{\rm B}(N) = \sum\limits_{\it \nu=\rm 1}^{\it N} e_{\nu} \hspace{0.2cm} \in \hspace{0.2cm} \{0, 1, \hspace{0.05cm}\text{...} \hspace{0.05cm} , N \}\hspace{0.05cm}.$$
 
:$$n_{\rm B}(N) = \sum\limits_{\it \nu=\rm 1}^{\it N} e_{\nu} \hspace{0.2cm} \in \hspace{0.2cm} \{0, 1, \hspace{0.05cm}\text{...} \hspace{0.05cm} , N \}\hspace{0.05cm}.$$
*Bei statistisch unabhängigen Fehlern (BSC&ndash;Modell) ist &nbsp;$n_{\rm B}(N)$&nbsp; [[Theory_of_Stochastic_Signals/Binomialverteilung#Allgemeine_Beschreibung_der_Binomialverteilung|binominalverteilt]]. Demzufolge gilt für Mittelwert und Streuung dieser Zufallsgröße:
+
*In the case of statistically independent errors (BSC model), &nbsp;$n_{\rm B}(N)$&nbsp; is [[Theory_of_Stochastic_Signals/Binomial_Distribution#General_description_of_the_binomial_distribution|binomially distributed]]. Consequently, the mean and dispersion of this random variable are:
 
:$$m_{n{\rm B}}=N \cdot p_{\rm B},\hspace{0.2cm}\sigma_{n{\rm B}}=\sqrt{N\cdot p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}\hspace{0.05cm}.$$
 
:$$m_{n{\rm B}}=N \cdot p_{\rm B},\hspace{0.2cm}\sigma_{n{\rm B}}=\sqrt{N\cdot p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}\hspace{0.05cm}.$$
*Für Mittelwert und Streuung der Bitfehlerquote &nbsp;$h_{\rm B}(N)= n_{\rm B}(N)/N$&nbsp; gilt deshalb::
+
*Therefore, for mean and dispersion of bit error rate &nbsp;$h_{\rm B}(N)= n_{\rm B}(N)/N$&nbsp; holds:
 
<math>m_{h{\rm B}}= \frac{m_{n{\rm B}}}{N} = p_{\rm B}\hspace{0.05cm},\hspace{0.2cm}\sigma_{h{\rm B}}= \frac{\sigma_{n{\rm B}}}{N}=
 
<math>m_{h{\rm B}}= \frac{m_{n{\rm B}}}{N} = p_{\rm B}\hspace{0.05cm},\hspace{0.2cm}\sigma_{h{\rm B}}= \frac{\sigma_{n{\rm B}}}{N}=
 
   \sqrt{\frac{ p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}{N}}\hspace{0.05cm}.</math>
 
   \sqrt{\frac{ p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}{N}}\hspace{0.05cm}.</math>
*Nach &nbsp;[https://de.wikipedia.org/wiki/Abraham_de_Moivre Moivre]&nbsp; und &nbsp;[https://de.wikipedia.org/wiki/Pierre-Simon_Laplace Laplace]&nbsp; kann aber die Binominalverteilung näherungsweise durch eine Gaußverteilung approximiert  werden:
+
*However, according to &nbsp;[https://en.wikipedia.org/wiki/Abraham_de_Moivre Moivre]&nbsp; and &nbsp;[https://en.wikipedia.org/wiki/Pierre-Simon_Laplace Laplace]&nbsp; the binomial distribution can be approximated by a Gaussian distribution:
 
:$$f_{h{\rm B}}({h_{\rm B}}) \approx \frac{1}{\sqrt{2\pi}\cdot\sigma_{h{\rm B}}}\cdot {\rm e}^{-(h_{\rm B}-p_{\rm B})^2/(2 \hspace{0.05cm}\cdot \hspace{0.05cm}\sigma_{h{\rm B}}^2)}.$$
 
:$$f_{h{\rm B}}({h_{\rm B}}) \approx \frac{1}{\sqrt{2\pi}\cdot\sigma_{h{\rm B}}}\cdot {\rm e}^{-(h_{\rm B}-p_{\rm B})^2/(2 \hspace{0.05cm}\cdot \hspace{0.05cm}\sigma_{h{\rm B}}^2)}.$$
*Mit dem &nbsp;[[Theory_of_Stochastic_Signals/Gaußverteilte_Zufallsgrößen#.C3.9Cberschreitungswahrscheinlichkeit|Gaußschen Fehlerintergal]]&nbsp; ${\rm Q}(x)$&nbsp; lässt sich so die Wahrscheinlichkeit &nbsp;$p_\varepsilon$&nbsp;  berechnen, dass die per Simulation/Messung über &nbsp;$N$&nbsp; Symbole ermittelte Bitfehlerquote &nbsp;$h_{\rm B}(N)$&nbsp; betragsmäßig um weniger als einen Wert &nbsp;$\varepsilon$&nbsp; von der tatsächlichen Bitfehlerwahrscheinlichkeit &nbsp;$p_{\rm B}$&nbsp; abweicht:
+
*Using the &nbsp;[[Theory_of_Stochastic_Signals/Gaussian_Distributed_Random_Variables#Exceedance_probability|Gaussian error integral]]&nbsp; ${\rm Q}(x)$,&nbsp; the probability &nbsp;$p_\varepsilon$&nbsp;  can be calculated that the bit error rate &nbsp;$h_{\rm B}(N)$&nbsp; determined by simulation/measurement over &nbsp;$N$&nbsp; symbols differs in amount by less than one value &nbsp;$\varepsilon$&nbsp; from the actual bit error probability &nbsp;$p_{\rm B}$:&nbsp;  
 
:$$p_{\varepsilon}= {\rm Pr} \left( |h_{\rm B}(N) - p_{\rm B}| < \varepsilon \right)
 
:$$p_{\varepsilon}= {\rm Pr} \left( |h_{\rm B}(N) - p_{\rm B}| < \varepsilon \right)
 
   = 1 -2 \cdot {\rm Q} \left( \frac{\varepsilon}{\sigma_{h{\rm B}}} \right)=
 
   = 1 -2 \cdot {\rm Q} \left( \frac{\varepsilon}{\sigma_{h{\rm B}}} \right)=
Line 73: Line 73:
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Fazit:}$&nbsp; Dieses Ergebnis ist wie folgt zu interpretieren:  
+
$\text{Conclusion:}$&nbsp; This result can be interpreted as follows:
*Führt man unendlich viele Versuchsreihen über jeweils &nbsp;$N$&nbsp; Symbole durch, ist der Mittelwert &nbsp;$m_{h{\rm B} }$&nbsp; tatsächlich gleich der gesuchten Fehlerwahrscheinlichkeit &nbsp;$p_{\rm B}$.  
+
*If one performs an infinite number of test series over &nbsp;$N$&nbsp; symbols each, the mean value &nbsp;$m_{h{\rm B} }$&nbsp; is actually equal to the sought error probability &nbsp;$p_{\rm B}$.  
*Bei einer einzigen Versuchsreihe wird man dagegen nur eine Näherung erhalten, wobei die jeweilige Abweichung vom Sollwert bei mehreren Versuchsreihen gaußverteilt ist.}}
+
*With a single test series, on the other hand, one will only obtain an approximation, whereby the respective deviation from the nominal value is Gaussian distributed with several test series.}}
  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 1:}$&nbsp; Die Bitfehlerwahrscheinlichkeit betrage &nbsp;$p_{\rm B}= 10^{-3}$&nbsp; und es ist bekannt, dass die Bitfehler statistisch unabhängig sind.  
+
$\text{Example 1:}$&nbsp; The bit error probability is &nbsp;$p_{\rm B}= 10^{-3}$&nbsp; and it is known that the bit errors are statistically independent.
*Macht man nun sehr viele Versuchsreihen mit jeweils &nbsp;$N= 10^{5}$&nbsp; Symbolen, so werden die jeweiligen Ergebnisse  &nbsp;$h_{\rm B}(N)$&nbsp; entsprechend einer Gaußverteilung um den Sollwert &nbsp;$10^{-3}$&nbsp; variieren.  
+
*If we now make a large number of test series with &nbsp;$N= 10^{5}$&nbsp; symbols each, the respective results &nbsp;$h_{\rm B}(N)$&nbsp; will vary around the nominal value &nbsp;$10^{-3}$&nbsp; according to a Gaussian distribution.
*Die Streuung beträgt dabei &nbsp;$\sigma_{h{\rm B} }=  \sqrt{ { p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}/{N} }\approx 10^{-4}\hspace{0.05cm}.$
+
*The root mean square here is &nbsp;$\sigma_{h{\rm B} }=  \sqrt{ { p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}/{N} }\approx 10^{-4}\hspace{0.05cm}.$
*Die Wahrscheinlichkeit, dass die relative Häufigkeit einen Wert zwischen &nbsp;$0.9 \cdot 10^{-3}$&nbsp; und &nbsp;$1.1 \cdot 10^{-3}$&nbsp; haben wird &nbsp;  $(\varepsilon=10^{-4})$, ist somit gleich
+
*Thus, the probability that the relative frequency will have a value between &nbsp;$0.9 \cdot 10^{-3}$&nbsp; and &nbsp;$1.1 \cdot 10^{-3}$&nbsp; &nbsp;  $(\varepsilon=10^{-4})$ is equal to
 
:$$p_{\varepsilon} = 1 - 2 \cdot  {\rm Q} \left({\varepsilon}/{\sigma_{h{\rm B} } } \right )= 1 - 2 \cdot {\rm Q} (1) \approx 68.4\%.$$  
 
:$$p_{\varepsilon} = 1 - 2 \cdot  {\rm Q} \left({\varepsilon}/{\sigma_{h{\rm B} } } \right )= 1 - 2 \cdot {\rm Q} (1) \approx 68.4\%.$$  
*Soll diese Wahrscheinlichkeit (Genauigkeit) auf &nbsp;$95\%$&nbsp; gesteigert werden, so wären  &nbsp;$N = 400\hspace{0.05cm}000$&nbsp; Symbole erforderlich.}}
+
*If this probability (accuracy) is to be increased to &nbsp;$95\%$,&nbsp; &nbsp;$N = 400\hspace{0.05cm}000$&nbsp; symbols would be required.}}
  
  
== Fehlerwahrscheinlichkeit bei Gaußschem Rauschen==
+
== Error probability with Gaussian noise==
 
<br>
 
<br>
Entsprechend den &nbsp;[[Digital_Signal_Transmission/Systemkomponenten_eines_Basisbandübertragungssystems#Ersatzschaltbild_und_Voraussetzungen_f.C3.BCr_das_erste_Hauptkapitel| Voraussetzungen zu diesem Kapitel]]&nbsp; gehen wir von folgenden Annahmen aus:
+
According to the &nbsp;[[Digital_Signal_Transmission/System_Components_of_a_Baseband_Transmission_System#Block_diagram_and_prerequisites_for_the_first_main_chapter|prerequisites to this chapter]],&nbsp; we make the following assumptions:
*Das Detektionssignal zu den Detektionszeitpunkten kann wie folgt dargestellt werden: &nbsp; $ d(\nu  T) = d_{\rm S}(\nu  T)+d_{\rm N}(\nu T)\hspace{0.05cm}. $
+
*The detection signal at the detection times can be represented as follows: &nbsp; $ d(\nu  T) = d_{\rm S}(\nu  T)+d_{\rm N}(\nu T)\hspace{0.05cm}. $
*Der Nutzanteil wird durch die Wahrscheinlichkeitsdichtefunktion (WDF) &nbsp;$f_{d{\rm S}}(d_{\rm S}) $&nbsp; beschrieben, wobei wir hier von unterschiedlichen Auftrittswahrscheinlichkeiten &nbsp;$p_{\rm L} = {\rm Pr}(d_{\rm S} = -s_0)$&nbsp; und &nbsp;$p_{\rm H} = {\rm Pr}(d_{\rm S} = +s_0)= 1-p_{\rm L}$&nbsp; ausgehen.
+
*The useful component is described by the probability density function (PDF) &nbsp;$f_{d{\rm S}}(d_{\rm S}) $,&nbsp; where we assume here different occurrence probabilities &nbsp;$p_{\rm L} = {\rm Pr}(d_{\rm S} = -s_0)$&nbsp; and &nbsp;$p_{\rm H} = {\rm Pr}(d_{\rm S} = +s_0)= 1-p_{\rm L}$.&nbsp;  
*Die WDF &nbsp;$f_{d{\rm N}}(d_{\rm N})$&nbsp; der Störkomponente sei gaußförmig und besitze die Streuung &nbsp;$\sigma_d$.
+
*Let the PDF &nbsp;$f_{d{\rm N}}(d_{\rm N})$&nbsp; of the interference component be Gaussian and possess the rms value &nbsp;$\sigma_d$.
  
  
[[File:P_ID1259__Dig_T_1_2_S3_v2.png|center|frame|Fehlerwahrscheinlichkeit bei Gaußschem Rauschen|class=fit]]
+
[[File:P_ID1259__Dig_T_1_2_S3_v2.png|center|frame|Error probability with Gaussian noise|class=fit]]
  
Unter der Voraussetzung, dass &nbsp;$d_{\rm S}(\nu  T)$&nbsp; und &nbsp;$d_{\rm N}(\nu  T)$&nbsp; statistisch unabhängig voneinander sind  &nbsp;("signalunabhängiges Rauschen"),  ergibt sich die WDF &nbsp;$f_d(d) $&nbsp; der Detektionsabtastwerte &nbsp;$d(\nu  T)$&nbsp; als das Faltungsprodukt
+
Assuming that &nbsp;$d_{\rm S}(\nu  T)$&nbsp; and &nbsp;$d_{\rm N}(\nu  T)$&nbsp; are statistically independent of each other &nbsp;("signal independent noise"),  the PDF &nbsp;$f_d(d) $&nbsp; of the detection samples &nbsp;$d(\nu  T)$&nbsp; is obtained as the convolution product
 
:$$f_d(d) = f_{d{\rm S}}(d_{\rm S}) \star f_{d{\rm N}}(d_{\rm N})\hspace{0.05cm}.$$
 
:$$f_d(d) = f_{d{\rm S}}(d_{\rm S}) \star f_{d{\rm N}}(d_{\rm N})\hspace{0.05cm}.$$
  
Der Schwellenwertentscheider mit der Schwelle &nbsp;$E = 0$&nbsp; trifft immer dann eine falsche Entscheidung, wenn
+
The threshold decision with threshold &nbsp;$E = 0$&nbsp; makes a wrong decision whenever
*das Symbol &nbsp;$\rm L$&nbsp; gesendet wurde &nbsp;$(d_{\rm S} = -s_0)$ und &nbsp;$d > 0$&nbsp; ist (rote schraffierte Fläche), oder
+
*the symbol &nbsp;$\rm L$&nbsp; was sent &nbsp;$(d_{\rm S} = -s_0)$ and &nbsp;$d > 0$&nbsp; (red shaded area), or
*das Symbol  &nbsp;$\rm H$&nbsp; gesendet wurde &nbsp;$(d_{\rm S} = +s_0)$ und &nbsp;$d < 0$&nbsp; ist (blaue schraffierte Fläche).
+
*the symbol &nbsp;$\rm H$&nbsp; was sent &nbsp;$(d_{\rm S} = +s_0)$ and &nbsp;$d < 0$&nbsp; (blue shaded area).
 
<br>
 
<br>
Da die Flächen der roten und der blauen  Gaußkurven zusammen &nbsp;$1$&nbsp; ergeben, gibt die Summe aus der rot und der blau schraffierten Fläche die Bitfehlerwahrscheinlichkeit &nbsp;$p_{\rm B}$&nbsp; an. Die beiden grün schraffierten Flächen in der oberen Wahrscheinlichkeitsdichtefunktion &nbsp;$f_{d{\rm N}}(d_{\rm N})$&nbsp; sind &ndash; jede für sich &ndash; ebenfalls gleich &nbsp;$p_{\rm B}$.
+
Since the areas of the red and blue Gaussian curves add up to &nbsp;$1$,&nbsp; the sum of the red and blue shaded areas gives the bit error probability &nbsp;$p_{\rm B}$.&nbsp; The two green shaded areas in the upper probability density function &nbsp;$f_{d{\rm N}}(d_{\rm N})$&nbsp; are &ndash; each separately &ndash; also equal to &nbsp;$p_{\rm B}$.
  
  
Die anhand der Grafik veranschaulichten Ergebnisse sollen nun formelmäßig hergeleitet werden. Ausgegangen wird von der Gleichung
+
The results illustrated by the diagram are now to be derived as formulas. We start from the equation
 
:$$p_{\rm B} = p_{\rm L} \cdot {\rm Pr}( v_\nu = \mathbf{H}\hspace{0.1cm}|\hspace{0.1cm} q_\nu = \mathbf{L})+
 
:$$p_{\rm B} = p_{\rm L} \cdot {\rm Pr}( v_\nu = \mathbf{H}\hspace{0.1cm}|\hspace{0.1cm} q_\nu = \mathbf{L})+
 
   p_{\rm H} \cdot {\rm Pr}(v_\nu = \mathbf{L}\hspace{0.1cm}|\hspace{0.1cm} q_\nu = \mathbf{H})\hspace{0.05cm}.$$
 
   p_{\rm H} \cdot {\rm Pr}(v_\nu = \mathbf{L}\hspace{0.1cm}|\hspace{0.1cm} q_\nu = \mathbf{H})\hspace{0.05cm}.$$
*Hierbei sind &nbsp;$p_{\rm L} $&nbsp; und &nbsp;$p_{\rm H} $&nbsp; die Quellensymbolwahrscheinlichkeiten. Die jeweils zweiten (bedingten) Wahrscheinlichkeiten &nbsp;$ {\rm Pr}( v_\nu \hspace{0.05cm}|\hspace{0.05cm} q_\nu)$&nbsp; beschreiben die Verfälschungen durch den AWGN&ndash;Kanal. Aus der Entscheidungsregel des Schwellenwertentscheiders &nbsp;$($mit Schwelle &nbsp;$E = 0)$&nbsp; ergibt sich auch:
+
*Here &nbsp;$p_{\rm L} $&nbsp; and &nbsp;$p_{\rm H} $&nbsp; are the source symbol probabilities. The respective second (conditional) probabilities &nbsp;$ {\rm Pr}( v_\nu \hspace{0.05cm}|\hspace{0.05cm} q_\nu)$&nbsp;describe the distortions due to the AWGN channel. From the decision rule of the threshold decision &nbsp;$($with threshold &nbsp;$E = 0)$&nbsp; also results:
 
:$$p_{\rm B} = p_{\rm L} \cdot {\rm Pr}( d(\nu T)>0)+  p_{\rm H} \cdot {\rm Pr}( d(\nu  T)<0) =p_{\rm L} \cdot {\rm Pr}( d_{\rm N}(\nu T)>+s_0)+  p_{\rm H} \cdot {\rm Pr}( d_{\rm N}(\nu T)<-s_0) \hspace{0.05cm}.$$
 
:$$p_{\rm B} = p_{\rm L} \cdot {\rm Pr}( d(\nu T)>0)+  p_{\rm H} \cdot {\rm Pr}( d(\nu  T)<0) =p_{\rm L} \cdot {\rm Pr}( d_{\rm N}(\nu T)>+s_0)+  p_{\rm H} \cdot {\rm Pr}( d_{\rm N}(\nu T)<-s_0) \hspace{0.05cm}.$$
*Die beiden Überschreitungswahrscheinlichkeiten in obiger Gleichung sind aufgrund der Symmetrie der Gaußschen WDF &nbsp;$f_{d{\rm N}}(d_{\rm N})$&nbsp; gleich. Es gilt:
+
*The two exceedance probabilities in the above equation are equal due to the symmetry of the Gaussian PDF &nbsp;$f_{d{\rm N}}(d_{\rm N})$.&nbsp; It holds:
 
:$$p_{\rm B} = (p_{\rm L} + p_{\rm H}) \cdot {\rm Pr}( d_{\rm N}(\nu T)>s_0) = {\rm Pr}( d_{\rm N}(\nu T)>s_0)\hspace{0.05cm}.$$
 
:$$p_{\rm B} = (p_{\rm L} + p_{\rm H}) \cdot {\rm Pr}( d_{\rm N}(\nu T)>s_0) = {\rm Pr}( d_{\rm N}(\nu T)>s_0)\hspace{0.05cm}.$$
:Das bedeutet: &nbsp; $p_{\rm B}$&nbsp; hängt bei einem Binärsystem mit der Schwelle &nbsp;$E = 0$&nbsp; nicht von den Symbolwahrscheinlichkeiten &nbsp;$p_{\rm L} $&nbsp; und &nbsp;$p_{\rm H} = 1- p_{\rm L}$&nbsp; ab.
+
:This means: &nbsp; $p_{\rm B}$&nbsp; does not depend on the symbol probabilities &nbsp;$p_{\rm L} $&nbsp; and &nbsp;$p_{\rm H} = 1- p_{\rm L}$&nbsp; for a binary system with threshold &nbsp;$E = 0$.&nbsp;
*Die Wahrscheinlichkeit, dass der AWGN&ndash;Rauschterm &nbsp;$d_{\rm N}$&nbsp; mit Streuung &nbsp;$\sigma_d$&nbsp; größer ist als die NRZ&ndash;Sendeimpulsamplitude &nbsp;$s_0$, ergibt sich damit zu:
+
*The probability that the AWGN noise term &nbsp;$d_{\rm N}$&nbsp; with rms value &nbsp;$\sigma_d$&nbsp; is larger than the NRZ transmitted pulse amplitude &nbsp;$s_0$ is thus given by:
 
:$$p_{\rm B} = \int_{s_0}^{+\infty}f_{d{\rm N}}(d_{\rm N})\,{\rm d} d_{\rm N} =
 
:$$p_{\rm B} = \int_{s_0}^{+\infty}f_{d{\rm N}}(d_{\rm N})\,{\rm d} d_{\rm N} =
 
   \frac{\rm 1}{\sqrt{2\pi} \cdot \sigma_d}\int_{
 
   \frac{\rm 1}{\sqrt{2\pi} \cdot \sigma_d}\int_{
 
s_0}^{+\infty}{\rm e} ^{-d_{\rm N}^2/(2\sigma_d^2) }\,{\rm d} d_{\rm
 
s_0}^{+\infty}{\rm e} ^{-d_{\rm N}^2/(2\sigma_d^2) }\,{\rm d} d_{\rm
 
N}\hspace{0.05cm}.$$
 
N}\hspace{0.05cm}.$$
*Unter Verwendung des komplementären Gaußschen Fehlerintegrals &nbsp;${\rm Q}(x)$&nbsp; lautet das Ergebnis:
+
*Using the complementary Gaussian error integral &nbsp;${\rm Q}(x)$,&nbsp; the result is:
 
:$$p_{\rm B} =  {\rm Q} \left( \frac{s_0}{\sigma_d}\right)\hspace{0.4cm}{\rm mit}\hspace{0.4cm}\rm Q (\it x) = \frac{\rm 1}{\sqrt{\rm 2\pi}}\int_{\it
 
:$$p_{\rm B} =  {\rm Q} \left( \frac{s_0}{\sigma_d}\right)\hspace{0.4cm}{\rm mit}\hspace{0.4cm}\rm Q (\it x) = \frac{\rm 1}{\sqrt{\rm 2\pi}}\int_{\it
 
x}^{+\infty}\rm e^{\it -u^{\rm 2}/\rm 2}\,d \it u \hspace{0.05cm}.$$
 
x}^{+\infty}\rm e^{\it -u^{\rm 2}/\rm 2}\,d \it u \hspace{0.05cm}.$$
*Häufig &ndash; insbesondere in der englischsprachigen Literatur &ndash; wird anstelle von &nbsp;${\rm Q}(x)$&nbsp; die vergleichbare komplementäre ''Error Function'' &nbsp;${\rm erfc}(x)$&nbsp; verwendet. Mit dieser gilt:
+
*Often &ndash; especially in the English-language literature &ndash; the comparable complementary ''error function'' &nbsp;${\rm erfc}(x)$&nbsp; is used instead of &nbsp;${\rm Q}(x)$.&nbsp; With this applies:
 
:$$p_{\rm B} =  {1}/{2} \cdot {\rm erfc} \left( \frac{s_0}{\sqrt{2}\cdot \sigma_d}\right)\hspace{0.4cm}{\rm mit}\hspace{0.4cm}
 
:$$p_{\rm B} =  {1}/{2} \cdot {\rm erfc} \left( \frac{s_0}{\sqrt{2}\cdot \sigma_d}\right)\hspace{0.4cm}{\rm mit}\hspace{0.4cm}
 
  {\rm erfc} (\it x) = \frac{\rm 2}{\sqrt{\rm \pi}}\int_{\it
 
  {\rm erfc} (\it x) = \frac{\rm 2}{\sqrt{\rm \pi}}\int_{\it
 
x}^{+\infty}\rm e^{\it -u^{\rm 2}}\,d \it u \hspace{0.05cm}.$$
 
x}^{+\infty}\rm e^{\it -u^{\rm 2}}\,d \it u \hspace{0.05cm}.$$
  
Beide Funktionen findet man in Formelsammlungen in tabellarischer FormSie können zur Berechnung der Funktionswerte von &nbsp;${\rm Q}(x)$&nbsp; und &nbsp;$1/2 \cdot {\rm erfc}(x)$&nbsp; aber auch unser interaktives Applet &nbsp;[[Applets:Komplementäre_Gaußsche_Fehlerfunktionen|Komplementäre Gaußsche Fehlerfunktionen]]&nbsp; benutzen.
+
Both functions can be found in formula collections in tabular formHowever, you can also use our interactive applet &nbsp;[[Applets:Komplementäre_Gaußsche_Fehlerfunktionen|Complementary Gaussian Error Functions]]&nbsp; to calculate the function values of &nbsp;${\rm Q}(x)$&nbsp; and &nbsp;$1/2 \cdot {\rm erfc}(x)$.&nbsp;
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 2:}$&nbsp; Für das Folgende wird vorausgesetzt, dass Tabellen zur Verfügung stehen, in denen das Argument der Gaußschen Fehlerfunktionen im Abstand &nbsp;$0.1$&nbsp; aufgelistet sind. Mit &nbsp;$s_0/\sigma_d = 4$&nbsp; erhält man für die Bitfehlerwahrscheinlichkeit gemäß der Q&ndash;Funktion:
+
$\text{Example 2:}$&nbsp; For the following, we assume that tables are available listing the argument of the Gaussian error functions at &nbsp;$0.1$&nbsp; intervals. With &nbsp;$s_0/\sigma_d = 4$,&nbsp; we obtain for the bit error probability according to the Q&ndash;function:
 
:$$p_{\rm B} = {\rm Q} (4) = 0.317 \cdot 10^{-4}\hspace{0.05cm}.$$
 
:$$p_{\rm B} = {\rm Q} (4) = 0.317 \cdot 10^{-4}\hspace{0.05cm}.$$
Nach der zweiten Gleichung ergibt sich:
+
According to the second equation we get:
 
:$$p_{\rm B} = {1}/{2} \cdot {\rm erfc} ( {4}/{\sqrt{2} })= {1}/{2} \cdot {\rm erfc} ( 2.828)\approx {1}/{2} \cdot {\rm erfc} ( 2.8)= 0.375 \cdot 10^{-4}\hspace{0.05cm}.$$
 
:$$p_{\rm B} = {1}/{2} \cdot {\rm erfc} ( {4}/{\sqrt{2} })= {1}/{2} \cdot {\rm erfc} ( 2.828)\approx {1}/{2} \cdot {\rm erfc} ( 2.8)= 0.375 \cdot 10^{-4}\hspace{0.05cm}.$$
*Richtig ist der erste Wert. Bei der zweiten Berechnungsart muss man runden oder &ndash; noch besser &ndash; interpolieren, was aufgrund der starken Nichtlinearität dieser Funktion sehr schwierig ist.<br>
+
*The first value is correct. With the second calculation method, you have to round or &ndash; even better &ndash; interpolate, which is very difficult due to the strong non-linearity of this function.<br>
*Bei den gegebenen Zahlenwerten ist demnach die Q&ndash;Funktion besser geeignet. Außerhalb von Übungsbeispielen wird &nbsp;$s_0/\sigma_d$&nbsp; in der Regel einen "krummen" Wert besitzen. In diesem Fall bietet die Q&ndash;Funktion  natürlich keinen Vorteil gegenüber &nbsp;${\rm erfc}(x)$.}}
+
*With the given numerical values, the Q&ndash;function is therefore more suitable. Outside of exercise examples, &nbsp;$s_0/\sigma_d$&nbsp; will usually have a "curved" value. In this case, of course, the Q&ndash;function offers no advantage over &nbsp;${\rm erfc}(x)$.}}
  
 
== Optimal binary receiver &ndash; "Matched Filter" realization ==
 
== Optimal binary receiver &ndash; "Matched Filter" realization ==

Revision as of 21:00, 10 February 2022

Definition of the bit error probability


For the definition of the bit error probability

The diagram shows a very simple, but generally valid model of a binary transmission system. This can be characterized as follows:

  • Source and sink are described by the two binary sequences  $〈q_ν〉$  and  $〈v_ν〉$. 
  • The entire transmission system – consisting of transmitter, transmission channel including interference and receiver – is regarded as a "Black Box" with binary input and binary output.
  • This "digital channel" is characterized solely by the error sequence $〈e_ν〉$. If the $\nu$–th bit is transmitted without errors  $(v_ν = q_ν)$,   $e_ν= 0$ is valid, otherwise  $(v_ν \ne q_ν)$   $e_ν= 1$  is set.


$\text{Definition:}$  The (average) bit error probability for a binary system is given as follows:

$$p_{\rm B} = {\rm E}\big[{\rm Pr}(v_{\nu} \ne q_{\nu})\big]= \overline{ {\rm Pr}(v_{\nu} \ne q_{\nu}) } = \lim_{N \to\infty}\frac{1}{N}\cdot\sum\limits_{\nu=1}^{N}{\rm Pr}(v_{\nu} \ne q_{\nu})\hspace{0.05cm}.$$

This statistical quantity is the most important evaluation criterion of any digital system.


  • The calculation as expected value  $\rm E[\text{...}]$  according to the first part of the above equation corresponds to a ensemble averaging over the falsification probability  ${\rm Pr}(v_{\nu} \ne q_{\nu})$  of the  $\nu$–th symbol, while the line in the right part of the equation marks a time averaging.
  • Both types of calculation lead – under the justified assumption of ergodic processes – to the same result, as shown in the fourth main chapter "Random Variables with Statistical Dependence" of the book  Stochastische Signaltheorie
  • Also from the error sequence  $〈e_ν〉$  the bit error probability can be determined as an expected value, taking into account that the error quantity  $e_ν$  can only take the values  $0$  and  $1$: 
$$\it p_{\rm B} = \rm E\big[\rm Pr(\it e_{\nu}=\rm 1)\big]= {\rm E}\big[{\it e_{\nu}}\big]\hspace{0.05cm}.$$
  • The above definition of the bit error probability applies whether or not there are statistical bindings within the error sequence  $〈e_ν〉$.  Depending on this, one has to use different digital channel models in a system simulation. The complexity of the  $p_{\rm B}$ calculation depends on this.


In the fifth main chapter it will be shown that the so-called  BSC model  (Binary Symmetrical Channel) provides statistically independent errors, while for the description of bundle error channels one has to resort to the models of  Gilbert–Elliott  [Gil60][1] and of  McCullough  [McC68][2].


Definition of the bit error rate


The bit error probability  $p_{\rm B}$,  for example, is well suited for the design and optimization of digital systems. It is an  a priori parameter, which allows a prediction about the error behavior of a message system without having to realize it already.

In contrast, to measure the quality of a realized system or in a system simulation, one must switch to the bit error rate, which is determined by comparing the source symbol sequence  $〈q_ν〉$  and sink symbol sequence  $〈v_ν〉$.  This is thus an  a posteriori parameter of the system.

$\text{Definition:}$  The bit error rate (BER) is the ratio of the number  $n_{\rm B}(N)$  of bit errors  $(v_ν \ne q_ν)$  and the number  $N$  of transmitted symbols:

$$h_{\rm B}(N) = \frac{n_{\rm B}(N)}{N} \hspace{0.05cm}.$$

In terms of probability theory, the bit error rate is a  relative frequency; therefore, it is also called bit error frequency.


  • The notation  $h_{\rm B}(N)$  is intended to make clear that the bit error rate determined by measurement or simulation depends significantly on the parameter  $N$ – i.e. the total number of transmitted or simulated symbols.
  • According to the elementary laws of probability theory, only in the limiting case  $N \to \infty$  the a posteriori parameter  $h_{\rm B}(N)$  coincides exactly with the a priori parameter  $p_{\rm B}$. 

The connection between probability and relative frequency is clarified in the learning video Bernoullisches Gesetz der großen Zahlen.

Bit error probability and bit error rate in the BSC model


The following derivations are based on the BSC model (Binary Symmetric Channel ), which is described in detail in   chapter 5.2

  • Each bit is distorted with probability  $p = {\rm Pr}(v_{\nu} \ne q_{\nu}) = {\rm Pr}(e_{\nu} = 1)$,  independent of the error probabilities of the neighboring symbols.
  • Thus, the (average) bit error probability  $p_{\rm B}$  is also equal to  $p$.


Now we estimate how accurately in the BSC model the bit error probability  $p_{\rm B} = p$  is approximated by the bit error rate  $h_{\rm B}(N)$: 

  • The number of bit errors in the transmission of  $N$  symbols is a discrete random quantity:
$$n_{\rm B}(N) = \sum\limits_{\it \nu=\rm 1}^{\it N} e_{\nu} \hspace{0.2cm} \in \hspace{0.2cm} \{0, 1, \hspace{0.05cm}\text{...} \hspace{0.05cm} , N \}\hspace{0.05cm}.$$
  • In the case of statistically independent errors (BSC model),  $n_{\rm B}(N)$  is binomially distributed. Consequently, the mean and dispersion of this random variable are:
$$m_{n{\rm B}}=N \cdot p_{\rm B},\hspace{0.2cm}\sigma_{n{\rm B}}=\sqrt{N\cdot p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}\hspace{0.05cm}.$$
  • Therefore, for mean and dispersion of bit error rate  $h_{\rm B}(N)= n_{\rm B}(N)/N$  holds\[m_{h{\rm B}}= \frac{m_{n{\rm B}}}{N} = p_{\rm B}\hspace{0.05cm},\hspace{0.2cm}\sigma_{h{\rm B}}= \frac{\sigma_{n{\rm B}}}{N}= \sqrt{\frac{ p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}{N}}\hspace{0.05cm}.\]
  • However, according to  Moivre  and  Laplace  the binomial distribution can be approximated by a Gaussian distribution:
$$f_{h{\rm B}}({h_{\rm B}}) \approx \frac{1}{\sqrt{2\pi}\cdot\sigma_{h{\rm B}}}\cdot {\rm e}^{-(h_{\rm B}-p_{\rm B})^2/(2 \hspace{0.05cm}\cdot \hspace{0.05cm}\sigma_{h{\rm B}}^2)}.$$
  • Using the  Gaussian error integral  ${\rm Q}(x)$,  the probability  $p_\varepsilon$  can be calculated that the bit error rate  $h_{\rm B}(N)$  determined by simulation/measurement over  $N$  symbols differs in amount by less than one value  $\varepsilon$  from the actual bit error probability  $p_{\rm B}$: 
$$p_{\varepsilon}= {\rm Pr} \left( |h_{\rm B}(N) - p_{\rm B}| < \varepsilon \right) = 1 -2 \cdot {\rm Q} \left( \frac{\varepsilon}{\sigma_{h{\rm B}}} \right)= 1 -2 \cdot {\rm Q} \left( \frac{\varepsilon \cdot \sqrt{N}}{\sqrt{p_{\rm B} \cdot (1-p_{\rm B})}} \right)\hspace{0.05cm}.$$

$\text{Conclusion:}$  This result can be interpreted as follows:

  • If one performs an infinite number of test series over  $N$  symbols each, the mean value  $m_{h{\rm B} }$  is actually equal to the sought error probability  $p_{\rm B}$.
  • With a single test series, on the other hand, one will only obtain an approximation, whereby the respective deviation from the nominal value is Gaussian distributed with several test series.


$\text{Example 1:}$  The bit error probability is  $p_{\rm B}= 10^{-3}$  and it is known that the bit errors are statistically independent.

  • If we now make a large number of test series with  $N= 10^{5}$  symbols each, the respective results  $h_{\rm B}(N)$  will vary around the nominal value  $10^{-3}$  according to a Gaussian distribution.
  • The root mean square here is  $\sigma_{h{\rm B} }= \sqrt{ { p_{\rm B}\cdot (\rm 1- \it p_{\rm B})}/{N} }\approx 10^{-4}\hspace{0.05cm}.$
  • Thus, the probability that the relative frequency will have a value between  $0.9 \cdot 10^{-3}$  and  $1.1 \cdot 10^{-3}$    $(\varepsilon=10^{-4})$ is equal to
$$p_{\varepsilon} = 1 - 2 \cdot {\rm Q} \left({\varepsilon}/{\sigma_{h{\rm B} } } \right )= 1 - 2 \cdot {\rm Q} (1) \approx 68.4\%.$$
  • If this probability (accuracy) is to be increased to  $95\%$,   $N = 400\hspace{0.05cm}000$  symbols would be required.


Error probability with Gaussian noise


According to the  prerequisites to this chapter,  we make the following assumptions:

  • The detection signal at the detection times can be represented as follows:   $ d(\nu T) = d_{\rm S}(\nu T)+d_{\rm N}(\nu T)\hspace{0.05cm}. $
  • The useful component is described by the probability density function (PDF)  $f_{d{\rm S}}(d_{\rm S}) $,  where we assume here different occurrence probabilities  $p_{\rm L} = {\rm Pr}(d_{\rm S} = -s_0)$  and  $p_{\rm H} = {\rm Pr}(d_{\rm S} = +s_0)= 1-p_{\rm L}$. 
  • Let the PDF  $f_{d{\rm N}}(d_{\rm N})$  of the interference component be Gaussian and possess the rms value  $\sigma_d$.


Error probability with Gaussian noise

Assuming that  $d_{\rm S}(\nu T)$  and  $d_{\rm N}(\nu T)$  are statistically independent of each other  ("signal independent noise"), the PDF  $f_d(d) $  of the detection samples  $d(\nu T)$  is obtained as the convolution product

$$f_d(d) = f_{d{\rm S}}(d_{\rm S}) \star f_{d{\rm N}}(d_{\rm N})\hspace{0.05cm}.$$

The threshold decision with threshold  $E = 0$  makes a wrong decision whenever

  • the symbol  $\rm L$  was sent  $(d_{\rm S} = -s_0)$ and  $d > 0$  (red shaded area), or
  • the symbol  $\rm H$  was sent  $(d_{\rm S} = +s_0)$ and  $d < 0$  (blue shaded area).


Since the areas of the red and blue Gaussian curves add up to  $1$,  the sum of the red and blue shaded areas gives the bit error probability  $p_{\rm B}$.  The two green shaded areas in the upper probability density function  $f_{d{\rm N}}(d_{\rm N})$  are – each separately – also equal to  $p_{\rm B}$.


The results illustrated by the diagram are now to be derived as formulas. We start from the equation

$$p_{\rm B} = p_{\rm L} \cdot {\rm Pr}( v_\nu = \mathbf{H}\hspace{0.1cm}|\hspace{0.1cm} q_\nu = \mathbf{L})+ p_{\rm H} \cdot {\rm Pr}(v_\nu = \mathbf{L}\hspace{0.1cm}|\hspace{0.1cm} q_\nu = \mathbf{H})\hspace{0.05cm}.$$
  • Here  $p_{\rm L} $  and  $p_{\rm H} $  are the source symbol probabilities. The respective second (conditional) probabilities  $ {\rm Pr}( v_\nu \hspace{0.05cm}|\hspace{0.05cm} q_\nu)$ describe the distortions due to the AWGN channel. From the decision rule of the threshold decision  $($with threshold  $E = 0)$  also results:
$$p_{\rm B} = p_{\rm L} \cdot {\rm Pr}( d(\nu T)>0)+ p_{\rm H} \cdot {\rm Pr}( d(\nu T)<0) =p_{\rm L} \cdot {\rm Pr}( d_{\rm N}(\nu T)>+s_0)+ p_{\rm H} \cdot {\rm Pr}( d_{\rm N}(\nu T)<-s_0) \hspace{0.05cm}.$$
  • The two exceedance probabilities in the above equation are equal due to the symmetry of the Gaussian PDF  $f_{d{\rm N}}(d_{\rm N})$.  It holds:
$$p_{\rm B} = (p_{\rm L} + p_{\rm H}) \cdot {\rm Pr}( d_{\rm N}(\nu T)>s_0) = {\rm Pr}( d_{\rm N}(\nu T)>s_0)\hspace{0.05cm}.$$
This means:   $p_{\rm B}$  does not depend on the symbol probabilities  $p_{\rm L} $  and  $p_{\rm H} = 1- p_{\rm L}$  for a binary system with threshold  $E = 0$. 
  • The probability that the AWGN noise term  $d_{\rm N}$  with rms value  $\sigma_d$  is larger than the NRZ transmitted pulse amplitude  $s_0$ is thus given by:
$$p_{\rm B} = \int_{s_0}^{+\infty}f_{d{\rm N}}(d_{\rm N})\,{\rm d} d_{\rm N} = \frac{\rm 1}{\sqrt{2\pi} \cdot \sigma_d}\int_{ s_0}^{+\infty}{\rm e} ^{-d_{\rm N}^2/(2\sigma_d^2) }\,{\rm d} d_{\rm N}\hspace{0.05cm}.$$
  • Using the complementary Gaussian error integral  ${\rm Q}(x)$,  the result is:
$$p_{\rm B} = {\rm Q} \left( \frac{s_0}{\sigma_d}\right)\hspace{0.4cm}{\rm mit}\hspace{0.4cm}\rm Q (\it x) = \frac{\rm 1}{\sqrt{\rm 2\pi}}\int_{\it x}^{+\infty}\rm e^{\it -u^{\rm 2}/\rm 2}\,d \it u \hspace{0.05cm}.$$
  • Often – especially in the English-language literature – the comparable complementary error function  ${\rm erfc}(x)$  is used instead of  ${\rm Q}(x)$.  With this applies:
$$p_{\rm B} = {1}/{2} \cdot {\rm erfc} \left( \frac{s_0}{\sqrt{2}\cdot \sigma_d}\right)\hspace{0.4cm}{\rm mit}\hspace{0.4cm} {\rm erfc} (\it x) = \frac{\rm 2}{\sqrt{\rm \pi}}\int_{\it x}^{+\infty}\rm e^{\it -u^{\rm 2}}\,d \it u \hspace{0.05cm}.$$

Both functions can be found in formula collections in tabular form. However, you can also use our interactive applet  Complementary Gaussian Error Functions  to calculate the function values of  ${\rm Q}(x)$  and  $1/2 \cdot {\rm erfc}(x)$. 

$\text{Example 2:}$  For the following, we assume that tables are available listing the argument of the Gaussian error functions at  $0.1$  intervals. With  $s_0/\sigma_d = 4$,  we obtain for the bit error probability according to the Q–function:

$$p_{\rm B} = {\rm Q} (4) = 0.317 \cdot 10^{-4}\hspace{0.05cm}.$$

According to the second equation we get:

$$p_{\rm B} = {1}/{2} \cdot {\rm erfc} ( {4}/{\sqrt{2} })= {1}/{2} \cdot {\rm erfc} ( 2.828)\approx {1}/{2} \cdot {\rm erfc} ( 2.8)= 0.375 \cdot 10^{-4}\hspace{0.05cm}.$$
  • The first value is correct. With the second calculation method, you have to round or – even better – interpolate, which is very difficult due to the strong non-linearity of this function.
  • With the given numerical values, the Q–function is therefore more suitable. Outside of exercise examples,  $s_0/\sigma_d$  will usually have a "curved" value. In this case, of course, the Q–function offers no advantage over  ${\rm erfc}(x)$.

Optimal binary receiver – "Matched Filter" realization


Wir gehen weiter von den  vorne festgelegten Voraussetzungen  aus.

Optimaler Binärempfänger (Matched-Filter-Variante)
  • Dann kann man für den Frequenzgang und die Impulsantwort des Empfängerfilters ansetzen:
$$H_{\rm E}(f) = {\rm si}(\pi f T) \hspace{0.4cm}\bullet\!\!-\!\!\!-\!\!\!-\!\!\circ \hspace{0.4cm} h_{\rm E}(t) = \left\{ \begin{array}{c} 1/T \\ 1/(2T) \\ 0 \\ \end{array} \right.\quad \begin{array}{*{1}c} {\rm{f\ddot{u}r}} \\ {\rm{f\ddot{u}r}} \\ {\rm{f\ddot{u}r}} \\ \end{array}\begin{array}{*{20}c} |\hspace{0.05cm}t\hspace{0.05cm}|< T/2 \hspace{0.05cm},\\ |\hspace{0.05cm}t\hspace{0.05cm}|= T/2 \hspace{0.05cm},\\ |\hspace{0.05cm}t\hspace{0.05cm}|>T/2 \hspace{0.05cm}. \\ \end{array}$$
  • Aufgrund der Linearität kann für das Detektionsnutzsignal  geschrieben werden:
$$d_{\rm S}(t) = \sum_{(\nu)} a_\nu \cdot g_d ( t - \nu \cdot T)\hspace{0.4cm}{\rm mit}\hspace{0.4cm}g_d(t) = g_s(t) \star h_{\rm E}(t) \hspace{0.05cm}.$$
  • Die Faltung zweier Rechtecke gleicher Breite  $T$  und Höhe  $s_0$  ergibt einen dreieckförmigen Detektionsgrundimpuls  $g_d(t)$  mit  $g_d(t = 0) = s_0$. Wegen  $g_d(|t| \ge 0) \equiv 0$  ist das System impulsinterferenzfrei; es gilt  $d_{\rm S}(\nu T)= \pm s_0$.
  • Die Varianz des Detektionsstörsignals  $d_{\rm N}(t)$ – also die Detektionsstörleistung – lautet:
$$\sigma _d ^2 = \frac{N_0 }{2} \cdot \int_{ - \infty }^{ + \infty } {\left| {H_{\rm E}( f )} \right|^2 \hspace{0.1cm}{\rm{d}}f} = \frac{N_0 }{2} \cdot \int_{- \infty }^{+ \infty } {\rm si}^2(\pi f T)\hspace{0.1cm}{\rm{d}}f = \frac{N_0 }{2T} \hspace{0.05cm}.$$
  • Damit ergeben sich für die Bitfehlerwahrscheinlichkeit entsprechend der letzten Seite die beiden äquivalenten Gleichungen:
$$p_{\rm B} = {\rm Q} \left( \sqrt{\frac{2 \cdot s_0^2 \cdot T}{N_0}}\right)= {\rm Q} \left( \sqrt{\rho_d}\right)\hspace{0.05cm},\hspace{0.5cm} p_{\rm B} = {1}/{2} \cdot {\rm erfc} \left( \sqrt{{ s_0^2 \cdot T}/{N_0}}\right)= {1}/{2}\cdot {\rm erfc}\left( \sqrt{{\rho_d}/{2}}\right) \hspace{0.05cm}.$$

$\text{Definition:}$  Verwendet ist das momentane Signal–zu–Stör–Leistungsverhältnis (SNR)  $\rho_d$   des Detektionssignals  $d(t)$  zu den Zeiten  $\nu T$, kurz Detektions–SNR:

$$\rho_d = \frac{d_{\rm S}^2(\nu T)}{ {\rm E}\big[d_{\rm N}^2(\nu T)\big ]}= \frac{s_0^2}{\sigma _d ^2} \hspace{0.05cm}.$$


Ein Vergleich dieses Ergebnisses mit der Seite   Optimierungskriterium des Matched-Filters  im Buch "Stochastische Signaltheorie" zeigt, dass das Empfangsfilter  $H_{\rm E}(f)$  ein an den Sendegrundimpuls  $g_s(t)$  angepasstes Matched–Filter ist:

$$H_{\rm E}(f) = H_{\rm MF}(f) = K_{\rm MF}\cdot G_s^*(f)\hspace{0.05cm}.$$

Gegenüber der Seite   Matched–Filter–Optimierung  sind hier folgende Modifikationen berücksichtigt:

  • Die Matched–Filter–Konstante ist hier zu  $K_{\rm MF} = 1/(s_0 \cdot T)$  gesetzt. Damit ist der Frequenzgang  $ H_{\rm MF}(f)$  dimensionslos.
  • Der im allgemeinen frei wählbare Detektionszeitpunkt ist hier zu  $T_{\rm D} = 0$  gewählt. Damit ergibt sich allerdings ein akausales Filter.
  • Das Detektions–SNR kann für jeden beliebigen Sendegrundimpuls  $g_s(t)$  mit Spektrum  $G_s(f)$  wie folgt dargestellt werden, wobei sich die rechte Identität aus dem  Parsevalschen Theorem  ergibt:
$$\rho_d = \frac{2 \cdot E_{\rm B}}{N_0}\hspace{0.4cm}{\rm mit}\hspace{0.4cm} E_{\rm B} = \int^{+\infty} _{-\infty} g_s^2(t)\,{\rm d}t = \int^{+\infty} _{-\infty} |G_s(f)|^2\,{\rm d}f\hspace{0.05cm}.$$
  • $E_{\rm B}$  wird oft als Energie pro Bit  bezeichnet und  $E_{\rm B}/N_0$ – fälschlicherweise – als  $\rm SNR$. Wie aus der letzten Gleichung ersichtlich ist, unterscheidet sich nämlich bei binärer Basisbandübertragung  $E_{\rm B}/N_0$  vom Detektions–SNR  $\rho_d$  um den Faktor  $2$.


$\text{Fazit:}$  Die hier hergeleitete Bitfehlerwahrscheinlichkeit des optimalen Binärempfängers kann somit auch wie folgt geschrieben werden:

$$p_{\rm B} = {\rm Q} \left( \sqrt{ {2 \cdot E_{\rm B} }/{N_0} }\right)= {1}/{2} \cdot{\rm erfc} \left( \sqrt{ {E_{\rm B} }/{N_0} }\right) \hspace{0.05cm}.$$

Diese Gleichung gilt sowohl für die Realisierung mit Matched-Filter als auch für die Realisierungsform „Integrate & Dump”  (siehe nächste Seite).


Zur Verdeutlichung der hier behandelten Thematik weisen wir auf unser Interaktionsmodul  Zur Verdeutlichung des Matched-Filters  hin.

Optimal binary receiver – "Integrate & Dump" realization


Bei rechteckförmigen NRZ–Sendeimpulsen kann das Matched–Filter auch als Integrator $($jeweils über eine Symboldauer  $T)$ realisiert werden. Damit gilt für das Detektionssignal zu den Detektionszeitpunkten:

Signale beim MF– und beim I&E–Empfänger
$$d(\nu \cdot T + T/2) = \frac {1}{T} \cdot \int^{\nu \cdot T + T/2} _{\nu \cdot T - T/2} r(t)\,{\rm d}t \hspace{0.05cm}.$$

Die Grafik verdeutlicht die Unterschiede bei der Realisierung des optimalen Binärempfängers

  • mit Matched–Filter $\rm (MF)$   ⇒   mittlere Skizze, bzw.
  • als "Integrate & Dump" $\rm (I\&D)$   ⇒   untere Skizze.


Man erkennt aus diesen Signalverläufen:

  • Das Detektionsnutzsignal  $d_{\rm S}(t)$  ist zu den Detektionszeitpunkten   ⇒   gelbe Markierungen $\rm (MF$:   bei  $\nu \cdot T$, $\rm I\&D$:   bei  $\nu \cdot T +T/2$  in beiden Fällen gleich $\pm s_0$.
  • Die unterschiedlichen Detektionszeitpunkte sind darauf zurückzuführen, dass das Matched–Filter im Gegensatz zu "Integrate & Dump" als akausal angesetzt wurde (siehe letzte Seite).
  • Beim Matched–Filter–Empfänger ist die Varianz des Detektionsstörsignals zu allen Zeiten  $t$  gleich:   ${\rm E}\big[d_{\rm N}^2(t)\big]= {\sigma _d ^2} = {\rm const.}$ Dagegen nimmt beim I&D–Empfänger die Varianz von Symbolanfang bis Symbolende zu.
  • Zu den gelb markierten Zeitpunkten ist die Detektionsstörleistung in beiden Fällen gleich, so dass sich die gleiche Bitfehlerwahrscheinlichkeit ergibt. Mit  $E_{\rm B} = s_0^2 \cdot T$  gilt wieder:
$$\sigma _d ^2 = \frac{N_0}{2} \cdot \int_{- \infty }^{ +\infty } {\rm si}^2(\pi f T)\hspace{0.1cm}{\rm{d}}f = \frac{N_0}{2T} $$
$$\Rightarrow \hspace{0.3cm} p_{\rm B} = {\rm Q} \left( \sqrt{ s_0^2 / \sigma _d ^2} \right)= {\rm Q} \left( \sqrt{{2 \cdot E_{\rm B}}/{N_0}}\right) .$$


Interpretation des optimalen Empfängers


In diesem Abschnitt wurde gezeigt, dass mit einem Empfänger, bestehend aus linearem Empfangsfilter und nichtlinearem Entscheider, die kleinstmögliche Bitfehlerwahrscheinlichkeit zu erreichen ist:

$$ p_{\rm B, \hspace{0.05cm}min} = {\rm Q} \left( \sqrt{{2 \cdot E_{\rm B}}/{N_0}}\right) = {1}/{2} \cdot {\rm erfc} \left( \sqrt{{ E_{\rm B}}/{N_0}}\right) \hspace{0.05cm}.$$

Die sich ergebende Konfiguration ist ein Sonderfall des so genannten Maximum–Aposteriori–Empfängers (MAP), der im Abschnitt  Optimale Empfängerstrategien  im dritten Hauptkapitel dieses Buches behandelt wird.

Für die Gültigkeit obiger Gleichung müssen allerdings eine Reihe von Voraussetzungen erfüllt sein:

  • Das Sendesignal  $s(t)$  ist binär sowie bipolar (antipodisch) und weist pro Bit die (mittlere) Energie  $E_{\rm B}$  auf. Die (mittlere) Sendeleistung ist somit $E_{\rm B}/T$.
  • Es liegt ein AWGN–Kanal (Additive White Gaussian Noise ) mit der konstanten (einseitigen) Rauschleistungsdichte  $N_0$  vor.
  • Das Empfangsfilter  $H_{\rm E}(f)$  ist bestmöglich an das Sendegrundimpulsspektrum  $G_s(f)$  entsprechend dem "Matched–Filter–Kriterium" angepasst.
  • Der Entscheider (Schwellenwert, Detektionszeitpunkte) ist optimal. Eine kausale Realisierung des Matched–Filters kann man durch Verschiebung des Detektionszeitpunktes ausgleichen.
  • Obige Gleichung gilt unabhängig vom Sendegrundimpuls  $g_s(t)$. Allein die für die Übertragung eines Binärsymbols aufgewendete Energie  $E_{\rm B}$  ist neben der Rauschleistungsdichte  $N_0$  entscheidend für die Bitfehlerwahrscheinlichkeit  $p_{\rm B}$.
  • Voraussetzung für die Anwendbarkeit obiger Gleichung ist, dass die Detektion eines Symbols nicht durch andere Symbole beeinträchtigt wird. Solche  Impulsinterferenzen  vergrößern die Bitfehlerwahrscheinlichkeit  $p_{\rm B}$  enorm.
  • Ist die absolute Sendeimpulsdauer  $T_{\rm S}$  kleiner oder gleich dem Symbolabstand  $T$, so ist obige Gleichung bei Erfüllung des Matched-Filter-Kriteriums immer anwendbar.
  • Die Gleichung gilt auch für Nyquistsysteme, bei denen zwar  $T_{\rm S} > T$  gilt, es aber aufgrund von äquidistanten Nulldurchgängen des Grundimpulses  $g_d(t)$  nicht zu Impulsinterferenzen kommt. Damit beschäftigen wir uns im nächsten Kapitel.


Aufgaben zum Kapitel


Aufgabe 1.2: Bitfehlerquote (BER)

Aufgabe 1.2Z: Bitfehlermessung

Aufgabe 1.3: Rechteckfunktionen für Sender und Empfänger

Aufgabe 1.3Z: Schwellenwertoptimierung

Quellenverzeichnis

  1. Gilbert, E. N.: Capacity of Burst–Noise Channel, In: Bell Syst. Techn. J. Vol. 39, 1960, pp. 1253–1266.
  2. McCullough, R.H.: The Binary Regenerative Channel, In: Bell Syst. Techn. J. (47), 1968.