Difference between revisions of "Digital Signal Transmission/Burst Error Channels"

From LNTwww
 
(74 intermediate revisions by 7 users not shown)
Line 1: Line 1:
+
 
 
{{Header
 
{{Header
|Untermenü=Digitale Kanalmodelle
+
|Untermenü=Digital Channel Models
 
|Vorherige Seite=Binary Symmetric Channel (BSC)
 
|Vorherige Seite=Binary Symmetric Channel (BSC)
 
|Nächste Seite=Anwendungen bei Multimedia–Dateien
 
|Nächste Seite=Anwendungen bei Multimedia–Dateien
 
}}
 
}}
  
== Kanalmodell nach Gilbert–Elliott==
+
== Channel model according to Gilbert-Elliott==
 
<br>
 
<br>
Dieses auf E.&nbsp;N. Gilbert [Gil60]<ref name='Gil60'>Gilbert, E. N.: ''Capacity of Burst–Noise Channel.'' In: Bell Syst. Techn. J. Vol. 39, 1960, pp. 1253–1266.</ref> und E.&nbsp;O. Elliott [Ell63]<ref  name='Ell63'>Elliott, E.O.: ''Estimates of Error Rates for Codes on Burst–Noise Channels.'' In: Bell Syst. Techn. J., Vol. 42, (1963), pp. 1253 1266.</ref> zurückgehende Kanalmodell eignet sich zur Beschreibung und Simulation von digitalen ''Übertragungssystemen mit Bündelfehlercharakteristik''.
+
This channel model, which goes back to&nbsp; [https://en.wikipedia.org/wiki/Edgar_Gilbert E.&nbsp;N. Gilbert] &nbsp;[Gil60]<ref name='Gil60'>Gilbert, E. N.:&nbsp; Capacity of Burst–Noise Channel.&nbsp; In: Bell Syst. Techn. J. Vol. 39, 1960, pp. 1253–1266.</ref>&nbsp; and &nbsp;E.&nbsp;O. Elliott&nbsp; [Ell63]<ref  name='Ell63'>Elliott, E.O.:&nbsp; Estimates of Error Rates for Codes on Burst–Noise Channels.&nbsp; In: Bell Syst. Techn. J., Vol. 42, (1963), pp. 1977 1997.</ref>,&nbsp; is suitable for describing and simulating&nbsp; "digital transmission systems with burst error characteristics".
  
[[File:P ID1835 Dig T 5 3 S1 version1.png|center|frame|Gilbert–Elliott–Kanalmodell|class=fit]]
+
The&nbsp; '''Gilbert&ndash;Elliott model'''&nbsp; $($abbreviation:&nbsp; "GE model"$)$&nbsp; can be characterized as follows:
 +
[[File:P ID1835 Dig T 5 3 S1 version1.png|right|frame|Gilbert-Elliott channel model with two states<br><br><br>|class=fit]]
  
Das '''Gilbert&ndash;Elliott&ndash;Modell''' (Kurzbezeichnung: GE&ndash;Modell) lässt sich wie folgt charakterisieren:
+
*The different transmission quality at different times is expressed by a finite number&nbsp; $g$&nbsp; of channel states&nbsp; $(Z_1, Z_2,\hspace{0.05cm} \text{...} \hspace{0.05cm}, Z_g)$.&nbsp; <br>
*Die unterschiedliche Übertragungsqualität zu unterschiedlichen Zeiten wird durch eine endliche Anzahl $g$ von Kanalzuständen $(Z_1, Z_2, \text{...}, Z_g)$ ausgedrückt.<br>
 
  
*Die in Wirklichkeit fließenden Übergänge der Störintensität &ndash; im Extremfall von völlig fehlerfreier Übertragung bis hin zum Totalausfall &ndash; werden beim GE&ndash;Modell durch feste Wahrscheinlichkeiten in den einzelnen Kanalzuständen approximiert.<br>
+
*The in reality smooth transitions of the interference intensity &ndash; in the extreme case from completely error-free transmission to total failure &ndash; are approximated in the GE model by fixed probabilities in the individual channel states.<br>
  
*Die Übergänge zwischen den $g$ Zuständen erfolgen gemäß einem [[Stochastische_Signaltheorie/Markovketten|Markovprozess]] (1. Ordnung) und werden durch $g \cdot (g-1)$ Übergangswahrscheinlichkeiten gekennzeichnet. Zusammen mit den $g$ Fehlerwahrscheinlichkeiten in den einzelnen Zuständen gibt es somit $g^2$ freie Modellparameter.<br>
+
*The transitions between the&nbsp; $g$&nbsp; states occur according to a&nbsp; [[Theory_of_Stochastic_Signals/Markov_Chains|"Markov process"]]&nbsp; (1st order)&nbsp; and are characterized by &nbsp; $g \cdot (g-1)$ &nbsp; transition probabilities.&nbsp; Together with the&nbsp; $g$&nbsp; error probabilities in the individual states,&nbsp; there are thus&nbsp; $g^2$&nbsp; free model parameters.<br>
  
*Aus Gründen der mathematischen Handhabbarkeit beschränkt man sich meist auf $g = 2$ Zustände und bezeichnet diese mit $\rm G$ (&bdquo;GOOD&rdquo;) und $\rm B$ (&bdquo;BAD&rdquo;). Meist wird die Fehlerwahrscheinlichkeit im Zustand $\rm G$ sehr viel kleiner sein als im Zustand $\rm B$.<br>
+
*For reasons of mathematical manageability,&nbsp; one usually restricts oneself to&nbsp; $g = 2$&nbsp; states and denotes these with&nbsp; $\rm G$&nbsp; ("GOOD") and&nbsp; $\rm B$&nbsp; ("BAD").&nbsp; Mostly,&nbsp; the error probability in state&nbsp; $\rm G$&nbsp; will be much smaller than in state&nbsp; $\rm B$.<br>
  
*Im Folgenden benutzen wir diese beiden Fehlerwahrscheinlichkeiten $p_{\rm G}$ und $p_{\rm B}$, wobei $p_{\rm G} < p_{\rm B}$ gelten soll, sowie die Übergangswahrscheinlichkeiten ${\rm Pr}({\rm B}\hspace{0.05cm}|\hspace{0.05cm}{\rm G})$ und ${\rm Pr}({\rm G}\hspace{0.05cm}|\hspace{0.05cm}{\rm B})$. Damit sind auch die beiden anderen Übergangswahrscheinlichkeiten festgelegt:
+
*In that what follows,&nbsp; we use these two error probabilities&nbsp; $p_{\rm G}$&nbsp; and&nbsp; $p_{\rm B}$,&nbsp; where&nbsp; $p_{\rm G} < p_{\rm B}$&nbsp; should hold,&nbsp; as well as the transition probabilities&nbsp; ${\rm Pr}({\rm B}\hspace{0.05cm}|\hspace{0.05cm}{\rm G})$&nbsp; and&nbsp; ${\rm Pr}({\rm G}\hspace{0.05cm}|\hspace{0.05cm}{\rm B})$.&nbsp; This also determines the other two transition probabilities:
  
 
::<math>{\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} G) = 1 - {\rm
 
::<math>{\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} G) = 1 - {\rm
Line 28: Line 28:
 
G\hspace{0.05cm}|\hspace{0.05cm} B)\hspace{0.05cm}.</math>
 
G\hspace{0.05cm}|\hspace{0.05cm} B)\hspace{0.05cm}.</math>
  
[[File:P ID1836 Dig T 5 3 S1a version1.png|right|frame|Betrachtetes GE–Modell|class=fit]]
 
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 1:}$&nbsp; Wir betrachten das GE&ndash;Modell mit den Parametern
+
$\text{Example 1:}$&nbsp; We consider the Gilbert-Elliott model with the parameters
 +
[[File:P ID1837 Dig T 5 3 S1b version1.png|right|frame|Example Gilbert-Elliott error sequence|class=fit]]
 +
 
 +
:$$p_{\rm G} = 0.01,$$
 +
:$$p_{\rm B} = 0.4,$$
 +
:$${\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B) =
 +
0.1, $$
 +
:$$ {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}
 +
G) = 0.01\hspace{0.05cm}.$$
 +
The underlying model is shown at the end of this example with the parameters given here.
 +
 
 +
The upper graphic shows a&nbsp; (possible)&nbsp; error sequence of length&nbsp; $N = 800$.&nbsp; If the GE model is in the&nbsp; "BAD"&nbsp; state,&nbsp; this is indicated by the gray background.
 +
 
 +
To simulate such a GE error sequence,&nbsp; switching is performed between the states&nbsp; "GOOD"&nbsp; and&nbsp; "BAD"&nbsp; according to the four transition probabilities.
 +
 
 +
*At the first clock call,&nbsp; the selection of the state is expediently done according to the&nbsp; "state probabilities"&nbsp; $w_{\rm G}$&nbsp; and&nbsp; $w_{\rm B}$,&nbsp; as calculated below.<br>
  
::<math>p_{\rm G} = 0.01, \hspace{0.2cm}p_{\rm B} = 0.4,</math>
+
*At each clock cycle,&nbsp; exactly one element of the error sequence&nbsp; $ \langle e_\nu  \rangle$&nbsp; is generated according to the current error probability&nbsp; $(p_{\rm G}$&nbsp; or &nbsp;$p_{\rm B})$.&nbsp;
::<math>{\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B) =
 
0.1, \hspace{0.2cm} {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}
 
G) = 0.01\hspace{0.05cm}.</math>
 
  
Die folgende Grafik zeigt eine dazugehörige (mögliche) Fehlerfolge der Länge $N = 800$.
+
*The&nbsp; [[Digital_Signal_Transmission/Burst_Error_Channels#Channel_model_according_to_McCullough|"error distance simulation"]]&nbsp; is not applicable here,&nbsp; because in the GE model a state change is possible after each symbol&nbsp; $($and not only after an error$)$.
  
Befindet sich das GE&ndash;Modell im Zustand &bdquo;BAD&rdquo;, so erkennt man dies an der grauen Hinterlegung.
 
  
[[File:P ID1837 Dig T 5 3 S1b version1.png|center|frame|Beispielhafte GE–Fehlerfolge|class=fit]]
+
The probabilities that the Markov chain is in the&nbsp; "GOOD"&nbsp; or&nbsp; "BAD"&nbsp; state can be calculated from the assumed homogeneity and stationarity.  
  
Die Wahrscheinlichkeiten, dass sich die Markovkette im Zustand &bdquo;GOOD&rdquo; bzw. &bdquo;BAD&rdquo; befindet, lassen sich aus der vorausgesetzten Homogenität und Stationarität berechnen. Man erhält mit den obigen Zahlenwerten:
+
One obtains with the above numerical values:
  
 
::<math>w_{\rm G} =
 
::<math>w_{\rm G} =
{\rm Pr(im\hspace{0.15cm} Zustand \hspace{0.15cm}G)}=
+
{\rm Pr(in\hspace{0.15cm} state \hspace{0.15cm}G)}=
 
\frac{ {\rm Pr}(\rm
 
\frac{ {\rm Pr}(\rm
 
G\hspace{0.05cm}\vert\hspace{0.05cm} B)}{ {\rm Pr}(\rm
 
G\hspace{0.05cm}\vert\hspace{0.05cm} B)}{ {\rm Pr}(\rm
Line 53: Line 63:
 
{10}/{11}\hspace{0.05cm},</math>
 
{10}/{11}\hspace{0.05cm},</math>
 
::<math>w_{\rm B} =
 
::<math>w_{\rm B} =
{\rm Pr(im\hspace{0.15cm} Zustand \hspace{0.15cm}B)}=
+
{\rm Pr(in\hspace{0.15cm} state \hspace{0.15cm}B)}=
 
  \frac{ {\rm Pr}(\rm
 
  \frac{ {\rm Pr}(\rm
 
B\hspace{0.05cm}\vert\hspace{0.05cm} G)}{ {\rm Pr}(\rm
 
B\hspace{0.05cm}\vert\hspace{0.05cm} G)}{ {\rm Pr}(\rm
Line 59: Line 69:
 
B\hspace{0.05cm}\vert\hspace{0.05cm} G)} = \frac{0.11}{0.1 + 0.01} =
 
B\hspace{0.05cm}\vert\hspace{0.05cm} G)} = \frac{0.11}{0.1 + 0.01} =
 
{1}/{11}\hspace{0.05cm}.</math>
 
{1}/{11}\hspace{0.05cm}.</math>
 +
[[File:P ID1836 Dig T 5 3 S1a version1.png|right|frame|Considered Gilbert-Elliott model|class=fit]]
  
Damit kann auch die mittlere Fehlerwahrscheinlichkeit des GE&ndash;Modells ermittelt werden:
+
These two state probabilities can also be used to determine the&nbsp; "mean error probability"&nbsp; of the GE model:
  
 
::<math>p_{\rm M} = w_{\rm G} \cdot p_{\rm G} + w_{\rm B} \cdot p_{\rm B}
 
::<math>p_{\rm M} = w_{\rm G} \cdot p_{\rm G} + w_{\rm B} \cdot p_{\rm B}
Line 69: Line 80:
 
B\hspace{0.05cm}\vert\hspace{0.05cm} G)} \hspace{0.05cm}.</math>
 
B\hspace{0.05cm}\vert\hspace{0.05cm} G)} \hspace{0.05cm}.</math>
  
Insbesondere gilt für das hier beispielhaft betrachtete Modell:
+
In particular,&nbsp; for the model considered here as an example:
  
 
::<math>p_{\rm M} ={10}/{11} \cdot 0.01 +{1}/{11} \cdot 0.4 =
 
::<math>p_{\rm M} ={10}/{11} \cdot 0.01 +{1}/{11} \cdot 0.4 =
{1}/{22} \approx 4.55\%\hspace{0.05cm}.</math>
+
{1}/{22} \approx 4.55\%\hspace{0.05cm}.</math>}}<br>
  
Zur Simulation einer GE&ndash;Fehlerfolge wird zwischen den Zuständen &bdquo;GOOD&rdquo;  und &bdquo;BAD&rdquo; entsprechend den vier Übergangswahrscheinlichkeiten umgeschaltet. Beim ersten Aufruf erfolgt die Auswahl des Zustandes zweckmäßigerweise entsprechend den Wahrscheinlichkeiten $w_{\rm G}$ und $w_{\rm B}$.<br>
+
== Error distance distribution of the Gilbert-Elliott model ==
 +
<br>
 +
[[File:EN_Dig_T_5_3_S2.png|right|frame|Error distance distribution of GE and BSC model|class=fit]]
 +
In&nbsp; [Hub82]<ref name = 'Hub82'>Huber, J.:&nbsp; Codierung für gedächtnisbehaftete Kanäle.&nbsp; Dissertation – Universität der Bundeswehr München, 1982.</ref>&nbsp; you can find the analytical computations
  
Zu jedem Taktzeitpunkt wird genau ein Element der Fehlerfolge $ \langle e_\nu  \rangle$ gemäß der aktuellen  Fehlerwahrscheinlichkeit ($p_{\rm G}$ bzw. $p_{\rm B}$) erzeugt. Die [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_McCullough|Fehlerabstandssimulation]] ist hier nicht anwendbar, da ein Zustandswechsel nach jedem Symbol (und nicht nur nach einem Fehler) möglich ist.}}<br>
+
*of the&nbsp; "probability of the error distance&nbsp; $k$":
 
 
== Fehlerabstandsverteilung des GE–Modells ==
 
<br>
 
In [Hub82]<ref name = 'Hub82'>Huber, J.: <i>Codierung für gedächtnisbehaftete Kanäle.</i> Dissertation – Universität der Bundeswehr München, 1982.</ref> finden sich die analytischen Berechnungen
 
*der Wahrscheinlichkeit des Fehlerabstandes $k$:
 
  
 
::<math>{\rm Pr}(a=k) = \alpha_{\rm G} \cdot \beta_{\rm
 
::<math>{\rm Pr}(a=k) = \alpha_{\rm G} \cdot \beta_{\rm
Line 88: Line 97:
 
B})\hspace{0.05cm},</math>
 
B})\hspace{0.05cm},</math>
  
*der [[Digitalsignalübertragung/Beschreibungsgrößen_digitaler_Kanalmodelle#Fehlerabstandsverteilung|Fehlerabstandsverteilung]]:
+
*the&nbsp; [[Digital_Signal_Transmission/Parameters_of_Digital_Channel_Models#Error_distance_distribution|"error distance distribution"]]&nbsp; $\rm (EDD)$:
  
 
::<math>V_a(k) = {\rm Pr}(a \ge k) =  \alpha_{\rm G} \cdot \beta_{\rm
 
::<math>V_a(k) = {\rm Pr}(a \ge k) =  \alpha_{\rm G} \cdot \beta_{\rm
Line 95: Line 104:
 
B}^{\hspace{0.05cm}k-1} \hspace{0.05cm}.</math>
 
B}^{\hspace{0.05cm}k-1} \hspace{0.05cm}.</math>
  
Hierbei sind folgende Hilfsgrößen verwendet:
+
The following auxiliary quantities are used here:
  
 
::<math>u_{\rm GG} ={\rm Pr}(\rm
 
::<math>u_{\rm GG} ={\rm Pr}(\rm
Line 126: Line 135:
 
\hspace{0.2cm}\alpha_{\rm B} = 1-\alpha_{\rm G}\hspace{0.05cm}.</math>
 
\hspace{0.2cm}\alpha_{\rm B} = 1-\alpha_{\rm G}\hspace{0.05cm}.</math>
  
Die angegebenen Gleichungen sind das Ergebnis umfangreicher Matrizenoperationen.<br>
+
The given equations are the result of extensive matrix operations.<br>
 +
 
 +
The upper graph shows the error distance distribution&nbsp; $\rm (EDD)$&nbsp; of the Gilbert-Elliott model&nbsp; (red curve)&nbsp; in linear and logarithmic representation for the parameters
 +
:$${\rm Pr}(\rm
 +
G\hspace{0.05cm}|\hspace{0.05cm} B ) = 0.1 \hspace{0.05cm},\hspace{0.5cm}{\rm Pr}(\rm
 +
B\hspace{0.05cm}|\hspace{0.05cm} G ) = 0.01 \hspace{0.05cm},\hspace{0.5cm}p_{\rm G} = 0.001, \hspace{0.5cm}p_{\rm B} = 0.4.$$
  
[[File:P ID1838 Dig T 5 3 S2 version1.png|center|frame|Fehlerabstandsverteilung von GE– und BSC–Modell|class=fit]]
+
For comparison,&nbsp; the corresponding&nbsp; $V_a(k)$&nbsp; curve for the BSC model with the same mean error probability&nbsp; $p_{\rm M} = 4.5\%$&nbsp; is also plotted as blue curve.<br>
  
Die Grafik zeigt die Fehlerabstandsverteilung (FAV) des GE&ndash;Modells (rote Kurve) in linearer und logarithmischer Darstellung für ${\rm Pr}(\rm
+
== Error correlation function of the Gilbert-Elliott model ==
G\hspace{0.05cm}|\hspace{0.05cm} B ) = 0.1 $, ${\rm Pr}(\rm
+
<br>
B\hspace{0.05cm}|\hspace{0.05cm} G ) = 0.001 $ und $p_{\rm B} = 0.4$.<br>
+
For the&nbsp; [[Digital_Signal_Transmission/Parameters_of_Digital_Channel_Models#Error_correlation_function|"error correlation function"]]&nbsp; $\rm (ECF)$&nbsp; of the GE model with
 +
*the mean error probability&nbsp; $p_{\rm M}$,
 +
 +
*the transition probabilities&nbsp; ${\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G )$ and ${\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B )$&nbsp; as well as
  
Zum Vergleich ist als blaue Kurve auch der entsprechende $V_a(k)$&ndash;Verlauf für das BSC&ndash;Modell mit der gleichen mittleren  Fehlerwahrscheinlichkeit $p_{\rm M} = 4.5\%$ eingezeichnet.<br>
+
*the error probabilities&nbsp; $p_{\rm G}$&nbsp; and&nbsp; $p_{\rm B}$&nbsp; in the two states&nbsp; $\rm G$&nbsp; and&nbsp; $\rm B$,
  
== Fehlerkorrelationsfunktion des GE–Modells ==
 
<br>
 
Für die [[Digitalsignalübertragung/Beschreibungsgrößen_digitaler_Kanalmodelle#Fehlerkorrelationsfunktion|Fehlerkorrelationsfunktion]] (FKF) ergibt sich GE–Modell mit der mittleren Fehlerwahrscheinlichkeit $p_{\rm M}$, den Übergangswahrscheinlichkeiten ${\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G )$ und ${\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B )$ sowie den Fehlerwahrscheinlichkeiten $p_{\rm G}$ und $p_{\rm B}$ in den beiden Zuständen $\rm G$ und $\rm B$ nach umfangreichen Matrizenoperationen der relativ einfache Ausdruck
 
  
::<math>\varphi_{e}(k) = {\rm E}[e_\nu  \cdot  e_{\nu +k}] =
+
we obtain after extensive matrix operations the relatively simple expression
 +
 
 +
::<math>\varphi_{e}(k) = {\rm E}\big[e_\nu  \cdot  e_{\nu +k}\big] =
 
  \left\{ \begin{array}{c} p_{\rm M} \\
 
  \left\{ \begin{array}{c} p_{\rm M} \\
 
  p_{\rm M}^2 + (p_{\rm B} - p_{\rm M})  (p_{\rm M} - p_{\rm G})  
 
  p_{\rm M}^2 + (p_{\rm B} - p_{\rm M})  (p_{\rm M} - p_{\rm G})  
Line 146: Line 162:
 
B\hspace{0.05cm}|\hspace{0.05cm} G )- {\rm Pr}(\rm
 
B\hspace{0.05cm}|\hspace{0.05cm} G )- {\rm Pr}(\rm
 
G\hspace{0.05cm}|\hspace{0.05cm} B )]^k \end{array} \right.\quad
 
G\hspace{0.05cm}|\hspace{0.05cm} B )]^k \end{array} \right.\quad
\begin{array}{*{1}c} f{\rm \ddot{u}r }\hspace{0.15cm}k = 0  \hspace{0.05cm},
+
\begin{array}{*{1}c} f{\rm or }\hspace{0.15cm}k = 0  \hspace{0.05cm},
\\  f{\rm \ddot{u}r }\hspace{0.15cm} k > 0 \hspace{0.05cm}.\\ \end{array}</math>
+
\\  f{\rm or }\hspace{0.15cm} k > 0 \hspace{0.05cm}.\\ \end{array}</math>
 +
 
 +
For the Gilbert-Elliott model, for&nbsp; "renewing models" $\varphi_{e}(k)$&nbsp; must always be calculated according to this equation.&nbsp; The iterative calculation algorithm for&nbsp; "renewing models",
 +
:$$\varphi_{e}(k) = \sum_{\kappa = 1}^{k} {\rm Pr}(a = \kappa) \cdot
 +
\varphi_{e}(k - \kappa), $$
 +
 
 +
cannot be applied here,&nbsp;since the GE model is not renewing &nbsp; &#8658; &nbsp; here,&nbsp; the error distances are not statistically independent of each other.
  
Beim GE&ndash;Modell muss $\varphi_{e}(k)$ stets nach dieser Gleichung berechnet werden. Der nur für &bdquo;erneuernde Modelle&rdquo; gültige iterative Berechnungsalgorithmus $\varphi_{e}(k) = \sum_{\kappa = 1}^{k} {\rm Pr}(a = \kappa) \cdot
+
[[File:P ID1839 Dig T 5 3 S3 version1.png|right|frame|Error correlation function of&nbsp; "GE"&nbsp; (circles)&nbsp; and&nbsp; "BSC"&nbsp; (crosses)|class=fit]]
\varphi_{e}(k - \kappa) $ kann hier nicht angewendet werden,   da das GE&ndash;Modell nicht erneuernd ist &nbsp; &#8658; &nbsp; Die Fehlerabstände sind hier nicht statistisch voneinander unabhängig.
+
The graph shows an example of the ECF curve of the Gilbert-Elliott model marked with red circles.&nbsp; One can see from this representation:
 +
*While for the memoryless channel&nbsp; $($BSC model,&nbsp; blue curve$)$&nbsp; all ECF values are&nbsp; $\varphi_{e}(k \ne 0)= p_{\rm M}^2$,&nbsp; the ECF values approach this final value for the burst error channel  much more slowly.<br>
  
[[File:P ID1839 Dig T 5 3 S3 version1.png|right|frame|Fehlerkorrelationsfunktion von &bdquo;GE&rdquo; (Kreise) und &bdquo;BSC&rdquo; (Kreuze)|class=fit]]<br>
+
*At the transition from&nbsp; $k = 0$&nbsp; to&nbsp; $k = 1$&nbsp; a certain discontinuity occurs.&nbsp; While&nbsp; $\varphi_{e}(k = 0)= p_{\rm M}$,&nbsp; the second equation valid for&nbsp; $k > 0$&nbsp; yields the following extrapolated value for&nbsp; $k = 0$:&nbsp;
In der Grafik ist ein beispielhafter FKF&ndash;Verlauf des GE&ndash;Modells mit roten Kreisen markiert eingetragen. Man erkennt aus dieser Darstellung:
 
*Während beim gedächtnislosen Kanal (BSC&ndash;Modell, blaue Kurve) alle FKF&ndash;Werte $\varphi_{e}(k \ne 0)= p_{\rm M}^2$ sind, nähern sich die FKF&ndash;Werte beim Bündelfehlerkanal diesem Endwert deutlich langsamer.<br>
 
*Beim Übergang von $k = 0$ nach $k = 1$ tritt eine gewisse Unstetigkeit auf. Während $\varphi_{e}(k = 0)= p_{\rm M}$ ist, ergibt sich mit der für $k > 0$ gültigen zweiten Gleichung für $k = 0$ folgender extrapolierter Wert:
 
  
 
::<math>\varphi_{e0} = p_{\rm M}^2 + (p_{\rm B} - p_{\rm M}) \cdot (p_{\rm
 
::<math>\varphi_{e0} = p_{\rm M}^2 + (p_{\rm B} - p_{\rm M}) \cdot (p_{\rm
 
M} - p_{\rm G})\hspace{0.05cm}.</math>
 
M} - p_{\rm G})\hspace{0.05cm}.</math>
  
*Ein quantitatives Maß für die Länge der statistischen Bindungen ist die Korrelationsdauer $D_{\rm K}$, die allgemein als die Breite eines flächengleichen Rechtecks mit der Höhe $\varphi_{e0} - p_{\rm M}^2$ definiert ist:
+
*A quantitative measure of the length of the statistical ties is the&nbsp; "correlation duration"&nbsp; $D_{\rm K}$,&nbsp; which is defined as the width of an equal-area rectangle of height&nbsp; $\varphi_{e0} - p_{\rm M}^2$:&nbsp;
  
 
::<math>D_{\rm K} = \frac{1}{\varphi_{e0} - p_{\rm M}^2} \cdot \sum_{k = 1
 
::<math>D_{\rm K} = \frac{1}{\varphi_{e0} - p_{\rm M}^2} \cdot \sum_{k = 1
}^{\infty}\hspace{0.1cm} [\varphi_{e}(k) - p_{\rm
+
}^{\infty}\hspace{0.1cm} \big[\varphi_{e}(k) - p_{\rm
M}^2]\hspace{0.05cm}.</math>
+
M}^2\big ]\hspace{0.05cm}.</math>
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Fazit:}$&nbsp; Beim Gilbert&ndash;Elliott&ndash;Modell erhält man hierfür den einfachen, analytisch angebbaren Ausdruck
+
$\text{Conclusions:}$&nbsp; In the Gilbert&ndash;Elliott model,&nbsp; the&nbsp; "correlation duration"&nbsp; is given by the simple,&nbsp; analytically expressible expression
  
 
::<math>D_{\rm K} =\frac{1}{ {\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}
 
::<math>D_{\rm K} =\frac{1}{ {\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}
Line 173: Line 193:
 
\hspace{0.05cm}.</math>
 
\hspace{0.05cm}.</math>
  
*$D_{\rm K}$ ist umso größer, je kleiner ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}
+
*$D_{\rm K}$&nbsp; is larger the smaller&nbsp; ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}
G )$ und ${\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$ sind, also Zustandswechsel selten auftreten. 
+
G )$&nbsp; and&nbsp; ${\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$&nbsp; are,&nbsp; i.e.,&nbsp; when state changes occur rarely.
*Für das BSC&ndash;Modell &nbsp; &rArr; &nbsp; $p_{\rm B}= p_{\rm G} = p_{\rm M}$ &nbsp; &rArr; &nbsp;  $D_{\rm K} = 0$ ist die Gleichung nicht anwendbar.}}<br>
 
  
== Kanalmodell nach McCullough==
+
*For the BSC model &nbsp; &rArr; &nbsp; $p_{\rm B}= p_{\rm G} = p_{\rm M}$ &nbsp; &rArr; &nbsp;  $D_{\rm K} = 0$,&nbsp; this equation is not applicable.}}<br>
 +
 
 +
== Channel model according to McCullough==
 
<br>
 
<br>
Der wesentliche Nachteil des GE&ndash;Modells ist, dass damit eine Fehlerabstandssimulation nicht möglich ist. Wie in der [[Aufgabe 5.5]] herausgearbeitet wird, hat diese gegenüber der symbolweisen Generierung der Fehlerfolge $\langle e_\nu \rangle$ große Vorteile hinsichtlich Rechengeschwindigkeit und Speicherbedarf.<br>
+
The main disadvantage of the Gilbert–Elliott model is that it does not allow error distance simulation.&nbsp; As will be worked out in&nbsp; [[Aufgaben:Exercise_5.5:_Error_Sequence_and_Error_Distance_Sequence|"Exercise 5.5"]],&nbsp; this has great advantages over the symbol-wise generation of the error sequence&nbsp; $\langle e_\nu \rangle$&nbsp; in terms of computational speed and memory requirements.<br>
  
McCullough [McC68]<ref name ='McC68'>McCullough, R.H.: ''The Binary Regenerative Channel.'' In: Bell Syst. Techn. J. (47), 1968.</ref> hat das drei Jahre zuvor von Gilbert und Elliott entwickelte Modell dahingehend modifiziert, dass eine Fehlerabstandssimulation in den beiden Zustände &bdquo;GOOD&rdquo; und &bdquo;BAD&rdquo; jeweils für sich anwendbar ist. Die Grafik zeigt unten das Modell von McCullough, im Folgenden als '''MC&ndash;Modell''' bezeichnet, während oben das GE&ndash;Modell nach Umbenennung der Übergangswahrscheinlichkeiten &nbsp; &rArr; &nbsp;  ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) \rightarrow {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$, ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) \rightarrow {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$, usw. dargestellt ist.<br>
+
*McCullough &nbsp;[McC68]<ref name ='McC68'>McCullough, R.H.:&nbsp; The Binary Regenerative Channel.&nbsp; In: Bell Syst. Techn. J. (47), 1968.</ref>&nbsp; modified the model developed three years earlier by Gilbert and Elliott so
 +
*that an error distance simulation in the two states&nbsp; "GOOD"&nbsp; and "BAD"&nbsp; is applicable in each case by itself.  
 +
[[File:EN_Dig_T_5_3_S4a.png|right|frame|Channel models according to Gilbert-Elliott  and McCullough  |class=fit]]
  
[[File:P ID1840 Dig T 5 3 S4a version1.png|center|frame|Kanalmodelle nach Gilbert–Elliott (oben) und McCullough (unten)|class=fit]
 
  
Zwischen den beiden Modellen bestehen viele Gemeinsamkeiten und einige wenige Unterschiede:
+
The graph shows McCullough's model,&nbsp; hereafter referred to as the&nbsp; "MC model",&nbsp; while the&nbsp; "GE model"&nbsp; is shown above after renaming the transition probabilities &nbsp; &rArr; &nbsp;   ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) \rightarrow {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$,&nbsp; ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) \rightarrow {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$,&nbsp; etc.<br>
*Das McCullough&ndash;Kanalmodell beruht wie das Gilbert&ndash;Elliott&ndash;Modell auf einem ''Markovprozess erster Ordnung'' mit den beiden Zuständen &bdquo;GOOD&rdquo; $(\rm G)$ und &bdquo;BAD&rdquo; $(\rm B)$. Hinsichtlich der Modellstruktur ist kein Unterschied feststellbar.<br>
 
  
*Der wesentliche Unterschied zum GE&ndash;Modell besteht darin, dass ein Zustandswechsel zwischen &bdquo;GOOD&rdquo; und &bdquo;BAD&rdquo; jeweils nur nach einem Fehler &ndash; also einer $1$ in der Fehlerfolge &ndash; möglich ist. Dies ermöglicht eine  Fehlerabstandssimulation.<br>
+
There are many similarities and a few differences between the two models:
 
+
#Like the Gilbert&ndash;Elliott model,&nbsp; the McCullough channel model is based on a&nbsp; "first-order Markov process"&nbsp; with the two states "GOOD"&nbsp; $(\rm G)$&nbsp; and "BAD"&nbsp; $(\rm B)$.&nbsp; No difference can be found with respect to the model structure.<br>
*Die vier frei wählbaren GE&ndash;Parameter $p_{\rm G}$, $p_{\rm B}$, ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$ und ${\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$ können &ndash; wie auf der nächsten Seite gezeigt &ndash; so in die MC&ndash;Parameter $q_{\rm G}$, $q_{\rm B}$, ${\it q}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$ und ${\it q}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$umgerechnet werden, dass eine in ihren statistischen Eigenschaften gleiche Fehlerfolge wie beim GE&ndash;Modell erzeugt wird.<br>
+
#The main difference to the Gilbert&ndash;Elliott is that a change of state between&nbsp; "GOOD"&nbsp; and&nbsp; "BAD"&nbsp; is only possible after an error &ndash; i.e. a&nbsp; "$1$"&nbsp; in the error sequence. This enables an&nbsp; "error distance simulation".<br>
 
+
#The four freely selectable GE parameters&nbsp; $p_{\rm G}$,&nbsp; $p_{\rm B}$,&nbsp; ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$,&nbsp;  ${\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$&nbsp; can be converted into the MC parameters&nbsp; $q_{\rm G}$,&nbsp; $q_{\rm B}$,&nbsp; ${\it q}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$,&nbsp;  ${\it q}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$&nbsp; in such a way that an error sequence with the same statistical properties as in the GE model is generated.&nbsp; See next section.<br>
*Beispielsweise bezeichnet ${\it q}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$ die Übergangswahrscheinlichkeit von dem Zustand &bdquo;GOOD&rdquo; in den Zustand &bdquo;BAD&rdquo; unter der Voraussetzung, dass im Zustand &bdquo;GOOD&rdquo; gerade ein Fehler aufgetreten ist. Der GE&ndash;Parameter ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$ kennzeichnet diese Übergangswahrscheinlichkeit ohne Zusatzbedingung.<br>
+
#For example,&nbsp; ${\it q}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$&nbsp; denotes the transition probability from&nbsp; "GOOD"&nbsp; to&nbsp; "BAD"&nbsp; under the condition&nbsp; '''that an error has just occurred'''.&nbsp; The comparable GE parameter&nbsp; ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$&nbsp; characterizes this transition probability without this additional condition.<br>
  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 2:}$&nbsp; Die Abbildung zeigt oben eine beispielhafte Fehlerfolge des GE&ndash;Modells mit den Parametern $p_{\rm G} = 0.01$, $p_{\rm B} = 0.4$, ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.01$ und ${\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.1$. Man erkennt, dass ein Zustandswechsel von &bdquo;GOOD&rdquo; (ohne Hinterlegung) nach &bdquo;BAD&rdquo; (graue Hinterlegung) und umgekehrt zu jedem Zeitpunkt $\nu$ möglich ist &ndash; also auch dann, wenn $e_\nu = 0$ ist.<br>
+
$\text{Example 2:}$&nbsp; The figure above shows an exemplary error sequence of the Gilbert-Elliott model with the parameters&nbsp;  
 +
[[File:EN_Dig_T_5_3_S4.png|right|frame|Error sequence of the GE model (top) and the equivalent MC model (bottom)|class=fit]]
  
[[File:P ID1841 Dig T 5 3 S4 version1.png|center|frame|Fehlerfolge des GE–Modells (oben) und des MC–Modells (unten)|class=fit]]}}
+
:$$p_{\rm G} = 0.01,$$
 +
:$$p_{\rm B} = 0.4,$$
 +
:$${\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B) =
 +
0.1, $$
 +
:$$ {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}
 +
G) = 0.01\hspace{0.05cm}.$$
  
 +
An error sequence of the equivalent McCullough model is drawn below.&nbsp;  The relations between the two models can be summarized as follows:
 +
#In the GE error sequence,&nbsp; a change from state&nbsp;  "GOOD"&nbsp; (white background)&nbsp; to state&nbsp; "BAD"&nbsp; (gray background)&nbsp; and vice versa is possible at any time&nbsp; $\nu$,&nbsp; even when&nbsp; $e_\nu = 0$.
 +
#In contrast,&nbsp; in the ML error sequence,&nbsp; a change of state at time&nbsp; $\nu$&nbsp; is only possible at&nbsp; $e_\nu = 1$.&nbsp; The last error value before a gray background is always&nbsp; "$1$".<br>
 +
#With the ML model one does not have to generate the errors "step&ndash;by&ndash;step",&nbsp; but can use the faster error distance simulation &nbsp; &#8658; &nbsp; see&nbsp; [[Aufgaben:Exercise_5.5:_Error_Sequence_and_Error_Distance_Sequence|"Exercise 5.5"]].<br>
 +
#The GE parameters can be converted into corresponding MC parameters in such a way that the two models are equivalent &nbsp; &#8658; &nbsp; see next section.
 +
#That means: &nbsp; The MC error sequence has exactly same statistical properties&nbsp; as the GE sequence.&nbsp; But,&nbsp; it does&nbsp; '''not'''&nbsp; mean that both error sequences are identical.}}<br><br>
  
{{BlaueBox|TEXT=
+
== Conversion of the GE parameters into the MC parameters ==
$\text{Fazit:}$&nbsp; Die Zusammenhänge zwischen den beiden Modellen lassen sich wie folgt zusammenfassen:
 
*Bei der unten dargestellten Fehlerfolge des McCullough&ndash;Modells ist im Gegensatz zur oberen Folge ein Zustandswechsel zum Zeitpunkt $\nu$ nur bei $e_\nu = 1$  möglich.<br>
 
 
 
*Dies hat den Vorteil, dass man bei einer Fehlerfolgensimulation die Fehler nicht &bdquo;step&ndash;by&ndash;step&rdquo; generieren muss, sondern die schnellere Fehlerabstandssimulation nutzen kann &nbsp; &#8658; &nbsp; siehe [[Aufgabe 5.5]].<br>
 
 
 
*Die Parameter des GE&ndash;Modells können derart in entsprechende MC&ndash;Parameter umgerechnet werden, dass beide Modellen äquivalent sind &nbsp; &#8658; &nbsp; siehe nächste Seite.<br>
 
 
 
*Das bedeutet,  dass die MC&ndash;Fehlerfolge exakt gleiche statistische Eigenschaften besitzt wie die GE&ndash;Fehlerfolge. Es bedeutet aber nicht, dass die beiden Fehlerfolgen identisch sind.}}<br><br>
 
 
 
== Umrechnung der GE&ndash;Parameter in die MC&ndash;Parameter ==
 
 
<br>
 
<br>
Die Parameter des äquivalenten  MC&ndash;Modells sind aus den GE&ndash;Parametern wie folgt berechenbar:
+
The parameters of the equivalent MC model can be calculated from the GE parameters as follows:
 
 
::<math>q_{\rm G} =1-\beta_{\rm
 
G}\hspace{0.05cm}, \hspace{0.2cm}q_{\rm
 
B} = 1-\beta_{\rm B}\hspace{0.05cm}.</math>
 
  
::<math>q(\rm B\hspace{0.05cm}|\hspace{0.05cm} G ) =\frac{\alpha_{\rm B} \cdot[{\rm Pr}(\rm
+
:$$q_{\rm G} =1-\beta_{\rm
 +
G}\hspace{0.05cm},$$
 +
:$$ q_{\rm
 +
B} = 1-\beta_{\rm B}\hspace{0.05cm}, $$
 +
:$$q(\rm B\hspace{0.05cm}|\hspace{0.05cm} G ) =\frac{\alpha_{\rm B} \cdot[{\rm Pr}(\rm
 
B\hspace{0.05cm}|\hspace{0.05cm} G ) + {\rm Pr}(\rm
 
B\hspace{0.05cm}|\hspace{0.05cm} G ) + {\rm Pr}(\rm
 
G\hspace{0.05cm}|\hspace{0.05cm} B )]}{\alpha_{\rm G} \cdot q_{\rm
 
G\hspace{0.05cm}|\hspace{0.05cm} B )]}{\alpha_{\rm G} \cdot q_{\rm
B} + \alpha_{\rm B} \cdot q_{\rm G}} \hspace{0.05cm}, \hspace{0.5cm}
+
B} + \alpha_{\rm B} \cdot q_{\rm G}} \hspace{0.05cm},$$
q(\rm G\hspace{0.05cm}|\hspace{0.05cm} B ) =
+
:$$q(\rm G\hspace{0.05cm}|\hspace{0.05cm} B ) =
 
\frac{\alpha_{\rm G}}{\alpha_{\rm B}} \cdot q(\rm
 
\frac{\alpha_{\rm G}}{\alpha_{\rm B}} \cdot q(\rm
B\hspace{0.05cm}|\hspace{0.05cm} G )\hspace{0.05cm}.</math>
+
B\hspace{0.05cm}|\hspace{0.05cm} G )\hspace{0.05cm}.$$
  
Hierbei sind wieder die folgenden Hilfsgrößen verwendet:
+
*Here again the following auxiliary quantities are used:
  
 
::<math>u_{\rm GG} = {\rm Pr}(\rm
 
::<math>u_{\rm GG} = {\rm Pr}(\rm
Line 240: Line 263:
 
  {\it u}_{\rm BG} ={\rm Pr}(\rm
 
  {\it u}_{\rm BG} ={\rm Pr}(\rm
 
G\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm
 
G\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm
B})\hspace{0.05cm}</math>
+
B})</math>
 
 
 
::<math>\Rightarrow \hspace{0.3cm} \beta_{\rm G} = \frac{u_{\rm GG} + u_{\rm BB} + \sqrt{(u_{\rm GG} -
 
::<math>\Rightarrow \hspace{0.3cm} \beta_{\rm G} = \frac{u_{\rm GG} + u_{\rm BB} + \sqrt{(u_{\rm GG} -
 
u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2}
 
u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2}
\hspace{0.05cm},</math>
+
\hspace{0.05cm},
::<math>\hspace{0.7cm}\beta_{\rm B} \hspace{-0.1cm}  =  \hspace{-0.1cm}\frac{u_{\rm
+
\hspace{0.9cm}\beta_{\rm B} \hspace{-0.1cm}  =  \hspace{-0.1cm}\frac{u_{\rm
 
GG} + u_{\rm BB} - \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot
 
GG} + u_{\rm BB} - \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot
 
u_{\rm GB}\cdot u_{\rm BG}}}{2}\hspace{0.05cm}.</math>
 
u_{\rm GB}\cdot u_{\rm BG}}}{2}\hspace{0.05cm}.</math>
  
:<math>x_{\rm G} =\frac{u_{\rm BG}}{\beta_{\rm G}-u_{\rm BB}}
+
::<math>x_{\rm G} =\frac{u_{\rm BG}}{\beta_{\rm G}-u_{\rm BB}}
 
\hspace{0.05cm},\hspace{0.2cm}
 
\hspace{0.05cm},\hspace{0.2cm}
  x_{\rm B} =\frac{u_{\rm BG}}{\beta_{\rm B}-u_{\rm BB}}</math>
+
  x_{\rm B} =\frac{u_{\rm BG}}{\beta_{\rm B}-u_{\rm BB}}
 
+
\Rightarrow \hspace{0.3cm} \alpha_{\rm G} = \frac{(w_{\rm G} \cdot
:<math>\Rightarrow \hspace{0.3cm} \alpha_{\rm G} = \frac{(w_{\rm G} \cdot
 
 
p_{\rm G} + w_{\rm B} \cdot p_{\rm B}\cdot x_{\rm G})( x_{\rm
 
p_{\rm G} + w_{\rm B} \cdot p_{\rm B}\cdot x_{\rm G})( x_{\rm
 
B}-1)}{p_{\rm M} \cdot( x_{\rm B}-x_{\rm G})} \hspace{0.05cm},
 
B}-1)}{p_{\rm M} \cdot( x_{\rm B}-x_{\rm G})} \hspace{0.05cm},
\hspace{0.2cm}\alpha_{\rm B} = 1-\alpha_{\rm G}\hspace{0.05cm}.</math>
+
\hspace{0.9cm}\alpha_{\rm B} = 1-\alpha_{\rm G}\hspace{0.05cm}.</math>
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 3:}$&nbsp; Wie im [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_McCullough|Beispiel 2]] gelte für die GE&ndash;Parameter:  
+
$\text{Example 3:}$&nbsp; As in&nbsp; [[Digital_Signal_Transmission/Burst_Error_Channels#Channel_model_according_to_McCullough|$\text{Example 2}$]],&nbsp; the GE parameters are:
:$$p_{\rm G} = 0.01, \ p_{\rm B} = 0.4, \ p(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.01, \ {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.1.$$
+
:$$p_{\rm G} = 0.01, \hspace{0.5cm} p_{\rm B} = 0.4, \hspace{0.5cm} p(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.01, \hspace{0.5cm} {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.1.$$
Bei Anwendung obiger Gleichungen erhält man dann für die äquivalenten MC&ndash;Parameter:  
+
Applying the above equations,&nbsp; we then obtain for the equivalent MC parameters:
:$$q_{\rm G} = 0.0186, \ q_{\rm B} = 0.4613, \ q(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.3602, \ {\it q}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.2240.$$
+
:$$q_{\rm G} = 0.0186, \hspace{0.5cm} q_{\rm B} = 0.4613, \hspace{0.5cm} q(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.3602, \hspace{0.5cm} {\it q}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.2240.$$
  
*Vergleicht man im [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_McCullough|Beispiel 2]] die rote Fehlerfolge (GE, Zustandswechsel ist immer möglich) mit der blauen Folge (äquivalentes MC, Zustandswechsel nur bei $e_\nu = 1$), so erkennt gravierende Unterschiede.
+
*If we compare in&nbsp; $\text{Example 2}$&nbsp; the red error sequence&nbsp; $($GE,&nbsp; change of state is always possible$)$&nbsp; with the blue sequence&nbsp; $($equivalent MC,&nbsp; change of state only at&nbsp; $e_\nu = 1$$)$,&nbsp; we can see quite serious differences.
* Aber die blaue Fehlerfolge des äquivalenten McCullough-Modells besitzt exakt gleiche statistische Eigenschaften wie die rote Fehlerfolge des Gilbert–Elliott–Modells.}}
 
  
Die Umrechnung der GE&ndash; in die MC&ndash;Parameter wird in der [[Aufgabe 5.7]] an einem einfachen Beispiel verdeutlicht. In der [[Aufgabe 5.7Z]] wird weiter gezeigt, wie die mittlere Fehlerwahrscheinlichkeit, die Fehlerabstandsverteilung, die Fehlerkorrelationsfunktion und die Korrelationsdauer des MC&ndash;Modells direkt aus den <i>q</i>&ndash;Parametern ermittelt werden können.<br>
+
* But the blue error sequence of the equivalent McCullough model has exactly the same statistical properties as the red error sequence of the Gilbert-Elliott model.}}
  
== Bündelfehlerkanalmodell nach Wilhelm ==
+
 
 +
The conversion of the GE parameters to the MC parameters is illustrated in&nbsp; [[Aufgaben:Aufgabe_5.7:_McCullough-Parameter_aus_Gilbert-Elliott-Parameter|"Exercise 5.7"]]&nbsp; using a simple example. &nbsp; [[Aufgaben:Aufgabe_5.7Z:_Nochmals_McCullough-Modell|"Exercise 5.7Z"]]&nbsp; further shows how they can be determined directly from the &nbsp;$q$ parameters:
 +
#the mean error probability,
 +
#the error distance distribution,
 +
#the error correlation function and
 +
#the correlation duration of the MC model. <br>
 +
 
 +
== Burst error channel model according to Wilhelm ==
 
<br>
 
<br>
Dieses Modell geht auf [[Biografien_und_Bibliografien/Externe_Beteiligte_am_LNTwww#Dr._sc._techn._Claus_Wilhelm|Claus Wilhelm]] zurück und wurde ab Mitte der 1960er Jahre aus empirischen Messungen zeitlicher Folgen von Bitfehlern entwickelt. Es beruht auf Tausenden von Messstunden in Übertragungskanälen ab 200 bit/s mit analogem Modem bis hin zu 2.048 Mbit/s über [[Beispiele_von_Nachrichtensystemen/Allgemeine_Beschreibung_von_ISDN|ISDN]]. Ebenso wurden Seefunkkanäle bis zu 7500 Kilometern im Kurzwellenbereich vermessen.<br>
+
This model goes back to&nbsp; [[Biographies_and_Bibliographies/External_Contributors_to_LNTwww#Dr._sc._techn._Claus_Wilhelm|Claus Wilhelm]]&nbsp; and was developed from the mid-1960s onwards from empirical measurements of temporal consequences of bit errors.  
 +
*It is based on thousands of measurement hours in transmission channels from &nbsp;$\text{200 bit/s}$&nbsp; with analog modem up to &nbsp;$\text{2.048 Mbit/s}$&nbsp; via&nbsp; [[Examples_of_Communication_Systems/General_Description_of_ISDN|"ISDN"]].  
 +
[[File:EN_Dig_T_5_3_S5.png|right|frame|Exemplary function curves &nbsp;$h_{\rm B}(n)$. &nbsp; &nbsp; $\rm KW$:&nbsp; "short wave", &nbsp; $\rm UKW$:&nbsp; "ultra short wave"]]
 +
*Likewise,&nbsp; marine radio channels up to &nbsp;$7500$&nbsp; kilometers in the shortwave range were measured.<br>
  
[[File:P ID2778 Dig T 5 3 S5.png|right|frame|Beispielhafte Funktionsverläufe <i>p</i><sub>B</sub>(<i>n</i>)]]
 
Aufgezeichnet wurden Blöcke der Länge $n$. Daraus wurde die jeweilige Blockfehlerrate $h_{\rm B}(n)$ ermittelt. Ein Blockfehler liegt bereits dann vor, wenn auch nur eines der $n$ Symbole verfälscht wurde. Wohl wissend, dass die Blockfehlerrate $h_{\rm B}(n)$ nur für $n \to \infty$ exakt mit der Blockfehlerwahrscheinlichkeit $p_{\rm B}$ übereinstimmt, setzen wir bei der folgenden Beschreibung $p_{\rm B}(n) \approx h_{\rm B}(n)$.<br>
 
  
Bei einer Vielzahl von Messungen wurde immer wieder die Tatsache bestätigt, dass der Verlauf $p_{\rm B}(n)$ in doppelt&ndash;logarithmischer Darstellung im unteren Bereich lineare Anstiege aufweisen (siehe Grafik). Es gilt also für $n \le n^\star$:
+
Blocks of length&nbsp; $n$&nbsp; were recorded.&nbsp; The respective block error rate&nbsp; $h_{\rm B}(n)$&nbsp; was determined from this.&nbsp; <u>Note.</u>
 +
# A block error is already present if even one of the&nbsp; $n$&nbsp; symbols has been falsified.
 +
#Knowing well that the&nbsp; "block error rate"&nbsp; $h_{\rm B}(n)$&nbsp; corresponds exactly to the&nbsp; "block error probability"&nbsp; $p_{\rm B}$&nbsp; only for&nbsp; $n \to \infty$,&nbsp; we set&nbsp; $p_{\rm B}(n) \approx h_{\rm B}(n)$&nbsp; in the following description.<br>
 +
#In another context,&nbsp; $p_{\rm B}$&nbsp; sometimes also denotes the&nbsp; "bit error probability"&nbsp; in our learning tutorial.
  
::<math>{\rm lg} \hspace{0.1cm}p_{\rm B}(n) = {\rm lg} \hspace{0.1cm}p_{\rm S} + \alpha \cdot {\rm lg} \hspace{0.1cm}n\hspace{0.3cm}
+
 
 +
In a large number of measurements, the fact that
 +
 
 +
&rArr; &nbsp; the course&nbsp; $p_{\rm B}(n)$&nbsp; in double-logarithmic representation shows linear increases in the lower range
 +
 
 +
has been confirmed again and again&nbsp; $($see graph$)$.&nbsp; Thus,&nbsp; it holds for&nbsp; $n \le n^\star$:
 +
 
 +
::<math>{\rm lg} \hspace{0.15cm}p_{\rm B}(n) = {\rm lg} \hspace{0.15cm}p_{\rm S} + \alpha \cdot {\rm lg} \hspace{0.15cm}n\hspace{0.3cm}
 
\Rightarrow \hspace{0.3cm}  p_{\rm B}(n) = p_{\rm S} \cdot n^{\alpha}\hspace{0.05cm}.</math>
 
\Rightarrow \hspace{0.3cm}  p_{\rm B}(n) = p_{\rm S} \cdot n^{\alpha}\hspace{0.05cm}.</math>
  
Hierbei bezeichnet $p_{\rm S} = p_{\rm B}(n=1)$ die mittlere Symbolfehlerwahrscheinlichkeit und die empirisch gefundenen Werte von $\alpha$ liegen zwischen $0.5$ und $0.95$. Für $1-\alpha$ wird auch die Bezeichnung <i>Bündelungsfaktor</i> verwendet.
+
#Here,&nbsp; $p_{\rm S} = p_{\rm B}(n=1)$&nbsp; denotes the mean symbol error probability.
 +
#The empirically found values of&nbsp; $\alpha$&nbsp; are between&nbsp; $0.5$&nbsp; and&nbsp; $0.95$.  
 +
#For&nbsp; $1-\alpha$,&nbsp; the term&nbsp; "burst factor"&nbsp; is also used.
 
<br clear = all>
 
<br clear = all>
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 4:}$&nbsp; Für das BSC&ndash;Modell gilt für den Verlauf der Blockfehlerwahrscheinlichkeit:
+
$\text{Example 4:}$&nbsp; In the BSC model, the course of the block error probability is:
  
 
::<math>p_{\rm B}(n) =1 -(1 -p_{\rm S})^n \approx n \cdot p_{\rm S}\hspace{0.05cm}.</math>
 
::<math>p_{\rm B}(n) =1 -(1 -p_{\rm S})^n \approx n \cdot p_{\rm S}\hspace{0.05cm}.</math>
  
Daraus folgt $\alpha = 1$ bzw. der Bündelungsfaktor $1-\alpha = 0$. In diesem Fall (und nur in diesem) ergibt sich auch bei nicht&ndash;logarithmischer Darstellung ein linearer Verlauf.<br>
+
From this follows &nbsp; $\alpha = 1$ &nbsp; and the burst factor &nbsp; $1-\alpha = 0$.&nbsp; In this case&nbsp; $($and only in this case$)$&nbsp; a linear course results even with non-logarithmic representation.<br>
  
Es ist aber zu beachten, dass obige Näherung nur für $p_{\rm S}  \ll 1$ und nicht allzu großes $n$ zulässig ist, da sonst die Näherung $(1-p_{\rm S})^n \approx1 - n \cdot p_{\rm S}$ nicht anwendbar ist. Das heißt aber auch, dass die oben angegebene Gleichung auch nur für einen unteren Bereich (für $n < n^\star$) gilt. Ansonsten würde sich für $n \to \infty$ eine unendlich große Blockfehlerwahrscheinlichkeit ergeben.}}<br>
+
*Note that the above approximation is only valid for &nbsp; $p_{\rm S}  \ll 1$ &nbsp; and not too large&nbsp; $n$,&nbsp; otherwise the approximation &nbsp; $(1-p_{\rm S})^n \approx1 - n \cdot p_{\rm S}$ &nbsp; is not applicable.
 +
 
 +
*But this also means that the equation given above is also only valid for a lower range&nbsp; $($for&nbsp; $n < n^\star)$.&nbsp;
 +
 
 +
*Otherwise,&nbsp; an infinitely large block error probability would result for&nbsp; $n \to \infty$.&nbsp;}}<br>
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Für die aus Messungen empirisch bestimmte Funktion $p_{\rm B}(n)$ muss nun die [[[Digitalsignalübertragung/Beschreibungsgrößen_digitaler_Kanalmodelle#Fehlerabstandsverteilung|Fehlerabstandsverteilung]] gefunden werden, aus der der Verlauf für $n > n^\star$ extrapoliert werden kann und der die Nebenbedingung
+
$\text{Definition:}$&nbsp; For the function&nbsp; $p_{\rm B}(n)$ &nbsp; &rArr;  &nbsp; "block error probability"&nbsp; determined empirically from measurements,&nbsp; we now have to find the&nbsp; [[Digital_Signal_Transmission/Parameters_of_Digital_Channel_Models#Error_distance_distribution|'''error distance distribution''']]&nbsp; $\rm (EDD)$&nbsp; from which the course for&nbsp; $n > n^\star$&nbsp; can be extrapolated,&nbsp; which satisfies the following constraint:
  
::<math>\lim_{n \hspace{0.05cm} \rightarrow \hspace{0.05cm} \infty}  p_{\rm B}(n) = 1 </math>
+
::<math>\lim_{n \hspace{0.05cm} \rightarrow \hspace{0.05cm} \infty}  p_{\rm B}(n) = 1 .</math>
  
erfüllt. Wir bezeichnen diesen Ansatz als das '''Wilhelm&ndash;Modell'''. Da das Gedächtnis nur bis zum letzten Symbolfehler reicht, wird dieses Modell erneuernd sein (englisch: <i>Renewal Model</i>).}}<br>
+
*We refer to this approach as the&nbsp; '''Wilhelm model'''.  
  
== Fehlerabstandsbetrachtung zum Wilhelm–Modell ==
+
*Since memory extends only to the last symbol error,&nbsp; this model is a renewal model.}}<br>
 +
 
 +
== Error distance consideration to the Wilhelm model ==
 
<br>
 
<br>
[[File:P ID2807 Dig T 5 3 S5b.png|right|frame|Fehlerfolge und Fehlerabstandsfolge|class=fit]]
 
Wir betrachten nun die <i>Fehlerabstände</i>. Eine Fehlerfolge $\langle e_\nu \rangle$ kann in äquivalenter Weise durch die Fehlerabstandsfolge $\langle a_{\nu\hspace{0.03cm}'} \rangle$ dargestellt werden, wie in der folgenden Grafik gezeigt. Man erkennt:
 
*Die Fehlerfolge $\text{...}\rm 1001\text{...}$ wird durch den Fehlerabstand $a= 3$ ausgedrückt.<br>
 
*Entsprechend bezeichnet der Fehlerabstand $a= 1$  die Fehlerfolge $\text{...}\rm 11\text{...}$ .<br>
 
*Die verschiedenen Indizes $\nu$ und $\nu\hspace{0.03cm}'$ berücksichtigen, dass die beiden Folgen nicht synchron laufen.
 
  
Mit den Wahrscheinlichkeiten $p_a(k) = {\rm Pr}(a= k)$ für die einzelnen Fehlerabstände $k$ und der mittleren (Symbol&ndash;)Fehlerwahrscheinlichkeit $p_{\rm S}$ gelten  folgende Definitionen für
+
We now consider the  error distances.&nbsp; An&nbsp; "error sequence"&nbsp; $\langle e_\nu \rangle$&nbsp; can be equivalently represented by the&nbsp; "error distance sequence"&nbsp; $\langle a_{\nu\hspace{0.06cm}'} \rangle$,&nbsp; as shown in the following graph.&nbsp; It can be seen:
* die Fehlerabstandsverteilung (FAV):  
+
#The error sequence&nbsp; "$\text{...}\rm 1001\text{...}$"&nbsp; is expressed by&nbsp; "$a= 3$".&nbsp; <br>
 +
#Accordingly,&nbsp; the error distance&nbsp; "$a= 1$"&nbsp; denotes the error sequence&nbsp; "$\text{...}\rm 11\text{...}$".<br>
 +
#The different indices&nbsp; $\nu$&nbsp; and&nbsp; $\nu\hspace{0.06cm}'$&nbsp; take into account that the two sequences do not run synchronously.
 +
 
 +
 
 +
With the probabilities&nbsp; $p_a(k) = {\rm Pr}(a= k)$&nbsp; for the individual error distances&nbsp; $k$&nbsp; and the mean symbol error probability&nbsp; $p_{\rm S}$,&nbsp; the following definitions apply for
 +
[[File:P ID2807 Dig T 5 3 S5b.png|right|frame|Error sequence&nbsp; $\langle e_\nu \rangle$&nbsp; and error distance sequence&nbsp; $\langle a_{\nu\hspace{0.06cm}'} \rangle$|class=fit]]
 +
* the&nbsp; "error distance distribution"&nbsp; $\rm (EDD)$:  
 
::<math> V_a(k) =  {\rm Pr}(a \ge k)= \sum_{\kappa = k}^{\infty}p_a(\kappa) \hspace{0.05cm},</math>
 
::<math> V_a(k) =  {\rm Pr}(a \ge k)= \sum_{\kappa = k}^{\infty}p_a(\kappa) \hspace{0.05cm},</math>
* den mittleren Fehlerabstand ${\rm E}[a]$:
+
* the&nbsp; "mean error distance"&nbsp; ${\rm E}\big[a\big]$:
::<math> V_a(k) =  {\rm E}[a] = \sum_{k = 1}^{\infty} k \cdot p_a(k)  = {1}/{p_{\rm S}}\hspace{0.05cm}.</math>
+
::<math> V_a(k) =  {\rm E}\big[a\big] = \sum_{k = 1}^{\infty} k \cdot p_a(k)  = {1}/{p_{\rm S}}\hspace{0.05cm}.</math>
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 5:}$&nbsp; Wir betrachten nun einen Block mit $n$ Bit, beginnend bei der Bitposition $\nu + 1$. Ein Blockfehler tritt immer dann auf, wenn ein Bit an den Positionen $\nu + 1$, ... , $\nu + n$ verfälscht ist.<br>
+
$\text{Example 5:}$&nbsp; We consider a block with&nbsp; $n$&nbsp; bits, starting at bit position&nbsp; $\nu + 1$.  
 
 
[[File:P ID2808 Dig T 5 3 S5c neu.png|center|frame|Zur Herleitung des Wilhelm–Modells|class=fit]]
 
  
Die Verfälschungswahrscheinlichkeiten werden in der Grafik durch die Fehlerabstandsverteilung ${V_a}'(k)$ ausgedrückt. Irgendwo vor dem Block der Länge $n = 3$
+
[[File:EN_Dig_T_5_3_S5c.png|right|frame|To derive the Wilhelm model|class=fit]]
befindet sich der letzte Fehler, aber mindestens im Abstand $k$ vom ersten Fehler im Block entfernt. Also ist der Abstand gleich oder größer als $k$, was genau der Wahrscheinlichkeit ${V_a}'(k)$ entspricht.<br>
+
<u>Some comments:</u>
 +
#A block error occurs whenever a bit is falsified at positions&nbsp; $\nu + 1$, ... , $\nu + n$.&nbsp; <br>
 +
#The falsification probabilities are expressed in the graph by the error distance distribution&nbsp; ${V_a}\hspace{0.06cm}'(k)$.&nbsp;
 +
#Somewhere before the block of length&nbsp; $n = 3$&nbsp; is the last error, but at least at distance&nbsp; $k$&nbsp; from the first error in the block.
 +
#So the distance is equal or greater than&nbsp; $k$,&nbsp; which corresponds exactly to the probability&nbsp; ${V_a}'(k)$.&nbsp;
 +
#The apostrophe is to indicate that a correction has to be made later to get from the empirically found error distance distribution to the correct function&nbsp; ${V_a}(k)$.&nbsp; }}
  
<i>Hinweis.</i> Das Hochkomma soll anzeigen, dass wir später noch eine Korrektur vornehmen müssen, um von der empirisch gefundenen FAV  zur richtigen Funktion ${V_a}(k)$ zu kommen.}}<br>
 
  
 
+
We now have several equations for the block error probability&nbsp; $p_{\rm B}(n)$.&nbsp;
Für die Blockfehlerwahrscheinlichkeit $p_{\rm B}(n)$ haben wir nun verschiedene Gleichungen.  
+
*A first equation establishes the relationship between&nbsp; $p_{\rm B}(n)$&nbsp; and the&nbsp; (approximate)&nbsp; error distance distribution&nbsp; ${V_a}'(k)$:&nbsp;
*Eine erste Gleichung stellt den Zusammenhang zwischen $p_{\rm B}(n)$ und der (approximativen) Fehlerabstandsverteilung ${V_a}'(k)$ her:
+
::<math>(1)\hspace{0.4cm} p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k)  \hspace{0.05cm},
::<math>(1)\hspace{0.2cm} p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k)  \hspace{0.05cm},
 
 
</math>
 
</math>
*Eine zweite Gleichung lieferte unsere empirische Untersuchung zu Beginn dieses Abschnitts:
+
*A second equation is provided by our empirical investigation at the beginning of this section:
::<math>(2)\hspace{0.2cm} p_{\rm B}(n) = p_{\rm S} \cdot n^{\alpha}</math>
+
::<math>(2)\hspace{0.4cm} p_{\rm B}(n) = p_{\rm S} \cdot n^{\alpha}</math>
*Die dritte Gleichung ergibt sich aus Gleichsetzen von $(1)$ und $(2)$:
+
*The third equation is obtained by equating&nbsp; $(1)$&nbsp; and&nbsp; $(2)$:
::<math>(3)\hspace{0.2cm}
+
::<math>(3)\hspace{0.4cm}
 
\sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k) = n^{\alpha} \hspace{0.05cm}. </math>
 
\sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k) = n^{\alpha} \hspace{0.05cm}. </math>
  
Durch sukzessives Einsetzen von $n = 1, 2, 3,$ ... in diese Gleichung erhalten wir mit ${V_a}'(k = 1) = 1$:
+
By successively substituting&nbsp; $n = 1, 2, 3,$ ...&nbsp; into this equation,&nbsp; we obtain with&nbsp; ${V_a}'(k = 1) = 1$:
  
 
::<math>V_a\hspace{0.05cm}'(1)  =  1^{\alpha}
 
::<math>V_a\hspace{0.05cm}'(1)  =  1^{\alpha}
Line 344: Line 393:
 
\hspace{0.35cm}\Rightarrow \hspace{0.3cm} V_a\hspace{0.05cm}'(k) = k^{\alpha}-(k-1)^{\alpha} \hspace{0.05cm}.</math>
 
\hspace{0.35cm}\Rightarrow \hspace{0.3cm} V_a\hspace{0.05cm}'(k) = k^{\alpha}-(k-1)^{\alpha} \hspace{0.05cm}.</math>
  
Die aus empirischen Daten gewonnenen Koeffizienten ${V_a}'(k)$ erfüllen jedoch nicht notwendigerweise die Normierungsbedingung. Um den Sachverhalt zu korrigieren, verwendet Wilhelm folgenden Ansatz:
+
However,&nbsp; the coefficients&nbsp; ${V_a}'(k)$&nbsp; obtained from empirical data do not necessarily satisfy the normalization condition.
 +
 
 +
To correct the issue,&nbsp; Wilhelm uses the following approach:
  
 
::<math>V_a\hspace{0.05cm}(k) = V_a\hspace{0.05cm}'(k) \cdot {\rm e}^{- \beta \cdot (k-1)}\hspace{0.3cm}\Rightarrow \hspace{0.3cm}
 
::<math>V_a\hspace{0.05cm}(k) = V_a\hspace{0.05cm}'(k) \cdot {\rm e}^{- \beta \cdot (k-1)}\hspace{0.3cm}\Rightarrow \hspace{0.3cm}
V_a\hspace{0.05cm}(k) =  [k^{\alpha}-(k-1)^{\alpha} ] \cdot {\rm e}^{- \beta \cdot (k-1)}\hspace{0.05cm}.</math>
+
V_a\hspace{0.05cm}(k) =  \big [k^{\alpha}-(k-1)^{\alpha} \big ] \cdot {\rm e}^{- \beta \cdot (k-1)}\hspace{0.05cm}.</math>
  
Wilhelm bezeichnet diese Darstellung als '''<i>L</i>&ndash;Modell''', siehe [Wil11]<ref name='Wil11'>Wilhelm, C.: ''A-Model and L-Model, New Channel Models with Formulas for Probabilities of Error Structures. Neue Kanalmodelle mit Formeln für die Wahrscheinlichkeit von Fehlerstrukturen''. [http://www.channels-networks.net/ Internet-Veröffentlichungen zu Channels-Networks,] 2011ff.</ref>. Die Konstante $\beta$ ist  in Abhängigkeit
+
Wilhelm refers to this representation as the&nbsp; $\rm L&ndash;model$,&nbsp; see&nbsp; [Wil11]<ref name='Wil11'>Wilhelm, C.:&nbsp; A-Model and L-Model, New Channel Models with Formulas for Probabilities of Error Structures. &nbsp; [http://www.channels-networks.net/ Internet Publication to Channels-Networks,] 2011ff.</ref>. The constant&nbsp; $\beta$&nbsp; depends on
*der Symbolfehlerwahrscheinlichkeit $p_{\rm S}$, und<br>
+
*the symbol error probability&nbsp; $p_{\rm S}$, and<br>
*des empirisch gefundenen Exponenten $\alpha$ &nbsp; &#8658; &nbsp; Bündelungsfaktor $1- \alpha$
 
  
 +
*the empirically found exponent&nbsp; $\alpha$ &nbsp; &#8658; &nbsp; burst factor&nbsp; $1- \alpha$,
  
so zu bestimmen, dass die Blockfehlerwahrscheinlichkeit  bei unendlich großer Blocklänge gleich $1$ wird:
+
 
 +
such that the block error probability becomes equal to&nbsp; $1$&nbsp; at infinite block length:
  
 
::<math>\lim_{n \hspace{0.05cm} \rightarrow \hspace{0.05cm} \infty}  p_B(n) =  p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}(k)
 
::<math>\lim_{n \hspace{0.05cm} \rightarrow \hspace{0.05cm} \infty}  p_B(n) =  p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}(k)
  =  p_{\rm S} \cdot \sum_{k = 1}^{n}  [k^{\alpha}-(k-1)^{\alpha} ] \cdot {\rm e}^{- \beta \cdot (k-1)}
+
  =  p_{\rm S} \cdot \sum_{k = 1}^{n}  \big [k^{\alpha}-(k-1)^{\alpha} \big ] \cdot {\rm e}^{- \beta \cdot (k-1)}
 
=1  
 
=1  
\hspace{0.3cm} \Rightarrow \hspace{0.3cm} \sum_{k = 1}^{\infty}  [k^{\alpha}-(k-1)^{\alpha} ] \cdot {\rm e}^{- \beta \cdot (k-1)}
+
\hspace{0.3cm} \Rightarrow \hspace{0.3cm} \sum_{k = 1}^{\infty}  \big [k^{\alpha}-(k-1)^{\alpha} \big ] \cdot {\rm e}^{- \beta \cdot (k-1)}
 
= {1}/{p_{\rm S}}  
 
= {1}/{p_{\rm S}}  
 
\hspace{0.05cm}.</math>
 
\hspace{0.05cm}.</math>
  
Um $\beta$ zu bestimmen, wird die [https://de.wikipedia.org/wiki/Erzeugende_Funktion erzeugende Funktion] von ${V_a}(k)$ verwendet, die wir mit ${V_a}(z)$ benennen:
+
To determine&nbsp; $\beta$,&nbsp; we use the&nbsp; [https://en.wikipedia.org/wiki/Generating_function "generating function"]&nbsp; of&nbsp; ${V_a}(k)$,&nbsp; which we denote by&nbsp; ${V_a}(z)$:&nbsp;
  
 
::<math>V_a\hspace{0.05cm}(z) =  \sum_{k = 1}^{\infty}V_a\hspace{0.05cm}(k)  \cdot z^k =  
 
::<math>V_a\hspace{0.05cm}(z) =  \sum_{k = 1}^{\infty}V_a\hspace{0.05cm}(k)  \cdot z^k =  
   \sum_{k = 1}^{n}  [k^{\alpha}-(k-1)^{\alpha} ] \cdot {\rm e}^{- \beta \cdot (k-1)}
+
   \sum_{k = 1}^{n}  \big [k^{\alpha}-(k-1)^{\alpha} \big ] \cdot {\rm e}^{- \beta \cdot (k-1)}
 
\cdot z^k  
 
\cdot z^k  
 
\hspace{0.05cm}.</math>
 
\hspace{0.05cm}.</math>
  
In [Wil11]<ref name='Wil11'></ref> wird näherungsweise hergeleitet: &nbsp; $V_a\hspace{0.05cm}(z) = 1/{\left (1- {\rm e}^{- \beta }\cdot z \right )^\alpha}
+
In&nbsp; [Wil11]<ref name='Wil11'>Wilhelm, C.:&nbsp; A-Model and L-Model, New Channel Models with Formulas for Probabilities of Error Structures. &nbsp; [http://www.channels-networks.net/ Internet Publication to Channels-Networks,] 2011ff.</ref>,&nbsp; $V_a\hspace{0.05cm}(z) = 1/{\left (1- {\rm e}^{- \beta }\cdot z \right )^\alpha}
\hspace{0.05cm}.$ Aus der Gleichung für den mittleren Fehlerabstand folgt:
+
$&nbsp; is derived approximately.&nbsp; From the equation for the mean error distance follows:
  
::<math> {\rm E}[a] = \sum_{k = 1}^{\infty} k \cdot p_a(k)  = \sum_{k = 1}^{\infty} V_a(k)  = \sum_{k = 1}^{\infty} V_a(k) \cdot 1^k =  V_a(z=1) =
+
::<math> {\rm E}\big[a\big] = \sum_{k = 1}^{\infty} k \cdot p_a(k)  = \sum_{k = 1}^{\infty} V_a(k)  = \sum_{k = 1}^{\infty} V_a(k) \cdot 1^k =  V_a(z=1) =
 
  1/p_{\rm S}</math>
 
  1/p_{\rm S}</math>
::<math> \Rightarrow \hspace{0.3cm}{p_{\rm S}} = \left [V_a(z=1)\right]^{-1}=
+
::<math> \Rightarrow \hspace{0.3cm}{p_{\rm S}} = \big [V_a(z=1)\big]^{-1}=
  \left [1- {\rm e}^{- \beta }\cdot 1\right]^{\alpha}\hspace{0.3cm}
+
  \big [1- {\rm e}^{- \beta }\cdot 1\big]^{\alpha}\hspace{0.3cm}
 
\Rightarrow \hspace{0.3cm}
 
\Rightarrow \hspace{0.3cm}
 
{\rm e}^{- \beta } =1 - {p_{\rm S}}^{1/\alpha}\hspace{0.05cm}.</math>
 
{\rm e}^{- \beta } =1 - {p_{\rm S}}^{1/\alpha}\hspace{0.05cm}.</math>
  
== Numerischer Vergleich von BSC–Modell und Wilhelm–Modell==
+
== Numerical comparison of the BSC model and the Wilhelm model==
 
<br>
 
<br>
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Fazit:}$&nbsp; Fassen wir dieses Zwischenergebnis zusammen. Das '''L&ndash;Modell''' nach Wilhelm beschreibt die Fehlerabstandsverteilung in der Form
+
$\text{Conclusion:}$&nbsp; Let us summarize this intermediate result.&nbsp; Wilhelm's&nbsp; $\rm L&ndash;model$ describes the error distance distribution&nbsp; $\rm (EDD)$&nbsp; in the form
  
::<math>V_a\hspace{0.05cm}(k) = \left [k^{\alpha}-(k-1)^{\alpha}\right ] \cdot  
+
::<math>V_a\hspace{0.05cm}(k) = \big [k^{\alpha}-(k-1)^{\alpha}\big ] \cdot  
\left [ 1 - {p_{\rm S}^{1/\alpha} }\right ]^{k-1}  
+
\big [ 1 - {p_{\rm S}^{1/\alpha} }\big ]^{k-1}  
 
\hspace{0.05cm}.</math>}}
 
\hspace{0.05cm}.</math>}}
  
  
Dieses Modell soll nun anhand beispielhafter numerischer Ergebnisse erläutert werden.<br>
+
This model will now be explained with exemplary numerical results and compared with the BSC model.<br>
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 6:}$&nbsp; Wir gehen zunächst vom [[Digitalsignal%C3%BCbertragung/Binary_Symmetric_Channel_(BSC)#Fehlerkorrelationsfunktion_des_BSC.E2.80.93Modells|BSC&ndash;Modell]] aus. Die Verfälschungswahrscheinlichkeit setzen wir aus Darstellungsgründen sehr hoch auf $p_{\rm S} = 0.2$. In der zweiten Zeile der nachfolgenden Tabelle ist dessen Fehlerabstandsverteilung ${V_a}(k) = {\rm Pr}(a \ge k)$ für $k \le10$ eingetragen.<br>
+
$\text{Example 6:}$&nbsp; We start with the&nbsp; [[Digital_Signal_Transmission/Binary_Symmetric_Channel_(BSC)#Binary_Symmetric_Channel_.E2.80.93_Model_and_Error_Correlation_Function|"BSC model"]].&nbsp;
 +
[[File:EN_Dig_T_5_3_S5h_ganz_neu.png|right|frame|BSC model and parameters for&nbsp; $p_{\rm S} = 0.2$|class=fit]]
 +
 +
#For presentation reasons,&nbsp; we set the falsification probability very high to&nbsp; $p_{\rm S} = 0.2$.  
 +
#In the second row of the table,&nbsp; its error distance distribution&nbsp; ${V_a}(k) = {\rm Pr}(a \ge k)$&nbsp; is entered for&nbsp; $k \le 10$.<br>
  
[[File:P ID2827 Dig T 5 3 S5d ganz neu.png|center|frame|Kenngrößen des BSC–Modells  für <i>p</i><sub>S</sub> = 0.2|class=fit]]
 
  
Das Wilhelm&ndash;Modell mit $p_{\rm S} = 0.2$ und $\alpha = 1$ weist genau die gleiche Fehlerabstandsverteilung ${V_a}(k)$ wie das entsprechende [[Digitalsignal%C3%BCbertragung/Binary_Symmetric_Channel_(BSC)#Fehlerabstandsverteilung_des_BSC.E2.80.93Modells| BSC&ndash;Modell]] auf. Dies zeigt auch die Rechnung. Mit $\alpha = 1$ erhält man aus der Gleichung auf der letzten Seite:
+
The Wilhelm model with&nbsp; $p_{\rm S} = 0.2$&nbsp; and&nbsp; $\alpha = 1$&nbsp; has exactly the same error distance distribution as the corresponding&nbsp; [[Digital_Signal_Transmission/Binary_Symmetric_Channel_(BSC)#Binary_Symmetric_Channel_.E2.80.93_Error_Distance_Distribution| "BSC model"]].&nbsp; This is also shown by the calculation.&nbsp;
  
::<math>V_a\hspace{0.05cm}(k) = \left [k^{\alpha}-(k-1)^{\alpha}\right ] \cdot  
+
With&nbsp; $\alpha = 1$&nbsp; one obtains from the equation in the last section:
\left [ 1 - {p_{\rm S}^{1/\alpha} }\right ]^{k-1} = (1 - p_{\rm S} )^{k-1}
+
 
 +
::<math>V_a\hspace{0.05cm}(k) \hspace{-0.05cm}=\hspace{-0.05cm} \big [k^{\alpha}-(k-1)^{\alpha}\big ] \hspace{-0.05cm} \cdot \hspace{-0.05cm}
 +
\big [ 1 - {p_{\rm S}^{1/\alpha} }\big ]^{k-1} \hspace{-0.1cm} = \hspace{-0.1cm} (1 - p_{\rm S} )^{k-1}
 
\hspace{0.05cm}.</math>
 
\hspace{0.05cm}.</math>
  
Damit besitzen beide Modelle entsprechend den Zeilen 3 und 4 auch
+
Thus,&nbsp; according to the lines&nbsp; '''3'''&nbsp; and&nbsp; '''4''',&nbsp; both models also have
*gleiche Wahrscheinlichkeiten ${\rm Pr}(a = k)= {V_a}(k-1) -  {V_a}(k)$der Fehlerabstände,<br>
+
*equal error distance probabilities&nbsp; ${\rm Pr}(a = k)= {V_a}(k-1) -  {V_a}(k)$,<br>
  
*gleiche Blockfehlerwahrscheinlichkeiten $ p_{\rm B}(n)$.<br><br>
+
*equal block error probabilities&nbsp; $ p_{\rm B}(n)$.<br><br>
  
Im Hinblick auf das folgende $\rm Beispiel 7$ mit $\alpha \ne 1$ ist nochmals besonders zu erwähnen:
+
With regard to the following&nbsp; $\text{Example 7}$&nbsp; with&nbsp; $\alpha \ne 1$,&nbsp; it should be mentioned again in particular:
*Die Blockfehlerwahrscheinlichkeiten $ p_{\rm B}(n)$ des Wilhelm&ndash;Modells ergeben sich grundsätzlich aus der Fehlerabstandsverteilung ${V_a}(k)$ entsprechend der Gleichung
+
*The block error probabilities&nbsp; $ p_{\rm B}(n)$&nbsp; of the Wilhelm model are basically obtained from the error distance distribution&nbsp; ${V_a}(k)$&nbsp; according to the equation
  
 
::<math> p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}(k)  
 
::<math> p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}(k)  
Line 416: Line 473:
 
\hspace{0.05cm}.</math>
 
\hspace{0.05cm}.</math>
  
*Im Sonderfall $\alpha \ne 1$  &nbsp; &#8658; &nbsp; BSC&ndash;Modell (und nur in diesem) kann $ p_{\rm B}(n)$ auch durch Summation über die Fehlerabstandswahrscheinlichkeiten ${\rm Pr}(a=k)$ ermittelt werden:
+
*Only in the special case&nbsp; $\alpha = 1$  &nbsp; &#8658; &nbsp; BSC model,&nbsp; $ p_{\rm B}(n)$&nbsp; can also be determined by summation over the error distance probabilities&nbsp; ${\rm Pr}(a=k)$:&nbsp;
  
 
::<math> p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} {\rm Pr}(a=k)
 
::<math> p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} {\rm Pr}(a=k)
Line 424: Line 481:
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 7:}$&nbsp;  Betrachten wir nun einen Kanal mit Bündelfehlercharakteristik. Die Grafik zeigt als grüne Kreise die Ergebnisse für das Wilhelm&ndash;L&ndash;Modell mit $\alpha = 0.7$. Die rote Vergleichskurve gilt für $\alpha = 1$  (bzw. für den BSC&ndash;Kanal) bei gleicher mittlerer Symbolfehlerwahrscheinlichkeit $p_{\rm S} = 0.2$. Unten rechts sind einige interessante Zahlenwerte angegeben.<br>
+
$\text{Example 7:}$&nbsp;  We now consider a channel with burst error characteristics.
 +
[[File:EN_Dig_T_5_3_S5h_ganz_neu.png|right|frame|Results of the Wilhelm-L model with&nbsp; $\alpha = 0.7$ and&nbsp;  $p_{\rm S} = 0.2$<br><br> |class=fit]]
  
[[File:P ID2833 Dig T 5 3 S5h version2.png|center|frame|Ergebnisse des  Wilhelm–L–Modells mit <i>α</i> = 0.7 und <i>p</i><sub>S</sub> = 0.2|class=fit]]
+
#The graph shows as green circles the results for the Wilhelm&ndash;L model with&nbsp; $\alpha = 0.7$.
 +
#The red comparison curve is valid for&nbsp; $\alpha = 1$&nbsp;  (or for the BSC channel)&nbsp; with the same mean symbol error probability&nbsp;  $p_{\rm S} = 0.2$.
 +
#Some interesting numerical values are given at the bottom right.<br>
  
Man erkennt aus diesen Darstellungen:
 
*Der Verlauf der Blockfehlerfehlerwahrscheinlichkeit beginnt jeweils mit $p_{\rm B}(n = 1) = p_{\rm S} = 0.2$, sowohl bei statistisch unabhängigen Fehlern (BSC) als auch bei Bündelfehlern (Wilhelm).<br>
 
  
*Beim Bündelfehlerkanal  ist ${\rm Pr}(a=1)= 0.438$ deutlich größer als beim vergleichbaren BSC &nbsp; &#8658; &nbsp; ${\rm Pr}(a=1)= 0.2$. Zudem erkennt man einen abgeknickten Verlauf im unteren Bereich.<br>
+
One can see from these plots:
 +
*The course of the block error probability starts with&nbsp; $p_{\rm B}(n = 1) = p_{\rm S} = 0.2$,&nbsp; both for statistically independent errors&nbsp; ("BSC")&nbsp; and for burst errors&nbsp; ("Wilhelm").<br>
  
*Der mittlere Fehlerabstand ${\rm E}[a] = 1/p_{\rm S} = 5$ ist aber bei gleicher Symbolfehlerwahrscheinlichkeit ebenfalls identisch. Der große Ausreiser bei $k=1$ wird durch kleinere Wahrscheinlichkeiten für $k=2$, $k=3$ und $k=4$ ausgeglichen, sowie durch die Tatsache, dass für große $k$ die grünen Kreise &ndash; wenn auch nur minimal &ndash; oberhalb der roten Vergleichskurve liegen.<br>
+
*For the (green) burst error model,&nbsp; ${\rm Pr}(a=1)= 0.438$&nbsp; is significantly larger than for the (red) BSC: &nbsp;  ${\rm Pr}(a=1)= 0.2$. In addition, one can see a bent shape in the lower region.<br>
  
*Das wichtigste Ergebnis ist aber, dass die Blockfehlerfehlerwahrscheinlichkeit  $n > 1$ beim Bündelfehlerkanal kleiner ist als beim vergleichbaren BSC&ndash;Modell, zum Beispiel: &nbsp; $p_{\rm B}(n = 1) = 20) = 0.859$.}}<br>
+
*However,&nbsp; the mean error distance&nbsp; ${\rm E}\big [a \big ] = 1/p_{\rm S} = 5$&nbsp; is  identical for both models with same symbol error probability.  
  
 +
*The large outlier at&nbsp; $k=1$&nbsp; is compensated by smaller probabilities for&nbsp; $k=2$,&nbsp; $k=3$&nbsp; ... as well as by the fact that for large&nbsp; $k$&nbsp; the green circles lie &ndash; even if only minimally &ndash; above the red comparison curve.<br>
  
== Fehlerabstandsbetrachtung nach dem Wilhelm–A–Modell ==
+
*The most important result is that the block error probability for&nbsp; $n > 1$&nbsp; is smaller for the Wilhelm model than for the comparable BSC model,&nbsp; for example: &nbsp; $p_{\rm B}(n = 20) = 0.859$.}}<br>
 +
 
 +
 
 +
== Error distance consideration according to the Wilhelm A model ==
 
<br>
 
<br>
Bevor wir dieses interessante Ergebnis interpretieren, beschreiben wie zunächst die endgültige Variante des Kanalmodells nach Wilhelm. Wir nennen es das <i>Wilhelm&ndash;A&ndash;Modell</i>.}}<br>
+
Wilhelm has developed another approximation from the&nbsp; [https://en.wikipedia.org/wiki/Generating_function "generating function"]&nbsp; $V_a(z)$&nbsp; given above,&nbsp; which he calls the&nbsp; "A model".&nbsp; The approximation is based on a Taylor series expansion.<br>
 
 
Wilhelm hat aus der oben angegebenen [[Digitalsignalübertragung/Bündelfehlerkanäle#Fehlerabstandsbetrachtung_zum_Wilhelm.E2.80.93Modell|erzeugenden Funktion]] $V_a(z)$ eine weitere Näherung entwickelt, die er als das  &bdquo;A&ndash;Modell&rdquo; bezeichnet. Die Näherung basiert auf einer Taylorreihenentwicklung.<br>
 
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp; Das '''A&ndash;Modell''' nach Wilhelm beschreibt die angenäherte Fehlerabstandsverteilung in der Form
+
$\text{Definition:}$&nbsp; Wilhelm's&nbsp; $\text{A model}$&nbsp; describes the approximated error distance distribution&nbsp; $\rm (EDD)$&nbsp; in the form
  
 
::<math>V_a\hspace{0.05cm}(k) = \frac {1 \cdot \alpha \cdot (1+\alpha) \cdot \hspace{0.05cm} ... \hspace{0.05cm}\cdot  (k-2+\alpha) }{(k-1)\hspace{0.05cm}!}\cdot  
 
::<math>V_a\hspace{0.05cm}(k) = \frac {1 \cdot \alpha \cdot (1+\alpha) \cdot \hspace{0.05cm} ... \hspace{0.05cm}\cdot  (k-2+\alpha) }{(k-1)\hspace{0.05cm}!}\cdot  
Line 451: Line 512:
 
\hspace{0.05cm}.</math>
 
\hspace{0.05cm}.</math>
  
Insbesondere ergibt sich $V_a(k  = 1) = 1$  und $V_a(k  = 2)= \alpha \cdot  (1  - p_{\rm S}^{1/\alpha})$. Hierbei ist zu berücksichtigen, dass der Zähler des Vorfaktors aus $k$ Faktoren besteht. Für $k = 1$ ergibt sich dieser Vorfaktor demzufolge zu $1$.}}<br>
+
*In particular,&nbsp; $V_a(k  = 1) = 1$&nbsp; and&nbsp; $V_a(k  = 2)= \alpha \cdot  (1  - p_{\rm S}^{1/\alpha})$ results.
  
Nun vergleichen wir die Unterschiede der beiden Wilhelm&ndash;Modelle ('''L''' bzw. '''A''') hinsichtlich resultierender Blockfehlerwahrscheinlichkeit.
+
*It should be noted here that the numerator of the prefactor consists of&nbsp; $k$&nbsp; factors.&nbsp; Consequently,&nbsp; for&nbsp; $k = 1$,&nbsp; this prefactor results in $1$.}}<br>
 +
 
 +
Now we compare the differences of the two Wilhelm models&nbsp; $\rm(L$&nbsp; and&nbsp; $\rm A)$,&nbsp; with respect to resulting block error probability.
  
[[File:P ID2831 Dig T 5 3 S5i version2.png|right|frame||Ergebnisse des Wilhelm–Modells für <i>p</i><sub>S</sub> = 0.2 und einige <i>α</i> ]]
 
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 7:}$&nbsp;   Nebenstehende Grafik zeigt den Verlauf der Blockfehlerwahrscheinlichkeiten $p_{\rm B}(n)$ für drei verschiedene $\alpha$&ndash;Werte, erkennbar an den Farben
+
$\text{Example 8:}$&nbsp; The adjacent graph shows the course of the block error probabilities&nbsp; $p_{\rm B}(n)$&nbsp; for three different&nbsp; $\alpha$&ndash;values, recognizable by the colors
*Rot:&nbsp;&nbsp; $\alpha = 1$ &nbsp; &#8658; &nbsp; BSC&ndash;Modell,<br>
+
[[File:EN_Dig_T_5_3_S5m.png|right|frame||Wilhelm model results&nbsp;$(p_{\rm S} = 0.01)$ <br><br>]]
*Blau:&nbsp; $\alpha = 0.95$ &nbsp;&#8658; &nbsp; schwache Bündelung,<br>
+
 
*Grün:&nbsp; $\alpha = 0.7$ &nbsp; &#8658; &nbsp; starke Bündelung.<br><br>
+
*Red:&nbsp; &nbsp;&nbsp; &nbsp; &nbsp;$\alpha = 1.0$ &nbsp; &#8658; &nbsp; BSC model,<br>
 +
*Blue:&nbsp;&nbsp;&nbsp; &nbsp; $\alpha = 0.95$ &nbsp;&#8658; &nbsp; weak bursting,<br>
 +
*Green:&nbsp;&nbsp;  $\alpha = 0.70$ &nbsp; &#8658; &nbsp; strong bursting.<br><br>
  
Die durchgezogenen gelten für Linien das A&ndash;Modell und die gestrichelten für das L&ndash;Modell. Die im Bild angegebenen Zahlenwerte für $p_{\rm B}(n = 100)$ beziehen sich ebenfalls auf das A&ndash;Modell.<br>
+
The solid lines apply to the&nbsp; "A model"&nbsp; and the dashed lines to the&nbsp; "L model".&nbsp; The numerical values for&nbsp; $p_{\rm B}(n = 100)$&nbsp; given in the figure refer to the&nbsp; "A model".<br>
  
Für $\alpha = 1$ geht sowohl das A&ndash;Modell als auch das L&ndash;Modell in das BSC&ndash;Modell (rote Kurve) über. Desweiteren ist anzumerken:
+
For $\alpha = 1$, both the A model and the L model transition to the BSC model (red curve).
*Die Symbolfehlerwahrscheinlichkeit $p_{\rm S} = 0.01$  &nbsp; &#8658; &nbsp; ${\rm E}[a] = 100$ ist hier  (einigermaßen) realistisch angenommen. Alle Kurven starten so bei $p_{\rm B}(n=1) = 0.01$ &nbsp; &#8658; &nbsp; gelber Punkt.<br>
 
  
*Der Unterschied zwischen zwei gleichfarbigen Kurven ist gering (bei starker Bündelung etwas größer), wobei die durchgezogene Kurve stets oberhalb der gestrichelten Kurve liegt.<br>
+
Furthermore, it should be noted:
 +
#The symbol error probability&nbsp; &nbsp;  $p_{\rm S} = 0.01$  &nbsp; &#8658; &nbsp; ${\rm E}\big[a \big ] = 100$&nbsp; &nbsp; is assumed here&nbsp; $($reasonably$)$&nbsp; realistic.&nbsp; All curves start at&nbsp; &nbsp;  $p_{\rm B}(n=1) = 0.01$ &nbsp; &#8658; &nbsp; yellow point.<br>
 +
#The difference between two curves of the same color is small&nbsp; $($somewhat larger in the case of strong bursting$)$,&nbsp; with the solid curve always lying above the dashed curve.<br>
 +
#This example also shows: &nbsp; &nbsp; The stronger the bursting&nbsp; $($smaller &nbsp;$\alpha)$,&nbsp; the smaller the block error probability&nbsp; &nbsp; $p_{\rm B}(n)$.&nbsp; However,&nbsp; this is only true if one assumes as here a constant symbol error probability&nbsp; $p_{\rm S}$.<br>
 +
#A&nbsp; (poor)&nbsp; attempt at an explanation:&nbsp; Suppose that for BSC with small&nbsp; $p_{\rm S}$&nbsp; each block error comes from one symbol error,&nbsp; then for the same symbol errors there are fewer block errors if two errors fall into one block.
 +
#Another&nbsp; (more appropriate?)&nbsp; example from everyday life.&nbsp; It is easier to cross a street with constant traffic volume,&nbsp; if the vehicles come&nbsp; "somehow bursted".}}<br>
  
*Auch dieses Beispiel zeigt: Je stärker die Bündelung (kleineres $\alpha$), desto kleiner ist die Blockfehlerwahrscheinlichkeit $p_{\rm B}(n)$. Dies gilt allerdings nur, wenn man wie hier von einer konstanten Symbolfehlerwahrscheinlichkeit $p_{\rm S}$ ausgeht.<br>
+
== Error correlation function of the Wilhelm A model ==
 +
<br>
 +
In addition to the&nbsp; error distance distribution&nbsp; $V_a(k)$,&nbsp; another form of description of the digital channel models is the&nbsp; [[Digital_Signal_Transmission/Parameters_of_Digital_Channel_Models#Error_correlation_function|"error correlation function"]]&nbsp; $\rm (ECF$&nbsp; $\varphi_{e}(k)$.&nbsp; We assume the binary error sequence&nbsp; $\langle e_\nu \rangle$ &nbsp; &rArr; &nbsp; $e_\nu \in  \{0, 1\}$,&nbsp; where with respect to the&nbsp; $\nu$&ndash;th bit
 +
*$e_\nu = 0$&nbsp; denotes a correct transmission,&nbsp; and
  
*Ein (dürftiger) Erklärungsversuch: Nehmen wir an, dass bei BSC mit sehr kleinem $p_{\rm S}$ jeder Blockfehler von genau einem Symbolfehler herrührt, dann gibt es bei gleicher Symbolfehleranzahl weniger Blockfehler, wenn zwei Symbolfehler in einen Block fallen (Bündelung).<br>
+
*$e_\nu = 1$&nbsp; a bit error.  
  
*Noch ein (passendes?) Beispiel aus dem täglichen Leben. Man kann eine Straße bei konstantem Verkehrsaufkommen leichter überqueren, wenn die Fahrzeuge &bdquo;irgendwie gebündelt&rdquo; kommen.}}<br>
 
  
== Fehlerkorrelationsfunktion des Wilhelm–A–Modells ==
+
{{BlaueBox|TEXT=
<br>
+
$\text{Definition:}$&nbsp; 
Eine weitere Beschreibungsform der digitalen Kanalmodelle ist neben der Fehlerabstandsverteilung $V_a(k)$ die [[Digitalsignalübertragung/Beschreibungsgrößen_digitaler_Kanalmodelle#Fehlerkorrelationsfunktion|Fehlerkorrelationsfunktion]] $\varphi_{e}(k)$ &ndash; abgekürzt FKF. Geht man von der binären Fehlerfolge $\langle e_\nu \rangle$ mit $e_\nu \in  \{0, 1\}$ aus, wobei
+
The &nbsp;'''error correlation function'''&nbsp; $\varphi_{e}(k)$&nbsp; gives the&nbsp; $($discrete-time$)$&nbsp; [[Theory_of_Stochastic_Signals/Auto-Correlation_Function#Auto-correlation_function_for_stationary_and_ergodic_processes|"auto-correlation function"]]&nbsp; of the random variable&nbsp; $e$,&nbsp; which is also discrete-time.
*$e_\nu = 0$ eine richtige Übertragung, und
 
*$e_\nu = 1$ einen Symbolfehler (Bitfehler) hinsichtlich des $\nu$&ndash;ten Bits bezeichnet, so gilt folgende Definition:
 
  
::<math>\varphi_{e}(k) =  {\rm E}[e_{\nu} \cdot e_{\nu + k}] =
+
::<math>\varphi_{e}(k) =  {\rm E}\big[e_{\nu} \cdot e_{\nu + k}\big] =
\overline{e_{\nu} \cdot e_{\nu + k}}\hspace{0.05cm}.</math>
+
\overline{e_{\nu} \cdot e_{\nu + k} }\hspace{0.05cm}.</math>
  
$\varphi_{e}(k)$ gibt die (zeitdiskrete) [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Autokorrelationsfunktion_bei_ergodischen_Prozessen|Autokorrelationsfunktion]] der ebenfalls zeitdiskreten Zufallsgröße $e$ an. Die überstreichende Linie in der rechten Gleichung kennzeichnet die Zeitmittelung.<br>
+
*The sweeping line in the right equation marks the time averaging.}}
  
Der Fehlerkorrelationswert $\varphi_{e}(k)$ liefert statistische Aussagen bezüglich zwei um $k$ auseinander liegende Folgenelemente, zum Beispiel über $e_{\nu}$ und $e_{\nu +k}$. Die dazwischen liegenden Elemente $e_{\nu +1}$, ... , $e_{\nu +k-1}$ beeinflussen den $\varphi_{e}(k)$&ndash;Wert nicht.<br>
+
The error correlation value&nbsp; $\varphi_{e}(k)$&nbsp; provides statistical information about two sequence elements that are&nbsp; $k$&nbsp; apart,&nbsp; e.g. about&nbsp; $e_{\nu}$&nbsp; and&nbsp; $e_{\nu +k}$.&nbsp; The intervening elements&nbsp; $e_{\nu +1}$, ... , $e_{\nu +k-1}$,&nbsp; on the other hand,&nbsp; do not affect the&nbsp; $\varphi_{e}(k)$ value.<br>
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Ohne Beweis:}$&nbsp;   Die Fehlerkorrelationsfunktion des Wilhelm&ndash;A&ndash;Modells kann  wie folgt angenähert werden:
+
$\text{Without proof:}$&nbsp; The error correlation function of the&nbsp; $\text{Wilhelm A model}$&nbsp; can be approximated as follows:
  
:<math>\varphi_e\hspace{0.05cm}(k) =  p_{\rm S} \hspace{-0.03cm}\cdot \hspace{-0.03cm} \left [ 1 \hspace{-0.03cm}-\hspace{-0.03cm}  \frac{\alpha}{1\hspace{0.03cm}!}  \hspace{-0.03cm}\cdot \hspace{-0.03cm} C \hspace{-0.03cm}-\hspace{-0.03cm}  \frac{\alpha \cdot (1\hspace{-0.03cm}-\hspace{-0.03cm} \alpha)}{2\hspace{0.03cm}!}  \hspace{-0.03cm}\cdot \hspace{-0.03cm} C^2 \hspace{-0.03cm}-\hspace{-0.03cm} \hspace{0.03cm} ... \hspace{0.03cm}\hspace{-0.03cm}-\hspace{-0.03cm} \frac {\alpha  \hspace{-0.03cm}\cdot \hspace{-0.03cm} (1\hspace{-0.03cm}-\hspace{-0.03cm}\alpha)  \hspace{-0.03cm}\cdot \hspace{-0.03cm} \hspace{0.03cm} ... \hspace{0.03cm} \hspace{-0.03cm}\cdot \hspace{-0.03cm}  (k\hspace{-0.03cm}-\hspace{-0.03cm}1\hspace{-0.03cm}-\hspace{-0.03cm}\alpha) }{k\hspace{0.03cm}!} \hspace{-0.03cm}\cdot \hspace{-0.03cm} C^k \right ]  </math>
+
::<math>\varphi_e\hspace{0.05cm}(k) =  p_{\rm S} \hspace{-0.03cm}\cdot \hspace{-0.03cm} \left [ 1 \hspace{-0.03cm}-\hspace{-0.03cm}  \frac{\alpha}{1\hspace{0.03cm}!}  \hspace{-0.03cm}\cdot \hspace{-0.03cm} C \hspace{-0.03cm}-\hspace{-0.03cm}  \frac{\alpha \cdot (1\hspace{-0.03cm}-\hspace{-0.03cm} \alpha)}{2\hspace{0.03cm}!}  \hspace{-0.03cm}\cdot \hspace{-0.03cm} C^2 \hspace{-0.03cm}-\hspace{-0.03cm} \hspace{0.05cm} \text{...} \hspace{0.05cm}\hspace{-0.03cm}-\hspace{-0.03cm} \frac {\alpha  \hspace{-0.03cm}\cdot \hspace{-0.03cm} (1\hspace{-0.03cm}-\hspace{-0.03cm}\alpha)  \hspace{-0.03cm}\cdot \hspace{-0.03cm} \hspace{0.05cm} \text{...} \hspace{0.05cm} \hspace{-0.03cm}\cdot \hspace{-0.03cm}  (k\hspace{-0.03cm}-\hspace{-0.03cm}1\hspace{-0.03cm}-\hspace{-0.03cm}\alpha) }{k\hspace{0.03cm}!} \hspace{-0.03cm}\cdot \hspace{-0.03cm} C^k \right ]  </math>
  
Zur Abkürzung ist hierbei  $C = (1-p_{\rm S})^{1/\alpha}$ verwendet. Auf die Herleitung wird hier verzichtet.}}<br>
+
*Here,&nbsp;  $C = (1-p_{\rm S})^{1/\alpha}$ &nbsp; is used for abbreviation.&nbsp; The derivation is omitted here.}}<br>
  
Nachfolgend werden die Eigenschaften der Fehlerkorrelationsfunktion an einem Beispiel aufgezeigt.<br>
+
In the following, the properties of the error correlation function are shown by an example.<br>
  
[[File:P ID2834 Dig T 5 3 S5korr version2.png|right|frame||Fehlerkorrelationsfunktionen des Wilhelm–Modells]]
+
{{GraueBox|TEXT=  
{{GraueBox|TEXT=
+
$\text{Example 9:}$&nbsp;
$\text{Beispiel 8:}$&nbsp;  
+
As in&nbsp; [[Digital_Signal_Transmission/Burst_Error_Channels#Error_distance_consideration_according_to_the_Wilhelm_A_model| $\text{Example 8}$]]:&nbsp;  $p_{\rm S} = 0.01$.&nbsp; The error correlation functions shown here again represent
Wie im [[Digitalsignalübertragung/Bündelfehlerkanäle#Fehlerabstandsbetrachtung_nach_dem_Wilhelm.E2.80.93A.E2.80.93Modell| Beispiel 7]] gelte $p_{\rm S} = 0.01$ und die hier dargestellten Fehlerkorrelationsfunktionen stehen wieder für
+
[[File:EN_Dig_T_5_3_S5korr_version3.png|right|frame||ECF results of the Wilhelm model]]  
*Grün:&nbsp; $\alpha = 0.7$ &nbsp; &#8658; &nbsp; starke Bündelung.<br>
 
*Blau:&nbsp; $\alpha = 0.95$ &nbsp;&#8658; &nbsp; schwache Bündelung,<br>
 
*Rot:&nbsp;&nbsp; $\alpha = 1$ &nbsp; &#8658; &nbsp; BSC&ndash;Modell,<br>
 
  
 +
*Red:&nbsp; &nbsp;&nbsp; &nbsp; &nbsp;$\alpha = 1.0$ &nbsp; &#8658; &nbsp; BSC model,<br>
 +
*Blue:&nbsp;&nbsp;&nbsp; &nbsp; $\alpha = 0.95$ &nbsp;&#8658; &nbsp; weak bursting,<br>
 +
*Green:&nbsp;&nbsp;  $\alpha = 0.70$ &nbsp; &#8658; &nbsp; strong bursting.<br><br>
  
Die folgenden Aussagen lassen sich weitgehend verallgemeinern, siehe auch [[Digitalsignalübertragung/Binary_Symmetric_Channel_(BSC)#Binary_Symmetric_Channel_.E2.80.93_Modell_und_Fehlerkorrelationsfunktion| GE&ndash;Modell]]:
+
The following statements can be generalized to a large extent,&nbsp;  see also&nbsp; [[Digital_Signal_Transmission/Binary_Symmetric_Channel_(BSC)#Binary_Symmetric_Channel_.E2.80.93_Model_and_Error_Correlation_Function|"Gilbert-Elliott model"]]:
*Der FKF-Wert an der Stelle $k = 0$ ist bei allen Kanälen gleich $p_{\rm S} = 10^{-2}$ (markiert durch den Kreis mit grauer Füllung) und der Grenzwert für $k \to \infty$ liegt stets bei $p_{\rm S}^2 = 10^{-4}$.<br>
+
*The ECF value at&nbsp; $k = 0$&nbsp; is equal to&nbsp; $p_{\rm S} = 10^{-2}$&nbsp; for all channels&nbsp; $($marked by the circle with gray filling$)$ and the limit value for&nbsp; $k \to \infty$&nbsp; is always&nbsp; $p_{\rm S}^2 = 10^{-4}$.<br>
  
*Dieser Endwert wird beim BSC&ndash;Modell bereits bei $k = 1$ erreicht (rot gefüllte Markierung). Hier kann die FKF also nur die beiden Werte $p_{\rm S}$  und $p_{\rm S}^2$ annehmen.<br>
+
*In the BSC model,&nbsp; this final value is already reached at&nbsp; $k = 1$&nbsp; $($marked by a red filled circle$)$.&nbsp; Therefore, the ECF can only assume here the two values&nbsp; $p_{\rm S}$&nbsp; and&nbsp; $p_{\rm S}^2$.&nbsp; <br>
  
*Auch für für $\alpha \ne 1$ (blaue und grüne Kurve) erkennt man einen Knick bei $k = 1$. Danach verläuft die FKF monoton fallend. Der Abfall ist umso langsamer, je kleiner $\alpha$ ist, also je gebündelter die Fehler auftreten.}}<br>
+
*Also for&nbsp; $\alpha < 1$ &nbsp; $($blue and green curves$)$,&nbsp; a fold can be seen at&nbsp; $k = 1$.&nbsp; After that,&nbsp; the ECF is monotonically decreasing.&nbsp; The decrease is the slower,&nbsp; the smaller&nbsp; $\alpha$&nbsp; is, i.e.&nbsp; the more bursted the errors occur.}}<br>
  
== Analyse von Fehlerstrukturen mit dem Wilhelm–A–Modell==
+
== Analysis of error structures with the Wilhelm A model==
 
<br>
 
<br>
Wilhelm hat sein Kanalmodell hauptsächlich deshalb entwickelt, um aus gemessenen Fehlerfolgen Rückschlüsse über die dabei auftretenden Fehler machen zu können. Aus der Vielzahl der Analysen in [Wil11]<ref name = 'Wil11'> </ref> sollen hier nur einige wenige angeführt werden, wobei stets die Symbolfehlerwahrscheinlichkeit $p_{\rm S} = 10^{-3}$ zugrunde liegt. In den Grafiken gilt jeweils die rote Kurve für statistisch unabhängige Fehler (BSC bzw. $\alpha = 1$) und die grüne Kurve für einen Bündelfehlerkanal mit $\alpha = 0.7$. Zudem soll gelten:<br>
+
Wilhelm developed his channel model mainly in order to be able to draw conclusions about the errors occurring from measured error sequences.&nbsp; From the multitude of analyses in&nbsp; [Wil11]<ref name='Wil11'>Wilhelm, C.:&nbsp; A-Model and L-Model, New Channel Models with Formulas for Probabilities of Error Structures. &nbsp; [http://www.channels-networks.net/ Internet Publication to Channels-Networks,] 2011ff.</ref>&nbsp; only a few are to be quoted here,&nbsp; whereby always the symbol error probability&nbsp; $p_{\rm S} = 10^{-3}$&nbsp; is the basis.
 +
*In the diagrams,&nbsp; the red curve applies in each case to statistically independent errors&nbsp; $($BSC or&nbsp; $\alpha = 1)$,
 +
 
 +
*the green curve for a burst error channel with&nbsp; $\alpha = 0.7$.&nbsp; In addition,&nbsp; the following agreement shall apply:<br>
 +
 
  
 
{{BlaueBox|TEXT=   
 
{{BlaueBox|TEXT=   
$\text{Definition:}$&nbsp;   Ein '''Fehlerburst''' (oder kurz <i>Burst</i>) beginnt stets mit einem Symbolfehler und endet, wenn $k_{\rm Burst}- 1$ fehlerfreie Symbole aufeinanderfolgen.  
+
$\text{Definition:}$&nbsp; An&nbsp; "'''error burst'''"&nbsp; $($or&nbsp; "burst"&nbsp; for short$)$&nbsp; always starts with a symbol error and ends when&nbsp; $k_{\rm Burst}- 1$&nbsp; error-free symbols follow each other.
*$k_{\rm Burst}$ bezeichnet den <i>Burst&ndash;Endeparameter</i>.  
+
*$k_{\rm Burst}$&nbsp; denotes the&nbsp; "burst end parameter".  
*Das <i>Burstgewicht</i> $G_{\rm Burst}$ entspricht der Anzahl aller Symbolfehler im Burst.  
+
 
*Bei einem <i>Einzelfehler</i> gilt $G_{\rm Burst}= 1$ und die <i>Burstlänge</i> (bestimmt durch den ersten und letzten Fehler) ist ebenfalls $L_{\rm Burst}= 1$.}}<br>
+
*The&nbsp; "burst weight"&nbsp; $G_{\rm Burst}$&nbsp; corresponds to the number of all symbol errors in the burst.
 +
 
 +
*For a&nbsp; "single error",&nbsp; $G_{\rm Burst}= 1$&nbsp; and the&nbsp; "burst length"&nbsp; (determined by the first and last error)&nbsp; is also&nbsp; $L_{\rm Burst}= 1$.}}<br>
 +
 
 +
{{GraueBox|TEXT=
 +
[[File:EN_Dig_T_5_3_S5k.png|right|frame|Probability of a single error in a block of length&nbsp; $n$]]
 +
 
 +
$\text{Example 10:}\ \text{Probability }p_1\text{ of a single error in a sample of length} \ n$
 +
 
 +
For the BSC channel&nbsp; $(\alpha = 1)$,&nbsp; &nbsp; $p_1 = n \cdot  0.001 \cdot 0.999^{n-1}$ &nbsp; &#8658; &nbsp; red curve.
 +
*Due to the double-logarithmic representation,&nbsp;  these numerical values result in a&nbsp; (nearly)&nbsp; linear progression.
 +
 +
*Thus,&nbsp; with the BSC model,&nbsp; single errors occur in a sample of length&nbsp; $n = 100$&nbsp; with about&nbsp; $9\%$&nbsp; probability.<br>
 +
 
 +
 
 +
In the case of the burst error channel with&nbsp; $\alpha = 0.7$&nbsp; &rArr; &nbsp; green curve,&nbsp; the corresponding probability is only about&nbsp; $0.7\%$&nbsp; and the course of the curve is slightly curved here.
  
[[File:P ID2835 Dig T 5 3 S5 Analyse1 kleiner.png|right|frame|Einzelfehlerwahrscheinlichkeit in einem Block der Länge <i>n</i>]]
 
{{GraueBox|TEXT= 
 
$\text{Beispiel 9:}\ \text{Wahrscheinlichkeit }p_1\text{ eines Einzelfehlers in einer Probe der Länge} \ n$
 
  
Für den BSC&ndash;Kanal $(\alpha = 1)$ gilt $p_1 = n \cdot  0.001 \cdot 0.999^{n-1}$ &nbsp;& #8658; &nbsp; rote Kurve. Aufgrund der doppel&ndash;logarithmischen Darstellung ergibt sich mit diesen Zahlenwerten ein (nahezu) linearer Verlauf. Beim BSC&ndash;Modell treten also Einzelfehler in einer Probe der Länge $n = 100$ mit etwa $9\%$ Wahrscheinlichkeit auf.<br>
+
In the following calculation,&nbsp; we first assume that the single error in the sample of length&nbsp; $n$&nbsp; occurs at position&nbsp; $b$:&nbsp;  
  
Beim Bündelfehlerkanal mit $\alpha = 0.7$ (grüne Kurve) beträgt die entsprechende Wahrscheinlichkeit nur etwa $0.7\%$ und der Kurvenverlauf ist hier leicht gekrümmt. Bei der folgenden Rechnung gehen wir zunächst von der Annahme aus, dass der Einzelfehler  in der Probe der Länge $n$ an der Position $b$ auftritt:
+
*Thus,&nbsp; in the case of a single error,&nbsp; $n-b$&nbsp; error-free symbols must then follow.&nbsp;
  
*Bei einem Einzelfehler müssen dann noch $n-b$ fehlerfreie Symbole folgen.  Nach Mittelung über die möglichen Fehlerpositionen $b$ erhält man somit:
+
*After averaging over the possible error positions&nbsp; $b$,&nbsp; we thus obtain:
  
 
::<math>p_1 =  p_{\rm S} \cdot \sum_{b = 1}^{n} \hspace{0.15cm}V_a (b) \cdot V_a (n+1-b)
 
::<math>p_1 =  p_{\rm S} \cdot \sum_{b = 1}^{n} \hspace{0.15cm}V_a (b) \cdot V_a (n+1-b)
 
\hspace{0.05cm}.</math>
 
\hspace{0.05cm}.</math>
  
*Wegen der Ähnlichkeit mit der Signaldarstellung eines [[Stochastische_Signaltheorie/Digitale_Filter|Digitalen Filters]] kann man die Summe als Faltung von $V_a(b)$ mit sich selbst bezeichnen. Für die erzeugende Funktion  $V_a(z)$ wird aus der Faltung ein Produkt (bzw. wegen $V_a(b) \star V_a(b)$ das Quadrat) und man erhält folgende Gleichung:
+
*Because of its similarity to the signal representation of a&nbsp; [[Theory_of_Stochastic_Signals/Digital_Filters|"digital filter"]],&nbsp; the sum can be called&nbsp; "a convolution of&nbsp; $V_a(b)$&nbsp; with itself".  
  
::<math>V_a(z=1) \cdot V_a(z=1) = \left [ V_a(z=1) \right ]^2 =
+
*For the generating function&nbsp;  $V_a(z)$,&nbsp; the convolution becomes a product&nbsp; $[$or the square because of&nbsp; $V_a(b) \star V_a(b)]$&nbsp; and the following equation is obtained:
{\left [ 1 -(1- {p_{\rm S} }^{1/\alpha})\right ]^{-2\alpha} } \hspace{0.05cm}.</math>
 
  
*Mit der [[Digitalsignalübertragung/Bündelfehlerkanäle#Fehlerabstandsbetrachtung_nach_dem_Wilhelm.E2.80.93A.E2.80.93Modell|spezifischen Fehlerabstandsverteilung]] $V_a(z)$ erhält man somit folgendes Endergebnis:  
+
::<math>V_a(z=1) \cdot V_a(z=1) = \big [ V_a(z=1) \big ]^2 =
 +
{\big [ 1 -(1- {p_{\rm S} }^{1/\alpha})\big ]^{-2\alpha} } \hspace{0.05cm}.</math>
 +
 
 +
*Thus, with the&nbsp; [[Digital_Signal_Transmission/Burst_Error_Channels#Error_distance_consideration_to_the_Wilhelm_model|"specific error distance distribution"]]&nbsp; $V_a(z)$,&nbsp; we obtain the following final result:
  
 
::<math>p_1 =  p_{\rm S}
 
::<math>p_1 =  p_{\rm S}
Line 548: Line 634:
 
(1- {p_{\rm S} }^{1/\alpha})^{n-1} \hspace{0.05cm}.</math>}}<br>
 
(1- {p_{\rm S} }^{1/\alpha})^{n-1} \hspace{0.05cm}.</math>}}<br>
  
 +
{{GraueBox|TEXT=
 +
[[File:EN_Dig_T_5_3_S5l.png|right|frame|Mean number of errors in the burst of length&nbsp; $k$]]
 +
 
 +
$\text{Example 11:}\ \text{Mean number of errors } {\rm E}[G_{\rm Burst}] \text{ in a burst with end parameter }k_{\rm Burst}$
  
[[File:P ID2836 Dig T 5 3 S5 Analyse2 neu.png|right|frame|Mittlere Fehleranzahl im Burst der Länge <i>k</i>]]
+
Let the mean symbol error probability still be&nbsp; $p_{\rm S} = 10^{-3}$,&nbsp; i.e.&nbsp; (relatively)&nbsp; small.<br>
{{GraueBox|TEXT= 
 
$\text{Beispiel 10:}\ \text{Mittlere Fehleranzahl } {\rm E}[G_{\rm Burst}] \text{ in einem Burst mit Endeparameter }k_{\rm Burst}$
 
  
Die mittlere Symbolfehlerwahrscheinlichkeit sei weiterhin $p_{\rm S} = 10^{-3}$, also (relativ) klein.<br>
+
'''(A) &nbsp; Red curve for the BSC channel'''&nbsp; (or &nbsp;$\alpha = 1)$:
 +
# For example,&nbsp; the parameter&nbsp; $k_{\rm Burst}= 10$&nbsp; means that the burst is finished when nine error-free symbols follow after one error.&nbsp; The probability for an error distance&nbsp; $a \le 9$&nbsp; is extremely small when&nbsp; $p_{\rm S}$&nbsp; is small&nbsp; $($here: &nbsp;$10^{-3})$.&nbsp; It further follows that then&nbsp; (almost)&nbsp; every single error is taken as a&nbsp; "burst", and&nbsp; ${\rm E}[G_{\rm Burst}] \approx 1.01$ .<br>
 +
# If the burst end parameter&nbsp; $k_{\rm Burst}$&nbsp; is larger,&nbsp; the probability&nbsp; ${\rm Pr}(a \le k_{\rm Burst})$&nbsp; also increases significantly and&nbsp; "bursts"&nbsp; with more than one error occur.&nbsp; For example,&nbsp; if&nbsp; $k_{\rm Burst}= 100$&nbsp; is chosen,&nbsp; a "burst"&nbsp; contains on average&nbsp; $1.1$&nbsp; symbol errors.<br>
 +
#This means  at the same time,&nbsp; that long error bursts&nbsp; $($according to our definition$)$&nbsp; can also occur in the BSC model if,&nbsp; for a given&nbsp; $p_{\rm S}$,&nbsp; the burst end parameter is chosen too large or,&nbsp; for a given&nbsp; $k_{\rm Burst}$,&nbsp; the mean error probability&nbsp;  $p_{\rm S}$&nbsp; is too large.<br><br>
  
'''(1) &nbsp; Rote Kurve für den BSC&ndash;Kanal (bzw. $\alpha = 1$)''':
 
* Der Parameter $k_{\rm Burst}= 10$ bedeutet beispielsweise, dass der Burst beendet ist, wenn nach einem Fehler neun fehlerfreie Symbole aufeinanderfolgenden. Die Wahrscheinlichkeit für einen Fehlerabstand $a \le 9$ ist bei kleinem $p_{\rm S}$ (hier: $10{-3}$) äußerst klein. Daraus folgt weiter, dass dann (fast) jeder Einzelfehler als ein &bdquo;Burst&rdquo; aufgefasst wird, und es gilt ${\rm E}[G_{\rm Burst}] \approx 1.01$ .<br>
 
* Bei größerem Burst&ndash;Endeparameter $k_{\rm Burst}$ nimmt auch die Wahrscheinlichkeit ${\rm Pr}(a \le k_{\rm Burst})$ deutlich zu und es kommt zu &bdquo;Bursts&rdquo; mit mehr als einem Fehler. Wählt man beispielsweise $k_{\rm Burst}= 100$, so beinhaltet ein &bdquo;Burst&rdquo; im Mittel 1.1 Symbolfehler.<br>
 
*Das bedeutet gleichzeitig, dass es auch beim BSC&ndash;Modell  zu langen Fehlerbursts (entsprechend unserer Definition) kommen kann, wenn bei gegebenem $p_{\rm S}$ der Burst&ndash;Endeparameter zu groß gewählt ist oder bei vorgegebenem $k_{\rm Burst}$  die mittlere Fehlerwahrscheinlichkeit  $p_{\rm S}$ zu groß ist.<br><br>
 
  
'''(2) &nbsp; Grüne Kurve für den Wilhelm&ndash;Kanal mit $\alpha = 0.7$''':
+
'''(B) &nbsp; Green curve for the Wilhelm channel'''&nbsp; with &nbsp;$\alpha = 0.7$:
Das hier angegebene Verfahren zur numerischen Bestimmung der mittleren Fehleranzahl ${\rm E}[G_{\rm Burst}]$ eines Bursts kann unabhängig vom $\alpha$&ndash;Wert  angewendet werden. Man geht wie folgt vor:
 
  
*Entsprechend den Fehlerabstandswahrscheinlichkeiten ${\rm Pr}(a=k)$ generiert man eine Fehlerfolge $e_1$, $e_2$, ... , $e_i$, ... mit den Fehlerabständen $a_1$, $a_2$, ... , $a_i$, ... <br>
+
The procedure given here for the numerical determination of the mean error number&nbsp; ${\rm E}[G_{\rm Burst}]$&nbsp; of a burst can be applied independently of the&nbsp; $\alpha$&ndash;value.&nbsp; One proceeds as follows:
*Ist ein Fehlerabstand $a_i \ge k_{\rm Burst}$, so kennzeichnet dieser das Ende eines Bursts.  Ein solches Ereignis tritt mit der Wahrscheinlichkeit ${\rm Pr}(a \ge k_{\rm Burst}) = V_a(k_{\rm Burst} )$ ein.<br>
 
*Wir zählen solche Ereignisse &bdquo;$a_i \ge k_{\rm Burst}$&rdquo; im gesamten Block der Länge $n$. Deren Anzahl ist gleichzeitig die Anzahl der Bursts im Block. Wir bezeichnen diese Anzahl mit  $N_{\rm Burst}$.<br>
 
*Gleichzeitig gilt die Beziehung $N_{\rm Burst} = N_{\rm Fehler} \cdot V_a(k_{\rm Burst} )$ , wobei $N_{\rm Fehler}$ die Anzahl aller Fehler im Block angibt. Daraus lässt sich die mittlere Fehlerzahl pro Burst in einfacher Weise berechnen:
 
  
::<math>{\rm E}[G_{\rm Burst}] =\frac {N_{\rm Fehler} }{N_{\rm Burst} } =\frac {1}{V_a(k_{\rm Burst})}\hspace{0.05cm}.</math>
+
#According to the error distance probabilities&nbsp; ${\rm Pr}(a=k)$&nbsp; one generates an error sequence $\langle e_1,\ e_2,\ \text{...} ,\ e_i\rangle$,&nbsp; ...&nbsp; with the error distances&nbsp; $a_1$,&nbsp; $a_2$,&nbsp; ... , $a_i$,&nbsp; ... <br>
 +
#If an error distance&nbsp; $a_i \ge k_{\rm Burst}$,&nbsp; this marks the end of a burst.&nbsp; Such an event occurs with probability&nbsp; ${\rm Pr}(a \ge k_{\rm Burst}) = V_a(k_{\rm Burst} )$.&nbsp;<br>
 +
#We count such events&nbsp; "$a_i \ge k_{\rm Burst}$"&nbsp; in the entire block of length&nbsp; $n$.&nbsp; Their number is simultaneously the number of bursts &nbsp; $(N_{\rm Burst})$&nbsp; in the block. <br>
 +
#At the same time,&nbsp; the relation&nbsp; $N_{\rm Burst} = N_{\rm error} \cdot V_a(k_{\rm Burst} )$&nbsp; holds,&nbsp; where&nbsp; $N_{\rm error}$&nbsp; is the number of all errors in the block.
 +
#From this,&nbsp; the average number of errors per burst can be calculated in a simple way:
  
Die Marker in der Grafik korrespondieren mit folgenden Zahlenwerten der [[Digitalsignal%C3%BCbertragung/B%C3%BCndelfehlerkan%C3%A4le#Fehlerabstandsbetrachtung_nach_dem_Wilhelm.E2.80.93A.E2.80.93Modell|Fehlerabstandsverteilung]].
+
:::<math>{\rm E}[G_{\rm Burst}] =\frac {N_{\rm error} }{N_{\rm Burst} } =\frac {1}{V_a(k_{\rm Burst})}\hspace{0.05cm}.</math>
*Die grünen Kreise (Wilhelm&ndash;Kanal, $\alpha = 0.7$) ergeben sich aus $V_a(10) = 0.394$ und $V_a(100) = 0.193$.
 
*Die roten Kreise (BSC&ndash;Kanal, $\alpha = 1$) sind die Kehrwerte von $V_a(10) = 0.991$ und $V_a(100)  = 0906$.}}<br>
 
  
== Aufgaben zum Kapitel ==
+
The markings in the graph correspond to the following numerical values of the&nbsp; [[Digital_Signal_Transmission/Burst_Error_Channels#Error_distance_consideration_to_the_Wilhelm_model|"error distance distribution"]]:
 +
*The green circles $($Wilhelm channel,&nbsp; $\alpha = 0.7)$&nbsp; result from&nbsp; $V_a(10) = 0.394$&nbsp; and&nbsp; $V_a(100) = 0.193$.
 +
 +
*The red circles $($BSC channel, &nbsp;$\alpha = 1)$&nbsp; are the reciprocals of&nbsp; $V_a(10) = 0.991$&nbsp; and &nbsp;$V_a(100)  = 0906$.}}<br>
 +
 
 +
== Exercises for the chapter ==
 
<br>
 
<br>
[[Aufgaben:5.6 Fehlerkorrelationsdauer|A5.6 Fehlerkorrelationsdauer]]
+
[[Aufgaben:Exercise_5.6:_Error_Correlation_Duration|Exercise 5.6: Error Correlation Duration]]
 +
 
 +
[[Aufgaben:Exercise_5.6Z:_Gilbert-Elliott_Model|Exercise 5.6Z: Gilbert-Elliott Model]]
 +
 
 +
[[Aufgaben:Exercise_5.7:_McCullough_and_Gilbert-Elliott_Parameters|Exercise 5.7: McCullough and Gilbert-Elliott Parameters]]
 +
 
 +
[[Aufgaben:Exercise_5.7Z:_McCullough_Model_once_more|Exercise 5.7Z: McCullough Model once more]]
  
[[Zusatzaufgaben:5.6 GE-Modelleigenschaften]]
 
  
[[Aufgaben:5.7 MC- aus GE-Parameter|A5.7 MC- aus GE-Parameter]]
 
  
[[Zusatzaufgaben:5.7 Nochmals MC-Modell]]
 
  
==Quellenverzeichnis==
+
==References==
  
 
<references/>
 
<references/>
  
 
{{Display}}
 
{{Display}}

Latest revision as of 17:10, 24 October 2022

Channel model according to Gilbert-Elliott


This channel model, which goes back to  E. N. Gilbert  [Gil60][1]  and  E. O. Elliott  [Ell63][2],  is suitable for describing and simulating  "digital transmission systems with burst error characteristics".

The  Gilbert–Elliott model  $($abbreviation:  "GE model"$)$  can be characterized as follows:

Gilbert-Elliott channel model with two states


  • The different transmission quality at different times is expressed by a finite number  $g$  of channel states  $(Z_1, Z_2,\hspace{0.05cm} \text{...} \hspace{0.05cm}, Z_g)$. 
  • The in reality smooth transitions of the interference intensity – in the extreme case from completely error-free transmission to total failure – are approximated in the GE model by fixed probabilities in the individual channel states.
  • The transitions between the  $g$  states occur according to a  "Markov process"  (1st order)  and are characterized by   $g \cdot (g-1)$   transition probabilities.  Together with the  $g$  error probabilities in the individual states,  there are thus  $g^2$  free model parameters.
  • For reasons of mathematical manageability,  one usually restricts oneself to  $g = 2$  states and denotes these with  $\rm G$  ("GOOD") and  $\rm B$  ("BAD").  Mostly,  the error probability in state  $\rm G$  will be much smaller than in state  $\rm B$.
  • In that what follows,  we use these two error probabilities  $p_{\rm G}$  and  $p_{\rm B}$,  where  $p_{\rm G} < p_{\rm B}$  should hold,  as well as the transition probabilities  ${\rm Pr}({\rm B}\hspace{0.05cm}|\hspace{0.05cm}{\rm G})$  and  ${\rm Pr}({\rm G}\hspace{0.05cm}|\hspace{0.05cm}{\rm B})$.  This also determines the other two transition probabilities:
\[{\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} G) = 1 - {\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G), \hspace{0.2cm} {\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} B) = 1 - {\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B)\hspace{0.05cm}.\]

$\text{Example 1:}$  We consider the Gilbert-Elliott model with the parameters

Example Gilbert-Elliott error sequence
$$p_{\rm G} = 0.01,$$
$$p_{\rm B} = 0.4,$$
$${\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B) = 0.1, $$
$$ {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G) = 0.01\hspace{0.05cm}.$$

The underlying model is shown at the end of this example with the parameters given here.

The upper graphic shows a  (possible)  error sequence of length  $N = 800$.  If the GE model is in the  "BAD"  state,  this is indicated by the gray background.

To simulate such a GE error sequence,  switching is performed between the states  "GOOD"  and  "BAD"  according to the four transition probabilities.

  • At the first clock call,  the selection of the state is expediently done according to the  "state probabilities"  $w_{\rm G}$  and  $w_{\rm B}$,  as calculated below.
  • At each clock cycle,  exactly one element of the error sequence  $ \langle e_\nu \rangle$  is generated according to the current error probability  $(p_{\rm G}$  or  $p_{\rm B})$. 
  • The  "error distance simulation"  is not applicable here,  because in the GE model a state change is possible after each symbol  $($and not only after an error$)$.


The probabilities that the Markov chain is in the  "GOOD"  or  "BAD"  state can be calculated from the assumed homogeneity and stationarity.

One obtains with the above numerical values:

\[w_{\rm G} = {\rm Pr(in\hspace{0.15cm} state \hspace{0.15cm}G)}= \frac{ {\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B)}{ {\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B) + {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G)} = \frac{0.1}{0.1 + 0.01} = {10}/{11}\hspace{0.05cm},\]
\[w_{\rm B} = {\rm Pr(in\hspace{0.15cm} state \hspace{0.15cm}B)}= \frac{ {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G)}{ {\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B) + {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G)} = \frac{0.11}{0.1 + 0.01} = {1}/{11}\hspace{0.05cm}.\]
Considered Gilbert-Elliott model

These two state probabilities can also be used to determine the  "mean error probability"  of the GE model:

\[p_{\rm M} = w_{\rm G} \cdot p_{\rm G} + w_{\rm B} \cdot p_{\rm B} = \frac{p_{\rm G} \cdot {\rm Pr}({\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B)}+ p_{\rm B} \cdot {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G)}{ {\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B) + {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G)} \hspace{0.05cm}.\]

In particular,  for the model considered here as an example:

\[p_{\rm M} ={10}/{11} \cdot 0.01 +{1}/{11} \cdot 0.4 = {1}/{22} \approx 4.55\%\hspace{0.05cm}.\]


Error distance distribution of the Gilbert-Elliott model


Error distance distribution of GE and BSC model

In  [Hub82][3]  you can find the analytical computations

  • of the  "probability of the error distance  $k$":
\[{\rm Pr}(a=k) = \alpha_{\rm G} \cdot \beta_{\rm G}^{\hspace{0.05cm}k-1} \cdot (1- \beta_{\rm G}) + \alpha_{\rm B} \cdot \beta_{\rm B}^{\hspace{0.05cm}k-1} \cdot (1- \beta_{\rm B})\hspace{0.05cm},\]
\[V_a(k) = {\rm Pr}(a \ge k) = \alpha_{\rm G} \cdot \beta_{\rm G}^{\hspace{0.05cm}k-1} + \alpha_{\rm B} \cdot \beta_{\rm B}^{\hspace{0.05cm}k-1} \hspace{0.05cm}.\]

The following auxiliary quantities are used here:

\[u_{\rm GG} ={\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\rm G}) \hspace{0.05cm},\hspace{0.2cm} {\it u}_{\rm GB} ={\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\hspace{0.03cm} \rm G}) \hspace{0.05cm},\]
\[u_{\rm BB} ={\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm B}) \hspace{0.05cm},\hspace{0.29cm} {\it u}_{\rm BG} ={\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm B})\hspace{0.05cm}\]
\[\Rightarrow \hspace{0.3cm} \beta_{\rm G} =\frac{u_{\rm GG} + u_{\rm BB} + \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2} \hspace{0.05cm},\]
\[\hspace{0.8cm}\beta_{\rm B} =\frac{u_{\rm GG} + u_{\rm BB} - \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2}\hspace{0.05cm}.\]
\[x_{\rm G} =\frac{u_{\rm BG}}{\beta_{\rm G}-u_{\rm BB}} \hspace{0.05cm},\hspace{0.2cm} x_{\rm B} =\frac{u_{\rm BG}}{\beta_{\rm B}-u_{\rm BB}}\]
\[\Rightarrow \hspace{0.3cm} \alpha_{\rm G} = \frac{(w_{\rm G} \cdot p_{\rm G} + w_{\rm B} \cdot p_{\rm B}\cdot x_{\rm G})( x_{\rm B}-1)}{p_{\rm M} \cdot( x_{\rm B}-x_{\rm G})} \hspace{0.05cm}, \hspace{0.2cm}\alpha_{\rm B} = 1-\alpha_{\rm G}\hspace{0.05cm}.\]

The given equations are the result of extensive matrix operations.

The upper graph shows the error distance distribution  $\rm (EDD)$  of the Gilbert-Elliott model  (red curve)  in linear and logarithmic representation for the parameters

$${\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B ) = 0.1 \hspace{0.05cm},\hspace{0.5cm}{\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G ) = 0.01 \hspace{0.05cm},\hspace{0.5cm}p_{\rm G} = 0.001, \hspace{0.5cm}p_{\rm B} = 0.4.$$

For comparison,  the corresponding  $V_a(k)$  curve for the BSC model with the same mean error probability  $p_{\rm M} = 4.5\%$  is also plotted as blue curve.

Error correlation function of the Gilbert-Elliott model


For the  "error correlation function"  $\rm (ECF)$  of the GE model with

  • the mean error probability  $p_{\rm M}$,
  • the transition probabilities  ${\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G )$ and ${\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B )$  as well as
  • the error probabilities  $p_{\rm G}$  and  $p_{\rm B}$  in the two states  $\rm G$  and  $\rm B$,


we obtain after extensive matrix operations the relatively simple expression

\[\varphi_{e}(k) = {\rm E}\big[e_\nu \cdot e_{\nu +k}\big] = \left\{ \begin{array}{c} p_{\rm M} \\ p_{\rm M}^2 + (p_{\rm B} - p_{\rm M}) (p_{\rm M} - p_{\rm G}) [1 - {\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G )- {\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B )]^k \end{array} \right.\quad \begin{array}{*{1}c} f{\rm or }\hspace{0.15cm}k = 0 \hspace{0.05cm}, \\ f{\rm or }\hspace{0.15cm} k > 0 \hspace{0.05cm}.\\ \end{array}\]

For the Gilbert-Elliott model, for  "renewing models" $\varphi_{e}(k)$  must always be calculated according to this equation.  The iterative calculation algorithm for  "renewing models",

$$\varphi_{e}(k) = \sum_{\kappa = 1}^{k} {\rm Pr}(a = \kappa) \cdot \varphi_{e}(k - \kappa), $$

cannot be applied here, since the GE model is not renewing   ⇒   here,  the error distances are not statistically independent of each other.

Error correlation function of  "GE"  (circles)  and  "BSC"  (crosses)

The graph shows an example of the ECF curve of the Gilbert-Elliott model marked with red circles.  One can see from this representation:

  • While for the memoryless channel  $($BSC model,  blue curve$)$  all ECF values are  $\varphi_{e}(k \ne 0)= p_{\rm M}^2$,  the ECF values approach this final value for the burst error channel much more slowly.
  • At the transition from  $k = 0$  to  $k = 1$  a certain discontinuity occurs.  While  $\varphi_{e}(k = 0)= p_{\rm M}$,  the second equation valid for  $k > 0$  yields the following extrapolated value for  $k = 0$: 
\[\varphi_{e0} = p_{\rm M}^2 + (p_{\rm B} - p_{\rm M}) \cdot (p_{\rm M} - p_{\rm G})\hspace{0.05cm}.\]
  • A quantitative measure of the length of the statistical ties is the  "correlation duration"  $D_{\rm K}$,  which is defined as the width of an equal-area rectangle of height  $\varphi_{e0} - p_{\rm M}^2$: 
\[D_{\rm K} = \frac{1}{\varphi_{e0} - p_{\rm M}^2} \cdot \sum_{k = 1 }^{\infty}\hspace{0.1cm} \big[\varphi_{e}(k) - p_{\rm M}^2\big ]\hspace{0.05cm}.\]

$\text{Conclusions:}$  In the Gilbert–Elliott model,  the  "correlation duration"  is given by the simple,  analytically expressible expression

\[D_{\rm K} =\frac{1}{ {\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B ) + {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G )}-1 \hspace{0.05cm}.\]
  • $D_{\rm K}$  is larger the smaller  ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G )$  and  ${\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$  are,  i.e.,  when state changes occur rarely.
  • For the BSC model   ⇒   $p_{\rm B}= p_{\rm G} = p_{\rm M}$   ⇒   $D_{\rm K} = 0$,  this equation is not applicable.


Channel model according to McCullough


The main disadvantage of the Gilbert–Elliott model is that it does not allow error distance simulation.  As will be worked out in  "Exercise 5.5",  this has great advantages over the symbol-wise generation of the error sequence  $\langle e_\nu \rangle$  in terms of computational speed and memory requirements.

  • McCullough  [McC68][4]  modified the model developed three years earlier by Gilbert and Elliott so
  • that an error distance simulation in the two states  "GOOD"  and "BAD"  is applicable in each case by itself.
Channel models according to Gilbert-Elliott and McCullough


The graph shows McCullough's model,  hereafter referred to as the  "MC model",  while the  "GE model"  is shown above after renaming the transition probabilities   ⇒   ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) \rightarrow {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$,  ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) \rightarrow {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$,  etc.

There are many similarities and a few differences between the two models:

  1. Like the Gilbert–Elliott model,  the McCullough channel model is based on a  "first-order Markov process"  with the two states "GOOD"  $(\rm G)$  and "BAD"  $(\rm B)$.  No difference can be found with respect to the model structure.
  2. The main difference to the Gilbert–Elliott is that a change of state between  "GOOD"  and  "BAD"  is only possible after an error – i.e. a  "$1$"  in the error sequence. This enables an  "error distance simulation".
  3. The four freely selectable GE parameters  $p_{\rm G}$,  $p_{\rm B}$,  ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$,  ${\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$  can be converted into the MC parameters  $q_{\rm G}$,  $q_{\rm B}$,  ${\it q}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$,  ${\it q}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$  in such a way that an error sequence with the same statistical properties as in the GE model is generated.  See next section.
  4. For example,  ${\it q}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$  denotes the transition probability from  "GOOD"  to  "BAD"  under the condition  that an error has just occurred.  The comparable GE parameter  ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$  characterizes this transition probability without this additional condition.


$\text{Example 2:}$  The figure above shows an exemplary error sequence of the Gilbert-Elliott model with the parameters 

Error sequence of the GE model (top) and the equivalent MC model (bottom)
$$p_{\rm G} = 0.01,$$
$$p_{\rm B} = 0.4,$$
$${\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B) = 0.1, $$
$$ {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G) = 0.01\hspace{0.05cm}.$$

An error sequence of the equivalent McCullough model is drawn below.  The relations between the two models can be summarized as follows:

  1. In the GE error sequence,  a change from state  "GOOD"  (white background)  to state  "BAD"  (gray background)  and vice versa is possible at any time  $\nu$,  even when  $e_\nu = 0$.
  2. In contrast,  in the ML error sequence,  a change of state at time  $\nu$  is only possible at  $e_\nu = 1$.  The last error value before a gray background is always  "$1$".
  3. With the ML model one does not have to generate the errors "step–by–step",  but can use the faster error distance simulation   ⇒   see  "Exercise 5.5".
  4. The GE parameters can be converted into corresponding MC parameters in such a way that the two models are equivalent   ⇒   see next section.
  5. That means:   The MC error sequence has exactly same statistical properties  as the GE sequence.  But,  it does  not  mean that both error sequences are identical.



Conversion of the GE parameters into the MC parameters


The parameters of the equivalent MC model can be calculated from the GE parameters as follows:

$$q_{\rm G} =1-\beta_{\rm G}\hspace{0.05cm},$$
$$ q_{\rm B} = 1-\beta_{\rm B}\hspace{0.05cm}, $$
$$q(\rm B\hspace{0.05cm}|\hspace{0.05cm} G ) =\frac{\alpha_{\rm B} \cdot[{\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G ) + {\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B )]}{\alpha_{\rm G} \cdot q_{\rm B} + \alpha_{\rm B} \cdot q_{\rm G}} \hspace{0.05cm},$$
$$q(\rm G\hspace{0.05cm}|\hspace{0.05cm} B ) = \frac{\alpha_{\rm G}}{\alpha_{\rm B}} \cdot q(\rm B\hspace{0.05cm}|\hspace{0.05cm} G )\hspace{0.05cm}.$$
  • Here again the following auxiliary quantities are used:
\[u_{\rm GG} = {\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\rm G}) \hspace{0.05cm},\hspace{0.2cm} {\it u}_{\rm GB} ={\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\hspace{0.03cm} \rm G}) \hspace{0.05cm},\]
\[u_{\rm BB} = {\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm B}) \hspace{0.05cm},\hspace{0.29cm} {\it u}_{\rm BG} ={\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm B})\]
\[\Rightarrow \hspace{0.3cm} \beta_{\rm G} = \frac{u_{\rm GG} + u_{\rm BB} + \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2} \hspace{0.05cm}, \hspace{0.9cm}\beta_{\rm B} \hspace{-0.1cm} = \hspace{-0.1cm}\frac{u_{\rm GG} + u_{\rm BB} - \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2}\hspace{0.05cm}.\]
\[x_{\rm G} =\frac{u_{\rm BG}}{\beta_{\rm G}-u_{\rm BB}} \hspace{0.05cm},\hspace{0.2cm} x_{\rm B} =\frac{u_{\rm BG}}{\beta_{\rm B}-u_{\rm BB}} \Rightarrow \hspace{0.3cm} \alpha_{\rm G} = \frac{(w_{\rm G} \cdot p_{\rm G} + w_{\rm B} \cdot p_{\rm B}\cdot x_{\rm G})( x_{\rm B}-1)}{p_{\rm M} \cdot( x_{\rm B}-x_{\rm G})} \hspace{0.05cm}, \hspace{0.9cm}\alpha_{\rm B} = 1-\alpha_{\rm G}\hspace{0.05cm}.\]

$\text{Example 3:}$  As in  $\text{Example 2}$,  the GE parameters are:

$$p_{\rm G} = 0.01, \hspace{0.5cm} p_{\rm B} = 0.4, \hspace{0.5cm} p(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.01, \hspace{0.5cm} {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.1.$$

Applying the above equations,  we then obtain for the equivalent MC parameters:

$$q_{\rm G} = 0.0186, \hspace{0.5cm} q_{\rm B} = 0.4613, \hspace{0.5cm} q(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.3602, \hspace{0.5cm} {\it q}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.2240.$$
  • If we compare in  $\text{Example 2}$  the red error sequence  $($GE,  change of state is always possible$)$  with the blue sequence  $($equivalent MC,  change of state only at  $e_\nu = 1$$)$,  we can see quite serious differences.
  • But the blue error sequence of the equivalent McCullough model has exactly the same statistical properties as the red error sequence of the Gilbert-Elliott model.


The conversion of the GE parameters to the MC parameters is illustrated in  "Exercise 5.7"  using a simple example.   "Exercise 5.7Z"  further shows how they can be determined directly from the  $q$ parameters:

  1. the mean error probability,
  2. the error distance distribution,
  3. the error correlation function and
  4. the correlation duration of the MC model.

Burst error channel model according to Wilhelm


This model goes back to  Claus Wilhelm  and was developed from the mid-1960s onwards from empirical measurements of temporal consequences of bit errors.

  • It is based on thousands of measurement hours in transmission channels from  $\text{200 bit/s}$  with analog modem up to  $\text{2.048 Mbit/s}$  via  "ISDN".
Exemplary function curves  $h_{\rm B}(n)$.     $\rm KW$:  "short wave",   $\rm UKW$:  "ultra short wave"
  • Likewise,  marine radio channels up to  $7500$  kilometers in the shortwave range were measured.


Blocks of length  $n$  were recorded.  The respective block error rate  $h_{\rm B}(n)$  was determined from this.  Note.

  1. A block error is already present if even one of the  $n$  symbols has been falsified.
  2. Knowing well that the  "block error rate"  $h_{\rm B}(n)$  corresponds exactly to the  "block error probability"  $p_{\rm B}$  only for  $n \to \infty$,  we set  $p_{\rm B}(n) \approx h_{\rm B}(n)$  in the following description.
  3. In another context,  $p_{\rm B}$  sometimes also denotes the  "bit error probability"  in our learning tutorial.


In a large number of measurements, the fact that

⇒   the course  $p_{\rm B}(n)$  in double-logarithmic representation shows linear increases in the lower range

has been confirmed again and again  $($see graph$)$.  Thus,  it holds for  $n \le n^\star$:

\[{\rm lg} \hspace{0.15cm}p_{\rm B}(n) = {\rm lg} \hspace{0.15cm}p_{\rm S} + \alpha \cdot {\rm lg} \hspace{0.15cm}n\hspace{0.3cm} \Rightarrow \hspace{0.3cm} p_{\rm B}(n) = p_{\rm S} \cdot n^{\alpha}\hspace{0.05cm}.\]
  1. Here,  $p_{\rm S} = p_{\rm B}(n=1)$  denotes the mean symbol error probability.
  2. The empirically found values of  $\alpha$  are between  $0.5$  and  $0.95$.
  3. For  $1-\alpha$,  the term  "burst factor"  is also used.


$\text{Example 4:}$  In the BSC model, the course of the block error probability is:

\[p_{\rm B}(n) =1 -(1 -p_{\rm S})^n \approx n \cdot p_{\rm S}\hspace{0.05cm}.\]

From this follows   $\alpha = 1$   and the burst factor   $1-\alpha = 0$.  In this case  $($and only in this case$)$  a linear course results even with non-logarithmic representation.

  • Note that the above approximation is only valid for   $p_{\rm S} \ll 1$   and not too large  $n$,  otherwise the approximation   $(1-p_{\rm S})^n \approx1 - n \cdot p_{\rm S}$   is not applicable.
  • But this also means that the equation given above is also only valid for a lower range  $($for  $n < n^\star)$. 
  • Otherwise,  an infinitely large block error probability would result for  $n \to \infty$. 


$\text{Definition:}$  For the function  $p_{\rm B}(n)$   ⇒   "block error probability"  determined empirically from measurements,  we now have to find the  error distance distribution  $\rm (EDD)$  from which the course for  $n > n^\star$  can be extrapolated,  which satisfies the following constraint:

\[\lim_{n \hspace{0.05cm} \rightarrow \hspace{0.05cm} \infty} p_{\rm B}(n) = 1 .\]
  • We refer to this approach as the  Wilhelm model.
  • Since memory extends only to the last symbol error,  this model is a renewal model.


Error distance consideration to the Wilhelm model


We now consider the error distances.  An  "error sequence"  $\langle e_\nu \rangle$  can be equivalently represented by the  "error distance sequence"  $\langle a_{\nu\hspace{0.06cm}'} \rangle$,  as shown in the following graph.  It can be seen:

  1. The error sequence  "$\text{...}\rm 1001\text{...}$"  is expressed by  "$a= 3$". 
  2. Accordingly,  the error distance  "$a= 1$"  denotes the error sequence  "$\text{...}\rm 11\text{...}$".
  3. The different indices  $\nu$  and  $\nu\hspace{0.06cm}'$  take into account that the two sequences do not run synchronously.


With the probabilities  $p_a(k) = {\rm Pr}(a= k)$  for the individual error distances  $k$  and the mean symbol error probability  $p_{\rm S}$,  the following definitions apply for

Error sequence  $\langle e_\nu \rangle$  and error distance sequence  $\langle a_{\nu\hspace{0.06cm}'} \rangle$
  • the  "error distance distribution"  $\rm (EDD)$:
\[ V_a(k) = {\rm Pr}(a \ge k)= \sum_{\kappa = k}^{\infty}p_a(\kappa) \hspace{0.05cm},\]
  • the  "mean error distance"  ${\rm E}\big[a\big]$:
\[ V_a(k) = {\rm E}\big[a\big] = \sum_{k = 1}^{\infty} k \cdot p_a(k) = {1}/{p_{\rm S}}\hspace{0.05cm}.\]

$\text{Example 5:}$  We consider a block with  $n$  bits, starting at bit position  $\nu + 1$.

To derive the Wilhelm model

Some comments:

  1. A block error occurs whenever a bit is falsified at positions  $\nu + 1$, ... , $\nu + n$. 
  2. The falsification probabilities are expressed in the graph by the error distance distribution  ${V_a}\hspace{0.06cm}'(k)$. 
  3. Somewhere before the block of length  $n = 3$  is the last error, but at least at distance  $k$  from the first error in the block.
  4. So the distance is equal or greater than  $k$,  which corresponds exactly to the probability  ${V_a}'(k)$. 
  5. The apostrophe is to indicate that a correction has to be made later to get from the empirically found error distance distribution to the correct function  ${V_a}(k)$. 


We now have several equations for the block error probability  $p_{\rm B}(n)$. 

  • A first equation establishes the relationship between  $p_{\rm B}(n)$  and the  (approximate)  error distance distribution  ${V_a}'(k)$: 
\[(1)\hspace{0.4cm} p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k) \hspace{0.05cm}, \]
  • A second equation is provided by our empirical investigation at the beginning of this section:
\[(2)\hspace{0.4cm} p_{\rm B}(n) = p_{\rm S} \cdot n^{\alpha}\]
  • The third equation is obtained by equating  $(1)$  and  $(2)$:
\[(3)\hspace{0.4cm} \sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k) = n^{\alpha} \hspace{0.05cm}. \]

By successively substituting  $n = 1, 2, 3,$ ...  into this equation,  we obtain with  ${V_a}'(k = 1) = 1$:

\[V_a\hspace{0.05cm}'(1) = 1^{\alpha} \hspace{0.05cm},\hspace{0.8cm} V_a\hspace{0.05cm}'(1) + V_a\hspace{0.05cm}'(2) =2^{\alpha} \hspace{0.05cm}, \hspace{0.8cm}V_a\hspace{0.05cm}'(1) + V_a\hspace{0.05cm}'(2) + V_a\hspace{0.05cm}'(3) = 3^{\alpha} \hspace{0.35cm}\Rightarrow \hspace{0.3cm} V_a\hspace{0.05cm}'(k) = k^{\alpha}-(k-1)^{\alpha} \hspace{0.05cm}.\]

However,  the coefficients  ${V_a}'(k)$  obtained from empirical data do not necessarily satisfy the normalization condition.

To correct the issue,  Wilhelm uses the following approach:

\[V_a\hspace{0.05cm}(k) = V_a\hspace{0.05cm}'(k) \cdot {\rm e}^{- \beta \cdot (k-1)}\hspace{0.3cm}\Rightarrow \hspace{0.3cm} V_a\hspace{0.05cm}(k) = \big [k^{\alpha}-(k-1)^{\alpha} \big ] \cdot {\rm e}^{- \beta \cdot (k-1)}\hspace{0.05cm}.\]

Wilhelm refers to this representation as the  $\rm L–model$,  see  [Wil11][5]. The constant  $\beta$  depends on

  • the symbol error probability  $p_{\rm S}$, and
  • the empirically found exponent  $\alpha$   ⇒   burst factor  $1- \alpha$,


such that the block error probability becomes equal to  $1$  at infinite block length:

\[\lim_{n \hspace{0.05cm} \rightarrow \hspace{0.05cm} \infty} p_B(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}(k) = p_{\rm S} \cdot \sum_{k = 1}^{n} \big [k^{\alpha}-(k-1)^{\alpha} \big ] \cdot {\rm e}^{- \beta \cdot (k-1)} =1 \hspace{0.3cm} \Rightarrow \hspace{0.3cm} \sum_{k = 1}^{\infty} \big [k^{\alpha}-(k-1)^{\alpha} \big ] \cdot {\rm e}^{- \beta \cdot (k-1)} = {1}/{p_{\rm S}} \hspace{0.05cm}.\]

To determine  $\beta$,  we use the  "generating function"  of  ${V_a}(k)$,  which we denote by  ${V_a}(z)$: 

\[V_a\hspace{0.05cm}(z) = \sum_{k = 1}^{\infty}V_a\hspace{0.05cm}(k) \cdot z^k = \sum_{k = 1}^{n} \big [k^{\alpha}-(k-1)^{\alpha} \big ] \cdot {\rm e}^{- \beta \cdot (k-1)} \cdot z^k \hspace{0.05cm}.\]

In  [Wil11][5],  $V_a\hspace{0.05cm}(z) = 1/{\left (1- {\rm e}^{- \beta }\cdot z \right )^\alpha} $  is derived approximately.  From the equation for the mean error distance follows:

\[ {\rm E}\big[a\big] = \sum_{k = 1}^{\infty} k \cdot p_a(k) = \sum_{k = 1}^{\infty} V_a(k) = \sum_{k = 1}^{\infty} V_a(k) \cdot 1^k = V_a(z=1) = 1/p_{\rm S}\]
\[ \Rightarrow \hspace{0.3cm}{p_{\rm S}} = \big [V_a(z=1)\big]^{-1}= \big [1- {\rm e}^{- \beta }\cdot 1\big]^{\alpha}\hspace{0.3cm} \Rightarrow \hspace{0.3cm} {\rm e}^{- \beta } =1 - {p_{\rm S}}^{1/\alpha}\hspace{0.05cm}.\]

Numerical comparison of the BSC model and the Wilhelm model


$\text{Conclusion:}$  Let us summarize this intermediate result.  Wilhelm's  $\rm L–model$ describes the error distance distribution  $\rm (EDD)$  in the form

\[V_a\hspace{0.05cm}(k) = \big [k^{\alpha}-(k-1)^{\alpha}\big ] \cdot \big [ 1 - {p_{\rm S}^{1/\alpha} }\big ]^{k-1} \hspace{0.05cm}.\]


This model will now be explained with exemplary numerical results and compared with the BSC model.

$\text{Example 6:}$  We start with the  "BSC model"

BSC model and parameters for  $p_{\rm S} = 0.2$
  1. For presentation reasons,  we set the falsification probability very high to  $p_{\rm S} = 0.2$.
  2. In the second row of the table,  its error distance distribution  ${V_a}(k) = {\rm Pr}(a \ge k)$  is entered for  $k \le 10$.


The Wilhelm model with  $p_{\rm S} = 0.2$  and  $\alpha = 1$  has exactly the same error distance distribution as the corresponding  "BSC model".  This is also shown by the calculation. 

With  $\alpha = 1$  one obtains from the equation in the last section:

\[V_a\hspace{0.05cm}(k) \hspace{-0.05cm}=\hspace{-0.05cm} \big [k^{\alpha}-(k-1)^{\alpha}\big ] \hspace{-0.05cm} \cdot \hspace{-0.05cm} \big [ 1 - {p_{\rm S}^{1/\alpha} }\big ]^{k-1} \hspace{-0.1cm} = \hspace{-0.1cm} (1 - p_{\rm S} )^{k-1} \hspace{0.05cm}.\]

Thus,  according to the lines  3  and  4,  both models also have

  • equal error distance probabilities  ${\rm Pr}(a = k)= {V_a}(k-1) - {V_a}(k)$,
  • equal block error probabilities  $ p_{\rm B}(n)$.

With regard to the following  $\text{Example 7}$  with  $\alpha \ne 1$,  it should be mentioned again in particular:

  • The block error probabilities  $ p_{\rm B}(n)$  of the Wilhelm model are basically obtained from the error distance distribution  ${V_a}(k)$  according to the equation
\[ p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}(k) \hspace{0.15cm}\Rightarrow \hspace{0.15cm} p_{\rm B}( 1) = 0.2 \cdot 1 = 0.2 \hspace{0.05cm}, \hspace{0.5cm}p_{\rm B}(2) = 0.2 \cdot (1+0.8) = 0.36 \hspace{0.05cm}.\]
  • Only in the special case  $\alpha = 1$   ⇒   BSC model,  $ p_{\rm B}(n)$  can also be determined by summation over the error distance probabilities  ${\rm Pr}(a=k)$: 
\[ p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} {\rm Pr}(a=k) \hspace{0.15cm}\Rightarrow \hspace{0.15cm} p_{\rm B}( 1) = 0.2 \hspace{0.05cm}, \hspace{0.5cm}p_{\rm B}(2) = 0.2+ 0.16 = 0.36 \hspace{0.05cm}.\]


$\text{Example 7:}$  We now consider a channel with burst error characteristics.

Results of the Wilhelm-L model with  $\alpha = 0.7$ and  $p_{\rm S} = 0.2$

  1. The graph shows as green circles the results for the Wilhelm–L model with  $\alpha = 0.7$.
  2. The red comparison curve is valid for  $\alpha = 1$  (or for the BSC channel)  with the same mean symbol error probability  $p_{\rm S} = 0.2$.
  3. Some interesting numerical values are given at the bottom right.


One can see from these plots:

  • The course of the block error probability starts with  $p_{\rm B}(n = 1) = p_{\rm S} = 0.2$,  both for statistically independent errors  ("BSC")  and for burst errors  ("Wilhelm").
  • For the (green) burst error model,  ${\rm Pr}(a=1)= 0.438$  is significantly larger than for the (red) BSC:   ${\rm Pr}(a=1)= 0.2$. In addition, one can see a bent shape in the lower region.
  • However,  the mean error distance  ${\rm E}\big [a \big ] = 1/p_{\rm S} = 5$  is identical for both models with same symbol error probability.
  • The large outlier at  $k=1$  is compensated by smaller probabilities for  $k=2$,  $k=3$  ... as well as by the fact that for large  $k$  the green circles lie – even if only minimally – above the red comparison curve.
  • The most important result is that the block error probability for  $n > 1$  is smaller for the Wilhelm model than for the comparable BSC model,  for example:   $p_{\rm B}(n = 20) = 0.859$.



Error distance consideration according to the Wilhelm A model


Wilhelm has developed another approximation from the  "generating function"  $V_a(z)$  given above,  which he calls the  "A model".  The approximation is based on a Taylor series expansion.

$\text{Definition:}$  Wilhelm's  $\text{A model}$  describes the approximated error distance distribution  $\rm (EDD)$  in the form

\[V_a\hspace{0.05cm}(k) = \frac {1 \cdot \alpha \cdot (1+\alpha) \cdot \hspace{0.05cm} ... \hspace{0.05cm}\cdot (k-2+\alpha) }{(k-1)\hspace{0.05cm}!}\cdot \left [ 1 - {p_{\rm S}^{1/\alpha} }\right ]^{k-1} \hspace{0.05cm}.\]
  • In particular,  $V_a(k = 1) = 1$  and  $V_a(k = 2)= \alpha \cdot (1 - p_{\rm S}^{1/\alpha})$ results.
  • It should be noted here that the numerator of the prefactor consists of  $k$  factors.  Consequently,  for  $k = 1$,  this prefactor results in $1$.


Now we compare the differences of the two Wilhelm models  $\rm(L$  and  $\rm A)$,  with respect to resulting block error probability.

$\text{Example 8:}$  The adjacent graph shows the course of the block error probabilities  $p_{\rm B}(n)$  for three different  $\alpha$–values, recognizable by the colors

Wilhelm model results $(p_{\rm S} = 0.01)$

  • Red:        $\alpha = 1.0$   ⇒   BSC model,
  • Blue:      $\alpha = 0.95$  ⇒   weak bursting,
  • Green:   $\alpha = 0.70$   ⇒   strong bursting.

The solid lines apply to the  "A model"  and the dashed lines to the  "L model".  The numerical values for  $p_{\rm B}(n = 100)$  given in the figure refer to the  "A model".

For $\alpha = 1$, both the A model and the L model transition to the BSC model (red curve).

Furthermore, it should be noted:

  1. The symbol error probability    $p_{\rm S} = 0.01$   ⇒   ${\rm E}\big[a \big ] = 100$    is assumed here  $($reasonably$)$  realistic.  All curves start at    $p_{\rm B}(n=1) = 0.01$   ⇒   yellow point.
  2. The difference between two curves of the same color is small  $($somewhat larger in the case of strong bursting$)$,  with the solid curve always lying above the dashed curve.
  3. This example also shows:     The stronger the bursting  $($smaller  $\alpha)$,  the smaller the block error probability    $p_{\rm B}(n)$.  However,  this is only true if one assumes as here a constant symbol error probability  $p_{\rm S}$.
  4. A  (poor)  attempt at an explanation:  Suppose that for BSC with small  $p_{\rm S}$  each block error comes from one symbol error,  then for the same symbol errors there are fewer block errors if two errors fall into one block.
  5. Another  (more appropriate?)  example from everyday life.  It is easier to cross a street with constant traffic volume,  if the vehicles come  "somehow bursted".


Error correlation function of the Wilhelm A model


In addition to the  error distance distribution  $V_a(k)$,  another form of description of the digital channel models is the  "error correlation function"  $\rm (ECF$  $\varphi_{e}(k)$.  We assume the binary error sequence  $\langle e_\nu \rangle$   ⇒   $e_\nu \in \{0, 1\}$,  where with respect to the  $\nu$–th bit

  • $e_\nu = 0$  denotes a correct transmission,  and
  • $e_\nu = 1$  a bit error.


$\text{Definition:}$  The  error correlation function  $\varphi_{e}(k)$  gives the  $($discrete-time$)$  "auto-correlation function"  of the random variable  $e$,  which is also discrete-time.

\[\varphi_{e}(k) = {\rm E}\big[e_{\nu} \cdot e_{\nu + k}\big] = \overline{e_{\nu} \cdot e_{\nu + k} }\hspace{0.05cm}.\]
  • The sweeping line in the right equation marks the time averaging.

The error correlation value  $\varphi_{e}(k)$  provides statistical information about two sequence elements that are  $k$  apart,  e.g. about  $e_{\nu}$  and  $e_{\nu +k}$.  The intervening elements  $e_{\nu +1}$, ... , $e_{\nu +k-1}$,  on the other hand,  do not affect the  $\varphi_{e}(k)$ value.

$\text{Without proof:}$  The error correlation function of the  $\text{Wilhelm A model}$  can be approximated as follows:

\[\varphi_e\hspace{0.05cm}(k) = p_{\rm S} \hspace{-0.03cm}\cdot \hspace{-0.03cm} \left [ 1 \hspace{-0.03cm}-\hspace{-0.03cm} \frac{\alpha}{1\hspace{0.03cm}!} \hspace{-0.03cm}\cdot \hspace{-0.03cm} C \hspace{-0.03cm}-\hspace{-0.03cm} \frac{\alpha \cdot (1\hspace{-0.03cm}-\hspace{-0.03cm} \alpha)}{2\hspace{0.03cm}!} \hspace{-0.03cm}\cdot \hspace{-0.03cm} C^2 \hspace{-0.03cm}-\hspace{-0.03cm} \hspace{0.05cm} \text{...} \hspace{0.05cm}\hspace{-0.03cm}-\hspace{-0.03cm} \frac {\alpha \hspace{-0.03cm}\cdot \hspace{-0.03cm} (1\hspace{-0.03cm}-\hspace{-0.03cm}\alpha) \hspace{-0.03cm}\cdot \hspace{-0.03cm} \hspace{0.05cm} \text{...} \hspace{0.05cm} \hspace{-0.03cm}\cdot \hspace{-0.03cm} (k\hspace{-0.03cm}-\hspace{-0.03cm}1\hspace{-0.03cm}-\hspace{-0.03cm}\alpha) }{k\hspace{0.03cm}!} \hspace{-0.03cm}\cdot \hspace{-0.03cm} C^k \right ] \]
  • Here,  $C = (1-p_{\rm S})^{1/\alpha}$   is used for abbreviation.  The derivation is omitted here.


In the following, the properties of the error correlation function are shown by an example.

$\text{Example 9:}$  As in  $\text{Example 8}$:  $p_{\rm S} = 0.01$.  The error correlation functions shown here again represent

ECF results of the Wilhelm model
  • Red:        $\alpha = 1.0$   ⇒   BSC model,
  • Blue:      $\alpha = 0.95$  ⇒   weak bursting,
  • Green:   $\alpha = 0.70$   ⇒   strong bursting.

The following statements can be generalized to a large extent,  see also  "Gilbert-Elliott model":

  • The ECF value at  $k = 0$  is equal to  $p_{\rm S} = 10^{-2}$  for all channels  $($marked by the circle with gray filling$)$ and the limit value for  $k \to \infty$  is always  $p_{\rm S}^2 = 10^{-4}$.
  • In the BSC model,  this final value is already reached at  $k = 1$  $($marked by a red filled circle$)$.  Therefore, the ECF can only assume here the two values  $p_{\rm S}$  and  $p_{\rm S}^2$. 
  • Also for  $\alpha < 1$   $($blue and green curves$)$,  a fold can be seen at  $k = 1$.  After that,  the ECF is monotonically decreasing.  The decrease is the slower,  the smaller  $\alpha$  is, i.e.  the more bursted the errors occur.


Analysis of error structures with the Wilhelm A model


Wilhelm developed his channel model mainly in order to be able to draw conclusions about the errors occurring from measured error sequences.  From the multitude of analyses in  [Wil11][5]  only a few are to be quoted here,  whereby always the symbol error probability  $p_{\rm S} = 10^{-3}$  is the basis.

  • In the diagrams,  the red curve applies in each case to statistically independent errors  $($BSC or  $\alpha = 1)$,
  • the green curve for a burst error channel with  $\alpha = 0.7$.  In addition,  the following agreement shall apply:


$\text{Definition:}$  An  "error burst"  $($or  "burst"  for short$)$  always starts with a symbol error and ends when  $k_{\rm Burst}- 1$  error-free symbols follow each other.

  • $k_{\rm Burst}$  denotes the  "burst end parameter".
  • The  "burst weight"  $G_{\rm Burst}$  corresponds to the number of all symbol errors in the burst.
  • For a  "single error",  $G_{\rm Burst}= 1$  and the  "burst length"  (determined by the first and last error)  is also  $L_{\rm Burst}= 1$.


Probability of a single error in a block of length  $n$

$\text{Example 10:}\ \text{Probability }p_1\text{ of a single error in a sample of length} \ n$

For the BSC channel  $(\alpha = 1)$,    $p_1 = n \cdot 0.001 \cdot 0.999^{n-1}$   ⇒   red curve.

  • Due to the double-logarithmic representation,  these numerical values result in a  (nearly)  linear progression.
  • Thus,  with the BSC model,  single errors occur in a sample of length  $n = 100$  with about  $9\%$  probability.


In the case of the burst error channel with  $\alpha = 0.7$  ⇒   green curve,  the corresponding probability is only about  $0.7\%$  and the course of the curve is slightly curved here.


In the following calculation,  we first assume that the single error in the sample of length  $n$  occurs at position  $b$: 

  • Thus,  in the case of a single error,  $n-b$  error-free symbols must then follow. 
  • After averaging over the possible error positions  $b$,  we thus obtain:
\[p_1 = p_{\rm S} \cdot \sum_{b = 1}^{n} \hspace{0.15cm}V_a (b) \cdot V_a (n+1-b) \hspace{0.05cm}.\]
  • Because of its similarity to the signal representation of a  "digital filter",  the sum can be called  "a convolution of  $V_a(b)$  with itself".
  • For the generating function  $V_a(z)$,  the convolution becomes a product  $[$or the square because of  $V_a(b) \star V_a(b)]$  and the following equation is obtained:
\[V_a(z=1) \cdot V_a(z=1) = \big [ V_a(z=1) \big ]^2 = {\big [ 1 -(1- {p_{\rm S} }^{1/\alpha})\big ]^{-2\alpha} } \hspace{0.05cm}.\]
\[p_1 = p_{\rm S} \cdot \frac{2\alpha \cdot (2\alpha+1) \cdot \hspace{0.05cm} \text{... } \hspace{0.05cm} \cdot (2\alpha+n-2)} {(n-1)!}\cdot (1- {p_{\rm S} }^{1/\alpha})^{n-1} \hspace{0.05cm}.\]


Mean number of errors in the burst of length  $k$

$\text{Example 11:}\ \text{Mean number of errors } {\rm E}[G_{\rm Burst}] \text{ in a burst with end parameter }k_{\rm Burst}$

Let the mean symbol error probability still be  $p_{\rm S} = 10^{-3}$,  i.e.  (relatively)  small.

(A)   Red curve for the BSC channel  (or  $\alpha = 1)$:

  1. For example,  the parameter  $k_{\rm Burst}= 10$  means that the burst is finished when nine error-free symbols follow after one error.  The probability for an error distance  $a \le 9$  is extremely small when  $p_{\rm S}$  is small  $($here:  $10^{-3})$.  It further follows that then  (almost)  every single error is taken as a  "burst", and  ${\rm E}[G_{\rm Burst}] \approx 1.01$ .
  2. If the burst end parameter  $k_{\rm Burst}$  is larger,  the probability  ${\rm Pr}(a \le k_{\rm Burst})$  also increases significantly and  "bursts"  with more than one error occur.  For example,  if  $k_{\rm Burst}= 100$  is chosen,  a "burst"  contains on average  $1.1$  symbol errors.
  3. This means at the same time,  that long error bursts  $($according to our definition$)$  can also occur in the BSC model if,  for a given  $p_{\rm S}$,  the burst end parameter is chosen too large or,  for a given  $k_{\rm Burst}$,  the mean error probability  $p_{\rm S}$  is too large.


(B)   Green curve for the Wilhelm channel  with  $\alpha = 0.7$:

The procedure given here for the numerical determination of the mean error number  ${\rm E}[G_{\rm Burst}]$  of a burst can be applied independently of the  $\alpha$–value.  One proceeds as follows:

  1. According to the error distance probabilities  ${\rm Pr}(a=k)$  one generates an error sequence $\langle e_1,\ e_2,\ \text{...} ,\ e_i\rangle$,  ...  with the error distances  $a_1$,  $a_2$,  ... , $a_i$,  ...
  2. If an error distance  $a_i \ge k_{\rm Burst}$,  this marks the end of a burst.  Such an event occurs with probability  ${\rm Pr}(a \ge k_{\rm Burst}) = V_a(k_{\rm Burst} )$. 
  3. We count such events  "$a_i \ge k_{\rm Burst}$"  in the entire block of length  $n$.  Their number is simultaneously the number of bursts   $(N_{\rm Burst})$  in the block.
  4. At the same time,  the relation  $N_{\rm Burst} = N_{\rm error} \cdot V_a(k_{\rm Burst} )$  holds,  where  $N_{\rm error}$  is the number of all errors in the block.
  5. From this,  the average number of errors per burst can be calculated in a simple way:
\[{\rm E}[G_{\rm Burst}] =\frac {N_{\rm error} }{N_{\rm Burst} } =\frac {1}{V_a(k_{\rm Burst})}\hspace{0.05cm}.\]

The markings in the graph correspond to the following numerical values of the  "error distance distribution":

  • The green circles $($Wilhelm channel,  $\alpha = 0.7)$  result from  $V_a(10) = 0.394$  and  $V_a(100) = 0.193$.
  • The red circles $($BSC channel,  $\alpha = 1)$  are the reciprocals of  $V_a(10) = 0.991$  and  $V_a(100) = 0906$.


Exercises for the chapter


Exercise 5.6: Error Correlation Duration

Exercise 5.6Z: Gilbert-Elliott Model

Exercise 5.7: McCullough and Gilbert-Elliott Parameters

Exercise 5.7Z: McCullough Model once more



References

  1. Gilbert, E. N.:  Capacity of Burst–Noise Channel.  In: Bell Syst. Techn. J. Vol. 39, 1960, pp. 1253–1266.
  2. Elliott, E.O.:  Estimates of Error Rates for Codes on Burst–Noise Channels.  In: Bell Syst. Techn. J., Vol. 42, (1963), pp. 1977 – 1997.
  3. Huber, J.:  Codierung für gedächtnisbehaftete Kanäle.  Dissertation – Universität der Bundeswehr München, 1982.
  4. McCullough, R.H.:  The Binary Regenerative Channel.  In: Bell Syst. Techn. J. (47), 1968.
  5. 5.0 5.1 5.2 Wilhelm, C.:  A-Model and L-Model, New Channel Models with Formulas for Probabilities of Error Structures.   Internet Publication to Channels-Networks, 2011ff.