Difference between revisions of "Channel Coding/The Basics of Turbo Codes"
(Die Seite wurde neu angelegt: „ {{Header |Untermenü=Iterative Decodierverfahren |Vorherige Seite=Grundlegendes zu den Produktcodes |Nächste Seite=Grundlegendes zu den Low–density Parity…“) |
|||
Line 107: | Line 107: | ||
Auch dieser Algorithmus ist deterministisch, und man kann die Verwürfelung im Decoder rückgängig machen ⇒ <i>De–Interleaving</i>. Die Verteilung wirkt trotzdem „zufälliger” als bei Block–Interleaving.<br> | Auch dieser Algorithmus ist deterministisch, und man kann die Verwürfelung im Decoder rückgängig machen ⇒ <i>De–Interleaving</i>. Die Verteilung wirkt trotzdem „zufälliger” als bei Block–Interleaving.<br> | ||
+ | |||
+ | == Symbolweise iterative Decodierung eines Turbocodes == | ||
+ | <br> | ||
+ | Die Decodierung eines Turbocodes geschieht grundsätzlich wie in Kapitel 4.1 beschrieben. Aus der folgenden Grafik erkennt man aber einige nur für den Turbodecoder zutreffende Besonderheiten.<br> | ||
+ | |||
+ | [[File:P ID3049 KC T 4 3 S4a v2.png|Iterativer Turbodecoder für die Rate <i>R</i> = 1/3|class=fit]]<br> | ||
+ | |||
+ | Vorausgesetzt ist ein Rate–1/3–Turbocode entsprechend der Beschreibung auf der ersten Seite dieses Abschnitts. Auch die Farbgebung für die Informationssequenz <u><i>u</i></u> und die beiden Paritysequenzen <u><i>p</i></u><sub>1</sub> und <u><i>p</i></u><sub>2</sub> sind an die früheren Grafiken angepasst. Weiter ist zu bemerken: | ||
+ | *Die Empfangsvektoren <u><i>y</i></u><sub>0</sub>, <u><i>y</i></u><sub>1</sub> und <u><i>y</i></u><sub>2</sub> sind reellwertig und liefern die jeweilige Soft–Information bezüglich der Sequenzen <u><i>u</i></u> (Information), <u><i>p</i></u><sub>1</sub> (Parity für Coder 1) und <u><i>p</i></u><sub>2</sub> (Parity für Coder 2).<br> | ||
+ | |||
+ | *Der Decoder 1 erhält die erforderliche intrinsische Information in Form der <i>L</i>–Werte <i>L</i><sub>K,0</sub> (aus <u><i>y</i></u><sub>0</sub>) und <i>L</i><sub>K,1</sub> (aus <u><i>y</i></u><sub>1</sub>) über jedes einzelne Bit der Sequenzen <u><i>u</i></u> und <u><i>p</i></u><sub>1</sub>.<br> | ||
+ | |||
+ | *Beim zweiten Decoder ist auch die Verwürfelung der Informationssequenz <u><i>u</i></u> durch den Interleaver zu berücksichtigen. Die zu verarbeitenden <i>L</i>–Werte sind somit π(<i>L</i><sub>K,0</sub>) und <i>L</i><sub>K,2</sub>.<br> | ||
+ | |||
+ | *Beim allgemeinen SISO–Decoder am Ende von Kapitel 4.1 wurde der Informationsaustausch zwischen den beiden Komponentendecodern mit <u><i>L</i></u><sub>A,2</sub> = <u><i>L</i></u><sub>E,1</sub> sowie <u><i>L</i></u><sub>A,1</sub> = <u><i>L</i></u><sub>E,2</sub> angegeben. Ausgeschrieben auf Bitebene bedeuten diese Gleichungen mit 1 ≤ <i>i</i> ≤ <i>n</i>: | ||
+ | |||
+ | ::<math>L_{\rm A, \hspace{0.01cm}2}(i) = L_{\rm E, \hspace{0.01cm}1}(i) | ||
+ | \hspace{0.5cm}{\rm bzw.}\hspace{0.5cm} | ||
+ | L_{\rm A, \hspace{0.01cm}1}(i) = L_{\rm E, \hspace{0.01cm}2}(i) \hspace{0.03cm}.</math> | ||
+ | |||
+ | *Beim Turbodecoder muss bei diesem Informationsaustausch auch der Interleaver berücksichtigt werden. Dann gilt wieder für <i>i</i> = 1, ..., <i>n</i>: | ||
+ | |||
+ | ::<math>L_{\rm A, \hspace{0.01cm}2}\left ({\rm \pi}(i) \right ) = L_{\rm E, \hspace{0.01cm}1}(i) | ||
+ | \hspace{0.5cm}{\rm bzw.}\hspace{0.5cm} | ||
+ | L_{\rm A, \hspace{0.01cm}1}(i) = L_{\rm E, \hspace{0.01cm}2}\left ({\rm \pi}(i) \right ) \hspace{0.05cm}.</math> | ||
+ | |||
+ | *Der Aposteriori–<i>L</i>–Wert wird in obigem Modell (willkürlich) vom Decoder 1 abgegeben. Dies lässt sich damit begründen, dass eine Iteration für einen zweifachen Informationsaustausch steht.<br> | ||
+ | |||
+ | == Leistungsfähigkeit der Turbocodes (1) == | ||
+ | <br> | ||
+ | Wir betrachten wieder wie auf den letzten Seiten den Rate–1/3–Turbocode | ||
+ | *mit gleichen Filterfunktionen <i>G</i><sub>1</sub>(<i>D</i>) = <i>G</i><sub>2</sub>(<i>D</i>) = (1 + <i>D</i><sup>2</sup>)/(1 + <i>D</i> + <i>D</i><sup>2</sup>) ⇒ Gedächtnis <i>m</i> = 2,<br> | ||
+ | |||
+ | *mit der Interleavergröße <i>K</i>; zunächst gelte <i>K</i> = 10000,<br> | ||
+ | |||
+ | *eine ausreichende Anzahl an Iterationen (<i>I</i> = 20), hier nahezu gleichzusetzen mit „<i>I</i> → ∞”.<br><br> | ||
+ | |||
+ | Die beiden RSC–Komponentencodes sind jeweils auf <i>K</i> Bit terminiert. Deshalb gruppieren wir | ||
+ | *die Informationssequenz <u><i>u</i></u> zu Blöcken mit je <i>K</i> Informationsbits, und<br> | ||
+ | |||
+ | *die Codesequenz <u><i>x</i></u> zu Blöcken mit je <i>N</i> = 3 · <i>K</i> Codebits.<br><br> | ||
+ | |||
+ | Die Grafik zeigt als grüne Kurve in doppelt–logarithmischer Darstellung die Blockfehlerwahrscheinlichkeit ⇒ Pr(Blockfehler) beim AWGN–Kanal in Abhängigkeit der Kenngröße 10 · lg(<i>E</i><sub>B</sub>/<i>N</i><sub>0</sub>). Man erkennt: | ||
+ | [[File:P ID3053 KC T 4 3 S5a v7.png|rahmenlos|rechts|Bit– und Blockfehlerwahrscheinlichkeit von Turbodecodes]] | ||
+ | *Die Daten entstammen dem Vorlesungsskript [Liv15]. Die mit Kreuzen markierten Punkte ergaben sich aus den Gewichtsfunktionen des Turbocodes mit Hilfe der Union Bound. <br> | ||
+ | |||
+ | *Simulationsergebnisse aus [Liv15] sind in der Grafik durch Kreise markiert. Sie sind nahezu deckungsgleich mit den berechneten Werten.<br> | ||
+ | |||
+ | *Die Union Bound ist nur eine obere Schranke, basierend auf ML–Decodierung. Der iterative Decoder ist suboptimal (also schlecher als ML). Diese beiden Effekte heben sich scheinbar auf.<br> | ||
+ | |||
+ | *Etwa bei 10 · lg(<i>E</i><sub>B</sub>/<i>N</i><sub>0</sub>) = 1 dB ist ein Knick im (grünen) Kurvenverlauf festzustellen, der mit der Steigungsänderung von Pr(Bitfehler) ⇒ blaue Kurve korrespondiert. Die Erklärung folgt unten.<br><br> | ||
+ | |||
+ | Die blauen Kreuze (Berechnung) und die blauen Kreise (Simulation) bezeichnen die Bitfehlerwahrscheinlichkeit. Als Vergleichskurve ist die (strichpunktierte) Kurve für uncodierte Übertragung eingezeichnet. Anzumerken ist: | ||
+ | *Bei kleinen Abszissenwerten ist der Kurvenabfall in der gewählten Darstellung nahezu linear und ausreichend steil. Für Pr(Bitfehler) = 10<sup>–5</sup> benötigt man 10 · lg(<i>E</i><sub>B</sub>/<i>N</i><sub>0</sub>) ≈ 0.8 dB.<br> | ||
+ | |||
+ | *Im Vergleich zur Shannon–Grenze, die sich für die Coderate <i>R</i> = 1/3 zu 10 · lg(<i>E</i><sub>B</sub>/<i>N</i><sub>0</sub>) ≈ –0.55 dB ergibt, liegt unser Standard–Turbocode (mit Gedächtnis <i>m</i> = 2) nur etwa 1.35 dB entfernt.<br> | ||
+ | |||
+ | *Ab 10 · lg(<i>E</i><sub>B</sub>/<i>N</i><sub>0</sub>) ≈ 0.5 dB verläuft die Kurve flacher. Ab ca. 1.5 dB ist der Verlauf wieder (fast) linear mit geringerer Steigung. Für Pr(Bitfehler) = 10<sup>–7</sup> benötigt man etwa 10 · lg(<i>E</i><sub>B</sub>/<i>N</i><sub>0</sub>) = 3 dB.<br><br> | ||
+ | |||
+ | Die Bildbeschreibung wird auf der nächsten Seite fortgesetzt.<br> | ||
+ | |||
+ | == Leistungsfähigkeit der Turbocodes (2) == | ||
+ | <br> | ||
+ | Wir betrachten weiter die (blaue) Bitfehlerwahrscheinlichkeit für die Interleavergröße <i>K</i> = 10000 und versuchen, den flacheren Abfall bei größerem <i>E</i><sub>B</sub>/<i>N</i><sub>0</sub> zu erklären. Man spricht von einem <i>Error Floor</i>. | ||
+ | [[File:P ID3056 KC T 4 3 S5b v4.png|rahmenlos|rechts|Bit– und Blockfehlerwahrscheinlichkeit von Turbodecodes]] | ||
+ | *Der Grund für dieses asymptotisch schlechtere Verhalten bei besserem Kanal (im Beispiel: ab <nobr>ca. 10 · lg <i>E</i><sub>B</sub>/<i>N</i><sub>0</sub> > 2 dB)</nobr> ist die Periode <i>P</i> der Coderimpulsantwort <u><i>g</i></u>, wie auf der Seite Zweite Voraussetzung: Interleaving nachgewiesen.<br> | ||
+ | |||
+ | *Im Beispiel (<i>m</i> = 2) ist die Periode <i>P</i> = 2<sup><i>m</i></sup> = 3. Dadurch ist für <u><i>u</i></u> = (1, 1, 1) ⇒ <i>w</i><sub>H</sub>(<u><i>u</i></u>) = 3 trotz unbegrenzter Impulsantwort <u><i>g</i></u> die Paritysequenz begrenzt: <u><i>p</i></u> = (1, 0, 1) ⇒ <i>w</i><sub>H</sub>(<u><i>p</i></u>) = 2.<br> | ||
+ | |||
+ | *Die Sequenz <u><i>u</i></u> = (0, ..., 0, 1, 0, 0, 1, 0, ...) ⇒ <i>U</i>(<i>D</i>) = <i>D</i><sup><i>x</i></sup> · (1 + <i>D</i><sup><i>P</i></sup>) führt ebenfalls zu einem kleinen Hamming–Gewicht <i>w</i><sub>H</sub>(<u><i>p</i></u>) am Ausgang, was den iterativen Decodierprozess erschwert.<br> | ||
+ | |||
+ | *Eine gewisse Abhilfe schafft der Interleaver, der dafür sorgt, dass nicht die beiden Sequenzen <u><i>p</i></u><sub>1</sub> und <u><i>p</i></u><sub>2</sub> gleichzeitig durch sehr kleine Hamming–Gewichte <i>w</i><sub>H</sub>(<u><i>p</i></u><sub>1</sub>) und <i>w</i><sub>H</sub>(<u><i>p</i></u><sub>2</sub>) belastet sind.<br> | ||
+ | |||
+ | *Aus der Grafik erkennt man, dass Pr(Bitfehler) umgekehrt proportional zur Interleavergröße <i>K</i> ist. Das heißt: Bei großem <i>K</i> funktioniert die Entspreizung ungünstiger Eingangssequenzen besser.<br> | ||
+ | |||
+ | *Allerdings gilt die Näherung <i>K</i> · Pr(Bitfehler) = const. nur für größere <i>E</i><sub>B</sub>/<i>N</i><sub>0</sub>–Werte ⇒ kleinere Bitfehlerwahrscheinlichkeiten. Der oben beschriebene Effekt tritt zwar auch bei kleinerem <i>E</i><sub>B</sub>/<i>N</i><sub>0</sub> auf, doch sind dann die Auswirkungen auf die Bitfehlerwahrscheinlichkeit geringer.<br><br> | ||
+ | |||
+ | Dagegen gilt der flachere Verlauf der Blockfehlerwahrscheinlichkeit (grüne Kurve weitgehend unabhängig von der Interleavergröße <i>K</i>, also sowohl für <i>K</i> = 1000 als auch für <i>K</i> = 10000. Im Bereich ab <nobr> 10 · lg <i>E</i><sub>B</sub>/<i>N</i><sub>0</sub> > 2 dB</nobr> dominieren aufgrund der kleinen Bitfehlerwahrscheinlichkeiten (< 10<sup>–5</sup>) nämlich Einzelfehler, so dass hier die Näherung Pr(Blockfehler) ≈ Pr(Bitfehler) · <i>K</i> gültig ist.<br> | ||
+ | |||
+ | Die hier beispielhaft gezeigten Kurven für Bit– und Blockfehlerwahrscheinlichkeit gelten qualitativ auch für <i>m</i> > 2, zum Beispiel für den Turbocode von UMTS und LTE (jeweils <i>m</i> = 3), der in Aufgabe A4.10 analysiert wird. Es ergeben sich aber einige quantitative Unterschiede: | ||
+ | *Die Kurve verläuft bei kleinem <i>E</i><sub>B</sub>/<i>N</i><sub>0</sub> steiler und der Abstand von der Shannongrenze ist etwas geringer als im hier gezeigten Beispiel für <i>m</i> = 2.<br> | ||
+ | |||
+ | *Auch für größeres <i>m</i> gibt es einen <i>Error Floor</i>. Der Knick in den dargestellten Kurven erfolgt aber später, also bei kleineren Fehlerwahrscheinlichkeiten.<br> | ||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
+ | |||
Revision as of 19:06, 17 January 2017
Contents
- 1 Grundstruktur eines Turbocodes (1)
- 2 Grundstruktur eines Turbocodes (2)
- 3 Erste Voraussetzung für Turbocodes: Rekursive Komponentencodes
- 4 Zweite Voraussetzung für Turbocodes: Interleaving
- 5 Symbolweise iterative Decodierung eines Turbocodes
- 6 Leistungsfähigkeit der Turbocodes (1)
- 7 Leistungsfähigkeit der Turbocodes (2)
Grundstruktur eines Turbocodes (1)
Alle heute (2016) aktuellen Kommunikationssysteme wie UMTS (3. Mobilfunkgeneration) und LTE <nobr>(4. Mobilfunkgeneration)</nobr> verwenden das in Kapitel 4.1 dargelegte Konzept der symbolweisen iterativen Decodierung. Dass dies so ist, steht unmittelbar mit der Erfindung der Turbocodes im Jahre 1993 durch C. Berrou, A. Glavieux und P. Thitimajshima in Zusammenhang, denn erst mit diesen Codes konnte man sich der Shannon–Grenze mit vertretbarem Decodieraufwand annähern.
Turbocodes ergeben sich durch die parallele oder serielle Verkettung von Faltungscodes. Die Grafik zeigt die parallele Verkettung zweier Codes mit den Parametern k = 1, n = 2 ⇒ Rate R = 1/2.
In dieser Darstellung bezeichnet:
- u das aktuell betrachtete Bit der Informationssequenz u,
- xi,j das aktuell betrachtete Bit am Ausgang j von Coder i (mit 1 ≤ i ≤ 2, 1 ≤ j ≤ 2),
- X = (x1,1, x1,2, x2,1, x2,2) das Codewort für das aktuelle Informationsbit u.
Die resultierende Rate des verketteten Codiersystems ist somit R = 1/4.
Verwendet man systematische Komponentencodes, so ergibt sich das folgende Modell:
Die Modifikationen gegenüber der oberen Grafik lassen sich wie folgt begründen:
- Bei systematischen Codes C1 und C2 ist sowohl x1,1 = u als auch x2,1 = u. Deshalb kann man auf die Übertragung eines redundanten Bits (zum Beispiel x2,2) verzichten.
- Mit dieser Reduktion ergibt sich ein Rate–1/3–Turbocode mit den Parametern k = 1 und n = 3. Das Codewort lautet mit den Paritybits p1 und p2 von Coder 1 bzw. Coder 2:
- \[\underline{X} = \left (u, p_1, p_2 \right )\hspace{0.05cm}.\]
Auf der nächsten Seite wird unser Turbocode–Modell nochmals geringfügig modifiziert.
Grundstruktur eines Turbocodes (2)
Im Folgenden gehen wir stets von einem noch weiter modifizierten Turbocoder–Modell aus:
- Wie es für die Beschreibung von Faltungscodes erforderlich ist, liegt nun am Eingang anstelle des isolierten Informationsbits u die Informationssequenz u = (u1, u2, ... , ui, ... ) an.
- Die Codewortsequenz wird mit x = (X1, X2, ... , Xi, ... ) bezeichnet. Um Verwechslungen zu vermeiden, wurden vorne die Codeworte Xi = (u, p1, p2)i mit Großbuchstaben eingeführt.
- Die Coder C1 und C1 werden (gedanklich) als Digitale Filter konzipiert und sind somit durch die Übertragungsfunktionen G1(D) und G2(D) darstellbar.
- Aus verschiedenen Gründen ⇒ siehe übernächste Seite sollte die Eingangssequenz des zweiten Coders ⇒ uπ gegenüber der Sequenz u durch einen Interleaver (Π) verwürfelt sein.
- Somit spricht nichts dagegen, die beiden Coder gleich zu wählen: G1(D) = G2(D) = G(D). Ohne Interleaver würde dies die Korrekturfähigkeit extrem einschränken.
- Für uπ ist eine 3×4–Interleaver–Matrix entsprechend Aufgabe Z4.8 berücksichtigt.
- Die Paritysequenzen ergeben sich gemäß G1(D) = G2(D) = 1 + D2 ⇒ siehe Aufgabe A4.8.
Erste Voraussetzung für Turbocodes: Rekursive Komponentencodes
Nichtrekursive Übertragungsfunktionen zur Erzeugung der Paritysequenzen bewirken einen Turbocode mit unzureichend kleiner Minimaldistanz. Grund für diese Unzulänglichkeit ist die endliche Impulsantwort g = (1, g2, ... , gm, 0, 0, ... ) mit g2, ... , gm ∈ {0, 1}. Hierbei bezeichnet m das Codegedächtnis.
Die Grafik zeigt das Zustandsübergangsdiagramm für das Beispiel G(D) = [1, 1 + D2]. Die Übergänge sind mit „ui | ui pi” beschriftet. Die Abfolge S0 → S1 → S2 → S0 → S0 → S0 → ... führt bezüglich des Eingangs zur Informationssequenz u = (1, 0, 0, 0, 0, ... ) und bezüglich des jeweils zweiten Codesymbols zur Paritysequenz p = (1, 0, 1, 0, 0, ... ) ⇒ identisch mit der Impulsantwort g ⇒ Gedächtnis m = 2.
Die untere Grafik gilt für einen sog. RSC–Code (Recursive Systematic Convolutional) entsprechend G(D) = [1, (1 + D2)/(1 + D + D2)]. Hier führt die Folge S0 → S1 → S3 → S2 → S1 → S3 → S2 → ... zur Impulsantwort g = (1, 1, 1, 0, 1, 1, 0, 1, 1, ... ). Diese Impulsantwort setzt sich aufgrund der Schleife S1 → S3 → S2 → S1 bis ins Unendliche fort. Dies ermöglicht bzw. erleichtert die iterative Decodierung.
Mehr Details zu den Beispielen auf dieser Seite finden Sie in Aufgabe A4.8 und Aufgabe A4.9.
Zweite Voraussetzung für Turbocodes: Interleaving
Es ist offensichtlich, dass bei G1(D) = G2(D) ein Interleaver (Π) unerlässlich ist. Ein weiterer Grund ist, dass die Apriori–Information als unabhängig vorausgesetzt wird. Somit sollten benachbarte (und somit möglicherweise stark abhängige) Bits für den jeweils anderen Teilcode weit auseinander liegen.
Für jeden RSC–Code ⇒ unendliche Impulsantwort g ⇒ gebrochen–rationale Übertragungsfunktion G(D) gibt es nämlich gewisse Eingangssequenzen u, die zu sehr kurzen Paritysequenzen p = u ∗ g mit geringem Hamming–Gewicht wH(p) führen. Eine solche Sequenz ist beispielsweise in der unteren Grafik auf der letzten Seite angegeben: u = (1, 1, 1, 0, 0, ...). Dann gilt für die Ausgangssequenz:
\[P(D) = U(D) \cdot G(D) = (1+D+D^2) \cdot \frac{1+D^2}{1+D+D^2}= 1+D^2\]
\[\Rightarrow\hspace{0.3cm} \underline{p}= (\hspace{0.05cm}1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 1\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} 0\hspace{0.05cm},\hspace{0.05cm} ...\hspace{0.05cm})\hspace{0.05cm}. \]
Durch Interleaving (deutsch: Verwürfelung) wird nun mit großer Wahrscheinlichkeit sichergestellt, dass diese Sequenz u = (1, 1, 1, 0, 0, ...) in eine Sequenz uπ gewandelt wird,
- die zwar ebenfalls nur drei Einsen beinhaltet,
- deren Ausgangssequenz aber durch ein großes Hamming–Gewicht wH(p) gekennzeichnet ist.
Somit gelingt es dem Decoder, solche „Problemsequenzen” iterativ aufzulösen.
Zur Beschreibung der Interleaver verwendet man die Zuordnung IIn → IOut. Diese Bezeichnungen stehen für die Indizes von Ausgangs– bzw. Eingangsfolge. Die Interleavergröße wird mit Imax benannt.
Es gibt mehrere, grundsätzlich verschiedene Interleaver–Konzepte:
Bei einem Block–Interleaver füllt man eine Matrix mit S Spalten und Z Zeilen spaltenweise und liest die Matrix zeilenweise aus. Damit wird ein Informationsblock mit Imax = S · Z Bit deterministisch verwürfelt.
Die Grafik verdeutlicht das Prinzip für Imax = 64 ⇒ 1 ≤ IIn < 65 und <nobr>1 ≤ IOut < 65.</nobr> Die Reihenfolge der Ausgangsbits lautet dann:
1, 9, 17, 25, 33, 41, 49, 57, 2, 10, 18, ... , 48, 56 , 64.
Mehr Informationen zum Block–Interleaving gibt es in Aufgabe Z4.8.
Turbocodes verwenden oft den S–Random–Interleaver. Dieser pseudozufällige Algorithmus mit dem Parameter „S” garantiert, dass zwei am Eingang weniger als S auseinander liegende Indizes am Ausgang mindestens im Abstand S + 1 auftreten. Die linke Grafik zeigt die S–Random–Kennlinie IOut(IIn) für Imax = 640.
Auch dieser Algorithmus ist deterministisch, und man kann die Verwürfelung im Decoder rückgängig machen ⇒ De–Interleaving. Die Verteilung wirkt trotzdem „zufälliger” als bei Block–Interleaving.
Symbolweise iterative Decodierung eines Turbocodes
Die Decodierung eines Turbocodes geschieht grundsätzlich wie in Kapitel 4.1 beschrieben. Aus der folgenden Grafik erkennt man aber einige nur für den Turbodecoder zutreffende Besonderheiten.
Vorausgesetzt ist ein Rate–1/3–Turbocode entsprechend der Beschreibung auf der ersten Seite dieses Abschnitts. Auch die Farbgebung für die Informationssequenz u und die beiden Paritysequenzen p1 und p2 sind an die früheren Grafiken angepasst. Weiter ist zu bemerken:
- Die Empfangsvektoren y0, y1 und y2 sind reellwertig und liefern die jeweilige Soft–Information bezüglich der Sequenzen u (Information), p1 (Parity für Coder 1) und p2 (Parity für Coder 2).
- Der Decoder 1 erhält die erforderliche intrinsische Information in Form der L–Werte LK,0 (aus y0) und LK,1 (aus y1) über jedes einzelne Bit der Sequenzen u und p1.
- Beim zweiten Decoder ist auch die Verwürfelung der Informationssequenz u durch den Interleaver zu berücksichtigen. Die zu verarbeitenden L–Werte sind somit π(LK,0) und LK,2.
- Beim allgemeinen SISO–Decoder am Ende von Kapitel 4.1 wurde der Informationsaustausch zwischen den beiden Komponentendecodern mit LA,2 = LE,1 sowie LA,1 = LE,2 angegeben. Ausgeschrieben auf Bitebene bedeuten diese Gleichungen mit 1 ≤ i ≤ n:
- \[L_{\rm A, \hspace{0.01cm}2}(i) = L_{\rm E, \hspace{0.01cm}1}(i) \hspace{0.5cm}{\rm bzw.}\hspace{0.5cm} L_{\rm A, \hspace{0.01cm}1}(i) = L_{\rm E, \hspace{0.01cm}2}(i) \hspace{0.03cm}.\]
- Beim Turbodecoder muss bei diesem Informationsaustausch auch der Interleaver berücksichtigt werden. Dann gilt wieder für i = 1, ..., n:
- \[L_{\rm A, \hspace{0.01cm}2}\left ({\rm \pi}(i) \right ) = L_{\rm E, \hspace{0.01cm}1}(i) \hspace{0.5cm}{\rm bzw.}\hspace{0.5cm} L_{\rm A, \hspace{0.01cm}1}(i) = L_{\rm E, \hspace{0.01cm}2}\left ({\rm \pi}(i) \right ) \hspace{0.05cm}.\]
- Der Aposteriori–L–Wert wird in obigem Modell (willkürlich) vom Decoder 1 abgegeben. Dies lässt sich damit begründen, dass eine Iteration für einen zweifachen Informationsaustausch steht.
Leistungsfähigkeit der Turbocodes (1)
Wir betrachten wieder wie auf den letzten Seiten den Rate–1/3–Turbocode
- mit gleichen Filterfunktionen G1(D) = G2(D) = (1 + D2)/(1 + D + D2) ⇒ Gedächtnis m = 2,
- mit der Interleavergröße K; zunächst gelte K = 10000,
- eine ausreichende Anzahl an Iterationen (I = 20), hier nahezu gleichzusetzen mit „I → ∞”.
Die beiden RSC–Komponentencodes sind jeweils auf K Bit terminiert. Deshalb gruppieren wir
- die Informationssequenz u zu Blöcken mit je K Informationsbits, und
- die Codesequenz x zu Blöcken mit je N = 3 · K Codebits.
Die Grafik zeigt als grüne Kurve in doppelt–logarithmischer Darstellung die Blockfehlerwahrscheinlichkeit ⇒ Pr(Blockfehler) beim AWGN–Kanal in Abhängigkeit der Kenngröße 10 · lg(EB/N0). Man erkennt:
- Die Daten entstammen dem Vorlesungsskript [Liv15]. Die mit Kreuzen markierten Punkte ergaben sich aus den Gewichtsfunktionen des Turbocodes mit Hilfe der Union Bound.
- Simulationsergebnisse aus [Liv15] sind in der Grafik durch Kreise markiert. Sie sind nahezu deckungsgleich mit den berechneten Werten.
- Die Union Bound ist nur eine obere Schranke, basierend auf ML–Decodierung. Der iterative Decoder ist suboptimal (also schlecher als ML). Diese beiden Effekte heben sich scheinbar auf.
- Etwa bei 10 · lg(EB/N0) = 1 dB ist ein Knick im (grünen) Kurvenverlauf festzustellen, der mit der Steigungsänderung von Pr(Bitfehler) ⇒ blaue Kurve korrespondiert. Die Erklärung folgt unten.
Die blauen Kreuze (Berechnung) und die blauen Kreise (Simulation) bezeichnen die Bitfehlerwahrscheinlichkeit. Als Vergleichskurve ist die (strichpunktierte) Kurve für uncodierte Übertragung eingezeichnet. Anzumerken ist:
- Bei kleinen Abszissenwerten ist der Kurvenabfall in der gewählten Darstellung nahezu linear und ausreichend steil. Für Pr(Bitfehler) = 10–5 benötigt man 10 · lg(EB/N0) ≈ 0.8 dB.
- Im Vergleich zur Shannon–Grenze, die sich für die Coderate R = 1/3 zu 10 · lg(EB/N0) ≈ –0.55 dB ergibt, liegt unser Standard–Turbocode (mit Gedächtnis m = 2) nur etwa 1.35 dB entfernt.
- Ab 10 · lg(EB/N0) ≈ 0.5 dB verläuft die Kurve flacher. Ab ca. 1.5 dB ist der Verlauf wieder (fast) linear mit geringerer Steigung. Für Pr(Bitfehler) = 10–7 benötigt man etwa 10 · lg(EB/N0) = 3 dB.
Die Bildbeschreibung wird auf der nächsten Seite fortgesetzt.
Leistungsfähigkeit der Turbocodes (2)
Wir betrachten weiter die (blaue) Bitfehlerwahrscheinlichkeit für die Interleavergröße K = 10000 und versuchen, den flacheren Abfall bei größerem EB/N0 zu erklären. Man spricht von einem Error Floor.
- Der Grund für dieses asymptotisch schlechtere Verhalten bei besserem Kanal (im Beispiel: ab <nobr>ca. 10 · lg EB/N0 > 2 dB)</nobr> ist die Periode P der Coderimpulsantwort g, wie auf der Seite Zweite Voraussetzung: Interleaving nachgewiesen.
- Im Beispiel (m = 2) ist die Periode P = 2m = 3. Dadurch ist für u = (1, 1, 1) ⇒ wH(u) = 3 trotz unbegrenzter Impulsantwort g die Paritysequenz begrenzt: p = (1, 0, 1) ⇒ wH(p) = 2.
- Die Sequenz u = (0, ..., 0, 1, 0, 0, 1, 0, ...) ⇒ U(D) = Dx · (1 + DP) führt ebenfalls zu einem kleinen Hamming–Gewicht wH(p) am Ausgang, was den iterativen Decodierprozess erschwert.
- Eine gewisse Abhilfe schafft der Interleaver, der dafür sorgt, dass nicht die beiden Sequenzen p1 und p2 gleichzeitig durch sehr kleine Hamming–Gewichte wH(p1) und wH(p2) belastet sind.
- Aus der Grafik erkennt man, dass Pr(Bitfehler) umgekehrt proportional zur Interleavergröße K ist. Das heißt: Bei großem K funktioniert die Entspreizung ungünstiger Eingangssequenzen besser.
- Allerdings gilt die Näherung K · Pr(Bitfehler) = const. nur für größere EB/N0–Werte ⇒ kleinere Bitfehlerwahrscheinlichkeiten. Der oben beschriebene Effekt tritt zwar auch bei kleinerem EB/N0 auf, doch sind dann die Auswirkungen auf die Bitfehlerwahrscheinlichkeit geringer.
Dagegen gilt der flachere Verlauf der Blockfehlerwahrscheinlichkeit (grüne Kurve weitgehend unabhängig von der Interleavergröße K, also sowohl für K = 1000 als auch für K = 10000. Im Bereich ab <nobr> 10 · lg EB/N0 > 2 dB</nobr> dominieren aufgrund der kleinen Bitfehlerwahrscheinlichkeiten (< 10–5) nämlich Einzelfehler, so dass hier die Näherung Pr(Blockfehler) ≈ Pr(Bitfehler) · K gültig ist.
Die hier beispielhaft gezeigten Kurven für Bit– und Blockfehlerwahrscheinlichkeit gelten qualitativ auch für m > 2, zum Beispiel für den Turbocode von UMTS und LTE (jeweils m = 3), der in Aufgabe A4.10 analysiert wird. Es ergeben sich aber einige quantitative Unterschiede:
- Die Kurve verläuft bei kleinem EB/N0 steiler und der Abstand von der Shannongrenze ist etwas geringer als im hier gezeigten Beispiel für m = 2.
- Auch für größeres m gibt es einen Error Floor. Der Knick in den dargestellten Kurven erfolgt aber später, also bei kleineren Fehlerwahrscheinlichkeiten.