Contents
- 1 Some characteristics of LDPC codes
- 2 Zweiteilige LDPC–Graphenrepräsentation – Tanner–Graph
- 3 Iterative Decodierung von LDPC–Codes
- 4 Leistungsfähigkeit regulärer LDPC–Codes
- 5 Leistungsfähigkeit irregulärer LDPC–Codes
- 6 Einige Anwendungsgebiete für LDPC–Codes
- 7 Aufgaben zum Kapitel
- 8 Quellenverzeichnis
Some characteristics of LDPC codes
The Low–density Parity–check Codes – in short LDPC codes' – were invented as early as the early 1960s and date back to the dissertation [Gal63][1] by "Robert G. Gallager" .
However, the idea came several decades too early due to the processor technology of the time. Only three years after Berrou's invention of the turbo codes in 1993, however, David J. C. MacKay and "Radford M. Neal" recognized the huge potential of the LDPC codes if they were decoded iteratively symbol by symbol just like the turbo codes. They virtually reinvented the LDPC codes.
As can already be seen from the name component "parity–check", these codes are linear block codes according to the explanations in the "first main chapter" . Therefore, the same applies here:
- The code word results from the information word $\underline{u}$ (represented with $k$ binary symbols) and the "generator matrix" $\mathbf{G}$ of dimension $k × n$ to $\underline{x} = \underline{u} \cdot \mathbf{G}$ ⇒ code word length $n$.
- The parity-check equations result from the identity $\underline{x} \cdot \mathbf{H}^{\rm T} ≡ 0$, where $\mathbf{H}$ denotes the parity-check matrix. This consists of $m$ rows and $n$ columns. While in the first chapter basically $m = n -k$ was valid, for the LPDC codes we only require $m ≥ n -k$.
A serious difference between an LDPC code and a conventional block code as described in the first chapter is that the parity-check matrix $\mathbf{H}$ is sparsely populated with ones ("low-density').
$\text{Example 1:}$ The graph shows parity-check matrices $\mathbf{H}$ for
- the Hamming code with code length $n = 15, \ m = 4$ ⇒ $k = 11$ information bits,
- the LDPC–code from [Liv15][2] of length $n = 12$ and with $m = 9$ parity-check equations ⇒ $k ≥ 3$.
- In the left graph, the proportion of ones $32/60 \approx is 53.3\%$, whereas in the right graph the share of ones is lower with $36/108 = 33.3\%$ .
- For the LDPC codes (long length) relevant for practice, the share of ones is even significantly lower.
We now analyze the two parity-check matrices using the rate and Hamming weight:
- The rate of the Hamming code under consideration (left graph) is $R = k/n = 11/15 \approx 0.733$. The Hamming weight of each of the four rows is $w_{\rm Z}= 8$, while the Hamming weights $w_{\rm S}(i)$ of the columns vary between 1 and 4. For the columns index variable here: $1 ≤ i ≤ 15$.
- In the considered LDPC–code there are four ones in all rows ⇒ $w_{\rm Z} = 4$ and three ones in all columns ⇒ $w_{\rm S} = 3$. The code label $(w_{\rm Z}, \ w_{\rm S})$ LDPC code uses exactly these parameters. Note the different nomenclature to the "$(n, \ k, \ m)$ Hamming code".
- This is called a regular LDPC code, since all row weights $w_{\rm Z}(j)$ for $1 ≤ j ≤ m$ are constant equal $w_{\rm Z}$ and also all column weights $($with the indices $1 ≤ i ≤ n)$ are equal: $w_{\rm S}(i) = w_{\rm S} = {\rm const.}$ If this condition is not met, there is an irregular LDPC code.
$\text{Feature of LDPC codes}$ For the code rate, one can generally (if $k$ is not known) specify only one bound:
- $$R ≥ 1 - w_{\rm S}/w_{\rm Z}.$$
- The equal sign holds if all rows of $\mathbf{H}$ are linearly independent ⇒ $m = n \, – k$. Then the conventional equation is obtained:
- $$R = 1 - w_{\rm S}/w_{\rm Z} = 1 - m/n = k/n.$$
- Dagegen gilt für die Coderate eines irregulären LDPC–Codes und auch für den links skizzierten $(15, 11, 4)$ Hammingcode:
- $$R \ge 1 - \frac{ {\rm E}[w_{\rm S}]}{ {\rm E}[w_{\rm Z}]} \hspace{0.5cm}{\rm mit}\hspace{0.5cm} {\rm E}[w_{\rm S}] =\frac{1}{n} \cdot \sum_{i = 1}^{n}w_{\rm S}(i) \hspace{0.5cm}{\rm und}\hspace{0.5cm} {\rm E}[w_{\rm Z}] =\frac{1}{m} \cdot \sum_{j = 1}^{ m}w_{\rm Z}(j) \hspace{0.05cm}.$$
- Da beim Hamming–Code die $m = n - k$ Prüfgleichungen linear voneinander unabhängig sind, kann das "$≥$"–Zeichen durch das Gleichheitszeichen ersetzt werden, was gleichzeitig $R = k/n$ bedeutet.
Weitere Informationen zu diesem Thema finden Sie in Aufgabe 4.11 und Aufgabe 4.11Z.
Zweiteilige LDPC–Graphenrepräsentation – Tanner–Graph
Alle wesentlichen Merkmale eines LDPC–Codes sind in der Prüfmatrix $\mathbf{H} = (h_{j,\hspace{0.05cm}i})$ enthalten und lassen sich durch einen so genannten Tanner–Graphen darstellen. Es handelt sich um eine Bipartite Graph Representation, wobei die deutsche Übersetzung von "bipartite" in etwa "zweiteilig" lautet. Bevor wir beispielhafte Tanner–Graphen genauer betrachten und analysieren, müssen zuerst noch einige geeignete Beschreibungsgrößen definiert werden:
- Die $n$ Spalten der Prüfmatrix $\mathbf{H}$ stehen jeweils für ein Codewortbit. Da jedes Codewortbit sowohl ein Informationsbit als auch ein Prüfbit sein kann, hat sich hierfür die neutrale Bezeichnung Varibale Node (VN) durchgesetzt. Das $i$–te Codewortbit wird $V_i$ genannt und die Menge aller Variable Nodes (VNs) ist $\{V_1, \ \text{...}\hspace{0.05cm} , \ V_i, \ \text{...}\hspace{0.05cm} , \ V_n\}$.
- Die $m$ Zeilen von $\mathbf{H}$ beschreiben jeweils eine Prüfgleichung (englisch: Parity–check Equation). Wir bezeichnen im folgenden eine solche Prüfgleichung als Check Node (CN). Die Menge aller Check Nodes (CNs) ist $\{C_1, \ \text{...}\hspace{0.05cm} , \ C_j, \ \text{...}\hspace{0.05cm} , \ C_m\}$, wobei $C_j$ die Prüfgleichung der $j$–ten Zeile angibt.
- Im Tanner–Graphen werden die $n$ Variable Nodes $V_i$ als Kreise und die $m$ Check Nodes $C_j$ als Quadrate dargestellt. Ist das Matrixelement in Zeile $j$ und Spalte $i \hspace{0.15cm} ⇒ \hspace{0.15cm} h_{j,\hspace{0.05cm}i} = 1$, so gibt es eine Verbindungslinie (englisch: Edge) zwischen dem Variable Node $V_i$ und dem Check Node $C_j$.
$\text{Beispiel 2:}$ Zur Verdeutlichung obiger Begriffe ist rechts ein beispielhafter Tannergraphen mit
- den Variable Nodes (kurz: VNs) $V_1$ bis $V_4$, und
- den Check Nodes (kurz: CNs) $C_1$ bis $C_3$
angegeben. Der zugehörige Code hat allerdings keinerlei praktische Bedeutung.
Man erkennt aus der Grafik:
- Die Codelänge ist $n = 4$ und es gibt $m = 3$ Prüfgleichungen. Damit hat die Prüfmatrix $\mathbf{H}$ die Dimension $3×4$.
- Es gibt insgesamt sechs Verbindungslinien (englisch: Edges). Damit sind sechs der zwölf Elemente $h_{j,\hspace{0.05cm}i}$ von $\mathbf{H}$ Einsen.
- Bei jedem Check Node kommen zwei Linien an ⇒ Die Hamming–Gewichte aller Zeilen gleich sind: $w_{\rm S}(j) = 2 = w_{\rm S}$.
- Von den Knoten $V_1$ und $V_4$ gibt es jeweils nur einen Übergang zu einem Check Node, von $V_2$ und $V_3$ dagegen zwei.
Aus diesem Grund handelt es sich um einen irregulären Code.
Die Prüfmatrix lautet demnach:
- \[{ \boldsymbol{\rm H} } = \begin{pmatrix} 1 &1 &0 &0\\ 0 &1 &1 &0\\ 0 &0 &1 &1 \end{pmatrix}\hspace{0.05cm}.\]
$\text{Beispiel 3:}$ Es folgt nun ein praxisrelevanteres Beispiel. In der Aufgabe 4.11 wurden zwei Prüfmatrizen analysiert:
- Der Coder entsprechend der Matrix $\mathbf{H}_1$ ist systematisch. Die Codeparameter sind $n = 8, \ k = 4$ und $m = 4$ ⇒ Rate $1/2$. Der Code ist irregulär, da die Hamming–Gewichte nicht für alle Spalten gleich sind. In der Grafik ist diese "irreguläre $\mathbf{H}$–Matrix" oben angegeben.
- Unten angegeben ist die "reguläre $\mathbf{H}$–Matrix" entsprechend der Matrix $\mathbf{H}_3$ in Aufgabe 4.11. Die Zeilen sind Linearkombinationen der oberen Matrix. Für diesen nicht systematischen Coder gilt mit $w_{\rm S} = 2$ und $w_{\rm Z} = 4$ für die Rate: $R \ge 1 - w_{\rm S}/w_{\rm Z} = 1/2$.
Die Grafik zeigt die zugehörigen Tanner–Graphen:
- Der linke Graph bezieht sich auf die obere (irreguläre) Matrix. Die acht Variable Nodes (abgekürzt VNs) $V_i$ sind mit den vier Check Nodes (abgekürzt CNs) $C_j$ verbunden, falls das Element in Zeile $j$ und Spalte $i \hspace{0.15cm} ⇒ \hspace{0.15cm} h_{j,\hspace{0.05cm}i}$ gleich $1$ ist. Andernfalls $($falls $h_{j,\hspace{0.05cm}i} = 0)$ besteht keine Verbindung.
- Dieser Graph ist für die iterative symbolweise Decodierung nicht sonderlich gut geeignet. Die VNs $V_5, \ \text{...}\hspace{0.05cm} , \ V_8$ sind jeweils nur mit einem CN verbunden, was für die Decodierung keine Information liefert.
- Im rechten Tanner–Graph für den regulären Code erkennt man, dass hier von jedem Variable Node $V_i$ zwei Verbindungslinien (englisch: Edges) abgehen und von jedem Check Node $C_j$ deren vier. Damit ist bei der Decodierung in jeder Iterationsschleife ein Informationsgewinn möglich.
- Man erkennt zudem, dass hier beim Übergang vom irregulären zum äquivalenten regulären Code der Einsen–Anteil zunimmt, im Beispiel von $37.5\%$ auf $50\%$. Diese Aussage kann allerdings nicht verallgemeinert werden.
Iterative Decodierung von LDPC–Codes
Als Beispiel für die iterative LDPC–Decodierung wird nun der so genannte Message–passing Algorithm beschrieben. Wir verdeutlichen diesen anhand des rechten Tanner–Graphen im $\text{Beispiel 3}$ auf der vorherigen Seite und damit für die dort angegebene reguläre Prüfmatrix.
$\text{Prinzip:}$ Beim Message–passing Algorithm erfolgt abwechselnd (oder iterativ) ein Informationsaustausch zwischen den Variable Nodes (VNs) $V_1, \ \text{...}\hspace{0.05cm} , \ V_n$ und den Check Nodes (CNs) $C_1 , \ \text{...}\hspace{0.05cm} , \ C_m$.
Für das betrachtete Beispiel gilt:
- Es gibt $n = 8$ Variable Nodes und $m = 4$ Check Nodes . Da ein regulärer LDPC–Code vorliegt, gehen von jedem Variable Node $d_{\rm V} = 2$ Verbindungslinien zu einem Check Node und jeder Check Node ist mit $d_{\rm C} = 4$ Variable Nodes verbunden.
- Der Variable Node Degree $d_{\rm V}$ ist gleich dem Hamming–Gewicht einer jeden Spalte $(w_{\rm S})$ und für den Check Node Degree gilt: $d_{\rm C} = w_{\rm Z}$ (Hamming–Gewicht einer jeden Zeile).
- In der folgenden Beschreibung verwenden wir auch die Begriffe Nachbarn eines Variable Nodes ⇒ $N(V_i)$ sowie Nachbarn eines Check Nodes ⇒ $N(C_j)$, wobei wir uns hier auf implizite Definitionen beschränken:
- \[N(V_1) = \{ C_1, C_2\}\hspace{0.05cm}, \hspace{0.3cm}N(V_2) = \{ C_3, C_4\}\hspace{0.05cm}, \hspace{0.05cm}.\hspace{0.05cm}.\hspace{0.05cm}.\hspace{0.15cm},\hspace{0.3cm}N(V_8) = \{ C_1, C_4\}\hspace{0.05cm},\]
- \[N(C_1) = \{ V_1, V_4, V_5, V_8\}\hspace{0.05cm}, \hspace{0.05cm}.\hspace{0.05cm}.\hspace{0.05cm}.\hspace{0.15cm}\hspace{0.05cm}, \hspace{0.3cm}N(C_4) = \{ V_2, V_3, V_6, V_8\}\hspace{0.05cm}.\]
$\text{Beispiel 4:}$ Die Skizze aus [Liv15][2] zeigt den Austausch von Information zwischen dem Variable Node $V_i$ und dem Check Node $C_j$ – ausgedrückt durch Log–Likelihood Ratios (kurz: $L$–Werte).
Der Informationsaustausch geschieht in zwei Richtungen:
- $L(V_i → C_j)$: Extrinsische Information aus $V_i$–Sicht, Apriori–Information aus $C_j$–Sicht.
- $L(C_j → V_i)$: Extrinsische Information aus $C_j$–Sicht, Apriori–Information aus $V_i$–Sicht.
Die Beschreibung des Decodieralgorithmus wird fortgesetzt:
Initialisierung: Zu Beginn der Decodierung erhalten die Variable Nodes (VNs) keine Apriori–Information von den Check Nodes (CNs), und es gilt für $1 ≤ i ≤ n \text{:}$
- $$L(V_i → C_j) = L_{\rm K}(V_i).$$
Wie aus der Grafik am Seitenbeginn ersichtlich, ergeben sich diese Kanal–$L$–Werte $L_{\rm K}(V_i)$ aus den Empfangswerten $y_i$.
Check Node Decoder: Jeder Knoten $C_j$ repräsentiert eine Prüfgleichung. So steht $C_1$ für die Gleichung $V_1 + V_4 + V_5 + V_8 = 0$. Man erkennt den Zusammenhang zur extrinsischen Information bei der symbolweisen Decodierung des Single Parity–check Codes.
In Analogie zur Seite Zur Berechnung der extrinsischen L–Werte und zur Aufgabe 4.4 gilt somit für den extrinsischen $L$–Wert von $C_j$ und gleichzeitig für die Apriori–Information bezüglich $V_i$:
- \[L(C_j \rightarrow V_i) = 2 \cdot {\rm tanh}^{-1}\left [ \prod\limits_{V \in N(C_j)\hspace{0.05cm},\hspace{0.1cm} V \ne V_i} \hspace{-0.35cm}{\rm tanh}\left [L(V \rightarrow C_j \right ] /2) \right ] \hspace{0.05cm}.\]
Variable Node Decoder: Im Gegensatz zum Check Node Decoder (CND) besteht beim Variable Node Decoder (VND) eine Verwandtschaft zur Decodierung eines Repetition Codes, weil alle mit $V_i$ verbundenen Check Nodes $C_j$ demselben Bit entsprechen ⇒ dieses Bit wird quasi $d_{\rm V}$ mal wiederholt.
In Analogie zu zur Seite Zur Berechnung der extrinsischen L–Werte gilt für den extrinsischen $L$–Wert von $V_i$ und gleichzeitig für die Apriori–Information bezüglich $C_j$:
- \[L(V_i \rightarrow C_j) = L_{\rm K}(V_i) + \hspace{-0.55cm} \sum\limits_{C \hspace{0.05cm}\in\hspace{0.05cm} N(V_i)\hspace{0.05cm},\hspace{0.1cm} C \hspace{0.05cm}\ne\hspace{0.05cm} C_j} \hspace{-0.55cm}L(C \rightarrow V_i) \hspace{0.05cm}.\]
Das folgende Schaubild des beschriebenen Decodieralgorithmus' für LDPC–Codes zeigt Ähnlichkeiten mit der Vorgehensweise bei seriell verketteten Turbocodes.
- Um eine vollständige Analogie zwischen der LDPC– und der Turbodecodierung herzustellen, ist auch hier zwischen dem Variable Node Decoder (VND) und dem Check Node Decoder (CND) ein "Interleaver " sowie ein "De–Interleaver " eingezeichnet.
- Da es sich hierbei nicht um reale Systemkomponenten handelt, sondern nur um Analogien, haben wir diese Begriffe in Hochkommata gesetzt.
Leistungsfähigkeit regulärer LDPC–Codes
Wir betrachten nun wie in [Str14][3] fünf reguläre LDPC–Codes. Die Grafik zeigt die Bitfehlerrate $\rm (BER)$ abhängig vom AWGN–Parameter $10 \cdot {\rm lg} \, E_{\rm B}/N_0$. Zum Vergleich ist auch die Kurve für uncodierte Übertragung eingezeichnet.
Diese LDPC–Codes zeigen folgende Eigenschaften:
- Die Prüfmatrizen $\mathbf{H}$ weisen jeweils $n$ Spalten und $m = n/2$ linear voneinander unabhängige Zeilen auf. In jeder Zeile gibt es $w_{\rm Z} = 6$ Einsen und in jeder Spalte $w_{\rm S} = 3$ Einsen.
- Der Einsen–Anteil beträgt $w_{\rm Z}/n = w_{\rm S}/m$, so dass bei großer Codewortlänge $n$ die Klassifizierung "Low–density" gerechtfertigt ist. Für die rote Kurve $(n = 2^{10})$ beträgt der Einsen–Anteil $0.6\%$.
- Die Rate aller Codes beträgt $R = 1 - w_{\rm S}/w_{\rm Z} = 1/2$. Wegen der linearen Unabhängigkeit der Matrixzeilen gilt aber auch $R = k/n$ mit der Informationswortlänge $k = n - m = n/2$.
Aus der Grafik erkennt man:
- Die Bitfehlerrate ist um so kleiner, je länger der Code ist:
- Für $10 \cdot {\rm lg} \, E_{\rm B}/N_0 = 2 \ \rm dB$ und $n = 2^8 = 256$ ergibt sich ${\rm BER} \approx 10^{-2}$.
- Für $n = 2^{12} = 4096$ dagegen nur ${\rm BER} \approx 2 \cdot 10^{-7}$.
- Mit $n = 2^{15} = 32768$ (violette Kurve) benötigt man $10 \cdot {\rm lg} \, E_{\rm B}/N_0 \approx 1.35 \ \rm dB$ für ${\rm BER} = 10^{-5}$.
- Der Abstand von der Shannon–Grenze $(0.18 \ \rm dB$ für $R = 1/2$ und BPSK$)$ beträgt ca. $1.2 \ \rm dB$.
Die Kurven für $n = 2^8$ bis $n = 2^{10}$ weisen zudem auf einen Effekt hin, den wir schon bei den Turbocodes festgestellt haben:
- Zuerst fällt die BER–Kurve steil ab ⇒ "Waterfall Region".
- Danach folgt ein Knick und ein Verlauf mit deutlich geringerer Steigung ⇒ "Error Floor".
- Die qualitative untere Grafik verdeutlicht den Effekt, der natürlich nicht abrupt einsetzt (Übergang nicht eingezeichnet).
Ein (LDPC–) Code ist immer dann als gut zu bezeichnen, wenn
- die BER–Kurve nahe der Shannon–Grenze steil abfällt,
- der "Error Floor" bei sehr niedrigen BER–Werten liegt (Ursachen hierfür siehe nächste Seite, $\text{Beispiel 5)}$,
- die Anzahl der erforderlichen Iterationen handhabbar ist, und
- diese Eigenschaften nicht erst bei nicht mehr praktikablen Blocklängen erreicht werden.
Leistungsfähigkeit irregulärer LDPC–Codes
In diesem Kapitel wurden vorwiegend reguläre LDPC–Codes behandelt, auch im $\rm BER$–Diagramm auf der letzten Seite. Die Ignoranz der irregulären LDPC–Codes ist nur der Kürze dieses Kapitels geschuldet, nicht deren Leistungsfähigkeit. Im Gegenteil:
- Irreguläre LDPC–Codes gehören zu den besten Kanalcodes überhaupt.
- Das gelbe Kreuz in der Grafik liegt praktisch auf der informationstheoretischen Grenzkurve für binäre Eingangssignale (grüne Kurve, mit $\rm BPSK$ beschriftet).
- Die Codewortlänge dieses irregulären Rate–$1/2$–Codes von [CFRU01][4] beträgt $n = 2 \cdot 10^6$.
- Daraus ist schon ersichtlich, dass dieser Code nicht für den praktischen Einsatz gedacht war, sondern sogar für einen Rekordversuch getunt wurde.
Bei der LDPC–Codekonstruktion geht man ja stets von der Prüfmatrix $\mathbf{H}$ aus. Für den gerade genannten Code hat diese die Dimension $1 \cdot 10^6 × 2 \cdot 10^6$, beinhaltet also $2 \cdot 10^{12}$ Matrixelemente.
$\text{Fazit:}$ Füllt man die Matrix per Zufallsgenerator mit (wenigen) Einsen ⇒ "Low–density", so spricht man von unstrukturiertem Code–Design. Dies kann zu langen Codes mit guter Performance führen, manchmal aber auch zu folgenden Problemen:
- Die Komplexität des Coders kann zunehmen, da trotz Modifikation der Prüfmatrix $\mathbf{H}$ sichergestellt werden muss, dass die Generatormatrix $\mathbf{G}$ systematisch ist.
- Es erfordert eine aufwändige Hardware–Realisierung des iterativen Decoders.
- Es kommt zu einem "Error Floor" durch einzelne Einsen in einer Spalte (oder Zeile) sowie durch kurze Schleifen ⇒ siehe nachfolgendes Beispiel.
$\text{Beispiel 5:}$ Im linken Teil der Grafik ist der Tanner–Graph für einen regulären LDPC–Code mit der Prüfmatrix $\mathbf{H}_1$ dargestellt. Grün eingezeichnet ist ein Beispiel für die minimale Schleifenlänge (englisch: Girth). Diese Kenngröße gibt an, wieviele Kanten man mindestens durchläuft, bis man von einem Check Node $C_j$ wieder bei diesem landet $($oder von $V_i$ zu $V_i)$. Im linken Beispiel ergibt sich die minimale Kantenlänge $6$, zum Beispiel der Weg $C_1 → V_1 → C_3 → V_5 → C_2 → V_2 → C_1$.
Vertauscht man in der Prüfmatrix nur zwei Einsen ⇒ Matrix $\mathbf{H}_2$, so wird der LDPC–Code irregulär:
- Die minimale Schleifenlänge ist nun $4$, von $C_1 → V_4 → C_4 → V_6 → C_1$.
- Ein kleiner Girth führt zu einem ausgeprägten "Error Floor" im BER–Verlauf.
Einige Anwendungsgebiete für LDPC–Codes
Im nebenstehenden Schaubild sind im Vergleich zur AWGN–Kanalkapazität zwei Kommunikations–Standards eingetragen, die auf strukturierten (regulären) LDPC–Codes basieren.
Anzumerken ist, dass für die eingezeichneten standardisierten Codes die Bitfehlerrate ${\rm BER}=10^{-5}$ zugrunde liegt, während die Kapazitätskurven (entsprechend der Informationstheorie) für die Fehlerwahrscheinlichkeit "Null" gelten.
Rote Kreuze zeigen die LDPC–Codes nach CCSDS (Consultative Comittee for Space Data Systems), entwickelt für ferne Weltraummissionen:
- Diese Klasse stellt Codes der Rate $1/3$, $1/2$, $2/3$ und $4/5$ bereit.
- Alle Punkte liegen ca. $1 \ \rm dB$ rechts von der Kapazitätskurve für binären Eingang (grüne Kurve "BPSK").
Die blauen Rechtecke markieren die LDPC–Codes für DVB–T2/S2. Die Abkürzungen stehen für "Digital Video Broadcasting – Terrestrial" bzw. "Digital Video Broadcasting – Satellite", und die Kennzeichnung "$2$" macht deutlich, dass es sich jeweils um die zweite Generation (von 2005 bzw. 2009) handelt.
- Der Standard ist durch $22$ Prüfmatrizen definiert, die Raten von etwa $0.2$ bis zu $19/20$ zur Verfügung stellen.
- Je elf Varianten gelten für die Codelänge $64800$ Bit (Normal FECFRAME) bzw. $16200$ Bit (Short FECFRAME).
- Kombiniert mit Modulationsverfahren hoher Ordnung (8PSK, 16–ASK/PSK, ... ) zeichnen sich die Codes durch eine große spektrale Effizienz aus.
Die DVB–Codes gehören zu den Irregular Repeat Accumulate $\rm (IRA)$ Codes, die erstmals im Jahr 2000 in [JKE00][5] vorgestellt wurden.
Die Grafik zeigt die Grundstruktur des Coders.
- Der grün hinterlegte Teil – mit Repetition Code $\rm (RC)$, Interleaver, Single Parity–Code $\rm (SPC)$ sowie Akkumulator – entspricht exakt einem seriell–verketteten Turbocode ⇒ siehe RA–Coder.
- Die Beschreibung des IRA–Codes basiert aber allein auf der Prüfmatrix $\mathbf{H}$, die sich durch den irregulären Repetition Code in eine für die Decodierung günstige Form bringen lässt.
- Als äußerer Code wird zudem ein hochratiger BCH–Code (von $\rm B$ose–$\rm C$haudhuri–$\rm H$ocquenghem) verwendet, der den Error Floor herabsetzen soll.
In der Grafik am Seitenanfang nicht eingetragen sind
- die LDPC–Codes für den Standard DVB Return Channel Terrestrial (RCS),
- die LDPC–Codes für den WiMax–Standard (IEEE 802.16), sowie
- die LDPC–Codes für das 10GBASE–T–Ethernet,
die gewisse Ähnlichkeiten mit den IRA–Codes aufweisen.
Aufgaben zum Kapitel
Aufgabe 4.11: Analyse von Prüfmatrizen
Zusatzaufgabe 4.11Z: Coderate aus der Prüfmatrix
Aufgabe 4.12: Regulärer/irregulärer Tanner–Graph
Aufgabe 4.13: Decodierung von LDPC–Codes
Quellenverzeichnis
- ↑ Gallager, R. G.: Low-density parity-check codes. MIT Press, Cambridge, MA, 1963.
- ↑ 2.0 2.1 Liva, G.: Channels Codes for Iterative Decoding. Lecture notes, Chair of Communications Engineering, TU Munich and DLR Oberpfaffenhofen, 2015. Cite error: Invalid
<ref>
tag; name "Liv15" defined multiple times with different content - ↑ Strutz, T.: Low–density Parity–check Codes – Eine Einführung. Vorlesungsmaterial. Hochschule für Telekommunikation, Leipzig, 2014. PDF-Dokument PDF-Dokument.
- ↑ Chung S.Y; Forney Jr., G.D.; Richardson, T.J.; Urbanke, R.: On the Design of Low-Density Parity- Check Codes within 0.0045 dB of the Shannon Limit. – In: IEEE Communications Letters, vol. 5, no. 2 (2001), pp. 58–60.
- ↑ Jin, H.; Khandekar, A.; McEliece, R.: Irregular Repeat–Accumulate Codes. Proc. of the 2nd Int. Symp. on Turbo Codes and Related Topics, Best, France, S. 1–8., Sept. 2000.