Contents
- 1 AWGN–Modell für zeitdiskrete bandbegrenzte Signale
- 2 Die Kanalkapazität C als Funktion von ES/N0
- 3 Systemmodell zur Interpretation der AWGN–Kanalkapazität
- 4 Die Kanalkapazität C als Funktion von EB/N0
- 5 AWGN–Kanalkapazität für binäre Eingangssignale
- 6 Vergleich zwischen Theorie und Praxis
- 7 Kanalkapazität des komplexen AWGN–Kanals
- 8 Maximale Coderate für QAM–Strukturen
- 9 Aufgaben zum Kapitel
- 10 Quellenverzeichnis
AWGN–Modell für zeitdiskrete bandbegrenzte Signale
Am Ende des letzten Kapitels wurde das AWGN–Modell entsprechend der linken Grafik verwendet, gekennzeichnet durch die beiden Zufallsgrößen X und Y am Eingang und Ausgang sowie die stochastische Störung N als das Ergebnis eines mittelwertfreien Gaußschen Zufallsprozesses ⇒ „Weißes Rauschen” mit der Varianz σ2N. Die Störleistung PN ist ebenfalls gleich σ2N.
Die maximale Transinformation I(X;Y) zwischen Eingang und Ausgang ⇒ Kanalkapazität C ergibt sich dann, wenn eine Gaußsche Eingangs–WDF fX(x) vorliegt. Mit der Sendeleistung PX=σ2X ⇒ Varianz der Zufallsgröße X lautet die Kanalkapazitätsgleichung:
- C=1/2⋅log2(1+PX/PN).
Nun beschreiben wir das AWGN–Kanalmodell gemäß dem rechts skizzierten Fall, dass am Kanaleingang die Folge 〈Xν〉 anliegt, wobei der Abstand zwischen aufeinander folgenden Werten TA beträgt. Diese Folge ist das zeitdiskrete Äquivalent des zeitkontinuierlichen Signals X(t) nach Bandbegrenzung und Abtastung. Der Zusammenhang zwischen beiden Modellen kann anhand der folgenden Grafik hergestellt werden, die nachfolgend genauer beschrieben wird.
Die wesentlichen Erkenntnisse vorneweg:
- Beim rechten Modell gilt zu den Abtastzeitpunkten ν·TA genau der gleiche Zusammenhang Yν=Xν+Nν wie beim bisherigen (linken) Modell.
- Die Störkomponente Nν ist nun durch (auf ±B) bandbegrenztes Weißes Rauschen mit zweiseitiger Leistungsdichte ΦN(f)=N0/2 zu modellieren, wobei B=1/(2TA) gelten muss ⇒ siehe Abtasttheorem.
Interpretation:
Beim Modell gemäß der oberen Grafik gehen wir von einer unendlichen Folge 〈Xν〉 von Gaußschen Zufallsgrößen aus, die einem Diracpuls pδ(t) eingeprägt werden. Das resultierende zeitdiskrete Signal lautet somit:
- Xδ(t)=TA⋅+∞∑ν=−∞Xν⋅δ(t−ν⋅TA).
Der Abstand aller (gewichteten) Diracfunktionen ist einheitlich TA.
Durch das Interpolationsfilter mit der Impulsantwort h(t) sowie dem Frequenzgang H(f), wobei
- h(t)=1/TA⋅si(π⋅t/TA)∘−−−∙H(f)={10f¨ur|f|≤B,f¨ur|f|>B,B=1TA
gelten muss, entsteht das zeitkontinuierliche Signal X(t) mit folgenden Eigenschaften:
- Die Abtastwerte X(ν·TA) sind für alle ganzzahligen ν identisch mit den Eingangswerten Xν, was mit den äquidistanten Nullstellen der Spaltfunktion ⇒ si(x)=sin(x)/x begründet werden kann.
- Gemäß dem Abtasttheorem ist X(t) auf den Spektralbereich ±B ideal bandbegrenzt, wie die obige Rechnung gezeigt hat ⇒ rechteckförmiger Frequenzgang H(f) der einseitigen Bandbreite B.
Nach der Addition der Störung N(t) mit der (zweiseitigen) Leistungsdichte ΦN(t)=N0/2 folgt das Matched–Filter (MF) mit si–förmiger Impulsantwort. Für die Störleistung am MF–Ausgang erhält man:
- PN=E[N2ν]=N02TA=N0⋅B.
Beweis: Mit B=1/(2TA) erhält man für die Impulsantwort hE(t) und die Spektralfunktion HE(f):
- hE(t)=2B⋅si(2π⋅B⋅t)∘−−−∙HE(f)={10für|f|≤B,für|f|>B.
Daraus folgt entsprechend den Erkenntnissen der Stochastischen Systemtheorie:
- PN=∫+∞−∞ΦN(f)⋅|HE(f)|2df=∫+B−BΦN(f)df=N02⋅2B=N0⋅B.
Weiter gilt:
- Tastet man das MF–Ausgangssignal in äquidistanten Abständen TA ab, so ergibt sich für die Zeitpunkte ν·TA die gleiche Konstellation wie bisher: Yν=Xν+Nν.
- Der Störanteil Nν im zeitdiskreten Ausgangssignal Yν ist somit „bandbegrenzt” und „weiß”. Die Kanalkapazitätsgleichung muss somit nur geringfügig angepasst werden.
- Mit der Energie pro Symbol ES=PX⋅TA ⇒ Sende–Energie innerhalb einer Symboldauer TA; gilt dann:
- C=1/2⋅log2(1+PXN0⋅B)=1/2⋅log2(1+2⋅PX⋅TAN0)=1/2⋅log2(1+2⋅ESN0).
Die Kanalkapazität C als Funktion von ES/N0
Die obere Grafik zeigt den Verlauf der AWGN–Kanalkapazität in Abhängigkeit des Quotienten ES/N0, wobei die linke Koordinatenachse und die roten Beschriftungen gültig sind:
- C=1/2⋅log2(1+2⋅ESN0)Einheit:bit/Kanalzugriff(englisch:bit/channeluse).
Die Einheit wird manchmal auch mit „bit/Quellensymbol” oder kurz „bit/Symbol” bezeichnet.
Die rechte (blaue) Achsenbeschriftung berücksichtigt die Beziehung B=1/(2TA) und liefert somit eine obere Schranke für die Bitrate R eines Digitalsystems, die bei diesem AWGN–Kanal noch möglich ist.
- C∗=CTA=B⋅log2(1+2⋅ESN0)Einheit:bit/Sekunde.
Meist gibt man den Quotienten aus Symbolenergie (ES) und AWGN–Rauschleistungsdichte (N0) in logarithmischer Form an. Die untere Grafik zeigt die Kanalkapazitäten C bzw. C∗ als Funktion von 10·lg(ES/N0) im Bereich von –20 dB bis +30 dB. Ab etwa 10 dB ergibt sich ein (nahezu) linearer Verlauf.
Systemmodell zur Interpretation der AWGN–Kanalkapazität
Um das Kanalcodierungstheorem im Zusammenhang mit dem AWGN–Kanal besprechen zu können, benötigen wir noch eine „Codiervorrichtung”, die allerdings informationstheoretisch vollständig durch die Coderate R gekennzeichnet wird.
Die Grafik beschreibt das von Shannon betrachtete Nachrichtensystem mit den Blöcken Quelle, Coder, (AWGN–)Kanal, Decoder und Empfänger. Im Hintergrund erkennt man ein Originalbild aus einem Shannon–Aufsatz zu diesem Thema. Rot eingezeichnet sind einige Bezeichnungen und Erläuterungen für den folgenden Text:
- Das Quellensymbol U entstammt einem Alphabet mit MU=|U|=2k Symbolen und kann durch k gleichwahrscheinliche statistisch unabhängige Binärsymbole repräsentiert werden.
- Das Alphabet des Codesymbols X hat den Symbolumfang MX=|X|=2n, wobei sich n aus der Coderate R=k/n ergibt. Für R=1 gilt somit n=k.
- Der Fall n>k führt zu einer Coderate R<1 und aus n<k folgt für die Coderate R>1.
Das Kanalcodierungstheorem besagt, dass es (mindestens) einen Code der Rate R gibt, der zur Symbolfehlerwahrscheinlichkeit pS=Pr(V≠U)≡0 führt, falls folgende Bedingungen erfüllt sind:
- Die Coderate R ist nicht größer als die Kanalkapazität C.
- Ein solcher geeigneter Code ist unendlich lang: n→∞, das heißt, dass die Zufallsgröße X am Kanaleingang wertkontinuierlich ist. Gleiches gilt für U sowie für die Zufallsgrößen Y und V nach dem AWGN–Kanal.
- Wegen n→∞ ist auch tatsächlich eine Gaußverteilung fX(x) am Kanaleingang möglich, die der bisherigen Berechnung der AWGN–Kanalkapazität stets zugrunde gelegt wurde:
- C=1/2⋅log2(1+2⋅ESN0)Einheit:bit/Kanalzugriff(englisch:bit/channeluse).
- Für einen Systemvergleich ist die Energie pro Symbol (ES) ungeeignet. Ein Vergleich sollte vielmehr auf der Energie EB pro Informationsbit ⇒ kurz: Energie pro Bit; basieren. Mit EB=ES/R gilt somit auch:
- C=1/2⋅log2(1+2⋅R⋅EBN0)Einheit:bit/Kanalzugriff(englisch:bit/channeluse).
Diese beiden Gleichungen werden auf der nächsten Seite diskutiert.
Die Kanalkapazität C als Funktion von EB/N0
Die folgende Grafik zeigt die AWGN–Kanalkapazität C als Funktion
- von 10·lg(ES/N0) ⇒ roter Kurvenverlauf:
- C=1/2⋅log2(1+2⋅ESN0)Einheit:bit/Kanalzugriff(oder:bit/Symbol).
- Rote Zahlen: Kapazität C in „bit/Symbol” für 10·lg(ES/N0)=–20 dB,–15 dB, ... , +30 dB.
- von 10·lg(EB/N0) ⇒ grüner Kurvenverlauf:
- C=1/2⋅log2(1+2⋅R⋅EBN0)Einheit:bit/Kanalzugriff(oder:bit/Symbol).
- Grüne Zahlen: Erforderliches 10·lg(EB/N0) in „dB” für C=0,1, ... , 5 in „bit/Symbol”.
Die C(EB/N0)–Berechnung finden Sie in der Aufgabe 4.8 und der zugehörigen Musterlösung. Im Folgenden interpretieren wir das Ergebnis im Vergleich zur C(ES/N0)–Kurve:
- Wegen ES=R·EB liegt der Schnittpunkt beider Kurven bei C(=R)=1 (bit/Symbol). Erforderlich sind dazu 10·lg(ES/N0)=1.76 dB bzw. 10·lg(EB/N0)=1.76 dB.
- Im Bereich C>1 liegt die grüne Kurve stets über der roten. Beispielsweise ergibt sich für 10·lg(EB/N0)=20 dB die Kanalkapazität C≈5, für 10·lg(ES/N0)=20dB nur C=3.83.
- Ein Vergleich in horizontaler Richtung zeigt, dass die Kanalkapazität C=3 bit/Symbol schon mit 10·lg(EB/N0)≈10 dB erreichbar ist, man aber 10·lg(ES/N0)≈15 dB benötigt.
- Im Bereich C<1 liegt die rote Kurve stets über der grünen. Für ES/N0>0 gilt auch C>0. Bei logarithmischer Abszisse wie im obigen Bild reicht somit die rote Kurve bis ins „Minus–Unendliche”.
- Dagegen endet die grüne Kurve bei EB/N0=ln(2)=0.693 ⇒ 10·lg(EB/N0)=−1.59 dB ⇒ absolute Grenze für die (fehlerfreie) Übertragung über den AWGN–Kanal.
AWGN–Kanalkapazität für binäre Eingangssignale
Auf den bisherigen Seiten dieses Kapitels wurde stets entsprechend der Shannon–Theorie von einem gaußverteilten und damit wertkontinuierlichem AWGN–Eingang X ausgegangen. Nun betrachten wir den binären Fall und werden somit der Kapitel–Überschrift „AWGN–Kanalkapazität bei wertdiskretem Eingang” gerecht.
Die Grafik zeigt das zugrundeliegende Blockschaltbild für Binary Phase Shift Keying (BPSK) mit binärem Eingang U und ebenfalls binärem Ausgang V. Durch eine bestmögliche Codierung soll erreicht werden, dass die Fehlerwahrscheinlichkeit Pr(V≠U) verschwindend klein wird.
- Der Coderausgang ist gekennzeichnet durch die binäre Zufallsgröße X′={0,1} ⇒ MX′=2, während der Ausgang Y des AWGN–Kanals weiterhin wertkontinuierlich ist: MY→∞.
- Durch das Mapping X=1–2X′ kommt man von der unipolaren Darstellung zu der für BPSK besser geeigneten bipolaren (antipodalen) Beschreibung: X′=0→ X=+1;X′=1→X=–1.
- Der AWGN–Kanal ist hier durch die beiden bedingten Wahrscheinlichkeitsdichtefunktionen charakterisiert:
- fY|X(y|X=+1)=1√2πσ2⋅exp[−(y−1)22σ2)],
- fY|X(y|X=−1)=1√2πσ2⋅exp[−(y+1)22σ2)]
- In Kurzform: fY|X(y|+1) bzw. fY|X(y|–1).
- Da hier das Nutzsignal X auf ±1 normiert ist ⇒ Leistung 1 anstelle von PX, muss die Varianz des AWGN–Rauschens N in gleicher Weise normiert werden: σ2=PN/PX.
- Der Empfänger trifft aus der reellwertigen Zufallsgröße Y (am AWGN–Kanalausgang) eine Maximum–Likelihood–Entscheidung. Der Empfängerausgang V ist binär (0 oder 1).
Ausgehend von diesem Modell wird nun die Kanalkapazität des AWGN–Kanals berechnet. Diese lautet bei einer binären Eingangsgröße X allgemein unter Berücksichtigung von Pr(X=−1)=1−Pr(X=+1):
- CBPSK=max
Aufgrund des symmetrischen Kanals ist offensichtlich, dass die Eingangswahrscheinlichkeiten
- {\rm Pr}(X =+1) = {\rm Pr}(X =-1) = 0.5
zum Optimum führen werden. Gemäß der Seite Transinformationsberechnung bei additiver Störung gibt es mehrere Berechnungsmöglichkeiten:
- \begin{align*}C_{\rm BPSK} & = h(X) + h(Y) - h(XY)\hspace{0.05cm},\\ C_{\rm BPSK} & = h(Y) - h(Y|X)\hspace{0.05cm},\\ C_{\rm BPSK} & = h(X) - h(X|Y)\hspace{0.05cm}. \end{align*}
Alle Ergebnisse sind noch um die Pseudo–Einheit „bit” zu ergänzen. Wir wählen hier die mittlere Gleichung:
- Die hierfür benötigte bedingte differentielle Entropie ist gleich
- h(Y|X) = h(N) = 1/2 \cdot {\rm log}_2 \hspace{0.1cm}(2\pi{\rm e}\cdot \sigma^2) \hspace{0.05cm}.
- Die differentielle Entropie h(Y) ist vollständig durch die WDF f_Y(y) gegeben. Mit den vorne definierten und skizzierten bedingten Wahrscheinlichkeitsdichtefunktionen erhält man:
- f_Y(y) = {1}/{2} \cdot \left [ f_{Y|{X}}(y\hspace{0.05cm}|{X}=-1) + f_{Y|{X}}(y\hspace{0.05cm}|{X}=+1) \right ]\hspace{0.3cm} \Rightarrow \hspace{0.3cm} h(Y) \hspace{-0.01cm}=\hspace{0.05cm} -\hspace{-0.7cm} \int\limits_{y \hspace{0.05cm}\in \hspace{0.05cm}{\rm supp}(f_Y)} \hspace{-0.65cm} f_Y(y) \cdot {\rm log}_2 \hspace{0.1cm} [f_Y(y)] \hspace{0.1cm}{\rm d}y \hspace{0.05cm}.
Es ist offensichtlich, dass h(Y) nur durch numerische Integration ermittelt werden kann, insbesondere, wenn man berücksichtigt, dass sich im Überlappungsbereich f_Y(y) aus der Summe der beiden bedingten Gauß–Funktionen ergibt.
In der folgenden Grafik sind über der Abszisse 10 · \lg (E_{\rm B}/N_0) drei Kurven dargestellt:
- die blau gezeichnete Kanalkapazität C_{\rm Gauß}, gültig für eine Gaußsche Eingangsgröße X ⇒ M_X → ∞,
- die grün gezeichnete Kanalkapazität C_{\rm BPSK} für die Zufallsgröße X = (+1, –1), sowie
- die mit „BPSK ohne Codierung” bezeichnete rote Horizontale.
Diese Kurvenverläufe sind wie folgt zu interpretieren:
- Die grüne Kurve C_{\rm BPSK} gibt die maximal zulässige Coderate R einer BPSK an, bei der für das gegebene E_{\rm B}/N_0 durch bestmögliche Codierung die Bitfehlerwahrscheinlichkeit p_{\rm B} \equiv 0 möglich ist.
- Für alle BPSK–Systeme mit den Koordinaten (10 · \lg (E_{\rm B}/N_0), R) im „grünen Bereich” ist p_{\rm B} \equiv 0 prinzipiell erreichbar. Aufgabe der Nachrichtentechniker ist es, hierfür geeignete Codes zu finden.
- Die BPSK–Kurve liegt stets unter der absoluten Shannon–Grenzkurve C_{\rm Gauß} für M_X → ∞. Im unteren Bereich gilt C_{\rm BPSK} ≈ C_{\rm Gauß}. Zum Beispiel muss ein BPSK–System mit R = 1/2 nur ein um 0.1 dB größeres E_{\rm B}/N_0 bereitstellen, als es die (absolute) Kanalkapazität C_{\rm Gauß} fordert.
- Ist E_{\rm B}/N_0 endlich, so gilt stets C_{\rm BPSK} < 1 ⇒ sieheZusatzaufgabe 4.9Z. Eine BPSK mit R = 1 (und somit ohne Codierung) wird also stets eine Bitfehlerwahrscheinlichkeit p_{\rm B} > 0 zur Folge haben.
- Die Fehlerwahrscheinlichkeiten eines solchen BPSK–Systems ohne Codierung (mit R = 1) sind auf der roten Horizontalen angegeben. Um p_{\rm B} ≤ 10^{–5} zu erreichen, benötigt man mindestens 10 · \lg (E_{\rm B}/N_0) = 9.6 dB.
Die Wahrscheinlichkeiten ergeben sich gemäß Kapitel Fehlerwahrscheinlichkeit des optimalen BPSK-Systems im Buch „Digitalsignalübertragung” zu
- p_{\rm B} = {\rm Q} \left ( \sqrt{S \hspace{-0.06cm}N\hspace{-0.06cm}R}\right ) \hspace{0.45cm} {\rm mit } \hspace{0.45cm} S\hspace{-0.06cm}N\hspace{-0.06cm}R = 2\cdot E_{\rm B}/{N_0} \hspace{0.05cm}.
Hinweis: In obiger Grafik ist als zweite, zusätzliche Abszissenachse 10 · \lg (SNR) eingezeichnet. Die Funktion{\rm Q}(x) bezeichnet man als die komplementäre Gaußsche Fehlerfunktion.
Vergleich zwischen Theorie und Praxis
Anhand zweier Grafiken soll gezeigt werden, in wie weit sich etablierte Kanalcodes der BPSK–Kanalkapazität (grüne Kurve) annähern. Als Ordinate aufgetragen ist die Rate R = k/n dieser Codes bzw. die Kapazität C (wenn noch die Pseudo–Einheit „bit/Kanalzugriff” hinzugefügt wird). Vorausgesetzt ist:
- der AWGN–Kanal, gekennzeichnet durch 10 · \lg (E_{\rm B}/N_0) in dB, und
- für die durch Kreuze markierten realisierten Codes eine Bitfehlerrate (BER) von 10^{–5}.
Zu beachten ist, dass die Kanalkapazitätskurven stets für n → ∞ und \rm BER \equiv 0 gelten. Würde man diese strenge Forderung „feherfrei” auch an die betrachteten Kanalcodes endlicher Codelänge n anlegen, so wäre hierfür stets 10 · \lg (E_{\rm B}/N_0) \to \infty erforderlich. Dies ist aber ein eher akademisches Problem, das für die Praxis weniger Bedeutung hat. Für \text{BER} = 10^{–10} ergäbe sich eine qualitativ ähnliche Grafik.
Es folgen einige Erläuterungen zu den Daten, die der Vorlesung [Liv10][1] entnommen wurden. Die folgenden Links beziehen sich oft auf das LNTwww–Buch Kanalcodierung.
- Die Punkte A, B und C markieren Hamming–Codes der Raten R = 4/7 ≈ 0.57, R ≈ 0.73 bzw. R ≈ 0.84. Für \text{BER} = 10^{–5} benötigen diese sehr frühen Codes (aus dem Jahr 1950) alle 10 · \lg (E_{\rm B}/N_0) > 8 dB.
- Die Markierung D kennzeichnet den binären Golay–Code mit der Rate R = 1/2 und der Punkt E einen Reed–Muller–Code. Dieser sehr niederratige Code kam bereits 1971 bei der Raumsonde Mariner 9 zum Einsatz.
- Die Reed–Solomon–Codes (RS–Codes, ca. 1960) sind eine Klasse zyklischer Blockcodes. F markiert einen RS–Code der Rate 223/255 > 0.9 und einem erforderlichen E_{\rm B}/N_0 < 6 dB.
- Die Punkte G und H bezeichnen zwei Faltungscodes (englisch: Convolutional Codes, CC) mittlerer Rate. Der Code G wurde schon 1972 bei der Pioneer10–Mission eingesetzt.
- Die Kanalcodierung der Voyager–Mission Ende der 1970er Jahre ist mit I markiert. Es handelt sich um die Verkettung eines (2, 1, 7)–Faltungscodes mit einem RS–Code.
Anzumerken ist, dass bei den Faltungscodes der dritte Kennungsparameter eine andere Bedeutung hat als bei den Blockcodes. Die Kennung (2, 1, 32) weist beispielsweise auf das Memory m = 32 hin.
Kenndaten von neueren Systemen mit iterativer Decodierung
Die gerade genannten frühen Kanalcodes liegen noch relativ weit von der Kanalkapazitätskurve entfernt. Dies war wahrscheinlich auch ein Grund, warum dem Autor dieses Lerntutorials die auch große praktische Bedeutung der Informationstheorie verschlossen blieb, als er diese Anfang der 1970er Jahre im Studium kennenlernte.
Diese Sichtweise hat sich deutlich verändert, als in den 1990er Jahren sehr lange Kanalcodes zusammen mit iterativer Decodierung aufkamen. Die neuen Markierungspunkte liegen näher an der Kapazitätsgrenz kurve.
Hier noch einige Erläuterungen zu dieser Grafik:
- Rote Kreuze markieren sog. Turbo–Codes nach CCSDS (Consultative Committee for Space Data Systems) mit jeweils k = 6920 Informationsbits und unterschiedlichen Codelängen n = k/R. Diese von Claude Berrou um 1990 erfundenen Codes können iterativ decodiert werden. Die (roten) Markierungen liegen jeweils weniger als 1 dB von der Shannon–Grenze entfernt.
- Ähnlich verhalten sich die LDPC–Codes (Low Density Parity–check Codes) mit konstanter Codelänge n = 64800 ⇒ weiße Rechtecke). Sie werden seit 2006 bei DVB–S2 (Digital Video Broadcast over Satellite) eingesetzt und eignen sich aufgrund der spärlichen Einsen–Belegung der Prüfmatrix sehr gut für die iterative Decodierung mittels Faktor–Graphen und Exit Charts.
- Schwarze Punkte markieren die von CCSDS spezifizierten LDPC–Codes mit konstanter Anzahl an Informationsbits (k = 16384) und variabler Codewortlänge n = k/R. Diese Codeklasse erfordert ein ähnliches E_{\rm B}/N_0 wie die roten Kreuze und die weißen Rechtecke.
Um die Jahrhundertwende hatten viele Forscher den Ehrgeiz, sich der Shannon–Grenze bis auf Bruchteile von einem dB anzunähern. Das gelbe Kreuz markiert ein derartiges Ergebnis (0.0045 dB) von Chung et al. aus dem Jahr 2001. Verwendet wurde ein irregulärer LDPC–Code mit Rate 1/2 und Codelänge 10^7.
An dieser Stelle soll nochmals die Brillianz und der Weitblick von Claude E. Shannon hervorgehoben werden:
- Er hat 1948 eine bis dahin nicht bekannte Theorie entwickelt, mit der die Möglichkeiten, aber auch die Grenzen der Digitalsignalübertragung aufgezeigt werden.
- Zu dieser Zeit waren die ersten Überlegungen zur digitalen Nachrichtenübertragung gerade mal zehn Jahre alt ⇒ Pulscodemodulation (Alec Reeves, 1938) und selbst der Taschenrechner kam erst mehr als zwanzig Jahre später.
- Shannon's Arbeiten zeigen uns, dass man auch ohne gigantische Computer Großes leisten kann.
Kanalkapazität des komplexen AWGN–Kanals
Höherstufige Modulationsverfahren können jeweils durch eine Inphase– und eine Quadraturkomponente dargestellt werden. Hierzu gehören zum Beispiel
- die M–QAM ⇒ Quadraturamplitudenmodulation; M ≥ 4 quadratisch angeordnete e Signalraumpunkte,
- die M–PSK ⇒ M ≥ 4 Signalraumpunkte in kreisförmiger Anordnung
Die beiden Komponenten lassen sich im äquivalenten Tiefpassbereich auch als Realteil bzw. Imaginärteil eines komplexen Rauschterms N beschreiben.
Alle oben genannten Verfahren sind zweidimensional. Der (komplexe) AWGN–Kanal stellt somit K = 2 voneinander unabhängige Gaußkanäle zur Verfügung. Entsprechend der Seite Parallele Gaußsche Kanäle ergibt sich deshalb für die Kapazität eines solchen Kanals:
- C_{\rm Gauss, \hspace{0.1cm}komplex}= C_{\rm Gesamt} ( K=2) = {\rm log}_2 \hspace{0.1cm} ( 1 + \frac{P_X/2}{\sigma^2}) \hspace{0.05cm}.
- Hierbei wird die gesamte Nutzleistung von Inphase– und Quadraturkomponente mit P_X bezeichnet.
- Dagegen bezieht sich die Varianz σ^2 der Störung nur auf eine Dimension: σ^2 = σ_I^2 = σ_Q^2.
Die Abbildung zeigt die 2D–WDF f_N(n) des Gaußschen Rauschprozesses N über den beiden Achsen
- N_{\rm I} (Inphase–Anteil, Realteil) und
- N_{\rm Q} (Quadraturanteil, Imaginärteil).
Dunklere Bereiche der rotationssymmetrischen WDF f_N(n) um den Nullpunkt weisen auf mehr Störanteile hin. Für die Varianz des komplexen Gaußschen Rauschens N gilt aufgrund der Rotationsinvarianz (σ_{\rm I} = σ_{\rm Q}) folgender Zusammenhang:
- \sigma_N^2 = \sigma_{\rm I}^2 + \sigma_{\rm Q}^2 = 2\cdot \sigma^2 \hspace{0.05cm}.
Damit lässt sich die Kanalkapazität auch wie folgt ausdrücken:
- C_{\rm Gauss, \hspace{0.1cm}komplex}= {\rm log}_2 \hspace{0.1cm} ( 1 + \frac{P_X}{\sigma_N^2}) = {\rm log}_2 \hspace{0.1cm} ( 1 + SNR) \hspace{0.05cm}.
Diese Gleichung wird auf der nächsten Seite numerisch ausgewertet. Bereits aus dieser Gleichung ist aber zu ersehen, dass für das Signal–zu–Störleistungsverhältnis gelen wird: SNR = {P_X}/{\sigma_N^2} \hspace{0.05cm}.
Maximale Coderate für QAM–Strukturen
Die Grafik zeigt die Kanalkapazität des komplexen AWGN–Kanals als rote Kurve:
- C_{\rm Gauss, \hspace{0.1cm}komplex}= {\rm log}_2 \hspace{0.1cm} ( 1 + SNR) \hspace{0.05cm}.
- Die Einheit dieser Kanalkapazität ist „bit/Kanalzugriff” oder „bit/Quellensymbol”.
- Als Abszisse ist der Signal–zu–Störleistungsverhältnis 10 · \lg (SNR) mit {SNR} = P_X/σ_N^2 aufgetragen.
- Die Grafik wurde [Göb10][2] entnommen. Wir danken Bernhard Göbel, unserem ehemaligen Kollegen am LNT, für sein Einverständnis, diese Abbildung verwenden zu dürfen, sowie für seine Unterstützung unseres Lerntutorials.
Die rote Kurve basiert entsprechend der Shannon–Theorie wieder auf einer Gaußverteilung f_X(x) am Eingang. Zusätzlich eingezeichnet sind zehn weitere Kapazitätskurven für wertdiskreten Eingang:
- die Kurve für Binary Phase Shift Keying (BPSK, mit „1” markiert ⇒ K = 1),
- die M–stufige Quadratur–Amplitudenmodulation (mit M = 2^K, K = 2, ... , 10).
Man erkennt aus dieser Darstellung:
- Alle Kurven (BPSK undM–QAM liegen rechts von der roten Shannon–Grenzkurve. Bei kleinem SNR sind allerdings alle Kurven von der roten Kurve fast nicht mehr zu unterscheiden.
- Der Endwert aller Kurven für wertdiskrete Eingangssignale ist K = \log_2 (M). Für SNR \to ∞ erhält man beispielsweise C_{\rm BPSK} = 1 bit/Symbol sowie C_{\rm 4-QAM} = C_{\rm QPSK} = 2 bit/Symbol.
- Die blauen Markierungen zeigen, dass eine 2^{10}–QAM mit 10 · \lg (SNR) ≈ 27 dB eine Coderate von R ≈ 8.2 ermöglicht. Der Abstand zur Shannon–Kurve beträgt hier 1.53 dB.
- Man spricht hier von einem Shaping Gain von 10 · \lg (π{\rm e}e/6) = 1.53 dB. Diese Verbesserung lässt sich erzielen, wenn man die Lage der 2^{10} = 32^2 quadratisch angeordneten Signalraumpunkte so ändern würde, dass sich eine gaußähnliche Eingangs–WDF ergibt ⇒ Signal Shaping.
In der Aufgabe 4.10 werden die AWGN–Kapazitätskurven von BPSK und QPSK diskutiert:
- Ausgehend von der Abszisse 10 · \lg (E_{\rm B}/N_0) mit der Energie E_{\rm B} pro Informationsbit kommt man zur QPSK–Kurve durch Verdopplung der BPSK–Kurve:
- C_{\rm QPSK}[10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm B}/{N_0})] = 2 \cdot C_{\rm BPSK}[10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm B}/{N_0}) ] .
- Vergleicht man aber BPSK und QPSK bei gleicher Energie E_{\rm S} pro Informationssymbol , so gilt:
- C_{\rm QPSK}[10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm S}/{N_0})] = 2 \cdot C_{\rm BPSK}[10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm S}/{N_0}) - 3\,{\rm dB}] .
- Hierbei ist berücksichtigt, dass bei QPSK die Energie in einer Dimension nur E_{\rm S}/2 beträgt.
Aufgaben zum Kapitel
Aufgabe 4.8: Numerische Auswertung der AWGN-Kanalkapazität
Zusatzaufgabe 4.8Z: Was sagt die AWGN-Kanalkapazitätskurve aus?
Aufgabe 4.9: Höherstufige Modulation
Zusatzaufgabe 4.9Z: 4.9Z Ist bei BPSK die Kanalkapazität C ≡ 1 möglich?
Aufgabe 4.10: QPSK–Kanalkapazität
Quellenverzeichnis
4.3 AWGN & wertdiskreter Eingang
4.8 Numerische Auswertung der AWGN-Kanalkapazität 4.8Z Was sagt die AWGN-Kanalkapazitätskurve aus? 4.9 Höherstufige Modulation 4.9Z Ist bei BPSK die Kanalkapazität C ≡ 1 möglich? 4.Zehn QPSK–Kanalkapazität
- ↑ Liva, G.: Channel Coding. Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010.
- ↑ Göbel, B.: Information–Theoretic Aspects of Fiber–Optic Communication Channels. Dissertation. TU München. Verlag Dr. Hut, Reihe Informationstechnik, ISBN 978-3-86853-713-0, 2010.