Difference between revisions of "Digital Signal Transmission/Structure of the Optimal Receiver"

From LNTwww
Line 404: Line 404:
 
{\rm \hspace{0.15cm}Mittelwert\hspace{0.15cm}}\mu {\rm , \hspace{0.15cm}Varianz\hspace{0.15cm}}\sigma^2 \hspace{0.05cm},</math>
 
{\rm \hspace{0.15cm}Mittelwert\hspace{0.15cm}}\mu {\rm , \hspace{0.15cm}Varianz\hspace{0.15cm}}\sigma^2 \hspace{0.05cm},</math>
 
:<math>y \hspace{-0.1cm}  =  \hspace{-0.1cm}{\cal CN}(\mu, \sigma^2)\hspace{-0.1cm}: \hspace{0.07cm}{\rm komplexe \hspace{0.15cm}gaussverteilte \hspace{0.15cm}ZG} \hspace{0.05cm}.</math>
 
:<math>y \hspace{-0.1cm}  =  \hspace{-0.1cm}{\cal CN}(\mu, \sigma^2)\hspace{-0.1cm}: \hspace{0.07cm}{\rm komplexe \hspace{0.15cm}gaussverteilte \hspace{0.15cm}ZG} \hspace{0.05cm}.</math>
 
 
 
 
 
 
 
 
 
 
  
 
==  Aufgaben ==
 
==  Aufgaben ==
 
<br>
 
<br>
[[Aufgaben:5.7 Rechteck-Matched-Filter|A5.7 Rechteck-Matched-Filter]]
+
[[Aufgaben:4.4 MAP– und ML–Empfänger|A4.4 MAP– und ML–Empfänger]]
 
 
[[Zusatzaufgaben:5.7 Matched-Filter - alles gaußisch]]
 
 
 
[[Aufgaben:5.8 Matched-Filter für farbige Störung|A5.8 Matched-Filter für farbige Störung]]
 
  
[[Zusatzaufgaben:5.8 Matched-Filter bei Rechteck-LDS]]
+
[[Aufgaben:4.5 Theorem der Irrelevanz|A4.5 Theorem der Irrelevanz]]
  
 
{{Display}}
 
{{Display}}

Revision as of 14:30, 28 December 2016

Blockschaltbild und Voraussetzungen


In diesem Kapitel wird die Struktur des optimalen Empfängers eines digitalen Übertragungssystems sehr allgemein hergeleitet, wobei

  • das Modulationsverfahren und weitere Systemdetails nicht weiter spezifiziert werden,
  • von den Basisfunktionen und der Signalraumdarstellung gemäß Kapitel 4.1 ausgegangen wird..
Allgemeines Blockschaltbild eines Kommunikationssystems

Zum obigen Blockschaltbild ist anzumerken:

  • Der Symbolumfang der Quelle beträgt M und der Symbolvorrat ist {mi} mit i = 0, ... , M – 1. Die zugehörigen Symbolwahrscheinlichkeiten Pr(m = mi) seien auch dem Empfänger bekannt.
  • Zur Nachrichtenübertragung stehen M verschiedene Signalformen si(t) zur Verfügung, wobei für die Laufvariable ebenfalls die Indizierung i = 0, ... , M – 1 gelten soll.
  • Es besteht eine feste Beziehung zwischen den Nachrichten {mi} und den Signalen {si(t)}. Wird die Nachricht m = mi übertragen, so ist das Sendesignal s(t) = si(t).
  • Lineare Kanalverzerrungen sind in der obigen Grafik durch die Impulsantwort h(t) berücksichtigt. Außerdem ist ein (irgendwie geartetes) Rauschen n(t) wirksam.
  • Mit diesen beiden die Übertragung störenden Effekten lässt sich das am Empfänger ankommende Signal r(t) in folgender Weise angeben:
\[r(t) = s(t) \star h(t) + n(t) \hspace{0.05cm}.\]
  • Aufgabe des (optimalen) Empfängers ist es, anhand seines Eingangssignals r(t) herauszufinden, welche der M möglichen Nachrichten mi – bzw. welches der Signale si(t) – gesendet wurde.
  • Der vom Empfänger gefundene Schätzwert für m wird in Gleichungen durch ein „Circonflexe” (^) gekennzeichnet. Im Fließtext (HTML–Zeichensatz) ist diese Darstellung leider nicht möglich.
  • Man spricht von einem optimalen Empfänger, wenn die Symbolfehlerwahrscheinlichkeit den für die Randbedingungen kleinstmöglichsten Wert annimmt:
\[p_{\rm S} = {\rm Pr} ({\cal E}) = {\rm Pr} ( \hat{m} \ne m) \hspace{0.15cm} \Rightarrow \hspace{0.15cm}{\rm Minimum} \hspace{0.05cm}.\]

Hinweis: Im Folgenden wird meist r(t) = s(t) + n(t) vorausgesetzt, was bedeutet, dass h(t) = δ(t) als verzerrungsfrei angenommen wird. Andernfalls könnten wir die Signale si(t) als s'i(t) = si(t) ∗ h(t) neu definieren, also die deterministischen Kanalverzerrungen dem Sendesignal beaufschlagen.

Fundamentaler Ansatz zum optimalen Empfängerentwurf (1)


Gegenüber dem auf der vorherigen Seite gezeigten Blockschaltbild führen wir nun einige wesentliche Verallgemeinerungen durch:

  • Der Übertragungskanal wird durch die bedingte Wahrscheinlichkeitsdichtefunktion pr(t)|s(t) beschrieben, welche die Anhängigkeit des Empfangssignals r(t) vom Sendesignal s(t) festlegt.
  • Wurde nun ein ganz bestimmtes Signal r(t) = ρ(t) empfangen, so hat der Empfänger die Aufgabe, anhand dieses Signals ρ(t) sowie der M bedingten Wahrscheinlichkeitsdichtefunktionen
\[p_{r(t) | s(t) } (\rho(t) | s_i(t))\hspace{0.2cm}{\rm mit}\hspace{0.2cm} i = 0, ... \hspace{0.05cm}, M-1\]
unter Berücksichtigung aller möglichen Sendesignale si(t) und deren Auftrittswahrscheinlichkeiten Pr(m = mi) herauszufinden, welche der möglichen Nachrichten (mi) bzw. welches der möglichen Signale (si(t)) am wahrscheinlichsten gesendet wurde.
  • Die Schätzung des optimalen Empfängers ist also ganz allgemein bestimmt durch die Gleichung
\[\hat{m} = {\rm arg} \max_i \hspace{0.1cm} p_{s(t) | r(t) } ( s_i(t) | \rho(t)) = {\rm arg} \max_i \hspace{0.1cm} p_{m | r(t) } ( m_i | \rho(t))\hspace{0.05cm},\]
wobei wieder berücksichtigt ist, dass die gesendete Nachricht m = mi und das gesendete Signal s(t) = si(t) eineindeutig ineinander übergeführt werden können.

In anderen Worten: Der optimale Empfänger betrachtet diejenige Nachricht mi als die gesendete, wenn die bedingte Wahrscheinlichkeitsdichtefunktion pm|r(t) für das anliegende Empfangssignal ρ(t) sowie unter der Annahme m = mi den größtmöglichen Wert annimmt.

Modell zur Herleitung des optimalen Empfängers

Bevor wir die obige Entscheidungsregel näher diskutieren, soll der optimale Empfänger entsprechend der Grafik noch in zwei Funktionsblöcke aufgeteilt werden:

  • Der Detektor nimmt am Empfangssignal r(t) verschiedene Messungen vor und fasst diese im Vektor r zusammen. Bei K Messungen entspricht r einem Punkt im K–dimensionalen Vektorraum.
  • Der Entscheider bildet abhängig von diesem Vektor den Schätzwert. Bei einem gegebenen Vektor r = ρ lautet dabei die Entscheidungsregel:
\[\hat{m} = {\rm arg} \max_i \hspace{0.1cm} P_{m | \boldsymbol{ r} } ( m_i | \boldsymbol{\rho}) \hspace{0.05cm}.\]

Im Gegensatz zur oberen Gleichung tritt nun in der Entscheidungsregel eine bedingte Wahrscheinlichkeit Pm|r anstelle der bedingten Wahrscheinlichkeitskeitsdichtefunktion (WDF) pm|r(t) auf. Beachten Sie bitte die Groß– bzw. Kleinschreibung für die unterschiedlichen Bedeutungen.

Fundamentaler Ansatz zum optimalen Empfängerentwurf (2)


Wir betrachten nun die Funktion y = arg max p(x), wobei p(x) die Wahrscheinlichkeitsdichtefunktion (WDF) einer wertkontinuierlichen oder wertdiskreten Zufallsgröße x beschreibt. Im zweiten Fall besteht die WDF aus einer Summe von Diracfunktionen mit den Wahrscheinlichkeiten als Impulsgewichte.

Zur Verdeutlichung der Funktion „arg max”

Die Grafik zeigt beispielhafte Funktionen. In beiden Fällen liegt das WDF–Maximum (17) bei x = 6:

\[\max_i \hspace{0.1cm} p(x) = 17\hspace{0.05cm},\hspace{0.2cm}y = {\rm arg} \max_i \hspace{0.1cm} p(x) = 6\hspace{0.05cm}.\]

Man nennt die (bedingten) Wahrscheinlichkeiten in der Gleichung

\[\hat{m} = {\rm arg} \max_i \hspace{0.1cm} P_{m | \boldsymbol{ r} } ( m_i | \boldsymbol{\rho})\]

auch a–Posteriori–Wahrscheinlichkeiten. Mit dem Satz von Bayes kann hierfür geschrieben werden:

\[P_{m | \boldsymbol{ r} } ( m_i | \boldsymbol{\rho}) = \frac{{\rm Pr}( m_i) \cdot p_{\boldsymbol{ r}|m } (\boldsymbol{\rho}|m_i )}{p_{\boldsymbol{ r}} (\boldsymbol{\rho})} \hspace{0.05cm}.\]

Da der Term im Nenner für alle mi gleich ist, muss er für die Entscheidung nicht weiter berücksichtigt werden. Damit erhält man die folgenden Regeln:

1: Die Entscheidungsregel des optimalen Empfängers, auch bekannt als MAP–Empfänger (die Abkürzung steht für Maximum–a–posteriori), lautet:

\[\hat{m}_{\rm MAP} = {\rm arg} \max_i \hspace{0.1cm} P_{m | \boldsymbol{ r} } ( m_i | \boldsymbol{\rho}) = {\rm arg} \max_i \hspace{0.1cm} [ {\rm Pr}( m_i) \cdot p_{\boldsymbol{ r}|m } (\boldsymbol{\rho}|m_i )]\hspace{0.05cm}.\]

Der Vorteil dieser Gleichung ist, dass die die Vorwärtsrichtung des Kanals beschreibende bedingte WDF pr|m („Ausgang unter der Bedingung Eingang”) verwendet werden kann. Dagegen verwendet die erste Gleichung die Rückschlusswahrscheinlichkeiten Pm|r („Eingang unter der Bedingung Ausgang”).

2: Ein Maximum–Likelihood–Empfänger (ML–Empfänger) verwendet die Entscheidungsregel

\[\hat{m}_{\rm ML} = \hspace{-0.1cm} {\rm arg} \max_i \hspace{0.1cm} p_{\boldsymbol{ r}|m } (\boldsymbol{\rho}|m_i )\hspace{0.05cm}.\]

Bei diesem werden die möglicherweise unterschiedlichen Auftrittswahrscheinlichkeiten Pr(mi) für den Entscheidungsprozess nicht herangezogen, zum Beispiel, weil sie dem Empfänger nicht bekannt sind.


Hinweis: Im Kapitel 3.7 finden Sie eine andere Herleitung. Allgemein gilt: Bei gleichwahrscheinlichen Nachrichten {mi}  ⇒  Pr(mi) = 1/M ist der ML–Empfänger gleichwertig mit dem MAP–Empfänger:

\[\hat{m}_{\rm MAP} = \hat{m}_{\rm ML} =\hspace{-0.1cm} {\rm arg} \max_i \hspace{0.1cm} p_{\boldsymbol{ r}|m } (\boldsymbol{\rho}|m_i )\hspace{0.05cm}.\]


Das Theorem der Irrelevanz (1)


Zu beachten ist, dass der auf der letzten Seite beschriebene Empfänger nur dann optimal ist, wenn auch der Detektor bestmöglich implementiert ist, das heißt, wenn durch den Übergang vom kontinuierlichen Signal r(t) zum Vektor r  keine Information verloren geht.

Um die Frage zu klären, welche und wieviele Messungen am Empfangssignal r(t) durchzuführen sind, um Optimalität zu garantieren, ist das Theorem der Irrelevanz hilfreich. Dazu betrachten wir den nachfolgend skizzierten Empfänger, dessen Detektor aus dem Empfangssignal r(t) die zwei Vektoren r1 und r2 ableitet und dem Entscheider zur Verfügung stellt. r1 und r2 stehen mit der Nachricht m ∈ {mi} über die Verbundwahrscheinlichkeitsdichte pr1, r2|m in Zusammenhang.

Zum Theorem der Irrelevanz

Die Entscheidungsregel des MAP–Empfängers lautet mit Anpassung an dieses Beispiel:

\[\hat{m}_{\rm MAP} \hspace{-0.1cm} = \hspace{-0.1cm} {\rm arg} \max_i \hspace{0.1cm} [ {\rm Pr}( m_i) \cdot p_{\boldsymbol{ r}_1 , \hspace{0.05cm}\boldsymbol{ r}_2 |m } \hspace{0.05cm} (\boldsymbol{\rho}_1, \hspace{0.05cm}\boldsymbol{\rho}_2|m_i )]=\]

\[\hspace{-0.1cm} = \hspace{-0.1cm} {\rm arg} \max_i \hspace{0.1cm} [ {\rm Pr}( m_i) \cdot p_{\boldsymbol{ r}_1 |m } \hspace{0.05cm} (\boldsymbol{\rho}_1 |m_i ) \cdot p_{\boldsymbol{ r}_2 | \boldsymbol{ r}_1 , \hspace{0.05cm} m } \hspace{0.05cm} (\boldsymbol{\rho}_2| \boldsymbol{\rho}_1 , \hspace{0.05cm}m_i )] \hspace{0.05cm}.\]

Hierzu ist anzumerken:

  • Die Vektoren r1 und r2 sind Zufallsgrößen. Ihre Realisierungen werden hier und im Folgenden mit ρ1 und ρ2 bezeichnet. Zur Hervorhebung sind alle Vektoren in der Grafik rot eingetragen.
  • Die Voraussetzungen für die Anwendung des „Theorems der Irrelevanz” sind die gleichen wie die an eine Markovkette erster Ordnung. Die Zufallsvariablen x, y, z formen dann eine solche, falls die Verteilung von z bei gegebenem y unabhängig von x ist:
\[p(x, y, z) = p(x) \cdot p(y|x) \cdot p(z|y) \hspace{0.25cm} {\rm anstelle \hspace{0.15cm}von} \hspace{0.25cm}p(x, y, z) = p(x) \cdot p(y|x) \cdot p(z|x, y) \hspace{0.05cm}.\]
  • Der optimale Empfänger muss im allgemeinen Fall beide Vektoren r1 und r2 auswerten, da in obiger Entscheidungsregel beide Verbundwahrscheinlichkeitsdichten pr1|m und pr2| r1, m auftreten.
  • Dagegen kann der Empfänger ohne Informationseinbuße die zweite Messung vernachlässigen, falls r2 bei gegebenem r1 unabhängig von der Nachricht m ist:
\[p_{\boldsymbol{ r}_2 | \boldsymbol{ r}_1 , \hspace{0.05cm} m } \hspace{0.05cm} (\boldsymbol{\rho}_2| \boldsymbol{\rho}_1 , \hspace{0.05cm}m_i )= p_{\boldsymbol{ r}_2 | \boldsymbol{ r}_1 } \hspace{0.05cm} (\boldsymbol{\rho}_2| \boldsymbol{\rho}_1 ) \hspace{0.05cm}.\]
  • In diesem Fall lässt sich die Entscheidungsregel weiter vereinfachen:
\[\hat{m}_{\rm MAP} \hspace{-0.1cm} = \hspace{-0.1cm} {\rm arg} \max_i \hspace{0.1cm} [ {\rm Pr}( m_i) \cdot p_{\boldsymbol{ r}_1 |m } \hspace{0.05cm} (\boldsymbol{\rho}_1 |m_i ) \cdot p_{\boldsymbol{ r}_2 | \boldsymbol{ r}_1 , \hspace{0.05cm} m } \hspace{0.05cm} (\boldsymbol{\rho}_2| \boldsymbol{\rho}_1 , \hspace{0.05cm}m_i )]= \]
\[ = \hspace{-0.1cm} {\rm arg} \max_i \hspace{0.1cm} [ {\rm Pr}( m_i) \cdot p_{\boldsymbol{ r}_1 |m } \hspace{0.05cm} (\boldsymbol{\rho}_1 |m_i ) \cdot p_{\boldsymbol{ r}_2 | \boldsymbol{ r}_1 } \hspace{0.05cm} (\boldsymbol{\rho}_2| \boldsymbol{\rho}_1 )]=\]
\[ = \hspace{-0.1cm} {\rm arg} \max_i \hspace{0.1cm} [ {\rm Pr}( m_i) \cdot p_{\boldsymbol{ r}_1 |m } \hspace{0.05cm} (\boldsymbol{\rho}_1 |m_i ) ] \hspace{0.05cm}.\]

Das Theorem der Irrelevanz (2)


Betrachten wir zur Verdeutlichung des soeben vorgestellten Theorems der Irrelevanz zwei verschiedene Systemkonfigurationen mit jeweils zwei Rauschtermen n1 und n2. Anmerkung: Alle vektoriellen Größen sind rot eingezeichnet und s, n1 und n2 seien jeweils unabhängig voneinander.

Zwei Beispiele zum Theorem der Irrelevanz

Die Analyse dieser beiden Anordnungen liefert folgende Ergebnisse:

  • Der Entscheider muss in beiden Fällen die Komponente r1 = s + n1 berücksichtigen, da nur diese die Information über das Nutzsignal s und damit über die gesendete Nachricht m liefert.
  • Bei der oberen Konfiguration enthält r2 keine Information über m, die nicht bereits von r1 geliefert wurde. Vielmehr ist r2 = r1 + n2 nur eine verrauschte Version von r1 und hängt nur vom Rauschen n2 ab, sobald r1 bekannt ist  ⇒  r2 ist irrelevant:
\[p_{\boldsymbol{ r}_2 | \boldsymbol{ r}_1 , \hspace{0.05cm} m } \hspace{0.05cm} (\boldsymbol{\rho}_2| \boldsymbol{\rho}_1 , \hspace{0.05cm}m_i )= p_{\boldsymbol{ r}_2 | \boldsymbol{ r}_1 } \hspace{0.05cm} (\boldsymbol{\rho}_2| \boldsymbol{\rho}_1 )= p_{\boldsymbol{ n}_2 } \hspace{0.05cm} (\boldsymbol{\rho}_2 - \boldsymbol{\rho}_1 )\hspace{0.05cm}.\]
  • Bei der unteren Konfiguration ist dagegen r2 = n1 + n2 für den Empfänger hilfreich, da dadurch dem Empfänger ein Schätzwert für den Rauschterm n1 geliefert wird  ⇒  r2 sollte nicht verworfen werden. Formal lässt sich dieses Resultat wie folgt ausdrücken:
\[p_{\boldsymbol{ r}_2 | \boldsymbol{ r}_1 , \hspace{0.05cm} m } \hspace{0.05cm} (\boldsymbol{\rho}_2| \boldsymbol{\rho}_1 , \hspace{0.05cm}m_i ) \hspace{-0.1cm} = \hspace{-0.1cm} p_{\boldsymbol{ r}_2 | \boldsymbol{ n}_1 , \hspace{0.05cm} m } \hspace{0.05cm} (\boldsymbol{\rho}_2 | \boldsymbol{\rho}_1 - \boldsymbol{s}_i, \hspace{0.05cm}m_i)= \]
\[ \hspace{0.5cm} \hspace{-0.1cm} = \hspace{-0.1cm} p_{\boldsymbol{ n}_2 | \boldsymbol{ n}_1 , \hspace{0.05cm} m } \hspace{0.05cm} (\boldsymbol{\rho}_2- \boldsymbol{\rho}_1 + \boldsymbol{s}_i| \boldsymbol{\rho}_1 - \boldsymbol{s}_i, \hspace{0.05cm}m_i)= \]
\[\hspace{0.4cm}=\hspace{-0.1cm} p_{\boldsymbol{ n}_2 } \hspace{0.05cm} (\boldsymbol{\rho}_2- \boldsymbol{\rho}_1 + \boldsymbol{s}_i ) \hspace{0.05cm}.\]
Da nun im Argument dieser Funktion die Nachricht (si) erscheint, ist r2 nicht irrelevant.

Einige Eigenschaften des AWGN-Kanals (1)


Um weitere Aussagen über die Art der optimalen Messungen des Vektors r  machen zu können, ist es notwendig, die den Kanal charakterisierende (bedingte) Wahrscheinlichkeitsdichtefunktion pr(t)|s(t) weiter zu spezifizieren. Im Folgenden wird die Kommunikation über den AWGN–Kanal betrachtet, dessen wichtigste Eigenschaften hier nochmals kurz zusammengestellt werden:

  • Das Ausgangssignal des AWGN–Kanals ist r(t) = s(t) + n(t), wobei s(t) das Sendesignal angibt und n(t) durch einen Gaußschen Rauschprozess dargestellt wird.
  • Ein Zufallsprozess {n(t)} ist gaußisch, falls die Elemente der k–dimensionalen Zufallsvariablen {n(t1), ... , n(tk)} gemeinsam gaußverteilt sind („Jointly Gaussian”).
  • Der Mittelwert des AWGN–Rauschens ist E[n(t)] = 0. Außerdem ist n(t) weiß, was bedeutet, dass das Leistungsdichtespektrum (LDS) für alle Frequenzen (von – ∞ bis + ∞) konstant ist:
\[{\it \Phi_n(f)} = {N_0}/{2} \hspace{0.05cm}.\]
\[{\varphi_n(\tau)} = {\rm E}[n(t) \cdot n(t+\tau) ] = {N_0}/{2} \cdot \delta(t)\]
\[\Rightarrow \hspace{0.3cm} {\rm E}[n(t) \cdot n(t+\tau) ] = \left\{ \begin{array}{c} \rightarrow \infty \\ 0 \end{array} \right.\quad \begin{array}{*{1}c} {\rm f{\rm \ddot{u}r}} \hspace{0.15cm} \tau = 0 \hspace{0.05cm}, \\ {\rm f{\rm \ddot{u}r}} \hspace{0.15cm} \tau \ne 0 \hspace{0.05cm},\\ \end{array}\]
  • N0 gibt dabei die physikalische (nur für f ≥ 0 definierte) Rauschleistungsdichte an. Der konstante LDS–Wert (N0/2) und das Gewicht der Diracfunktion in der AKF (ebenfalls N0/2) ergibt sich allein durch die zweiseitige Betrachtungsweise.

Weitere Informationen zum AWGN–Kanal liefert das Lernvideo Der AWGN–Kanal – Teil 2.

Einige Eigenschaften des AWGN-Kanals (2)


Aus dem vorletzten Statement auf der letzten Seite geht hervor, dass

  • reines AWGN–Rauschen n(t) stets eine unendliche Varianz (Leistung) aufweist: σn2 → ∞,
  • in der Realität demzufolge nur gefiltertes Rauschen n'(t) = n(t) ∗ hn(t) auftreten kann.

Mit der Impulsantwort hn(t) und dem Frequenzgang Hn(f) = F[hn(t)] gelten dann folgende Gleichungen:

\[{\rm E}[n'(t) ] \hspace{0.15cm} = \hspace{0.2cm} {\rm E}[n(t) ] = 0 \hspace{0.05cm},\] \[\hspace{0.4cm}{\it \Phi_{n'}(f)} \hspace{0.1cm} = \hspace{0.1cm} {N_0}/{2} \cdot |H_{n}(f)|^2 \hspace{0.05cm},\] \[ \hspace{0.4cm}{\it \varphi_{n'}(\tau)} \hspace{0.1cm} = \hspace{0.1cm} {N_0}/{2}\hspace{0.1cm} \cdot [h_{n}(\tau) \star h_{n}(-\tau)]\hspace{0.05cm},\]

\[\hspace{0.4cm}\sigma_n^2 \hspace{0.1cm} = \hspace{0.1cm} { \varphi_{n'}(\tau = 0)} = {N_0}/{2} \cdot \int_{-\infty}^{+\infty}h_n^2(t)\,{\rm d} t ={N_0}/{2}\hspace{0.1cm} \cdot < \hspace{-0.1cm}h_n(t), \hspace{0.1cm} h_n(t) \hspace{-0.05cm} > \hspace{0.1cm}=\]
\[\hspace{0.6cm}\hspace{-0.1cm} = \hspace{0.1cm} \int_{-\infty}^{+\infty}{\it \Phi_{n'}(f)}\,{\rm d} f = {N_0}/{2} \cdot \int_{-\infty}^{+\infty}|H_n(f)|^2\,{\rm d} f \hspace{0.05cm}.\]

Im Folgenden beinhaltet n(t) stets implizit eine Bandbegrenzung; auf die Schreibweise n'(t) wird also zukünftig verzichtet.

Ähnlich wie das Sendesignal s(t) lässt sich auch der Rauschprozess n(t) als gewichtete Summe von orthonormalen Basisfunktionen φj(t) schreiben. Im Gegensatz zu s(t) ist allerdings nun eine Beschränkung auf eine endliche Anzahl an Basisfunktionen nicht möglich. Vielmehr gilt bei rein stochastischen Größen

\[n(t) = \lim_{N \rightarrow \infty} \sum\limits_{j = 1}^{N}n_j \cdot \varphi_j(t) \hspace{0.05cm},\]

wobei der Koeffizient nj durch die Projektion von n(t) auf die Basisfunktion φj(t) bestimmt ist:

\[n_j = \hspace{0.1cm} < \hspace{-0.1cm}n(t), \hspace{0.1cm} \varphi_j(t) \hspace{-0.05cm} > \hspace{0.05cm}.\]

Hinweis: Um eine Verwechslung mit den Basisfunktionen φj(t) zu vermeiden, wird im Folgenden die AKF φn(τ) des Rauschprozesses stets nur noch als der Erwartungswert E[n(t) · n(t + τ)] ausgedrückt.

Optimaler Empfänger für den AWGN-Kanal (1)


Auch das Empfangssignal r(t) = s(t) + n(t) lässt sich in bekannter Weise in Basisfunktionen zerlegen: \[r(t) = \sum\limits_{j = 1}^{\infty}r_j \cdot \varphi_j(t) \hspace{0.05cm}.\]

Zu berücksichtigen ist:

  • Die M möglichen Sendesignale {si(t)} spannen einen Signalraum mit insgesamt N Basisfunktionen φ1(t), ... , φN(t) auf.
  • Diese N Basisfunktionen φj(t) werden gleichzeitig zur Beschreibung des Rauschsignals n(t) und des Empfangssignals r(t) verwendet.
  • Zur vollständigen Charakterisierung von n(t) bzw. r(t) werden nun aber darüber hinaus noch unendlich viele weitere Basisfunktionen φN+1(t), φN+2(t), ... benötigt.
  • Damit ergeben sich die Koeffizienten des Empfangssignals r(t) gemäß folgender Gleichung, wobei berücksichtigt ist, dass die Signale si(t) und das Rauschen n(t) voneinander unabhängig sind:
\[r_j \hspace{0.1cm} = \hspace{0.1cm} \hspace{0.1cm} < \hspace{-0.1cm}r(t), \hspace{0.1cm} \varphi_j(t) \hspace{-0.05cm} > \hspace{0.1cm}=\]
\[ \hspace{-0.1cm} = \hspace{-0.1cm} \left\{ \begin{array}{c} < \hspace{-0.1cm}s_i(t), \hspace{0.1cm} \varphi_j(t) \hspace{-0.05cm} > + < \hspace{-0.1cm}n(t), \hspace{0.1cm} \varphi_j(t) \hspace{-0.05cm} > \hspace{0.1cm}= s_{ij}+ n_j\\ < \hspace{-0.1cm}n(t), \hspace{0.1cm} \varphi_j(t) \hspace{-0.05cm} > \hspace{0.1cm} = n_j \end{array} \right.\quad \begin{array}{*{1}c} {j = 1, 2, ... \hspace{0.05cm}, N} \hspace{0.05cm}, \\ {j > N} \hspace{0.05cm}.\\ \end{array}\]

Somit ergibt sich für den optimalen Empfänger die folgende Struktur.

Optimaler Empfänger beim AWGN-Kanal

Die Bildbeschreibung folgt auf der nächsten Seite.

Optimaler Empfänger für den AWGN-Kanal (2)


Betrachten wir zunächst wieder den AWGN–Kanal. Hier kann auf das Vorfilter mit dem Frequenzgang W(f) verzichtet werden, das in der Grafik für farbiges Rauschen vorgesehen ist.

Optimaler Empfänger bei weißem und farbigem Rauschen

Der Detektor des optimalen Empfängers bildet die Koeffizienten rj = 〈r(t), φj(t)〉 und reicht diese an den Entscheider weiter. Basiert die Entscheidung auf sämtlichen – also unendlich vielen – Koeffizienten rj, so ist die Wahrscheinlichkeit für eine Fehlentscheidung minimal und der Empfänger optimal.

Die reellwertigen Koeffizienten rj wurden auf der letzten Seite wie folgt berechnet:

\[r_j = \left\{ \begin{array}{c} s_{ij} + n_j\\ n_j \end{array} \right.\quad \begin{array}{*{1}c} {j = 1, 2, ... \hspace{0.05cm}, N} \hspace{0.05cm}, \\ {j > N} \hspace{0.05cm}.\\ \end{array}\]

Nach dem Theorem der Irrelevanz lässt sich zeigen, dass für additives weißes Gaußsches Rauschen

  • die Optimalität nicht herabgesetzt wird, wenn man die nicht von der Nachricht (sij) abhängigen Koeffizienten rN+1, rN+2, ... nicht in den Entscheidungsprozess einbindet, und somit
  • der Detektor nur die Projektionen des Empfangssignals r(t) auf die N durch das Nutzsignal s(t) vorgegebenen Basisfunktionen φ1(t), ... , φN(t) bilden muss.

In der Grafik ist diese signifikante Vereinfachung durch die graue Hinterlegung angedeutet.

Im Fall von farbigem Rauschen   ⇒   Leistungsdichtespektrum Φn(f) ≠ const. ist lediglich zusätzlich ein Vorfilter mit dem Amplitudengang

\[|W(f)| = \frac{1}{\sqrt[[:Template:\it \Phi n(f)]]}\]

erforderlich. Man nennt dieses Filter auch „Whitening Filter”, da die Rauschleistungsdichte am Ausgang wieder konstant, also „weiß” ist. Genaueres hierzu finden Sie im Kapitel 5.4 des Buches „Stochastische Signaltheorie”.

Implementierungsaspekte


Wesentliche Bestandteile des optimalen Empfängers sind die Berechnungen der inneren Produkte gemäß den Gleichungen rj = 〈r(t), φj(t)〉. Diese können auf verschiedene Art und Weise implementiert werden:

  • Beim Korrelationsempfänger (Näheres zu dieser Implementierung finden Sie im Kapitel 3.7) werden die inneren Produkte direkt entsprechend der Definition mit analogen Multiplizierern und Integratoren realisiert:
\[r_j = \int_{-\infty}^{+\infty}r(t) \cdot \varphi_j(t) \,{\rm d} t \hspace{0.05cm}.\]
  • Der Matched–Filter–Empfänger, der bereits im Kapitel 1.2 dieses Buches hergeleitet wurde, erzielt mit einem linearen Filter mit der Impulsantwort hj(t) = φj(Tt) und anschließender Abtastung zum Zeitpunkt t = T das gleiche Ergebnis:
\[r_j = \int_{-\infty}^{+\infty}r(\tau) \cdot h_j(t-\tau) \,{\rm d} \tau = \int_{-\infty}^{+\infty}r(\tau) \cdot \varphi_j(T-t+\tau) \,{\rm d} \tau \]
\[\Rightarrow \hspace{0.3cm} r_j (t = \tau) = \int_{-\infty}^{+\infty}r(\tau) \cdot \varphi_j(\tau) \,{\rm d} \tau = r_j \hspace{0.05cm}.\]

Implementierungen des inneren Produktes

Die Abbildung zeigt die beiden möglichen Realisierungsformen des optimalen Detektors. Bevor wir uns im folgenden Kapitel der optimalen Gestaltung des Entscheiders und der Berechnung und Annäherung der Fehlerwahrscheinlichkeit zuwenden, erfolgt zunächst eine für den AWGN–Kanal gültige statistische Analyse der Entscheidungsgrößen rj.

Wahrscheinlichkeitsdichtefunktion der Empfangswerte


Betrachten wir nochmals den optimalen Binärempfänger für die bipolare Basisbandübertragung über den AWGN–Kanal, wobei wir von der für Kapitel 4 gültigen Beschreibungsform ausgehen. Bei N = 1 und M = 2 ergibt sich für das Sendesignal die in der linken Grafik dargestellte Signalraumkonstellation

  • mit nur einer Basisfunktion φ1(t), wegen N = 1,
  • mit den beiden Signalraumpunkten si ∈ {s0, s1}, wegen M = 2.

Signalraumkonstellation und WDF des Empfangssignals

Für das Signal am Ausgang des AWGN–Kanals,

\[r(t) = s(t) + n(t) \hspace{0.05cm},\]

ergibt sich im rauschfreien Fall ⇒ r(t) = s(t) die genau gleiche Konstellation; die Signalraumpunkte liegen somit bei

\[r_0 = s_0 = \sqrt{E}\hspace{0.05cm},\hspace{0.2cm}r_1 = s_1 = -\sqrt{E}\hspace{0.05cm}.\]

Bei Berücksichtigung des (bandbegrenzten) AWGN–Rauschens n(t) überlagern sich den beiden Punkten r0 und r1 jeweils Gaußkurven mit der Varianz σn2  ⇒  Streuung σn (siehe rechte Grafik). Die WDF der Rauschkomponente n lautet dabei:

\[p_n(n) = \frac{1}{\sqrt{2\pi} \cdot \sigma_n}\cdot {\rm exp} \left [ - \frac{n^2}{2 \sigma_n^2}\right ]\hspace{0.05cm}.\]

Für die bedingte Wahrscheinlichkeitsdichte, dass der Empfangswert ρ anliegt, wenn si gesendet wurde, ergibt sich dann folgender Ausdruck:

\[p_{r|s}(\rho|s_i) = \frac{1}{\sqrt{2\pi} \cdot \sigma_n}\cdot {\rm exp} \left [ - \frac{(\rho - s_i)^2}{2 \sigma_n^2}\right ]\hspace{0.05cm}.\]

Zu den Einheiten der hier aufgeführten Größen ist zu bemerken:

  • r0 = s0, r1 = s1 sowie n sind jeweils Skalare mit der Einheit „Wurzel aus Energie”.
  • Damit ist offensichtlich, dass σn ebenfalls die Einheit „Wurzel aus Energie” besitzt und σn2 eine Energie darstellt.
  • Beim AWGN–Kanal ist die Rauschvarianz σn2 = N0/2. Diese ist also ebenfalls eine physikalische Größe mit der Einheit W/Hz = Ws.

Die hier angesprochene Thematik wird in der Aufgabe A4.6 an Beispielen verdeutlicht.

N–dimensionales Gaußsches Rauschen (1)


Liegt ein N–dimensionales Modulationsverfahren vor, das heißt, es gilt mit 0 ≤ iM –1 und 1 ≤ jN:

\[s_i(t) = \sum\limits_{j = 1}^{N} s_{ij} \cdot \varphi_j(t) = s_{i1} \cdot \varphi_1(t) + s_{i2} \cdot \varphi_2(t) + ... + s_{iN} \cdot \varphi_N(t)\hspace{0.05cm} \]

\[\Rightarrow \hspace{0.3cm} \boldsymbol{ s}_i = \left(s_{i1}, s_{i2}, ... \hspace{0.05cm}, s_{iN}\right ) \hspace{0.05cm},\]

so muss der Rauschvektor n ebenfalls mit der Dimension N angesetzt werden, und das gleiche gilt auch für den Empfangsvektor r :

\[\boldsymbol{ n} = \left(n_{1}, n_{2}, ... \hspace{0.05cm}, n_{N}\right ) \hspace{0.01cm},\hspace{0.2cm}\boldsymbol{ r} = \left(r_{1}, r_{2}, ... \hspace{0.05cm}, r_{N}\right )\hspace{0.05cm}.\]

Die Wahrscheinlichkeitsdichtefunktion (WDF) lautet dann für den AWGN–Kanal mit der Realisierung η des Rauschsignals

\[p_{\boldsymbol{ n}}(\boldsymbol{ \eta}) = \frac{1}{\left( \sqrt{2\pi} \cdot \sigma_n \right)^N } \cdot {\rm exp} \left [ - \frac{|| \boldsymbol{ \eta} ||^2}{2 \sigma_n^2}\right ]\hspace{0.05cm},\]

und für die bedingte WDF in der ML–Entscheidungsregel ist anzusetzen:

\[p_{\boldsymbol{ r}\hspace{0.05cm} | \hspace{0.01cm} \boldsymbol{ s}}(\boldsymbol{ \rho} | \boldsymbol{ s}_i) \hspace{-0.1cm} = \hspace{0.1cm} p_{\boldsymbol{ n}\hspace{0.05cm} | \hspace{0.01cm} \boldsymbol{ s}}(\boldsymbol{ \rho} - \boldsymbol{ s}_i| \boldsymbol{ s}_i) =\]

\[\hspace{-0.05cm} = \hspace{-0.1cm} \frac{1}{\left( \sqrt{2\pi} \cdot \sigma_n \right)^2 } \cdot {\rm exp} \left [ - \frac{|| \boldsymbol{ \rho} - \boldsymbol{ s}_i ||^2}{2 \sigma_n^2}\right ]\hspace{0.05cm}.\]

Zweidimensionale Gauß–WDF Die Gleichung ergibt sich aus der allgemeinen Darstellung der N–dimensionalen Gaußschen WDF in Kapitel 4.7 des Buches „Stochastische Signaltheorie” unter der Voraussetzung, dass die Komponenten unkorreliert (und somit statistisch unabhängig) sind. ||η|| bezeichnet man als die Norm (Länge) des Vektors η.

Dargestellt ist die zweidimensionale Gauß–WDF pn(η) der 2D–Zufallsgröße n = (n1, n2). Die Bildbeschreibung folgt auf der nächsten Seite.

N–dimensionales Gaußsches Rauschen (2)


Zweidimensionale Gauß–WDF










Zu der dargestellten 2D–WDF ist anzumerken:

  • Die Dichtefunktion bezieht sich auf die Zufallsgröße n = (n1, n2). Realisierungen hiervon werden mit η = (η1, η2) bezeichnet. Die Gleichung der dargestellten Glockenkurve lautet:
\[p_{n_1, n_2}(\eta_1, \eta_2) = \frac{1}{\left( \sqrt{2\pi} \cdot \sigma_n \right)^2 } \cdot {\rm exp} \left [ - \frac{ \eta_1^2 + \eta_2^2}{2 \sigma_n^2}\right ]\hspace{0.05cm}. \]


  • Das Maximum dieser Funktion liegt bei η1 = η2 = 0 und hat den Wert 2π · σn2. Mit σn2 = N0/2 lässt sich die 2D–WDF in Vektorform auch wie folgt schreiben:
\[p_{\boldsymbol{ n}}(\boldsymbol{ \eta}) = \frac{1}{\pi \cdot N_0 } \cdot {\rm exp} \left [ - \frac{|| \boldsymbol{ \eta} ||^2}{N_0}\right ]\hspace{0.05cm}.\]
  • Diese rotationssymmetrische WDF eignet sich zum Beispiel für die Beschreibung/Untersuchung eines linearen zweidimensionalen Modulationsverfahrens wie QAM, M–PSK oder 2–FSK.
  • Oft werden zweidimensionale reelle Zufallsgrößen aber auch eindimensional–komplex dargestellt, meist in der Form n(t) = nI(t) + j · nQ(t). Die beiden Komponenten bezeichnet man dann als Inphaseanteil nI und Quadraturanteil nQ des Rauschens.
  • Die Wahrscheinlichkeitsdichtefunktion hängt nur vom Betrag |n(t)| der Rauschvariablen ab und nicht von Winkel arc n(t). Das heißt: Komplexes Rauschen ist zirkulär symmetrisch (siehe Grafik).
  • Zirkulär symmetrisch bedeutet auch, dass Inphasekomponente nI und Quadraturkomponente nQ die gleiche Verteilung aufweisen und damit auch gleiche Varianz (Streuung) besitzen:
\[ \hspace{0.38cm}{\rm E}\left [ n_{\rm I}^2(t)\right ]\hspace{0.1cm}\hspace{-0.1cm} = \hspace{0.1cm}\hspace{-0.1cm} {\rm E}\left [ n_{\rm Q}^2(t)\right ] = \sigma_n^2 \hspace{0.05cm},\]
\[{\rm E}\left [ n(t) \cdot n^*(t) \right ]\hspace{0.1cm} = \hspace{0.1cm} = {\rm E}\left [ n_{\rm I}^2(t)\right ] + {\rm E}\left [ n_{\rm Q}^2(t)\right ] = 2\sigma_n^2 \hspace{0.05cm}.\]

Abschließend noch einige Beschreibungsformen für Gaußsche Zufallsgrößen:

\[x \hspace{-0.1cm} = \hspace{-0.1cm}{\cal N}(\mu, \sigma^2) \hspace{-0.1cm}: \hspace{0.3cm}{\rm reelle \hspace{0.15cm} gaussverteilte \hspace{0.15cm}ZG}\hspace{0.05cm}, {\rm \hspace{0.15cm}Mittelwert\hspace{0.15cm}}\mu {\rm , \hspace{0.15cm}Varianz\hspace{0.15cm}}\sigma^2 \hspace{0.05cm},\] \[y \hspace{-0.1cm} = \hspace{-0.1cm}{\cal CN}(\mu, \sigma^2)\hspace{-0.1cm}: \hspace{0.07cm}{\rm komplexe \hspace{0.15cm}gaussverteilte \hspace{0.15cm}ZG} \hspace{0.05cm}.\]

Aufgaben


A4.4 MAP– und ML–Empfänger

A4.5 Theorem der Irrelevanz