Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Exercise 4.4: Maximum–a–posteriori and Maximum–Likelihood

From LNTwww
Revision as of 16:29, 6 November 2017 by Hussain (talk | contribs)

Kanalübergangswahrscheinlichkeiten

Zur Verdeutlichung von MAP– und ML–Entscheidung konstruieren wir nun ein sehr einfaches Beispiel mit nur zwei möglichen Nachrichten m0=0 und m1=1, die durch die Signalwerte s0 bzw. s1 dargestellt werden:

s = s0=+1m=m0=0,
s = s1=1m=m1=1.

Die Auftrittswahrscheinlichkeiten sind:

Pr(s=s0)=0.75,Pr(s=s1)=0.25.

Das Empfangssignal kann – warum auch immer – drei verschiedene Werte annehmen, nämlich

r=+1,r=0,r=1.

Die bedingten Kanalwahrscheinlichkeiten können der Grafik entnommen werden.

Nach der Übertragung soll die gesendete Nachricht durch einen optimalen Empfänger geschätzt werden. Zur Verfügung stehen:

  • der Maximum–Likelihood–Empfänger (ML–Empfänger), der die Auftrittswahrscheinlichkeiten Pr(s=si) nicht kennt, mit der Entscheidungsregel:
ˆmML=argmax
  • der Maximum–a–posteriori–Empfänger (MAP–Empfänger); dieser berücksichtigt bei seinem Entscheidungsprozess auch die Symbolwahrscheinlichkeiten der Quelle:
\hat{m}_{\rm MAP} = {\rm arg} \max_i \hspace{0.1cm} [ {\rm Pr}( s = s_i) \cdot p_{r |s } \hspace{0.05cm} (\rho |s_i ) ]\hspace{0.05cm}.

Hinweise:


Fragebogen

1

Multiple-Choice Frage

Falsch
Richtig

2

Input-Box Frage

\alpha =


Musterlösung

(1)  (2)  (3)  (4)  (5)  (6)