Difference between revisions of "Aufgaben:Exercise 4.3: Iterative Decoding at the BSC"
From LNTwww
Line 63: | Line 63: | ||
|type="{}"} | |type="{}"} | ||
y_=y_2:LK(1) = { 1 3% } | y_=y_2:LK(1) = { 1 3% } | ||
− | $\hspace{1. | + | $\hspace{1.5cm} L_{\rm K}(2) \ = \ ${ -1.03--0.97 } |
− | $\hspace{1. | + | $\hspace{1.5cm} L_{\rm K}(3) \ = \ ${ 1 3% } |
{Welche Aussagen sind für die Decodierung des Empfangswortes y_2=(0,1,0) zutreffend? Gehen Sie weiterhin vom RC (3, 1, 3) aus. | {Welche Aussagen sind für die Decodierung des Empfangswortes y_2=(0,1,0) zutreffend? Gehen Sie weiterhin vom RC (3, 1, 3) aus. |
Revision as of 10:28, 7 December 2017
Wir betrachten in dieser Aufgabe zwei Codes:
- den Single Parity–Code ⇒ SPC (3, 2, 2):
- x_=((0,0,0),(0,1,1),(1,0,1),(1,1,0)),
- den Wiederholungscode ⇒ RC (3, 1, 3:
- x_=((0,0,0),(1,1,1)).
Der Kanal wird auf Bitebene durch das BSC–Modell beschrieben. Entsprechend der Grafik gilt dabei:
- Pr(yi≠xi) = ε=0.269,
- Pr(yi=xi) = 1−ε=0.731.
Hierbei bezeichnet ϵ die Verfälschungswahrscheinlichkeit.
Bis auf die letzte Teilaufgabe wird stets von folgendem Empfangswert ausgegangen:
- y_=(0,1,0)=y_2.
Die hier gewählte Indizierung aller möglichen Empfangsvektoren kann der Grafik entnommen werden. Der meist betrachtete Vektor y_2 ist hierbei rot hervorgehoben. Für die Teilaufgabe (6) gilt dann:
- y_=(1,1,0)=y_6.
Zur Decodierung sollen in der Aufgabe untersucht werden:
- die Syndromdecodierung, die bei den hier betrachteten Codes als Hard Decision Maximum Likelihood Detection (HD–ML) vornimmt. Hinweis: Softwerte liegen beim BSC nicht vor.
- die symbolweise Soft–in Soft–out Decodierung (SISO) entsprechend dieses Abschnitts.
Hinweise:
- Die Aufgabe bezieht sich auf das Kapitel Soft–in Soft–out Decoder.
- Das vom Decoder ausgewählte Codewort wird in den Fragen mit z_ bezeichnet.
- Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0.” ein.
Fragebogen
Musterlösung
(1)
(2)
(3)
(4)
(5)