Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Difference between revisions of "Aufgaben:Exercise 4.3: Iterative Decoding at the BSC"

From LNTwww
Line 63: Line 63:
 
|type="{}"}
 
|type="{}"}
 
y_=y_2:LK(1) = { 1 3% }  
 
y_=y_2:LK(1) = { 1 3% }  
$\hspace{1.4cm} L_{\rm K}(2) \ = \ ${ -1.03--0.97 }  
+
$\hspace{1.5cm} L_{\rm K}(2) \ = \ ${ -1.03--0.97 }  
$\hspace{1.4cm} L_{\rm K}(3) \ = \ ${ 1 3% }  
+
$\hspace{1.5cm} L_{\rm K}(3) \ = \ ${ 1 3% }  
  
 
{Welche Aussagen sind für die Decodierung des Empfangswortes y_2=(0,1,0) zutreffend? Gehen Sie weiterhin vom RC (3, 1, 3) aus.
 
{Welche Aussagen sind für die Decodierung des Empfangswortes y_2=(0,1,0) zutreffend? Gehen Sie weiterhin vom RC (3, 1, 3) aus.

Revision as of 10:28, 7 December 2017

BSC–Modell und mögliche Empfangswerte

Wir betrachten in dieser Aufgabe zwei Codes:

x_=((0,0,0),(0,1,1),(1,0,1),(1,1,0)),
x_=((0,0,0),(1,1,1)).


Der Kanal wird auf Bitebene durch das BSC–Modell beschrieben. Entsprechend der Grafik gilt dabei:

Pr(yixi) = ε=0.269,
Pr(yi=xi) = 1ε=0.731.

Hierbei bezeichnet ϵ die Verfälschungswahrscheinlichkeit.

Bis auf die letzte Teilaufgabe wird stets von folgendem Empfangswert ausgegangen:

y_=(0,1,0)=y_2.

Die hier gewählte Indizierung aller möglichen Empfangsvektoren kann der Grafik entnommen werden. Der meist betrachtete Vektor y_2 ist hierbei rot hervorgehoben. Für die Teilaufgabe (6) gilt dann:

y_=(1,1,0)=y_6.

Zur Decodierung sollen in der Aufgabe untersucht werden:

  • die Syndromdecodierung, die bei den hier betrachteten Codes als Hard Decision Maximum Likelihood Detection (HD–ML) vornimmt. Hinweis: Softwerte liegen beim BSC nicht vor.
  • die symbolweise Soft–in Soft–out Decodierung (SISO) entsprechend dieses Abschnitts.


Hinweise:

  • Die Aufgabe bezieht sich auf das Kapitel Soft–in Soft–out Decoder.
  • Das vom Decoder ausgewählte Codewort wird in den Fragen mit z_ bezeichnet.
  • Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0.” ein.


Fragebogen

1

Welche Aussagen gelten für die Decodierung des SPC (3, 2, 2)?

Die HD–Syndromdecodierung liefert das Ergebnis z_=(0,1,0),
Die HD–Syndromdecodierung liefert das Ergebnis z_=(0,0,0),
Die HD–Syndromdecodierung versagt hier.

2

Welche Aussagen gelten für den RC (3, 1, 3)?

Die HD–Syndromdecodierung liefert das Ergebnis z_=(0,1,0),
Die HD–Syndromdecodierung liefert das Ergebnis z_=(0,0,0),
Die HD–Syndromdecodierung versagt hier.

3

Wie sicher ist diese Entscheidung, wenn man als Sicherheit S den Quotienten der Wahrscheinlichkeiten für eine richtige bzw. falsche Entscheidung definiert?

y_=y_2:S = 

ln(S) = 

4

Wie lauten die intrinsischen L–Werte für die iterative symbolweise Decodierung des RC (3, 1)–Empfangswortes y_2=(0,1,0)?

y_=y_2:LK(1) = 

LK(2) = 

LK(3) = 

5

Welche Aussagen sind für die Decodierung des Empfangswortes y_2=(0,1,0) zutreffend? Gehen Sie weiterhin vom RC (3, 1, 3) aus.

Ab der ersten Iteration sind alle Vorzeichen von LAPP(i) positiv.
Bereits nach der zweiten Iteration ist Pr(x_0|y_2) größer als 99%.
Mit jeder Iteration werden die Beträge LAPP(i) größer.

6

Welche Aussagen sind für die Decodierung des Empfangswortes y_6=(1,1,0) zutreffend, wenn x_0=(0,0,0) gesendet wurde?

Der iterative Decoder entscheidet richtig.
Der iterative Decoder entscheidet falsch.
Die „Zuverlässigkeit” für „y_6x_0” steigt mit wachsendem I.


Musterlösung

(1)  (2)  (3)  (4)  (5)