Difference between revisions of "Aufgaben:Exercise 1.4: Entropy Approximations for the AMI Code"

From LNTwww
Line 3: Line 3:
 
}}
 
}}
  
[[File:P_ID2248__Inf_A_1_4.png|right|]]
+
[[File:P_ID2248__Inf_A_1_4.png|right|Binäres Quellensignal und ternäres Codersignal]]
:Die Grafik zeigt oben das binäre Quellensignal <i>q</i>(<i>t</i>), das man ebenfalls durch die Symbolfolge &#9001;<i>q<sub>&nu;</sub></i>&#9002; mit <i>q<sub>&nu;</sub></i>&nbsp;&#8712;&nbsp;{<b>L</b>,&nbsp;<b>H</b>} beschreiben kann. In der gesamten Aufgabe gelte <i>p</i><sub>L</sub>&nbsp;=&nbsp;<i>p</i><sub>H</sub>&nbsp;=&nbsp;0.5.
+
Die Grafik zeigt oben das binäre Quellensignal $q(t)$, das man ebenfalls durch die Symbolfolge $\langle q_\nu \rangle$  mit $q_\nu \in \{ {\rm L}, {\rm H} \}$ beschreiben kann. In der gesamten Aufgabe gelte $p_{\rm L} = p_{\rm H} =0.5$.
  
:Das codierte Signal <i>c</i>(<i>t</i>) und die dazugehörige Symbolfolge &#9001;<i>c<sub>&nu;</sub></i>&#9002;&nbsp;&#8712;&nbsp;{<b>P</b>, <b>N</b>, <b>M</b>} ergibt sich aus der AMI&ndash;Codierung (<i>Alternate Mark Inversion</i>) nach folgender Vorschrift:
+
Das codierte Signal $c(t)$ und die dazugehörige Symbolfolge $\langle c_\nu \rangle$  mit $c_\nu \in \{{\rm P}, {\rm N}, {\rm M} \}$ ergibt sich aus der AMI&ndash;Codierung (<i>Alternate Mark Inversion</i>) nach folgender Vorschrift:
  
:* Das Binärsymbol <b>L</b> &#8658; <i>Low</i> wird stets durch das Ternärsymbol <b>N</b> &#8658; <i>Null</i> dargestellt.
+
* Das Binärsymbol $\rm L$ &nbsp;&rArr;&nbsp; <i>Low</i> wird stets durch das Ternärsymbol $\rm N$ &nbsp;&rArr;&nbsp; <i>Null</i> dargestellt.
 +
* Das Binärsymbol $\rm H$ &nbsp;&rArr;&nbsp; <i>High</i> wird ebenfalls deterministisch, aber alternierend (daher der Name &bdquo;AMI&rdquo;) durch die Symbole $\rm P$ &nbsp;&rArr;&nbsp; <i>Plus</i> und $\rm M$ &nbsp;&rArr;&nbsp; <i>Minus</i> codiert.
  
:* Das Binärsymbol <b>H</b> &#8658; <i>High</i> wird ebenfalls deterministisch, aber alternierend (daher der Name &bdquo;AMI&rdquo;) durch die Symbole <nobr><b>P</b> &#8658; <i>Plus</i></nobr> und <b>M</b> &#8658; <i>Minus</i> codiert.
+
In dieser Aufgabe sollen die Entropienäherungen für das AMI&ndash;codierte Signal berechnet werden:
  
:In dieser Aufgabe sollen die Entropienäherungen für das AMI&ndash;codierte Signal berechnet werden:
+
* Die Näherung $H_1$ bezieht sich nur auf die Symbolwahrscheinlichkeiten $p_{\rm P}$, $p_{\rm N}$ und $p_{\rm M}$.
  
:* Die Näherung <i>H</i><sub>1</sub> bezieht sich nur auf die Symbolwahrscheinlichkeiten <i>p</i><sub>P</sub>, <i>p</i><sub>N</sub> und <i>p</i><sub>M</sub>.
+
* Die $k$&ndash;te Entropienäherung ($k = 2, 3$, ... ) kann nach folgender Gleichung ermittelt werden:
 
 
:* Die <i>k</i>&ndash;te Entropienäherung (<i>k</i> = 2, 3, ... ) kann nach folgender Gleichung ermittelt werden:
 
 
:$$H_k = \frac{1}{k} \cdot \sum_{i=1}^{3^k} p_i^{(k)} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{p_i^{(k)}} \hspace{0.5cm}({\rm Einheit\hspace{-0.1cm}: \hspace{0.1cm}bit/Symbol})
 
:$$H_k = \frac{1}{k} \cdot \sum_{i=1}^{3^k} p_i^{(k)} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{p_i^{(k)}} \hspace{0.5cm}({\rm Einheit\hspace{-0.1cm}: \hspace{0.1cm}bit/Symbol})
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
:Hierbei bezeichnet <i>p<sub>i</sub></i><sup>(<i>k</i>)</sup> die <i>i</i>&ndash;te Verbundwahrscheinlichkeit eines <i>k</i>&ndash;Tupels.
+
:Hierbei bezeichnet $p_i^{(k)}$ die $i$&ndash;te Verbundwahrscheinlichkeit eines $k$&ndash;Tupels.
  
:<b>Hinweis:</b> Die Aufgabe gehört zu Kapitel 1.2. In der Aufgabe Z1.4 wird die tatsächliche Entropie der Codesymbolfolge  &#9001;<i>c<sub>&nu;</sub></i>&#9002; zu <i>H</i> = 1 bit/Symbol berechnet. Zu erwarten sind die folgenden Größenrelationen:
+
 
:$$H \le ... \le H_3 \le H_2 \le H_1 \le H_0  
+
''Hinweise:''
  \hspace{0.05cm}.$$
+
*Die Aufgabe gehört zum  Kapitel [[Informationstheorie/Nachrichtenquellen_mit_Gedächtnis|Nachrichtenquellen mit Gedächtnis]].
 +
*Sollte die Eingabe des Zahlenwertes &bdquo;0&rdquo; erforderlich sein, so geben Sie bitte &bdquo;0.&rdquo; ein.
 +
*In der [[Aufgaben:1.4Z_Entropie_der_AMI-Codierung|Aufgabe 1.4Z]] wird die tatsächliche Entropie der Codesymbolfolge  $\langle c_\nu \rangle$ zu $H = 1 \; \rm bit/Symbol$ berechnet.
 +
*Zu erwarten sind die folgenden Größenrelationen: $H \le$ ...$ \le H_3 \le H_2 \le H_1 \le H_0  
 +
  \hspace{0.05cm}.$
  
  
Line 31: Line 34:
 
{Wie groß ist der Entscheidungsgehalt des AMI&ndash;Codes?
 
{Wie groß ist der Entscheidungsgehalt des AMI&ndash;Codes?
 
|type="{}"}
 
|type="{}"}
$H_0$ = { 1.585 3% } $bit/Symbol$
+
$H_0 \ = $ { 1.585 3% } $\ \rm bit/Symbol$
  
  
{Berechnen Sie die erste Entropienäherung.
+
{Berechnen Sie die erste Entropienäherung des AMI&ndash;Codes.
 
|type="{}"}
 
|type="{}"}
$H_1$ = { 1.5 3% } $bit/Symbol$
+
$H_1 \ = $ { 1.5 3% } $\ \rm bit/Symbol$
  
  
{Wie groß ist die Entropienäherung <i>H</i><sub>2</sub>, basierend auf Zweiertupel?
+
{Wie groß ist die Entropienäherung $H_2$, basierend auf Zweiertupel?
 
|type="{}"}
 
|type="{}"}
$H_2$ = { 1.375 3% } $bit/Symbol$
+
$H_2 \ = $ { 1.375 3% } $\ \rm bit/Symbol$
  
  
{Welchen Wert liefert die Entropienäherung <i>H</i><sub>3</sub>, basierend auf Dreiertuptel?
+
{Welchen Wert liefert die Entropienäherung $H_3$, basierend auf Dreiertuptel?
 
|type="{}"}
 
|type="{}"}
$H_3$ = { 0 3% } $bit/Symbol$
+
$H_3 \ = $ { 0. } $\ \rm bit/Symbol$
  
  
{Welche Aussagen gelten für die Entropienäherung <i>H</i><sub>4</sub>?
+
{Welche Aussagen gelten für die Entropienäherung $H_4$?
 
|type="[]"}
 
|type="[]"}
+ Es muss über 3<sup>4</sup> = 81 Summanden gemittelt werden.
+
+ Es muss über $3^4 = 81$ Summanden gemittelt werden.
+ Es gilt 1 bit/Symbol < <i>H</i><sub>4</sub> < <i>H</i><sub>3</sub>.
+
+ Es gilt $1 \; {\rm bit/Symbol} < H_4 < H_3$.
- Nach langer Rechnung erhält man <i>H</i><sub>4</sub>&nbsp;=&nbsp;1.333&nbsp;bit/Symbol.
+
- Nach langer Rechnung erhält man $H_4 = 1.333 \; {\rm bit/Symbol}$.
  
  

Revision as of 15:29, 28 April 2017

Binäres Quellensignal und ternäres Codersignal

Die Grafik zeigt oben das binäre Quellensignal $q(t)$, das man ebenfalls durch die Symbolfolge $\langle q_\nu \rangle$ mit $q_\nu \in \{ {\rm L}, {\rm H} \}$ beschreiben kann. In der gesamten Aufgabe gelte $p_{\rm L} = p_{\rm H} =0.5$.

Das codierte Signal $c(t)$ und die dazugehörige Symbolfolge $\langle c_\nu \rangle$ mit $c_\nu \in \{{\rm P}, {\rm N}, {\rm M} \}$ ergibt sich aus der AMI–Codierung (Alternate Mark Inversion) nach folgender Vorschrift:

  • Das Binärsymbol $\rm L$  ⇒  Low wird stets durch das Ternärsymbol $\rm N$  ⇒  Null dargestellt.
  • Das Binärsymbol $\rm H$  ⇒  High wird ebenfalls deterministisch, aber alternierend (daher der Name „AMI”) durch die Symbole $\rm P$  ⇒  Plus und $\rm M$  ⇒  Minus codiert.

In dieser Aufgabe sollen die Entropienäherungen für das AMI–codierte Signal berechnet werden:

  • Die Näherung $H_1$ bezieht sich nur auf die Symbolwahrscheinlichkeiten $p_{\rm P}$, $p_{\rm N}$ und $p_{\rm M}$.
  • Die $k$–te Entropienäherung ($k = 2, 3$, ... ) kann nach folgender Gleichung ermittelt werden:
$$H_k = \frac{1}{k} \cdot \sum_{i=1}^{3^k} p_i^{(k)} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{p_i^{(k)}} \hspace{0.5cm}({\rm Einheit\hspace{-0.1cm}: \hspace{0.1cm}bit/Symbol}) \hspace{0.05cm}.$$
Hierbei bezeichnet $p_i^{(k)}$ die $i$–te Verbundwahrscheinlichkeit eines $k$–Tupels.


Hinweise:

  • Die Aufgabe gehört zum Kapitel Nachrichtenquellen mit Gedächtnis.
  • Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0.” ein.
  • In der Aufgabe 1.4Z wird die tatsächliche Entropie der Codesymbolfolge $\langle c_\nu \rangle$ zu $H = 1 \; \rm bit/Symbol$ berechnet.
  • Zu erwarten sind die folgenden Größenrelationen: $H \le$ ...$ \le H_3 \le H_2 \le H_1 \le H_0 \hspace{0.05cm}.$


Fragebogen

1

Wie groß ist der Entscheidungsgehalt des AMI–Codes?

$H_0 \ = $

$\ \rm bit/Symbol$

2

Berechnen Sie die erste Entropienäherung des AMI–Codes.

$H_1 \ = $

$\ \rm bit/Symbol$

3

Wie groß ist die Entropienäherung $H_2$, basierend auf Zweiertupel?

$H_2 \ = $

$\ \rm bit/Symbol$

4

Welchen Wert liefert die Entropienäherung $H_3$, basierend auf Dreiertuptel?

$H_3 \ = $

$\ \rm bit/Symbol$

5

Welche Aussagen gelten für die Entropienäherung $H_4$?

Es muss über $3^4 = 81$ Summanden gemittelt werden.
Es gilt $1 \; {\rm bit/Symbol} < H_4 < H_3$.
Nach langer Rechnung erhält man $H_4 = 1.333 \; {\rm bit/Symbol}$.


Musterlösung

1.  Der Symbolumfang beträgt M = 3. Daraus ergibt sich der Entscheidungsgehalt mit dem Logarithmus dualis zur Basis 2 (log2 oder „ld”):
$$H_0 = {\rm log}_2\hspace{0.1cm} M = {\rm log}_2\hspace{0.1cm} (3) \hspace{0.15cm} \underline { = 1.585 \,{\rm bit/Symbol}} \hspace{0.05cm}.$$
2.  Die Entropienäherung erster Ordnung berücksichtigt nur die Symbolwahrscheinlichkeiten pP, pN und pM und nicht die statistischen Bindungen innerhalb der Codefolge 〈cν〉. Damit erhält man:
$$p_{\rm N} = p_{\rm L} = 1/2\hspace{0.05cm},\hspace{0.2cm}p_{\rm P} = p_{\rm M} = p_{\rm H}/2 = 1/4$$
$$\Rightarrow\hspace{0.3cm} H_1 = \frac{1}{2} \cdot {\rm log}_2\hspace{0.1cm} (2) + 2 \cdot \frac{1}{4} \cdot {\rm log}_2\hspace{0.1cm}(4) \hspace{0.15cm} \underline {= 1.5 \,{\rm bit/Symbol}} \hspace{0.05cm}.$$
3.  Zunächst müssen hier die M2 = 9 Verbundwahrscheinlichkeiten von Zweiertupeln ermittelt werden, im Folgenden gekennzeichnet durch die beiden ersten Codesymbole c1 und c2:
  • Da beim AMI–Code weder P auf P noch M auf M folgen kann, ist pPP = pMM = 0.
  • Für die Verbundwahrscheinlichkeiten unter der Bedingung c2 = N gilt:
$$p_{\rm NN} \hspace{0.1cm} = \hspace{0.1cm} {\rm Pr}( c_1 = \mathbf{N}) \cdot {\rm Pr}(c_2 = \mathbf{N}\hspace{0.05cm} | c_1 = \mathbf{N}) = 1/2 \cdot 1/2 = 1/4 \hspace{0.05cm},\\ p_{\rm MN} \hspace{0.1cm} = \hspace{0.1cm} {\rm Pr}( c_1 = \mathbf{M}) \cdot {\rm Pr}(c_2 = \mathbf{N}\hspace{0.05cm} | c_1 = \mathbf{M}) = 1/4 \cdot 1/2 = 1/8 \hspace{0.05cm},\\ p_{\rm PN} \hspace{0.1cm} = \hspace{0.1cm} {\rm Pr}( c_1 = \mathbf{P}) \cdot {\rm Pr}(c_2 = \mathbf{N}\hspace{0.05cm} | c_1 = \mathbf{P}) = 1/4 \cdot 1/2 = 1/8 \hspace{0.05cm}.$$
  • Die Verbundwahrscheinlichkeiten der Zweiertupel „PM” und „MP” lauten:
$$p_{\rm PM} \hspace{0.1cm} = \hspace{0.1cm} {\rm Pr}( c_1 = \mathbf{P}) \cdot {\rm Pr}(c_2 = \mathbf{M}\hspace{0.05cm} | c_1 = \mathbf{P}) = 1/4 \cdot 1/2 = 1/8 \hspace{0.05cm},\\ p_{\rm MP} \hspace{0.1cm} = \hspace{0.1cm} {\rm Pr}( c_1 = \mathbf{M}) \cdot {\rm Pr}(c_2 = \mathbf{P}\hspace{0.05cm} | c_1 = \mathbf{M}) = 1/4 \cdot 1/2 = 1/8 \hspace{0.05cm}.$$
  • Bei den restlichen Wahrscheinlichkeiten muss zusätzlich berücksichtigt werden, ob beim letzten Mal das Binärsymbol H mit P oder mit M codiert wurde  ⇒  weiterer Faktor 1/2:
$$p_{\rm NM} \hspace{0.1cm} = \hspace{0.1cm} {\rm Pr}( c_1 = \mathbf{N}) \cdot {\rm Pr}(c_2 = \mathbf{M}\hspace{0.05cm} | c_1 = \mathbf{N}) = 1/2 \cdot 1/2 \cdot 1/2= 1/8 \hspace{0.05cm},\\ p_{\rm NP} \hspace{0.1cm} = \hspace{0.1cm} {\rm Pr}( c_1 = \mathbf{N}) \cdot {\rm Pr}(c_2 = \mathbf{P}\hspace{0.05cm} | c_1 = \mathbf{N}) = 1/2 \cdot 1/2 \cdot 1/2 = 1/8 \hspace{0.05cm}.$$
Damit ist die Entropie H2' eines Zweiertupels bzw. dessen Entropie H2 pro Codesymbol:
$$H_2' = \frac{1}{4} \cdot {\rm log}_2\hspace{0.1cm} (4) + 6 \cdot \frac{1}{8} \cdot {\rm log}_2\hspace{0.1cm}(8) \hspace{0.15cm} {= 2.75 \,{\rm bit/Zweiertupel}}$$
$$\Rightarrow\hspace{0.3cm} H_2 = \frac{H_2'}{2} \hspace{0.15cm} \underline {= 1.375 \,{\rm bit/Symbol}} \hspace{0.05cm}.$$
4.  Die Berechnung von H3 erfolgt ähnlich wie bei der letzten Teilaufgabe für H2, nur müssen nun 33 = 27 Verbundwahrscheinlichkeiten ermittelt werden:
$$p_{\rm NNN} = 1/8\hspace{0.4cm}{\rm (nur \hspace{0.15cm}einmal)} \hspace{0.05cm},$$
$$p_{\rm NMM} = p_{\rm NPP} = p_{\rm MNM} = ... = 0 \hspace{0.4cm}{\rm (ingesamt \hspace{0.15cm}12)} \hspace{0.05cm},$$
$$p_{\rm NNM} = p_{\rm NNP} = p_{\rm PMP} = ... = 1/16 \hspace{0.4cm}{\rm (ingesamt \hspace{0.15cm}14)}$$
$$\Rightarrow\hspace{0.3cm} H_3 = \frac{1}{3} \cdot \left [ \frac{1}{8} \cdot {\rm log}_2\hspace{0.1cm} (8) + 14 \cdot \frac{1}{16} \cdot {\rm log}_2\hspace{0.1cm}(16) \right ] \hspace{0.15cm} \underline {= 1.292 \,{\rm bit/Symbol}} \hspace{0.05cm}.$$
5.  Richtig sind die Lösungsvorschläge 1 und 2. Falsch ist dagegen die Aussage 3, da H4 auf jeden Fall kleiner sein muss als H3 = 1.292 bit/Symbol.