Difference between revisions of "Aufgaben:Exercise 1.5Z: Symmetrical Markov Source"

From LNTwww
Line 3: Line 3:
 
}}
 
}}
  
[[File:P_ID2252__Inf_Z_1_5.png|right|]]
+
[[File:P_ID2252__Inf_Z_1_5.png|right|Betrachtetes binäres Markovdiagramm]]
:In der Aufgabe A1.5 wurde eine binäre Markovquelle behandelt, bei der die Übergangswahrscheinlichkeiten von <b>A</b> nach <b>B</b> sowie von <b>B</b> nach <b>A</b> unterschiedlich waren. In dieser Aufgabe soll nun gelten:
+
In der [[Aufgaben:1.5_Binäre_Markovquelle|Aufgabe 1.5]] wurde eine binäre Markovquelle behandelt, bei der die Übergangswahrscheinlichkeiten von $\rm A$ nach $\rm B$ und von $\rm B$ nach $\rm A$ unterschiedlich waren. In dieser Aufgabe soll nun gelten:
 
:$$p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} = p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} = q \hspace{0.8cm} ( 0 \le q \le 1)
 
:$$p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} = p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} = q \hspace{0.8cm} ( 0 \le q \le 1)
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
:Alle in der Aufgabe A1.5 angegebenen Gleichungen gelten auch hier:
 
  
:* <b>Entropie:</b>
+
Alle in der Aufgabe 1.5 angegebenen Gleichungen gelten auch hier:
:$$H = p_{\rm AA}  \cdot {\rm ld}\hspace{0.1cm}\frac {1}{ p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A}} + p_{\rm AB}  \cdot {\rm ld}\hspace{0.1cm}\frac {1}{ p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}} +  p_{\rm BA}  \cdot {\rm ld}\hspace{0.1cm}\frac {1}{ p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B}} + p_{\rm BB}  \cdot  {\rm ld}\hspace{0.1cm}\frac {1}{ p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B}}
+
 
 +
* <b>Entropie:</b>
 +
:$$H = p_{\rm AA}  \cdot {\rm log_2}\hspace{0.1cm}\frac {1}{ p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A}} + p_{\rm AB}  \cdot {\rm log_2}\hspace{0.1cm}\frac {1}{ p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}} +  p_{\rm BA}  \cdot {\rm log_2}\hspace{0.1cm}\frac {1}{ p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B}} + p_{\rm BB}  \cdot  {\rm log_2}\hspace{0.1cm}\frac {1}{ p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B}}
 
  \hspace{0.05cm},$$
 
  \hspace{0.05cm},$$
  
:* <b>Erste Entropienäherung</b>:
+
* <b>Erste Entropienäherung</b>:
:$$H_{\rm 1}  =  p_{\rm A} \cdot {\rm ld}\hspace{0.1cm} \frac{1}{p_{\rm A}} + p_{\rm B} \cdot {\rm ld}\hspace{0.1cm} \frac{1}{p_{\rm B}}  
+
:$$H_{\rm 1}  =  p_{\rm A} \cdot {\rm log_2}\hspace{0.1cm} \frac{1}{p_{\rm A}} + p_{\rm B} \cdot {\rm log_2}\hspace{0.1cm} \frac{1}{p_{\rm B}}  
 
  \hspace{0.05cm},$$
 
  \hspace{0.05cm},$$
  
:* <b><i>k</i>&ndash;te Entropienäherung</b> (<i>k</i> = 2, 3, ...):
+
* <b><i>k</i>&ndash;te Entropienäherung</b> ($k = 2, 3$, ...):
:$$H_k =  \frac{1}{k} \cdot [ H_{\rm 1} + (k-1) \cdot H]  
+
:$$H_k =  {1}/{k} \cdot [ H_{\rm 1} + (k-1) \cdot H]  
 
  \hspace{0.05cm},\hspace{0.5cm}H  =  \lim_{k \rightarrow \infty } H_k  \hspace{0.05cm}.$$
 
  \hspace{0.05cm},\hspace{0.5cm}H  =  \lim_{k \rightarrow \infty } H_k  \hspace{0.05cm}.$$
  
:<b>Hinweis:</b> Die Aufgabe bezieht sich auf Kapitel 1.2, Seite 5c. Bei allen Entropien ist die Pseudoeinheit &bdquo;bit/Symbol&rdquo; hinzuzufügen.
+
''Hinweise:''
 +
*Die Aufgabe gehört zum  Kapitel [[Informationstheorie/Nachrichtenquellen_mit_Gedächtnis|Nachrichtenquellen mit Gedächtnis]].
 +
*Bezug genommen wird insbesondere auf die Seite [[Informationstheorie/Nachrichtenquellen_mit_Gedächtnis#Bin.C3.A4rquellen_mit_Markoveigenschaften|Binärquellen mit Markoveigenschaften]].
 +
*Bei allen Entropien ist die Pseudoeinheit &bdquo;bit/Symbol&rdquo; hinzuzufügen.
 +
*Sollte die Eingabe des Zahlenwertes &bdquo;0&rdquo; erforderlich sein, so geben Sie bitte &bdquo;0.&rdquo; ein.
 +
 
  
  
Line 27: Line 33:
  
 
<quiz display=simple>
 
<quiz display=simple>
{Berechnen Sie die Symbolwahrscheinlichkeiten.
+
{Berechnen Sie die Symbolwahrscheinlichkeiten für die Übergangswahrscheinlichkeit $q = 1/4$.
 
|type="{}"}
 
|type="{}"}
$q = 1/4:\ \ p_A$ = { 0.5 3% }
+
$p_{\rm A} \ = $ { 0.5 1% }
$p_B$ = { 0.5 3% }
+
$p_{\rm B} \ = $ { 0.5 1% }
  
  
{Berechnen Sie die Quellenentropie <i>H</i>. Welches Ergebnis liefert <i>q</i> = 1/4?
+
{Berechnen Sie die Quellenentropie $H$ für $q = 1/4$.
 
|type="{}"}
 
|type="{}"}
$q = 1/4:\ \ H$ = { 0.5 3% } $bit/Symbol$
+
$H \ =$ { 0.5 3% } $\ \rm bit/Symbol$
  
  
{Welche Entropienäherungen erhält man für <i>q</i> = 1/4?
+
{Welche Entropienäherungen erhält man für $q = 1/4$?
 
|type="{}"}
 
|type="{}"}
$q = 1/4:\ \ H_1$ = { 1 3% } $bit/Symbol$
+
$H_1 \ =$ { 1 1% } $\ \rm bit/Symbol$
$H_2$ = { 0.906 3% } $bit/Symbol$
+
$H_2 \ =$ { 0.906 1% } $\ \rm bit/Symbol$
$H_3$ = { 0.874 3% } $bit/Symbol$
+
$H_3 \ =$ { 0.874 1% } $\ \rm bit/Symbol$
  
  
{Bestimmen Sie <i>q</i> derart, dass <i>H</i> maximal wird. Interpretation.
+
{Bestimmen Sie $q$ derart, dass <i>H</i> maximal wird. Interpretation.
 
|type="{}"}
 
|type="{}"}
$H \rightarrow Maximum:\ \ q$ = { 0.5 3% }
+
$H \rightarrow Maximum\text{:}\ \ q \ =$ { 0.5 3% }
  
  
{Welche Symbolfolgen sind mit <i>q</i> = 0 möglich?
+
{Welche Symbolfolgen sind mit $q = 0$ möglich?
 
|type="[]"}
 
|type="[]"}
+ AAAAAA ...
+
+ $\rm AAAAAA$ ...  
+ BBBBBB ...
+
+ $\rm BBBBBB$ ...
- ABABAB ...
+
- $\rm ABABAB$ ...
  
  
{Welche Symbolfolgen sind mit <i>q</i> = 1 möglich?
+
{Welche Symbolfolgen sind mit $q = 0$ möglich?
 
|type="[]"}
 
|type="[]"}
- AAAAAA ...
+
- $\rm AAAAAA$ ...  
- BBBBBB ...
+
- $\rm BBBBBB$ ...
+ ABABAB ...
+
+ $\rm ABABAB$ ...
  
  

Revision as of 16:49, 1 May 2017

Betrachtetes binäres Markovdiagramm

In der Aufgabe 1.5 wurde eine binäre Markovquelle behandelt, bei der die Übergangswahrscheinlichkeiten von $\rm A$ nach $\rm B$ und von $\rm B$ nach $\rm A$ unterschiedlich waren. In dieser Aufgabe soll nun gelten:

$$p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} = p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} = q \hspace{0.8cm} ( 0 \le q \le 1) \hspace{0.05cm}.$$

Alle in der Aufgabe 1.5 angegebenen Gleichungen gelten auch hier:

  • Entropie:
$$H = p_{\rm AA} \cdot {\rm log_2}\hspace{0.1cm}\frac {1}{ p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A}} + p_{\rm AB} \cdot {\rm log_2}\hspace{0.1cm}\frac {1}{ p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}} + p_{\rm BA} \cdot {\rm log_2}\hspace{0.1cm}\frac {1}{ p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B}} + p_{\rm BB} \cdot {\rm log_2}\hspace{0.1cm}\frac {1}{ p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B}} \hspace{0.05cm},$$
  • Erste Entropienäherung:
$$H_{\rm 1} = p_{\rm A} \cdot {\rm log_2}\hspace{0.1cm} \frac{1}{p_{\rm A}} + p_{\rm B} \cdot {\rm log_2}\hspace{0.1cm} \frac{1}{p_{\rm B}} \hspace{0.05cm},$$
  • k–te Entropienäherung ($k = 2, 3$, ...):
$$H_k = {1}/{k} \cdot [ H_{\rm 1} + (k-1) \cdot H] \hspace{0.05cm},\hspace{0.5cm}H = \lim_{k \rightarrow \infty } H_k \hspace{0.05cm}.$$

Hinweise:


Fragebogen

1

Berechnen Sie die Symbolwahrscheinlichkeiten für die Übergangswahrscheinlichkeit $q = 1/4$.

$p_{\rm A} \ = $

$p_{\rm B} \ = $

2

Berechnen Sie die Quellenentropie $H$ für $q = 1/4$.

$H \ =$

$\ \rm bit/Symbol$

3

Welche Entropienäherungen erhält man für $q = 1/4$?

$H_1 \ =$

$\ \rm bit/Symbol$
$H_2 \ =$

$\ \rm bit/Symbol$
$H_3 \ =$

$\ \rm bit/Symbol$

4

Bestimmen Sie $q$ derart, dass H maximal wird. Interpretation.

$H \rightarrow Maximum\text{:}\ \ q \ =$

5

Welche Symbolfolgen sind mit $q = 0$ möglich?

$\rm AAAAAA$ ...
$\rm BBBBBB$ ...
$\rm ABABAB$ ...

6

Welche Symbolfolgen sind mit $q = 0$ möglich?

$\rm AAAAAA$ ...
$\rm BBBBBB$ ...
$\rm ABABAB$ ...


Musterlösung

1.  Bei einer stationären binären Markovquelle erster Ordnung gilt:
$$p_{\rm A} = p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} \cdot p_{\rm A} + p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} \cdot p_{\rm B} = (1-q) \cdot p_{\rm A} + q \cdot p_{\rm B}$$
$$q \cdot p_{\rm A} = q \cdot p_{\rm B} \hspace{0.3cm} \Rightarrow \hspace{0.3cm}p_{\rm A} = p_{\rm B}\hspace{0.15cm} \underline {= 0.5} \hspace{0.05cm}.$$
2.  Zur Berechnung von H benötigt man alle vier Verbundwahrscheinlichkeiten:
$$p_{\rm AA} \hspace{0.1cm} = \hspace{0.1cm} p_{\rm A} \cdot p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} = 1/2 \cdot(1-q) = p_{\rm BB}\hspace{0.05cm},\\ p_{\rm AB} \hspace{0.1cm} = \hspace{0.1cm} p_{\rm A} \cdot p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} = 1/2 \cdot q = p_{\rm BA}\hspace{0.05cm}.$$
Setzt man diese Werte in die gegebene Entropie–Gleichung ein, so erhält man
$$H \hspace{0.1cm} = \hspace{0.1cm} 2 \cdot \frac{1}{2} \cdot(1-q) \cdot {\rm log}_2\hspace{0.1cm} \frac{1}{1-q} + 2 \cdot \frac{1}{2} \cdot q \cdot {\rm log}_2\hspace{0.1cm} \frac{1}{q} = \\ \hspace{0.1cm} = \hspace{0.1cm} q \cdot {\rm log}_2\hspace{0.1cm} \frac{1}{q} + (1-q) \cdot {\rm log}_2\hspace{0.1cm} \frac{1}{1-q} = H_{\rm bin}(q) \hspace{0.05cm}.$$
Der gesuchte Zahlenwert ist H = Hbin (0.25) = 0.811 bit/Symbol.
3.  Bei gleichwahrscheinlichen Binärsymbolen ist H1 = 1 bit/Symbol. Mit der für Markovquellen gültigen Gleichung gilt weiter:
$$H_2 \hspace{0.1cm} = \hspace{0.1cm} \frac{1}{2} \cdot [ H_1 + H] \hspace{0.15cm} \underline {= 0.906 \,{\rm bit/Symbol}} \hspace{0.05cm},\\ H_3 \hspace{0.1cm} = \hspace{0.1cm} \frac{1}{3} \cdot [ H_1 + 2 H] \hspace{0.15cm} \underline {= 0.874 \,{\rm bit/Symbol}} \hspace{0.05cm}.$$
4.  Das Maximum der binären Entropiefunktion ergibt sich für q = 0.5. Damit beträgt die maximale Entropie H = 1 bit/Symbol. Man erkennt aus der Beziehung H = H1 und aus dem vorne abgebildeten Übergangsdiagramm, dass q = 0.5 statistisch unabhängige Symbole zur Folge hat:
$$p_{\rm A} = p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} = p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} = 0.5 \hspace{0.05cm}, \hspace{0.2cm} p_{\rm B} = p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} = p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B}= 0.5 \hspace{0.05cm}.$$
5.  Richtig sind die Lösungsvorschläge 1 und 2. Die Symbolfolge ergibt sich entweder zu AAAAAA... oder zu BBBBBB..., je nachdem, welches Symbol als Startwert vorgegeben wurde. Die Entropie einer solchen Quelle ist H = Hbin(0) = 0.
6.  Nun kann weder A direkt auf A noch B direkt auf B folgen. Es ergibt sich eine alternierende Folge, je nach Startwert die Folge ABABAB... oder BABABA... ⇒   Lösungsvorschlag 3. Diese Quelle hat in beiden Fällen ebenfalls die Entropie H = 0 = Hbin(1).