Difference between revisions of "Aufgaben:Exercise 1.5Z: Symmetrical Markov Source"

From LNTwww
Line 53: Line 53:
 
{Bestimmen Sie q derart, dass <i>H</i> maximal wird. Interpretation.
 
{Bestimmen Sie q derart, dass <i>H</i> maximal wird. Interpretation.
 
|type="{}"}
 
|type="{}"}
$H \rightarrow Maximum\text{:}\ \ q \ =$ { 0.5 3% }
+
$H \rightarrow \text{Maximum:}\ \ q \ =$ { 0.5 3% }
  
  
Line 75: Line 75:
 
===Musterlösung===
 
===Musterlösung===
 
{{ML-Kopf}}
 
{{ML-Kopf}}
:<b>1.</b>&nbsp;&nbsp;Bei einer stationären binären Markovquelle erster Ordnung gilt:
+
'''(1)'''&nbsp; Bei einer stationären binären Markovquelle erster Ordnung gilt:
 
:$$p_{\rm A} = p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} \cdot p_{\rm A} + p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} \cdot p_{\rm B}
 
:$$p_{\rm A} = p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} \cdot p_{\rm A} + p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} \cdot p_{\rm B}
 
  = (1-q) \cdot p_{\rm A} + q \cdot p_{\rm B}$$
 
  = (1-q) \cdot p_{\rm A} + q \cdot p_{\rm B}$$
Line 81: Line 81:
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
  
:<b>2.</b>&nbsp;&nbsp;Zur Berechnung von <i>H</i> benötigt man alle vier Verbundwahrscheinlichkeiten:
+
'''(2)'''&nbsp; Zur Berechnung der Entropie $H$ benötigt man alle vier Verbundwahrscheinlichkeiten:
:$$p_{\rm AA} \hspace{0.1cm} =  \hspace{0.1cm}  p_{\rm A} \cdot  p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} = 1/2 \cdot(1-q) = p_{\rm BB}\hspace{0.05cm},\\
+
:$$p_{\rm AA} \hspace{0.1cm} =  \hspace{0.1cm}  p_{\rm A} \cdot  p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} = 1/2 \cdot(1-q) = p_{\rm BB}\hspace{0.05cm},\hspace{1cm}
 
  p_{\rm AB} \hspace{0.1cm} =  \hspace{0.1cm}  p_{\rm A} \cdot  p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} = 1/2 \cdot q = p_{\rm BA}\hspace{0.05cm}.$$
 
  p_{\rm AB} \hspace{0.1cm} =  \hspace{0.1cm}  p_{\rm A} \cdot  p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} = 1/2 \cdot q = p_{\rm BA}\hspace{0.05cm}.$$
:Setzt man diese Werte in die gegebene Entropie&ndash;Gleichung ein, so erhält man
+
Setzt man diese Werte in die gegebene Entropie&ndash;Gleichung ein, so erhält man
:$$H  \hspace{0.1cm} = \hspace{0.1cm}  2 \cdot \frac{1}{2} \cdot(1-q) \cdot  
+
:$$H  = 2 \cdot \frac{1}{2} \cdot(1-q) \cdot  
 
{\rm log}_2\hspace{0.1cm} \frac{1}{1-q} + 2 \cdot \frac{1}{2} \cdot q \cdot  
 
{\rm log}_2\hspace{0.1cm} \frac{1}{1-q} + 2 \cdot \frac{1}{2} \cdot q \cdot  
{\rm log}_2\hspace{0.1cm} \frac{1}{q} = \\
+
{\rm log}_2\hspace{0.1cm} \frac{1}{q} =  q \cdot {\rm log}_2\hspace{0.1cm} \frac{1}{q} + (1-q) \cdot {\rm log}_2\hspace{0.1cm} \frac{1}{1-q} = H_{\rm bin}(q) \hspace{0.05cm}.$$
\hspace{0.1cm} =  \hspace{0.1cm}  q \cdot {\rm log}_2\hspace{0.1cm} \frac{1}{q} + (1-q) \cdot {\rm log}_2\hspace{0.1cm} \frac{1}{1-q} = H_{\rm bin}(q) \hspace{0.05cm}.$$
+
Der gesuchte Zahlenwert ist $H = H_{\rm bin} (0.25) \hspace{0.15cm}\underline{= 0.811 \, \rm bit/Symbol}$.
:Der gesuchte Zahlenwert ist <i>H</i> = <i>H</i><sub>bin</sub> (0.25) <u>= 0.811 bit/Symbol</u>.
 
  
:<b>3.</b>&nbsp;&nbsp;Bei gleichwahrscheinlichen Binärsymbolen ist <i>H</i><sub>1</sub> <u>= 1 bit/Symbol</u>. Mit der für Markovquellen gültigen Gleichung gilt weiter:
+
 
:$$H_2 \hspace{0.1cm} =  \hspace{0.1cm}  \frac{1}{2} \cdot [ H_1 +  H] \hspace{0.15cm} \underline {= 0.906 \,{\rm bit/Symbol}}  
+
'''(3)'''&nbsp; Bei gleichwahrscheinlichen Binärsymbolen ist $H_1 \hspace{0.15cm}\underline{= 1 \, \rm bit/Symbol}$. Mit der für Markovquellen gültigen Gleichung gilt weiter:
  \hspace{0.05cm},\\
+
:$$H_2 \hspace{0.1cm} =  \hspace{0.1cm}  {1}/{2} \cdot [ H_1 +  H] \hspace{0.15cm} \underline {= 0.906 \,{\rm bit/Symbol}}  
H_3 \hspace{0.1cm} =  \hspace{0.1cm} \frac{1}{3} \cdot [ H_1 + 2  H] \hspace{0.15cm} \underline {= 0.874 \,{\rm bit/Symbol}}  
+
  \hspace{0.05cm},$$
 +
:$$ H_3 \hspace{0.1cm} =  \hspace{0.1cm} {1}/{3} \cdot [ H_1 + 2  H] \hspace{0.15cm} \underline {= 0.874 \,{\rm bit/Symbol}}  
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
  
:<b>4.</b>&nbsp;&nbsp;Das Maximum der binären Entropiefunktion ergibt sich für <i>q</i> <u>= 0.5</u>. Damit beträgt die maximale Entropie <i>H</i> = 1 bit/Symbol. Man erkennt aus der Beziehung <i>H</i> = <i>H</i><sub>1</sub> und aus dem vorne abgebildeten Übergangsdiagramm, dass <i>q</i> = 0.5 statistisch unabhängige Symbole zur Folge hat:
+
 
 +
'''(4)'''&nbsp; Das Maximum der binären Entropiefunktion ergibt sich für $q\hspace{0.15cm}\underline{= 0.5}$. Damit beträgt die maximale Entropie $H = 1 \, \rm bit/Symbol$. Man erkennt aus der Beziehung $H = H_1$ und aus dem vorne abgebildeten Übergangsdiagramm, dass $q = 0.5$ statistisch unabhängige Symbole zur Folge hat:
 
:$$p_{\rm A} = p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} = p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} = 0.5
 
:$$p_{\rm A} = p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} = p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} = 0.5
 
  \hspace{0.05cm}, \hspace{0.2cm} p_{\rm B} = p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} = p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B}= 0.5
 
  \hspace{0.05cm}, \hspace{0.2cm} p_{\rm B} = p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} = p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B}= 0.5
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
  
:<b>5.</b>&nbsp;&nbsp;Richtig sind die <u>Lösungsvorschläge 1 und 2</u>. Die Symbolfolge ergibt sich entweder zu <b>AAAAAA</b>... oder zu <b>BBBBBB</b>..., je nachdem, welches Symbol als Startwert vorgegeben wurde. Die Entropie einer solchen Quelle ist <i>H</i> = <i>H</i><sub>bin</sub>(0) = 0.
 
  
:<b>6.</b>&nbsp;&nbsp;Nun kann weder <b>A</b> direkt auf <b>A</b> noch <b>B</b> direkt auf <b>B</b> folgen. Es ergibt sich eine alternierende Folge, je nach Startwert die Folge <b>ABABAB</b>... oder <b>BABABA</b>... &#8658;&nbsp;&nbsp; <u>Lösungsvorschlag 3</u>. Diese Quelle hat in beiden Fällen ebenfalls die Entropie <i>H</i> = 0 = <i>H</i><sub>bin</sub>(1).
+
'''(5)'''&nbsp; Richtig sind die <u>Lösungsvorschläge 1 und 2</u>:
 +
*Die Symbolfolge ergibt sich entweder zu AAAAAA ... oder zu BBBBBB ... , je nachdem, welches Symbol als Startwert vorgegeben wurde.
 +
*Die Entropie einer solchen Quelle ist H=Hbin(0)=0.
 +
 
 +
 
 +
'''(6)'''&nbsp; Richtig ist nur der <u>Lösungsvorschlag 3</u>:
 +
*Nun kann weder A direkt auf $\rm A$ noch $\rm B$ direkt auf $\rm B$ folgen.  
 +
*Es ergibt sich stets eine alternierende Folge, je nach Startwert die Folge $\rm ABABAB$ ... oder $\rm BABABA$... .  
 +
*Diese Quelle hat in beiden Fällen die Entropie $H = H_{\rm bin}(1) = 0$.
 
{{ML-Fuß}}
 
{{ML-Fuß}}
  

Revision as of 18:11, 1 May 2017

Betrachtetes binäres Markovdiagramm

In der Aufgabe 1.5 wurde eine binäre Markovquelle behandelt, bei der die Übergangswahrscheinlichkeiten von A nach B und von B nach A unterschiedlich waren. In dieser Aufgabe soll nun gelten:

pA|B=pB|A=q(0q1).

Alle in der Aufgabe 1.5 angegebenen Gleichungen gelten auch hier:

  • Entropie:
H=pAAlog21pA|A+pABlog21pB|A+pBAlog21pA|B+pBBlog21pB|B,
  • Erste Entropienäherung:
H1=pAlog21pA+pBlog21pB,
  • k–te Entropienäherung (k=2,3, ...):
Hk=1/k[H1+(k1)H],H=limkHk.

Hinweise:


Fragebogen

1

Berechnen Sie die Symbolwahrscheinlichkeiten für die Übergangswahrscheinlichkeit q=1/4.

pA =

pB =

2

Berechnen Sie die Quellenentropie H für q=1/4.

H =

 bit/Symbol

3

Welche Entropienäherungen erhält man für q=1/4?

H1 =

 bit/Symbol
H2 =

 bit/Symbol
H3 =

 bit/Symbol

4

Bestimmen Sie q derart, dass H maximal wird. Interpretation.

HMaximum:  q =

5

Welche Symbolfolgen sind mit q=0 möglich?

AAAAAA ...
BBBBBB ...
ABABAB ...

6

Welche Symbolfolgen sind mit q=0 möglich?

AAAAAA ...
BBBBBB ...
ABABAB ...


Musterlösung

(1)  Bei einer stationären binären Markovquelle erster Ordnung gilt:

pA=pA|ApA+pA|BpB=(1q)pA+qpB
qpA=qpBpA=pB=0.5_.

(2)  Zur Berechnung der Entropie H benötigt man alle vier Verbundwahrscheinlichkeiten:

pAA=pApA|A=1/2(1q)=pBB,pAB=pApB|A=1/2q=pBA.

Setzt man diese Werte in die gegebene Entropie–Gleichung ein, so erhält man

H=212(1q)log211q+212qlog21q=qlog21q+(1q)log211q=Hbin(q).

Der gesuchte Zahlenwert ist H=Hbin(0.25)=0.811bit/Symbol_.


(3)  Bei gleichwahrscheinlichen Binärsymbolen ist H1=1bit/Symbol_. Mit der für Markovquellen gültigen Gleichung gilt weiter:

H2=1/2[H1+H]=0.906bit/Symbol_,
H3=1/3[H1+2H]=0.874bit/Symbol_.


(4)  Das Maximum der binären Entropiefunktion ergibt sich für q=0.5_. Damit beträgt die maximale Entropie H=1bit/Symbol. Man erkennt aus der Beziehung H=H1 und aus dem vorne abgebildeten Übergangsdiagramm, dass q=0.5 statistisch unabhängige Symbole zur Folge hat:

pA=pA|A=pA|B=0.5,pB=pB|A=pB|B=0.5.


(5)  Richtig sind die Lösungsvorschläge 1 und 2:

  • Die Symbolfolge ergibt sich entweder zu AAAAAA ... oder zu BBBBBB ... , je nachdem, welches Symbol als Startwert vorgegeben wurde.
  • Die Entropie einer solchen Quelle ist H=Hbin(0)=0.


(6)  Richtig ist nur der Lösungsvorschlag 3:

  • Nun kann weder A direkt auf A noch B direkt auf B folgen.
  • Es ergibt sich stets eine alternierende Folge, je nach Startwert die Folge ABABAB ... oder BABABA... .
  • Diese Quelle hat in beiden Fällen die Entropie H=Hbin(1)=0.