Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Difference between revisions of "Aufgaben:Exercise 1.6: Non-Binary Markov Sources"

From LNTwww
Line 20: Line 20:
 
* die weiteren Entropienäherungen Hk mit k=3,4, ...  und
 
* die weiteren Entropienäherungen Hk mit k=3,4, ...  und
 
* die tatsächliche Quellenentropie H.
 
* die tatsächliche Quellenentropie H.
 +
  
 
Es gelten folgende Bestimmungsgleichungen:
 
Es gelten folgende Bestimmungsgleichungen:
Line 74: Line 75:
 
===Musterlösung===
 
===Musterlösung===
 
{{ML-Kopf}}
 
{{ML-Kopf}}
:<b>1.</b>&nbsp;&nbsp;Die Symbolwahrscheinlichkeiten der ternären Markovquelle sind gegeben. Daraus lässt sich die Entropienäherung <i>H</i><sub>1</sub> berechnen:
+
'''(1)'''&nbsp; Die Symbolwahrscheinlichkeiten der ternären Markovquelle sind gegeben. Daraus lässt sich die Entropienäherung H1 berechnen:
 
:$$H_{\rm 1}  =  1/2 \cdot {\rm log}_2\hspace{0.1cm} (2) + 2 \cdot 1/4 \cdot {\rm log}_2\hspace{0.1cm}(4 )  \hspace{0.15cm} \underline {= 1.5 \,{\rm bit/Symbol}}  
 
:$$H_{\rm 1}  =  1/2 \cdot {\rm log}_2\hspace{0.1cm} (2) + 2 \cdot 1/4 \cdot {\rm log}_2\hspace{0.1cm}(4 )  \hspace{0.15cm} \underline {= 1.5 \,{\rm bit/Symbol}}  
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
  
:<b>2.</b>&nbsp;&nbsp;Die Verbundwahrscheinlichkeit ist <i>p</i><sub>XY</sub> = <i>p</i><sub>X</sub> &middot; <i>p</i><sub>Y|X</sub>, wobei <i>p</i><sub>X</sub> die Symbolwahrscheinlichkeit von X angibt und <i>p</i><sub>Y|X</sub> die bedingte Wahrscheinlichkeit für <b>Y</b>, unter der Voraussetzung, dass vorher <b>X</b> aufgetreten ist. <b>X</b> und <b>Y</b> sind hier Platzhalter für die Symbole <b>N</b>, <b>P</b>, <b>M</b>. Dann gilt:
+
'''(2)'''&nbsp; Die Verbundwahrscheinlichkeit ist $p_{\rm XY} = p_{\rm X} \cdot p_{\rm Y|X}$, wobei $p_{\rm X}$ die Symbolwahrscheinlichkeit von $\rm X$ angibt und $p_{\rm Y|X}$ die bedingte Wahrscheinlichkeit für $\rm Y$, unter der Voraussetzung, dass vorher $\rm X$ aufgetreten ist.  
:$$p_{\rm NN} \hspace{0.1cm} = \hspace{0.1cm}  1/2 \cdot 1/2 = 1/4\hspace{0.05cm},\hspace{0.2cm}p_{\rm PP} =  1/4 \cdot 0 = 0\hspace{0.05cm},\hspace{0.2cm}p_{\rm MM} =  1/4 \cdot 0 = 0 \hspace{0.05cm},\\
+
 
p_{\rm NP} \hspace{0.1cm} = \hspace{0.1cm} 1/2 \cdot 1/4 = 1/8\hspace{0.05cm},\hspace{0.2cm} p_{\rm PM} = 1/4 \cdot 1/2 = 1/8\hspace{0.05cm},\hspace{0.2cm}p_{\rm MN} =  1/4 \cdot 1/2 = 1/8 \hspace{0.05cm},\\
+
$\rm X$ und $\rm Y$ sind hier Platzhalter für die Symbole $\rm N$, $\rm Pund\rm M$. Dann gilt:
p_{\rm NM} \hspace{0.1cm} = \hspace{0.1cm} 1/2 \cdot 1/4 = 1/8\hspace{0.05cm},\hspace{0.2cm} p_{\rm MP} = 1/4 \cdot 1/2 = 1/8\hspace{0.05cm},\hspace{0.2cm}p_{\rm PN} =  1/4 \cdot 1/2 = 1/8$$
+
:$$p_{\rm NN} = 1/2 \cdot 1/2 = 1/4\hspace{0.05cm},\hspace{0.2cm}p_{\rm PP} =  1/4 \cdot 0 = 0\hspace{0.05cm},\hspace{0.2cm}p_{\rm MM} =  1/4 \cdot 0 = 0 \hspace{0.05cm},$$
:$$\Rightarrow \hspace{0.3cm} H_{\rm 2}  = \frac{1}{2} \cdot \left [ 1/4 \cdot {\rm log}_2\hspace{0.1cm}( 4) + 6 \cdot 1/8 \cdot {\rm log}_2\hspace{0.1cm} (8) \right ] \hspace{0.15cm} \underline {= 1.375 \,{\rm bit/Symbol}}  
+
:$$ p_{\rm NP} =  1/2 \cdot 1/4 = 1/8\hspace{0.05cm},\hspace{0.2cm} p_{\rm PM} = 1/4 \cdot 1/2 = 1/8\hspace{0.05cm},\hspace{0.2cm}p_{\rm MN} =  1/4 \cdot 1/2 = 1/8 \hspace{0.05cm},$$
 +
:$$ p_{\rm NM} =  1/2 \cdot 1/4 = 1/8\hspace{0.05cm},\hspace{0.2cm} p_{\rm MP} = 1/4 \cdot 1/2 = 1/8\hspace{0.05cm},\hspace{0.2cm}p_{\rm PN} =  1/4 \cdot 1/2 = 1/8$$
 +
:$$\Rightarrow \hspace{0.3cm} H_{\rm 2}  = {1}/{2} \cdot \left [ 1/4 \cdot {\rm log}_2\hspace{0.1cm}( 4) + 6 \cdot 1/8 \cdot {\rm log}_2\hspace{0.1cm} (8) \right ] \hspace{0.15cm} \underline {= 1.375 \,{\rm bit/Symbol}}  
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
  
:<b>3.</b>&nbsp;&nbsp;Da MQ3 Markoveigenschaften aufweist, können aus <i>H</i><sub>1</sub> und <i>H</i><sub>2</sub> alle Entropienäherungen <nobr><i>H<sub>k</sub></i> (<i>k</i> = 3, 4, ... )</nobr> direkt angegeben werden und auch der Grenzwert <i>H</i> = <i>H<sub>k</sub></i> für <i>k</i> &#8594; &#8734;:
+
'''(3)'''&nbsp; Da '''MQ3''' Markoveigenschaften aufweist, können aus H1 und H2 alle Entropienäherungen Hk (für $k = 3, 4,$ ... ) angegeben werden und auch der Grenzwert $H =H_\infty$  für $k \to \infty$:
:$$H  \hspace{0.1cm} = \hspace{0.1cm} 2 \cdot H_2 - H_1 = 2\cdot 1.375 - 1.5 \hspace{1.25cm} \underline {= 1.250 \,{\rm bit/Symbol}}\hspace{0.05cm},\\
+
:$$H  =  2 \cdot H_2 - H_1 = 2\cdot 1.375 - 1.5 \hspace{0.15cm} \underline {= 1.250 \,{\rm bit/Symbol}}\hspace{0.05cm},$$
H_3 \hspace{0.1cm} =  \hspace{0.1cm}  (H_1 + 2 \cdot H)/3 = (1.5 + 2 \cdot 1.25)/3 \hspace{0.15cm} \underline {= 1.333 \,{\rm bit/Symbol}}\hspace{0.05cm},\\
+
:$$ H_3 \hspace{0.1cm} =  \hspace{0.1cm}= (H_1 + 2 \cdot H)/3 = (1.5 + 2 \cdot 1.25)/3 \hspace{0.15cm} \underline {= 1.333 \,{\rm bit/Symbol}}\hspace{0.05cm},$$
H_4 \hspace{0.1cm} = \hspace{0.1cm} (H_1 + 3 \cdot H)/4 = (1.5 + 3 \cdot 1.25)/4 \hspace{0.15cm} \underline {= 1.3125 \,{\rm bit/Symbol}}\hspace{0.05cm}.$$
+
:$$ H_4 = (H_1 + 3 \cdot H)/4 = (1.5 + 3 \cdot 1.25)/4 \hspace{0.15cm} \underline {= 1.3125 \,{\rm bit/Symbol}}\hspace{0.05cm}.$$
:Die 10. Entropienäherung unterscheidet sich noch immer, wenn auch nur  geringfügig (um 2%) vom Endwert <i>H</i> = 1.25 bit/Symbol:
+
Die 10. Entropienäherung unterscheidet sich noch immer, wenn auch nur  geringfügig (um 2%) vom Endwert $H = 1.25 \, \rm bit/Symbol$:
 
:H10=(H1+9H)/10=(1.5+91.25)/10=1.275bit/Symbol.
 
:H10=(H1+9H)/10=(1.5+91.25)/10=1.275bit/Symbol.
  
:<b>4.</b>&nbsp;&nbsp;Entsprechend der Angabe sind hier die Symbole gleichwahrscheinlich. Daraus folgt:
+
'''(4)'''&nbsp; Entsprechend der Angabe sind bei '''MQ3''' die M=4 Symbole gleichwahrscheinlich. Daraus folgt:
 
:$$H_{\rm 1}  = H_{\rm 0}  = {\rm log}_2\hspace{0.1cm} (4)  \hspace{0.15cm} \underline {= 2 \,{\rm bit/Symbol}}  
 
:$$H_{\rm 1}  = H_{\rm 0}  = {\rm log}_2\hspace{0.1cm} (4)  \hspace{0.15cm} \underline {= 2 \,{\rm bit/Symbol}}  
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
  
:<b>5.</b>&nbsp;&nbsp;Von den <i>M</i><sup>2</sup> = 16 möglichen Zweiertupeln sind acht Kombinationen nicht möglich: <b>NP</b>, <b>NO</b>, <b>PP</b>, <b>PO</b>, <b>OM</b>, <b>ON</b>, <b>MM</b>, <b>MN</b>. Die acht weiteren Kombinationen (Zweiertupel) ergeben jeweils den Verbundwahrscheinlichkeitswert 1/8, wie an zwei Beispielen gezeigt werden soll:
+
'''(5)'''&nbsp; Von den $M^2 = 16$ möglichen Zweiertupeln sind acht Kombinationen nicht möglich:  
:$$p_{\rm NN} \hspace{0.1cm} = \hspace{0.1cm} p_{\rm N} \cdot p_{\rm N\hspace{0.01cm}|\hspace{0.01cm}N} = 1/4 \cdot 1/2 = 1/8  \hspace{0.05cm},\\
+
:$$\rm NP, NO, PP, PO, OM, ON, MM, MN.$$
p_{\rm MP} \hspace{0.1cm} = \hspace{0.1cm} p_{\rm M} \cdot p_{\rm P\hspace{0.01cm}|\hspace{0.01cm}M} = 1/4 \cdot 1/2 = 1/8  \hspace{0.05cm}.$$
+
 
:$$\Rightarrow \hspace{0.3cm} H_2 =  \frac{1}{2} \cdot \left [ 8 \cdot \frac{1}{8} \cdot {\rm log}_2\hspace{0.1cm} (8)  \right ] \hspace{0.15cm} \underline {= 1.5 \,{\rm bit/Symbol}}  
+
Die acht weiteren Kombinationen (Zweiertupel) ergeben jeweils den Verbundwahrscheinlichkeitswert $1/8$, wie an zwei Beispielen gezeigt wird:
 +
:$$p_{\rm NN} = p_{\rm N} \cdot p_{\rm N\hspace{0.01cm}|\hspace{0.01cm}N} = 1/4 \cdot 1/2 = 1/8  \hspace{0.05cm},$$
 +
:$$p_{\rm MP} = p_{\rm M} \cdot p_{\rm P\hspace{0.01cm}|\hspace{0.01cm}M} = 1/4 \cdot 1/2 = 1/8  \hspace{0.05cm}.$$
 +
:$$\Rightarrow \hspace{0.3cm} H_2 =  {1}/{2} \cdot \left [ 8 \cdot 1/8 \cdot {\rm log}_2\hspace{0.1cm} (8)  \right ] \hspace{0.15cm} \underline {= 1.5 \,{\rm bit/Symbol}}  
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
  
:<b>6.</b>&nbsp;&nbsp;Aufgrund der Markoveigenschaft gilt hier:
+
'''(6)'''&nbsp; Aufgrund der Markoveigenschaft gilt hier:
:$$H  \hspace{0.1cm} = \hspace{0.1cm} 2 \cdot H_2 - H_1 = 2\cdot 1.5 - 2 \hspace{1.15cm} \underline {= 1 \,{\rm bit/Symbol}}\hspace{0.05cm},\\
+
:$$H  =  2 \cdot H_2 - H_1 = 2\cdot 1.5 - 2 \hspace{0.15cm} \underline {= 1 \,{\rm bit/Symbol}}\hspace{0.05cm},$$
H_3 \hspace{0.1cm} = \hspace{0.1cm} (H_1 + 2 \cdot H)/3 = (2 + 2 \cdot 1)/3 \hspace{0.15cm} \underline {= 1.333 \,{\rm bit/Symbol}}\hspace{0.05cm},\\
+
:$$ H_3 =  (H_1 + 2 \cdot H)/3 = (2 + 2 \cdot 1)/3 \hspace{0.15cm} \underline {= 1.333 \,{\rm bit/Symbol}}\hspace{0.05cm},$$
H_4 \hspace{0.1cm} = \hspace{0.1cm} (H_1 + 3 \cdot H)/4 = (2 + 3 \cdot 1)/4 \hspace{0.15cm} \underline {= 1.250 \,{\rm bit/Symbol}}\hspace{0.05cm}.$$
+
:$$ H_4 = (H_1 + 3 \cdot H)/4 = (2 + 3 \cdot 1)/4 \hspace{0.15cm} \underline {= 1.250 \,{\rm bit/Symbol}}\hspace{0.05cm}.$$
:Auch hier unterscheidet sich die 10. Näherung noch deutlich vom Endwert, nämlich um 10%:
+
Auch hier unterscheidet sich die 10. Näherung noch deutlich, nämlich um $10\%$,  vom Endwert:
 
:H10=(H1+9H)/10=(2+91)/10=1.1bit/Symbol.
 
:H10=(H1+9H)/10=(2+91)/10=1.1bit/Symbol.
:Eine Abweichung um 2% ergibt sich hier erst für <i>k</i> = 50. Zum Vergleich: Bei der Markovquelle MQ3 wurde diese Annäherung bereits mit <i>k</i> = 10 erreicht.
+
Eine Abweichung um $2\%$ ergibt sich hier erst für $k = 50$. Zum Vergleich: Bei der Markovquelle '''MQ3''' wurde diese Annäherung bereits mit $k = 10$ erreicht.
 
{{ML-Fuß}}
 
{{ML-Fuß}}
  

Revision as of 11:03, 2 May 2017

Markovquellen mit M = 3 und M = 4

Die Grafik zeigt zwei ergodische Markovquellen (MQ):

  • Die Quelle MQ3 ist durch M=3 Zustände (Symbole) N, M, P gekennzeichnet. Aufgrund der Stationarität haben die Wahrscheinlichkeiten folgende Werte:
pN=1/2,pM=pP=1/4.
  • Bei der Quelle MQ4 ist zusätzlich der Zustand O möglich ⇒ M=4. Aufgrund der symmetrischen Übergänge sind die stationären Wahrscheinlichkeiten alle gleich:
pN=pM=pO=pP=1/4.

Informationstheoretisch sind Markovquellen von besonderer Bedeutung, da bei diesen – und nur bei diesen – durch

  • H1 (Entropienäherung, nur auf den Symbolwahrscheinlichkeiten basierend), und
  • H2 (zweite Entropienäherung, berechenbar mit den Verbundwahrscheinlichkeiten für alle Zweiertupel)

gleichzeitig auch bestimmt sind:

  • die weiteren Entropienäherungen Hk mit k=3,4, ... und
  • die tatsächliche Quellenentropie H.


Es gelten folgende Bestimmungsgleichungen:

H=2H2H1,Hk=1/k[H1+(k1)H].


Hinweise:

  • Die Aufgabe gehört zum Kapitel Nachrichtenquellen mit Gedächtnis.
  • Bezug genommen wird insbesondere auf die Seite Nichtbinäre Markovquellen.
  • Bei allen Entropien ist die Pseudoeinheit „bit/Symbol” hinzuzufügen.
  • Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0.” ein.


Fragebogen

1

Berechnen Sie die Entropienäherung H1 der Markovquelle MQ3.

H1 =

 bit/Symbol

2

Berechnen Sie die Entropienäherung H2 der Markovquelle MQ3.

H2 =

 bit/Symbol

3

Wie groß sind für MQ3 die tatsächliche Quellenentropie H und die Näherungen H3 und H4?

H =

 bit/Symbol
H3 =

 bit/Symbol
H4 =

 bit/Symbol

4

Berechnen Sie die Entropienäherung H1 der Markovquelle MQ4.

H1 =

 bit/Symbol

5

Berechnen Sie die Entropienäherung H2 der Markovquelle MQ4.

H2 =

 bit/Symbol

6

Wie groß sind für MQ4 die tatsächliche Quellenentropie H und die Näherungen H3 und H4?

H =

 bit/Symbol
H3 =

 bit/Symbol
H4 =

 bit/Symbol


Musterlösung

(1)  Die Symbolwahrscheinlichkeiten der ternären Markovquelle sind gegeben. Daraus lässt sich die Entropienäherung H1 berechnen:

H1=1/2log2(2)+21/4log2(4)=1.5bit/Symbol_.

(2)  Die Verbundwahrscheinlichkeit ist pXY=pXpY|X, wobei pX die Symbolwahrscheinlichkeit von X angibt und pY|X die bedingte Wahrscheinlichkeit für Y, unter der Voraussetzung, dass vorher X aufgetreten ist.

X und Y sind hier Platzhalter für die Symbole N, P und M. Dann gilt:

pNN=1/21/2=1/4,pPP=1/40=0,pMM=1/40=0,
pNP=1/21/4=1/8,pPM=1/41/2=1/8,pMN=1/41/2=1/8,
pNM=1/21/4=1/8,pMP=1/41/2=1/8,pPN=1/41/2=1/8
H2=1/2[1/4log2(4)+61/8log2(8)]=1.375bit/Symbol_.

(3)  Da MQ3 Markoveigenschaften aufweist, können aus H1 und H2 alle Entropienäherungen Hk (für k=3,4, ... ) angegeben werden und auch der Grenzwert H=H für k:

H=2H2H1=21.3751.5=1.250bit/Symbol_,
H3==(H1+2H)/3=(1.5+21.25)/3=1.333bit/Symbol_,
H4=(H1+3H)/4=(1.5+31.25)/4=1.3125bit/Symbol_.

Die 10. Entropienäherung unterscheidet sich noch immer, wenn auch nur geringfügig (um 2%) vom Endwert H=1.25bit/Symbol:

H10=(H1+9H)/10=(1.5+91.25)/10=1.275bit/Symbol.

(4)  Entsprechend der Angabe sind bei MQ3 die M=4 Symbole gleichwahrscheinlich. Daraus folgt:

H1=H0=log2(4)=2bit/Symbol_.

(5)  Von den M2=16 möglichen Zweiertupeln sind acht Kombinationen nicht möglich:

NP,NO,PP,PO,OM,ON,MM,MN.

Die acht weiteren Kombinationen (Zweiertupel) ergeben jeweils den Verbundwahrscheinlichkeitswert 1/8, wie an zwei Beispielen gezeigt wird:

pNN=pNpN|N=1/41/2=1/8,
pMP=pMpP|M=1/41/2=1/8.
H2=1/2[81/8log2(8)]=1.5bit/Symbol_.

(6)  Aufgrund der Markoveigenschaft gilt hier:

H=2H2H1=21.52=1bit/Symbol_,
H3=(H1+2H)/3=(2+21)/3=1.333bit/Symbol_,
H4=(H1+3H)/4=(2+31)/4=1.250bit/Symbol_.

Auch hier unterscheidet sich die 10. Näherung noch deutlich, nämlich um 10%, vom Endwert:

H10=(H1+9H)/10=(2+91)/10=1.1bit/Symbol.

Eine Abweichung um 2% ergibt sich hier erst für k=50. Zum Vergleich: Bei der Markovquelle MQ3 wurde diese Annäherung bereits mit k=10 erreicht.