Difference between revisions of "Aufgaben:Exercise 1.6: Non-Binary Markov Sources"
Line 20: | Line 20: | ||
* die weiteren Entropienäherungen Hk mit k=3,4, ... und | * die weiteren Entropienäherungen Hk mit k=3,4, ... und | ||
* die tatsächliche Quellenentropie H. | * die tatsächliche Quellenentropie H. | ||
+ | |||
Es gelten folgende Bestimmungsgleichungen: | Es gelten folgende Bestimmungsgleichungen: | ||
Line 74: | Line 75: | ||
===Musterlösung=== | ===Musterlösung=== | ||
{{ML-Kopf}} | {{ML-Kopf}} | ||
− | + | '''(1)''' Die Symbolwahrscheinlichkeiten der ternären Markovquelle sind gegeben. Daraus lässt sich die Entropienäherung H1 berechnen: | |
:$$H_{\rm 1} = 1/2 \cdot {\rm log}_2\hspace{0.1cm} (2) + 2 \cdot 1/4 \cdot {\rm log}_2\hspace{0.1cm}(4 ) \hspace{0.15cm} \underline {= 1.5 \,{\rm bit/Symbol}} | :$$H_{\rm 1} = 1/2 \cdot {\rm log}_2\hspace{0.1cm} (2) + 2 \cdot 1/4 \cdot {\rm log}_2\hspace{0.1cm}(4 ) \hspace{0.15cm} \underline {= 1.5 \,{\rm bit/Symbol}} | ||
\hspace{0.05cm}.$$ | \hspace{0.05cm}.$$ | ||
− | + | '''(2)''' Die Verbundwahrscheinlichkeit ist $p_{\rm XY} = p_{\rm X} \cdot p_{\rm Y|X}$, wobei $p_{\rm X}$ die Symbolwahrscheinlichkeit von $\rm X$ angibt und $p_{\rm Y|X}$ die bedingte Wahrscheinlichkeit für $\rm Y$, unter der Voraussetzung, dass vorher $\rm X$ aufgetreten ist. | |
− | :$$p_{\rm NN | + | |
− | + | $\rm X$ und $\rm Y$ sind hier Platzhalter für die Symbole $\rm N$, $\rm Pund\rm M$. Dann gilt: | |
− | + | :$$p_{\rm NN} = 1/2 \cdot 1/2 = 1/4\hspace{0.05cm},\hspace{0.2cm}p_{\rm PP} = 1/4 \cdot 0 = 0\hspace{0.05cm},\hspace{0.2cm}p_{\rm MM} = 1/4 \cdot 0 = 0 \hspace{0.05cm},$$ | |
− | :$$\Rightarrow \hspace{0.3cm} H_{\rm 2} = | + | :$$ p_{\rm NP} = 1/2 \cdot 1/4 = 1/8\hspace{0.05cm},\hspace{0.2cm} p_{\rm PM} = 1/4 \cdot 1/2 = 1/8\hspace{0.05cm},\hspace{0.2cm}p_{\rm MN} = 1/4 \cdot 1/2 = 1/8 \hspace{0.05cm},$$ |
+ | :$$ p_{\rm NM} = 1/2 \cdot 1/4 = 1/8\hspace{0.05cm},\hspace{0.2cm} p_{\rm MP} = 1/4 \cdot 1/2 = 1/8\hspace{0.05cm},\hspace{0.2cm}p_{\rm PN} = 1/4 \cdot 1/2 = 1/8$$ | ||
+ | :$$\Rightarrow \hspace{0.3cm} H_{\rm 2} = {1}/{2} \cdot \left [ 1/4 \cdot {\rm log}_2\hspace{0.1cm}( 4) + 6 \cdot 1/8 \cdot {\rm log}_2\hspace{0.1cm} (8) \right ] \hspace{0.15cm} \underline {= 1.375 \,{\rm bit/Symbol}} | ||
\hspace{0.05cm}.$$ | \hspace{0.05cm}.$$ | ||
− | + | '''(3)''' Da '''MQ3''' Markoveigenschaften aufweist, können aus H1 und H2 alle Entropienäherungen Hk (für $k = 3, 4,$ ... ) angegeben werden und auch der Grenzwert $H =H_\infty$ für $k \to \infty$: | |
− | :$$H | + | :$$H = 2 \cdot H_2 - H_1 = 2\cdot 1.375 - 1.5 \hspace{0.15cm} \underline {= 1.250 \,{\rm bit/Symbol}}\hspace{0.05cm},$$ |
− | + | :$$ H_3 \hspace{0.1cm} = \hspace{0.1cm}= (H_1 + 2 \cdot H)/3 = (1.5 + 2 \cdot 1.25)/3 \hspace{0.15cm} \underline {= 1.333 \,{\rm bit/Symbol}}\hspace{0.05cm},$$ | |
− | + | :$$ H_4 = (H_1 + 3 \cdot H)/4 = (1.5 + 3 \cdot 1.25)/4 \hspace{0.15cm} \underline {= 1.3125 \,{\rm bit/Symbol}}\hspace{0.05cm}.$$ | |
− | + | Die 10. Entropienäherung unterscheidet sich noch immer, wenn auch nur geringfügig (um 2%) vom Endwert $H = 1.25 \, \rm bit/Symbol$: | |
:H10=(H1+9⋅H)/10=(1.5+9⋅1.25)/10=1.275bit/Symbol. | :H10=(H1+9⋅H)/10=(1.5+9⋅1.25)/10=1.275bit/Symbol. | ||
− | + | '''(4)''' Entsprechend der Angabe sind bei '''MQ3''' die M=4 Symbole gleichwahrscheinlich. Daraus folgt: | |
:$$H_{\rm 1} = H_{\rm 0} = {\rm log}_2\hspace{0.1cm} (4) \hspace{0.15cm} \underline {= 2 \,{\rm bit/Symbol}} | :$$H_{\rm 1} = H_{\rm 0} = {\rm log}_2\hspace{0.1cm} (4) \hspace{0.15cm} \underline {= 2 \,{\rm bit/Symbol}} | ||
\hspace{0.05cm}.$$ | \hspace{0.05cm}.$$ | ||
− | + | '''(5)''' Von den $M^2 = 16$ möglichen Zweiertupeln sind acht Kombinationen nicht möglich: | |
− | :$$p_{\rm NN | + | :$$\rm NP, NO, PP, PO, OM, ON, MM, MN.$$ |
− | p_{\rm MP | + | |
− | :$$\Rightarrow \hspace{0.3cm} H_2 = | + | Die acht weiteren Kombinationen (Zweiertupel) ergeben jeweils den Verbundwahrscheinlichkeitswert $1/8$, wie an zwei Beispielen gezeigt wird: |
+ | :$$p_{\rm NN} = p_{\rm N} \cdot p_{\rm N\hspace{0.01cm}|\hspace{0.01cm}N} = 1/4 \cdot 1/2 = 1/8 \hspace{0.05cm},$$ | ||
+ | :$$p_{\rm MP} = p_{\rm M} \cdot p_{\rm P\hspace{0.01cm}|\hspace{0.01cm}M} = 1/4 \cdot 1/2 = 1/8 \hspace{0.05cm}.$$ | ||
+ | :$$\Rightarrow \hspace{0.3cm} H_2 = {1}/{2} \cdot \left [ 8 \cdot 1/8 \cdot {\rm log}_2\hspace{0.1cm} (8) \right ] \hspace{0.15cm} \underline {= 1.5 \,{\rm bit/Symbol}} | ||
\hspace{0.05cm}.$$ | \hspace{0.05cm}.$$ | ||
− | + | '''(6)''' Aufgrund der Markoveigenschaft gilt hier: | |
− | :$$H | + | :$$H = 2 \cdot H_2 - H_1 = 2\cdot 1.5 - 2 \hspace{0.15cm} \underline {= 1 \,{\rm bit/Symbol}}\hspace{0.05cm},$$ |
− | + | :$$ H_3 = (H_1 + 2 \cdot H)/3 = (2 + 2 \cdot 1)/3 \hspace{0.15cm} \underline {= 1.333 \,{\rm bit/Symbol}}\hspace{0.05cm},$$ | |
− | + | :$$ H_4 = (H_1 + 3 \cdot H)/4 = (2 + 3 \cdot 1)/4 \hspace{0.15cm} \underline {= 1.250 \,{\rm bit/Symbol}}\hspace{0.05cm}.$$ | |
− | + | Auch hier unterscheidet sich die 10. Näherung noch deutlich, nämlich um $10\%$, vom Endwert: | |
:H10=(H1+9⋅H)/10=(2+9⋅1)/10=1.1bit/Symbol. | :H10=(H1+9⋅H)/10=(2+9⋅1)/10=1.1bit/Symbol. | ||
− | + | Eine Abweichung um $2\%$ ergibt sich hier erst für $k = 50$. Zum Vergleich: Bei der Markovquelle '''MQ3''' wurde diese Annäherung bereits mit $k = 10$ erreicht. | |
{{ML-Fuß}} | {{ML-Fuß}} | ||
Revision as of 11:03, 2 May 2017
Die Grafik zeigt zwei ergodische Markovquellen (MQ):
- Die Quelle MQ3 ist durch M=3 Zustände (Symbole) N, M, P gekennzeichnet. Aufgrund der Stationarität haben die Wahrscheinlichkeiten folgende Werte:
- pN=1/2,pM=pP=1/4.
- Bei der Quelle MQ4 ist zusätzlich der Zustand O möglich ⇒ M=4. Aufgrund der symmetrischen Übergänge sind die stationären Wahrscheinlichkeiten alle gleich:
- pN=pM=pO=pP=1/4.
Informationstheoretisch sind Markovquellen von besonderer Bedeutung, da bei diesen – und nur bei diesen – durch
- H1 (Entropienäherung, nur auf den Symbolwahrscheinlichkeiten basierend), und
- H2 (zweite Entropienäherung, berechenbar mit den Verbundwahrscheinlichkeiten für alle Zweiertupel)
gleichzeitig auch bestimmt sind:
- die weiteren Entropienäherungen Hk mit k=3,4, ... und
- die tatsächliche Quellenentropie H.
Es gelten folgende Bestimmungsgleichungen:
- H=2⋅H2−H1,Hk=1/k⋅[H1+(k−1)⋅H].
Hinweise:
- Die Aufgabe gehört zum Kapitel Nachrichtenquellen mit Gedächtnis.
- Bezug genommen wird insbesondere auf die Seite Nichtbinäre Markovquellen.
- Bei allen Entropien ist die Pseudoeinheit „bit/Symbol” hinzuzufügen.
- Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0.” ein.
Fragebogen
Musterlösung
- H1=1/2⋅log2(2)+2⋅1/4⋅log2(4)=1.5bit/Symbol_.
(2) Die Verbundwahrscheinlichkeit ist pXY=pX⋅pY|X, wobei pX die Symbolwahrscheinlichkeit von X angibt und pY|X die bedingte Wahrscheinlichkeit für Y, unter der Voraussetzung, dass vorher X aufgetreten ist.
X und Y sind hier Platzhalter für die Symbole N, P und M. Dann gilt:
- pNN=1/2⋅1/2=1/4,pPP=1/4⋅0=0,pMM=1/4⋅0=0,
- pNP=1/2⋅1/4=1/8,pPM=1/4⋅1/2=1/8,pMN=1/4⋅1/2=1/8,
- pNM=1/2⋅1/4=1/8,pMP=1/4⋅1/2=1/8,pPN=1/4⋅1/2=1/8
- ⇒H2=1/2⋅[1/4⋅log2(4)+6⋅1/8⋅log2(8)]=1.375bit/Symbol_.
(3) Da MQ3 Markoveigenschaften aufweist, können aus H1 und H2 alle Entropienäherungen Hk (für k=3,4, ... ) angegeben werden und auch der Grenzwert H=H∞ für k→∞:
- H=2⋅H2−H1=2⋅1.375−1.5=1.250bit/Symbol_,
- H3==(H1+2⋅H)/3=(1.5+2⋅1.25)/3=1.333bit/Symbol_,
- H4=(H1+3⋅H)/4=(1.5+3⋅1.25)/4=1.3125bit/Symbol_.
Die 10. Entropienäherung unterscheidet sich noch immer, wenn auch nur geringfügig (um 2%) vom Endwert H=1.25bit/Symbol:
- H10=(H1+9⋅H)/10=(1.5+9⋅1.25)/10=1.275bit/Symbol.
(4) Entsprechend der Angabe sind bei MQ3 die M=4 Symbole gleichwahrscheinlich. Daraus folgt:
- H1=H0=log2(4)=2bit/Symbol_.
(5) Von den M2=16 möglichen Zweiertupeln sind acht Kombinationen nicht möglich:
- NP,NO,PP,PO,OM,ON,MM,MN.
Die acht weiteren Kombinationen (Zweiertupel) ergeben jeweils den Verbundwahrscheinlichkeitswert 1/8, wie an zwei Beispielen gezeigt wird:
- pNN=pN⋅pN|N=1/4⋅1/2=1/8,
- pMP=pM⋅pP|M=1/4⋅1/2=1/8.
- ⇒H2=1/2⋅[8⋅1/8⋅log2(8)]=1.5bit/Symbol_.
(6) Aufgrund der Markoveigenschaft gilt hier:
- H=2⋅H2−H1=2⋅1.5−2=1bit/Symbol_,
- H3=(H1+2⋅H)/3=(2+2⋅1)/3=1.333bit/Symbol_,
- H4=(H1+3⋅H)/4=(2+3⋅1)/4=1.250bit/Symbol_.
Auch hier unterscheidet sich die 10. Näherung noch deutlich, nämlich um 10%, vom Endwert:
- H10=(H1+9⋅H)/10=(2+9⋅1)/10=1.1bit/Symbol.
Eine Abweichung um 2% ergibt sich hier erst für k=50. Zum Vergleich: Bei der Markovquelle MQ3 wurde diese Annäherung bereits mit k=10 erreicht.