Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Exercise 1.6: Non-Binary Markov Sources

From LNTwww
Revision as of 12:27, 1 December 2016 by Markus (talk | contribs)

P ID2253 Inf A 1 6.png
Die Grafik zeigt zwei ergodische Markovquellen (MQ):
  • Die Quelle MQ3 ist durch M = 3 Zustände (Symbole) N, M, P gekennzeichnet. Aufgrund der Stationarität haben die Wahrscheinlichkeiten folgende Werte:
pN=1/2,pM=pP=1/4.
  • Bei der Quelle MQ4 ist zusätzlich der Zustand O möglich ⇒ M = 4. Aufgrund der symmetrischen Übergänge sind die stationären Wahrscheinlichkeiten alle gleich:
pN=pM=pO=pP=1/4.
Informationstheoretisch sind Markovquellen von besonderer Bedeutung, da bei diesen – und nur bei diesen – durch H1 (Entropienäherung, nur auf den Symbolwahrscheinlichkeiten basierend) und H2 (zweite Entropienäherung, berechenbar mit den Verbundwahrscheinlichkeiten für alle Zweiertupel) gleichzeitig auch
  • die weiteren Entropienäherungen Hk(k = 3, 4, ... ) und
  • die tatsächliche Quellenentropie H
bestimmt sind. Es gelten folgende Bestimmungsgleichungen:
H=2H2H1,Hk=1k[H1+(k1)H].
Hinweis: Die Aufgabe gehört zu Kapitel 1.2. Hier finden Sie auch Hinweise zur Berechnung der ersten und zweiten Entropienäherung.


Fragebogen

1

Berechnen Sie die Entropienäherung H1 der Markovquelle MQ3.

MQ3: H1 =

bit/Symbol

2

Berechnen Sie die Entropienäherung H2 der Markovquelle MQ3.

MQ3: H2 =

bit/Symbol

3

Wie groß sind die Näherungen H3 und H4 und die Quellenentropie H?

MQ3: H3 =

bit/Symbol
H4 =

bit/Symbol
H =

bit/Symbol

4

Berechnen Sie die Entropienäherung H1 der Markovquelle MQ4.

MQ4: H1 =

bit/Symbol

5

Berechnen Sie die Entropienäherung H2 der Markovquelle MQ4.

MQ4: H2 =

bit/Symbol

6

Wie groß sind hier die Näherungen H3 und H4 und die Quellenentropie H?

MQ4: H3 =

bit/Symbol
H4 =

bit/Symbol
H =

bit/Symbol


Musterlösung

1.  Die Symbolwahrscheinlichkeiten der ternären Markovquelle sind gegeben. Daraus lässt sich die Entropienäherung H1 berechnen:
H1=1/2log2(2)+21/4log2(4)=1.5bit/Symbol_.
2.  Die Verbundwahrscheinlichkeit ist pXY = pX · pY|X, wobei pX die Symbolwahrscheinlichkeit von X angibt und pY|X die bedingte Wahrscheinlichkeit für Y, unter der Voraussetzung, dass vorher X aufgetreten ist. X und Y sind hier Platzhalter für die Symbole N, P, M. Dann gilt:
pNN=1/21/2=1/4,pPP=1/40=0,pMM=1/40=0,pNP=1/21/4=1/8,pPM=1/41/2=1/8,pMN=1/41/2=1/8,pNM=1/21/4=1/8,pMP=1/41/2=1/8,pPN=1/41/2=1/8
H2=12[1/4log2(4)+61/8log2(8)]=1.375bit/Symbol_.
3.  Da MQ3 Markoveigenschaften aufweist, können aus H1 und H2 alle Entropienäherungen <nobr>Hk (k = 3, 4, ... )</nobr> direkt angegeben werden und auch der Grenzwert H = Hk für k → ∞:
H=2H2H1=21.3751.5=1.250bit/Symbol_,H3=(H1+2H)/3=(1.5+21.25)/3=1.333bit/Symbol_,H4=(H1+3H)/4=(1.5+31.25)/4=1.3125bit/Symbol_.
Die 10. Entropienäherung unterscheidet sich noch immer, wenn auch nur geringfügig (um 2%) vom Endwert H = 1.25 bit/Symbol:
H10=(H1+9H)/10=(1.5+91.25)/10=1.275bit/Symbol.
4.  Entsprechend der Angabe sind hier die Symbole gleichwahrscheinlich. Daraus folgt:
H1=H0=log2(4)=2bit/Symbol_.
5.  Von den M2 = 16 möglichen Zweiertupeln sind acht Kombinationen nicht möglich: NP, NO, PP, PO, OM, ON, MM, MN. Die acht weiteren Kombinationen (Zweiertupel) ergeben jeweils den Verbundwahrscheinlichkeitswert 1/8, wie an zwei Beispielen gezeigt werden soll:
pNN=pNpN|N=1/41/2=1/8,pMP=pMpP|M=1/41/2=1/8.
H2=12[818log2(8)]=1.5bit/Symbol_.
6.  Aufgrund der Markoveigenschaft gilt hier:
H=2H2H1=21.52=1bit/Symbol_,H3=(H1+2H)/3=(2+21)/3=1.333bit/Symbol_,H4=(H1+3H)/4=(2+31)/4=1.250bit/Symbol_.
Auch hier unterscheidet sich die 10. Näherung noch deutlich vom Endwert, nämlich um 10%:
H10=(H1+9H)/10=(2+91)/10=1.1bit/Symbol.
Eine Abweichung um 2% ergibt sich hier erst für k = 50. Zum Vergleich: Bei der Markovquelle MQ3 wurde diese Annäherung bereits mit k = 10 erreicht.