Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Exercise 1.6: Non-Binary Markov Sources

From LNTwww

Markovquellen mit M = 3 und M = 4

Die Grafik zeigt zwei ergodische Markovquellen (MQ):

  • Die Quelle MQ3 ist durch M=3 Zustände (Symbole) N, M, P gekennzeichnet. Aufgrund der Stationarität haben die Wahrscheinlichkeiten folgende Werte:
pN=1/2,pM=pP=1/4.
  • Bei der Quelle MQ4 ist zusätzlich der Zustand O möglich ⇒ M=4. Aufgrund der symmetrischen Übergänge sind die stationären Wahrscheinlichkeiten alle gleich:
pN=pM=pO=pP=1/4.

Informationstheoretisch sind Markovquellen von besonderer Bedeutung, da bei diesen – und nur bei diesen – durch

  • H1 (Entropienäherung, nur auf den Symbolwahrscheinlichkeiten basierend), und
  • H2 (zweite Entropienäherung, berechenbar mit den Verbundwahrscheinlichkeiten für alle Zweiertupel)

gleichzeitig auch bestimmt sind:

  • die weiteren Entropienäherungen Hk mit k=3,4, ... und
  • die tatsächliche Quellenentropie H.


Es gelten folgende Bestimmungsgleichungen:

H=2H2H1,Hk=1/k[H1+(k1)H].


Hinweise:

  • Die Aufgabe gehört zum Kapitel Nachrichtenquellen mit Gedächtnis.
  • Bezug genommen wird insbesondere auf die Seite Nichtbinäre Markovquellen.
  • Bei allen Entropien ist die Pseudoeinheit „bit/Symbol” hinzuzufügen.
  • Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0.” ein.


Fragebogen

1

Berechnen Sie die Entropienäherung H1 der Markovquelle MQ3.

H1 =

 bit/Symbol

2

Berechnen Sie die Entropienäherung H2 der Markovquelle MQ3.

H2 =

 bit/Symbol

3

Wie groß sind für MQ3 die tatsächliche Quellenentropie H und die Näherungen H3 und H4?

H =

 bit/Symbol
H3 =

 bit/Symbol
H4 =

 bit/Symbol

4

Berechnen Sie die Entropienäherung H1 der Markovquelle MQ4.

H1 =

 bit/Symbol

5

Berechnen Sie die Entropienäherung H2 der Markovquelle MQ4.

H2 =

 bit/Symbol

6

Wie groß sind für MQ4 die tatsächliche Quellenentropie H und die Näherungen H3 und H4?

H =

 bit/Symbol
H3 =

 bit/Symbol
H4 =

 bit/Symbol


Musterlösung

(1)  Die Symbolwahrscheinlichkeiten der ternären Markovquelle sind gegeben. Daraus lässt sich die Entropienäherung H1 berechnen:

H1=1/2log2(2)+21/4log2(4)=1.5bit/Symbol_.

(2)  Die Verbundwahrscheinlichkeit ist pXY=pXpY|X, wobei pX die Symbolwahrscheinlichkeit von X angibt und pY|X die bedingte Wahrscheinlichkeit für Y, unter der Voraussetzung, dass vorher X aufgetreten ist.

X und Y sind hier Platzhalter für die Symbole N, P und M. Dann gilt:

pNN=1/21/2=1/4,pPP=1/40=0,pMM=1/40=0,
pNP=1/21/4=1/8,pPM=1/41/2=1/8,pMN=1/41/2=1/8,
pNM=1/21/4=1/8,pMP=1/41/2=1/8,pPN=1/41/2=1/8
H2=1/2[1/4log2(4)+61/8log2(8)]=1.375bit/Symbol_.

(3)  Da MQ3 Markoveigenschaften aufweist, können aus H1 und H2 alle Entropienäherungen Hk (für k=3,4, ... ) angegeben werden und auch der Grenzwert H=H für k:

H=2H2H1=21.3751.5=1.250bit/Symbol_,
H3==(H1+2H)/3=(1.5+21.25)/3=1.333bit/Symbol_,
H4=(H1+3H)/4=(1.5+31.25)/4=1.3125bit/Symbol_.

Die 10. Entropienäherung unterscheidet sich noch immer, wenn auch nur geringfügig (um 2%) vom Endwert H=1.25bit/Symbol:

H10=(H1+9H)/10=(1.5+91.25)/10=1.275bit/Symbol.

(4)  Entsprechend der Angabe sind bei MQ3 die M=4 Symbole gleichwahrscheinlich. Daraus folgt:

H1=H0=log2(4)=2bit/Symbol_.

(5)  Von den M2=16 möglichen Zweiertupeln sind acht Kombinationen nicht möglich:

NP,NO,PP,PO,OM,ON,MM,MN.

Die acht weiteren Kombinationen (Zweiertupel) ergeben jeweils den Verbundwahrscheinlichkeitswert 1/8, wie an zwei Beispielen gezeigt wird:

pNN=pNpN|N=1/41/2=1/8,
pMP=pMpP|M=1/41/2=1/8.
H2=1/2[81/8log2(8)]=1.5bit/Symbol_.

(6)  Aufgrund der Markoveigenschaft gilt hier:

H=2H2H1=21.52=1bit/Symbol_,
H3=(H1+2H)/3=(2+21)/3=1.333bit/Symbol_,
H4=(H1+3H)/4=(2+31)/4=1.250bit/Symbol_.

Auch hier unterscheidet sich die 10. Näherung noch deutlich, nämlich um 10%, vom Endwert:

H10=(H1+9H)/10=(2+91)/10=1.1bit/Symbol.

Eine Abweichung um 2% ergibt sich hier erst für k=50. Zum Vergleich: Bei der Markovquelle MQ3 wurde diese Annäherung bereits mit k=10 erreicht.