Exercise 1.5: Binary Markov Source

From LNTwww
Revision as of 16:30, 1 May 2017 by Guenter (talk | contribs)

Binäres Markovdiagramm

Die Aufgabe 1.4 hat gezeigt, dass die Berechnung der Entropie bei einer gedächtnisbehafteten Quelle sehr aufwändig sein kann. Man muss dann zunächst (sehr viele) Entropienäherungen Hk für k–Tupel berechnen und kann erst dann mit dem Grenzübergang k die Quellenentropie ermitteln:

H=limkHk.

Oft tendiert dabei Hk nur sehr langsam gegen den Grenzwert H.

Der Rechengang wird drastisch reduziert, wenn die Nachrichtenquelle Markoveigenschaften besitzt. Die Grafik zeigt das Übergangsdiagramm für eine binäre Markovquelle mit den zwei Zuständen (Symbolen) A und B.

  • Dieses ist durch die beiden bedingten Wahrscheinlichkeiten pA|B=p und pB|A=q eindeutig bestimmt.
  • Die bedingten Wahrscheinlichkeiten pA|A und pB|B sowie die Symbolwahrscheinlichkeiten pA und pB lassen sich daraus ermitteln.


Die Entropie der binären Markovkette (mit der Einheit „bit/Symbol”) lautet dann:

H=HM=pAAlog21pA|A+pABlog21pB|A+pBAlog21pA|B+pBBlog21pB|B.

Bei dieser Gleichung ist zu beachten, dass im Argument des Logarithmus dualis jeweils die bedingten Wahrscheinlichkeiten pA|A, pB|A, ... einzusetzen sind, während für die Gewichtung die Verbundwahrscheinlichkeiten pAA, pAB, ... zu verwenden sind.

Mit der Entropienäherung erster Ordnung,

H1=pAlog21pA+pBlog21pB(Einheit:bit/Symbol),

sowie der oben angegebenen (tatsächlichen) Entropie H=HM lassen sich bei einer Markovquelle auch alle weiteren Entropienäherungen (k=2,,3, ...) direkt berechnen:

Hk=1k[H1+(k1)HM].


Hinweise:

  • Die Aufgabe gehört zum Kapitel Nachrichtenquellen mit Gedächtnis.
  • Bezug genommen wird insbesondere auch auf die beiden Seiten Schnittmenge und Bedingte Wahrscheinlichkeit.
  • Mit Ausnahme der Teilaufgabe (6) gelte stets p=1/4 und q=1/2.
  • Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0.” ein.
  • Für die (ergodischen) Symbolwahrscheinlichkeiten einer Markovkette erster Ordnung gilt:
pA=pA|BpA|B+pB|A,pB=pB|ApA|B+pB|A.


Fragebogen

1

Geben Sie die Übergangswahrscheinlichkeiten für p=1/4 und q=1/2 an.

pA|A =

pB|B =

2

Wie groß sind die Symbolwahrscheinlichkeiten? Es gelte weiterhin p=1/4 und q=1/2.

pA =

pB =

3

Geben Sie die dazugehörige Entropienäherung erster Ordnung an.

H1 =

 bit/Symbol

4

Welche Entropie H=HM besitzt diese Markovquelle mit p=1/4 und q=1/2?

H =

 bit/Symbol

5

Welche Näherungen Hk ergeben sich aufgrund der Markoveigenschaften?

H2 =

 bit/Symbol
H3 =

 bit/Symbol
H4 =

 bit/Symbol

6

Welche Entropie H=HM besitzt die Markovquelle mit p=1/4 und q=3/4?

H =

 bit/Symbol


Musterlösung

P ID2757 Inf A 1 5.png
1.  Hier gilt für die Übergangswahrscheinlichkeiten:
pA|A=1pB|A=1q=0.5_,pB|B=1pA|B=1p=0.75_.
Nach A sind A und B gleichwahrscheinlich. Nach B tritt B sehr viel häufiger als A auf.
2.  Entsprechend den angegebenen Gleichungen gilt:
pA=pp+q=0.250.25+0.50=0.333_,
pB=qp+q=0.500.25+0.50=0.667_.
3.  Mit den unter (b) berechneten Wahrscheinlichkeiten gilt:
H1=Hbin(pA)=1/3log2(3)+2/3log2(1.5)=1.5852/3=0.918bit/Symbol_.
4.  Die Entropie der Markovquelle lautet entsprechend der Angabe
H=pAAlog21pA|A+pABlog21pB|A+pBAlog21pA|B+pBBlog21pB|B.
Für die Verbundwahrscheinlichkeiten gilt:
pAA=pA|ApA=(1q)pp+q=1/21/43/4=16,pAB=pB|ApA=qpp+q=1/21/43/4=16,pBA=pA|BpB=pqp+q=pAB=16,pBB=pB|BpB=(1p)qp+q=3/41/23/4=12
H=1/6log2(2)+1/6log2(2)+1/6log2(4)+1/2log2(4/3)==1/6+1/6+2/6+11/2log2(3)=0.875bit/Symbol_.
5.  Allgemein gilt mit HM = H für die k–Entropienäherung:
Hk=1k[H1+(k1)HM].
Daraus folgt:
H2=12[0.918+10.875]=0.897bit/Symbol_,H3=13[0.918+20.875]=0.889bit/Symbol_,H4=14[0.918+30.875]=0.886bit/Symbol_.
P ID2251 Inf A 1 5f.png
6.  Mit dem neuen Parametersatz (p = 1/4, q = 3/4) erhält man für die Symbolwahrscheinlichkeiten: pA = 1/4 und pB = 3/4. Dieser Sonderfall führt demnach zu statistisch unabhängigen Symbolen:
pA=pA|A=pA|B,pB=pB|A=pB|B.
Damit ist die Entropie H identisch mit der Entropienäherung H1:
H=H1=1/4log2(4)+3/4log2(4/3)=20.75log2(3)=0.811bit/Symbol_.
Die Entropienäherungen H2, H3, H4, ... liefern hier ebenfalls das Ergebnis 0.811 bit/Symbol.