Difference between revisions of "Aufgaben:Exercise 1.5: Binary Markov Source"

From LNTwww
m (Textersetzung - „*Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0.” ein.“ durch „ “)
Line 3: Line 3:
 
}}
 
}}
  
[[File:P_ID2250__Inf_A_1_5.png|right|Betrachtetes binäres Markovdiagramm]]
+
[[File:P_ID2250__Inf_A_1_5.png|right|frame|Binäres Markovdiagramm]]
Die [[Aufgaben:1.4_Entropienäherungen_für_den_AMI-Code|Aufgabe 1.4]] hat gezeigt, dass die Berechnung der Entropie bei einer gedächtnisbehafteten Quelle sehr aufwändig sein kann. Man muss dann zunächst (sehr viele) Entropienäherungen Hk für k–Tupel berechnen und kann erst  dann mit dem Grenzübergang k die Quellenentropie ermitteln:
+
Die [[Aufgaben:1.4_Entropienäherungen_für_den_AMI-Code|Aufgabe 1.4]] hat gezeigt, dass die Berechnung der Entropie bei einer gedächtnisbehafteten Quelle sehr aufwändig sein kann. Man muss dann zunächst (sehr viele) Entropienäherungen Hk für k–Tupel berechnen und kann erst  dann die Quellenentropie mit dem Grenzübergang k ermitteln:
 
:H=limkHk.
 
:H=limkHk.
 
Oft tendiert dabei Hk nur sehr langsam gegen den Grenzwert H.
 
Oft tendiert dabei Hk nur sehr langsam gegen den Grenzwert H.
  
 
Der Rechengang wird drastisch reduziert, wenn die Nachrichtenquelle Markoveigenschaften besitzt. Die Grafik zeigt das Übergangsdiagramm für eine binäre Markovquelle mit den zwei Zuständen (Symbolen) A und B.  
 
Der Rechengang wird drastisch reduziert, wenn die Nachrichtenquelle Markoveigenschaften besitzt. Die Grafik zeigt das Übergangsdiagramm für eine binäre Markovquelle mit den zwei Zuständen (Symbolen) A und B.  
*Dieses ist durch die beiden bedingten Wahrscheinlichkeiten pA|B=p und pB|A=q eindeutig bestimmt.  
+
*Dieses ist durch die beiden bedingten Wahrscheinlichkeiten pA|B=p  und  pB|A=q eindeutig bestimmt.  
*Die bedingten Wahrscheinlichkeiten pA|A und pB|B sowie die Symbolwahrscheinlichkeiten pA und pB lassen sich daraus ermitteln.
+
*Die bedingten Wahrscheinlichkeiten pA|A  und  pB|B sowie die Symbolwahrscheinlichkeiten pA  und  pB lassen sich daraus ermitteln.
  
  
Line 17: Line 17:
 
{\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B}}
 
{\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B}}
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
Bei dieser Gleichung ist zu beachten, dass im Argument des <i>Logarithmus dualis</i> jeweils die [[Stochastische_Signaltheorie/Statistische_Abhängigkeit_und_Unabhängigkeit#Bedingte_Wahrscheinlichkeit|bedingten Wahrscheinlichkeiten]] pA|A, pB|A, ... einzusetzen sind, während für die Gewichtung die [[Stochastische_Signaltheorie/Mengentheoretische_Grundlagen#Schnittmenge|Verbundwahrscheinlichkeiten]] pAA, pAB, ... zu verwenden sind.
+
Bei dieser Gleichung ist zu beachten, dass im Argument des <i>Logarithmus dualis</i>&nbsp; jeweils die [[Stochastische_Signaltheorie/Statistische_Abhängigkeit_und_Unabhängigkeit#Bedingte_Wahrscheinlichkeit|bedingten Wahrscheinlichkeiten]] pA|A, pB|A, ... &nbsp; einzusetzen sind, während für die Gewichtung die [[Stochastische_Signaltheorie/Mengentheoretische_Grundlagen#Schnittmenge|Verbundwahrscheinlichkeiten]] pAA, pAB, ... &nbsp; zu verwenden sind.
  
 
Mit der Entropienäherung erster Ordnung,
 
Mit der Entropienäherung erster Ordnung,
Line 23: Line 23:
 
{\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B}}
 
{\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B}}
 
  \hspace{0.5cm}({\rm Einheit\hspace{-0.1cm}: \hspace{0.1cm}bit/Symbol})\hspace{0.05cm},$$
 
  \hspace{0.5cm}({\rm Einheit\hspace{-0.1cm}: \hspace{0.1cm}bit/Symbol})\hspace{0.05cm},$$
sowie der oben angegebenen (tatsächlichen) Entropie H=HM lassen sich bei einer Markovquelle auch alle weiteren Entropienäherungen ($k = 2,, 3$, ...) direkt berechnen:
+
sowie der oben angegebenen (tatsächlichen) Entropie H=HM lassen sich bei einer Markovquelle auch alle weiteren Entropienäherungen $(k = 2,, 3, \text{...})$ direkt berechnen:
:$$H_k =  \frac{1}{k} \cdot [ H_{\rm 1} + (k-1) \cdot H_{\rm M}]  
+
:$$H_k =  \frac{1}{k} \cdot \big [ H_{\rm 1} + (k-1) \cdot H_{\rm M} \big ]  
 
  \hspace{0.05cm}.$$
 
  \hspace{0.05cm}.$$
 +
 +
 +
  
  
Line 31: Line 34:
 
*Die Aufgabe gehört zum  Kapitel [[Informationstheorie/Nachrichtenquellen_mit_Gedächtnis|Nachrichtenquellen mit Gedächtnis]].
 
*Die Aufgabe gehört zum  Kapitel [[Informationstheorie/Nachrichtenquellen_mit_Gedächtnis|Nachrichtenquellen mit Gedächtnis]].
 
*Bezug genommen wird insbesondere auch auf die beiden Seiten  [[Stochastische_Signaltheorie/Mengentheoretische_Grundlagen#Schnittmenge|Schnittmenge]] und [[Stochastische_Signaltheorie/Statistische_Abhängigkeit_und_Unabhängigkeit#Bedingte_Wahrscheinlichkeit|Bedingte Wahrscheinlichkeit]].
 
*Bezug genommen wird insbesondere auch auf die beiden Seiten  [[Stochastische_Signaltheorie/Mengentheoretische_Grundlagen#Schnittmenge|Schnittmenge]] und [[Stochastische_Signaltheorie/Statistische_Abhängigkeit_und_Unabhängigkeit#Bedingte_Wahrscheinlichkeit|Bedingte Wahrscheinlichkeit]].
*Mit Ausnahme der Teilaufgabe (6) gelte stets  p=1/4 und q=1/2.
+
*Mit Ausnahme der Teilaufgabe '''(6)''' gelte stets  p=1/4 &nbsp;und&nbsp; q=1/2.
 
   
 
   
 
*Für die (ergodischen) Symbolwahrscheinlichkeiten einer Markovkette erster Ordnung gilt:
 
*Für die (ergodischen) Symbolwahrscheinlichkeiten einer Markovkette erster Ordnung gilt:
Line 38: Line 41:
 
p_{\rm B}  = \frac {p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}}
 
p_{\rm B}  = \frac {p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}}
 
{ p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} + p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}}  \hspace{0.05cm}.$$
 
{ p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} + p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}}  \hspace{0.05cm}.$$
 +
 +
  
  
Line 43: Line 48:
  
 
<quiz display=simple>
 
<quiz display=simple>
{Geben Sie die Übergangswahrscheinlichkeiten für p=1/4 und q=1/2 an.
+
{Geben Sie die Übergangswahrscheinlichkeiten für &nbsp;p=1/4 &nbsp;und&nbsp; q=1/2 an.
 
|type="{}"}
 
|type="{}"}
pA|A =  { 0.5 3% }
+
$p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} \ = \ $  { 0.5 3% }
pB|B = { 0.75 3% }
+
$p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B} \ = $ { 0.75 3% }
  
  
{Wie groß sind die Symbolwahrscheinlichkeiten? Es gelte weiterhin p=1/4 und q=1/2.  
+
{Wie groß sind die Symbolwahrscheinlichkeiten? Es gelte weiterhin &nbsp;p=1/4 &nbsp;und&nbsp; q=1/2.  
 
|type="{}"}
 
|type="{}"}
pA =  { 0.333 3% }
+
$p_{\rm A} \ = $  { 0.333 3% }
pB ={ 0.667 3% }
+
$p_{\rm B} \ = ${ 0.667 3% }
  
  
 
{Geben Sie die dazugehörige Entropienäherung erster Ordnung an.
 
{Geben Sie die dazugehörige Entropienäherung erster Ordnung an.
 
|type="{}"}
 
|type="{}"}
H1 = { 0.918 1% }  bit/Symbol
+
$H_1  \ = \ { 0.918 1% }\ \rm bit/Symbol$
  
  
{Welche Entropie H=HM besitzt diese Markovquelle mit p=1/4 und q=1/2?
+
{Welche Entropie H=HM besitzt diese Markovquelle mit &nbsp;p=1/4 &nbsp;und&nbsp; q=1/2?
 
|type="{}"}
 
|type="{}"}
H = { 0.875 1% }  bit/Symbol
+
$H \  = \ { 0.875 1% }\ \rm bit/Symbol$
  
  
 
{Welche Näherungen Hk ergeben sich aufgrund der Markoveigenschaften?
 
{Welche Näherungen Hk ergeben sich aufgrund der Markoveigenschaften?
 
|type="{}"}
 
|type="{}"}
H2 = { 0.897 0.5% }  bit/Symbol
+
$H_2 \  = \ { 0.897 0.5% }\ \rm bit/Symbol$
H3 = { 0.889 0.5% }  bit/Symbol
+
$H_3 \  = \ { 0.889 0.5% }\ \rm bit/Symbol$
H4 = { 0.886 0.5% }  bit/Symbol
+
$H_4 \  = \ { 0.886 0.5% }\ \rm bit/Symbol$
  
  
{Welche Entropie H=HM besitzt die Markovquelle mit p=1/4 und q=3/4?
+
{Welche Entropie H=HM besitzt die Markovquelle mit &nbsp;p=1/4 &nbsp;und&nbsp; q=3/4?
 
|type="{}"}
 
|type="{}"}
H =  { 0.811 1% }  bit/Symbol
+
$H \  = \ { 0.811 1% }\ \rm bit/Symbol$
  
  

Revision as of 09:29, 19 September 2018

Binäres Markovdiagramm

Die Aufgabe 1.4 hat gezeigt, dass die Berechnung der Entropie bei einer gedächtnisbehafteten Quelle sehr aufwändig sein kann. Man muss dann zunächst (sehr viele) Entropienäherungen Hk für k–Tupel berechnen und kann erst dann die Quellenentropie mit dem Grenzübergang k ermitteln:

H=limkHk.

Oft tendiert dabei Hk nur sehr langsam gegen den Grenzwert H.

Der Rechengang wird drastisch reduziert, wenn die Nachrichtenquelle Markoveigenschaften besitzt. Die Grafik zeigt das Übergangsdiagramm für eine binäre Markovquelle mit den zwei Zuständen (Symbolen) A und B.

  • Dieses ist durch die beiden bedingten Wahrscheinlichkeiten pA|B=p  und  pB|A=q eindeutig bestimmt.
  • Die bedingten Wahrscheinlichkeiten pA|A  und  pB|B sowie die Symbolwahrscheinlichkeiten pA  und  pB lassen sich daraus ermitteln.


Die Entropie der binären Markovkette (mit der Einheit „bit/Symbol”) lautet dann:

H=HM=pAAlog21pA|A+pABlog21pB|A+pBAlog21pA|B+pBBlog21pB|B.

Bei dieser Gleichung ist zu beachten, dass im Argument des Logarithmus dualis  jeweils die bedingten Wahrscheinlichkeiten pA|A, pB|A, ...   einzusetzen sind, während für die Gewichtung die Verbundwahrscheinlichkeiten pAA, pAB, ...   zu verwenden sind.

Mit der Entropienäherung erster Ordnung,

H1=pAlog21pA+pBlog21pB(Einheit:bit/Symbol),

sowie der oben angegebenen (tatsächlichen) Entropie H=HM lassen sich bei einer Markovquelle auch alle weiteren Entropienäherungen (k=2,,3,...) direkt berechnen:

Hk=1k[H1+(k1)HM].



Hinweise:

  • Für die (ergodischen) Symbolwahrscheinlichkeiten einer Markovkette erster Ordnung gilt:
pA=pA|BpA|B+pB|A,pB=pB|ApA|B+pB|A.



Fragebogen

1

Geben Sie die Übergangswahrscheinlichkeiten für  p=1/4  und  q=1/2 an.

pA|A = 

pB|B = 

2

Wie groß sind die Symbolwahrscheinlichkeiten? Es gelte weiterhin  p=1/4  und  q=1/2.

pA = 

pB = 

3

Geben Sie die dazugehörige Entropienäherung erster Ordnung an.

H1 = 

 bit/Symbol

4

Welche Entropie H=HM besitzt diese Markovquelle mit  p=1/4  und  q=1/2?

H = 

 bit/Symbol

5

Welche Näherungen Hk ergeben sich aufgrund der Markoveigenschaften?

H2 = 

 bit/Symbol
H3 = 

 bit/Symbol
H4 = 

 bit/Symbol

6

Welche Entropie H=HM besitzt die Markovquelle mit  p=1/4  und  q=3/4?

H = 

 bit/Symbol


Musterlösung

Markovdiagramm für die Teilaufgaben (1), ... , (5)

Nach A sind A und B gleichwahrscheinlich. Nach B tritt B sehr viel häufiger als A auf. Für die Übergangswahrscheinlichkeiten gilt:

pA|A=1pB|A=1q=0.5_,
pB|B=1pA|B=1p=0.75_.

(2)  Entsprechend den angegebenen Gleichungen gilt:

pA=pp+q=0.250.25+0.50=0.333_,pB=qp+q=0.500.25+0.50=0.667_.

(3)  Mit den in der letzten Teilaufgabe berechneten Wahrscheinlichkeiten gilt:

H1=Hbin(pA)=1/3log2(3)+2/3log2(1.5)=1.5852/3=0.918bit/Symbol_.

(4)  Die Entropie der Markovquelle lautet entsprechend der Angabe

H=pAAlog21pA|A+pABlog21pB|A+pBAlog21pA|B+pBBlog21pB|B.

Für die Verbundwahrscheinlichkeiten gilt:

pAA=pA|ApA=(1q)pp+q=1/21/43/4=1/6,
pAB=pB|ApA=qpp+q=1/21/43/4=1/6,
pBA=pA|BpB=pqp+q=pAB=1/6,
pBB=pB|BpB=(1p)qp+q=3/41/23/4=1/2
H=1/6log2(2)+1/6log2(2)+1/6log2(4)+1/2log2(4/3)=10/61/2log2(3)=0.875bit/Symbol_.

(5)  Allgemein gilt mit HM=H für die k–Entropienäherung: Hk=1/k[H1+(k1)HM]. Daraus folgt:

H2=1/2[0.918+10.875]=0.897bit/Symbol_,
H3=1/3[0.918+20.875]=0.889bit/Symbol_,
H4=1/4[0.918+30.875]=0.886bit/Symbol_.
Markovdiagramm zur Teilaufgaben (6)

(6)  Mit dem neuen Parametersatz (p=1/4,q=3/4) erhält man für die Symbolwahrscheinlichkeiten: pA=1/4 und pB=3/4. Dieser Sonderfall führt demnach zu statistisch unabhängigen Symbolen:

pA=pA|A=pA|B,pB=pB|A=pB|B.

Damit ist die Entropie H identisch mit der Entropienäherung H1:

H=H1=1/4log2(4)+3/4log2(4/3)=20.75log2(3)=0.811bit/Symbol_.

Die Entropienäherungen H2, H3, H4, ... liefern hier ebenfalls das Ergebnis 0.811bit/Symbol.