Difference between revisions of "Aufgaben:Exercise 1.5: Binary Markov Source"
m (Textersetzung - „*Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0.” ein.“ durch „ “) |
|||
Line 3: | Line 3: | ||
}} | }} | ||
− | [[File:P_ID2250__Inf_A_1_5.png|right| | + | [[File:P_ID2250__Inf_A_1_5.png|right|frame|Binäres Markovdiagramm]] |
− | Die [[Aufgaben:1.4_Entropienäherungen_für_den_AMI-Code|Aufgabe 1.4]] hat gezeigt, dass die Berechnung der Entropie bei einer gedächtnisbehafteten Quelle sehr aufwändig sein kann. Man muss dann zunächst (sehr viele) Entropienäherungen Hk für k–Tupel berechnen und kann erst dann mit dem Grenzübergang k→∞ | + | Die [[Aufgaben:1.4_Entropienäherungen_für_den_AMI-Code|Aufgabe 1.4]] hat gezeigt, dass die Berechnung der Entropie bei einer gedächtnisbehafteten Quelle sehr aufwändig sein kann. Man muss dann zunächst (sehr viele) Entropienäherungen Hk für k–Tupel berechnen und kann erst dann die Quellenentropie mit dem Grenzübergang k→∞ ermitteln: |
:H=limk→∞Hk. | :H=limk→∞Hk. | ||
Oft tendiert dabei Hk nur sehr langsam gegen den Grenzwert H. | Oft tendiert dabei Hk nur sehr langsam gegen den Grenzwert H. | ||
Der Rechengang wird drastisch reduziert, wenn die Nachrichtenquelle Markoveigenschaften besitzt. Die Grafik zeigt das Übergangsdiagramm für eine binäre Markovquelle mit den zwei Zuständen (Symbolen) A und B. | Der Rechengang wird drastisch reduziert, wenn die Nachrichtenquelle Markoveigenschaften besitzt. Die Grafik zeigt das Übergangsdiagramm für eine binäre Markovquelle mit den zwei Zuständen (Symbolen) A und B. | ||
− | *Dieses ist durch die beiden bedingten Wahrscheinlichkeiten pA|B=p und pB|A=q eindeutig bestimmt. | + | *Dieses ist durch die beiden bedingten Wahrscheinlichkeiten pA|B=p und pB|A=q eindeutig bestimmt. |
− | *Die bedingten Wahrscheinlichkeiten pA|A und pB|B sowie die Symbolwahrscheinlichkeiten pA und pB lassen sich daraus ermitteln. | + | *Die bedingten Wahrscheinlichkeiten pA|A und pB|B sowie die Symbolwahrscheinlichkeiten pA und pB lassen sich daraus ermitteln. |
Line 17: | Line 17: | ||
{\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B}} | {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B}} | ||
\hspace{0.05cm}.$$ | \hspace{0.05cm}.$$ | ||
− | Bei dieser Gleichung ist zu beachten, dass im Argument des <i>Logarithmus dualis</i> jeweils die [[Stochastische_Signaltheorie/Statistische_Abhängigkeit_und_Unabhängigkeit#Bedingte_Wahrscheinlichkeit|bedingten Wahrscheinlichkeiten]] pA|A, pB|A, ... einzusetzen sind, während für die Gewichtung die [[Stochastische_Signaltheorie/Mengentheoretische_Grundlagen#Schnittmenge|Verbundwahrscheinlichkeiten]] pAA, pAB, ... zu verwenden sind. | + | Bei dieser Gleichung ist zu beachten, dass im Argument des <i>Logarithmus dualis</i> jeweils die [[Stochastische_Signaltheorie/Statistische_Abhängigkeit_und_Unabhängigkeit#Bedingte_Wahrscheinlichkeit|bedingten Wahrscheinlichkeiten]] pA|A, pB|A, ... einzusetzen sind, während für die Gewichtung die [[Stochastische_Signaltheorie/Mengentheoretische_Grundlagen#Schnittmenge|Verbundwahrscheinlichkeiten]] pAA, pAB, ... zu verwenden sind. |
Mit der Entropienäherung erster Ordnung, | Mit der Entropienäherung erster Ordnung, | ||
Line 23: | Line 23: | ||
{\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B}} | {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B}} | ||
\hspace{0.5cm}({\rm Einheit\hspace{-0.1cm}: \hspace{0.1cm}bit/Symbol})\hspace{0.05cm},$$ | \hspace{0.5cm}({\rm Einheit\hspace{-0.1cm}: \hspace{0.1cm}bit/Symbol})\hspace{0.05cm},$$ | ||
− | sowie der oben angegebenen (tatsächlichen) Entropie H=HM lassen sich bei einer Markovquelle auch alle weiteren Entropienäherungen ( | + | sowie der oben angegebenen (tatsächlichen) Entropie H=HM lassen sich bei einer Markovquelle auch alle weiteren Entropienäherungen $(k = 2,, 3, \text{...})$ direkt berechnen: |
− | :$$H_k = \frac{1}{k} \cdot [ H_{\rm 1} + (k-1) \cdot H_{\rm M}] | + | :$$H_k = \frac{1}{k} \cdot \big [ H_{\rm 1} + (k-1) \cdot H_{\rm M} \big ] |
\hspace{0.05cm}.$$ | \hspace{0.05cm}.$$ | ||
+ | |||
+ | |||
+ | |||
Line 31: | Line 34: | ||
*Die Aufgabe gehört zum Kapitel [[Informationstheorie/Nachrichtenquellen_mit_Gedächtnis|Nachrichtenquellen mit Gedächtnis]]. | *Die Aufgabe gehört zum Kapitel [[Informationstheorie/Nachrichtenquellen_mit_Gedächtnis|Nachrichtenquellen mit Gedächtnis]]. | ||
*Bezug genommen wird insbesondere auch auf die beiden Seiten [[Stochastische_Signaltheorie/Mengentheoretische_Grundlagen#Schnittmenge|Schnittmenge]] und [[Stochastische_Signaltheorie/Statistische_Abhängigkeit_und_Unabhängigkeit#Bedingte_Wahrscheinlichkeit|Bedingte Wahrscheinlichkeit]]. | *Bezug genommen wird insbesondere auch auf die beiden Seiten [[Stochastische_Signaltheorie/Mengentheoretische_Grundlagen#Schnittmenge|Schnittmenge]] und [[Stochastische_Signaltheorie/Statistische_Abhängigkeit_und_Unabhängigkeit#Bedingte_Wahrscheinlichkeit|Bedingte Wahrscheinlichkeit]]. | ||
− | *Mit Ausnahme der Teilaufgabe (6) gelte stets p=1/4 und q=1/2. | + | *Mit Ausnahme der Teilaufgabe '''(6)''' gelte stets p=1/4 und q=1/2. |
*Für die (ergodischen) Symbolwahrscheinlichkeiten einer Markovkette erster Ordnung gilt: | *Für die (ergodischen) Symbolwahrscheinlichkeiten einer Markovkette erster Ordnung gilt: | ||
Line 38: | Line 41: | ||
p_{\rm B} = \frac {p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}} | p_{\rm B} = \frac {p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}} | ||
{ p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} + p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}} \hspace{0.05cm}.$$ | { p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} + p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}} \hspace{0.05cm}.$$ | ||
+ | |||
+ | |||
Line 43: | Line 48: | ||
<quiz display=simple> | <quiz display=simple> | ||
− | {Geben Sie die Übergangswahrscheinlichkeiten für p=1/4 und q=1/2 an. | + | {Geben Sie die Übergangswahrscheinlichkeiten für p=1/4 und q=1/2 an. |
|type="{}"} | |type="{}"} | ||
− | pA|A = { 0.5 3% } | + | $p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} \ = \ $ { 0.5 3% } |
− | pB|B = { 0.75 3% } | + | $p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B} \ = \ $ { 0.75 3% } |
− | {Wie groß sind die Symbolwahrscheinlichkeiten? Es gelte weiterhin p=1/4 und q=1/2. | + | {Wie groß sind die Symbolwahrscheinlichkeiten? Es gelte weiterhin p=1/4 und q=1/2. |
|type="{}"} | |type="{}"} | ||
− | pA = { 0.333 3% } | + | $p_{\rm A} \ = \ $ { 0.333 3% } |
− | pB ={ 0.667 3% } | + | $p_{\rm B} \ = \ ${ 0.667 3% } |
{Geben Sie die dazugehörige Entropienäherung erster Ordnung an. | {Geben Sie die dazugehörige Entropienäherung erster Ordnung an. | ||
|type="{}"} | |type="{}"} | ||
− | H1 = { 0.918 1% } bit/Symbol | + | $H_1 \ = \ { 0.918 1% }\ \rm bit/Symbol$ |
− | {Welche Entropie H=HM besitzt diese Markovquelle mit p=1/4 und q=1/2? | + | {Welche Entropie H=HM besitzt diese Markovquelle mit p=1/4 und q=1/2? |
|type="{}"} | |type="{}"} | ||
− | H = { 0.875 1% } bit/Symbol | + | $H \ = \ { 0.875 1% }\ \rm bit/Symbol$ |
{Welche Näherungen Hk ergeben sich aufgrund der Markoveigenschaften? | {Welche Näherungen Hk ergeben sich aufgrund der Markoveigenschaften? | ||
|type="{}"} | |type="{}"} | ||
− | H2 = { 0.897 0.5% } bit/Symbol | + | $H_2 \ = \ { 0.897 0.5% }\ \rm bit/Symbol$ |
− | H3 = { 0.889 0.5% } bit/Symbol | + | $H_3 \ = \ { 0.889 0.5% }\ \rm bit/Symbol$ |
− | H4 = { 0.886 0.5% } bit/Symbol | + | $H_4 \ = \ { 0.886 0.5% }\ \rm bit/Symbol$ |
− | {Welche Entropie H=HM besitzt die Markovquelle mit p=1/4 und q=3/4? | + | {Welche Entropie H=HM besitzt die Markovquelle mit p=1/4 und q=3/4? |
|type="{}"} | |type="{}"} | ||
− | H = { 0.811 1% } bit/Symbol | + | $H \ = \ { 0.811 1% }\ \rm bit/Symbol$ |
Revision as of 09:29, 19 September 2018
Die Aufgabe 1.4 hat gezeigt, dass die Berechnung der Entropie bei einer gedächtnisbehafteten Quelle sehr aufwändig sein kann. Man muss dann zunächst (sehr viele) Entropienäherungen Hk für k–Tupel berechnen und kann erst dann die Quellenentropie mit dem Grenzübergang k→∞ ermitteln:
- H=limk→∞Hk.
Oft tendiert dabei Hk nur sehr langsam gegen den Grenzwert H.
Der Rechengang wird drastisch reduziert, wenn die Nachrichtenquelle Markoveigenschaften besitzt. Die Grafik zeigt das Übergangsdiagramm für eine binäre Markovquelle mit den zwei Zuständen (Symbolen) A und B.
- Dieses ist durch die beiden bedingten Wahrscheinlichkeiten pA|B=p und pB|A=q eindeutig bestimmt.
- Die bedingten Wahrscheinlichkeiten pA|A und pB|B sowie die Symbolwahrscheinlichkeiten pA und pB lassen sich daraus ermitteln.
Die Entropie der binären Markovkette (mit der Einheit „bit/Symbol”) lautet dann:
- H=HM=pAA⋅log21pA|A+pAB⋅log21pB|A+pBA⋅log21pA|B+pBB⋅log21pB|B.
Bei dieser Gleichung ist zu beachten, dass im Argument des Logarithmus dualis jeweils die bedingten Wahrscheinlichkeiten pA|A, pB|A, ... einzusetzen sind, während für die Gewichtung die Verbundwahrscheinlichkeiten pAA, pAB, ... zu verwenden sind.
Mit der Entropienäherung erster Ordnung,
- H1=pA⋅log21pA+pB⋅log21pB(Einheit:bit/Symbol),
sowie der oben angegebenen (tatsächlichen) Entropie H=HM lassen sich bei einer Markovquelle auch alle weiteren Entropienäherungen (k=2,,3,...) direkt berechnen:
- Hk=1k⋅[H1+(k−1)⋅HM].
Hinweise:
- Die Aufgabe gehört zum Kapitel Nachrichtenquellen mit Gedächtnis.
- Bezug genommen wird insbesondere auch auf die beiden Seiten Schnittmenge und Bedingte Wahrscheinlichkeit.
- Mit Ausnahme der Teilaufgabe (6) gelte stets p=1/4 und q=1/2.
- Für die (ergodischen) Symbolwahrscheinlichkeiten einer Markovkette erster Ordnung gilt:
- pA=pA|BpA|B+pB|A,pB=pB|ApA|B+pB|A.
Fragebogen
Musterlösung
Nach A sind A und B gleichwahrscheinlich. Nach B tritt B sehr viel häufiger als A auf. Für die Übergangswahrscheinlichkeiten gilt:
- pA|A=1−pB|A=1−q=0.5_,
- pB|B=1−pA|B=1−p=0.75_.
(2) Entsprechend den angegebenen Gleichungen gilt:
- pA=pp+q=0.250.25+0.50=0.333_,pB=qp+q=0.500.25+0.50=0.667_.
(3) Mit den in der letzten Teilaufgabe berechneten Wahrscheinlichkeiten gilt:
- H1=Hbin(pA)=1/3⋅log2(3)+2/3⋅log2(1.5)=1.585−2/3=0.918bit/Symbol_.
(4) Die Entropie der Markovquelle lautet entsprechend der Angabe
- H=pAA⋅log21pA|A+pAB⋅log21pB|A+pBA⋅log21pA|B+pBB⋅log21pB|B.
Für die Verbundwahrscheinlichkeiten gilt:
- pAA=pA|A⋅pA=(1−q)⋅pp+q=1/2⋅1/43/4=1/6,
- pAB=pB|A⋅pA=q⋅pp+q=1/2⋅1/43/4=1/6,
- pBA=pA|B⋅pB=p⋅qp+q=pAB=1/6,
- pBB=pB|B⋅pB=(1−p)⋅qp+q=3/4⋅1/23/4=1/2
- ⇒H=1/6⋅log2(2)+1/6⋅log2(2)+1/6⋅log2(4)+1/2⋅log2(4/3)=10/6−1/2⋅log2(3)=0.875bit/Symbol_.
(5) Allgemein gilt mit HM=H für die k–Entropienäherung: Hk=1/k⋅[H1+(k−1)⋅HM]. Daraus folgt:
- H2=1/2⋅[0.918+1⋅0.875]=0.897bit/Symbol_,
- H3=1/3⋅[0.918+2⋅0.875]=0.889bit/Symbol_,
- H4=1/4⋅[0.918+3⋅0.875]=0.886bit/Symbol_.
(6) Mit dem neuen Parametersatz (p=1/4,q=3/4) erhält man für die Symbolwahrscheinlichkeiten: pA=1/4 und pB=3/4. Dieser Sonderfall führt demnach zu statistisch unabhängigen Symbolen:
- pA=pA|A=pA|B,pB=pB|A=pB|B.
Damit ist die Entropie H identisch mit der Entropienäherung H1:
- H=H1=1/4⋅log2(4)+3/4⋅log2(4/3)=2−0.75⋅log2(3)=0.811bit/Symbol_.
Die Entropienäherungen H2, H3, H4, ... liefern hier ebenfalls das Ergebnis 0.811bit/Symbol.