Difference between revisions of "Aufgaben:Exercise 1.5Z: Symmetrical Markov Source"
Line 53: | Line 53: | ||
{Bestimmen Sie q derart, dass <i>H</i> maximal wird. Interpretation. | {Bestimmen Sie q derart, dass <i>H</i> maximal wird. Interpretation. | ||
|type="{}"} | |type="{}"} | ||
− | $H \rightarrow | + | $H \rightarrow \text{Maximum:}\ \ q \ =$ { 0.5 3% } |
Line 75: | Line 75: | ||
===Musterlösung=== | ===Musterlösung=== | ||
{{ML-Kopf}} | {{ML-Kopf}} | ||
− | + | '''(1)''' Bei einer stationären binären Markovquelle erster Ordnung gilt: | |
:$$p_{\rm A} = p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} \cdot p_{\rm A} + p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} \cdot p_{\rm B} | :$$p_{\rm A} = p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} \cdot p_{\rm A} + p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} \cdot p_{\rm B} | ||
= (1-q) \cdot p_{\rm A} + q \cdot p_{\rm B}$$ | = (1-q) \cdot p_{\rm A} + q \cdot p_{\rm B}$$ | ||
Line 81: | Line 81: | ||
\hspace{0.05cm}.$$ | \hspace{0.05cm}.$$ | ||
− | + | '''(2)''' Zur Berechnung der Entropie $H$ benötigt man alle vier Verbundwahrscheinlichkeiten: | |
− | :$$p_{\rm AA} \hspace{0.1cm} = \hspace{0.1cm} p_{\rm A} \cdot p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} = 1/2 \cdot(1-q) = p_{\rm BB}\hspace{0.05cm},\ | + | :$$p_{\rm AA} \hspace{0.1cm} = \hspace{0.1cm} p_{\rm A} \cdot p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} = 1/2 \cdot(1-q) = p_{\rm BB}\hspace{0.05cm},\hspace{1cm} |
p_{\rm AB} \hspace{0.1cm} = \hspace{0.1cm} p_{\rm A} \cdot p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} = 1/2 \cdot q = p_{\rm BA}\hspace{0.05cm}.$$ | p_{\rm AB} \hspace{0.1cm} = \hspace{0.1cm} p_{\rm A} \cdot p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} = 1/2 \cdot q = p_{\rm BA}\hspace{0.05cm}.$$ | ||
− | + | Setzt man diese Werte in die gegebene Entropie–Gleichung ein, so erhält man | |
− | :$$H | + | :$$H = 2 \cdot \frac{1}{2} \cdot(1-q) \cdot |
{\rm log}_2\hspace{0.1cm} \frac{1}{1-q} + 2 \cdot \frac{1}{2} \cdot q \cdot | {\rm log}_2\hspace{0.1cm} \frac{1}{1-q} + 2 \cdot \frac{1}{2} \cdot q \cdot | ||
− | {\rm log}_2\hspace{0.1cm} \frac{1}{q | + | {\rm log}_2\hspace{0.1cm} \frac{1}{q} = q \cdot {\rm log}_2\hspace{0.1cm} \frac{1}{q} + (1-q) \cdot {\rm log}_2\hspace{0.1cm} \frac{1}{1-q} = H_{\rm bin}(q) \hspace{0.05cm}.$$ |
− | + | Der gesuchte Zahlenwert ist $H = H_{\rm bin} (0.25) \hspace{0.15cm}\underline{= 0.811 \, \rm bit/Symbol}$. | |
− | |||
− | + | ||
− | :$$H_2 \hspace{0.1cm} = \hspace{0.1cm} | + | '''(3)''' Bei gleichwahrscheinlichen Binärsymbolen ist $H_1 \hspace{0.15cm}\underline{= 1 \, \rm bit/Symbol}$. Mit der für Markovquellen gültigen Gleichung gilt weiter: |
− | \hspace{0.05cm}, | + | :$$H_2 \hspace{0.1cm} = \hspace{0.1cm} {1}/{2} \cdot [ H_1 + H] \hspace{0.15cm} \underline {= 0.906 \,{\rm bit/Symbol}} |
− | + | \hspace{0.05cm},$$ | |
+ | :$$ H_3 \hspace{0.1cm} = \hspace{0.1cm} {1}/{3} \cdot [ H_1 + 2 H] \hspace{0.15cm} \underline {= 0.874 \,{\rm bit/Symbol}} | ||
\hspace{0.05cm}.$$ | \hspace{0.05cm}.$$ | ||
− | + | ||
+ | '''(4)''' Das Maximum der binären Entropiefunktion ergibt sich für $q\hspace{0.15cm}\underline{= 0.5}$. Damit beträgt die maximale Entropie $H = 1 \, \rm bit/Symbol$. Man erkennt aus der Beziehung $H = H_1$ und aus dem vorne abgebildeten Übergangsdiagramm, dass $q = 0.5$ statistisch unabhängige Symbole zur Folge hat: | ||
:$$p_{\rm A} = p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} = p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} = 0.5 | :$$p_{\rm A} = p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} = p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} = 0.5 | ||
\hspace{0.05cm}, \hspace{0.2cm} p_{\rm B} = p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} = p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B}= 0.5 | \hspace{0.05cm}, \hspace{0.2cm} p_{\rm B} = p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} = p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B}= 0.5 | ||
\hspace{0.05cm}.$$ | \hspace{0.05cm}.$$ | ||
− | |||
− | + | '''(5)''' Richtig sind die <u>Lösungsvorschläge 1 und 2</u>: | |
+ | *Die Symbolfolge ergibt sich entweder zu AAAAAA ... oder zu BBBBBB ... , je nachdem, welches Symbol als Startwert vorgegeben wurde. | ||
+ | *Die Entropie einer solchen Quelle ist H=Hbin(0)=0. | ||
+ | |||
+ | |||
+ | '''(6)''' Richtig ist nur der <u>Lösungsvorschlag 3</u>: | ||
+ | *Nun kann weder A direkt auf $\rm A$ noch $\rm B$ direkt auf $\rm B$ folgen. | ||
+ | *Es ergibt sich stets eine alternierende Folge, je nach Startwert die Folge $\rm ABABAB$ ... oder $\rm BABABA$... . | ||
+ | *Diese Quelle hat in beiden Fällen die Entropie $H = H_{\rm bin}(1) = 0$. | ||
{{ML-Fuß}} | {{ML-Fuß}} | ||
Revision as of 18:11, 1 May 2017
In der Aufgabe 1.5 wurde eine binäre Markovquelle behandelt, bei der die Übergangswahrscheinlichkeiten von A nach B und von B nach A unterschiedlich waren. In dieser Aufgabe soll nun gelten:
- pA|B=pB|A=q(0≤q≤1).
Alle in der Aufgabe 1.5 angegebenen Gleichungen gelten auch hier:
- Entropie:
- H=pAA⋅log21pA|A+pAB⋅log21pB|A+pBA⋅log21pA|B+pBB⋅log21pB|B,
- Erste Entropienäherung:
- H1=pA⋅log21pA+pB⋅log21pB,
- k–te Entropienäherung (k=2,3, ...):
- Hk=1/k⋅[H1+(k−1)⋅H],H=limk→∞Hk.
Hinweise:
- Die Aufgabe gehört zum Kapitel Nachrichtenquellen mit Gedächtnis.
- Bezug genommen wird insbesondere auf die Seite Binärquellen mit Markoveigenschaften.
- Bei allen Entropien ist die Pseudoeinheit „bit/Symbol” hinzuzufügen.
- Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0.” ein.
Fragebogen
Musterlösung
- pA=pA|A⋅pA+pA|B⋅pB=(1−q)⋅pA+q⋅pB
- q⋅pA=q⋅pB⇒pA=pB=0.5_.
(2) Zur Berechnung der Entropie H benötigt man alle vier Verbundwahrscheinlichkeiten:
- pAA=pA⋅pA|A=1/2⋅(1−q)=pBB,pAB=pA⋅pB|A=1/2⋅q=pBA.
Setzt man diese Werte in die gegebene Entropie–Gleichung ein, so erhält man
- H=2⋅12⋅(1−q)⋅log211−q+2⋅12⋅q⋅log21q=q⋅log21q+(1−q)⋅log211−q=Hbin(q).
Der gesuchte Zahlenwert ist H=Hbin(0.25)=0.811bit/Symbol_.
(3) Bei gleichwahrscheinlichen Binärsymbolen ist H1=1bit/Symbol_. Mit der für Markovquellen gültigen Gleichung gilt weiter:
- H2=1/2⋅[H1+H]=0.906bit/Symbol_,
- H3=1/3⋅[H1+2H]=0.874bit/Symbol_.
(4) Das Maximum der binären Entropiefunktion ergibt sich für q=0.5_. Damit beträgt die maximale Entropie H=1bit/Symbol. Man erkennt aus der Beziehung H=H1 und aus dem vorne abgebildeten Übergangsdiagramm, dass q=0.5 statistisch unabhängige Symbole zur Folge hat:
- pA=pA|A=pA|B=0.5,pB=pB|A=pB|B=0.5.
(5) Richtig sind die Lösungsvorschläge 1 und 2:
- Die Symbolfolge ergibt sich entweder zu AAAAAA ... oder zu BBBBBB ... , je nachdem, welches Symbol als Startwert vorgegeben wurde.
- Die Entropie einer solchen Quelle ist H=Hbin(0)=0.
(6) Richtig ist nur der Lösungsvorschlag 3:
- Nun kann weder A direkt auf A noch B direkt auf B folgen.
- Es ergibt sich stets eine alternierende Folge, je nach Startwert die Folge ABABAB ... oder BABABA... .
- Diese Quelle hat in beiden Fällen die Entropie H=Hbin(1)=0.