Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Difference between revisions of "Aufgaben:Exercise 3.3: Entropy of Ternary Quantities"

From LNTwww
Line 3: Line 3:
 
}}
 
}}
  
[[File:P_ID2754__Inf_A_3_3.png|right|]]
+
[[File:P_ID2754__Inf_A_3_3.png|right|Vorgegebene Entropiefunktionen]]
Rechts sehen Sie die Entropiefunktionen <i>H</i><sub>R</sub>(<i>p</i>), <i>H</i><sub>B</sub>(<i>p</i>) und <i>H</i><sub>G</sub>(<i>p</i>), wobei &bdquo;R&rdquo; für &bdquo;Rot&rdquo; steht, usw. Für alle Zufallsgrößen lautet die Wahrscheinlichkeitsfunktion:
+
Rechts sehen Sie die Entropiefunktionen $H_{\rm R}(p)$, H_{\rm B}(p)$ und H_{\rm G}(p)$, wobei &bdquo;R&rdquo; für &bdquo;Rot&rdquo; steht, &bdquo;B&rdquo; für &bdquo;Blau&rdquo; und &bdquo;G&rdquo; für &bdquo;Grün&rdquo; . Die Wahrscheinlichkeitsfunktionen lauten für alle Zufallsgrößen:
 
:PX(X)=[p1,p2,p3]|X|=3.
 
:PX(X)=[p1,p2,p3]|X|=3.
Es gilt der Zusammenhang <i>p</i><sub>1</sub>&nbsp;=&nbsp;<i>p</i> und <i>p</i><sub>2</sub>&nbsp;= 1 &ndash;&nbsp;<i>p</i><sub>3</sub>&nbsp;&ndash;&nbsp;<i>p</i>.
+
Es gilt der Zusammenhang $p_1 = p$ und $p_2 = 1 - p_3- p$.
  
 
Die Wahrscheinlichkeitsfunktion einer Zufallsgröße
 
Die Wahrscheinlichkeitsfunktion einer Zufallsgröße
 
:X={x1,x2,...,xμ,...,xM}
 
:X={x1,x2,...,xμ,...,xM}
mit dem Symbolumfang |<i>X</i>|&nbsp;=&nbsp;<i>M</i> lautet allgemein:
+
mit dem Symbolumfang $|X| = M$ lautet allgemein:
 
:PX(X)=[p1,p2,...,pμ,...,pM].
 
:PX(X)=[p1,p2,...,pμ,...,pM].
 
Die Entropie (Unsicherheit) dieser Zufallsgröße berechnet sich entsprechend der Gleichung
 
Die Entropie (Unsicherheit) dieser Zufallsgröße berechnet sich entsprechend der Gleichung
:$$H(X) = {\rm E} \left [{\rm log}_2 \hspace{0.1cm} {1}/{P_X(X)} \right ]\hspace{0.05cm},$$
+
:$$H(X) = {\rm E} \left [\log_2 \hspace{0.1cm} {1}/{P_X(X)} \right ]\hspace{0.05cm},$$
und liegt stets im Bereich 0 &#8804; <i>H</i>(<i>X</i>) &#8804; log<sub>2</Sub> |<i>X</i>|. Die untere Schranke <i>H</i>(<i>X</i>) = 0 ergibt sich, wenn eine beliebige Wahrscheinlichkeit <i>p<sub>&mu;</sub></i> = 1 ist und alle anderen 0 sind. Die obere Schranke soll hier wie in [Kra13] hergeleitet werden:
+
und liegt stets im Bereich $0 \le H(X) \le  \log_2 \hspace{0.1cm}  |X|$.  
 +
Die untere Schranke <i>H</i>(<i>X</i>) = 0 ergibt sich, wenn eine beliebige Wahrscheinlichkeit <i>p<sub>&mu;</sub></i> = 1 ist und alle anderen 0 sind. Die obere Schranke soll hier wie in [Kra13] hergeleitet werden:
  
 
:* Durch Erweiterung obiger Gleichung um |<i>X</i>| in Zähler und Nenner erhält man unter Verwendung von log<sub>2</sub>(<i>x</i>) = ln(<i>x</i>)/ln(2):
 
:* Durch Erweiterung obiger Gleichung um |<i>X</i>| in Zähler und Nenner erhält man unter Verwendung von log<sub>2</sub>(<i>x</i>) = ln(<i>x</i>)/ln(2):
Line 20: Line 21:
 
:* Wie aus nachfolgender Grafik hervorgeht, gilt die Abschätzung ln(<i>x</i>) &#8804; <i>x</i> &ndash; 1 mit der Identität für <i>x</i>&nbsp;=&nbsp;1. Somit kann geschrieben werden:
 
:* Wie aus nachfolgender Grafik hervorgeht, gilt die Abschätzung ln(<i>x</i>) &#8804; <i>x</i> &ndash; 1 mit der Identität für <i>x</i>&nbsp;=&nbsp;1. Somit kann geschrieben werden:
 
:H(X)1ln(2)E[1|X|PX(X)1]+log2|X|.
 
:H(X)1ln(2)E[1|X|PX(X)1]+log2|X|.
[[File:P_ID2755__Inf_A_3_3_B_neu.png|right|]]
+
[[File:P_ID2755__Inf_A_3_3_B_neu.png|right|Obere Abschätzung für den natürlichen Logarithmus]]
 
:* In Aufgabe A3.2 wurde für den Fall, dass <i>p<sub>&mu;</sub></i> &ne; 0 für alle <i>&mu;</i> gilt, der Erwartungswert E[1/<i>P<sub>X</sub></i>(<i>X</i>)] zu |<i>X</i>| berechnet. Damit verschwindet der erste Term und man erhält das bekannte Ergebnis:
 
:* In Aufgabe A3.2 wurde für den Fall, dass <i>p<sub>&mu;</sub></i> &ne; 0 für alle <i>&mu;</i> gilt, der Erwartungswert E[1/<i>P<sub>X</sub></i>(<i>X</i>)] zu |<i>X</i>| berechnet. Damit verschwindet der erste Term und man erhält das bekannte Ergebnis:
 
:H(X)log2|X|.
 
:H(X)log2|X|.
 +
 +
''Hinweise:''
 +
*Die Aufgabe gehört zum  Kapitel [[Informationstheorie/Einige_Vorbemerkungen_zu_zweidimensionalen_Zufallsgrößen|Einige Vorbemerkungen zu den 2D-Zufallsgrößen]].
 +
*Ausgegangen wird hier von der gleichen Konstellation wie in [[http://en.lntwww.de/Aufgaben:3.02_Erwartungswertberechnungen|Aufgabe 3.2]].
 +
*Dort wurde die Zufallsgrößen  Y={0,1,2,3}  betrachtet, allerdings mit dem Zusatz Pr(Y=3)=0.
 +
*Die so erzwungene Eigenschaft |X|=|Y|  war in der vorherigen Aufgabe zur formalen Berechnung des Erwartungswertes E[PX(X)] von Vorteil.
 +
 
<b>Hinweis:</b> Die Aufgabe gehört zu Kapitel 3.1. Es wird auf die binäre Entropiefunktion Bezug genommen:
 
<b>Hinweis:</b> Die Aufgabe gehört zu Kapitel 3.1. Es wird auf die binäre Entropiefunktion Bezug genommen:
 
:$$H_{{\rm bin}}(p) =  p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} +  
 
:$$H_{{\rm bin}}(p) =  p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} +  

Revision as of 13:00, 30 May 2017

Vorgegebene Entropiefunktionen

Rechts sehen Sie die Entropiefunktionen HR(p), H_{\rm B}(p)undHG(p), wobei „R” für „Rot” steht, „B” für „Blau” und „G” für „Grün” . Die Wahrscheinlichkeitsfunktionen lauten für alle Zufallsgrößen:

PX(X)=[p1,p2,p3]|X|=3.

Es gilt der Zusammenhang p1=p und p2=1p3p.

Die Wahrscheinlichkeitsfunktion einer Zufallsgröße

X={x1,x2,...,xμ,...,xM}

mit dem Symbolumfang |X|=M lautet allgemein:

PX(X)=[p1,p2,...,pμ,...,pM].

Die Entropie (Unsicherheit) dieser Zufallsgröße berechnet sich entsprechend der Gleichung

H(X)=E[log21/PX(X)],

und liegt stets im Bereich 0H(X)log2|X|. Die untere Schranke H(X) = 0 ergibt sich, wenn eine beliebige Wahrscheinlichkeit pμ = 1 ist und alle anderen 0 sind. Die obere Schranke soll hier wie in [Kra13] hergeleitet werden:

  • Durch Erweiterung obiger Gleichung um |X| in Zähler und Nenner erhält man unter Verwendung von log2(x) = ln(x)/ln(2):
H(X)=1ln(2)E[ln1|X|PX(X)]+log2|X|.
  • Wie aus nachfolgender Grafik hervorgeht, gilt die Abschätzung ln(x) ≤ x – 1 mit der Identität für x = 1. Somit kann geschrieben werden:
H(X)1ln(2)E[1|X|PX(X)1]+log2|X|.
Obere Abschätzung für den natürlichen Logarithmus
  • In Aufgabe A3.2 wurde für den Fall, dass pμ ≠ 0 für alle μ gilt, der Erwartungswert E[1/PX(X)] zu |X| berechnet. Damit verschwindet der erste Term und man erhält das bekannte Ergebnis:
H(X)log2|X|.

Hinweise:

  • Die Aufgabe gehört zum Kapitel Einige Vorbemerkungen zu den 2D-Zufallsgrößen.
  • Ausgegangen wird hier von der gleichen Konstellation wie in [3.2].
  • Dort wurde die Zufallsgrößen Y={0,1,2,3} betrachtet, allerdings mit dem Zusatz Pr(Y=3)=0.
  • Die so erzwungene Eigenschaft |X|=|Y| war in der vorherigen Aufgabe zur formalen Berechnung des Erwartungswertes E[PX(X)] von Vorteil.

Hinweis: Die Aufgabe gehört zu Kapitel 3.1. Es wird auf die binäre Entropiefunktion Bezug genommen:

H[[:Template:bin]](p)=plog21p+(1p)log211p.


Fragebogen

1

Welche Aussagen gelten für die rote Entropiefunktion HR(p)?

HR(p) ergibt sich z.B. mit p3 = 0, p1 = p, p2 = 1 – p.
HR(p) ist identisch mit der binären Entropiefunktion Hbin(p).

2

Welche Eigenschaften weist die binäre Entropiefunktion auf?

Hbin(p) ist konkav hinsichtlich des Parameters p.
Es gilt Max[Hbin(p)] = 2 bit.

3

Welche Aussagen gelten für die blaue Entropiefunktion HB(p)?

HB(p) ergibt sich z.B. mit p3 = 1/2, p1 = p, p2 = 1/2 – p.
Es gilt HB(p = 0) = 1 bit.
Es gilt Max[HB(p)] = log2 (3) bit.

4

Welche Aussagen gelten für die grüne Entropiefunktion HG(p)?

HG(p) ergibt sich z.B. mit p3 = 1/3, p1 = p, p2 = 2/3 – p.
Es gilt HG(p = 0) = 1 bit.
Es gilt Max[HG(p)] = log2 (3) bit.


Musterlösung

1.  Beide Aussagen sind richtig. Setzt man p3 = 0 und formal p1 = p  ⇒  p2 = 1 – p, so ergibt sich die binäre Entropiefunktion

Hbin(p)=plog21p+(1p)log211p.

2.  Man kann die binäre Entropiefunktion wegen log2(x) = ln(x)/ln(2) auch in die folgende Form bringen:

Hbin(p)=1ln(2)[pln(p)+(1p)ln(1p)].

Die erste Ableitung führt zum Ergebnis

dHbin(p)dp=1ln(2)[ln(p)+p1pln(1p)(1p)11p]==1ln(2)[ln(1p)ln(p)]=log21pp.

Durch Nullsetzen dieser Ableitung erhält man den Abszissenwert p = 0.5, der zum Maximum der Entropiefunktion führt: Hbin(p = 0.5) = 1 bit  ⇒  Lösungsvorschlag 2 ist falsch..

Durch nochmaliges Differenzieren erhält man für die zweite Ableitung:

d2Hbin(p)dp2=1ln(2)[11p1p]=1ln(2)p(1p).

Diese Funktion ist im gesamten Definitionsgebiet 0 ≤ p ≤ 1 negativ  ⇒  Hbin(p) ist konkav  ⇒  Richtig ist dementsprechend (allein) der Lösungsvorschlag 1.

3.  Richtig sind hier die Aussagen 1 und 2:

  • Für p = 0 erhält man die Wahrscheinlichkeitsfunktion PX(X) = [0, 1/2, 1/2]  ⇒  H(X) = 1 bit.
  • Das Maximum unter der Voraussetzung p3 = 1/2 ergibt sich für p1 = p2 = 1/4:
PX(X)=[1/4,1/4,1/2]Max[HB(p)]=1.5bit.
P ID2756 Inf A 3 3 ML.png

In kompakter Form lässt sich HB(p) mit der Einschränkung 0 ≤ p ≤ 1/2 wie folgt darstellen:

HB(p)=1.0bit+1/2Hbin(2p).

4.  Richtig sind die erste und letzte Aussage. Der grüne Kurvenzug beinhaltet mit p = 1/3 auch die Gleichverteilung aller Wahrscheinlichkeiten ⇒ Max[HG(p)] = log2 (3) bit. Allgemein lässt sich der gesamte Kurvenverlauf im Bereich 0 ≤ p ≤ 2/3 wie folgt ausdrücken:

HG(p)=HG(p=0)+2/3Hbin(3p/2).

Aus der Grafik auf der Angabenseite erkennt man auch, dass folgende Bedingung erfüllt sein muss:

HG(p=0)+2/3=log2(3)HG(p=0)=1.5850.667=0.918bit.

Der Lösungsvorschlag 2 ist hier somit falsch. Zum gleichen Ergebnis gelangt man über die Gleichung

HG(p=0)=1/3log2(3)+2/3log2(3/2)=log2(3)2/3log2(2).

Die Grafik zeigt nochmals die Ausgangsgrafik, aber nun mit Bemaßungen.