Difference between revisions of "Aufgaben:Exercise 3.3: Entropy of Ternary Quantities"
m (Guenter verschob die Seite 3.03 Entropie von Ternärgrößen nach 3.3 Entropie von Ternärgrößen) |
|||
Line 3: | Line 3: | ||
}} | }} | ||
− | [[File:P_ID2754__Inf_A_3_3.png|right|]] | + | [[File:P_ID2754__Inf_A_3_3.png|right|Vorgegebene Entropiefunktionen]] |
− | Rechts sehen Sie die Entropiefunktionen | + | Rechts sehen Sie die Entropiefunktionen $H_{\rm R}(p)$, H_{\rm B}(p)$ und H_{\rm G}(p)$, wobei „R” für „Rot” steht, „B” für „Blau” und „G” für „Grün” . Die Wahrscheinlichkeitsfunktionen lauten für alle Zufallsgrößen: |
:PX(X)=[p1,p2,p3]⇒|X|=3. | :PX(X)=[p1,p2,p3]⇒|X|=3. | ||
− | Es gilt der Zusammenhang | + | Es gilt der Zusammenhang $p_1 = p$ und $p_2 = 1 - p_3- p$. |
Die Wahrscheinlichkeitsfunktion einer Zufallsgröße | Die Wahrscheinlichkeitsfunktion einer Zufallsgröße | ||
:X={x1,x2,...,xμ,...,xM} | :X={x1,x2,...,xμ,...,xM} | ||
− | mit dem Symbolumfang | | + | mit dem Symbolumfang $|X| = M$ lautet allgemein: |
:PX(X)=[p1,p2,...,pμ,...,pM]. | :PX(X)=[p1,p2,...,pμ,...,pM]. | ||
Die Entropie (Unsicherheit) dieser Zufallsgröße berechnet sich entsprechend der Gleichung | Die Entropie (Unsicherheit) dieser Zufallsgröße berechnet sich entsprechend der Gleichung | ||
− | :$$H(X) = {\rm E} \left [ | + | :$$H(X) = {\rm E} \left [\log_2 \hspace{0.1cm} {1}/{P_X(X)} \right ]\hspace{0.05cm},$$ |
− | und liegt stets im Bereich 0 | + | und liegt stets im Bereich $0 \le H(X) \le \log_2 \hspace{0.1cm} |X|$. |
+ | Die untere Schranke <i>H</i>(<i>X</i>) = 0 ergibt sich, wenn eine beliebige Wahrscheinlichkeit <i>p<sub>μ</sub></i> = 1 ist und alle anderen 0 sind. Die obere Schranke soll hier wie in [Kra13] hergeleitet werden: | ||
:* Durch Erweiterung obiger Gleichung um |<i>X</i>| in Zähler und Nenner erhält man unter Verwendung von log<sub>2</sub>(<i>x</i>) = ln(<i>x</i>)/ln(2): | :* Durch Erweiterung obiger Gleichung um |<i>X</i>| in Zähler und Nenner erhält man unter Verwendung von log<sub>2</sub>(<i>x</i>) = ln(<i>x</i>)/ln(2): | ||
Line 20: | Line 21: | ||
:* Wie aus nachfolgender Grafik hervorgeht, gilt die Abschätzung ln(<i>x</i>) ≤ <i>x</i> – 1 mit der Identität für <i>x</i> = 1. Somit kann geschrieben werden: | :* Wie aus nachfolgender Grafik hervorgeht, gilt die Abschätzung ln(<i>x</i>) ≤ <i>x</i> – 1 mit der Identität für <i>x</i> = 1. Somit kann geschrieben werden: | ||
:H(X)≤1ln(2)⋅E[1|X|⋅PX(X)−1]+log2|X|. | :H(X)≤1ln(2)⋅E[1|X|⋅PX(X)−1]+log2|X|. | ||
− | [[File:P_ID2755__Inf_A_3_3_B_neu.png|right|]] | + | [[File:P_ID2755__Inf_A_3_3_B_neu.png|right|Obere Abschätzung für den natürlichen Logarithmus]] |
:* In Aufgabe A3.2 wurde für den Fall, dass <i>p<sub>μ</sub></i> ≠ 0 für alle <i>μ</i> gilt, der Erwartungswert E[1/<i>P<sub>X</sub></i>(<i>X</i>)] zu |<i>X</i>| berechnet. Damit verschwindet der erste Term und man erhält das bekannte Ergebnis: | :* In Aufgabe A3.2 wurde für den Fall, dass <i>p<sub>μ</sub></i> ≠ 0 für alle <i>μ</i> gilt, der Erwartungswert E[1/<i>P<sub>X</sub></i>(<i>X</i>)] zu |<i>X</i>| berechnet. Damit verschwindet der erste Term und man erhält das bekannte Ergebnis: | ||
:H(X)≤log2|X|. | :H(X)≤log2|X|. | ||
+ | |||
+ | ''Hinweise:'' | ||
+ | *Die Aufgabe gehört zum Kapitel [[Informationstheorie/Einige_Vorbemerkungen_zu_zweidimensionalen_Zufallsgrößen|Einige Vorbemerkungen zu den 2D-Zufallsgrößen]]. | ||
+ | *Ausgegangen wird hier von der gleichen Konstellation wie in [[http://en.lntwww.de/Aufgaben:3.02_Erwartungswertberechnungen|Aufgabe 3.2]]. | ||
+ | *Dort wurde die Zufallsgrößen Y={0,1,2,3} betrachtet, allerdings mit dem Zusatz Pr(Y=3)=0. | ||
+ | *Die so erzwungene Eigenschaft |X|=|Y| war in der vorherigen Aufgabe zur formalen Berechnung des Erwartungswertes E[PX(X)] von Vorteil. | ||
+ | |||
<b>Hinweis:</b> Die Aufgabe gehört zu Kapitel 3.1. Es wird auf die binäre Entropiefunktion Bezug genommen: | <b>Hinweis:</b> Die Aufgabe gehört zu Kapitel 3.1. Es wird auf die binäre Entropiefunktion Bezug genommen: | ||
:$$H_{{\rm bin}}(p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + | :$$H_{{\rm bin}}(p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + |
Revision as of 13:00, 30 May 2017
Rechts sehen Sie die Entropiefunktionen HR(p), H_{\rm B}(p)undHG(p), wobei „R” für „Rot” steht, „B” für „Blau” und „G” für „Grün” . Die Wahrscheinlichkeitsfunktionen lauten für alle Zufallsgrößen:
- PX(X)=[p1,p2,p3]⇒|X|=3.
Es gilt der Zusammenhang p1=p und p2=1−p3−p.
Die Wahrscheinlichkeitsfunktion einer Zufallsgröße
- X={x1,x2,...,xμ,...,xM}
mit dem Symbolumfang |X|=M lautet allgemein:
- PX(X)=[p1,p2,...,pμ,...,pM].
Die Entropie (Unsicherheit) dieser Zufallsgröße berechnet sich entsprechend der Gleichung
- H(X)=E[log21/PX(X)],
und liegt stets im Bereich 0≤H(X)≤log2|X|. Die untere Schranke H(X) = 0 ergibt sich, wenn eine beliebige Wahrscheinlichkeit pμ = 1 ist und alle anderen 0 sind. Die obere Schranke soll hier wie in [Kra13] hergeleitet werden:
- Durch Erweiterung obiger Gleichung um |X| in Zähler und Nenner erhält man unter Verwendung von log2(x) = ln(x)/ln(2):
- H(X)=1ln(2)⋅E[ln1|X|⋅PX(X)]+log2|X|.
- Wie aus nachfolgender Grafik hervorgeht, gilt die Abschätzung ln(x) ≤ x – 1 mit der Identität für x = 1. Somit kann geschrieben werden:
- H(X)≤1ln(2)⋅E[1|X|⋅PX(X)−1]+log2|X|.
- In Aufgabe A3.2 wurde für den Fall, dass pμ ≠ 0 für alle μ gilt, der Erwartungswert E[1/PX(X)] zu |X| berechnet. Damit verschwindet der erste Term und man erhält das bekannte Ergebnis:
- H(X)≤log2|X|.
Hinweise:
- Die Aufgabe gehört zum Kapitel Einige Vorbemerkungen zu den 2D-Zufallsgrößen.
- Ausgegangen wird hier von der gleichen Konstellation wie in [3.2].
- Dort wurde die Zufallsgrößen Y={0,1,2,3} betrachtet, allerdings mit dem Zusatz Pr(Y=3)=0.
- Die so erzwungene Eigenschaft |X|=|Y| war in der vorherigen Aufgabe zur formalen Berechnung des Erwartungswertes E[PX(X)] von Vorteil.
Hinweis: Die Aufgabe gehört zu Kapitel 3.1. Es wird auf die binäre Entropiefunktion Bezug genommen:
- H[[:Template:bin]](p)=p⋅log21p+(1−p)⋅log211−p.
Fragebogen
Musterlösung
- Hbin(p)=p⋅log21p+(1−p)⋅log211−p.
2. Man kann die binäre Entropiefunktion wegen log2(x) = ln(x)/ln(2) auch in die folgende Form bringen:
- Hbin(p)=−1ln(2)⋅[p⋅ln(p)+(1−p)⋅ln(1−p)].
Die erste Ableitung führt zum Ergebnis
- dHbin(p)dp=−1ln(2)⋅[ln(p)+p⋅1p−ln(1−p)−(1−p)⋅11−p]==1ln(2)⋅[ln(1−p)−ln(p)]=log21−pp.
Durch Nullsetzen dieser Ableitung erhält man den Abszissenwert p = 0.5, der zum Maximum der Entropiefunktion führt: Hbin(p = 0.5) = 1 bit ⇒ Lösungsvorschlag 2 ist falsch..
Durch nochmaliges Differenzieren erhält man für die zweite Ableitung:
- d2Hbin(p)dp2=1ln(2)⋅[−11−p−1p]=−1ln(2)⋅p⋅(1−p).
Diese Funktion ist im gesamten Definitionsgebiet 0 ≤ p ≤ 1 negativ ⇒ Hbin(p) ist konkav ⇒ Richtig ist dementsprechend (allein) der Lösungsvorschlag 1.
3. Richtig sind hier die Aussagen 1 und 2:
- Für p = 0 erhält man die Wahrscheinlichkeitsfunktion PX(X) = [0, 1/2, 1/2] ⇒ H(X) = 1 bit.
- Das Maximum unter der Voraussetzung p3 = 1/2 ergibt sich für p1 = p2 = 1/4:
- PX(X)=[1/4,1/4,1/2]⇒Max[HB(p)]=1.5bit.
In kompakter Form lässt sich HB(p) mit der Einschränkung 0 ≤ p ≤ 1/2 wie folgt darstellen:
- HB(p)=1.0bit+1/2⋅Hbin(2p).
4. Richtig sind die erste und letzte Aussage. Der grüne Kurvenzug beinhaltet mit p = 1/3 auch die Gleichverteilung aller Wahrscheinlichkeiten ⇒ Max[HG(p)] = log2 (3) bit. Allgemein lässt sich der gesamte Kurvenverlauf im Bereich 0 ≤ p ≤ 2/3 wie folgt ausdrücken:
- HG(p)=HG(p=0)+2/3⋅Hbin(3p/2).
Aus der Grafik auf der Angabenseite erkennt man auch, dass folgende Bedingung erfüllt sein muss:
- HG(p=0)+2/3=log2(3)⇒HG(p=0)=1.585−0.667=0.918bit.
Der Lösungsvorschlag 2 ist hier somit falsch. Zum gleichen Ergebnis gelangt man über die Gleichung
- HG(p=0)=1/3⋅log2(3)+2/3⋅log2(3/2)=log2(3)−2/3⋅log2(2).
Die Grafik zeigt nochmals die Ausgangsgrafik, aber nun mit Bemaßungen.