Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Exercise 3.3: Entropy of Ternary Quantities

From LNTwww
Revision as of 14:38, 30 May 2017 by Guenter (talk | contribs)

Vorgegebene Entropiefunktionen

Rechts sehen Sie die Entropiefunktionen HR(p), HB(p) und HG(p), wobei „R” für „Rot” steht, „B” für „Blau” und „G” für „Grün” . Die Wahrscheinlichkeitsfunktionen lauten für alle Zufallsgrößen:

PX(X)=[p1,p2,p3]|X|=3.

Es gilt der Zusammenhang p1=p und p2=1p3p.

Die Wahrscheinlichkeitsfunktion einer Zufallsgröße

X={x1,x2,...,xμ,...,xM}

mit dem Symbolumfang |X|=M lautet allgemein:

PX(X)=[p1,p2,...,pμ,...,pM].

Die Entropie (Unsicherheit) dieser Zufallsgröße berechnet sich entsprechend der Gleichung

H(X)=E[log21/PX(X)],

und liegt stets im Bereich 0H(X)log2|X|.

Die untere Schranke H(X)=0 ergibt sich, wenn eine beliebige Wahrscheinlichkeit pμ=1 ist und alle anderen 0 sind. Die obere Schranke soll hier wie in der Vorlesung „Information Theory” von Gerhard Kramer an der TU München hergeleitet werden:

Obere Abschätzung für den natürlichen Logarithmus
  • Durch Erweiterung obiger Gleichung um X| in Zähler und Nenner erhält man unter Verwendung von log2x=ln(x)/ln(2):
H(X)=1ln(2)E[ln1|X|PX(X)]+log2|X|.
  • Wie aus nebenstehender Grafik hervorgeht, gilt die Abschätzung ln(x)x1 mit der Identität für x=1. Somit kann geschrieben werden:
H(X)1ln(2)E[1|X|PX(X)1]+log2|X|.
  • In Aufgabe 3.2 wurde für den Fallpμ0 für alle μ der Erwartungswert E[log21/PX(X)]=|X| berechnet. Damit verschwindet der erste Term und man erhält das bekannte Ergebnis:
H(X)log2|X|.

Hinweise:

Hbin(p)=plog21p+(1p)log211p.


Fragebogen

1

Welche Aussagen gelten für die rote Entropiefunktion HR(p)?

HR(p) ergibt sich z.B. mit p1=p, p2=1p und p3=0.
HR(p) ist identisch mit der binären Entropiefunktion Hbin(p).

2

Welche Eigenschaften weist die binäre Entropiefunktion Hbin(p)auf?

Hbin(p) ist konkav hinsichtlich des Parameters p.
Es gilt Max[Hbin(p)]=2 bit.

3

Welche Aussagen gelten für die blaue Entropiefunktion HB(p)?

HB(p) ergibt sich beispielsweise mit p1=p, p2=1/2p und p3=1/2.
Es gilt HB(p=0)=1 bit.
Es gilt Es gilt Max[HB(p)]=log2(3) bit.

4

Welche Aussagen gelten für die grüne Entropiefunktion HG(p)?

HG(p) ergibt sich beispielsweise mit p1=p, p2=2/3p und p3=1/3.
Es gilt HG(p=0)=1 bit.
Es gilt Max[HG(p)]=log2(3) bit.


Musterlösung

(1)  Beide Aussagen sind richtig. Setzt man p3 = 0 und formal p1 = p  ⇒  p2 = 1 – p, so ergibt sich die binäre Entropiefunktion

Hbin(p)=plog21p+(1p)log211p.

(2)  Man kann die binäre Entropiefunktion wegen log2(x) = ln(x)/ln(2) auch in die folgende Form bringen:

Hbin(p)=1ln(2)[pln(p)+(1p)ln(1p)].
  • Die erste Ableitung führt zum Ergebnis
dHbin(p)dp=1ln(2)[ln(p)+p1pln(1p)(1p)11p]=1ln(2)[ln(1p)ln(p)]=log21pp.
  • Durch Nullsetzen dieser Ableitung erhält man den Abszissenwert p = 0.5, der zum Maximum der Entropiefunktion führt: Hbin(p = 0.5) = 1 bit  ⇒  Lösungsvorschlag 2 ist falsch.
  • Durch nochmaliges Differenzieren erhält man für die zweite Ableitung:
d2Hbin(p)dp2=1ln(2)[11p1p]=1ln(2)p(1p).
  • Diese Funktion ist im gesamten Definitionsgebiet 0 ≤ p ≤ 1 negativ  ⇒  Hbin(p) ist konkav  ⇒  Richtig ist allein der Lösungsvorschlag 1.


Drei Entropiefunktionen mit M = 3

(3)  Richtig sind hier die Aussagen 1 und 2:

  • Für p = 0 erhält man die Wahrscheinlichkeitsfunktion PX(X) = [0, 1/2, 1/2]  ⇒  H(X) = 1 bit.
  • Das Maximum unter der Voraussetzung p3 = 1/2 ergibt sich für p1 = p2 = 1/4:
PX(X)=[1/4,1/4,1/2]Max[HB(p)]=1.5bit.
  • In kompakter Form lässt sich HB(p) mit der Einschränkung 0 ≤ p ≤ 1/2 wie folgt darstellen:
HB(p)=1.0bit+1/2Hbin(2p).

(4)  Richtig sind die erste und letzte Aussage:

  • Der grüne Kurvenzug beinhaltet mit p = 1/3 auch die Gleichverteilung aller Wahrscheinlichkeiten ⇒ Max[HG(p)] = log2 (3) bit. Allgemein lässt sich der gesamte Kurvenverlauf im Bereich 0 ≤ p ≤ 2/3 wie folgt ausdrücken:
HG(p)=HG(p=0)+2/3Hbin(3p/2).
  • Aus der Grafik auf der Angabenseite erkennt man auch, dass folgende Bedingung erfüllt sein muss:
HG(p=0)+2/3=log2(3)HG(p=0)=1.5850.667=0.918bit.
  • Der zweite Lösungsvorschlag 2 ist somit falsch. Zum gleichen Ergebnis gelangt man über die Gleichung
HG(p=0)=1/3log2(3)+2/3log2(3/2)=log2(3)2/3log2(2).