Exercise 1.1Z: Binary Entropy Function

From LNTwww
Revision as of 12:24, 1 December 2016 by Markus (talk | contribs)

P ID2234 Inf Z 1 1.png
Wir betrachten eine Folge von binären Zufallsgrößen mit dem Symbolvorrat {A, B} M=2. Die Auftrittswahrscheinlichkeiten der beiden Symbole seien pA=p und pB=1p.
Die einzelnen Folgenelemente sind statistisch unabhängig. Für die Entropie dieser Nachrichtenquelle gilt gleichermaßen:
Hbin(p)=pld1p+(1p)ld11pin[bit],Hbin(p)=pln1p+(1p)ln11pin[nat].
In diesen Gleichungen werden als Kurzbezeichnungen verwendet:
  • der natürliche Logarithmus ln p=logep,
  • der Logarithmus dualis ld p=log2p.
Die Grafik zeigt diese binäre Entropiefunktion in Abhängigkeit des Parameters p, wobei 0p1 vorausgesetzt wird.
In den Teilaufgaben (5) und (6) soll der relative Fehler ermittelt werden, wenn die Symbolwahrscheinlichkeit p per Simulation (also als relative Häufigkeit h) ermittelt wurde und sich dabei fälschlicherweise h=0.9p ergeben hat. Der relative Fehler ist dann wie folgt gegeben:
εH=Hbin(h)Hbin(p)Hbin(p).
Hinweis: Die Aufgabe gehört zum Kapitel 1.1.


Fragebogen

1

Wie hängen Hbin(p) in bit und H' bin(p) in nat zusammen?

Hbin(p) und H' bin(p) unterscheiden sich um einen Faktor.
Es gilt H' bin(p) = Hbin(ln p).
Es gilt H' bin(p) = 1 + Hbin(2 p).

2

Zeigen Sie, dass sich das Maximum der binären Entropiefunktion für p = 0.5 ergibt. Wie groß ist Hbin(p = 0.5)?

Hbin(p=0.5) =

bit

3

Berechnen Sie den binären Entropiewert für p = 0.05.

Hbin(p=0.05) =

bit

4

Geben Sie den größeren der beiden p–Werte ein, die sich aus der Gleichung Hbin(p) = 0.5 bit ergeben.

p =

5

Durch unzureichende Simulation wurde p = 0.5 um 10% zu niedrig ermittelt. Wie groß ist der prozentuale Fehler hinsichtlich der Entropie?

p=0.45 statt p=0.5:  ϵH = -

%

6

Durch unzureichende Simulation wurde p = 0.05 um 10% zu niedrig ermittelt. Wie groß ist der prozentuale Fehler hinsichtlich der Entropie?

p=0.045 statt p=0.05:  ϵH = -

%


Musterlösung

Hinweis: Aus Platzgründen verwenden wir in der Musterlösung „ld” anstelle von „log2”.
1.  Die Entropiefunktion H' bin(p) lautet entsprechend der Angabe:
Hbin(p)=pln1p+(1p)ln11p==ln2[pld1p+(1p)ld11p]
Hbin(p)(innat)=ln2Hbin(p)(inbit)=0.693Hbin(p).
Richtig ist also der erste Lösungsvorschlag. Die beiden weiteren Vorgaben machen keinen Sinn.
2.  Die Optimierungsbedingung lautet dHbin(p)/dp = 0 bzw.
dHbin(p)dp!=0ddp[plnp(1p)ln(1p)]!=0
lnpp1p+ln(1p)+(1p)11p!=0
ln1pp=01pp=1p=0.5_.
Die Entropiewerte für p = 0.5 lauten somit:
Hbin(p=0.5)=20.5ln0.5=ln2=0.693nat,Hbin(p=0.5)=20.5ld0.5=ld2=1bit_.
3.  Für p = 5% erhält man:
Hbin(p=0.05)=0.05ld10.05+0.95ld10.95==10.693[0.05ln20+0.95ln1.053]==10.693[0.052.995+0.950.051]0.286bit_.
4.  Diese Aufgabe lässt sich nicht in geschlossener Form lösen, sondern durch „Probieren”. Eine Lösung liefert das Ergebnis:
Hbin(p=0.10)=0.469bit,Hbin(p=0.12)=0.529bit,Hbin(p=0.11)0.5bit
p10.11.
Die zweite (gesuchte) Lösung ergibt sich aus der Symmetrie von Hbin(p) zu p2 = 1 – p1 = 0.89.
5.  Mit p = 0.45 erhält man Hbin(p) = 0.993 bit. Der relative Fehler bezüglich Entropie ist somit
εH=Hbin(p=0.45)Hbin(p=0.5)Hbin(p=0.5)=0.99311=0.7%_.
Das Minuszeichen deutet darauf hin, dass der Entropiewert H = 0.993 zu klein ist. Hätte die Simulation den zu großen Wert p = 0.55 ergeben, so wäre H und auch der relative Fehler genau so groß.
6.   Es gilt Hbin(p = 0.045) = 0.265 bit. Mit dem Ergebnis aus (3) ⇒ Hbin(p = 0.05) = 0.286 bit folgt daraus für den relativen Fehler bezüglich der Entropie:
εH=Hbin(p=0.045)Hbin(p=0.05)Hbin(p=0.05)=0.2650.2860.286=7.3%_.
Eine falsche Bestimmung der Symbolwahrscheinlichkeiten um 10% macht sich für p = 0.05 aufgrund des steileren Hbin(p)–Verlaufs deutlich stärker bemerkbar als für p = 0.5. Eine zu große Wahrscheinlichkeit p = 0.055 hätte zu Hbin(p = 0.055) = 0.307 bit geführt und damit zu einer Verfälschung um εH = +7.3%. In diesem Bereich verläuft die Entropiekurve also (mit guter Näherung) linear.