Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Exercise 3.4: Entropy for Different PMF

From LNTwww
Revision as of 15:18, 30 May 2017 by Guenter (talk | contribs)

Vier Wahrscheinlichkeitsfunktionen mit M = 4

In der ersten Zeile der nebenstehenden Tabelle ist die im Folgenden die mit „a” bezeichnete Wahrscheinlichkeitsfunktion angegeben. Für diese PMF PX(X)=[0.1,0.2,0.3,0.4] soll soll in der Teilaufgabe (1) die Entropie berechnet werden:

Ha(X)=E[log21PX(X)]=E[log2PX(X)].

Da hier der Logarithmus zur Basis 2 verwendet wird, ist die Pseudo–Einheit „bit” anzufügen.

In den weiteren Aufgaben sollen jeweils einige Wahrscheinlichkeiten variiert werden und zwar derart, dass sich jeweils die größtmögliche Entropie ergibt:

  • Durch geeignete Variation von p3 und p4 kommt man zur maximalen Entropie Hb(X) unter der Voraussetzung p1=0.1 und p2=0.2   ⇒   Teilaufgabe (2).
  • Durch geeignete Variation von p2 und p3 kommt man zur maximalen Entropie Hc(X) unter der Voraussetzung p1=0.1 und p4=0.4   ⇒   Teilaufgabe (3).
  • In der Teilaufgabe (4) sind alle vier Parameter zur Variation freigegeben, die entsprechend der maximalen Entropie   ⇒   Hmax(X) zu bestimmen sind.


Hinweise:


Fragebogen

1

Zu welcher Entropie führt die Wahrscheinlichkeitsfunktion PX(X)=[0.1,0.2,0.3,0.4] ?

Ha(X) = 

 bit

2

Es gelte nun allgemein PX(X)=[0.1,0.2,p3,p4]. Welche Entropie erhält man, wenn p3 und p4 bestmöglich gewählt werden?

Hb(X) = 

 bit

3

Nun gelte PX(X)=[0.1,p2,p3,0.4]. Welche Entropie erhält man, wenn p2 und p3 bestmöglich gewählt werden?

Hc(X) = 

 bit

4

Welche Entropie erhält man, wenn alle Wahrscheinlichkeiten (p1, p2,p3 und p4) bestmöglich gewählt werden Können ?

Hmax(X) = 

 bit


Musterlösung

(1)  Mit PX(X)=[0.1,0.2,0.3,0.4] erhält man für die Entropie:

Ha(X)=0.1log210.1+0.2log210.2+0.3log210.3+0.4log210.4=1.846_.

Hier (und bei den anderen Aufgaben) ist jeweils die Pseudo–Einheit „bit” anzufügen.

(2)  Die Entropie Hb(X) lässt sich als Summe zweier Anteile Hb1(X) und Hb2(X) darstellen, mit:

Hb1(X)=0.1log210.1+0.2log210.2=0.797,
Hb2(X)=p3log21p3+(0.7p3)log210.7p3.

Die zweite Funktion ist maximal für p3=p4=0.35. Ein ähnlicher Zusammenhang hat sich bei der binären Entropiefunktion ergeben. Damit erhält man:

Hb2(X)=2p3log21p3=0.7log210.35=1.060
Hb(X)=Hb1(X)+Hb2(X)=0.797+1.060=1.857_.


(3)  Analog zur Teilaufgabe (2) ergibt sich mit p1=0.1, p4=0.4 das Maximum für p2=p3=p3=0.25:

Hc(X)=0.1log210.1+20.25log210.25+0.4log210.4=1.861_.


(4)  Die maximale Entropie für den Symbolumfang M=4 ergibt sich bei gleichen Wahrscheinlichkeiten ( p1=p2=p3=p4=0.25):

Hmax(X)=log2M=2_.

Die Differenz der Entropien entsprechend (4) und (3) ergibt ΔH(X)=0.139 bit. Hierbei gilt:

ΔH(X)=10.1log210.10.4log210.4.

Mit der binären Entropiefunktion

Hbin(p)=plog21p+(1p)log211p

lässt sich hierfür auch schreiben:

ΔH(X)=0.5[1Hbin(0.2)]=0.5[10.722]=0.139.