Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Exercise 3.5Z: Kullback-Leibler Distance again

From LNTwww
Revision as of 17:55, 25 November 2016 by Safwen (talk | contribs)

P ID2762 Inf Z 3 4.png

Die Wahrscheinlichkeitsfunktion lautet:

PY(X)=[0.25,0.25,0.25,0.25] Die Zufallsgröße X ist also gekennzeichnet

  • durch den Symbolumfang M=4,
  • mit gleichen Wahrscheinlichkeiten.

Die Zufallsgröße Y ist stets eine Näherung für X. Sie wurde per Simulation aus einer Gleichverteilung gewonnen, wobei jeweils nur N Zufallswerte ausgewertet wurden. Das heißt: PY(1),...,PY(4) sind im herkömmlichen Sinn keine Wahrscheinlichkeiten. Sie beschreiben vielmehr relative Häufigkeiten.

Das Ergebnis der sechsten Versuchsreihe (mit N=1000) ird demnach durch die folgende Wahrscheinlichkeitsfunktion zusammengefasst:

PY(X)=[0.225,0.253,0.250,0.272] Bei dieser Schreibweise ist bereits berücksichtigt, dass die Zufallsgrößen X und Y auf dem gleichen Alphabet X= {1, 2, 3, 4} basieren.

Mit diesen Voraussetzungen gilt für die relative Entropie (englisch: Informational Divergence) zwischen den Wahrscheinlichkeitsfunktionen PX(.) und PY(.) :

D(PX||PY)=EX[log2PX(X)PY(Y)]=Mμ=1PX(μ).log2PX(μ)PY(μ)

Man bezeichnet D(PX||PY) als Kullback–Leibler–Distanz. Diese ist ein Maß für die Ähnlichkeit zwischen den beiden Wahrscheinlichkeitsfunktionen PX(.) und PY(.). Die Erwartungswertbildung geschieht hier hinsichtlich der (tatsächlich gleichverteilten) Zufallsgröße X. Dies wird durch die Nomenklatur EX[.] angedeutet.

Eine zweite Form der Kullback–Leibler–Distanz ergibt sich durch die Erwartungswertbildung hinsichtlich der Zufallsgröße YEY[.]:

D(PY||PX)=EY[log2PY(Y)PY(Y)]=Mμ=1PY(μ).log2PY(μ)PX(μ)

Hinweis: Die Aufgabe bezieht sich auf das Kapitel 3.1 dieses Buches. Die Angaben der Entropie H(Y) und der Kullback–Leibler–Distanz D(PX||PY) in obiger Grafik sind in „bit” zu verstehen. die mit „???" versehenen Felder sollen von Ihnen in dieser Aufgabe ergänzt werden.


Fragebogen

1

Welche Entropie besitzt die Zufallsgröße X ?

H(X) =

bit

2

Wie groß sind die Entropien der Zufallsgrößen Y (Näherungen für X)?

N=1000 : H(Y) =

bit
N=100 : H(Y) =

bit
N=10 : H(Y) =

bit

3

Berechnen Sie die folgenden Kullback–Leibler–Distanzen.

N=1000 : D(PX||PY) =

. 10 (

)bit
N=100 : D(PX||PY)=

. 10 (

)bit
N=10 : D(PX||PY)=

. 10 (

)bit

4

Liefert D(PY||PX) jeweils exakt das gleiche Ergebnis?

Falsch
Richtig

5

Welche Aussagen gelten für die Kullback–Leibler–Distanzen bei N=4?

Es gilt D(PX||PY)=0.
Es gilt D(PX||PY)=0.5bit
D(PX||PY) ist unendlich groß
Es gilt D(PY||PX)=0.
Es gilt D(PY||PX)=0.5bit.
D(PY||PX) ist unendlich groß.

6

Ändern sich H(Y) und D(PX||PY)monoton mit N?

Falsch
Richtig


Musterlösung

1. 2. 3. 4. 5. 6. 7.