Exercise 3.5Z: Kullback-Leibler Distance again
Die Wahrscheinlichkeitsfunktion lautet:
PY(X)=[0.25,0.25,0.25,0.25] Die Zufallsgröße X ist also gekennzeichnet
- durch den Symbolumfang M=4,
- mit gleichen Wahrscheinlichkeiten.
Die Zufallsgröße Y ist stets eine Näherung für X. Sie wurde per Simulation aus einer Gleichverteilung gewonnen, wobei jeweils nur N Zufallswerte ausgewertet wurden. Das heißt: PY(1),...,PY(4) sind im herkömmlichen Sinn keine Wahrscheinlichkeiten. Sie beschreiben vielmehr relative Häufigkeiten.
Das Ergebnis der sechsten Versuchsreihe (mit N=1000) ird demnach durch die folgende Wahrscheinlichkeitsfunktion zusammengefasst:
PY(X)=[0.225,0.253,0.250,0.272] Bei dieser Schreibweise ist bereits berücksichtigt, dass die Zufallsgrößen X und Y auf dem gleichen Alphabet X= {1, 2, 3, 4} basieren.
Mit diesen Voraussetzungen gilt für die relative Entropie (englisch: Informational Divergence) zwischen den Wahrscheinlichkeitsfunktionen PX(.) und PY(.) :
D(PX||PY)=EX[log2PX(X)PY(Y)]=M∑μ=1PX(μ).log2PX(μ)PY(μ)
Man bezeichnet D(PX||PY) als Kullback–Leibler–Distanz. Diese ist ein Maß für die Ähnlichkeit zwischen den beiden Wahrscheinlichkeitsfunktionen PX(.) und PY(.). Die Erwartungswertbildung geschieht hier hinsichtlich der (tatsächlich gleichverteilten) Zufallsgröße X. Dies wird durch die Nomenklatur EX[.] angedeutet.
Eine zweite Form der Kullback–Leibler–Distanz ergibt sich durch die Erwartungswertbildung hinsichtlich der Zufallsgröße Y⇒EY[.]:
D(PY||PX)=EY[log2PY(Y)PY(Y)]=M∑μ=1PY(μ).log2PY(μ)PX(μ)
Hinweis: Die Aufgabe bezieht sich auf das Kapitel 3.1 dieses Buches. Die Angaben der Entropie H(Y) und der Kullback–Leibler–Distanz D(PX||PY) in obiger Grafik sind in „bit” zu verstehen. die mit „???" versehenen Felder sollen von Ihnen in dieser Aufgabe ergänzt werden.
Fragebogen
Musterlösung