Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Exercise 4.2: Triangular PDF

From LNTwww
Revision as of 14:43, 9 July 2020 by Javier (talk | contribs) (Text replacement - "[[Informationstheorie" to "[[Information_Theory")

Zweimal dreieckförmige WDF

Betrachtet werden zwei Wahrscheinlichkeitsdichtefunktionen (kurz WDF) mit dreieckförmigem Verlauf.

  • Die Zufallsgröße  X  ist auf den Wertebereich von  0  bis  1  begrenzt,  und es gilt für die WDF (obere Skizze):
fX(x)={2x0f¨ur0x1sonst.
  • Die Zufallsgröße  Y  besitzt gemäß der unteren Skizze die folgende WDF:
fY(y)={1|y|0f¨ur|y|1sonst.

Für beide Zufallsgrößen soll jeweils die  differentielle Entropie  ermittelt werden.

Beispielsweise lautet die entsprechende Gleichung für die Zufallsgröße  X:

h(X)=supp(fX)fX(x)log[fX(x)]dxmitsupp(fX)={x: fX(x)>0}.
  • Verwendet man den  natürlichen Logarithmus, so ist die Pseudo–Einheit  „nat”  anzufügen.
  • Ist das Ergebnis dagegen in  „bit”  gefragt, so ist der Logarithmus dualis   ⇒   „log2”  zu verwenden.


In der vierten Teilaufgabe wird die neue Zufallsgröße  Z=AY  betrachtet. Der WDF–Parameter  A  ist dabei so zu bestimmen, dass die differentielle Entropie der neuen Zufallsgröße  Z  genau  1 bit ergibt:

h(Z)=h(AY)=h(Y)+log2(A)=1bit.





Hinweise:

  • Die Aufgabe gehört zum Kapitel  Differentielle Entropie.
  • Nützliche Hinweise zur Lösung dieser Aufgabe und weitere Informationen zu den wertkontinuierlichen Zufallsgrößen finden Sie im dritten Kapitel „Kontinuierliche Zufallsgrößen” des Buches  Stochastische Signaltheorie.
  • Vorgegeben ist das folgende unbestimmte Integral:
ξln(ξ)dξ=ξ2[1/2ln(ξ)1/4].


Fragebogen

1

Berechnen Sie die differentielle Entropie der Zufallsgröße  X  in  „nat”.

h(X) = 

 nat

2

Welches Ergebnis erhält man mit der Pseudoeinheit  „bit”?

h(X) = 

 bit

3

Berechnen Sie die differentielle Entropie der Zufallsgröße  Y.

h(Y) = 

 bit

4

Bestimmen Sie den WDF–Parameter  A  derart, dass  h(Z)=h(AY)=1 bit_  gilt.

A =


Musterlösung

(1)  Für die Wahrscheinlichkeitsdichtefunktion gilt im Bereich  0X1  vereinbarungsgemäß:

fX(x)=2x=Cx.
  • Wir haben hierbei „2” durch  C  ersetzt   ⇒   Verallgemeinerung, um in der Teilaufgabe  (3)  die nachfolgende Berechnung nochmals nutzen zu können.
  • Da die differentielle Entropie in „nat” gesucht ist, verwenden wir den natürlichen Logarithmus.  Mit der Substitution  ξ=Cx  erhalten wir:
hnat(X)=10Cxln[Cx]dx=1CC0ξln[ξ]dξ=ξ2C[ln(ξ)214]ξ=Cξ=0
  • Hierbei wurde das vorne angegebene unbestimmte Integral benutzt.  Nach Einsetzen der Grenzen erhält man unter Berücksichtigung von  C=2:
hnat(X)=C/2[ln(C)1/2]=ln(2)+1/2=ln(2)+1/2ln(e)=ln(e/2)=0.193h(X)=0.193nat_.


(2)  Allgemein gilt:

hbit(X)=hnat(X)ln(2)nat/bit=0.279h(X)=0.279bit_.
  • Diese Umrechnung kann man sich sparen, wenn man bereits im analytischen Ergebnis der Teilaufgabe  (1)  direkt „ln” durch „log2” ersetzt:
h(X)= log2(e/2),PseudoEinheit:bit.


Zur Berechnung von  h(Y)

(3)  Wir verwenden wieder den natürlichen Logarithmus und teilen das Integral in zwei Teilintegrale auf:

h(Y)=supp(fY)fY(y)ln[fY(y)]dy=Ineg+Ipos.
  • Das erste Integral für den Bereich  1y0  ist formgleich mit dem der Teilaufgabe  (1)  und gegenüber diesem nur verschoben, was das Ergebnis nicht beeinflusst.
  • Zu berücksichtigen ist nun die Höhe  C=1  anstelle von  C=2:
Ineg=C/2[ln(C)1/2]=1/2[ln(1)1/2ln(e)]=1/4ln(e).
  • Der zweite Integrand ist bis auf eine Verschiebung und Spiegelung identisch mit dem ersten.  Außerdem überlappen sich die Integrationsintervalle nicht   ⇒   Ipos=Ineg:
hnat(Y)=2Ineg=1/2ln(e)=ln(e)hbit(Y)=log2(e)h(Y)=log2(1.649)=0.721bit_.


(4)  Für die differentielle Entropie der Zufallsgröße  Z=AY  gilt allgemein:

h(Z)=h(AY)=h(Y)+log2(A).
  • Aus der Forderung  h(Z)=1 bit  und dem Ergebnis der Teilaufgabe  (3)  folgt somit:
log2(A)=1bit0.721bit=0.279bitA=20.279=1.213_.