Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Difference between revisions of "Aufgaben:Exercise 4.2: Triangular PDF"

From LNTwww
m (Text replacement - "Category:Aufgaben zu Informationstheorie" to "Category:Information Theory: Exercises")
m (Text replacement - "”" to """)
Line 18: Line 18:
 
\hspace{0.6cm}{\rm mit}\hspace{0.6cm} {\rm supp}(f_X) = \{ x\text{:} \  f_X(x) > 0 \}
 
\hspace{0.6cm}{\rm mit}\hspace{0.6cm} {\rm supp}(f_X) = \{ x\text{:} \  f_X(x) > 0 \}
 
\hspace{0.05cm}.$$
 
\hspace{0.05cm}.$$
*Verwendet man den   ''natürlichen Logarithmus'', so ist die Pseudo–Einheit   „nat”   anzufügen.  
+
*Verwendet man den   ''natürlichen Logarithmus'', so ist die Pseudo–Einheit   „nat"   anzufügen.  
*Ist das Ergebnis dagegen in&nbsp;  &bdquo;bit&rdquo;&nbsp;  gefragt, so ist der <i>Logarithmus dualis</i> &nbsp; &#8658; &nbsp; &bdquo;log2&rdquo;&nbsp; zu verwenden.
+
*Ist das Ergebnis dagegen in&nbsp;  &bdquo;bit"&nbsp;  gefragt, so ist der <i>Logarithmus dualis</i> &nbsp; &#8658; &nbsp; &bdquo;log2"&nbsp; zu verwenden.
  
  
Line 34: Line 34:
 
''Hinweise:''  
 
''Hinweise:''  
 
*Die Aufgabe gehört zum  Kapitel&nbsp; [[Information_Theory/Differentielle_Entropie|Differentielle Entropie]].
 
*Die Aufgabe gehört zum  Kapitel&nbsp; [[Information_Theory/Differentielle_Entropie|Differentielle Entropie]].
*Nützliche Hinweise zur Lösung dieser Aufgabe und weitere Informationen zu den wertkontinuierlichen Zufallsgrößen finden Sie im dritten Kapitel &bdquo;Kontinuierliche Zufallsgrößen&rdquo; des Buches&nbsp;  [[Stochastische Signaltheorie]].
+
*Nützliche Hinweise zur Lösung dieser Aufgabe und weitere Informationen zu den wertkontinuierlichen Zufallsgrößen finden Sie im dritten Kapitel &bdquo;Kontinuierliche Zufallsgrößen" des Buches&nbsp;  [[Stochastische Signaltheorie]].
 
   
 
   
 
*Vorgegeben ist das folgende unbestimmte Integral:
 
*Vorgegeben ist das folgende unbestimmte Integral:
Line 45: Line 45:
 
===Fragebogen===
 
===Fragebogen===
 
<quiz display=simple>
 
<quiz display=simple>
{Berechnen Sie die differentielle Entropie der Zufallsgröße&nbsp; X&nbsp; in&nbsp; &bdquo;nat&rdquo;.
+
{Berechnen Sie die differentielle Entropie der Zufallsgröße&nbsp; X&nbsp; in&nbsp; &bdquo;nat".
 
|type="{}"}
 
|type="{}"}
 
h(X) =  { -0.199--0.187 }  nat
 
h(X) =  { -0.199--0.187 }  nat
  
  
{Welches Ergebnis erhält man mit der Pseudoeinheit&nbsp; &bdquo;bit&rdquo;?
+
{Welches Ergebnis erhält man mit der Pseudoeinheit&nbsp; &bdquo;bit"?
 
|type="{}"}
 
|type="{}"}
 
h(X) =  { -0.288--0.270 }  bit
 
h(X) =  { -0.288--0.270 }  bit
Line 70: Line 70:
 
:$$f_X(x) = 2x = C \cdot x
 
:$$f_X(x) = 2x = C \cdot x
 
\hspace{0.05cm}.$$  
 
\hspace{0.05cm}.$$  
*Wir haben hierbei &bdquo;2&rdquo; durch&nbsp; C&nbsp; ersetzt &nbsp; &#8658; &nbsp; Verallgemeinerung, um in der Teilaufgabe&nbsp; (3)&nbsp; die nachfolgende Berechnung nochmals nutzen zu können.
+
*Wir haben hierbei &bdquo;2" durch&nbsp; C&nbsp; ersetzt &nbsp; &#8658; &nbsp; Verallgemeinerung, um in der Teilaufgabe&nbsp; (3)&nbsp; die nachfolgende Berechnung nochmals nutzen zu können.
  
*Da die differentielle Entropie in &bdquo;nat&rdquo; gesucht ist, verwenden wir den natürlichen Logarithmus.&nbsp; Mit der Substitution&nbsp; ξ=Cx&nbsp; erhalten wir:
+
*Da die differentielle Entropie in &bdquo;nat" gesucht ist, verwenden wir den natürlichen Logarithmus.&nbsp; Mit der Substitution&nbsp; ξ=Cx&nbsp; erhalten wir:
 
:$$h_{\rm nat}(X) = \hspace{0.1cm} - \int_{0}^{1} \hspace{0.1cm}  C \cdot x \cdot {\rm ln} \hspace{0.1cm} \big[ C \cdot x \big] \hspace{0.1cm}{\rm d}x =  
 
:$$h_{\rm nat}(X) = \hspace{0.1cm} - \int_{0}^{1} \hspace{0.1cm}  C \cdot x \cdot {\rm ln} \hspace{0.1cm} \big[ C \cdot x \big] \hspace{0.1cm}{\rm d}x =  
 
\hspace{0.1cm} - \hspace{0.1cm}\frac{1}{C} \cdot \int_{0}^{C} \hspace{0.1cm}  \xi \cdot {\rm ln} \hspace{0.1cm} [ \xi ] \hspace{0.1cm}{\rm d}\xi  
 
\hspace{0.1cm} - \hspace{0.1cm}\frac{1}{C} \cdot \int_{0}^{C} \hspace{0.1cm}  \xi \cdot {\rm ln} \hspace{0.1cm} [ \xi ] \hspace{0.1cm}{\rm d}\xi  
Line 101: Line 101:
 
\hspace{0.15cm}\underline {= - 0.279\,{\rm bit}}  
 
\hspace{0.15cm}\underline {= - 0.279\,{\rm bit}}  
 
\hspace{0.05cm}.$$
 
\hspace{0.05cm}.$$
*Diese Umrechnung kann man sich sparen, wenn man bereits im analytischen Ergebnis der Teilaufgabe&nbsp; (1)&nbsp; direkt &bdquo;ln&rdquo; durch &bdquo;log<sub>2</sub>&rdquo; ersetzt:
+
*Diese Umrechnung kann man sich sparen, wenn man bereits im analytischen Ergebnis der Teilaufgabe&nbsp; (1)&nbsp; direkt &bdquo;ln" durch &bdquo;log<sub>2</sub>" ersetzt:
 
:$$h(X) = \  {\rm log}_2 \hspace{0.1cm} (\sqrt{\rm e}/2)\hspace{0.05cm}, \hspace{1.3cm}
 
:$$h(X) = \  {\rm log}_2 \hspace{0.1cm} (\sqrt{\rm e}/2)\hspace{0.05cm}, \hspace{1.3cm}
 
{\rm Pseudo-Einheit\hspace{-0.1cm}:\hspace{0.15cm} bit}  
 
{\rm Pseudo-Einheit\hspace{-0.1cm}:\hspace{0.15cm} bit}  

Revision as of 16:34, 28 May 2021

Zweimal dreieckförmige WDF

Betrachtet werden zwei Wahrscheinlichkeitsdichtefunktionen (kurz WDF) mit dreieckförmigem Verlauf.

  • Die Zufallsgröße  X  ist auf den Wertebereich von  0  bis  1  begrenzt,  und es gilt für die WDF (obere Skizze):
fX(x)={2x0f¨ur0x1sonst.
  • Die Zufallsgröße  Y  besitzt gemäß der unteren Skizze die folgende WDF:
fY(y)={1|y|0f¨ur|y|1sonst.

Für beide Zufallsgrößen soll jeweils die  differentielle Entropie  ermittelt werden.

Beispielsweise lautet die entsprechende Gleichung für die Zufallsgröße  X:

h(X)=supp(fX)fX(x)log[fX(x)]dxmitsupp(fX)={x: fX(x)>0}.
  • Verwendet man den  natürlichen Logarithmus, so ist die Pseudo–Einheit  „nat"  anzufügen.
  • Ist das Ergebnis dagegen in  „bit"  gefragt, so ist der Logarithmus dualis   ⇒   „log2"  zu verwenden.


In der vierten Teilaufgabe wird die neue Zufallsgröße  Z=AY  betrachtet. Der WDF–Parameter  A  ist dabei so zu bestimmen, dass die differentielle Entropie der neuen Zufallsgröße  Z  genau  1 bit ergibt:

h(Z)=h(AY)=h(Y)+log2(A)=1bit.





Hinweise:

  • Die Aufgabe gehört zum Kapitel  Differentielle Entropie.
  • Nützliche Hinweise zur Lösung dieser Aufgabe und weitere Informationen zu den wertkontinuierlichen Zufallsgrößen finden Sie im dritten Kapitel „Kontinuierliche Zufallsgrößen" des Buches  Stochastische Signaltheorie.
  • Vorgegeben ist das folgende unbestimmte Integral:
ξln(ξ)dξ=ξ2[1/2ln(ξ)1/4].


Fragebogen

1

Berechnen Sie die differentielle Entropie der Zufallsgröße  X  in  „nat".

h(X) = 

 nat

2

Welches Ergebnis erhält man mit der Pseudoeinheit  „bit"?

h(X) = 

 bit

3

Berechnen Sie die differentielle Entropie der Zufallsgröße  Y.

h(Y) = 

 bit

4

Bestimmen Sie den WDF–Parameter  A  derart, dass  h(Z)=h(AY)=1 bit_  gilt.

A =


Musterlösung

(1)  Für die Wahrscheinlichkeitsdichtefunktion gilt im Bereich  0X1  vereinbarungsgemäß:

fX(x)=2x=Cx.
  • Wir haben hierbei „2" durch  C  ersetzt   ⇒   Verallgemeinerung, um in der Teilaufgabe  (3)  die nachfolgende Berechnung nochmals nutzen zu können.
  • Da die differentielle Entropie in „nat" gesucht ist, verwenden wir den natürlichen Logarithmus.  Mit der Substitution  ξ=Cx  erhalten wir:
hnat(X)=10Cxln[Cx]dx=1CC0ξln[ξ]dξ=ξ2C[ln(ξ)214]ξ=Cξ=0
  • Hierbei wurde das vorne angegebene unbestimmte Integral benutzt.  Nach Einsetzen der Grenzen erhält man unter Berücksichtigung von  C=2:
hnat(X)=C/2[ln(C)1/2]=ln(2)+1/2=ln(2)+1/2ln(e)=ln(e/2)=0.193h(X)=0.193nat_.


(2)  Allgemein gilt:

hbit(X)=hnat(X)ln(2)nat/bit=0.279h(X)=0.279bit_.
  • Diese Umrechnung kann man sich sparen, wenn man bereits im analytischen Ergebnis der Teilaufgabe  (1)  direkt „ln" durch „log2" ersetzt:
h(X)= log2(e/2),PseudoEinheit:bit.


Zur Berechnung von  h(Y)

(3)  Wir verwenden wieder den natürlichen Logarithmus und teilen das Integral in zwei Teilintegrale auf:

h(Y)=supp(fY)fY(y)ln[fY(y)]dy=Ineg+Ipos.
  • Das erste Integral für den Bereich  1y0  ist formgleich mit dem der Teilaufgabe  (1)  und gegenüber diesem nur verschoben, was das Ergebnis nicht beeinflusst.
  • Zu berücksichtigen ist nun die Höhe  C=1  anstelle von  C=2:
Ineg=C/2[ln(C)1/2]=1/2[ln(1)1/2ln(e)]=1/4ln(e).
  • Der zweite Integrand ist bis auf eine Verschiebung und Spiegelung identisch mit dem ersten.  Außerdem überlappen sich die Integrationsintervalle nicht   ⇒   Ipos=Ineg:
hnat(Y)=2Ineg=1/2ln(e)=ln(e)hbit(Y)=log2(e)h(Y)=log2(1.649)=0.721bit_.


(4)  Für die differentielle Entropie der Zufallsgröße  Z=AY  gilt allgemein:

h(Z)=h(AY)=h(Y)+log2(A).
  • Aus der Forderung  h(Z)=1 bit  und dem Ergebnis der Teilaufgabe  (3)  folgt somit:
log2(A)=1bit0.721bit=0.279bitA=20.279=1.213_.