Difference between revisions of "Aufgaben:Exercise 4.2: Triangular PDF"
Line 4: | Line 4: | ||
[[File:P_ID2865__Inf_A_4_2.png|right|frame|Zweimal dreieckförmige WDF]] | [[File:P_ID2865__Inf_A_4_2.png|right|frame|Zweimal dreieckförmige WDF]] | ||
Betrachtet werden zwei Wahrscheinlichkeitsdichtefunktionen (kurz WDF) mit dreieckförmigem Verlauf. | Betrachtet werden zwei Wahrscheinlichkeitsdichtefunktionen (kurz WDF) mit dreieckförmigem Verlauf. | ||
− | * Die Zufallsgröße X ist auf den Wertebereich von 0 | + | * Die Zufallsgröße X ist auf den Wertebereich von 0 bis 1 begrenzt, und es gilt für die WDF (obere Skizze): |
:$$f_X(x) = \left\{ 2x0 \right. f¨ur0≤x≤1sonst | :$$f_X(x) = \left\{ 2x0 \right. f¨ur0≤x≤1sonst | ||
\hspace{0.05cm}.$$ | \hspace{0.05cm}.$$ | ||
− | * Die Zufallsgröße Y besitzt gemäß der unteren Skizze die folgende WDF: | + | * Die Zufallsgröße Y besitzt gemäß der unteren Skizze die folgende WDF: |
− | :$$f_Y(y) = \left\{ 1−|y|0 \right. f¨ur|y|≤1sonst | + | :$$f_Y(y) = \left\{ \begin{array}{c} 1 - |\hspace{0.03cm}y\hspace{0.03cm}| \\ 0 \\ \end{array} \right. \begin{array}{*{20}c} {\rm{f\ddot{u}r}} \hspace{0.1cm} |\hspace{0.03cm}y\hspace{0.03cm}| \le 1 \\ {\rm sonst} \\ \end{array} |
\hspace{0.05cm}.$$ | \hspace{0.05cm}.$$ | ||
− | |||
+ | Für beide Zufallsgrößen soll jeweils die [[Informationstheorie/Differentielle_Entropie|differentielle Entropie]] ermittelt werden. | ||
− | + | Beispielsweise lautet die entsprechende Gleichung für die Zufallsgröße X: | |
− | |||
− | Beispielsweise lautet die entsprechende Gleichung für die Zufallsgröße X: | ||
:$$h(X) = | :$$h(X) = | ||
\hspace{0.1cm} - \hspace{-0.45cm} \int\limits_{{\rm supp}\hspace{0.03cm}(\hspace{-0.03cm}f_X)} \hspace{-0.35cm} f_X(x) \cdot {\rm log} \hspace{0.1cm} \big [ f_X(x) \big ] \hspace{0.1cm}{\rm d}x | \hspace{0.1cm} - \hspace{-0.45cm} \int\limits_{{\rm supp}\hspace{0.03cm}(\hspace{-0.03cm}f_X)} \hspace{-0.35cm} f_X(x) \cdot {\rm log} \hspace{0.1cm} \big [ f_X(x) \big ] \hspace{0.1cm}{\rm d}x | ||
\hspace{0.6cm}{\rm mit}\hspace{0.6cm} {\rm supp}(f_X) = \{ x\text{:} \ f_X(x) > 0 \} | \hspace{0.6cm}{\rm mit}\hspace{0.6cm} {\rm supp}(f_X) = \{ x\text{:} \ f_X(x) > 0 \} | ||
\hspace{0.05cm}.$$ | \hspace{0.05cm}.$$ | ||
− | *Verwendet man den ''natürlichen Logarithmus'', so ist die Pseudo–Einheit „nat” anzufügen. | + | *Verwendet man den ''natürlichen Logarithmus'', so ist die Pseudo–Einheit „nat” anzufügen. |
− | *Ist das Ergebnis dagegen in „bit” gefragt, so ist der <i>Logarithmus dualis</i> ⇒ „ | + | *Ist das Ergebnis dagegen in „bit” gefragt, so ist der <i>Logarithmus dualis</i> ⇒ „log2” zu verwenden. |
− | In der vierten Teilaufgabe wird die neue Zufallsgröße Z=A⋅Y betrachtet. Der WDF–Parameter A ist dabei so zu bestimmen, dass die differentielle Entropie der neuen Zufallsgröße Z | + | In der vierten Teilaufgabe wird die neue Zufallsgröße Z=A⋅Y betrachtet. Der WDF–Parameter A ist dabei so zu bestimmen, dass die differentielle Entropie der neuen Zufallsgröße Z genau 1 bit ergibt:<br> |
:h(Z)=h(A⋅Y)=h(Y)+log2(A)=1bit. | :h(Z)=h(A⋅Y)=h(Y)+log2(A)=1bit. | ||
+ | |||
+ | |||
+ | |||
Line 44: | Line 45: | ||
===Fragebogen=== | ===Fragebogen=== | ||
<quiz display=simple> | <quiz display=simple> | ||
− | {Berechnen Sie die differentielle Entropie der Zufallsgröße X in „nat”. | + | {Berechnen Sie die differentielle Entropie der Zufallsgröße X in „nat”. |
|type="{}"} | |type="{}"} | ||
h(X) = { -0.199--0.187 } nat | h(X) = { -0.199--0.187 } nat | ||
− | {Welches Ergebnis erhält man mit der Pseudoeinheit „bit”? | + | {Welches Ergebnis erhält man mit der Pseudoeinheit „bit”? |
|type="{}"} | |type="{}"} | ||
h(X) = { -0.288--0.270 } bit | h(X) = { -0.288--0.270 } bit | ||
− | {Berechnen Sie die differentielle Entropie der Zufallsgröße Y. | + | {Berechnen Sie die differentielle Entropie der Zufallsgröße Y. |
|type="{}"} | |type="{}"} | ||
h(Y) = { 0.721 3% } bit | h(Y) = { 0.721 3% } bit | ||
− | {Bestimmen Sie den WDF–Parameter A, | + | {Bestimmen Sie den WDF–Parameter A derart, dass h(Z)=h(A⋅Y)=1 bit_ gilt. |
|type="{}"} | |type="{}"} | ||
A = { 1.213 3% } | A = { 1.213 3% } |
Revision as of 18:14, 10 February 2020
Betrachtet werden zwei Wahrscheinlichkeitsdichtefunktionen (kurz WDF) mit dreieckförmigem Verlauf.
- Die Zufallsgröße X ist auf den Wertebereich von 0 bis 1 begrenzt, und es gilt für die WDF (obere Skizze):
- fX(x)={2x0f¨ur0≤x≤1sonst.
- Die Zufallsgröße Y besitzt gemäß der unteren Skizze die folgende WDF:
- fY(y)={1−|y|0f¨ur|y|≤1sonst.
Für beide Zufallsgrößen soll jeweils die differentielle Entropie ermittelt werden.
Beispielsweise lautet die entsprechende Gleichung für die Zufallsgröße X:
- h(X)=−∫supp(fX)fX(x)⋅log[fX(x)]dxmitsupp(fX)={x: fX(x)>0}.
- Verwendet man den natürlichen Logarithmus, so ist die Pseudo–Einheit „nat” anzufügen.
- Ist das Ergebnis dagegen in „bit” gefragt, so ist der Logarithmus dualis ⇒ „log2” zu verwenden.
In der vierten Teilaufgabe wird die neue Zufallsgröße Z=A⋅Y betrachtet. Der WDF–Parameter A ist dabei so zu bestimmen, dass die differentielle Entropie der neuen Zufallsgröße Z genau 1 bit ergibt:
- h(Z)=h(A⋅Y)=h(Y)+log2(A)=1bit.
Hinweise:
- Die Aufgabe gehört zum Kapitel Differentielle Entropie.
- Nützliche Hinweise zur Lösung dieser Aufgabe und weitere Informationen zu den wertkontinuierlichen Zufallsgrößen finden Sie im dritten Kapitel „Kontinuierliche Zufallsgrößen” des Buches Stochastische Signaltheorie.
- Vorgegeben ist das folgende unbestimmte Integral:
- ∫ξ⋅ln(ξ)dξ=ξ2⋅[1/2⋅ln(ξ)−1/4].
Fragebogen
Musterlösung
- fX(x)=2x=C⋅x.
- Wir haben hierbei „2” durch C ersetzt ⇒ Verallgemeinerung, um in der Teilaufgabe (3) die nachfolgende Berechnung nochmals nutzen zu können.
- Da die differentielle Entropie in „nat” gesucht ist, verwenden wir den natürlichen Logarithmus. Mit der Substitution ξ=C⋅x erhalten wir:
- hnat(X)=−∫10C⋅x⋅ln[C⋅x]dx=−1C⋅∫C0ξ⋅ln[ξ]dξ=−ξ2C⋅[ln(ξ)2−14]ξ=Cξ=0
- Hierbei wurde das vorne angegebene unbestimmte Integral benutzt. Nach Einsetzen der Grenzen erhält man unter Berücksichtigung von C=2:
- hnat(X)=−C/2⋅[ln(C)−1/2]=−ln(2)+1/2=−ln(2)+1/2⋅ln(e)=ln(√e/2)=−0.193⇒h(X)=−0.193nat_.
(2) Allgemein gilt:
- hbit(X)=hnat(X)ln(2)nat/bit=−0.279⇒h(X)=−0.279bit_.
Diese Umrechnung kann man sich sparen, wenn man bereits im analytischen Ergebnis der Teilaufgabe (1) direkt „ln” durch „log2” ersetzt:
- h(X)= log2(√e/2),Pseudo−Einheit:bit.
(3) Wir verwenden wieder den natürlichen Logarithmus und teilen das Integral in zwei Teilintegrale auf:
- h(Y)=−∫supp(fY)fY(y)⋅ln[fY(y)]dy=Ineg+Ipos.
- Das erste Integral für den Bereich −1≤y≤0 ist formgleich mit dem der Teilaufgabe (1) und gegenüber diesem nur verschoben, was das Ergebnis nicht beeinflusst. Zu berücksichtigen ist nun die Höhe C=1 anstelle von C=2:
- Ineg=−C/2⋅[ln(C)−1/2]=−1/2⋅[ln(1)−1/2⋅ln(e)]=1/4⋅ln(e).
- Der zweite Integrand ist bis auf eine Verschiebung und Spiegelung identisch mit dem ersten. Außerdem überlappen sich die Integrationsintervalle nicht ⇒ Ipos=Ineg:
- hnat(Y)=2⋅Ineg=1/2⋅ln(e)=ln(√e)⇒hbit(Y)=log2(√e)⇒h(Y)=log2(1.649)=0.721bit_.
(4) Für die differentielle Entropie der Zufallsgröße Z=A⋅Y gilt allgemein:
- h(Z)=h(A⋅Y)=h(Y)+log2(A).
Aus der Forderung h(Z)=1 bit und dem Ergebnis der Teilaufgabe (3) folgt somit:
- log2(A)=1bit−0.721bit=0.279bit⇒A=20.279=1.213_.