Difference between revisions of "Aufgaben:Exercise 4.2: Triangular PDF"
m (Guenter verschob die Seite 4.02 Dreieckförmige WDF nach 4.2 Dreieckförmige WDF) |
|||
Line 2: | Line 2: | ||
}} | }} | ||
− | [[File:P_ID2865__Inf_A_4_2.png|right|]] | + | [[File:P_ID2865__Inf_A_4_2.png|right|Zweimal dreieckförmige WDF]] |
− | Betrachtet werden zwei Wahrscheinlichkeitsdichtefunktionen (kurz WDF) mit dreieckförmigem Verlauf | + | Betrachtet werden zwei Wahrscheinlichkeitsdichtefunktionen (kurz WDF) mit dreieckförmigem Verlauf. |
− | + | * Die Zufallsgröße $X$ ist auf den Wertebereich von $0$ und $1$ begrenzt, und es gilt für die WDF (obere Skizze): | |
− | $$f_X(x) = \left\{ 2x0 \right. f¨ur0≤x≤1sonst | + | :$$f_X(x) = \left\{ 2x0 \right. f¨ur0≤x≤1sonst |
\hspace{0.05cm}.$$ | \hspace{0.05cm}.$$ | ||
− | + | * Die Zufallsgröße $Y$ besitzt gemäß der unteren Skizze die folgende WDF: | |
− | $$f_Y(y) = \left\{ 1−|y|0 \right. f¨ur|y|≤1sonst | + | :$$f_Y(y) = \left\{ 1−|y|0 \right. f¨ur|y|≤1sonst |
\hspace{0.05cm}.$$ | \hspace{0.05cm}.$$ | ||
− | + | * Der Zusammenhang zwischen den zwei Zufallsgrößen ist durch die Gleichung $X = |Y|$ gegeben. | |
− | Für beide Zufallsgrößen soll jeweils die [ | + | |
− | $$h(X) = | + | |
+ | Für beide Zufallsgrößen soll jeweils die [[Informationstheorie/Differentielle_Entropie|differentielle Entropie]] ermittelt werden. Beispielsweise lautet die entsprechende Gleichung für die Zufallsgröße $X$: | ||
+ | :$$h(X) = | ||
\hspace{0.1cm} - \hspace{-0.45cm} \int\limits_{{\rm supp}\hspace{0.03cm}(\hspace{-0.03cm}f_X)} \hspace{-0.35cm} f_X(x) \cdot {\rm log} \hspace{0.1cm} [ f_X(x) ] \hspace{0.1cm}{\rm d}x | \hspace{0.1cm} - \hspace{-0.45cm} \int\limits_{{\rm supp}\hspace{0.03cm}(\hspace{-0.03cm}f_X)} \hspace{-0.35cm} f_X(x) \cdot {\rm log} \hspace{0.1cm} [ f_X(x) ] \hspace{0.1cm}{\rm d}x | ||
\hspace{0.6cm}{\rm mit}\hspace{0.6cm} {\rm supp}(f_X) = \{ x: f_X(x) > 0 \} | \hspace{0.6cm}{\rm mit}\hspace{0.6cm} {\rm supp}(f_X) = \{ x: f_X(x) > 0 \} | ||
\hspace{0.05cm}.$$ | \hspace{0.05cm}.$$ | ||
− | Verwendet man den natürlichen Logarithmus, so ist die Pseudo–Einheit „nat” anzufügen. Ist das Ergebnis dagegen in „bit” gefragt, so ist der <i>Logarithmus dualis</i> ⇒ „log<sub>2</sub>” zu verwenden. | + | *Verwendet man den ''natürlichen Logarithmus'', so ist die Pseudo–Einheit „nat” anzufügen. |
+ | *Ist das Ergebnis dagegen in „bit” gefragt, so ist der <i>Logarithmus dualis</i> ⇒ „log<sub>2</sub>” zu verwenden. | ||
+ | |||
+ | |||
+ | In der vierten Teilaufgabe wird die neue Zufallsgröße Z=A⋅Y betrachtet. Der WDF–Parameter A ist so zu bestimmen, dass die differentielle Entropie der neuen Zufallsgröße Z</i> genau 1 bit ergibt:<br> | ||
+ | :h(Z)=h(A⋅Y)=h(Y)+log2(A)=1bit. | ||
+ | |||
+ | |||
+ | ''Hinweise:'' | ||
+ | *Die Aufgabe gehört zum Kapitel [[Informationstheorie/Differentielle_Entropie|Differentielle Entropie]]. | ||
+ | *Nützliche Hinweise zur Lösung dieser Aufgabe und weitere Informationen zu den wertkontinuierlichen Zufallsgrößen finden Sie im Kapitel „Kontinuierliche Zufallsgrößen” des Buches [[Stochastische Signaltheorie]]. | ||
+ | *Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0.” ein. | ||
+ | *Vorgegeben ist das folgende unbestimmte Integral: | ||
+ | :$$\int \xi \cdot {\rm ln} \hspace{0.1cm} (\xi)\hspace{0.1cm}{\rm d}\xi = | ||
+ | \xi^2 \cdot \left [1/2 \cdot {{\rm ln} \hspace{0.1cm} (\xi)} - | ||
+ | {1}/{4}\right ] \hspace{0.05cm}.$$ | ||
+ | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
===Fragebogen=== | ===Fragebogen=== | ||
<quiz display=simple> | <quiz display=simple> | ||
− | {Berechnen Sie die differentielle Entropie der Zufallsgröße | + | {Berechnen Sie die differentielle Entropie der Zufallsgröße $X$ in „nat”. |
|type="{}"} | |type="{}"} | ||
− | h(X) | + | $h(X) \ = $ { 0.193 3% } nat |
{Welches Ergebnis erhält man mit der Pseudoeinheit „bit”? | {Welches Ergebnis erhält man mit der Pseudoeinheit „bit”? | ||
|type="{}"} | |type="{}"} | ||
− | h(X) | + | $h(X) \ = $ { 0.279 3% } bit |
− | {Berechnen Sie die differentielle Entropie der Zufallsgröße | + | {Berechnen Sie die differentielle Entropie der Zufallsgröße $Y$. |
|type="{}"} | |type="{}"} | ||
− | h(Y) | + | $h(Y) \ = $ { 0.721 3% } bit |
− | {Bestimmen Sie den WDF–Parameter | + | {Bestimmen Sie den WDF–Parameter $A$, so dass $h(Z) = h (A \cdot Y) = 1 \ \rm bit$ gilt. |
|type="{}"} | |type="{}"} | ||
− | h(Z)=1bit:A | + | $h(Z) = 1 \ \rm bit\text{:} \ \ A\ = $ { 1.213 3% } |
Revision as of 13:15, 6 April 2017
Betrachtet werden zwei Wahrscheinlichkeitsdichtefunktionen (kurz WDF) mit dreieckförmigem Verlauf.
- Die Zufallsgröße X ist auf den Wertebereich von 0 und 1 begrenzt, und es gilt für die WDF (obere Skizze):
- fX(x)={2x0f¨ur0≤x≤1sonst.
- Die Zufallsgröße Y besitzt gemäß der unteren Skizze die folgende WDF:
- fY(y)={1−|y|0f¨ur|y|≤1sonst.
- Der Zusammenhang zwischen den zwei Zufallsgrößen ist durch die Gleichung X=|Y| gegeben.
Für beide Zufallsgrößen soll jeweils die differentielle Entropie ermittelt werden. Beispielsweise lautet die entsprechende Gleichung für die Zufallsgröße X:
- h(X)=−∫supp(fX)fX(x)⋅log[fX(x)]dxmitsupp(fX)={x:fX(x)>0}.
- Verwendet man den natürlichen Logarithmus, so ist die Pseudo–Einheit „nat” anzufügen.
- Ist das Ergebnis dagegen in „bit” gefragt, so ist der Logarithmus dualis ⇒ „log2” zu verwenden.
In der vierten Teilaufgabe wird die neue Zufallsgröße Z=A⋅Y betrachtet. Der WDF–Parameter A ist so zu bestimmen, dass die differentielle Entropie der neuen Zufallsgröße Z genau 1 bit ergibt:
- h(Z)=h(A⋅Y)=h(Y)+log2(A)=1bit.
Hinweise:
- Die Aufgabe gehört zum Kapitel Differentielle Entropie.
- Nützliche Hinweise zur Lösung dieser Aufgabe und weitere Informationen zu den wertkontinuierlichen Zufallsgrößen finden Sie im Kapitel „Kontinuierliche Zufallsgrößen” des Buches Stochastische Signaltheorie.
- Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0.” ein.
- Vorgegeben ist das folgende unbestimmte Integral:
- ∫ξ⋅ln(ξ)dξ=ξ2⋅[1/2⋅ln(ξ)−1/4].
Fragebogen
Musterlösung
Wir haben hierbei „2” durch C ersetzt ⇒ Verallgemeinerung, um in der Teilaufgabe (c) die nachfolgende Berechnung nochmals nutzen zu können.
Da die differentielle Entropie in „nat” gesucht ist, verwenden wir den natürlichen Logarithmus. Mit der Substitution ξ = C · x erhalten wir folgendes Integral: hnat(X)=−∫10C⋅x⋅ln[C⋅x]dx=−1C⋅∫C0ξ⋅ln[ξ]dξ =−ξ2C⋅[ln(ξ)2−14]ξ=Cξ=0 Hierbei wurde das vorne angegebene unbestimmte Integral benutzt. Nach Einsetzen der Grenzen erhält man hieraus unter Berücksichtigung von C = 2: hnat(X)=−C/2⋅[ln(C)−1/2]=−ln(2)+1/2=−ln(2)+1/2⋅ln(e)==ln(√e/2)=ln(0.824)=−0.193⇒h(X)=−0.193nat_.
b) Allgemein gilt: hbit(X)=hnat(X)ln(2)nat/bit=−0.279⇒h(X)=−0.279bit_. Diese Umrechnung kann man sich sparen, wenn man bereits im analytischen Ergebnis der Teilaufgabe a) direkt „ln” durch „log2” ersetzt: h(X)= log2(√e/2),Pseudo−Einheit:bit.
c) Wir verwenden wieder den natürlichen Logarithmus und teilen das Integral in zwei Teilintegrale auf: h(Y)=−∫supp(fY)fY(y)⋅ln[fY(y)]dy=Ineg+Ipos.
Das erste Integral (Bereich –1 ≤ y ≤ 0) ist formgleich mit dem der Teilaufgabe (a) und gegenüber diesem nur verschoben, was das Ergebnis nicht beeinflusst. Zu berücksichtigen ist nun die Höhe C = 1 anstelle von C = 2: Ineg=−C/2⋅[ln(C)−1/2]=−1/2⋅[ln(1)−1/2⋅ln(e)]=1/4⋅ln(e).
Der zweite Integrand ist bis auf eine Verschiebung und Spiegelung identisch mit dem ersten. Außerdem überlappen sich die Integrationsintervalle nicht ⇒ Ipos = Ineg: hnat(Y)=2⋅Ineg=1/2⋅ln(e)=ln(√e) ⇒hbit(Y)=log2(√e)⇒h(Y)=log2(1.649)=0.721bit_.
d) Für die differentielle Entropie der Zufallsgröße Z = A · Y gilt allgemein: h(Z)=h(A⋅Y)=h(Y)+log2(A). Aus der Forderung h(Z) = 1 bit und dem Ergebnis der Teilaufgabe (c) folgt somit: log2(A)=1bit−0.721bit=0.279bit⇒A=20.279=1.213_.