Difference between revisions of "Aufgaben:Exercise 3.7: Some Entropy Calculations"

From LNTwww
Line 16: Line 16:
 
Daraus lassen sich gemäß dem obigen Schema – dargestellt für die Zufallsgröße $XY$ – auch folgende Beschreibungsgrößen sehr einfach bestimmen:
 
Daraus lassen sich gemäß dem obigen Schema – dargestellt für die Zufallsgröße $XY$ – auch folgende Beschreibungsgrößen sehr einfach bestimmen:
 
* die bedingten Entropien (englisch: ''Conditional Entropies''):  
 
* die bedingten Entropien (englisch: ''Conditional Entropies''):  
:$$H(X \hspace{0.05cm}|\hspace{0.05cm} Y) = -{\rm E}[\log_2  P_{ X \hspace{0.05cm}|\hspace{0.05cm} }( X \hspace{0.05cm}|\hspace{0.05cm} Y)],$$
+
:$$H(X \hspace{0.05cm}|\hspace{0.05cm} Y) = -{\rm E}[\log_2  P_{ X \hspace{0.05cm}|\hspace{0.05cm}Y }( X \hspace{0.05cm}|\hspace{0.05cm} Y)],$$
:$$H(Y \hspace{0.05cm}|\hspace{0.05cm} Y) = -{\rm E}[\log_2  P_{ Y \hspace{0.05cm}|\hspace{0.05cm} X }( Y \hspace{0.05cm}|\hspace{0.05cm} X)],$$
+
:$$H(Y \hspace{0.05cm}|\hspace{0.05cm} X) = -{\rm E}[\log_2  P_{ Y \hspace{0.05cm}|\hspace{0.05cm} X }( Y \hspace{0.05cm}|\hspace{0.05cm} X)],$$
 
* die Transinformation (englisch: Mutual Information) zwischen $X$ und $Y$:
 
* die Transinformation (englisch: Mutual Information) zwischen $X$ und $Y$:
:$$I(X;Y) = {\rm E}[\log_2 \frac{P_{ XY }(X,Y)}{P_X(X) \cdot P_Y(Y)}].$$
+
:$$I(X;Y) = {\rm E} \hspace{-0.08cm}\left [ \hspace{0.02cm}{\rm log}_2 \hspace{0.1cm} \frac{P_{XY}(X, Y)}
 +
{P_{X}(X) \cdot P_{Y}(Y) }\right ] \hspace{0.05cm}.$$
  
 
Abschließend sind qualitative Aussagen hinsichtlich der zweiten Zufallsgröße $UV$ zu verifizieren.
 
Abschließend sind qualitative Aussagen hinsichtlich der zweiten Zufallsgröße $UV$ zu verifizieren.
 +
 +
  
 
''Hinweise:''  
 
''Hinweise:''  
Line 64: Line 67:
 
{{ML-Kopf}}
 
{{ML-Kopf}}
  
'''1.''' Aus der gegebenen Verbundwahrscheinlichkeit erhält man
+
'''(1)'''  Aus der gegebenen Verbundwahrscheinlichkeit erhält man
 
 
$$H(XY) = 0,18 . log_2 \frac{1}{0,18} +  0,16 . log_2 \frac{1}{0,16}$$
 
 
 
$$+  0,02 . log_2 \frac{1}{0,02} +  0,64 . log_2 \frac{1}{0,64} = 1,393 (bit)$$
 
 
 
 
 
'''2.''' Die 1D–Wahrscheinlichkeitsfunktionen lauten $P_X(X) = [0.2, 0.8]$ und $P_Y(Y) = [0.34, 0.66]$. Daraus folgt:
 
  
$H(X) = 0,2 . log_2 \frac{1}{0.2} + 0,8 . log_2 \frac{1}{0,8} = 0.722 (bit)$
+
:$$H(XY) = 0.18 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.18} + 0.16\cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.16}+ \hspace{-0.15cm}
 +
0.02\cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.02}+
 +
0.64\cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.64}
 +
\hspace{0.15cm} \underline {= 1.393\,{\rm (bit)}}
 +
\hspace{0.05cm}.$$
  
$H(Y) = 0,34 . log_2 \frac{1}{0.34} + 0,66 . log_2 \frac{1}{0,66} = 0.925 (bit)$
+
'''(2)'''  Die 1D–Wahrscheinlichkeitsfunktionen lauten $P_X(X) = [0.2, 0.8]$ und $P_Y(Y) = [0.34, 0.66]$. Daraus folgt:
 +
:$$H(X)  = 0.2 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.2} + 0.8\cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.8}\hspace{0.15cm} \underline {= 0.722\,{\rm (bit)}} \hspace{0.05cm},$$
 +
:$$H(Y) =0.34 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.34} + 0.66\cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.66}\hspace{0.15cm} \underline {= 0.925\,{\rm (bit)}} \hspace{0.05cm}.$$
  
'''3.''' Aus der $Grafik$ auf der Angabenseite erkennt man den Zusammenhang:
+
'''(3)'''  Aus der Grafik auf der Angabenseite erkennt man den Zusammenhang:
 +
:$$I(X;Y) = H(X) + H(Y) - H(XY) = 0.722\,{\rm (bit)} + 0.925\,{\rm (bit)}- 1.393\,{\rm (bit)}\hspace{0.15cm} \underline {= 0.254\,{\rm (bit)}} \hspace{0.05cm}.$$
  
$$I(X;Y) = H(X) + H(Y) - H(XY) = $$
 
$$ = 0.722 (bit) + 0.925 (bit)- 1.393 (bit) = 0.254 (bit)$$
 
  
 +
'''(4)'''  Ebenso gilt entsprechend der Grafik auf der Angabenseite:
 +
:$$H(X \hspace{-0.1cm}\mid \hspace{-0.08cm} Y)  = H(XY) - H(Y) = 1.393- 0.925\hspace{0.15cm} \underline {= 0.468\,{\rm (bit)}} \hspace{0.05cm},$$
 +
:$$H(Y \hspace{-0.1cm}\mid \hspace{-0.08cm} X)  = H(XY) - H(X) = 1.393- 0.722\hspace{0.15cm} \underline {= 0.671\,{\rm (bit)}} \hspace{0.05cm}$$
  
'''4.'''  Ebenso gilt entsprechend der $Grafik$ auf der Angabenseite:
+
Die linke Grafik fasst die Ergebnisse der Teilaufgaben (1), ... , (4) maßstabsgetreu zusammen. Grau hinterlegt ist die Verbundentropie und gelb die Transinformation. Eine rote Hinterlegung bezieht sich auf die Zufallsgröße $X$, eine grüne auf $Y$. Schraffierte Felder deuten auf eine bedingte Entropie hin.
  
$$H(X \mid Y) =  H(XY) - H(Y) = 1.393  - 0.925  =  0.468 (bit)$$
+
[[File:P_ID2767__Inf_A_3_6d.png|Entropiewerte für die Zufallsgrößen <i>XY</i> und <i>UV</i>]]
$$H(Y \mid X) =  H(XY)  - H(X) = 1.393 - 0.722 = 0.671 (bit)$$
 
  
Die linke Grafik fasst die Ergebnisse der Teilaufgaben (a), ... , (d) maßstabsgetreu zusammen. Grau hinterlegt ist die Verbundentropie und gelb die Transinformation. Eine rote Hinterlegung bezieht sich auf die Zufallsgröße $X$, eine grüne auf $Y$. Schraffierte Felder deuten auf eine bedingte Entropie hin.
+
Die rechte Grafik beschreibt den gleichen Sachverhalt für die Zufallsgröße $UV$ &nbsp; &rArr; &nbsp; Teilaufgabe (5).
  
[[File:P_ID2767__Inf_A_3_6d.png|right|]]
 
Die rechte Grafik beschreibt den gleichen Sachverhalt für die Zufallsgröße $UV \Rightarrow$ Teilaufgabe (e).
 
  
'''5.''' Man erkennt die Gültigkeit von $P_{ UV } (.) = P_U (⋅) · P_V(⋅) \Rightarrow$  Transinformation $I(U; V) = 0$ daran, dass die zweite Zeile der $P_{ UV }$–Matrix sich von der ersten Zeile nur durch einen konstanten Faktor (4) unterscheidet. Richtig sind demzufolge die Aussagen 1, 2 und 4. Weiter ist zu erwähnen:
+
'''(5)'''&nbsp; Richtig sind demzufolge die Aussagen 1, 2 und 4:
:*Es ergeben sich die gleichen 1D–Wahrscheinlichkeitsfunktiionen wie für die Zufallsgröße $XY \Rightarrow P_U(U) = [0.2, 0.8]$ und $P_V(V) = [0.34, 0.66]$.
+
*Man erkennt die Gültigkeit von $P_{ UV } () = P_U (⋅) · P_V(⋅)$  &nbsp; &rArr; &nbsp;  Transinformation $I(U; V) = 0$ daran, dass die zweite Zeile der $P_{ UV }$–Matrix sich von der ersten Zeile nur durch einen konstanten Faktor ($4$) unterscheidet.  
:*Deshalb ist auch $H(U) = H(X) = 0.722$ bit und $H(V) = H(Y) = 0.925 bit$.
+
*Es ergeben sich gleiche 1D–Wahrscheinlichkeitsfunktionen wie für die Zufallsgröße $XY$ &nbsp; &rArr; &nbsp;  $P_U(U) = [0.2, 0.8]$, $P_V(V) = [0.34, 0.66]$.
:* Hier gilt aber nun für die Verbundentropie: $H(UV) = H(U) + H(V) ≠ H(XY)$.
+
*Deshalb ist auch $H(U) = H(X) = 0.722\ \rm  bit$ und $H(V) = H(Y) = 0.925 \ \rm bit$.
 +
* Hier gilt aber nun für die Verbundentropie: $H(UV) = H(U) + H(V) ≠ H(XY)$.
  
 
{{ML-Fuß}}
 
{{ML-Fuß}}

Revision as of 13:32, 1 June 2017

Schaubild der Entropien und der Information

Wir betrachten die beiden Zufallsgrößen $XY$ und $UV$ mit den folgenden 2D-Wahrscheinlichkeitsfunktionen:

$$P_{XY}(X, Y) = \begin{pmatrix} 0.18 & 0.16\\ 0.02 & 0.64 \end{pmatrix}\hspace{0.05cm} \hspace{0.05cm}$$
$$P_{UV}(U, V) \hspace{0.05cm}= \begin{pmatrix} 0.068 & 0.132\\ 0.272 & 0.528 \end{pmatrix}\hspace{0.05cm}$$

Für die Zufallsgröße $XY$sollen in dieser Aufgabe berechnet werden:

  • die Verbundentropie (englisch: Joint Entropy):
$$H(XY) = -{\rm E}[\log_2 P_{ XY }( X,Y)],$$
  • die beiden Einzelentropien:
$$H(X) = -{\rm E}[\log_2 P_X( X)],$$
$$H(Y) = -{\rm E}[\log_2 P_Y( Y)].$$

Daraus lassen sich gemäß dem obigen Schema – dargestellt für die Zufallsgröße $XY$ – auch folgende Beschreibungsgrößen sehr einfach bestimmen:

  • die bedingten Entropien (englisch: Conditional Entropies):
$$H(X \hspace{0.05cm}|\hspace{0.05cm} Y) = -{\rm E}[\log_2 P_{ X \hspace{0.05cm}|\hspace{0.05cm}Y }( X \hspace{0.05cm}|\hspace{0.05cm} Y)],$$
$$H(Y \hspace{0.05cm}|\hspace{0.05cm} X) = -{\rm E}[\log_2 P_{ Y \hspace{0.05cm}|\hspace{0.05cm} X }( Y \hspace{0.05cm}|\hspace{0.05cm} X)],$$
  • die Transinformation (englisch: Mutual Information) zwischen $X$ und $Y$:
$$I(X;Y) = {\rm E} \hspace{-0.08cm}\left [ \hspace{0.02cm}{\rm log}_2 \hspace{0.1cm} \frac{P_{XY}(X, Y)} {P_{X}(X) \cdot P_{Y}(Y) }\right ] \hspace{0.05cm}.$$

Abschließend sind qualitative Aussagen hinsichtlich der zweiten Zufallsgröße $UV$ zu verifizieren.


Hinweise:


Fragebogen

1

Berechnen Sie die Verbundentropie.

$H(XY) \ = \ $

$\ \rm bit$

2

Welche Entropien weisen die 1D–Zufallsgrößen $X$ und $Y$ auf?

$H(X) \ = \ $

$\ \rm bit$
$H(Y) \ = \ $

$\ \rm bit$

3

Wie groß ist die Transinformation zwischen den Zufallsgrößen $X$ und $Y$?

$I(X; Y) \ = \ $

$\ \rm bit$

4

Berechnen Sie die beiden bedingten Entropien.

$H(X|Y) \ = \ $

$\ \rm bit$
$H(Y|X) \ = \ $

$\ \rm bit$

5

Welche der folgenden Aussagen treffen für die 2D–Zufallsgröße $UV$ zu?

Die 1D–Zufallsgrößen $U$ und $V$ sind statistisch unabhängig.
Die gemeinsame Information von $U$ und $V$ ist $I(U; V) = 0$.
Für die Verbundentropie gilt $H(UV) = H(XY)$.
Es gelten die Beziehungen $H(U|V) = H(U)$ und $H(V|U) = H(V)$.


Musterlösung

(1)  Aus der gegebenen Verbundwahrscheinlichkeit erhält man

$$H(XY) = 0.18 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.18} + 0.16\cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.16}+ \hspace{-0.15cm} 0.02\cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.02}+ 0.64\cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.64} \hspace{0.15cm} \underline {= 1.393\,{\rm (bit)}} \hspace{0.05cm}.$$

(2)  Die 1D–Wahrscheinlichkeitsfunktionen lauten $P_X(X) = [0.2, 0.8]$ und $P_Y(Y) = [0.34, 0.66]$. Daraus folgt:

$$H(X) = 0.2 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.2} + 0.8\cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.8}\hspace{0.15cm} \underline {= 0.722\,{\rm (bit)}} \hspace{0.05cm},$$
$$H(Y) =0.34 \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.34} + 0.66\cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{0.66}\hspace{0.15cm} \underline {= 0.925\,{\rm (bit)}} \hspace{0.05cm}.$$

(3)  Aus der Grafik auf der Angabenseite erkennt man den Zusammenhang:

$$I(X;Y) = H(X) + H(Y) - H(XY) = 0.722\,{\rm (bit)} + 0.925\,{\rm (bit)}- 1.393\,{\rm (bit)}\hspace{0.15cm} \underline {= 0.254\,{\rm (bit)}} \hspace{0.05cm}.$$


(4)  Ebenso gilt entsprechend der Grafik auf der Angabenseite:

$$H(X \hspace{-0.1cm}\mid \hspace{-0.08cm} Y) = H(XY) - H(Y) = 1.393- 0.925\hspace{0.15cm} \underline {= 0.468\,{\rm (bit)}} \hspace{0.05cm},$$
$$H(Y \hspace{-0.1cm}\mid \hspace{-0.08cm} X) = H(XY) - H(X) = 1.393- 0.722\hspace{0.15cm} \underline {= 0.671\,{\rm (bit)}} \hspace{0.05cm}$$

Die linke Grafik fasst die Ergebnisse der Teilaufgaben (1), ... , (4) maßstabsgetreu zusammen. Grau hinterlegt ist die Verbundentropie und gelb die Transinformation. Eine rote Hinterlegung bezieht sich auf die Zufallsgröße $X$, eine grüne auf $Y$. Schraffierte Felder deuten auf eine bedingte Entropie hin.

Entropiewerte für die Zufallsgrößen XY und UV

Die rechte Grafik beschreibt den gleichen Sachverhalt für die Zufallsgröße $UV$   ⇒   Teilaufgabe (5).


(5)  Richtig sind demzufolge die Aussagen 1, 2 und 4:

  • Man erkennt die Gültigkeit von $P_{ UV } (⋅) = P_U (⋅) · P_V(⋅)$   ⇒   Transinformation $I(U; V) = 0$ daran, dass die zweite Zeile der $P_{ UV }$–Matrix sich von der ersten Zeile nur durch einen konstanten Faktor ($4$) unterscheidet.
  • Es ergeben sich gleiche 1D–Wahrscheinlichkeitsfunktionen wie für die Zufallsgröße $XY$   ⇒   $P_U(U) = [0.2, 0.8]$, $P_V(V) = [0.34, 0.66]$.
  • Deshalb ist auch $H(U) = H(X) = 0.722\ \rm bit$ und $H(V) = H(Y) = 0.925 \ \rm bit$.
  • Hier gilt aber nun für die Verbundentropie: $H(UV) = H(U) + H(V) ≠ H(XY)$.