Difference between revisions of "Aufgaben:Exercise 3.8Z: Tuples from Ternary Random Variables"

From LNTwww
Line 4: Line 4:
 
}}
 
}}
  
[[File:P_ID2771__Inf_Z_3_7.png|right|]]
+
[[File:P_ID2771__Inf_Z_3_7.png|right|Wahrscheinlichkeitsfunktion der Zufallsgröße „XY”]]
Wir betrachten das Tupel $Z = (X, Y)$, wobei die Einzelkomponenten $X$ und $Y$ jeweils ternäre Zufallsgrößen darstellen $\Rightarrow$ Symbolumfang $|X| = |Y| = 3$. Die gemeinsame Wahrscheinlichkeitsfunktion $P_{ XY }(X, Y)$ ist rechts angegeben.
+
Wir betrachten das Tupel $Z = (X, Y)$, wobei die Einzelkomponenten $X$ und $Y$ jeweils ternäre Zufallsgrößen darstellen   ⇒    Symbolumfang $|X| = |Y| = 3$. Die gemeinsame Wahrscheinlichkeitsfunktion $P_{ XY }(X, Y)$ ist rechts skizziert.
  
 
In dieser Aufgabe sind zu berechnen:  
 
In dieser Aufgabe sind zu berechnen:  
:* die Verbundentropie $H(XY)$ und die Transinformation $I(X; Y)$,
+
* die ''Verbundentropie'' $H(XY)$ und die ''Transinformation'' $I(X; Y)$,
:*die Verbundentropie $H(XZ)$ und die Transinformation $I(X; Z)$,
+
* die ''Verbundentropie'' $H(XZ)$ und die ''Transinformation'' $I(X; Z)$,
:*die bedingten Entropien $H(Z|X)$ und $H(X|Z)$.
+
*die beiden ''bedingten Entropien'' $H(Z|X)$ und $H(X|Z)$.
  
'''Hinweis:''' Die Aufgabe bezieht sich auf das Themengebiet von [http://en.lntwww.de/Informationstheorie/Verschiedene_Entropien_zweidimensionaler_Zufallsgr%C3%B6%C3%9Fen Kapitel 3.2].  
+
 
 +
''Hinweise:''  
 +
*Die Aufgabe gehört zum  Kapitel [[Informationstheorie/Verschiedene_Entropien_zweidimensionaler_Zufallsgrößen|Verschiedene Entropien zweidimensionaler Zufallsgrößen]].
 +
*Insbesondere wird Bezug genommen auf die Seiten [[Informationstheorie/Verschiedene_Entropien_zweidimensionaler_Zufallsgrößen#Bedingte_Wahrscheinlichkeit_und_bedingte_Entropie|Bedingte Wahrscheinlichkeit und bedingte Entropie]] sowie [[Informationstheorie/Verschiedene_Entropien_zweidimensionaler_Zufallsgrößen#Transinformation_zwischen_zwei_Zufallsgr.C3.B6.C3.9Fen|Transinformation zwischen zwei Zufallsgrößen]].
 +
*Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0.” ein.
  
  

Revision as of 14:41, 1 June 2017

Wahrscheinlichkeitsfunktion der Zufallsgröße „XY”

Wir betrachten das Tupel $Z = (X, Y)$, wobei die Einzelkomponenten $X$ und $Y$ jeweils ternäre Zufallsgrößen darstellen   ⇒   Symbolumfang $|X| = |Y| = 3$. Die gemeinsame Wahrscheinlichkeitsfunktion $P_{ XY }(X, Y)$ ist rechts skizziert.

In dieser Aufgabe sind zu berechnen:

  • die Verbundentropie $H(XY)$ und die Transinformation $I(X; Y)$,
  • die Verbundentropie $H(XZ)$ und die Transinformation $I(X; Z)$,
  • die beiden bedingten Entropien $H(Z|X)$ und $H(X|Z)$.


Hinweise:


Fragebogen

1

Berechnen Sie die folgenden Entropien.

$H(X)$ =

$bit$
$H(Y)$ =

$bit$
$ H(XY)$ =

$bit$

2

Welche Transinformationen besteht zwischen den Zufallsgrößen $X$ und $Y$?

$I(X; Y)$ =

$bit$

3

Welche Transinformationen besteht zwischen den Zufallsgrößen $X$ und $Z$?

$I(X; Z)$ =

$bit$

4

Welche bedingten Entropien bestehen zwischen $X$ und $Z$?

$H(Z|X)$ =

$bit$
$ H(X|Z)$ =

$bit$


Musterlösung

1. Bei den beiden Zufallsgrößen $X =\{0, 1, 2\} \Rightarrow |X| = 3$ und $Y = \{0, 1, 2\} \Rightarrow |Y| = 3$ liegt jeweils eine Gleichverteilung vor. Damit erhält man für die Entropien:

$H(X) = log_2(3) = 1.585 (bit)$,

$H(Y) = log_2(3) = 1.585 (bit)$,

Die 2D–Zufallsgröße $XY = \{00, 01, 02, 10, 11, 12, 20, 21, 22\} \Rightarrow |XY| = |Z| = 9$ weist ebenfalls gleiche Wahrscheinlichkeiten auf: $p_{ 00 } = p_ { 01 } = ... = p_{ 22 } = 1/9$. Daraus folgt:

$H(XY) = log_2(9) = 3.170 (bit)$


2. Die Zufallsgrößen$X$und $Y$ sind wegen $P_{ XY }(⋅) = P_X(⋅) · P_Y(⋅)$ statistisch unabhängig $\Rightarrow I(X, Y) = 0$. Zum gleichen Ergebnis kommt man über die Gleichung $I(X; Y) = H(X) + H(Y) – H(XY)$.


3. Interpretiert man $I(X; Z)$ als die verbleibende Unsicherheit hinsichtlich des Tupels $Z$, wenn die erste Komponente $X$ bekannt ist, so gilt offensichtlich$ I(X; Z) = H(Y) = 1.585 bit$.

Rein formal lässt sich diese Aufgabe auch wie folgt lösen:

  • Die Entropie $H(Z)$ ist gleich $H(XY) = 3.170 bit$.
P ID2773 Inf Z 3 7d.png
  • Die Verbundwahrscheinlichkeit $P_{ XZ }(X, Z)$ beinhaltet neun Elemente der Wahrscheinlichkeit $1/9$, alle anderen sind mit Nullen belegt (Rechte Grafik) $\Rightarrow H(XZ) = log2 (9) = 3.170 bit$.
  • Damit gilt für die Transinformation (gemeinsame Information der Zufalsgrößen $X$ und $Z$):

$$I(X;Z) = H(X) + H(Z) - H(XZ) = $$ $$= 1.585 +3.170 - 3170 = 1.585 (bit)$$


P ID2774 Inf Z 3 7c.png

4.Entsprechend der rechten Grafik gilt:

$$H(Z|X) = H(XZ)- H(X) = 3.170 - 1.585 = 1.585 (bit)$$ $$H(X|Z) = H(XZ) - H(Z) = 3.170 - 3.170 = 0 (bit)$$

  • $H(Z|X)$ gibt die Restunsicherheit hinsichtlich des Tupels $Z$ an, wenn man die erste Komponente $X$kennt. Die Unsicherheit hinsichtlich des Tupels $Z$ ist $H(Z) = 2 · log_2 (3) bit$, bei Kenntnis der Komponente $X$ halbiert sich die Unsicherheit auf $H(Z|X) = log2 (3) bit$.
  • $H(X|Z)$gibt die verbleibende Unsicherheit hinsichtlich der Komponente $X$ an, wenn man das Tupel $Z = (X, Y)$ kennt. Diese Unsicherheit ist natürlich $0$: Kennt man $Z$, so kennt man auch $X$.