Difference between revisions of "Aufgaben:Exercise 3.9: Conditional Mutual Information"

From LNTwww
(Die Seite wurde neu angelegt: „ {{quiz-Header|Buchseite=Informationstheorie/Verschiedene Entropien zweidimensionaler Zufallsgrößen }} [[File:|right|]] ===Fragebogen=== <quiz display=s…“)
 
Line 3: Line 3:
 
}}
 
}}
  
[[File:|right|]]
+
[[File:P_ID2813__Inf_A_3_8.png|right|]]
 +
Wir gehen von den statistisch unabhängigen Zufallsgrößen X, Y und Zmit den folgenden Eigenschaften aus :
 +
 
 +
Xϵ{1,2} , Yϵ{1,2}Zϵ{1,2}
 +
 
 +
PX(X)=PY(Y)=[1/2,1/2] , PZ(Z)=[p,1p].
 +
 
 +
Aus X, Y und Z bilden wir die neue Zufallsgröße
 +
 
 +
W=(X+Y).Z.
 +
 
 +
Damit ist offensichtlich, dass es zwischen den beiden Zufallsgrößen Xund W statistische Abhängigkeiten gibt, die sich auch in der Transinformation I(X;W)0 zeigen werden.
 +
 
 +
Außerdem wird auch I(Y;W)04sowieI(Z; W) ≠ 04 gelten, worauf in dieser Aufgabe jedoch nicht näher eingegangen wird.
 +
 
 +
In dieser Aufgabe werden drei verschiedene Transinformationsdefinitionen verwendet:
 +
:*die ''herkömmliche'' Transinformation zwischen X und W:
 +
 
 +
I(X;W)=H(X)H(XW) ,
 +
:* die ''bedingte'' Transinformation zwischen X und W bei ''gegebenem Festwer''t Z=z:
 +
 
 +
I(X;WZ=z)=H(XZ=z)H(XW,Z=z),
 +
:* die ''bedingte'' Transinformation zwischen X und W bei ''gegebener Zufallsgröße'' Z:
 +
 
 +
I(X;WZ)=H(XZ)H(XWZ).
 +
 
 +
 
 +
Der Zusammenhang zwischen den beiden letzten Definitionen lautet:
 +
 
 +
I(X;WZ)=zϵsupp(PZ)PZ(Z).I(X;WZ=z).
 +
 
 +
'''Hinwies:''' Die Aufgabe gehört zum Themengebiet von [http://en.lntwww.de/Informationstheorie/Verschiedene_Entropien_zweidimensionaler_Zufallsgr%C3%B6%C3%9Fen Kapitel 3.2].
 +
 
 +
 
 +
 
 +
 
  
  

Revision as of 21:23, 26 November 2016

P ID2813 Inf A 3 8.png

Wir gehen von den statistisch unabhängigen Zufallsgrößen X, Y und Zmit den folgenden Eigenschaften aus :

Xϵ{1,2} , Yϵ{1,2} , Zϵ{1,2}

PX(X)=PY(Y)=[1/2,1/2] , PZ(Z)=[p,1p].

Aus X, Y und Z bilden wir die neue Zufallsgröße

W=(X+Y).Z.

Damit ist offensichtlich, dass es zwischen den beiden Zufallsgrößen Xund W statistische Abhängigkeiten gibt, die sich auch in der Transinformation I(X;W)0 zeigen werden.

Außerdem wird auch I(Y;W)04sowieI(Z; W) ≠ 04 gelten, worauf in dieser Aufgabe jedoch nicht näher eingegangen wird.

In dieser Aufgabe werden drei verschiedene Transinformationsdefinitionen verwendet:

  • die herkömmliche Transinformation zwischen X und W:

I(X;W)=H(X)H(XW) ,

  • die bedingte Transinformation zwischen X und W bei gegebenem Festwert Z=z:

I(X;WZ=z)=H(XZ=z)H(XW,Z=z),

  • die bedingte Transinformation zwischen X und W bei gegebener Zufallsgröße Z:

I(X;WZ)=H(XZ)H(XWZ).


Der Zusammenhang zwischen den beiden letzten Definitionen lautet:

I(X;WZ)=zϵsupp(PZ)PZ(Z).I(X;WZ=z).

Hinwies: Die Aufgabe gehört zum Themengebiet von Kapitel 3.2.




Fragebogen

1

Multiple-Choice Frage

Falsch
Richtig

2

Input-Box Frage

α =


Musterlösung

1. 2. 3. 4. 5. 6. 7.