Difference between revisions of "Aufgaben:Exercise 3.9: Conditional Mutual Information"
(Die Seite wurde neu angelegt: „ {{quiz-Header|Buchseite=Informationstheorie/Verschiedene Entropien zweidimensionaler Zufallsgrößen }} [[File:|right|]] ===Fragebogen=== <quiz display=s…“) |
|||
Line 3: | Line 3: | ||
}} | }} | ||
− | [[File:|right|]] | + | [[File:P_ID2813__Inf_A_3_8.png|right|]] |
+ | Wir gehen von den statistisch unabhängigen Zufallsgrößen X, Y und Zmit den folgenden Eigenschaften aus : | ||
+ | |||
+ | Xϵ{1,2} , Yϵ{1,2} , Zϵ{1,2} | ||
+ | |||
+ | PX(X)=PY(Y)=[1/2,1/2] , PZ(Z)=[p,1−p]. | ||
+ | |||
+ | Aus X, Y und Z bilden wir die neue Zufallsgröße | ||
+ | |||
+ | W=(X+Y).Z. | ||
+ | |||
+ | Damit ist offensichtlich, dass es zwischen den beiden Zufallsgrößen Xund W statistische Abhängigkeiten gibt, die sich auch in der Transinformation I(X;W)≠0 zeigen werden. | ||
+ | |||
+ | Außerdem wird auch I(Y;W)≠04sowieI(Z; W) ≠ 04 gelten, worauf in dieser Aufgabe jedoch nicht näher eingegangen wird. | ||
+ | |||
+ | In dieser Aufgabe werden drei verschiedene Transinformationsdefinitionen verwendet: | ||
+ | :*die ''herkömmliche'' Transinformation zwischen X und W: | ||
+ | |||
+ | I(X;W)=H(X)−H(X∣W) , | ||
+ | :* die ''bedingte'' Transinformation zwischen X und W bei ''gegebenem Festwer''t Z=z: | ||
+ | |||
+ | I(X;W∣Z=z)=H(X∣Z=z)−H(X∣W,Z=z), | ||
+ | :* die ''bedingte'' Transinformation zwischen X und W bei ''gegebener Zufallsgröße'' Z: | ||
+ | |||
+ | I(X;W∣Z)=H(X∣Z)−H(X∣WZ). | ||
+ | |||
+ | |||
+ | Der Zusammenhang zwischen den beiden letzten Definitionen lautet: | ||
+ | |||
+ | I(X;W∣Z)=∑zϵsupp(PZ)PZ(Z).I(X;W∣Z=z). | ||
+ | |||
+ | '''Hinwies:''' Die Aufgabe gehört zum Themengebiet von [http://en.lntwww.de/Informationstheorie/Verschiedene_Entropien_zweidimensionaler_Zufallsgr%C3%B6%C3%9Fen Kapitel 3.2]. | ||
+ | |||
+ | |||
+ | |||
+ | |||
Revision as of 21:23, 26 November 2016
Wir gehen von den statistisch unabhängigen Zufallsgrößen X, Y und Zmit den folgenden Eigenschaften aus :
Xϵ{1,2} , Yϵ{1,2} , Zϵ{1,2}
PX(X)=PY(Y)=[1/2,1/2] , PZ(Z)=[p,1−p].
Aus X, Y und Z bilden wir die neue Zufallsgröße
W=(X+Y).Z.
Damit ist offensichtlich, dass es zwischen den beiden Zufallsgrößen Xund W statistische Abhängigkeiten gibt, die sich auch in der Transinformation I(X;W)≠0 zeigen werden.
Außerdem wird auch I(Y;W)≠04sowieI(Z; W) ≠ 04 gelten, worauf in dieser Aufgabe jedoch nicht näher eingegangen wird.
In dieser Aufgabe werden drei verschiedene Transinformationsdefinitionen verwendet:
- die herkömmliche Transinformation zwischen X und W:
I(X;W)=H(X)−H(X∣W) ,
- die bedingte Transinformation zwischen X und W bei gegebenem Festwert Z=z:
I(X;W∣Z=z)=H(X∣Z=z)−H(X∣W,Z=z),
- die bedingte Transinformation zwischen X und W bei gegebener Zufallsgröße Z:
I(X;W∣Z)=H(X∣Z)−H(X∣WZ).
Der Zusammenhang zwischen den beiden letzten Definitionen lautet:
I(X;W∣Z)=∑zϵsupp(PZ)PZ(Z).I(X;W∣Z=z).
Hinwies: Die Aufgabe gehört zum Themengebiet von Kapitel 3.2.
Fragebogen
Musterlösung