Toggle navigation
Books
Overview
Signal Representation
Linear and Time-Invariant Systems
Theory of Stochastic Signals
Information Theory
Modulation Methods
Digital Signal Transmission
Mobile Communications
Channel Coding
Examples of Communication Systems
Biographies and Bibliographies
Exercises
Overview
Signal Representation: Exercises
Linear and Time-Invariant Systems: Exercises
Theory of Stochastic Signals: Exercises
Information Theory: Exercises
Modulation Methods: Exercises
Digital Signal Transmission: Exercises
Mobile Communications: Exercises
Channel Coding: Exercises
Examples of Communication Systems: Exercises
Media
Videos
Applets
Downloads
Deutsch
Deutsche Website
...
Discussion
View source
History
Log in
Different Entropy Measures of Two-Dimensional Random Variables
From LNTwww
<
Information Theory
Revision as of 17:52, 13 May 2016 by
David
(
talk
|
contribs
)
(Die Seite wurde neu angelegt: „ {{Header |Untermenü=Information zwischen zwei wertdiskreten Zufallsgrößen |Vorherige Seite=Einige Vorbemerkungen zu zweidimensionalen Zufallsgrößen |Nä…“)
(diff) ← Older revision |
Latest revision
(
diff
) |
Newer revision →
(
diff
)
Jump to:
navigation
,
search
Information Theory
Information zwischen zwei wertdiskreten Zufallsgrößen
Different Entropy Measures of Two-Dimensional Random Variables
Previous page
Next page
Previous page
Next page
Contents
1
Definition der Entropie unter Verwendung von supp(PXY)
2
Bedingte Wahrscheinlichkeit und bedingte Entropie
3
Transinformation zwischen zwei Zufallsgrößen
4
Bedingte Transinformation
5
Kettenregel der Transinformation
6
Aufgaben zu Kapitel 3.2
Definition der Entropie unter Verwendung von supp(PXY)
Bedingte Wahrscheinlichkeit und bedingte Entropie
Transinformation zwischen zwei Zufallsgrößen
Bedingte Transinformation
Kettenregel der Transinformation
Aufgaben zu Kapitel 3.2
What links here
Related changes
Special pages
Printable version
Permanent link
Page information
Privacy policy
About LNTwww
Disclaimers