Difference between revisions of "Information Theory"
m (Javier moved page Information theory to Information Theory) |
|||
Line 15: | Line 15: | ||
===Inhalt=== | ===Inhalt=== | ||
{{Collapsible-Kopf}} | {{Collapsible-Kopf}} | ||
− | {{Collapse1| header= | + | {{Collapse1| header=Entropy of Discrete Sources |
| submenu= | | submenu= | ||
*[[/Gedächtnislose Nachrichtenquellen/]] | *[[/Gedächtnislose Nachrichtenquellen/]] | ||
Line 21: | Line 21: | ||
*[[/Natürliche wertdiskrete Nachrichtenquellen/]] | *[[/Natürliche wertdiskrete Nachrichtenquellen/]] | ||
}} | }} | ||
− | {{Collapse2 | header= | + | {{Collapse2 | header=Source Coding - Data Compression |
|submenu= | |submenu= | ||
*[[/Allgemeine Beschreibung/]] | *[[/Allgemeine Beschreibung/]] | ||
Line 28: | Line 28: | ||
*[[/Weitere Quellencodierverfahren/]] | *[[/Weitere Quellencodierverfahren/]] | ||
}} | }} | ||
− | {{Collapse3 | header=Information | + | {{Collapse3 | header=Mutual Information Between Two Discrete Random Variables |
|submenu= | |submenu= | ||
*[[/Einige Vorbemerkungen zu zweidimensionalen Zufallsgrößen/]] | *[[/Einige Vorbemerkungen zu zweidimensionalen Zufallsgrößen/]] | ||
Line 34: | Line 34: | ||
*[[/Anwendung auf die Digitalsignalübertragung/]] | *[[/Anwendung auf die Digitalsignalübertragung/]] | ||
}} | }} | ||
− | {{Collapse4 | header= | + | {{Collapse4 | header=Information Theory for Continuous Random Variables |
|submenu= | |submenu= | ||
*[[/Differentielle Entropie/]] | *[[/Differentielle Entropie/]] |
Revision as of 15:56, 13 October 2020
Seit den ersten Anfängen der Nachrichtenübertragung als ingenieurwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathematiker, ein quantitatives Maß zu finden für die
- in einer $\rm Nachricht$ (hierunter verstehen wir „eine Zusammenstellung von Symbolen und/oder Zuständen“)
- enthaltene $\rm Information$ (ganz allgemein: „die Kenntnis über irgend etwas“).
Die (abstrakte) Information wird durch die (konkrete) Nachricht mitgeteilt und kann als Interpretation einer Nachricht aufgefasst werden.
Claude Elwood Shannon gelang es 1948, eine in sich konsistente Theorie über den Informationsgehalt von Nachrichten zu begründen, die zu ihrer Zeit revolutionär war und ein neues, bis heute hochaktuelles Wissenschaftsgebiet kreierte: die nach ihm benannte $\text{Shannonsche Informationstheorie}$.
Der Lehrstoff entspricht einer $\text{Vorlesung mit zwei Semesterwochenstunden (SWS) und einer SWS Übungen}$.
Hier zunächst eine Inhaltsübersicht anhand der $\text{vier Hauptkapitel}$ mit insgesamt $\text{13 Einzelkapiteln}$.
Inhalt
Neben diesen Theorieseiten bieten wir auch Aufgaben und multimediale Module an, die zur Verdeutlichung des Lehrstoffes beitragen könnten:
- $\text{Aufgaben}$
- $\text{Lernvideos}$
- $\text{neu gestaltete Applets}$, basierend auf HTML5, auch auf Smartphones lauffähig
- $\text{frühere Applets}$, basierend auf SWF, lauffähig nur unter WINDOWS mit Adobe Flash Player.
$\text{Weitere Links:}$
$(1)$ $\text{Literaturempfehlungen zum Buch}$
$(2)$ $\text{Allgemeine Hinweise zum Buch}$ (Autoren, Weitere Beteiligte, Materialien als Ausgangspunkt des Buches, Quellenverzeichnis)