Difference between revisions of "Information Theory"

From LNTwww
 
(62 intermediate revisions by 5 users not shown)
Line 1: Line 1:
Seit den ersten Anfängen der Nachrichtenübertragung als naturwissenschaftliche Disziplin war es das Bestreben vieler Ingenieure und Mathematiker, ein quantitatives Maß zu finden für die in
+
===Brief summary===
*einer  $\rm Nachricht$  (hierunter verstehen wir „eine Zusammenstellung von Symbolen und/oder Zuständen“)
 
*enthaltene  $\rm Information$  (ganz allgemein: „die Kenntnis über irgend etwas“).
 
  
 +
{{BlueBox|TEXT=From the earliest beginnings of message transmission as an engineering discipline,  it has been the endeavour of many engineers and mathematicians  to find a quantitative measure for the
 +
*contained  $\rm information$  $($quite generally:  »the knowledge about something«$)$
  
Die (abstrakte) Information wird durch die (konkrete) Nachricht mitgeteilt und kann als Interpretation einer Nachricht aufgefasst werden.  
+
*in a  $\rm message$  $($here we mean  »a collection of symbols and/or states»$)$.
 +
 +
 
 +
The  $($abstract$)$  information is communicated by the  $($concrete$)$  message and can be conceived as the interpretation of a message.
 +
 
 +
[https://en.wikipedia.org/wiki/Claude_Shannon '''Claude Elwood Shannon''']  succeeded in 1948,  in establishing a consistent theory about the information content of messages,  which was revolutionary in its time and created a new,  still highly topical field of science:   »'''Shannon's information theory«'''  named after him.
  
[https://de.wikipedia.org/wiki/Claude_Shannon Claude Elwood Shannon]  gelang es 1948, eine in sich konsistente Theorie über den Informationsgehalt von Nachrichten zu begründen, die zu ihrer Zeit revolutionär war und ein neues, bis heute hochaktuelles Wissenschaftsgebiet kreierte:  die nach ihm benannte  $\text{Shannonsche Informationstheorie}$.
+
This is what the fourth book in the  $\rm LNTwww$ series deals with,  in particular:
 +
# Entropy of discrete-value sources with and without memory,  as well as natural message sources:  Definition,  meaning and computational possibilities.
 +
# Source coding and data compression,  especially the   »Lempel–Ziv–Welch method«   and   »Huffman's entropy encoding«. 
 +
# Various entropies of two-dimensional discrete-value random quantities.  Mutual information and channel capacity.  Application to digital signal transmission.   
 +
# Discrete-value information theory.  Differential entropy.  AWGN channel capacity with continuous-valued as well as discrete-valued input.
  
Der Lehrstoff entspricht einer  $\text{Vorlesung mit zwei Semesterwochenstunden (SWS) und einer SWS Übungen}$.
 
  
Hier zunächst eine Inhaltsübersicht anhand der  $\text{vier Hauptkapitel}$  mit insgesamt  $\text{13 Einzelkapiteln}$. 
+
⇒   First a  »'''content overview'''«  on the basis of the  »'''four main chapters'''«  with a total of  »'''13 individual chapters'''«  and  »'''106 sections'''«:}}
+
 
 +
 
 +
 
 +
===Content===
  
===Inhalt===
 
 
{{Collapsible-Kopf}}
 
{{Collapsible-Kopf}}
{{Collapse1| header=Entropie wertdiskreter Nachrichtenquellen
+
{{Collapse1| header=Entropy of Discrete Sources
 
| submenu=  
 
| submenu=  
*[[/Gedächtnislose Nachrichtenquellen/]]
+
*[[/Discrete Memoryless Sources/]]
*[[/Nachrichtenquellen mit Gedächtnis/]]
+
*[[/Discrete Sources with Memory/]]
*[[/Natürliche wertdiskrete Nachrichtenquellen/]]
+
*[[/Natural Discrete Sources/]]
 
}}
 
}}
{{Collapse2 | header=Quellencodierung - Datenkomprimierung
+
{{Collapse2 | header=Source Coding - Data Compression
 
|submenu=
 
|submenu=
*[[/Allgemeine Beschreibung/]]
+
*[[/General Description/]]
*[[/Komprimierung nach Lempel, Ziv und Welch/]]
+
*[[/Compression According to Lempel, Ziv and Welch/]]
*[[/Entropiecodierung nach Huffman/]]
+
*[[/Entropy Coding According to Huffman/]]
*[[/Weitere Quellencodierverfahren/]]
+
*[[/Further Source Coding Methods/]]
 
}}
 
}}
{{Collapse3 | header=Information zwischen zwei wertdiskreten Zufallsgrößen
+
{{Collapse3 | header=Mutual Information Between Two Discrete Random Variables
 
|submenu=
 
|submenu=
*[[/Einige Vorbemerkungen zu zweidimensionalen Zufallsgrößen/]]
+
*[[/Some Preliminary Remarks on Two-Dimensional Random Variables/]]
*[[/Verschiedene Entropien zweidimensionaler Zufallsgrößen/]]
+
*[[/Different Entropy Measures of Two-Dimensional Random Variables/]]
*[[/Anwendung auf die Digitalsignalübertragung/]]
+
*[[/Application to Digital Signal Transmission/]]
 
}}
 
}}
{{Collapse4 | header=Wertkontinuierliche Informationstheorie
+
{{Collapse4 | header=Information Theory for Continuous Random Variables
 
|submenu=
 
|submenu=
*[[/Differentielle Entropie/]]
+
*[[/Differential Entropy/]]
*[[/AWGN–Kanalkapazität bei wertkontinuierlichem Eingang/]]
+
*[[/AWGN Channel Capacity for Continuous-Valued Input/]]
*[[/AWGN–Kanalkapazität bei wertdiskretem Eingang/]]
+
*[[/AWGN Channel Capacity for Discrete-Valued Input/]]
 
}}
 
}}
 
{{Collapsible-Fuß}}
 
{{Collapsible-Fuß}}
  
Neben diesen Theorieseiten bieten wir auch Aufgaben und multimediale Module an, die zur Verdeutlichung des Lehrstoffes beitragen könnten:
+
===Exercises and multimedia===
*[https://en.lntwww.de/Kategorie:Aufgaben_zu_Informationstheorie $\text{Aufgaben}$]
 
*[[LNTwww:Lernvideos_zu_Informationstheorie|$\text{Lernvideos}$]]
 
*[[LNTwww:HTML5-Applets_zu_Informationstheorie|$\text{neu gestaltete Applets}$]], basierend auf HTML5, auch auf Smartphones lauffähig
 
*[[LNTwww:SWF-Applets_zu_Informationstheorie|$\text{frühere Applets}$]], basierend auf SWF, lauffähig nur unter WINDOWS mit ''Adobe Flash Player''.
 
 
 
<br><br>
 
$\text{Weitere Links:}$
 
<br><br>
 
$(1)$&nbsp; &nbsp; [[LNTwww:Literaturempfehlung_zu_Informationstheorie|$\text{Literaturempfehlungen zum Buch}$]]
 
 
 
$(2)$&nbsp; &nbsp; [[LNTwww:Weitere_Hinweise_zum_Buch_Signaldarstellung|$\text{Allgemeine Hinweise zum Buch}$]] &nbsp; (Autoren,&nbsp; Weitere Beteiligte,&nbsp; Materialien als Ausgangspunkt des Buches,&nbsp; Quellenverzeichnis)
 
<br><br>
 
  
 +
{{BlaueBox|TEXT=
 +
In addition to these theory pages,&nbsp; we also offer exercises and multimedia modules on this topic,&nbsp; which could help to clarify the teaching material:
  
 +
$(1)$&nbsp; &nbsp; [https://en.lntwww.de/Category:Information_Theory:_Exercises $\text{Exercises}$]
  
 +
$(2)$&nbsp; &nbsp; [[LNTwww:Learning_videos_to_"Information_Theory"|$\text{Learning videos}$]]
  
 +
$(3)$&nbsp; &nbsp; [[LNTwww:Applets_to_"Information_Theory"|$\text{Applets}$]]&nbsp;}}
  
  
 +
===Further links===
  
 +
{{BlaueBox|TEXT=
 +
$(4)$&nbsp; &nbsp; [[LNTwww:Bibliography_to_"Information_Theory"|$\text{Bibliography}$]]
  
 +
$(5)$&nbsp; &nbsp; [[LNTwww:Imprint_for_the_book_"Information_Theory"|$\text{Impressum}$]]}}
 +
<br><br>
  
  
[[LNTwww:Autoren#Informationstheorie|$\text{Hinweise zu den Autoren und den Materialien, von denen bei der Erstellung des Buches ausgegangen wurde.}$]]
 
  
  
 
__NOTOC__
 
__NOTOC__
 
__NOEDITSECTION__
 
__NOEDITSECTION__

Latest revision as of 17:50, 31 December 2023

Brief summary

From the earliest beginnings of message transmission as an engineering discipline,  it has been the endeavour of many engineers and mathematicians  to find a quantitative measure for the

  • contained  $\rm information$  $($quite generally:  »the knowledge about something«$)$
  • in a  $\rm message$  $($here we mean  »a collection of symbols and/or states»$)$.


The  $($abstract$)$  information is communicated by the  $($concrete$)$  message and can be conceived as the interpretation of a message.

Claude Elwood Shannon  succeeded in 1948,  in establishing a consistent theory about the information content of messages,  which was revolutionary in its time and created a new,  still highly topical field of science:  »Shannon's information theory«  named after him.

This is what the fourth book in the  $\rm LNTwww$ series deals with,  in particular:

  1. Entropy of discrete-value sources with and without memory,  as well as natural message sources:  Definition,  meaning and computational possibilities.
  2. Source coding and data compression,  especially the   »Lempel–Ziv–Welch method«   and   »Huffman's entropy encoding«.
  3. Various entropies of two-dimensional discrete-value random quantities.  Mutual information and channel capacity.  Application to digital signal transmission.
  4. Discrete-value information theory.  Differential entropy.  AWGN channel capacity with continuous-valued as well as discrete-valued input.


⇒   First a  »content overview«  on the basis of the  »four main chapters«  with a total of  »13 individual chapters«  and  »106 sections«:


Content

Exercises and multimedia

In addition to these theory pages,  we also offer exercises and multimedia modules on this topic,  which could help to clarify the teaching material:

$(1)$    $\text{Exercises}$

$(2)$    $\text{Learning videos}$

$(3)$    $\text{Applets}$ 


Further links