Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

Entropie und Näherungen binärer Nachrichtenquellen

From LNTwww
Revision as of 14:53, 9 July 2020 by Javier (talk | contribs) (Text replacement - "[[Biografien_und_Bibliografien" to "[[Biographies_and_Bibliographies")

Open Applet in a new tab

Programmbeschreibung


Dieses Applet soll den Begriff „Entropie” am Beispiel einer binären Nachrichtenquelle verdeutlichen. Die Quellensymbolfolge lautet somit  q1,q2, ...,qν1,qν,qν+1, ...  mit  qi{A,B}  für  i1. Betrachtet werden sowohl eine gedächtnisfreie Quelle als auch eine Markovquelle erster Ordnung (also mit Gedächtnis „1”), deren Entropien  H  jeweils in geschlossener Form angegeben werden können.

Ebenso werden für die unendlich lange Quellensymbolfolge so genannte Entropienäherungen  H1,  H2, ... ,  Hk, ... in geschlossener Form angegeben, wobei

  • sich  H1  allein auf die Symbolwahrscheinlichkeiten bezieht (das heißt:   Abhängigkeiten der Symbole innerhalb der Folge bleiben unberücksichtigt),
  • zur Berechnung von  H2  die Folge in Zweiertupel aufgeteilt und deren Entropie angegeben wird, und schließlich
  • durch Erweiterung die Entropie  Hk  von  k–Tupeln angebbar ist.


Hierbei besteht für jede beliebige Nachrichtenquelle (mit oder ohne Gedächtnis) folgende Größenrealationen:

H<...Hk<...H3H2H1H0=log2 2=1 bit/Symbol.

H0  bezeichnet den Entscheidungsgehalt von binären Nachrichtenquellen. Die Entropie  H  der Quelle ergibt sich als der Grenzwert der  Hk  für  k.

Implizit vorausgesetzt ist bei allen diesen analytisch angebbaren Größen die Folgenlänge  N. Die Entropie  H  lässt sich aber auch aus einer begrenzten Quellensymbolfolge  q1=q1, ...,qN  annähern, also auch dann, wenn die statistischen Eigenschaften der Binärquelle unbekannt sind. Die entsprechenden Entropienäherungen werden hier mit  ˆH1,  ˆH2, ... ,  ˆHk, ... bezeichnet.

Auch hierauf wird in der folgenden Beschreibung eingegangen mit dem Fazit:

  • Die Näherung  ˆHk  ist natürlich um so genauer, je größer die Folgenlänge  N  ist.
  • Ist über die Quelle nichts weiter bekannt als die beispielhafte Folge, so ist der Rechenaufwand enorm.

Theoretischer Hintergrund


Die Entropie spielt in vielen naturwissenschaftlichen Fachgebieten eine große Rolle. Beschränken wir uns auf unser Fachgebiet der Statistik und der Informationstechnik, so ist die Entropie nach der Definition von  Claude E. Shannon  unter anderem ein Maß für die mittlere Unsicherheit über den Ausgang eines statistischen Ereignisses, für die „Zufälligkeit” dieses Ereignisses und für den mittleren Informationsgehalt einer Zufallsgröße.


Entropie einer gedächtnislosen Binärquelle

Binäre Entropiefunktion als Funktion von p

Wir setzen zunächst voraus, dass die Auftrittwahrscheinlichkeiten der beiden Symbole  A  und  B  unabhängig von den vorherigen Symbolen innerhalb der Folge gleich  pA=p  und  pB=1p  seien.

Für die Entropie dieser „gedächtnislosen” Binärquelle gilt:

H=Hbin(p)=plog21p+(1p)log211p(Einheit:bitoderbit/Symbol).

Man bezeichnet die Funktion  Hbin(p)  als die binäre Entropiefunktion. Aus der Grafik erkennt man:

  • Der Maximalwert  H0=1bit/Symbol  ergibt sich für  p=0.5, also für gleichwahrscheinliche Binärsymbole. Dann liefern  A  und  B  jeweils den gleichen Beitrag zur Entropie.  H0 nennt man auch den Entscheidungsgehalt.
  • Hbin(p)  ist symmetrisch um  p=0.5. Eine Quelle mit  pA=0.1  und  pB=0.9  hat die gleiche Entropie  H=0.469bit/Symbol  wie eine Quelle mit  pA=0.9  und  pB=0.1.
  • Die Differenz  ΔH=H0H  gibt die Redundanz der Quelle an und  r=ΔH/H0  die relative Redundanz. Im Beispiel ergeben sich  ΔH=0.531bit/Symbol  bzw.  r=53.1%.
  • Für  p=0  ergibt sich  H=0, da hier die Symbolfolge  B B B...  mit Sicherheit vorhergesagt werden kann. Eigentlich ist nun der Symbolumfang nur noch  M=1. Gleiches gilt für  p=1, also für die Symbolfolge  AAA... 



Entropie hinsichtlich Zweiertupel

Zur Verdeutlichung der Zweiertupel  AA,  AB,  BA,  BB

Wir teilen nun die Quellensymbolfolge q1,q2, ...,qν1,qν,qν+1, ... in Zweiertupel entsprechend der Grafik auf und betrachten dadurch die Entropie zweier aufeinanderfolgender Quellensymbole.

Die Binärquelle wird weiterhin wie im letzten Abschnitt als gedächtnislos bzw. redundanzfrei vorausgesetzt. Für die Kombination (qν,qν+1) gibt es in diesem Fall  22=4  mögliche Symbolpaare (farblich markiert) mit folgenden  Verbundwahrscheinlichkeiten:

Pr(qνqν+1)Pr(qν)Pr(qν+1).

Daraus ist die Verbundentropie eines Zweier–Tupels berechenbar (der Index „2” symbolisiert, dass sich die so berechnete Entropie auf Zweiertupel bezieht):

H2=qν{qμ}qν+1{qμ}Pr(qνqν+1)log21Pr(qνqν+1)(Einheit:bit/Zweiertupel).

Um den mittleren Informationsgehalt pro Symbol zu erhalten, muss  H2  noch halbiert werden:

H2=H2/2(Einheit:bit/Symbol).

Um eine konsistente Nomenklatur zu erreichen, benennen wir nun die im letzten Abschnitt definierte Entropie mit  H1:

H1=qν{qμ}Pr(qν)log21Pr(qν)(Einheit:bit/Symbol).

Der Index „1” soll darauf hinweisen, dass  H1  ausschließlich die Symbolwahrscheinlichkeiten berücksichtigt und nicht statistischen Bindungen zwischen Symbolen innerhalb der Folge. Mit dem Entscheidungsgehalt  H0=log22=1 (bit)  ergibt sich dann folgende Größenbeziehung:

H0H1H2.

Verdeutlichen wir uns nun die Berechnung der Entropienäherungen  H1  und  H2  an zwei Beispielen.

Beispiel 1:  Wir betrachten zunächst eine gedächtnislose Binärquelle mit gleichwahrscheinlichen Symbolen, das heißt es gelte  pA=pB=1/2. Die ersten zwanzig Folgenelemente lauten:   qν=BBAAABAABBBBBAAAABAB ...

  • Aufgrund der gleichwahrscheinlichen Binärsymbole ist  H1=H0=1bit/Symbol.
  • Die Verbundwahrscheinlichkeit  pAB  der Kombination  AB  ist gleich  pA·pB=1/4. Ebenso gilt  pAA=pBB=pBA=1/4.
  • Damit erhält man für die zweite Entropienäherung
H2=1/2[1/4log24+1/4log24+1/4log24+1/4log24]=1bit/Symbol=H1=H0.


Beispiel 2:  Die zweite hier betrachtete Folge ergibt sich aus der Folge von Beispiel 1 durch Anwendung eines einfachen Wiederholungscodes:

qν=BbBbAaAaAaBbAaAaBbBb...
  • Die wiederholten Symbole sind durch entsprechende Kleinbuchstaben dargestellt. Bitte beachten Sie:   Es handelt sich trotzdem um eine Binärquelle.
  • Aufgrund der gleichwahrscheinlichen Binärsymbole ergibt sich auch hier  H1=H0=1bit/Symbol.
  • Für die Verbundwahrscheinlichkeiten gilt nun  pAA=pBB=3/8  und  pABA=pBAB=1/8. Daraus folgt:
H2=1/2[23/8log28/3+21/8log28]=3/8log283/8log23+1/8log280.906bit/Symbol<H1=H0.

Betrachtet man sich die Aufgabenstellung genauer, so kommt man zu folgendem Schluss:

  • Die Entropie müsste eigentlich  H=0.5bit/Symbol  sein (jedes zweite Symbol liefert keine neue Information).
  • Die zweite Entropienäherung  H2=0.906bit/Symbol  ist aber deutlich größer als die Entropie  H.
  • Zur Entropiebestimmung dieser redundanten Symbolfolge reicht also die Näherung zweiter Ordnung nicht aus.
  • Vielmehr muss man größere zusammenhängende Blöcke mit  k>2  Symbolen betrachten. Einen solchen Block bezeichnen wir im Folgenden als k–Tupel.



Verallgemeinerung auf k–Tupel und Grenzübergang

Wir schreiben zur Abkürzung mit der Verbundwahrscheinlichkeit  p(k)i  eines k–Tupels allgemein:

Hk=1kMki=1p(k)ilog21p(k)i(Einheit:bit/Symbol).
  • Die Laufvariable  i  steht jeweils für eines der  Mk Tupel. Bei den hier betrachteten Binärquellen gilt  M=2.
  • Die vorher berechnete Näherung  H2  ergibt sich mit  k=2.
  • Für die Entropienäherungen  Hk  gelten folgende Größenrelationen; H0=1 (bit/Symbol) ist wieder der Entscheidungsgehalt:
H...Hk...H2H1H0.
  • Die Entropie einer Nachrichtenquelle mit Gedächtnis ist der folgende Grenzwert:
H=lim

Der Rechenaufwand wird bis auf wenige Sonderfälle (siehe nachfolgendes \text{Beispiel 3)} mit zunehmendem  k  immer größer:

  • Zur Berechnung von  H_{10}  einer Binärquelle ist über  2^{10} = 1024  Terme zu mitteln.
  • Mit jeder weiteren Erhöhung von  k  um  1  verdoppelt sich die Anzahl der Summenterme.


\text{Beispiel 3:}  Wir betrachten eine alternierende Binärfolge   ⇒   〈 q_ν 〉 =\rm ABABABAB ...   . Entsprechend gilt  H_0 = H_1 = 1 \hspace{0.15cm} \rm bit/Symbol.

In diesem Sonderfall muss zur Bestimmung der  H_k–Näherung unabhängig von  k  stets nur über zwei Verbundwahrscheinlichkeiten gemittelt werden:

  • k = 2:    p_{\rm AB} = p_{\rm BA} = 1/2     ⇒     H_2 = 1/2 \hspace{0.15cm} \rm bit/Symbol,
  • k = 3:    p_{\rm ABA} = p_{\rm BAB} = 1/2     ⇒     H_3 = 1/3 \hspace{0.15cm} \rm bit/Symbol,
  • k = 4:    p_{\rm ABAB} = p_{\rm BABA} = 1/2     ⇒     H_4 = 1/4 \hspace{0.15cm} \rm bit/Symbol.


Die (tatsächliche) Entropie dieser alternierenden Binärfolge ist demzufolge

H = \lim_{k \rightarrow \infty }{1}/{k} = 0 \hspace{0.05cm}.

Dieses Ergebnis war zu erwarten, da die betrachtete Folge nur minimale Information besitzt, die sich allerdings im Entropie–Endwert  H  nicht auswirkt, nämlich die Information:   „Tritt \rm A zu den geraden oder ungeraden Zeitpunkten auf?”

Man erkennt, dass  H_k  dem Endwert  H = 0  nur sehr langsam näher kommt:   Die zwanzigste Entropienäherung liefert immer noch  H_{20} = 0.05 \hspace{0.15cm} \rm bit/Symbol.




Binärquellen mit Markoveigenschaften

Markovprozesse mit M = 2 Zuständen

Folgen mit statistischen Bindungen zwischen den Folgenelementen (Symbolen) werden oft durch Markovprozesse modelliert, wobei wir uns hier auf binäre Markovprozesse erster Ordnung mit den Zuständen (Symbolen)  \rm A  und  \rm B  beschränken.

Rechts sehen Sie das Übergangsdiagramm für einen binären Markovprozess erster Ordnung. Von den vier angegebenen Übertragungswahrscheinlichkeiten sind allerdings nur zwei frei wählbar, zum Beispiel

  • p_{\rm {A\hspace{0.01cm}|\hspace{0.01cm}B}} = \rm Pr(A\hspace{0.01cm}|\hspace{0.01cm}B)   ⇒   bedingte Wahrscheinlichkeit, dass  \rm A  auf  \rm B  folgt.
  • p_{\rm {B\hspace{0.01cm}|\hspace{0.01cm}A}} = \rm Pr(B\hspace{0.01cm}|\hspace{0.01cm}A)   ⇒   bedingte Wahrscheinlichkeit, dass  \rm B  auf  \rm A  folgt.


Für die beiden weiteren Übergangswahrscheinlichkeiten gilt dann  p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} = 1- p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}  und   p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B} = 1- p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} \hspace{0.05cm}.

Aufgrund der vorausgesetzten Eigenschaften Stationarität und Ergodizität gilt für die Zustands– bzw. Symbolwahrscheinlichkeiten:

p_{\rm A} = {\rm Pr}({\rm A}) = \frac{p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B}}{p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} + p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}} \hspace{0.05cm}, \hspace{0.2cm}p_{\rm B} = {\rm Pr}({\rm B}) = \frac{p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}}{p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} + p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}} \hspace{0.05cm}.

Diese Gleichungen erlauben erste informationstheoretische Aussagen über Markovprozesse:

  • Für  p_{\rm {A\hspace{0.01cm}|\hspace{0.01cm}B}} = p_{\rm {B\hspace{0.01cm}|\hspace{0.01cm}A}}  sind die Symbole gleichwahrscheinlich   ⇒   p_{\text{A}} = p_{\text{B}}= 0.5. Die erste Entropienäherung liefert demzufolge  H_1 = H_0 = 1 \hspace{0.05cm} \rm bit/Symbol, und zwar unabhängig von den tatsächlichen Werten der (bedingten) Übergangswahrscheinlichkeiten  p_{\text{A|B}}  bzw.  p_{\text{B|A}}.
  • Die Quellenentropie  H  als der Grenzwert (für  k \to \infty)  der Entropienäherung k–ter Ordnung   ⇒   H_k  hängt aber sehr wohl von den tatsächlichen Werten von  p_{\text{A|B}}  und  p_{\text{B|A}}  ab und nicht nur von ihrem Quotienten. Dies zeigt das folgende Beispiel.


\text{Beispiel 4:}  Wir betrachten drei Markovquellen, die sich durch die Zahlenwerte der symmetrischen Übergangswahrscheinlichkeiten  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} } = p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A} }  unterscheiden.

  • Für die Symbolwahrscheinlichkeiten gilt somit  p_{\rm A} = p_{\rm B}= 0.5.
  • Die anderen Übergangswahrscheinlichkeiten haben dann die Werte  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}A} } = 1 - p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A} } = p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}B} }.
Drei Beispiele binärer Markovquellen
  • Die mittlere (blaue) Symbolfolge mit  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} } = p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A} } = 0.5  besitzt die Entropie  H ≈ 1 \hspace{0.05cm} \rm bit/Symbol. Das heißt:   In diesem Sonderfall gibt es keine statistischen Bindungen innerhalb der Folge.
  • Die linke (rote) Folge mit  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} } = p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A} } = 0.2  weist weniger Wechsel zwischen  \rm A  und  \rm B  auf. Aufgrund von statistischen Abhängigkeiten zwischen benachbarten Symbolen ist nun  H ≈ 0.72 \hspace{0.05cm} \rm bit/Symbol  kleiner.
  • Die rechte (grüne) Symbolfolge mit  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} } = p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A} } = 0.8  hat die genau gleiche Entropie  H ≈ 0.72 \hspace{0.05cm} \rm bit/Symbol  wie die rote Folge. Hier erkennt man viele Bereiche mit sich stets abwechselnden Symbolen (... \rm ABABAB ... ).


Für den allgemeineren Fall  p_{\text{A}} \ne p_{\text{B}}  ist die Entropieberechnung der Zweiertupel etwas komplizierter:

  • Mit den Verbundwahrscheinlichkeiten, zum Beispiel  p_{\text{AB}} = p_{\text{A}} · p_{\rm {B\hspace{0.01cm}|\hspace{0.01cm}A}}, kann geschrieben werden:
H_2\hspace{0.05cm}' = p_{\rm A} \cdot p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm A} \cdot p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A}} + p_{\rm A} \cdot p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm A} \cdot p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}} + p_{\rm B} \cdot p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B} \cdot p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B}} + p_{\rm B} \cdot p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B} \cdot p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B}} \hspace{0.05cm}.
  • Ersetzt man nun die Logarithmen der Produkte durch entsprechende Summen von Logarithmen, so erhält man das Ergebnis  H_2\hspace{0.05cm}' = H_1 + H_{\text{M}}  mit
H_1 = p_{\rm A} \cdot (p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} + p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A})\cdot {\rm log}_2\hspace{0.1cm}\frac {1}{p_{\rm A}} + p_{\rm B} \cdot (p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} + p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B})\cdot {\rm log}_2\hspace{0.1cm}\frac {1}{p_{\rm B}} = p_{\rm A} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{p_{\rm A}} + p_{\rm B} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{p_{\rm B}} = H_{\rm bin} (p_{\rm A})= H_{\rm bin} (p_{\rm B}) \hspace{0.05cm},
H_{\rm M}= p_{\rm A} \cdot p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A}} + p_{\rm A} \cdot p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}} + p_{\rm B} \cdot p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B}} + p_{\rm B} \cdot p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B}} \hspace{0.05cm}.
  • Damit lautet die zweite Entropienäherung (mit der Einheit „bit/Symbol”):
H_2 = {1}/{2} \cdot {H_2\hspace{0.05cm}'} = {1}/{2} \cdot \big [ H_{\rm 1} + H_{\rm M} \big] \hspace{0.05cm}.
  • Erweitert man dieses Ergebnis für  H_2  auf die k–te Entropienäherung, so erhält man:
H_k = {1}/{k} \cdot \big [ H_{\rm 1} + (k-1) \cdot H_{\rm M}\big ].
  • Die Entropie einer Markovquelle ergibt sich als der folgende Grenzwert und ist demzufolge einfach zu berechnen:
H = \lim_{k \rightarrow \infty }H_k \hspace{0.5cm}\Rightarrow \hspace{0.5cm} H = H_{\rm M} = 2 \cdot H_2 - H_1 \hspace{0.05cm}.



Zusammenfassung und Schlussfolgerungen


Unbekannte Binärquelle

  • Ist von der Nachrichtenquelle nicht mehr bekannt als der Symbolunfang  M=2, so müssen die Entropienäherungen  \hat H_k  numerisch aus der Quellensymbolfolge  〈 q_1, \hspace{0.05cm} q_2,\hspace{0.05cm}\text{ ...} \hspace{0.05cm}, q_{ν–1}, \hspace{0.05cm}q_ν, \hspace{0.05cm}\hspace{0.05cm}q_{ν+1} ,\hspace{0.05cm}\text{ ...}\hspace{0.05cm},\hspace{0.05cm}q_{N} \hspace{0.05cm}〉  ermittelt werden. Die Entropie  H ergibt sich als der Grenzwert der  \hat H_k  für  k \to \infty, wobei gilt:
H <\text{...} <\hat H_k <\text{...} < \hat H_3 < \hat H_2 < \hat H_1 \le H_0 \hspace{0.05cm}.
  • Bei der numerischen Ermittlung werden alle Wahrscheinlichkeiten  (p_{\rm A}, \text{...})  und bedingten Wahrscheinlichkeiten  (p_{\rm A|B}, \text{...})  durch entsprechende relative Häufigkeiten  (h_{\rm A}, \text{...})  und bedingte Wahrscheinlichkeiten  (h_{\rm A|B}, \text{...})  angenähert.
  • Die Genauigkeit der numerischen Ermittlung nimmt bei gleichem  N  mit steigendem  k  ab. Das heißt:   Die Folgenlänge  N  der Simulation muss an den größten  k–Wert angepasst werden.


Gedächtnislose Binärquelle

  • Eine gedächtnislose Binärquelle ist vollständig durch die Symbolwahrscheinlichkeiten  p_{\rm A}  und  p_{\rm B} = 1- p_{\rm A}  charakterisiert. Für die Entropie gilt folgende Gleichung:
H = p \cdot {\rm log_2}\hspace{0.1cm}\frac{1}{\hspace{0.1cm}p\hspace{0.1cm}} + (1-p) \cdot {\rm log_2}\hspace{0.1cm}\frac{1}{1-p} \hspace{0.5cm}{\rm (Einheit\hspace{-0.15cm}: \hspace{0.15cm}bit\hspace{0.15cm}oder\hspace{0.15cm}bit/Symbol)} \hspace{0.05cm}.
  • Der Maximalwert der Entropie ergibt sich für  p_{\rm A}= p_{\rm B} =0.5;  H_0 = \log_2 \ M  bezeichnet man als den Entscheidungsgehalt der Quelle. Im binären Fall  (M = 2)  gilt:
H_{\rm max} = H_0 = \text{ 1 bit/Symbol}\hspace{0.05cm}.
  • In diesem Fall  (p_{\rm A}= p_{\rm B} =0.5)  ist die Symbolfolge redundanzfrei   ⇒   die relative Redundanz ist gleich  r = (H - H_0)/H_0= 0.
  • Im unsymmetrischen Fall  (p_{\rm A} \ne p_{\rm B})  ist die relative Redundanz  r > 0  und für die Entropie gilt mit den Entropienäherung  H_k:
H = H_1 < H_0, \hspace{0.5cm}H_1 = H_2 = H_3 = \text{...} .
  • Bei einer gedächtnislosen Quelle sind also alle (analytisch berechneten) Entropienäherungen  H_k  exakt gleich. Für die durch Simulation aus der Symbolfolge  〈 q_ν〉  der Länge  N  gewonnenen Näherungen  \hat H_k  gilt dieser Zusammenhang bestenfalls näherungsweise
\hat H_1 \approx \hat H_2 \approx \hat H_3 \approx \text{...} .
  • Als Ergebnis sollte man  H \approx \hat H_1  verwenden. Bei gegebenem  N  sind die auf der Zeitmittelung basierenden Fehler für  \hat H_2  \hat H_3, ... deutlich größer. Oder anders ausgedrückt:   Um die gleiche statistische Sicherheit für die Ermittlung von  \hat H_{k+1}  wie bei  \hat H_k  zu erzielen, muss man  N  verdoppeln.


Binäre Markovquelle

Markovprozesse mit M = 2 Zuständen
  • Folgen mit statistischen Bindungen zwischen den Folgenelementen werden oft durch Markovprozesse modelliert, wobei wir uns hier auf binäre Markovprozesse erster Ordnung mit den Symbolen  \rm A  und  \rm B  beschränken.
  • Für die Entropie  H = H_{\text{M}}  und die erste Entropienäherung  H_1  einer solchen Markovquelle gelten die folgenden Gleichungen:
H_{\text{M}} = p_{\rm A} \cdot p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A}} + p_{\rm A} \cdot p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}} + p_{\rm B} \cdot p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B}} + p_{\rm B} \cdot p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B}} \hspace{0.05cm},
H_1 = p_{\rm A} \cdot (p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} + p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A})\cdot {\rm log}_2\hspace{0.1cm}\frac {1}{p_{\rm A}} + p_{\rm B} \cdot (p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} + p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B})\cdot {\rm log}_2\hspace{0.1cm}\frac {1}{p_{\rm B}}
\Rightarrow \hspace{0.3cm}H_1 = p_{\rm A} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{p_{\rm A}} + p_{\rm B} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{p_{\rm B}} = H_{\rm bin} (p_{\rm A})= H_{\rm bin} (p_{\rm B}) \hspace{0.05cm}.
  • Die Entropienäherungen  H_k  für  k–Tupel hängen mit der ersten Näherung  H_1  und dem Endwert  H = H_{\text{M}}  wie folgt zusammen:
H_k = {1}/{k} \cdot \big [ H_{\rm 1} + (k-1) \cdot H_{\rm M}\big ] \hspace{0.3cm} \Rightarrow \hspace{0.3cm} H_2 = {1}/{2} \cdot \big [ H_{\rm 1} + H_{\rm M} \big ]\hspace{0.05cm}, \hspace{0.3cm} H_3 ={1}/{3} \cdot \big [ H_{\rm 1} + 2 \cdot H_{\rm M}\big ] \hspace{0.05cm},\hspace{0.3cm} H_4 = {1}/{4} \cdot \big [ H_{\rm 1} + 3 \cdot H_{\rm M}\big ] \hspace{0.05cm},\hspace{0.15cm}{\rm usw.}
  • Daraus folgt direkt:   Ist über die Nachrichtenquelle nicht mehr bekannt, als dass es sich um eine Markovquelle erster Ordnung handelt, so kann der Endwert  H = H_{\rm M}  allein aus den Entropienäherungen  H_1  und  H_2  ermittelt werden:
H = 2 \cdot H_2 - H_{\rm 1} \hspace{0.05cm}.

Bei einem symmetrischen Markovprozess   ⇒   Übergangswahrscheinlichkeiten  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} } = p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A} }   ⇒   Symbolwahrscheinlichkeiten  p_{\rm A } = p_{\rm B } = 0.5   erhält man

H_{\text{M} } = H_{\text{bin} }(p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} })= p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} } \cdot {\rm log_2}\hspace{0.1cm}\frac{1}{p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} } } + (1 - p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} }) \cdot {\rm log_2}\hspace{0.1cm}\frac{1}{1 - p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} } },\hspace{0.5cm}H_1 = 1\text{ bit/Symbol} .

Versuchsdurchführung

Exercises Entropie.png
  • Wählen Sie zunächst die Aufgabennummer.
  • Eine Aufgabenbeschreibung wird angezeigt.
  • Alle Parameterwerte sind angepasst.
  • Alle Entropiewerte werden berechnet und eine Symbolfolge ausgegeben.
  • Musterlösung nach Drücken von „Hide solution”.
  • Mit der Nummer „0” wird auf die gleichen Einstellung wie beim Programmstart zurückgesetzt.


(1)   Wählen Sie die gedächtnislose Binärquelle mit  p_{\rm A} = p_{\rm B} = 0.5. Wie lauten die analytisch berechneten Entropienäherungen  H_1, ... ,  H_6?

Wie unterscheiden sich die Simulationsergebnisse  \hat H_1, ... ,  \hat H_6  mit  N=10^5  von  H_1, ... ,  H_6?   Machen Sie jeweils zehn Versuche.
  •  Es handelt sich um eine redundanzfreie Binärquelle   ⇒   H = H_{\rm bin}(0.5) = H_1 = ... =H_6 = 1\text{ bit/Symbol}.
  •  Auch die Simulation mit  N=10^5  liefert bei (fast) allen Versuchsreihen  \hat H_1 = ...  =\hat H_6 = 1.000   ⇒   das auf drei Nachkommastellen richtige Ergebnis.

(2)   Wie unterscheiden sich bei sonst gleichen Einstellungen die Simulationsergebnisse  \hat H_1, ... ,  \hat H_6 mit N=10^3?   Wieder jeweils zehn Versuche.

  •  Die Entropienäherungen H_k werden nun durch \hat H_k ungenauer nachgebildet als mit N=10^5   ⇒   die Statistik ist nicht ausreichend.
  •  Die Simulation mit N=10^3 liefert bei zehn Versuchsreihen für \hat H_1 entweder 1.000 oder 0.999 und für \hat H_6 Werte zwischen 0.982 und 0.995  
  •   ⇒   Simulationsgenauigkeit nimmt mit steigendem k ab. Die simulierten Werte \hat H_k sind stets kleiner als H_k = 1.000. Beides gilt auch für noch kleineres  N.

(3)   Wählen Sie nun die gedächtnislose Binärquelle mit  p_{\rm A} = 0.2  und  p_{\rm B} = 0.8. Wie groß sind die Entropie  H und die Entropienäherungen  H_1, ... ,  H_6?

Wie unterscheiden sich die Simulationsergebnisse  \hat H_1, ... ,  \hat H_6  mit  N=10^5  von  H_1, ... ,  H_6?   Wieder jeweils zehn Versuche.
  •  Es gilt  H = H_{\rm bin}(0.2) = 0.722\text{ bit/Symbol}. Wie bei jeder gedächtnislosen Nachrichtenquelle gilt auch hier  H_1 = ... =H_6 = H.
  •  Die Simulation mit  N=10^5  liefert bei zehn Versuchsreihen für  \hat H_1  Werte zwischen 0.719 und 0.727. Es gilt aber stets  \hat H_1 = ... = \hat H_6.
  •  In solchen Fällen weicht die relative Häufigkeit  h_{\rm A}  von der Wahrscheinlichkeit  p_{\rm A}  ab. Ist  \hat H_1 > 0.722, so ist  h_{\rm A} > 0.2.

(4)   Was ändert sich gegenüber (3) mit den Symbolwahrscheinlichkeiten  p_{\rm A} = 0.8  und  p_{\rm B} = 0.2?

 Nichts. Die binäre Entropiefunktion ist symmetrisch um  p=0.5.
 Ist nun  \hat H_1 > 0.722, so ist  h_{\rm A} < 0.8.

(5)   Wählen Sie nun die Markovquelle mit  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} } = 0.2  und  p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A} } = 0.8 . Wie groß sind die Entropie  H und die Entropienäherungen  H_1, ... ,  H_6?

  •  Bei dieser „Markovquelle” ist  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} } = 0.2  und  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}A} } = 1 - p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A} } = 0.2 . Deshalb ist auch die unbedingte Wahrscheinlichkeit  p_{\rm A} = 0.2   ⇒   p_{\rm B} = 0.8.
  • Es handelt sich also um die gleiche gedächtnislose Quelle wie bei (4)   ⇒  H = H_1 = ... =H_6 = 0.722\text{ bit/Symbol}.

(6)   Wählen Sie nun die Markovquelle mit  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} } = 0.2  und  p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A} } = 0.2 . Wie groß sind die Entropie  H und die Entropienäherungen  H_1, ... ,  H_6?

  •  Hier handelt es sich um eine „echte Markovquelle”, da sich  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} } = 0.2  und  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}A} } = 1 - p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A} } = 0.8  unterscheiden.
  • Wegen  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B}} = p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A}} sind die beiden unbedingten Symbolwahrscheinlichkeiten gleich:  p_{\rm A} = p_{\rm B} = 0.5  ⇒   H_1 = 1.
  • Die Entropienäherungen H_k werden mit steigendem k kleiner:  H_2 = 0.861,  H_3 = 0.815, ... ,  H_6 = 0.768. Der Endwert ist wieder  H = H_\infty = 0.722\text{ bit/Symbol}.

(7)   Welche Unterschiede gegenüber (6) ergeben sich mit  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} } = 0.8  und  p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A} } = 0.8?

  •  Die Entropienäherung  H = H_{\rm bin}(0.8) = H_{\rm bin}(0.2)= 0.722\text{ bit/Symbol}  bleibt gleich, ebenso alle Entropienäherungen  H_k.
  • Wegen den größeren Übergangswahrscheinlichkeiten  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B}} = p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A}} = 0.8  erkennt man jetzt deutlich mehr Übergänge in der ausgegebenen Symbolfolge.

(8)   Wählen Sie nun die Markovquelle mit  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} } = 0.8  und  p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A} } = 0.9. Wie groß sind die Entropie  H und die Entropienäherungen  H_1, ... ,  H_6?

  • Wegen  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B}} \ne p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A}} sind nun die beiden unbedingten Symbolwahrscheinlichkeiten unterschiedlich:  p_{\rm A} = 0.471  und  p_{\rm B} = 0.529  ⇒   H_1 = 0.998 \ne 1.
  • Die Entropienäherungen H_k werden wieder kontinuierlich kleiner:  H_2 = 0.800,  H_3 = 0.734, ... ,  H_6 = 0.669. Endwert:   H = H_\infty = 0.603\text{ bit/Symbol}.
  •  Aus der Symbolfolge erkennt man, dass zwei Symbole  \rm A  ganz selten aufeinanderfolgen.

(9)   Es gelte weiterhin  p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A} } = 0.9. Für welches  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} }  ergibt sich die maximale Entropie?

  • Anhand der roten Kurve in der Grafik zu (8) lässt sich bereits das Ergebnis  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} }\approx 0.45  abschätzen.
  • Der dazugehörige Entropie–Endwert ist   H = H_\infty = 0.818\text{ bit/Symbol}.

(10)   Wählen Sie nun die Markovquelle mit  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} } = 0.8  und  p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A} } = 1.0. Interpretieren Sie die dargestellten Ergebnisse.

  • Die unbedingten Symbolwahrscheinlichkeiten sind  p_{\rm A} = 0.444  und  p_{\rm B} = 0.556  ⇒   H_1 = 0.991 \ne 1. Der Entropie–Endwert ist  H = H_\infty = 0.401\text{ bit/Symbol}.
  •  Aus der Symbolfolge erkennt man, dass das Symbol  \rm A  im Gegensatz zum Symbol  \rm B  stets isoliert auftritt.

(11)   Wählen Sie nun die Markovquelle mit  p_{\rm {A\hspace{0.01cm}\vert\hspace{0.01cm}B} } = 0.8  und  p_{\rm {B\hspace{0.01cm}\vert\hspace{0.01cm}A} } = 0. Interpretieren Sie die dargestellten Ergebnisse.

  • Die unbedingten Symbolwahrscheinlichkeiten sind  p_{\rm A} = 1  und  p_{\rm B} = 0  ⇒   die Symbolfolge besteht nur aus  \rm A    ⇒   Entropienäherung  H_1 = 0 .
  •  Alle weiteren Entropienäherungen H_k und auch der Entropie–Endwert sind ebenfalls Null.




Zur Handhabung des Applets

Anleitung Entropie.png


    (A)     Auswahl:   Gedächtnislose Quelle / Markovquelle

    (B)     Parametereingabe per Slider (Beispiel Markovquelle)

    (C)     Markovdiagramm (falls Markovquelle)

    (D)     Eingabe der Folgenlänge  N  zur Berechnung der  \hat H_k

    (E)     Ausgabe einer simulierten Symbolfolge

    (F)     Ausgabe des Entropiewertes  H

    (G)     Ausgabe der Entropienäherungen  H_k

    (H)     Ausgabe der numerisch ermittelten Entropienäherungen  \hat H_k

    (I)     Grafikfeld zur Darstellung der Funktion  H(p_{\rm A})  bzw.  H(p_{\rm A}|p_{\rm B})

    (J)     Bereich für die Versuchsdurchführung:   Aufgabenauswahl

    (K)     Bereich für die Versuchsdurchführung:   Aufgabenstellung

    (L)     Bereich für die Versuchsdurchführung:   Musterlösung

Über die Autoren

Dieses interaktive Applet wurde am Lehrstuhl für Nachrichtentechnik der Technischen Universität München konzipiert und realisiert.

  • Die erste Version wurde 2011 von Eugen Mehlmann im Rahmen seiner Bachelorarbeit mit „FlashMX–Actionscript” erstellt (Betreuer: Günter Söder).
  • 2019 wurde das Programm von Xiaohan Liu (Bachelorarbeit, Betreuer: Tasnád Kernetzky ) auf „HTML5” umgesetzt und neu gestaltet.


Die Umsetzung dieses Applets auf HTML 5 wurde durch  Studienzuschüsse  der Fakultät EI der TU München finanziell unterstützt. Wir bedanken uns.

Nochmalige Aufrufmöglichkeit des Applets in neuem Fenster

Open Applet in a new tab