Loading [MathJax]/jax/output/HTML-CSS/fonts/TeX/fontdata.js

Exercise 1.2: Entropy of Ternary Sources

From LNTwww
Revision as of 14:02, 29 May 2018 by Mwiki-lnt (talk | contribs) (Textersetzung - „*Sollte die Eingabe des Zahlenwertes „0” erforderlich sein, so geben Sie bitte „0.” ein.“ durch „ “)

Wahrscheinlichkeiten zweier Ternärquellen

Die Entropie einer wertdiskreten gedächtnislosen Nachrichtenquelle mit M möglichen Symbolen lautet:

H=Mμ=1pμlog21pμ,Pseudoeinheit:bit.

Hierbei bezeichnen die pμ die Auftrittswahrscheinlichkeiten der einzelnen Symbole bzw. Ereignisse. Im vorliegenden Beispiel werden die Ereignisse mit R(ot), G(rün) und S(chwarz) bezeichnet.

  • Bei einer binären Quelle mit den Auftrittswahrscheinlichkeiten p und 1p kann hierfür geschrieben werden:
H=Hbin(p)=plog21p+(1p)log211p,Pseudoeinheit:bit.
  • Die Entropie einer mehrstufigen Quelle lässt sich häufig mit dieser „binären Entropiefunktion” Hbin(p) ausdrücken.

Betrachtet werden in dieser Aufgabe zwei Ternärquellen mit den Symbolwahrscheinlichkeiten gemäß der obigen Grafik:

  • die Quelle Q1 mit pG=1/2, pS=1/3 und pR=1/6,
  • die Quelle Q2 mit pG=p sowie pS=pR=(1p)/2.


Die Ternärquelle Q2 lässt sich auch auf das Roulette anwenden, wenn ein Spieler nur auf die Felder Rot, Schwarz und Grün (die „Null”) setzt. Dieser Spieltyp wird im Fragebogen mit „Roulette 1” bezeichnet.

Dagegen weist „Roulette 2” darauf hin, dass der Spieler auf einzelne Zahlen (0, ... , 36) setzt.

Hinweise:


Fragebogen

1

Welche Entropie H besitzt die Quelle Q1?

Q1:      H =

 bit

2

Welche der folgenden Aussagen sind zutreffend, wenn man R, G und S durch die Zahlenwerte 1, 0 und +1 darstellt?

Es ergibt sich eine kleinere Entropie.
Die Entropie bleibt gleich.
Es ergibt sich eine größere Entropie.

3

Bestimmen Sie die Entropie der Quelle Q2 unter Verwendung der binären Entropiefunktion Hbin(p). Welcher Wert ergibt sich für p=0.5?

Q2, p=0.5:     H =

 bit

4

Für welchen p–Wert ergibt sich die maximale Entropie der Quelle Q2?

Q2, HHmax:     p =

5

Welche Entropie hat die Nachrichtenquelle „Roulette” hinsichtlich der Ereignisse Rot, Schwarz und Grün (die „Null”)?

Roulette 1:     H =

 bit

6

Welche Entropie weist „Roulette” hinsichtlich der Zahlen 0, ... , 36 auf?

Roulette 2:     H =

 bit


Musterlösung

(1)  Mit den Auftrittswahrscheinlichkeiten 1/2, 1/3 und 1/6 erhält man folgenden Entropiewert:

H=1/2log2(2)+1/3log2(3)+1/6log2(6)=(1/2+1/6)log2(2)+(1/3+1/6)log2(3)1.46bit_.

(2)  Richtig ist Lösungsvorschlag 2:

  • Die Entropie hängt nur von den Auftrittswahrscheinlichkeiten ab. Es ist dabei egal, welche Zahlenwerte oder physikalische Größen man den einzelnen Symbolen zuordnet.
  • Anders ist es bei Mittelwerten oder der AKF–Berechnung. Werden nur Symbole angegeben, so kann man hierfür keine Momente angeben. *Außerdem hängen die Mittelwerte, Autokorrelation, usw. davon ab, ob man die Zuordnung bipolar (1,0,+1) oder unipolar (zum Beispiel: (0,1,2) vereinbart.


(3)  Die Entropie der Quelle Q2 lässt sich wie folgt ausdrücken:

H=plog21p+21p2log221p=plog21p+(1p)log211p+(1p)log2(2)=Hbin(p)+1p.

Für p=0.5   ⇒   Hbin(p)=1 ergibt sich H=1.5bit_.


(4)  Die maximale Entropie einer gedächtnislosen Quelle mit dem Symbolumfang M ergibt sich, wenn alle M Symbole gleichwahrscheinlich sind. Für den Sonderfall M=3 folgt daraus:

pR+pG+pS=1p=1/3=0.333_.

Damit erhält man mit dem Ergebnis der Teilaufgabe (3) die folgende Entropie:

H=Hbin(1/3)+11/3=1/3log2(3)+2/3log2(3/2)+2/3
H=1/3log2(3)+2/3log2(3)2/3log2(2)+2/3=log2(3)=1.585bit.

(5)  Das System &brdquo;Roulette 1” ist informationstheoretisch gleich der Konfiguration Q2 mit p=1/37:

pG=p=137,pR=pS=1p2=1837.

Damit erhält man mit dem Ergebnis der Teilaufgabe (3):

H=Hbin(1/37)+3637=137log2(37)+3637log2(37)3637log236+3637==log2(37)+3637(1log2(36))=5.2094.057=1.152bit_.

(6)  Setzt man bei Roulette auf einzelne Zahlen   ⇒   Konfiguration „Roulette 2”, so sind alle Zahlen von 0 bis 36 gleichwahrscheinlich und man erhält:

H=log2(37)=5.209bit_.