Exercise 3.3: Entropy of Ternary Quantities

From LNTwww
Revision as of 15:35, 28 May 2021 by Javier (talk | contribs) (Text replacement - "„" to """)

Vorgegebene Entropiefunktionen

Rechts sehen Sie die Entropiefunktionen  $H_{\rm R}(p)$,  $H_{\rm B}(p)$  und  $H_{\rm G}(p)$, wobei  $\rm R$  für "Rot” steht,  $\rm B$  für "Blau” und  $\rm G$  für "Grün”.  Die Wahrscheinlichkeitsfunktionen lauten für alle Zufallsgrößen:

$$P_X(X) = [\hspace{0.05cm}p_1\hspace{0.05cm},\ p_2\hspace{0.05cm},\ p_3\hspace{0.05cm}]\hspace{0.3cm}\hspace{0.3cm} \Rightarrow \hspace{0.3cm} |X| = 3\hspace{0.05cm}.$$

Für den Fragebogen gilt der Zusammenhang  $p_1 = p$  und  $p_2 = 1 - p_3- p$.

Die Wahrscheinlichkeitsfunktion einer Zufallsgröße

$$X = \big \{\hspace{0.05cm}x_1\hspace{0.05cm}, \hspace{0.15cm} x_2\hspace{0.05cm},\hspace{0.15cm} \text{...}\hspace{0.1cm} ,\hspace{0.15cm} x_{\mu}\hspace{0.05cm}, \hspace{0.05cm}\text{...}\hspace{0.1cm} , \hspace{0.15cm} x_{M}\hspace{0.05cm}\big \}$$

mit dem Symbolumfang  $|X| = M$  lautet allgemein:

$$P_X(X) = [\hspace{0.05cm}p_1\hspace{0.05cm}, \hspace{0.15cm} p_2\hspace{0.05cm},\hspace{0.05cm} ...\hspace{0.1cm} ,\hspace{0.15cm} p_{\mu}\hspace{0.05cm}, \hspace{0.05cm}...\hspace{0.1cm} , \hspace{0.15cm} p_{M}\hspace{0.05cm}]\hspace{0.05cm}.$$

Die Entropie (Unsicherheit) dieser Zufallsgröße berechnet sich entsprechend der Gleichung

$$H(X) = {\rm E} \big [\log_2 \hspace{0.05cm} {1}/{P_X(X)} \big ]\hspace{0.05cm},$$

und liegt stets im Bereich  $0 \le H(X) \le \log_2 \hspace{0.05cm} |X|$.

  • Die untere Schranke  $H(X) = 0$  ergibt sich, wenn eine beliebige Wahrscheinlichkeit  $p_\mu = 1$  ist und alle anderen Null sind.
  • Die obere Schranke soll hier wie in der Vorlesung "Information Theory” von  Gerhard Kramer  an der TU München hergeleitet werden:
Obere Abschätzung für den natürlichen Logarithmus
  • Durch Erweiterung obiger Gleichung um  $|X|$  in Zähler und Nenner erhält man unter Verwendung von  $\log_2 \hspace{0.05cm}x= \ln(x)/\ln(2)$:
$$H(X) = \frac{1}{{\rm ln}(2)}\cdot {\rm E} \left [{\rm ln} \hspace{0.1cm} \frac{1}{|X| \cdot P_X(X)} \right ] + {\rm log}_2 \hspace{0.1cm}|X| \hspace{0.05cm}.$$
  • Wie aus nebenstehender Grafik hervorgeht, gilt die Abschätzung  $\ln(x) \le x-1$  mit der Identität für  $x=1$.  Somit kann geschrieben werden:
$$H(X) \le \frac{1}{{\rm ln}(2)}\cdot {\rm E} \left [\frac{1}{|X| \cdot P_X(X)} -1 \right ] + {\rm log}_2 \hspace{0.1cm}|X| \hspace{0.05cm}.$$
  • In der  Aufgabe 3.2  wurde für den Fall  $p_\mu \ne 0$  für alle  $\mu$  der Erwartungswert  ${\rm E} \big [\log_2 \hspace{0.05cm} {1}/{P_X(X)} \big ] =|X|$  berechnet.  Damit verschwindet der erste Term und man erhält das bekannte Ergebnis:
$$H(X) \le {\rm log}_2 \hspace{0.1cm}|X| \hspace{0.05cm}.$$




Hinweise:

  • Die Gleichung der binären Entropiefunktion lautet:
$$H_{\rm bin}(p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p} \hspace{0.05cm}.$$


Fragebogen

1

Welche Aussagen gelten für die rote Entropiefunktion  $H_{\rm R}(p)$?

$H_{\rm R}(p)$  ergibt sich zum Beispiel mit  $p_1 = p$,  $p_2 = 1- p$  und  $p_3 = 0$.
$H_{\rm R}(p)$  ist identisch mit der binären Entropiefunktion  $H_{\rm bin}(p)$.

2

Welche Eigenschaften weist die binäre Entropiefunktion  $H_{\rm bin}(p)$  auf?

$H_{\rm bin}(p)$  ist konkav hinsichtlich des Parameters  $p$.
Es gilt  $\text {Max } [H_{\rm bin}(p)] = 2$  bit.

3

Welche Aussagen gelten für die blaue Entropiefunktion  $H_{\rm B}(p)$?

$H_{\rm B}(p)$  ergibt sich beispielsweise mit  $p_1 = p$,  $p_2 = 1/2- p$  und  $p_3 = 1/2$.
Es gilt  $H_{\rm B}(p = 0)= 1$  bit.
Es gilt  $\text {Max } [H_{\rm B}(p)] = \log_2 \hspace{0.1cm} (3)$  bit.

4

Welche Aussagen gelten für die grüne Entropiefunktion  $H_{\rm G}(p)$?

$H_{\rm G}(p)$  ergibt sich beispielsweise mit  $p_1 = p$,  $p_2 = 2/3- p$  und  $p_3 = 1/3$.
Es gilt  $H_{\rm G}(p = 0)= 1$  bit.
Es gilt  $\text {Max } [H_{\rm G}(p)] = \log_2 \hspace{0.1cm} (3)$ bit.


Musterlösung

(1)  Beide Aussagen sind richtig:

  • Setzt man  $p_3 = 0$ und formal  $p_1 = p$   ⇒    $p_2 = 1- p$, so ergibt sich die binäre Entropiefunktion
$$H_{\rm bin}(p) = p \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{p} + (1-p) \cdot {\rm log}_2 \hspace{0.1cm} \frac{1}{1-p} \hspace{0.05cm}.$$


(2)  Richtig ist allein der Lösungsvorschlag 1:

  • Man kann die binäre Entropiefunktion wegen  $\log(x) = \ln(x)/\ln(2)$  auch in die folgende Form bringen:
$$H_{\rm bin}(p) = \frac{-1}{{\rm ln}(2)} \cdot \big [ p \cdot {\rm ln}(p) + (1-p) \cdot {\rm ln}(1-p) \big ] \hspace{0.05cm}.$$
  • Die erste Ableitung führt zum Ergebnis
$$\frac {{\rm d}H_{\rm bin}(p)}{{\rm d}p} = \frac{-1}{{\rm ln}(2)} \cdot \big [ {\rm ln}(p) + p \cdot \frac{1}{p} - {\rm ln}(1-p) - (1-p) \cdot \frac{1}{1-p} \big ] = \frac{1}{{\rm ln}(2)} \cdot \big [ {\rm ln}(1-p) - {\rm ln}(p) \big ] = {\rm log}_2 \hspace{0.1cm} \frac{1-p}{p} \hspace{0.05cm}.$$
  • Durch Nullsetzen dieser Ableitung erhält man den Abszissenwert  $p = 0.5$, der zum Maximum der Entropiefunktion führt:   $H_{\rm bin}(p =0.5) = 1$ bit
    ⇒   der Lösungsvorschlag 2 ist falsch.
  • Durch nochmaliges Differenzieren erhält man für die zweite Ableitung:
$$\frac {{\rm d}^2H_{\rm bin}(p)}{{\rm d}p^2} = \frac{1}{{\rm ln}(2)} \cdot \left [ \frac{-1}{1-p} - \frac{1}{p} \right ] = \frac{-1}{{\rm ln}(2) \cdot p \cdot (1-p)} \hspace{0.05cm}.$$
  • Diese Funktion ist im gesamten Definitionsgebiet  $0 ≤ p ≤ 1$  negativ   ⇒   $H_{\rm bin}(p)$ ist konkav   ⇒   der Lösungsvorschlag 1 ist richtig.


Drei Entropiefunktionen mit  $M = 3$

(3)  Richtig sind hier die Aussagen 1 und 2:

  • Für  $p = 0$  erhält man die Wahrscheinlichkeitsfunktion  $P_X(X) = \big [\hspace{0.05cm}0\hspace{0.05cm}, \hspace{0.15cm} 1/2\hspace{0.05cm},\hspace{0.15cm} 1/2 \hspace{0.05cm} \big ]$   ⇒   $H(X) = 1$  bit.
  • Das Maximum unter der Voraussetzung  $p_3 = 1/2$  ergibt sich für  $p_1 = p_2 = 1/4$:
$$P_X(X) = \big [\hspace{0.05cm}1/4\hspace{0.05cm}, \hspace{0.05cm} 1/4\hspace{0.05cm},\hspace{0.05cm} 1/2 \hspace{0.05cm} \big ] \hspace{0.3cm} \Rightarrow \hspace{0.3cm} {\rm Max} \ [H_{\rm B}(p)] = 1.5 \ \rm bit \hspace{0.05cm}.$$
  • In kompakter Form lässt sich  $H_{\rm B}(p)$  mit der Einschränkung  $0 ≤ p ≤ 1/2$  wie folgt darstellen:
$$H_{\rm B}(p) = 1.0\,{\rm bit} + {1}/{2} \cdot H_{\rm bin}(2p) \hspace{0.05cm}.$$


(4)  Richtig sind hier die erste und letzte Aussage:

  • Der grüne Kurvenzug beinhaltet mit  $p = 1/3$  auch die Gleichverteilung aller Wahrscheinlichkeiten
$$ {\rm Max} \ [H_{\rm G}(p)] = \log_2 (3)\ \text{bit}.$$
  • Allgemein lässt sich der gesamte Kurvenverlauf im Bereich  $0 ≤ p ≤ 2/3$  wie folgt ausdrücken:
$$H_{\rm G}(p) = H_{\rm G}(p= 0) + {2}/{3} \cdot H_{\rm bin}(3p/2) \hspace{0.05cm}.$$
  • Aus der Grafik auf der Angabenseite erkennt man auch, dass folgende Bedingung erfüllt sein muss:
$$H_{\rm G}(p = 0) + {2}/{3}= {\rm log}_2 \hspace{0.01cm} (3) \hspace{0.3cm} \Rightarrow \hspace{0.3cm} H_{\rm G}(p= 0) = 1.585 - 0.667 = 0.918 \,{\rm bit} \hspace{0.05cm}.$$
  • Der zweite Lösungsvorschlag ist somit falsch.  Zum gleichen Ergebnis gelangt man über die Gleichung
$$H_{\rm G}(p = 0) = {1}/{3} \cdot {\rm log}_2 \hspace{0.01cm} (3) +{2}/{3} \cdot {\rm log}_2 \hspace{0.01cm} (3/2) = {\rm log}_2 \hspace{0.01cm} (3) -2/3 \cdot {\rm log}_2 \hspace{0.01cm} (2) \hspace{0.05cm}.$$