Difference between revisions of "Aufgaben:Exercise 2.8: Huffman Application for a Markov Source"

From LNTwww
Line 14: Line 14:
 
The properties of Markov sources are described in detail in the chapter  [[Information_Theory/Nachrichtenquellen_mit_Gedächtnis|Message Sources with Memory]] .  Due to the symmetry assumed here with regard to the binary symbols  $\rm X$  and  $\rm Y$ , some serious simplifications result, as is derived in  [[Aufgaben:1.5Z_Symmetrische_Markovquelle|exercise  1.5Z]] :
 
The properties of Markov sources are described in detail in the chapter  [[Information_Theory/Nachrichtenquellen_mit_Gedächtnis|Message Sources with Memory]] .  Due to the symmetry assumed here with regard to the binary symbols  $\rm X$  and  $\rm Y$ , some serious simplifications result, as is derived in  [[Aufgaben:1.5Z_Symmetrische_Markovquelle|exercise  1.5Z]] :
 
* The symbols &nbsp;$\rm X$&nbsp; and &nbsp;$\rm Y$&nbsp; are equally probable, that is,&nbsp; $p_{\rm X} = p_{\rm Y}  = 0.5$ holds.&nbsp; <br>Thus the first entropy approximation is: &nbsp; $H_1 = 1\,\,{\rm bit/source &nbsp; symbol}\hspace{0.05cm}. $
 
* The symbols &nbsp;$\rm X$&nbsp; and &nbsp;$\rm Y$&nbsp; are equally probable, that is,&nbsp; $p_{\rm X} = p_{\rm Y}  = 0.5$ holds.&nbsp; <br>Thus the first entropy approximation is: &nbsp; $H_1 = 1\,\,{\rm bit/source &nbsp; symbol}\hspace{0.05cm}. $
* Die Entropie der Markovquelle ergibt sich sowohl für &nbsp;$q = 0.2$&nbsp; als auch für &nbsp;$q = 0.8$&nbsp; zu
+
* The entropy of the Markov source for &nbsp;$q = 0.2$&nbsp; as well as for &nbsp;$q = 0.8$&nbsp; results in
 
:$$H = q \cdot {\rm log_2}\hspace{0.15cm}\frac{1}{q} + (1-q) \cdot {\rm log_2}\hspace{0.15cm}\frac{1}{1-q}  
 
:$$H = q \cdot {\rm log_2}\hspace{0.15cm}\frac{1}{q} + (1-q) \cdot {\rm log_2}\hspace{0.15cm}\frac{1}{1-q}  
= 0.722\,\,{\rm bit/Quellensymbol}\hspace{0.05cm}.$$
+
= 0.722\,\,{\rm bit/source symbol}\hspace{0.05cm}.$$
* Bei Markovquellen sind alle Entropienäherungen&nbsp; $H_k$&nbsp; mit Ordnung&nbsp; $k \ge 2$&nbsp; durch&nbsp; $H_1$&nbsp;  und&nbsp; $H = H_{k \to \infty}$&nbsp; bestimmt:
+
* For Markov sources, all entropy approximations&nbsp; $H_k$&nbsp; with order&nbsp; $k \ge 2$&nbsp; are determined by&nbsp; $H_1$&nbsp;  and&nbsp; $H = H_{k \to \infty}$&nbsp;:
 
:$$H_k = {1}/{k}\cdot \big [ H_1 + H \big ] \hspace{0.05cm}.$$  
 
:$$H_k = {1}/{k}\cdot \big [ H_1 + H \big ] \hspace{0.05cm}.$$  
*Die folgenden Zahlenwerte gelten wieder für &nbsp;$q = 0.2$&nbsp; und &nbsp;$q = 0.8$&nbsp; gleichermaßen:
+
*The following numerical values again apply equally to &nbsp;$q = 0.2$&nbsp; and &nbsp;$q = 0.8$&nbsp;:
:$$H_2 = {1}/{2}\cdot \big [ H_1 + H \big ] = 0.861\,\,{\rm bit/Quellensymbol}\hspace{0.05cm},$$
+
:$$H_2 = {1}/{2}\cdot \big [ H_1 + H \big ] = 0.861\,\,{\rm bit/source symbol}\hspace{0.05cm},$$
:$$H_3 = {1}/{3} \cdot \big [ H_1 + 2H \big ] = 0.815\,\,{\rm bit/Quellensymbol}\hspace{0.05cm}.$$
+
:$$H_3 = {1}/{3} \cdot \big [ H_1 + 2H \big ] = 0.815\,\,{\rm bit/source symbol}\hspace{0.05cm}.$$
  
In dieser Aufgabe soll der Huffman&ndash;Algorithmus auf&nbsp; $k$&ndash;Tupel angewandt werden, wobei wir uns auf&nbsp; $k = 2$&nbsp; und&nbsp; $k = 3$&nbsp; beschränken.
+
In this exercise, the Huffman algorithm is to be applied to&nbsp; $k$&ndash;tuples, where we restrict ourselves to&nbsp; $k = 2$&nbsp; and&nbsp; $k = 3$&nbsp;.
  
  
Line 32: Line 32:
  
  
''Hinweise:''  
+
''Hints:''  
*Die Aufgabe gehört zum  Kapitel &nbsp;[[Information_Theory/Entropiecodierung_nach_Huffman|Entropiecodierung nach Huffman]].
+
*The task belongs to the chapter &nbsp;[[Information_Theory/Entropiecodierung_nach_Huffman|Entropy coding according to Huffman]].
*Insbesondere wird auf die Seite&nbsp; [[Information_Theory/Entropiecodierung_nach_Huffman#Anwendung_der_Huffman.E2.80.93Codierung_auf_.7F.27.22.60UNIQ-MathJax164-QINU.60.22.27.7F.E2.80.93Tupel|Anwendung der Huffman-Codierung auf k-Tupel]]&nbsp; Bezug genommen.
+
*In particular, reference is made to the page&nbsp; [[Information_Theory/Entropiecodierung_nach_Huffman#Application_of_Huffman_coding_to_.7F.27.22.60UNIQ-MathJax168-QINU.60.22.27.7F.E2.80.93tuples|Application of Huffman coding to k-tuples]]&nbsp;.
*Nützliche Informationen finden Sie auch in den Angabenblättern zu   &nbsp;[[Aufgaben:2.7_Huffman-Anwendung_für_binäre_Zweiertupel|Aufgabe 2.7]]&nbsp; und &nbsp;[[Aufgaben:2.7Z_Huffman-Codierung_für_Zweiertupel_einer_Ternärquelle|Aufgabe 2.7Z]].
+
*Useful information can also be found in the specification sheets for   &nbsp;[[Aufgaben:2.7_Huffman-Anwendung_für_binäre_Zweiertupel|exercise 2.7]]&nbsp; and &nbsp;[[Aufgaben:2.7Z_Huffman-Codierung_für_Zweiertupel_einer_Ternärquelle|exercise 2.7Z]].
*Zur Kontrolle Ihrer Ergebnisse verweisen wir auf das Interaktionsmodul &nbsp;[[Applets:Huffman-_und_Shannon-Fano-Codierung|Huffman und Shannon&ndash;Fano&ndash;&ndash;Codierung]].
+
*To check your results, please refer to the interaction module &nbsp;[[Applets:Huffman-_und_Shannon-Fano-Codierung|Huffman and Shannon&ndash;Fano&ndash;&ndash;coding]].
 
   
 
   
  
  
  
===Fragebogen===
+
===Questions===
  
 
<quiz display=simple>
 
<quiz display=simple>
{Welche der vorne angegebenen Beispielfolgen gilt für&nbsp; $q = 0.8$?
+
{Which of the example sequences given at the front is true for&nbsp; $q = 0.8$?
 
|type="[]"}
 
|type="[]"}
- die rote Quellensymbolfolge&nbsp; '''1''',
+
- the red source symbol sequence&nbsp; '''1''',
+ die blaue Quellensymbolfolge&nbsp; '''2'''.
+
+ the blue source symbol sequence&nbsp; '''2'''.
  
  
{Welche der folgenden Aussagen treffen zu?
+
{Which of the following statements are true?
 
|type="[]"}
 
|type="[]"}
- Auch die direkte Anwendung von Huffman ist hier sinnvoll.
+
- The direct application of Huffman is also useful here.
+ Huffman macht bei Bildung von Zweiertupeln&nbsp; $(k = 2)$&nbsp; Sinn.
+
+ Huffman makes sense when forming two-tuples&nbsp; $(k = 2)$&nbsp; Sinn.
+ Huffman macht bei Bildung von Dreiertupeln&nbsp; $(k = 3)$&nbsp; Sinn.
+
+ Huffman makes sense when forming tuples of three&nbsp; $(k = 3)$&nbsp; Sinn.
  
  
{Wie lauten die Wahrscheinlichkeiten der <u>Zweiertupel</u>&nbsp; $(k = 2)$&nbsp; für &nbsp;$\underline{q = 0.8}$?
+
{What are the probabilities of <u>two-tuples</u>&nbsp; $(k = 2)$&nbsp; for &nbsp;$\underline{q = 0.8}$?
 
|type="{}"}
 
|type="{}"}
 
$p_{\rm A} = \rm Pr(XX)\ = \ $ { 0.4 3% }
 
$p_{\rm A} = \rm Pr(XX)\ = \ $ { 0.4 3% }
Line 65: Line 65:
  
  
{Ermitteln Sie den Huffman&ndash;Code für&nbsp; $\underline{k = 2}$.&nbsp; Wie groß ist in diesem Fall die mittlere Codewortlänge?
+
Find the Huffman code for&nbsp; $\underline{k = 2}$.&nbsp; What is the mean codeword length in this case?
 
|type="{}"}
 
|type="{}"}
$L_{\rm M} \ = \ $ { 0.9 3% } $\ \rm bit/Quellensymbol$
+
$L_{\rm M} \ = \ $ { 0.9 3% } $\ \rm bit/source symbol$
  
  
{Welche Schranke ergibt sich für die mittlere Codewortlänge, wenn <u>Zweiertupel</u> gebildet werden&nbsp; $(k = 2)$? Interpretation.
+
{What is the bound on the mean codeword length when <u>two-tuples</u> are formed&nbsp; $(k = 2)$? Interpretation.
 
|type="()"}
 
|type="()"}
- $L_{\rm M} \ge H_1 =  1.000$&nbsp; bit/Quellensymbol,
+
- $L_{\rm M} \ge H_1 =  1.000$&nbsp; bit/source symbol,
+ $L_{\rm M} \ge H_2 \approx  0.861$&nbsp; bit/Quellensymbol,
+
+ $L_{\rm M} \ge H_2 \approx  0.861$&nbsp; bit/source symbol,
- $L_{\rm M} \ge H_3 \approx  0.815$&nbsp; bit/Quellensymbol,  
+
- $L_{\rm M} \ge H_3 \approx  0.815$&nbsp; bit/source symbol,  
- $L_{\rm M} \ge H_{k \to \infty} \approx  0.722$&nbsp; bit/Quellensymbol,  
+
- $L_{\rm M} \ge H_{k \to \infty} \approx  0.722$&nbsp; bit/source symbol,  
- $L_{\rm M} \ge 0.5$&nbsp; bit/Quellensymbol.
+
- $L_{\rm M} \ge 0.5$&nbsp; bit/source symbol.
  
  
{Berechnen Sie die Wahrscheinlichkeiten der <u>Dreiertupel</u>&nbsp; $(k = 3)$&nbsp; für &nbsp;$\underline{q = 0.8}$?
+
{Calculate the probabilities of the <u>triples</u>&nbsp; $(k = 3)$&nbsp; for &nbsp;$\underline{q = 0.8}$?
 
|type="{}"}
 
|type="{}"}
 
$p_{\rm A} = \rm Pr(XXX)\ = \ $ { 0.32 3% }
 
$p_{\rm A} = \rm Pr(XXX)\ = \ $ { 0.32 3% }
Line 91: Line 91:
  
  
{Ermitteln Sie den Huffman&ndash;Code für $\underline{k = 3}$.&nbsp; Wie groß ist in diesem Fall die mittlere Codewortlänge?
+
{Find the Huffman code for $\underline{k = 3}$.&nbsp; What is the mean codeword length in this case?
 
|type="{}"}
 
|type="{}"}
$L_{\rm M} \ = \ $ { 0.84 3% } $\ \rm bit/Quellensymbol$
+
$L_{\rm M} \ = \ $ { 0.84 3% } $\ \rm bit/source symbol$
  
  
Line 99: Line 99:
 
</quiz>
 
</quiz>
  
===Musterlösung===
+
===Solution===
 
{{ML-Kopf}}
 
{{ML-Kopf}}
 
'''(1)'''&nbsp; Richtig ist der  <u>Lösungsvorschlag 2</u>:
 
'''(1)'''&nbsp; Richtig ist der  <u>Lösungsvorschlag 2</u>:

Revision as of 20:52, 4 August 2021

Binary symmetric Markov source

We consider the binary symmetric Markov source according to the graph, which is given by the single parameter

$$q = {\rm Pr}(\boldsymbol{\rm X}\hspace{0.05cm}|\hspace{0.05cm}\boldsymbol{\rm X}) = {\rm Pr}(\boldsymbol{\rm Y}\hspace{0.05cm}|\hspace{0.05cm}\boldsymbol{\rm Y})$$

completely.

  • The given source symbol sequences apply to the conditional probabilities  $q = 0.2$  bzw.  $q = 0.8$, respectively.
  • In subtask  (1)  it has to be clarified which symbol sequence – the red or the blue one – was generated with  $q = 0.2$  and which with  $q = 0.8$ .


The properties of Markov sources are described in detail in the chapter  Message Sources with Memory .  Due to the symmetry assumed here with regard to the binary symbols  $\rm X$  and  $\rm Y$ , some serious simplifications result, as is derived in  exercise 1.5Z :

  • The symbols  $\rm X$  and  $\rm Y$  are equally probable, that is,  $p_{\rm X} = p_{\rm Y} = 0.5$ holds. 
    Thus the first entropy approximation is:   $H_1 = 1\,\,{\rm bit/source   symbol}\hspace{0.05cm}. $
  • The entropy of the Markov source for  $q = 0.2$  as well as for  $q = 0.8$  results in
$$H = q \cdot {\rm log_2}\hspace{0.15cm}\frac{1}{q} + (1-q) \cdot {\rm log_2}\hspace{0.15cm}\frac{1}{1-q} = 0.722\,\,{\rm bit/source symbol}\hspace{0.05cm}.$$
  • For Markov sources, all entropy approximations  $H_k$  with order  $k \ge 2$  are determined by  $H_1$  and  $H = H_{k \to \infty}$ :
$$H_k = {1}/{k}\cdot \big [ H_1 + H \big ] \hspace{0.05cm}.$$
  • The following numerical values again apply equally to  $q = 0.2$  and  $q = 0.8$ :
$$H_2 = {1}/{2}\cdot \big [ H_1 + H \big ] = 0.861\,\,{\rm bit/source symbol}\hspace{0.05cm},$$
$$H_3 = {1}/{3} \cdot \big [ H_1 + 2H \big ] = 0.815\,\,{\rm bit/source symbol}\hspace{0.05cm}.$$

In this exercise, the Huffman algorithm is to be applied to  $k$–tuples, where we restrict ourselves to  $k = 2$  and  $k = 3$ .





Hints:



Questions

1

Which of the example sequences given at the front is true for  $q = 0.8$?

the red source symbol sequence  1,
the blue source symbol sequence  2.

2

Which of the following statements are true?

The direct application of Huffman is also useful here.
Huffman makes sense when forming two-tuples  $(k = 2)$  Sinn.
Huffman makes sense when forming tuples of three  $(k = 3)$  Sinn.

3

What are the probabilities of two-tuples  $(k = 2)$  for  $\underline{q = 0.8}$?

$p_{\rm A} = \rm Pr(XX)\ = \ $

$p_{\rm B} = \rm Pr(XY)\ = \ $

$p_{\rm C} = \rm Pr(YX)\ = \ $

$p_{\rm D} = \rm Pr(YY)\ = \ $

Find the Huffman code for  $\underline{k = 2}$.  What is the mean codeword length in this case?
|type="{}"}
$L_{\rm M} \ = \ $

$\ \rm bit/source symbol$

4

What is the bound on the mean codeword length when two-tuples are formed  $(k = 2)$? Interpretation.

$L_{\rm M} \ge H_1 = 1.000$  bit/source symbol,
$L_{\rm M} \ge H_2 \approx 0.861$  bit/source symbol,
$L_{\rm M} \ge H_3 \approx 0.815$  bit/source symbol,
$L_{\rm M} \ge H_{k \to \infty} \approx 0.722$  bit/source symbol,
$L_{\rm M} \ge 0.5$  bit/source symbol.

5

Calculate the probabilities of the triples  $(k = 3)$  for  $\underline{q = 0.8}$?

$p_{\rm A} = \rm Pr(XXX)\ = \ $

$p_{\rm B} = \rm Pr(XXY)\ = \ $

$p_{\rm C} = \rm Pr(XYX)\ = \ $

$p_{\rm D} = \rm Pr(XYY)\ = \ $

$p_{\rm E} = \rm Pr(YXX)\ = \ $

$p_{\rm F} = \rm Pr(YXY)\ = \ $

$p_{\rm G} = \rm Pr(YYX)\ = \ $

$p_{\rm H} = \rm Pr(YYY)\ = \ $

6

Find the Huffman code for $\underline{k = 3}$.  What is the mean codeword length in this case?

$L_{\rm M} \ = \ $

$\ \rm bit/source symbol$


Solution

(1)  Richtig ist der Lösungsvorschlag 2:

  • Bei der blauen Quellensymbolfolge  2  erkennt man sehr viel weniger Symbolwechsel als in der roten Folge.
  • Die Symbolfolge  2  wurde mit dem Parameter  $q = {\rm Pr}(\boldsymbol{\rm X}\hspace{0.05cm}|\hspace{0.05cm}\boldsymbol{\rm X}) = {\rm Pr}(\boldsymbol{\rm Y}\hspace{0.05cm}|\hspace{0.05cm}\boldsymbol{\rm Y}) = 0.8$  erzeugt und die rote Symbolfolge  1  mit  $q = 0.2$.


(2)  Richtig sind die Antworten 2 und 3.:

  • Da hier die Quellensymbole  $\rm X$  und  $\rm Y$  als gleichwahrscheinlich angenommen wurden, macht die direkte Anwendung von Huffman keinen Sinn.
  • Dagegen kann man die inneren statistischen Bindungen der Markovquelle zur Datenkomprimierung nutzen, wenn man  $k$–Tupel bildet  $(k ≥ 2)$.
  • Je größer  $k$  ist, desto mehr nähert sich die mittlere Codewortlänge  $L_{\rm M}$  der Entropie  $H$.


(3)  Die Symbolwahrscheinlichkeiten sind  $p_{\rm X} = p_{\rm Y} = 0.5$.  Damit erhält man für die Zweiertupel:

$$p_{\rm A} \hspace{0.2cm} = \hspace{0.2cm} {\rm Pr}(\boldsymbol{\rm XX}) = p_{\rm X} \cdot {\rm Pr}(\boldsymbol{\rm X}\hspace{0.05cm}|\hspace{0.05cm}\boldsymbol{\rm X}) = 0.5 \cdot q = 0.5 \cdot 0.8 \hspace{0.15cm}\underline{ = 0.4} \hspace{0.05cm},$$
$$p_{\rm B} \hspace{0.2cm} = \hspace{0.2cm} {\rm Pr}(\boldsymbol{\rm XY}) = p_{\rm X} \cdot {\rm Pr}(\boldsymbol{\rm Y}\hspace{0.05cm}|\hspace{0.05cm}\boldsymbol{\rm X}) = 0.5 \cdot (1-q)= 0.5 \cdot 0.2 \hspace{0.15cm}\underline{ = 0.1} \hspace{0.05cm},$$
$$p_{\rm C} \hspace{0.2cm} = \hspace{0.2cm} {\rm Pr}(\boldsymbol{\rm YX}) = p_{\rm Y} \cdot {\rm Pr}(\boldsymbol{\rm X}\hspace{0.05cm}|\hspace{0.05cm}\boldsymbol{\rm Y}) = 0.5 \cdot (1-q)= 0.5 \cdot 0.2 \hspace{0.15cm}\underline{ = 0.1} \hspace{0.05cm},$$
$$p_{\rm D} \hspace{0.2cm} = \hspace{0.2cm} {\rm Pr}(\boldsymbol{\rm YY}) = p_{\rm Y} \cdot {\rm Pr}(\boldsymbol{\rm Y}\hspace{0.05cm}|\hspace{0.05cm}\boldsymbol{\rm Y}) = 0.5 \cdot q = 0.5 \cdot 0.8\hspace{0.15cm}\underline{ = 0.4} \hspace{0.05cm}.$$


Zur Huffman–Codierung für $k = 2$

(4)  Nebenstehender Bildschirmabzug des (früheren) SWF–Programms  Shannon–Fano– und Huffman–Codierung  zeigt die Konstruktion des Huffman–Codes für  $k = 2$  mit den soeben berechneten Wahrscheinlichkeiten.

  • Damit gilt für die mittlere Codewortlänge:
$$L_{\rm M}\hspace{0.01cm}' = 0.4 \cdot 1 + 0.4 \cdot 2 + (0.1 + 0.1) \cdot 3 = 1.8\,\,{\rm bit/Zweiertupel}$$
$$\Rightarrow\hspace{0.3cm}L_{\rm M} = {L_{\rm M}\hspace{0.01cm}'}/{2}\hspace{0.15cm}\underline{ = 0.9\,{\rm bit/Quellensymbol}}\hspace{0.05cm}.$$


(5)  Richtig iist der Lösungsvorschlag 2:

  • Nach dem Quellencodierungstheorem gilt  $L_{\rm M} ≥ H$.
  • Wendet man aber Huffman–Codierung an und lässt dabei Bindungen zwischen nicht benachbarten Symbolen außer Betracht  $(k = 2)$, so gilt als unterste Grenze der Codewortlänge nicht  $H = 0.722$, sondern  $H_2 = 0.861$  (auf den Zusatz bit/Quellensymbol wird für den Rest der Aufgabe verzichtet).
  • Das Ergebnis der Teilaufgabe  (4)  war  $L_{\rm M} = 0.9.$
  • Würde eine unsymmetrische Markovkette vorliegen und zwar derart, dass sich für die Wahrscheinlichkeiten  $p_{\rm A}$, ... , $p_{\rm D}$  die Werte  $50\%$,  $25\%$  und zweimal  $12.5\%$  ergeben würden, so käme man auf die mittlere Codewortlänge  $L_{\rm M} = 0.875$.
  • Wie die genauen Parameter dieser unsymmetrischen Markovquelle aussehen, weiß aber auch der Aufgabensteller (G. Söder) nicht.
  • Auch nicht, wie sich der Wert  $0.875$  auf  $0.861$  senken ließe. Der Huffman–Algorithmus ist hierfür jedenfalls ungeeignet.


(6)  Mit  $q = 0.8$  und  $1 - q = 0.2$  erhält man:

$$p_{\rm A} \hspace{0.2cm} = \hspace{0.2cm} {\rm Pr}(\boldsymbol{\rm XXX}) = 0.5 \cdot q^2 \hspace{0.15cm}\underline{ = 0.32} = p_{\rm H} = {\rm Pr}(\boldsymbol{\rm YYY})\hspace{0.05cm},$$
$$p_{\rm B} \hspace{0.2cm} = \hspace{0.2cm} {\rm Pr}(\boldsymbol{\rm XXY}) = 0.5 \cdot q \cdot (1-q) \hspace{0.15cm}\underline{ = 0.08}= p_{\rm G} = {\rm Pr}(\boldsymbol{\rm YYX}) \hspace{0.05cm},$$
$$p_{\rm C} \hspace{0.2cm} = \hspace{0.2cm} {\rm Pr}(\boldsymbol{\rm XYX}) = 0.5 \cdot (1-q)^2\hspace{0.15cm}\underline{ = 0.02} = p_{\rm F}= {\rm Pr}(\boldsymbol{\rm YXY}) \hspace{0.05cm},$$
$$p_{\rm D} \hspace{0.2cm} = \hspace{0.2cm} {\rm Pr}(\boldsymbol{\rm XYY}) = 0.5 \cdot (1-q) \cdot q \hspace{0.15cm}\underline{ = 0.08} = p_{\rm E} = {\rm Pr}(\boldsymbol{\rm YXX})\hspace{0.05cm}.$$


(7)  Der Bildschirmabzug des des (früheren) SWF–Programms  Shannon–Fano– und Huffman–Codierung  verdeutlicht die Konstellation des Huffman–Codes für  $k = 3$.  Damit erhält man für die mittlere Codewortlänge:

$$L_{\rm M}\hspace{0.01cm}' = 0.64 \cdot 2 + 0.24 \cdot 3 + 0.04 \cdot 5 = 2.52\,\,{\rm bit/Dreiertupel}\hspace{0.3cm} \Rightarrow\hspace{0.3cm}L_{\rm M} = {L_{\rm M}\hspace{0.01cm}'}/{3}\hspace{0.15cm}\underline{ = 0.84\,{\rm bit/Quellensymbol}}\hspace{0.05cm}.$$
Zur Huffman–Codierung für $k = 3$
  • Man erkennt die Verbesserung gegenüber der Teilaufgabe  (4).
  • Die für  $k = 2$  gültige Schranke  $H_2 = 0.861$  wird nun von der mittleren Codewortlänge  $L_{\rm M}$  unterschritten.
  • Die neue Schranke für  $k = 3$  ist  $H_3 = 0.815$.
  • Um die Quellenentropie  $H = 0.722$  zu erreichen  (besser gesagt:  diesem Endwert bis auf ein  $ε$  nahe zu kommen), müsste man allerdings unendlich lange Tupel bilden  $(k → ∞)$.