Difference between revisions of "Digital Signal Transmission/Basics of Coded Transmission"
Line 25: | Line 25: | ||
:<math>H = \sum_{\mu = 1}^M p_{ \mu} \cdot {\rm log_2}\hspace{0.1cm} \frac{1}{p_{ \mu}}\hspace{0.05cm}.</math><br> | :<math>H = \sum_{\mu = 1}^M p_{ \mu} \cdot {\rm log_2}\hspace{0.1cm} \frac{1}{p_{ \mu}}\hspace{0.05cm}.</math><br> | ||
Bestehen dagegen statistische Bindungen zwischen benachbarten Amplitudenkoeffizienten <i>a<sub>ν</sub></i>, so muss zur Entropieberechnung die kompliziertere Definitionsgleichung herangezogen werden.<br> | Bestehen dagegen statistische Bindungen zwischen benachbarten Amplitudenkoeffizienten <i>a<sub>ν</sub></i>, so muss zur Entropieberechnung die kompliziertere Definitionsgleichung herangezogen werden.<br> | ||
+ | |||
+ | |||
+ | == Informationsgehalt – Entropie – Redundanz (2) == | ||
+ | <br> | ||
+ | Der Maximalwert der Entropie ergibt sich immer dann, wenn die <i>M</i> Auftrittswahrscheinlichkeiten (der statistisch unabhängigen Symbole) alle gleich sind (<i>p<sub>μ</sub></i> = 1/<i>M</i>):<br><br> | ||
+ | <math>H_{\rm max} = \sum_{\mu = 1}^M \hspace{0.1cm}\frac{1}{M} \cdot {\rm log_2} (M) = {\rm log_2} (M) \cdot \sum_{\mu = 1}^M \hspace{0.1cm} \frac{1}{M} = {\rm log_2} (M) | ||
+ | \hspace{1cm}{\rm (Einheit: \hspace{0.15cm}bit)}\hspace{0.05cm}.</math><br><br> | ||
+ | Man bezeichnet <i>H</i><sub>max</sub> als den Entscheidungsgehalt (bzw. als Nachrichtengehalt) und den Quotienten<br><br> | ||
+ | <math>r = \frac{H_{\rm max}-H}{H_{\rm max}}</math><br><br> | ||
+ | als dierelative Redundanz. Da stets 0 ≤ <i>H</i> ≤ <i>H</i><sub>max</sub> gilt, kann die relative Redundanz Werte zwischen 0 und 1 (einschließlich dieser Grenzwerte) annehmen.<br><br> | ||
+ | Aus der Herleitung dieser Beschreibungsgrößen ist offensichtlich, dass ein redundanzfreies Digitalsignal (<i>r</i> = 0) folgende Eigenschaften erfüllen muss: | ||
+ | *Die Amplitudenkoeffizienten <i>a<sub>ν</sub></i> sind statistisch unabhängig; Pr(<i>a<sub>ν</sub></i> = <i>a<sub>μ</sub></i>) ist für alle <i>ν</i> identisch.<br> | ||
+ | *Die <i>M</i> möglichen Koeffizienten <i>a<sub>μ</sub></i> treten mit gleicher Wahrscheinlichkeit <i>p<sub>μ</sub></i> = 1/<i>M</i> auf.<br><br> | ||
+ | |||
+ | {{Beispiel}}''':''' Analysiert man einen zur Übertragung anstehenden deutschen Text auf der Basis von <i>M</i> = 32 Zeichen (a, ... , z, ä, ö, ü, ß, Leerzeichen, Interpunktion, keine Unterscheidung zwischen Groß– und Kleinschreibung), so ergibt sich der Entscheidungsgehalt <i>H</i><sub>max</sub> = 5 bit/Symbol. Aufgrund | ||
+ | *der unterschiedlichen Häufigkeiten (beispielsweise tritt „e” deutlich häufiger auf als „u”) und<br> | ||
+ | *von statistischen Bindungen (zum Beispiel folgt auf „q” der Buchstabe „u” viel öfters als „e”)<br> | ||
+ | beträgt nach Karl Küpfmüller die Entropie der deutschen Sprache nur <i>H</i> = 1.3 bit/Zeichen. Daraus ergibt sich die relative Redundanz zu <i>r</i> ≈ (5 – 1.3)/5 = 74%. Für englische Texte wurde von Claude E. Shannon die Entropie mit <i>H</i> = 1 bit/Zeichen angegeben (<i>r</i> = 80%). | ||
+ | {{end}} | ||
+ | <br> | ||
Revision as of 18:12, 20 December 2016
Informationsgehalt – Entropie – Redundanz (1)
Wir gehen von einer M–stufigen digitalen Nachrichtenquelle aus, die das Quellensignal
\(q(t) = \sum_{(\nu)} a_\nu \cdot {\rm \delta} ( t - \nu \cdot T)\hspace{0.3cm}{\rm mit}\hspace{0.3cm}a_\nu \in \{ a_1, ... , a_\mu , ... , a_{ M}\}\)
abgibt. Die Quellensymbolfolge 〈qν〉 ist auf die Folge 〈aν〉 der dimensionslosen Amplitudenkoeffizienten abgebildet. Vereinfachend wird zunächst für die Zeitlaufvariable ν = 1, ... , N gesetzt, während der Vorratsindex μ stets Werte zwischen 1 und M annehmen kann.
Ist das ν–te Folgenelement gleich aμ, so kann dessen Informationsgehalt mit der Wahrscheinlichkeit pνμ = Pr(aν = aμ) wie folgt berechnet werden:
\[I_\nu = \log_2 \frac{1}{p_{\nu \mu}}= {\rm ld} \frac{1}{p_{\nu \mu}} \hspace{1cm}{\rm (Einheit: \hspace{0.15cm}bit)}\hspace{0.05cm}.\]
Der Logarithmus zur Basis 2 ⇒ log2 wird oft auch mit „ld(x)” ⇒ Logarithmus dualis bezeichnet. Bei der numerischen Auswertung wird die Hinweiseinheit „bit” hinzugefügt. Mit dem Zehner-Logarithmus lg(x) bzw. dem natürlichen Logarithmus ln(x) gilt:
\[{\rm log_2}(x) = \frac{{\rm lg}(x)}{{\rm lg}(2)}= \frac{{\rm ln}(x)}{{\rm ln}(2)}\hspace{0.05cm}.\]
Nach dieser auf C. E. Shannon zurückgehenden Definition von Information ist der Informationsgehalt eines Symbols umso größer, je kleiner dessen Auftrittswahrscheinlichkeit ist.
\[H = \lim_{N \to \infty} \frac{1}{N} \cdot \sum_{\nu = 1}^N I_\nu =
\lim_{N \to \infty} \frac{1}{N} \cdot \sum_{\nu = 1}^N \hspace{0.1cm}{\rm log_2}\hspace{0.05cm} \frac{1}{p_{\nu \mu}} \hspace{1cm}{\rm (Einheit: \hspace{0.15cm}bit)}\hspace{0.05cm}.\]
Natürlich kann die Entropie auch durch Scharmittelung berechnet werden.
Sind die Folgenelemente aν statistisch voneinander unabhängig, so sind die Auftrittswahrscheinlichkeiten pνμ = pμ unabhängig von ν und man erhält in diesem Sonderfall für die Entropie:
\[H = \sum_{\mu = 1}^M p_{ \mu} \cdot {\rm log_2}\hspace{0.1cm} \frac{1}{p_{ \mu}}\hspace{0.05cm}.\]
Bestehen dagegen statistische Bindungen zwischen benachbarten Amplitudenkoeffizienten aν, so muss zur Entropieberechnung die kompliziertere Definitionsgleichung herangezogen werden.
Informationsgehalt – Entropie – Redundanz (2)
Der Maximalwert der Entropie ergibt sich immer dann, wenn die M Auftrittswahrscheinlichkeiten (der statistisch unabhängigen Symbole) alle gleich sind (pμ = 1/M):
\(H_{\rm max} = \sum_{\mu = 1}^M \hspace{0.1cm}\frac{1}{M} \cdot {\rm log_2} (M) = {\rm log_2} (M) \cdot \sum_{\mu = 1}^M \hspace{0.1cm} \frac{1}{M} = {\rm log_2} (M)
\hspace{1cm}{\rm (Einheit: \hspace{0.15cm}bit)}\hspace{0.05cm}.\)
Man bezeichnet Hmax als den Entscheidungsgehalt (bzw. als Nachrichtengehalt) und den Quotienten
\(r = \frac{H_{\rm max}-H}{H_{\rm max}}\)
als dierelative Redundanz. Da stets 0 ≤ H ≤ Hmax gilt, kann die relative Redundanz Werte zwischen 0 und 1 (einschließlich dieser Grenzwerte) annehmen.
Aus der Herleitung dieser Beschreibungsgrößen ist offensichtlich, dass ein redundanzfreies Digitalsignal (r = 0) folgende Eigenschaften erfüllen muss:
- Die Amplitudenkoeffizienten aν sind statistisch unabhängig; Pr(aν = aμ) ist für alle ν identisch.
- Die M möglichen Koeffizienten aμ treten mit gleicher Wahrscheinlichkeit pμ = 1/M auf.
- der unterschiedlichen Häufigkeiten (beispielsweise tritt „e” deutlich häufiger auf als „u”) und
- von statistischen Bindungen (zum Beispiel folgt auf „q” der Buchstabe „u” viel öfters als „e”)
beträgt nach Karl Küpfmüller die Entropie der deutschen Sprache nur H = 1.3 bit/Zeichen. Daraus ergibt sich die relative Redundanz zu r ≈ (5 – 1.3)/5 = 74%. Für englische Texte wurde von Claude E. Shannon die Entropie mit H = 1 bit/Zeichen angegeben (r = 80%).
\(\)
[[File:||class=fit]]