Difference between revisions of "Modulation Methods/Pulse Code Modulation"
Line 2: | Line 2: | ||
{{Header | {{Header | ||
|Untermenü=Digital Modulation Methods | |Untermenü=Digital Modulation Methods | ||
− | |Vorherige Seite= | + | |Vorherige Seite=Influence of Noise on Systems with Angle Modulation |
− | |Nächste Seite= | + | |Nächste Seite=Linear Digital Modulation |
}} | }} | ||
− | == # | + | == # OVERVIEW OF THE FOURTH MAIN CHAPTER # == |
<br> | <br> | ||
− | + | The fourth chapter deals with the digital modulation methods ''Amplitude Shift Keying'' (ASK), ''Phase Shift Keying'' (PSK) and ''Frequency Shift Keying'' (FSK) as well as some modifications derived from them. Most of the properties of the analog modulation methods mentioned in the last two chapters still apply. Differences result from the now required decision component of the receiver. | |
− | + | We restrict ourselves here essentially to the system-theoretical and transmission aspects. The error probability is given only for ideal conditions. The derivations and the consideration of non-ideal boundary conditions can be found in the book "Digital Signal Transmission". | |
− | + | In detail are treated: | |
− | * | + | *the ''Pulse Code Modulation'' (PCM) and its components sampling - quantization - coding, |
− | * | + | *the ''linear modulation'' ASK, BPSK and DPSK and associated demodulators, |
− | * | + | * the ''quadrature amplitude modulation'' (QAM) and more complicated signal space mappings, |
− | * | + | *the FSK - ''Frequency Shift Keying'' as an example of nonlinear digital modulation, |
− | * | + | *the FSK with ''continuous phase matching'', especially the (G)MSK method. |
− | + | ==Principle and block diagram== | |
− | == | ||
<br> | <br> | ||
− | + | Almost all modulation methods used today work digitally. Their advantages have already been mentioned in [[Modulation_Methods/Objectives_of_Modulation_and_Demodulation#Advantages_of_digital_modulation_methods|first chapter]] this book. The first concept for digital signal transmission was already developed in 1938 by [https://en.wikipedia.org/wiki/Alec_Reeves Alec Reeves] and has also been used in practice since the 1960s under the name ''Pulse Code Modulation'' $\rm (PCM)$ Even though many of the digital modulation methods conceived in recent years differ from PCM in detail, it is very well suited to explain the principle of all these methods. | |
[[File:EN_Mod_T_4_1_S1_v2.png|right|frame|Principle of Pulse Code Modulation $\rm (PCM)]$]] | [[File:EN_Mod_T_4_1_S1_v2.png|right|frame|Principle of Pulse Code Modulation $\rm (PCM)]$]] | ||
− | + | The exercise of the PCM system is to, | |
− | * | + | *convert the analog source signal $q(t)$ into the binary signal $q_{\rm C}(t)$ - this process is also called '''A/D conversion''', |
− | * | + | *transmitting this signal over the channel, where the receiver side signal $v_{\rm C}(t)$ is also binary because of the decision maker, |
− | * | + | *to reconstruct exclusively from the binary signal $v_{\rm C}(t)$ the analog as well as value and time continuous sink signal $v(t)$ ⇒ '''D/A conversion'''. |
− | + | Further to the above PCM block diagram, it should be noted: | |
− | * | + | *The PCM transmitter (or the A/D converter) is composed of the three function blocks ''Sampling - Quantization - PCM Coding'' which will be described in more detail in the next sections. |
− | * | + | *The block with gray background shows the digital transmission system with digital transmitter and receiver (the latter also includes a decision maker), and the analog transmission channel, characterized by the frequency response $H_{\rm K}(f)$ and the noise power density ${\it Φ}_n(f)$. |
− | * | + | *This block is covered in detail in the first three chapters of the book [[Digital_Signal_Transmission]] In chapter 5 of the same book, you will also find digital channel models that phenomenologically describe the transmission behavior using the binary signals $q_{\rm C}(t)$ and $v_{\rm C}(t)$ . |
− | * | + | *Further, it can be seen from the above block diagram that there is no equivalent for quantization at the receiver end Therefore, even with error-free transmission, i.e., for $v_{\rm C}(t) = q_{\rm C}(t)$, the analog sink signal $v(t)$ will differ from the source signal $q(t)$ . |
− | * | + | *As a measure of the quality of the (digital) transmission system, we use the [[Modulation_Methods/Quality_Criteria#Signal.E2.80.93to.E2.80.93noise_.28power.29_ratio|Signal-to-Noise Power Ratio]] ⇒ in short: '''Sink-SNR''' as the quotient of the powers of useful signal $q(t)$ and fault signal $ε(t) = v(t) - q(t)$: |
− | :$$\rho_{v} = \frac{P_q}{P_\varepsilon}\hspace{0.3cm} | + | :$$\rho_{v} = \frac{P_q}{P_\varepsilon}\hspace{0.3cm} {\rm with}\hspace{0.3cm}P_q = \overline{[q(t)]^2}, |
\hspace{0.2cm}P_\varepsilon = \overline{[v(t) - q(t)]^2}\hspace{0.05cm}.$$ | \hspace{0.2cm}P_\varepsilon = \overline{[v(t) - q(t)]^2}\hspace{0.05cm}.$$ | ||
− | * | + | *Here, an ideal amplitude matching is assumed, so that in the ideal case (that is: sampling according to the sampling theorem, best possible signal reconstruction, infinitely fine quantization) the sink signal $v(t)$ would exactly match the source signal $q(t)$ . |
− | + | We would like to refer you already here to the three-part learning video [[Pulscodemodulation_(Lernvideo)|Pulse Code Modulation]] which contains all aspects of PCM. Its principle is explained in detail in the first part of the video. | |
==Abtastung und Signalrekonstruktion== | ==Abtastung und Signalrekonstruktion== |
Revision as of 13:00, 15 March 2022
Contents
- 1 # OVERVIEW OF THE FOURTH MAIN CHAPTER #
- 2 Principle and block diagram
- 3 Abtastung und Signalrekonstruktion
- 4 Natürliche und diskrete Abtastung
- 5 Frequenzbereichsbetrachtung der natürlichen Abtastung
- 6 Frequenzbereichsbetrachtung der diskreten Abtastung
- 7 Quantization and quantization noise
- 8 PCM–Codierung und –Decodierung
- 9 Signal–zu–Rausch–Leistungsverhältnis
- 10 Einfluss von Übertragungsfehlern
- 11 Abschätzung der SNR-Degradation durch Übertragungsfehler
- 12 Nichtlineare Quantisierung
- 13 Kompression und Expandierung
- 14 Aufgaben zum Kapitel
# OVERVIEW OF THE FOURTH MAIN CHAPTER #
The fourth chapter deals with the digital modulation methods Amplitude Shift Keying (ASK), Phase Shift Keying (PSK) and Frequency Shift Keying (FSK) as well as some modifications derived from them. Most of the properties of the analog modulation methods mentioned in the last two chapters still apply. Differences result from the now required decision component of the receiver.
We restrict ourselves here essentially to the system-theoretical and transmission aspects. The error probability is given only for ideal conditions. The derivations and the consideration of non-ideal boundary conditions can be found in the book "Digital Signal Transmission".
In detail are treated:
- the Pulse Code Modulation (PCM) and its components sampling - quantization - coding,
- the linear modulation ASK, BPSK and DPSK and associated demodulators,
- the quadrature amplitude modulation (QAM) and more complicated signal space mappings,
- the FSK - Frequency Shift Keying as an example of nonlinear digital modulation,
- the FSK with continuous phase matching, especially the (G)MSK method.
Principle and block diagram
Almost all modulation methods used today work digitally. Their advantages have already been mentioned in first chapter this book. The first concept for digital signal transmission was already developed in 1938 by Alec Reeves and has also been used in practice since the 1960s under the name Pulse Code Modulation $\rm (PCM)$ Even though many of the digital modulation methods conceived in recent years differ from PCM in detail, it is very well suited to explain the principle of all these methods.
The exercise of the PCM system is to,
- convert the analog source signal $q(t)$ into the binary signal $q_{\rm C}(t)$ - this process is also called A/D conversion,
- transmitting this signal over the channel, where the receiver side signal $v_{\rm C}(t)$ is also binary because of the decision maker,
- to reconstruct exclusively from the binary signal $v_{\rm C}(t)$ the analog as well as value and time continuous sink signal $v(t)$ ⇒ D/A conversion.
Further to the above PCM block diagram, it should be noted:
- The PCM transmitter (or the A/D converter) is composed of the three function blocks Sampling - Quantization - PCM Coding which will be described in more detail in the next sections.
- The block with gray background shows the digital transmission system with digital transmitter and receiver (the latter also includes a decision maker), and the analog transmission channel, characterized by the frequency response $H_{\rm K}(f)$ and the noise power density ${\it Φ}_n(f)$.
- This block is covered in detail in the first three chapters of the book Digital Signal Transmission In chapter 5 of the same book, you will also find digital channel models that phenomenologically describe the transmission behavior using the binary signals $q_{\rm C}(t)$ and $v_{\rm C}(t)$ .
- Further, it can be seen from the above block diagram that there is no equivalent for quantization at the receiver end Therefore, even with error-free transmission, i.e., for $v_{\rm C}(t) = q_{\rm C}(t)$, the analog sink signal $v(t)$ will differ from the source signal $q(t)$ .
- As a measure of the quality of the (digital) transmission system, we use the Signal-to-Noise Power Ratio ⇒ in short: Sink-SNR as the quotient of the powers of useful signal $q(t)$ and fault signal $ε(t) = v(t) - q(t)$:
- $$\rho_{v} = \frac{P_q}{P_\varepsilon}\hspace{0.3cm} {\rm with}\hspace{0.3cm}P_q = \overline{[q(t)]^2}, \hspace{0.2cm}P_\varepsilon = \overline{[v(t) - q(t)]^2}\hspace{0.05cm}.$$
- Here, an ideal amplitude matching is assumed, so that in the ideal case (that is: sampling according to the sampling theorem, best possible signal reconstruction, infinitely fine quantization) the sink signal $v(t)$ would exactly match the source signal $q(t)$ .
We would like to refer you already here to the three-part learning video Pulse Code Modulation which contains all aspects of PCM. Its principle is explained in detail in the first part of the video.
Abtastung und Signalrekonstruktion
Die Abtastung – also die Zeitdiskretisierung des Analogsignals $q(t)$ – wurde im Kapitel Zeitdiskrete Signaldarstellung des Buches „Signaldarstellung” ausführlich behandelt. Hier folgt eine Kurzzusammenfassung dieses Abschnitts.
Die Grafik verdeutlicht die Abtastung im Zeitbereich. Das (blaue) Signal $q(t)$ ist zeitkontinuierlich, das im Abstand $T_{\rm A}$ abgetastete (grüne) Signal $q_{\rm A}(t)$ zeitdiskret. Dabei gilt:
- Die Abtastung lässt sich durch die Multiplikation des Analogsignals $q(t)$ mit dem Diracpuls im Zeitbereich ⇒ $p_δ(t)$ darstellen:
- $$q_{\rm A}(t) = q(t) \cdot p_{\delta}(t)\hspace{0.3cm} {\rm mit}\hspace{0.3cm}p_{\delta}(t)= \sum_{\nu = -\infty}^{\infty}T_{\rm A}\cdot \delta(t - \nu \cdot T_{\rm A}) \hspace{0.05cm}.$$
- Das Gewicht der Diracfunktion bei $t = ν · T_{\rm A}$ ist gleich $T_{\rm A} · q(ν · T_{\rm A})$. Da die Diracfunktion $δ(t)$ die Einheit $\rm 1/s$ aufweist, hat somit $q_{\rm A}(t)$ die gleiche Einheit wie $q(t)$, zum Beispiel „V”.
- Die Fouriertransformierte des Diracpulses $p_δ(t)$ ist ebenfalls ein Diracpuls (aber nun im Frequenzbereich) ⇒ $P_δ(f)$, wobei der Abstand der einzelnen Diraclinien $f_{\rm A} = 1/T_{\rm A}$ beträgt. Alle Impulsgewichte von $P_δ(f)$ sind $1$:
- $$p_{\delta}(t)= \sum_{\nu = -\infty}^{+\infty}T_{\rm A}\cdot \delta(t - \nu \cdot T_{\rm A}) \hspace{0.2cm}\circ\!\!-\!\!\!-\!\!\!-\!\!\bullet\, \hspace{0.2cm} P_{\delta}(f)= \sum_{\mu = -\infty}^{+\infty} \delta(f - \mu \cdot f_{\rm A}) \hspace{0.05cm}.$$
- Das Spektrum $Q_{\rm A}(f)$ des abgetasteten Signals ergibt sich aus dem Faltungssatz, wobei $Q(f)$ das kontinuierliche Spektrum des Analogsignals $q(t)$ bezeichnet:
- $$Q_{\rm A}(f) = Q(f) \star P_{\delta}(f)= \sum_{\mu = -\infty}^{+\infty} Q(f - \mu \cdot f_{\rm A}) \hspace{0.05cm}.$$
Wir weisen Sie hier auf den zweiten Teil des Lernvideos Pulscodemodulation hin, das die Abtastung und die Signalrekonstruktion systemtheoretisch erklärt.
$\text{Beispiel 1:}$ Die obere Grafik zeigt schematisch das Spektrum $Q(f)$ eines analogen Quellensignals $q(t)$ mit Frequenzen bis $f_{\rm N, \ max} = 5 \ \rm kHz$.
- Tastet man $q(t)$ mit der Abtastrate $f_{\rm A} = 20 \ \rm kHz$ $($also im jeweiligen Abstand $T_{\rm A} = 50 \ \rm µ s)$ ab, so erhält man das grün skizzierte periodische Spektrum $Q_{\rm A}(f)$.
- Da die Diracfunktionen unendlich schmal sind, beinhaltet $q_{\rm A}(t)$ auch beliebig hochfrequente Anteile und dementsprechend ist $Q_{\rm A}(f)$ bis ins Unendliche ausgedehnt (mittlere Grafik).
- Darunter (rot) gezeichnet ist das Spektrum $Q_{\rm A}(f)$ für die Abtastparameter $T_{\rm A} = 100 \ \rm µ s$ ⇒ $f_{\rm A} = 10 \ \rm kHz$.
$\text{Fazit:}$ Aus diesem Beispiel lassen sich folgende wichtige Erkenntnisse bezüglich der Abtastung gewinnen:
- Beinhaltet $Q(f)$ Frequenzen bis $f_\text{N, max}$, so muss nach dem Abtasttheorem die Abtastrate $f_{\rm A} ≥ 2 · f_\text{N, max}$ gewählt werden. Bei kleinerer Abtastrate $f_{\rm A}$ $($also größerem Abstand $T_{\rm A})$ kommt es zu Überlappungen der periodifizierten Spektren, also zu irreversiblen Verzerrungen.
- Gilt exakt $f_{\rm A} = 2 · f_\text{N, max}$ wie in der unteren Grafik von $\text{Beispiel 1}$, so kann $Q(f)$ aus $Q_{\rm A}(f)$ – bzw. im PCM–System $V(f)$ aus $V_{\rm Q}(f)$ – durch einen idealen rechteckförmigen Tiefpass $H(f)$ mit der Grenzfrequenz $f_{\rm G} = f_{\rm A}/2$ vollständig rekonstruiert werden.
- Erfolgt dagegen die Abtastung mit $f_{\rm A} > 2 · f_\text{N, max}$ wie in der mittleren Grafik des Beispiels, so kann empfängerseitig zur Signalrekonstruktion auch ein Tiefpass $H(f)$ mit kleinerer Flankensteilheit verwendet werden, solange die folgende Bedingung erfüllt ist:
- $$H(f) = \left\{ \begin{array}{l} 1 \\ 0 \\ \end{array} \right.\quad \begin{array}{*{5}c}{\rm{f\ddot{u}r} } \\{\rm{f\ddot{u}r} } \\ \end{array}\begin{array}{*{10}c} {\hspace{0.04cm}\left \vert \hspace{0.005cm} f\hspace{0.05cm} \right \vert \le f_{\rm N, \hspace{0.05cm}max},} \\ {\hspace{0.04cm}\left \vert\hspace{0.005cm} f \hspace{0.05cm} \right \vert \ge f_{\rm A}- f_{\rm N, \hspace{0.05cm}max}.} \\ \end{array}$$
Natürliche und diskrete Abtastung
Die Multiplikation mit dem Diracpuls liefert nur eine idealisierte Beschreibung der Abtastung, da eine Diracfunktion $($Dauer $T_{\rm R} → 0$, Höhe $1/T_{\rm R} → ∞)$ nicht realisierbar ist. In der Praxis muss der Diracpuls $p_δ(t)$ zum Beispiel durch einen Rechteckpuls
- $$p_{\rm R}(t)= \sum_{\nu = -\infty}^{+\infty}g_{\rm R}(t - \nu \cdot T_{\rm A})\hspace{0.3cm} {\rm mit}\hspace{0.3cm} g_{\rm R}(t) = \left\{ \begin{array}{l} 1 \\ 1/2 \\ 0 \\ \end{array} \right.\quad \begin{array}{*{5}c}{\rm{f\ddot{u}r}}\\{\rm{f\ddot{u}r}} \\{\rm{f\ddot{u}r}} \\ \end{array}\begin{array}{*{10}c}{\hspace{0.04cm}\left|\hspace{0.06cm} t \hspace{0.05cm} \right|} < T_{\rm R}/2\hspace{0.05cm}, \\{\hspace{0.04cm}\left|\hspace{0.06cm} t \hspace{0.05cm} \right|} = T_{\rm R}/2\hspace{0.05cm}, \\ {\hspace{0.005cm}\left|\hspace{0.06cm} t \hspace{0.05cm} \right|} > T_{\rm R}/2\hspace{0.05cm} \\ \end{array}$$
ersetzt werden, wobei die Rechteckimpulsdauer $T_{\rm R}$ deutlich kleiner als der Abtastabstand $T_{\rm A}$ sein sollte.
Die Grafik zeigt oben den Rechteckpuls $p_{\rm R}(t)$. Darunter sind zwei verschiedene Abtastverfahren mit diesem Rechteckpuls dargestellt:
- Bei der natürlichen Abtastung ergibt sich das abgetastete Signal $q_{\rm A}(t)$ durch die Multiplikation von $q(t)$ mit $p_{\rm R}(t)$. In den Bereichen $p_{\rm R}(t) = 1$ hat somit $q_{\rm A}(t)$ den gleichen Verlauf wie $q(t)$.
- Bei der diskreten Abtastung wird das Signal $q(t)$ – zumindest gedanklich – erst mit dem Diracpuls $p_δ(t)$ multipliziert. Dann wird jeder Diracimpuls $T_{\rm A} · δ(t - ν · T_{\rm A})$ durch einen Rechteckimpuls $g_{\rm R}(t - ν · T_{\rm A})$ ersetzt.
Hier und bei der nachfolgenden Frequenzbereichsbetrachtung ist zur Vereinfachung eine akausale Beschreibungsform gewählt. Für eine (kausale) Realisierung müsste $g_{\rm R}(t) = 1$ im Bereich von $0$ bis $T_{\rm R}$ gelten, und nicht wie hier für $ \ -T_{\rm R}/2 < t < T_{\rm R}/2.$
Frequenzbereichsbetrachtung der natürlichen Abtastung
$\text{Definition:}$ Die natürliche Abtastung lässt sich mit dem Faltungssatz im Spektralbereich wie folgt darstellen:
- $$q_{\rm A}(t) = p_{\rm R}(t) \cdot q(t) = \left [ \frac{1}{T_{\rm A} } \cdot p_{\rm \delta}(t) \star g_{\rm R}(t)\right ]\cdot q(t) \hspace{0.3cm} \Rightarrow \hspace{0.3cm}Q_{\rm A}(f) = \left [ P_{\rm \delta}(f) \cdot \frac{1}{T_{\rm A} } \cdot G_{\rm R}(f) \right ] \star Q(f) = P_{\rm R}(f) \star Q(f)\hspace{0.05cm}.$$
Die Grafik zeigt das Ergebnis für
- ein (unrealistisches) rechteckförmiges Spektrum $Q(f) = Q_0$, das auf den Bereich $|f| ≤ 4 \ \rm kHz$ begrenzt ist,
- die Abtastrate $f_{\rm A} = 10 \ \rm kHz$ ⇒ $T_{\rm A} = 100 \ \rm µ s$, sowie
- die Rechteckimpulsdauer $T_{\rm R} = 25 \ \rm µ s$ ⇒ $T_{\rm R}/T_{\rm A} = 0.25$.
Man erkennt aus dieser Darstellung:
- Das Spektrum $P_{\rm R}(f)$ bei natürlicher Abtastung ist im Gegensatz zu $P_δ(f)$ kein Diracpuls $($alle Gewichte gleich $1)$, sondern die Gewichte sind hier mit der Funktion $G_{\rm R}(f)/T_{\rm A} = T_{\rm R}/T_{\rm A} · {\rm si}(πfT_{\rm R})$ bewertet.
- Wegen der Nullstelle der $\rm si$–Funktion verschwinden hier die Diraclinien bei $±4f_{\rm A}$.
- Das Spektrum $Q_{\rm A}(f)$ ergibt sich aus der Faltung mit $Q(f)$. Das Rechteck um $f = 0$ hat die Höhe $T_{\rm R}/T_{\rm A} · Q_0$, die Anteile um $\mu · f_{\rm A} \ (\mu ≠ 0)$ sind weniger hoch.
- Verwendet man zur Signalrekonstruktion einen idealen, rechteckförmigen Tiefpass
- $$H(f) = \left\{ \begin{array}{l} T_{\rm A}/T_{\rm R} = 4 \\ 0 \\ \end{array} \right.\quad \begin{array}{*{5}c}{\rm{f\ddot{u}r}}\\{\rm{f\ddot{u}r}} \\ \end{array}\begin{array}{*{10}c} {\hspace{0.04cm}\left| \hspace{0.005cm} f\hspace{0.05cm} \right| < f_{\rm A}/2}\hspace{0.05cm}, \\ {\hspace{0.04cm}\left| \hspace{0.005cm} f\hspace{0.05cm} \right| > f_{\rm A}/2}\hspace{0.05cm}, \\ \end{array}$$
- so gilt für das Ausgangsspektrum $V(f) = Q(f)$ und dementsprechend ist auch $v(t) = q(t)$.
$\text{Fazit:}$
- Bei natürlicher Abtastung genügt zur Signalrekonstruktion wie bei idealer Abtastung (mit Diracpuls) ein Rechteck–Tiefpass.
- Allerdings muss zur Amplitudenanpassung im Durchlassbereich eine Verstärkung um den Faktor $T_{\rm A}/T_{\rm R}$ berücksichtigt werden.
Frequenzbereichsbetrachtung der diskreten Abtastung
$\text{Definition:}$ Bei der diskreten Abtastung erfolgt – zumindest gedanklich – zunächst die Multiplikation des Diracpulses $p_δ(t)$ mit dem Quellensignal $q(t)$ und erst danach die Faltung mit dem Rechteckimpuls $g_{\rm R}(t)$:
- $$q_{\rm A}(t) = \big [ {1}/{T_{\rm A} } \cdot p_{\rm \delta}(t) \cdot q(t)\big ]\star g_{\rm R}(t) \hspace{0.3cm} \Rightarrow \hspace{0.3cm}Q_{\rm A}(f) = \big [ P_{\rm \delta}(f) \star Q(f) \big ] \cdot G_{\rm R}(f)/{T_{\rm A} } \hspace{0.05cm}.$$
- Es ist unerheblich, aber durchaus zweckmäßig, dass hier der Faktor $1/T_{\rm A}$ zur Bewertungsfunktion $G_{\rm R}(f)$ hinzugefügt wurde.
- Damit gilt wieder $G_{\rm R}(f)/T_{\rm A} = T_{\rm R}/T_{\rm A} · {\rm si}(πfT_{\rm R}).$
Die obere Grafik zeigt (grün hinterlegt) die Spektralfunktion $P_δ(f) \star Q(f)$ nach idealer Abtastung. Bei diskreter Abtastung mit einem Rechteckpuls ergibt sich dagegen das Spektrum $Q_{\rm A}(f)$ entsprechend dem unteren Diagramm.
Man erkennt:
- Jedes der unendlich vielen Teilspektren hat nun eine andere Form. Wichtig ist nur das mittlere Spektrum um $f = 0$.
- Alle anderen Spektralanteile werden empfängerseitig durch den Tiefpass der Signalrekonstruktion entfernt.
- Verwendet man für diesen Tiefpass wieder ein Rechteckfilter mit der Verstärkung um $T_{\rm A}/T_{\rm R}$ im Durchlassbereich, so erhält man für das Ausgangsspektrum:
- $$V(f) = Q(f) \cdot {\rm si}(\pi f T_{\rm R}) \hspace{0.05cm}.$$
$\text{Fazit:}$ Bei diskreter Abtastung und Rechteckfilterung kommt es zu Dämpfungsverzerrungen gmäß der Bewertungsfunktion ${\rm si}(πfT_{\rm R})$.
- Diese sind um so stärker, je größer $T_{\rm R}$ ist. Nur im Grenzfall $T_{\rm R} → 0$ gilt ${\rm si}(πfT_{\rm R}) = 1$.
- Allerdings können durch eine ideale Entzerrung diese linearen Dämpfungsverzerrungen vollständig kompensiert werden.
- Um $V(f) = Q(f)$ bzw. $v(t) = q(t)$ zu erhalten, muss dann gelten:
- $$H(f) = \left\{ \begin{array}{l} (T_{\rm A}/T_{\rm R})/{\rm si}(\pi f T_{\rm R}) \\ 0 \\ \end{array} \right.\quad\begin{array}{*{5}c}{\rm{f\ddot{u}r} }\\{\rm{f\ddot{u}r} } \\ \end{array}\begin{array}{*{10}c} {\hspace{0.04cm}\left \vert \hspace{0.005cm} f\hspace{0.05cm} \right \vert < f_{\rm A}/2}\hspace{0.05cm}, \\ {\hspace{0.04cm}\left \vert \hspace{0.005cm} f\hspace{0.05cm} \right \vert > f_{\rm A}/2} \\ \end{array}$$
Quantization and quantization noise
Die zweite Funktionseinheit Quantisierung des PCM–Senders dient der Wertediskretisierung.
- Hierzu wird der gesamte Wertebereich des analogen Quellensignals $($zum Beispiel der Bereich $± q_{\rm max})$ in $M$ Intervalle aufgeteilt.
- Jedem Abtastwert $q_{\rm A}(ν · T_{\rm A})$ wird anschließend ein Repräsentant $q_{\rm Q}(ν · T_{\rm A})$ des zugehörigen Intervalls (beispielsweise die Intervallmitte) zugewiesen.
$\text{Beispiel 2:}$ Die Grafik verdeutlicht die Quantisierung am Beispiel der Quantisierungsstufenzahl $M = 8$.
- Tatsächlich wird für $M$ in der Praxis wegen der anschließenden Binärcodierung stets eine Zweierpotenz gewählt.
- Jeder der durch Kreise markierten Abtastwerte $q_{\rm A}(ν · T_{\rm A})$ wird durch den dazugehörigen quantisierten Wert $q_{\rm Q}(ν · T_{\rm A})$ ersetzt. Die quantisierten Werte sind als Kreuze eingetragen.
- Dieser Vorgang der Wertdiskretisierung ist allerdings mit einer irreversiblen Verfälschung verbunden.
- Die Verfälschung $ε_ν = q_{\rm Q}(ν · T_{\rm A}) \ - \ q_{\rm A}(ν · T_{\rm A})$ hängt von der Quantisierungsstufenzahl $M$ ab. Es gilt folgende Schranke:
- $$\vert \varepsilon_{\nu} \vert < {1}/{2} \cdot2/M \cdot q_{\rm max}= {q_{\rm max} }/{M}\hspace{0.05cm}.$$
$\text{Definition:}$ Man bezeichnet den quadratischen Mittelwert der Fehlergröße $ε_ν$ als Quantisierungsrauschleistung:
- $$P_{\rm Q} = \frac{1}{2N+1 } \cdot\sum_{\nu = -N}^{+N}\varepsilon_{\nu}^2 \approx \frac{1}{N \cdot T_{\rm A} } \cdot \int_{0}^{N \cdot T_{\rm A} }\varepsilon(t)^2 \hspace{0.05cm}{\rm d}t \hspace{0.3cm} {\rm mit}\hspace{0.3cm}\varepsilon(t) = q_{\rm Q}(t) - q(t) \hspace{0.05cm}.$$
Anmerkungen:
- Zur Berechnung der Quantisierungsrauschleistung $P_{\rm Q}$ wird meist die angegebene Näherung der „Spontanquantisierung” verwendet.
- Man lässt dabei die Abtastung außer Betracht und bildet das Fehlersignal aus den zeitkontinuierlichen Signalen $q_{\rm Q}(t)$ und $q(t)$.
- $P_{\rm Q}$ hängt auch vom Quellensignal $q(t)$ ab. Unter der Voraussetzung, dass $q(t)$ alle Werte zwischen $±q_{\rm max}$ mit gleicher Wahrscheinlichkeit annimmt und der Quantisierer genau für diesen Bereich ausgelegt ist, ergibt sich entsprechend Aufgabe 4.4:
- $$P_{\rm Q} = \frac{q_{\rm max}^2}{3 \cdot M^2 } \hspace{0.05cm}.$$
- Bei einem Sprach– oder Musiksignal können – wenn auch nur sehr selten – beliebig große Amplitudenwerte auftreten. In diesem Fall wird für $q_{\rm max}$ meist derjenige Amplitudenwert herangezogen, der nur zu $1\%$ aller Zeiten (betragsmäßig) überschritten wird.
PCM–Codierung und –Decodierung
Der Block PCM–Codierung dient der Umsetzung der zeitdiskreten (nach Abtastung) und wertdiskreten (nach Quantisierung mit $M$ Stufen) Signalwerte $q_{\rm Q}(ν · T_{\rm A})$ in eine Folge von $N = {\rm log_2}(M)$ Binärwerte. Logarithmus zur Basis 2 ⇒ Logarithmus dualis.
$\text{Beispiel 3:}$ Jeder Binärwert ⇒ Bit ist durch ein Rechteck der Dauer $T_{\rm B} = T_{\rm A}/N$ dargestellt, woraus sich das Signal $q_{\rm C}(t)$ ergibt.
Man erkennt:
- Es wird hier der Dualcode verwendet. Das bedeutet, dass die Quantisierungsintervalle $\mu$ von $0$ bis $M–1$ durchnummeriert und anschließend in einfacher Binärform geschrieben werden. Mit $M = 8$ gilt beispielsweise $\mu = 6$ ⇔ 110.
- Die drei Binärsymbole des codierten Signals $q_{\rm C}(t)$ ergeben sich, wenn man 0 durch L („Low”) und 1 durch H („High”) ersetzt. Im Beispiel erhält man so: HHL HHL LLH LHL HLH LHH.
- Die Bitdauer $T_{\rm B}$ ist hier um den Faktor $N = {\rm log_2}(M) = 3$ kürzer als der Abtastabstand $T_{\rm A} = 1/f_{\rm A}$, und die Bitrate ist $R_{\rm B} = {\rm log_2}(M) · f_{\rm A}$.
- Verwendet man bei der Decodierung $(v_{\rm C} ⇒ v_{\rm Q})$ die gleiche Zuordnung wie bei der Codierung $(q_{\rm Q} ⇒ q_{\rm C})$, so gilt, falls es zu keinen Übertragungsfehlern kommt: $v_{\rm Q}(ν · T_{\rm A}) = q_{\rm Q}(ν · T_{\rm A}).$
- Eine Alternative zum Dualcode ist der Graycode, bei dem sich benachbarte Binärwerte nur in einem Bit unterscheiden. Für $N = 3$:
- $\mu = 0$: LLL, $\mu = 1$: LLH, $\mu = 2$: LHH, $\mu = 3$: LHL, $\mu = 4$: HHL, $\mu = 5$: HHH, $\mu =6$: HLH, $\mu = 7$: HLL.
Signal–zu–Rausch–Leistungsverhältnis
Das digitale Pulscodemodulation $\rm (PCM)$ wird nun den analogen Modulationsverfahren $\rm (AM, \ FM)$ hinsichtlich des erreichbaren Sinken–SNR $ρ_v = P_q/P_ε$ bei AWGN–Rauschen vergleichend gegenüber gestellt.
Wie in vorherigen Kapiteln (zum Beispiel) bezeichnet $ξ = {α_{\rm K} }^2 · P_{\rm S}/(N_0 · B_{\rm NF})$ die Leistungskenngröße. Diese fasst verschiedene Einflüsse zusammen:
- den Kanalübertragungsfaktor $α_{\rm K}$ (quadratisch),
- die Sendeleistung $P_{\rm S}$,
- die AWGN–Rauschleistungsdichte $N_0$ (reziprok) sowie
- die Signalbandbreite $B_{\rm NF}$ (ebenfalls reziprok);
bei einer harmonischen Schwingung: Frequenz $f_{\rm N}$ statt $B_{\rm NF}$.
Die beiden Vergleichskurven für Amplitudenmodulation (AM) und für Frequenzmodulation (FM) lassen sich wie folgt beschreiben:
- Zweiseitenband–AM ohne Träger:
- $$ρ_v = ξ \ ⇒ \ 10 · \lg ρ_v = 10 · \lg \ ξ,$$
- Frequenzmodulation mit $η = 3$:
- $$ρ_υ = 3/2 \cdot η^2 · ξ = 13.5 · ξ \ ⇒ \ 10 · \lg \ ρ_v = 10 · \lg \ ξ + 11.3 \ \rm dB.$$
Die Kurve für das PCM 30/32–System ist wie folgt zu interpretieren:
- Ist die Leistungskenngröße $ξ$ hinreichend groß, so treten keine Übertragungsfehler auf. Das Fehlersignal $ε(t) = v(t) \ - \ q(t)$ ist dann allein auf die Quantisierung zurückzuführen $(P_ε = P_{\rm Q})$.
- Mit der Quantisierungsstufenzahl $M = 2^N$ gilt in diesem Fall näherungsweise:
- $$\rho_{v} = \frac{P_q}{P_\varepsilon}= M^2 = 2^{2N} \hspace{0.3cm}\Rightarrow \hspace{0.3cm} 10 \cdot {\rm lg}\hspace{0.1cm}\rho_{v}=20 \cdot {\rm lg}\hspace{0.1cm}M = N \cdot 6.02\,{\rm dB}$$
- $$ \Rightarrow \hspace{0.3cm} N = 8, \hspace{0.05cm} M =256\text{:}\hspace{0.2cm}10 \cdot {\rm lg}\hspace{0.1cm}\rho_{v}=48.16\,{\rm dB}\hspace{0.05cm}.$$
- Anzumerken ist, dass die angegebene Gleichung nur für ein sägezahnförmiges Quellensignal exakt gültig ist. Bei cosinusförmigem Quellensignal ist jedoch die Abweichung hiervon nicht sehr groß.
- Mit kleiner werdendem $ξ$ (kleinere Sendeleistung oder größere Rauschleistungsdichte) nehmen die Übertragungsfehler zu. Damit wird $P_ε > P_{\rm Q}$ und der Sinken–Störabstand wird kleiner.
- Die PCM $($mit $M = 256)$ ist den Analogverfahren $($AM und FM$)$ nur im unteren und mittleren $ξ$–Bereich überlegen. Spielen aber Übertragungsfehler keine Rolle mehr, so ist durch ein größeres $ξ$ keine Verbesserung mehr zu erzielen (horizontaler, gelb hinterlegter Kurvenabschnitt).
- Eine Verbesserung bringt nur eine Erhöhung von $N$ (Bitanzahl pro Abtastwert) ⇒ größeres $M = 2^N$ (Quantisierungsstufenzahl). Beispielsweise erreicht man bei einer Compact Disc (CD) mit dem Parameter $N = 16$ ⇒ $M = 65536$ den Wert
- $$10 · \lg \ ρ_v = 96.32 \ \rm dB.$$
$\text{Beispiel 4:}$ Die folgende Grafik zeigt den begrenzenden Einfluss der Quantisierung:
- Weiß gepunktet dargestellt ist das Quellensignal $q(t)$, grün gepunktet das Sinkensignal $v(t)$ nach PCM mit $N = 4$ ⇒ $M = 16$.
- Die Abtastzeitpunkte sind durch Kreuze markiert.
- Übertragungsfehler werden vorerst ausgeschlossen. Abtastung und Signalrekonstruktion seien bestmöglich an $q(t)$ angepasst.
Dieses Bild kann wie folgt interpretiert werden:
- Mit $N = 8$ ⇒ $M = 256$ ist das Sinkensignal $v(t)$ vom Quellensignal $q(t)$ mit dem bloßen Auge nicht zu unterscheiden. Für beide gilt näherungsweise der weiß gepunktete Signalverlauf.
- Am Störabstand $10 · \lg \ ρ_v = 47.8 \ \rm dB$ erkennt man aber, dass das Quantisierungsrauschen (Leistung $P_\varepsilon$ des Fehlersignals) nur etwa um den Faktor $1.6 · 10^{–5}$ kleiner ist als die Leistung $P_q$ des Quellensignals. Dieses SNR wäre bei einem Sprach– oder Musiksignal schon deutlich hörbar.
- Obwohl das hier betrachtete Quellensignal weder sägezahnförmig noch cosinusförmig verläuft, sondern sich aus mehreren Frequenzanteilen zusammensetzt, weicht die angegebene Näherung $ρ_v ≈ M^2$ ⇒ $10 · \lg \ ρ_υ = 48.16 \ \rm dB$ nur unwesentlich vom tatsächlichen Wert ab.
- Dagegen erkennt man für $N = 4$ ⇒ $M = 16$ bereits im Bild Abweichungen zwischen dem Sinkensignal (grün markiert) und dem Quellensignal (weiße Markierung), was auch durch den sehr kleinen Störabstand $10 · \lg \ ρ_υ = 28.2 \ \rm dB$ quantitativ zum Ausdruck kommt.
Einfluss von Übertragungsfehlern
Ausgehend vom gleichen Analogsignal $q(t)$ wie im letzten Abschnitt und einer linearen Quantisierung mit $N = 8$ Bit ⇒ $M = 256$ werden nun die Auswirkungen von Übertragungsfehlern anhand des jeweiligen Sinkensignals $v(t)$ verdeutlicht.
- Die weißen Punkte markieren wieder das Quellensignal $q(t)$. Ohne Übertragungsfehler hat das Sinkensignal $v(t)$ bei Vernachlässigung der Quantisierung den gleichen Verlauf.
- Nun wird jeweils genau ein Bit des fünften Abtastwertes $q(5 · T_{\rm A}) = -0.715$ verfälscht, wobei dieser Abtastwert mit LLHL LHLL codiert wurde. Dieser Grafik zugrunde liegt der Dualcode, das heißt, dass das unterste Quantisierungsintervall $(\mu = 0)$ mit LLLL LLLL und das oberste Intervall $(\mu = 255)$ mit HHHH HHHH dargestellt wird.
Die Tabelle zeigt die Ergebnisse dieser Untersuchung:
- Der angegebene Störabstand $10 · \lg \ ρ_v$ wurde aus dem dargestellten (sehr kurzen) Signalausschnitt der Dauer $10 · T_{\rm A}$ berechnet.
- Bei jeweils einem Fehler bei der Übertragung von $10 · 8 = 80$ Bit entspricht dies einer Bitfehlerrate von $1.25\%$.
Die in der Grafik und der Tabelle dargestellten Ergebnisse dieser Fehleranalyze können wie folgt zusammengefasst werden:
- Wird nur das letzte Bit des Binärwortes verfälscht $($LSB: Least Significant Bit, LLHL LHLL ⇒ LLHL LHLH$)$, so ist mit bloßem Auge kein Unterschied zur fehlerfreien Übertragung zu erkennen $($weißer Kurvenzug$)$. Trotzdem wird der Störabstand um $3.5 \ \rm dB$ vermindert.
- Ein Übertragungsfehler des viertletzten Bits $($grüne Kurve, LLHLLHLL ⇒ LLHLHHLL$)$ führt bereits zu einer deutlich erkennbaren Verfälschung um acht Quantisierungsintervalle. Das heißt: $v(5T_{\rm A}) \ - \ q(5T_{\rm A}) = 8/256 · 2 = 0.0625$ und der Störabstand sinkt auf $10 · \lg \ ρ_υ = 28.2 \ \rm dB$.
- Die rote Kurve zeigt schließlich den Fall, dass das MSB (Most Significant Bit) verfälscht wird: LLHLLHLL ⇒ HLHLLHLL. Dies führt zur Verfälschung $v(5T_{\rm A}) \ – \ q(5T_{\rm A}) = 1$ (entspricht dem halben Aussteuerbereich). Der Störabstand beträgt nun nur mehr etwa $4 \ \rm dB$.
- Zu allen Abtastzeitpunkten mit Ausnahme von $5T_{\rm A}$ stimmt $v(t)$ bis auf den Quantisierungsfehler mit $q(t)$ exakt überein. Außerhalb dieser durch gelbe Kreuze markierten Zeitpunkte führt der einzige Fehler bei $5T_{\rm A}$ aber in einem ausgedehnten Bereich zu starken Abweichungen, was auf die Interpolation mit der $\rm si$–förmigen Impulsantwort des Rekonstruktionstiefpasses $H(f)$ zurückzuführen ist.
Abschätzung der SNR-Degradation durch Übertragungsfehler
Nun soll versucht werden, die SNR–Kurve des PCM–Systems unter Berücksichtigung von Bitfehlern zumindest näherungsweise zu bestimmen. Wir gehen dabei vom folgenden Blockschaltbild aus und setzen weiter voraus:
- Jeder Abtastwert $q_{\rm A}(νT)$ wird mit $M$ Stufen quantisiert und mit $N = {\rm log_2} (M)$ Binärzeichen (Bit) dargestellt. Im Beispiel gilt $M = 8$ ⇒ $N = 3$.
- Die Binärdarstellung von $q_{\rm Q}(νT)$ liefert die Amplitudenkoeffizienten $a_k\, (k = 1, \text{...} \hspace{0.08cm}, N),$ die durch Bitfehler in die Koeffizienten $b_k$ verfälscht werden können.
- Sowohl $a_k$ als auch $b_k$ sind jeweils $±1$.
- Ein Bitfehler $(b_k ≠ a_k)$ tritt mit der Wahrscheinlichkeit $p_{\rm B}$ auf.
- Jedes Bit wird gleichwahrscheinlich verfälscht und in jedem PCM–Wort ist maximal ein Fehler ⇒ nur eines der $N$ Bit kann falsch sein.
Aus dem in der Grafik angegebenen Diagramm ist für $N = 3$ und natürliche Binärcodierung (Dualcode) zu erkennen:
- Eine Verfälschung von $a_1$ verändert den quantisierten Wert $q_{\rm Q}(νT)$ um $±A$.
- Eine Verfälschung von $a_2$ verändert den quantisierten Wert $q_{\rm Q}(νT)$ um $±A/2.$
- Eine Verfälschung von $a_3$ verändert den quantisierten Wert Wert $q_{\rm Q}(νT)$ um $±A/4$.
Durch Verallgemeinerung erhält man für die Abweichung $ε_k = υ_{\rm Q}(νT) \ - \ q_{\rm Q}(νT)$ für den Fall, dass der Amplitudenkoeffizient $a_k$ falsch übertragen wurde:
- $$\varepsilon_k = - a_k \cdot A \cdot 2^{-k +1} \hspace{0.05cm}.$$
Für die Fehlerrauschleistung erhält man nach Mittelung über alle Verfälschungswerte $ε_k$ (mit $1 ≤ k ≤ N)$ unter Berücksichtigung der Bitfehlerwahrscheinlichkeit $p_{\rm B}$:
- $$P_{\rm F}= {\rm E}\big[\varepsilon_k^2 \big] = \sum\limits^{N}_{k = 1} p_{\rm B} \cdot \left ( - a_k \cdot A \cdot 2^{-k +1} \right )^2 =\ p_{\rm B} \cdot A^2 \cdot \sum\limits^{N-1}_{k = 0} 2^{-2k } = p_{\rm B} \cdot A^2 \cdot \frac{1- 2^{-2N }}{1- 2^{-2 }} \approx {4}/{3} \cdot p_{\rm B} \cdot A^2 \hspace{0.05cm}.$$
- Hierbei ist die Summenformel der geometrischen Reihe sowie die Näherung $1 – 2^{–2N } ≈ 1$ verwendet.
- Für $N = 8$ ⇒ $M = 256$ beträgt der damit verbundene relative Fehler beispielsweise etwa $\rm 10^{–5}$.
Ohne Berücksichtigung von Übertragungsfehlern hat sich für das Signal–zu–Rausch–Leistungsverhältnis $ρ_v = P_{\rm S}/P_{\rm Q}$ ergeben, wobei bei einem gleichverteilten Quellensignal (zum Beispiel sägezahnförmig) die Signalleistung und die Quantisierungsrauschleistung wie folgt zu berechnen ist:
- $$P_{\rm S}={A^2}/{3}\hspace{0.05cm},\hspace{0.3cm}P_{\rm Q}= {A^2}/{3} \cdot 2^{-2N } \hspace{0.05cm}.$$
Unter Berücksichtigung der Übertragungsfehler erhält man mit obigem Ergebnis:
- $$\rho_{\upsilon}= \frac{P_{\rm S}}{P_{\rm Q}+P_{\rm F}} = \frac{A^2/3}{A^2/3 \cdot 2^{-2N } + A^2/3 \cdot 4 \cdot p_{\rm B}} = \frac{1}{ 2^{-2N } + 4 \cdot p_{\rm B}} \hspace{0.05cm}.$$
Die Grafik zeigt $10 · \lg ρ_v$ in Abhängigkeit der (logarithmierten) Leistungskenngröße $ξ = P_{\rm S}/(N_0 · B_{\rm NF})$, wobei $B_{\rm NF}$ die Signalbandbreite angibt. Der konstante Kanalübertragungsfaktor sei idealerweise $α_{\rm K} = 1$.
- Beim optimalen Binärsystem und AWGN–Rauschen gilt aber für die Leistungskenngröße auch $ξ = E_{\rm B}/N_0$ (Energie pro Bit bezogen auf die Rauschleistungsdichte).
- Die Bitfehlerwahrscheinlichkeit ist dann mit der Gaußschen Fehlerfunktion ${\rm Q}(x)$ wie folgt gegeben:
- $$p_{\rm B}= {\rm Q} \left ( \sqrt{{2E_{\rm B}}/{N_0} }\right ) \hspace{0.05cm}.$$
- Für $N = 8$ ⇒ $ 2^{–2{\it N} } = 1.5 · 10^{–5}$ sowie $10 · \lg \ ξ = 6 \ \rm dB$ ⇒ $p_{\rm B} = 0.0024$ (rot markierter Punkt) ergibt sich:
- $$\rho_{\upsilon}= \frac{1}{ 1.5 \cdot 10^{-5} + 4 \cdot 0.0024} \approx 100 \hspace{0.3cm} \Rightarrow \hspace{0.3cm}10 \cdot {\rm lg} \hspace{0.15cm}\rho_{\upsilon}\approx 20\,{\rm dB} \hspace{0.05cm}.$$
- Dieser kleine $ρ_v$–Wert geht auf den Term $4 · 0.0024$ im Nenner (Einfluss des Übertragungsfehlers) zurück, während im horizontalen Kurvenabschnitt für jedes $N$ (Bitanzahl pro Abtastwert) der Term $\rm 2^{–2{\it N} }$ dominiert – also das Quantisierungsrauschen.
Nichtlineare Quantisierung
Häufig werden die Quantisierungsintervalle nicht gleich groß gewählt, sondern man verwendet für den inneren Amplitudenbereich eine feinere Quantisierung als für große Amplituden. Dafür gibt es mehrere Gründe:
- Bei Audiosignalen werden Verfälschungen der leisen Signalanteile (also Werte in der Nähe der Nulllinie) subjektiv als störender empfunden als eine Beeinträchtigung großer Amplitudenwerte.
- Eine solche ungleichmäßige Quantisierung führt bei einem solchen Musik– oder Sprachsignal auch zu einem größeren Sinkenstörabstand, da hier die Signalamplitude nicht gleichverteilt ist.
Die Grafik zeigt ein Sprachsignal $q(t)$ und dessen Amplitudenverteilung $f_q(q)$ ⇒ Wahrscheinlichkeitsdichtefunktion.
Es handelt sich um die Laplaceverteilung, die man wie folgt annähern kann:
- durch eine kontinuierliche, zweiseitige Exponentialverteilung, und
- durch eine Diracfunktion $δ(q)$ zur Berücksichtigung der Sprachpausen (magentafarben).
In der Grafik ist die nichtlineare Quantisierung nur angedeutet, zum Beispiel mittels der 13–Segment–Kennlinie, die in der Aufgabe 4.5 genauer beschrieben ist:
- Die Quantisierungsintervalle werden hierbei zu den Rändern hin abschnittsweise immer breiter.
- Die häufigeren kleinen Amplituden werden dagegen sehr fein quantisiert.
Kompression und Expandierung
Eine ungleichmäßige Quantisierung kann zum Beispiel dadurch realisiert werden, in dem
- die abgetasteten Werte $q_{\rm A}(ν · T_{\rm A})$ zunächst durch eine nichtlineare Kennlinie $q_{\rm K}(q_{\rm A})$ verformt und
- anschließend die entstehenden Ausgangswerte $q_{\rm K}(ν · T_{\rm A})$ gleichmäßig quantisiert werden.
Damit ergibt sich die nebenstehend skizzierte Signalkette.
$\text{Fazit:}$ Eine solche ungleichmäßige Quantisierung bedeutet:
- Durch die nichtlineare Kennlinie $q_{\rm K}(q_{\rm A})$ werden kleine Signalwerte verstärkt und große Werte abgeschwächt ⇒ Kompression.
- Diese bewusste Signalverzerrung macht man beim Empfänger durch die Umkehrfunktion $v_{\rm E}(υ_{\rm Q})$ rückgängig ⇒ Expandierung.
- Den Gesamtvorgang von sendeseitiger Kompression und empfängerseitiger Expansion nennt man auch Kompandierung.
Für das PCM–System 30/32 wurde von der Comité Consultatif International des Télégraphique et Téléphonique (CCITT) die so genannte A–Kennlinie empfohlen:
- $$y(x) = \left\{ \begin{array}{l} \frac{1 + {\rm ln}(A \cdot x)}{1 + {\rm ln}(A)} \\ \frac{A \cdot x}{1 + {\rm ln}(A)} \\ - \frac{1 + {\rm ln}( - A \cdot x)}{1 + {\rm ln}(A)} \\ \end{array} \right.\quad\begin{array}{*{5}c}{\rm{f\ddot{u}r}}\\{\rm{f\ddot{u}r}}\\{\rm{f\ddot{u}r}} \\ \end{array}\begin{array}{*{10}c}1/A \le x \le 1\hspace{0.05cm}, \\ - 1/A \le x \le 1/A\hspace{0.05cm}, \\ - 1 \le x \le - 1/A\hspace{0.05cm}. \\ \end{array}$$
- Hierbei ist zur Abkürzung $x = q_{\rm A}(ν · T_{\rm A})$ und $y = q_{\rm K}(ν · T_{\rm A})$ verwendet.
- Diese Kennlinie mit dem in der Praxis eingeführten Wert $A = 87.56$ hat eine sich ständig ändernde Steigung.
- Nähere Angaben zu dieser Art der ungleichmäßigen Quantisierung finden Sie in der Aufgabe 4.5.
Hinweis: Im dritten Teil des Lernvideos Pulscodemodulation werden behandelt:
- die Definition des Signal–zu–Rausch–Leistungsverhältnisses (SNR),
- der Einfluss von Quantisierungsrauschen und Übertragungsfehlern,
- die Unterschiede zwischen linearer und nichtlinearer Quantisierung.
Aufgaben zum Kapitel
Aufgabe 4.2: Tiefpass zur Signalrekonstruktion
Aufgabe 4.2Z: Zum Abtasttheorem
Aufgabe 4.3: Natürliche und diskrete Abtastung
Aufgabe 4.4: Zum Quantisierungsrauschen
Aufgabe 4.4Z: Störabstand bei PCM
Aufgabe 4.5: Nichtlineare Quantisierung
Aufgabe 4.6: Quantisierungskennlinien