Difference between revisions of "Examples of Communication Systems/Speech Coding"

From LNTwww
Line 1: Line 1:
 
   
 
   
 
{{Header
 
{{Header
|Untermenü=GSM – Global System for Mobile Communications
+
|Untermenü=GSM – Global System for Mobile Communications  
|Vorherige Seite=Funkschnittstelle
+
|Vorherige Seite=Radio Interface
 
|Nächste Seite=Gesamtes GSM–Übertragungssystem
 
|Nächste Seite=Gesamtes GSM–Übertragungssystem
 
}}
 
}}
  
  
==Verschiedene Sprachcodierverfahren== 
+
==Various voice coding methods== 
 
<br>
 
<br>
Jedem GSM-Teilnehmer steht maximal die Netto–Datenrate&nbsp; $\text{22.8 kbit/s}$&nbsp; zur Verfügung, während im ISDN–Festnetz mit einer Datenrate von&nbsp; $\text{64 kbit/s}$&nbsp; (bei &nbsp;$8$&nbsp; Bit Quantisierung)&nbsp; bzw.&nbsp; $\text{104 kbit/s}$&nbsp; (bei&nbsp;$13$&nbsp;Bit Quantisierung)&nbsp; gearbeitet wird. Aufgabe der Sprachcodierung bei GSM ist die Beschränkung der Datenmenge zur Sprachsignalübertragung auf&nbsp; $\text{22.8 kbit/s}$&nbsp; und eine bestmögliche Reproduktion des Sprachsignals auf der Empfängerseite. Die Funktionen des GSM–Coders und des GSM–Decoders sind meist in einer Funktionseinheit zusammengefasst, die als "Codec" bezeichnet wird.
+
Each GSM subscriber has a maximum net data rate of&nbsp; $\text{22.8 kbit/s}$&nbsp; available, while the ISDN fixed network operates with a data rate of&nbsp; $\text{64 kbit/s}$&nbsp; (with &nbsp;$8$&nbsp; bit quantization)&nbsp; or&nbsp; $\text{104 kbit/s}$&nbsp; (with&nbsp;$13$&nbsp;bit quantization)&nbsp; respectively. The exercise of speech coding in GSM is to limit the amount of data for speech signal transmission to&nbsp; $\text{22.8 kbit/s}$&nbsp; and to reproduce the speech signal at the receiver side in the best possible way. The functions of the GSM encoder and the GSM decoder are usually combined in a single functional unit called a "codec".
  
Zur Sprachcodierung und –Decodierung werden verschiedene Signalverarbeitungsverfahren angewandt:
+
Different signal processing methods are used for voice coding and decoding:
*Der&nbsp; '''GSM Fullrate Vocoder'''&nbsp; (deutsch:&nbsp; GSM–Vollraten–Sprachcodec)&nbsp; wurde 1991 aus einer Kombination von drei Kompressionsmethoden für den GSM–Funkkanal standardisiert. Er basiert auf&nbsp; ''Linear Predictive Coding''&nbsp; (LPC) in Verbindung mit&nbsp; ''Long Term Prediction''&nbsp; (LTP) und&nbsp; ''Regular Pulse Excitation''&nbsp; (RPE).
+
*The&nbsp; '''GSM Fullrate Vocoder'''&nbsp; was standardized in 1991 from a combination of three compression methods for the GSM radio channel. It is based on&nbsp; ''Linear Predictive Coding''&nbsp; (LPC) in conjunction with&nbsp; ''Long Term Prediction''&nbsp; (LTP) and&nbsp; ''Regular Pulse Excitation''&nbsp; (RPE).
*Der&nbsp; '''GSM Halfrate Vocoder'''&nbsp; (deutsch:&nbsp; GSM–Halbraten–Sprachcodec)&nbsp; wurde 1994 eingeführt und bietet die Möglichkeit, Sprache bei nahezu gleicher Qualität in einem halben Verkehrskanal $($Datenrate&nbsp; $\text{11.4 kbit/s})$&nbsp; zu übertragen.
+
*The&nbsp; '''GSM Halfrate Vocoder'''&nbsp; was introduced in 1994 and provides the ability to transmit speech at nearly the same quality in half a traffic channel $($data rate&nbsp; $\text{11.4 kbit/s})$&nbsp;.
*Der&nbsp; '''Enhanced Fullrate Vocoder'''&nbsp; (EFR–Codec) wurde 1995 standardisiert und implementiert, ursprünglich für das nordamerikanische DCS1900–Netz. Der EFR–Codec bietet gegenüber dem herkömmlichen Vollraten–Codec eine bessere Sprachqualität.
+
*The&nbsp; '''Enhanced Full Rate Vocoder'''&nbsp; (EFR codec) was standardized and implemented in 1995, originally for the North American DCS1900 network. The EFR codec provides better voice quality compared to the conventional full rate codec.
*Der&nbsp; '''Adaptive Multi–Rate Codec'''&nbsp; (AMR–Codec) ist der neueste Sprachcodec für GSM. Er wurde 1997 standardisiert und 1999 vom&nbsp; ''Third Generation Partnership Project''&nbsp; (3GPP) auch als Standard–Sprachcodec für Mobilfunksysteme der dritten Generation wie UMTS vorgeschrieben.
+
*The&nbsp; '''Adaptive Multi-Rate Codec'''&nbsp; (AMR codec) is the latest voice codec for GSM. It was standardized in 1997 and also mandated in 1999 by the&nbsp; ''Third Generation Partnership Project''&nbsp; (3GPP) as the standard voice codec for third generation mobile systems such as UMTS.
  
  
Sie können sich die Qualität dieser Sprachcodierverfahren bei Sprache und Musik mit dem interaktiven Applet&nbsp; [[Applets:Qualität_verschiedener_Sprach–Codecs_(Applet)|Qualität verschiedener Sprach–Codecs ]]&nbsp; verdeutlichen. Diese Audio–Animation berücksichtigt auch den&nbsp; [https://de.wikipedia.org/wiki/Adaptive_Multi-Rate Wideband–AMR], der 2007 für UMTS entwickelt und standardisiert wurde.  
+
You can visualize the quality of these voice coding schemes for speech and music with the interactive applet&nbsp; [[Applets:Quality_of_different_voice_codecs_(Applet)|Quality of different voice codecs (Applet) ]]&nbsp;. This audio animation also takes into account the [https://en.wikipedia.org/wiki/Adaptive_Multi-Rate_audio_codec Wideband AMR], which was developed and standardized for UMTS in 2007.  
  
Im Gegensatz zum herkömmlichen AMR, bei dem das Sprachsignal auf den Frequenzbereich von&nbsp; $\text{300 Hz}$&nbsp; bis &nbsp; $\text{3.4 kHz}$&nbsp; bandbegrenzt wird, geht man beim WB–AMR von einem Wideband–Signal &nbsp; $\text{(50 Hz 7 kHz)}$&nbsp; aus. Dieser ist somit auch für Musiksignale geeignet.
+
In contrast to conventional AMR, where the voice signal is bandlimited to the frequency range from&nbsp; $\text{300 Hz}$&nbsp; to &nbsp; $\text{3.4 kHz}$&nbsp;, WB-AMR assumes a wideband signal &nbsp; $\text{(50 Hz - 7 kHz)}$&nbsp;. This is therefore also suitable for music signals.
  
 
   
 
   
==GSM Fullrate Vocoder – Vollraten–Codec==   
+
==GSM Fullrate Vocoder ==   
 
<br>
 
<br>
Beim&nbsp; '''GSM–Vollraten-Codec'''&nbsp; (englisch:&nbsp; ''Full Rate Vocoder'') wird das analoge Sprachsignal im Frequenzbereich zwischen&nbsp; $300 \ \rm Hz$&nbsp; und&nbsp; $3400 \ \rm Hz$&nbsp; zunächst mit&nbsp; $8 \ \rm kHz$&nbsp; abgetastet und danach mit&nbsp; $13$&nbsp; Bit linear quantisiert ('''A/D–Wandlung'''), was eine Datenrate von&nbsp; $104 \ \rm kbit/s$&nbsp; ergibt.  
+
In the&nbsp; '''Full Rate Vocoder''''&nbsp; the analog speech signal in the frequency range between&nbsp; $300 \ \rm Hz$&nbsp; and&nbsp; $3400 \ \rm Hz$&nbsp; is first sampled with&nbsp; $8 \ \rm kHz$&nbsp; and then linearly quantized with&nbsp; $13$&nbsp; bits ('''A/D conversion'''), resulting in a data rate of&nbsp; $104 \ \rm kbit/s$&nbsp;.  
[[File:EN_Mob_A_3_4_Z.png|right|frame|LPC, LTP and RPE parameters in the GSM Full-Rate Vocoder]]
+
[[File:EN_Mob_A_3_4_Z.png|right|frame|LPC, LTP and RPE parameters in the GSM Full Rate Vocoder]]
Die Sprachcodierung erfolgt bei diesem Verfahren in vier Schritten:
+
In this method, speech coding is performed in four steps:
*die Vorverarbeitung,
+
*the preprocessing,
*die Einstellung des Kurzzeitanalyze–Filters&nbsp; (''Linear Predictive Coding'', LPC),
+
*the setting of the short-term analyze filter&nbsp; (''Linear Predictive Coding'', LPC),
*die Steuerung des Langzeitanalyze–Filters&nbsp; (''Long Term Prediction'', LTP) und
+
*the control of the Long Term Prediction (''LTP'') filter, and
*die Codierung des Restsignals durch eine Folge von Pulsen&nbsp; (''Regular Pulse Excitation'', RPE).
+
*the coding of the residual signal by a sequence of pulses&nbsp; (''Regular Pulse Excitation'', RPE).
  
  
In der Grafik bezeichnet&nbsp; $s(n)$&nbsp; das im Abstand&nbsp; $T_{\rm A} = 125\ \rm &micro; s$&nbsp; abgetastete und quantisierte Sprachsignal nach der kontinuierlich durchgeführten Vorverarbeitung, wobei
+
In the graph,&nbsp; $s(n)$&nbsp; denotes the speech signal sampled and quantized at distance&nbsp; $T_{\rm A} = 125\ \rm &micro; s$&nbsp; after the continuously performed preprocessing, where.
*das digitalisierte Mikrofonsignal von einem eventuell vorhandenen Gleichsignalanteil (Offset) befreit wird, um bei der Decodierung einen störenden Pfeifton von ca.&nbsp; $2.6 \ \rm kHz$&nbsp; bei der Wiedergewinnung der höheren Frequenzanteile zu vermeiden, und
+
*the digitized microphone signal is freed from a possibly existing DC signal component (offset) in order to avoid a disturbing whistling tone of approx.&nbsp; $2.6 \ \rm kHz$&nbsp; during decoding when recovering the higher frequency components, and
*zusätzlich höhere Spektralanteile von&nbsp; $s(n)$&nbsp; angehoben werden, um die Rechengenauigkeit und Effektivität der nachfolgenden LPC–Analyse zu verbessern.
+
*additionally, higher spectral components of&nbsp; $s(n)$&nbsp; are raised to improve the computational accuracy and effectiveness of the subsequent LPC analysis.
  
  
Die Tabelle zeigt die&nbsp; $76$&nbsp; Parameter&nbsp; $(260$ Bit$)$&nbsp; der Funktionseinheiten LPC, LTP und RPE. Die Bedeutung der einzelnen Größen wird auf den folgenden Seiten im Detail beschrieben.
+
The table shows the&nbsp; $76$&nbsp; parameters&nbsp; $(260$ bit$)$&nbsp; of the functional units LPC, LTP and RPE. The meaning of the individual quantities is described in detail on the following pages.
  
[[File:EN_Bei_T_3_3_S3.png|center|frame|Tabelle der Vollraten&ndash;Codec&ndash;Parameter]]
+
[[File:EN_Bei_T_3_3_S3.png|center|frame|Table of full rate codec parameters]]
  
Alle Verarbeitungsschritte (LPC, LTP, RPE) erfolgen jeweils in Blöcken von&nbsp; $20 \ \rm ms$&nbsp; Dauer über&nbsp; $160$&nbsp; Abtastwerte des vorverarbeiteten Sprachsignals, die man als&nbsp; '''GSM–Sprachrahmen'''&nbsp; bezeichnet.  
+
All processing steps (LPC, LTP, RPE) are performed in blocks of&nbsp; $20 \ \rm ms$&nbsp; duration over&nbsp; $160$&nbsp; samples of the preprocessed speech signal, which are called&nbsp; '''GSM speech frames''''&nbsp;.  
*Beim Vollraten–Codec werden pro Sprachrahmen insgesamt&nbsp; $260$ Bit&nbsp; erzeugt, woraus sich eine Datenrate von&nbsp; $13 \ \rm kbit/s$&nbsp; ergibt.  
+
*In the full rate codec, a total of&nbsp; $260$ bits&nbsp; are generated per voice frame, resulting in a data rate of&nbsp; $13 \rm kbit/s$&nbsp;.  
*Dies entspricht einer Kompression des Sprachsignals um den Faktor&nbsp; $8$&nbsp; $(104 \ \rm kbit/s$ bezogen auf $13 \ \rm kbit/s)$.
+
*This corresponds to a compression of the speech signal by a factor&nbsp; $8$&nbsp; $(104 \ \rm kbit/s$ related to $13 \ \rm kbit/s)$.
  
  
 
 
 
 
  
==Linear Predictive Coding – Kurzzeitprädiktion== 
+
==Linear Predictive Coding == 
 
<br>
 
<br>
[[File:EN_Bei_T_3_3_S3_neu.png|right|frame|Bausteine der GSM-Kurzzeitprädiktion (LPC) ]]
+
[[File:EN_Bei_T_3_3_S3_neu.png|right|frame|Building blocks of GSM Linear Predictive Coding (LPC) ]]
Der Block&nbsp; '''Linear Predictive Coding'''&nbsp; (LPC) führt eine Kurzzeitprädiktion durch, das heißt, es werden die statistischen Abhängigkeiten der Abtastwerte untereinander in einem kurzen Bereich von einer Millisekunde ermittelt.  
+
The block&nbsp; '''Linear Predictive Coding'''&nbsp; (LPC) performs short-time prediction, that is, it determines the statistical dependencies among the samples in a short range of one millisecond.  
 
<br clear=all>
 
<br clear=all>
Es folgt eine Kurzbeschreibung des LPC–Prinzipschaltbildes:
+
The following is a brief description of the LPC principle circuit:
*Zunächst wird dazu das zeitlich unbeschränkte Signal&nbsp; $s(n)$&nbsp; in Intervalle&nbsp; $s_{\rm R}(n)$&nbsp; von&nbsp; $20 \ \rm ms$ Dauer&nbsp; $(160$ Samples$)$ segmentiert. Die Laufvariable innerhalb eines solchen Sprachrahmens kann vereinbarungsgemäß die Werte&nbsp; $n = 1$, ... , $160$&nbsp; annehmen.
+
*First, for this purpose, the time-unbounded signal&nbsp; $s(n)$&nbsp; is segmented into intervals&nbsp; $s_{\rm R}(n)$&nbsp; of&nbsp; $20 \rm ms$ duration&nbsp; $(160$ samples$)$. By convention, the run variable within such a language frame can take the values&nbsp; $n = 1$, ... , $160$&nbsp; .
*Im ersten Schritt der&nbsp; '''LPC-Analyse'''&nbsp; werden Abhängigkeiten zwischen den Abtastwerten durch die Autokorrelationskoeffizienten  mit Indizes&nbsp; $0 ≤ k ≤ 8$&nbsp; quantifiziert:
+
*In the first step of&nbsp; '''LPC analysis'''&nbsp; dependencies between samples are quantified by the autocorrelation coefficients with indices&nbsp; $0 ≤ k ≤ 8$&nbsp; :
 
:$$φ_{\rm s}(k) = \text{E}\big [s_{\rm R}(n) · s_{\rm R}(n + k)\big ].$$  
 
:$$φ_{\rm s}(k) = \text{E}\big [s_{\rm R}(n) · s_{\rm R}(n + k)\big ].$$  
*Aus diesen neun AKF–Werten werden mit Hilfe der so genannten&nbsp; ''Schur–Rekursion''&nbsp; acht Reflexionskoeffizienten&nbsp; $r_{k}$&nbsp; berechnet, die als Grundlage für die Einstellung der Koeffizienten des LPC–Analysefilters für den aktuellen Rahmen dienen.
+
*From these nine ACF values, using the so-called&nbsp; ''Schur recursion''&nbsp; eight reflection coefficients&nbsp; $r_{k}$&nbsp; are calculated, which serve as a basis for setting the coefficients of the LPC analysis filter for the current frame.
*Die Koeffizienten&nbsp; $r_{k}$&nbsp; haben Werte zwischen&nbsp; $±1$. Schon geringe Änderungen der&nbsp; $r_{k}$&nbsp; am Rand ihres Wertesbereichs bewirken große Änderungen für die Sprachcodierung. Die acht Reflexionswerte&nbsp; $r_{k}$&nbsp; werden logarithmisch dargestellt &nbsp; ⇒ &nbsp; '''LAR–Parameter''' (''Log Area Ratio''):
+
*The coefficients&nbsp; $r_{k}$&nbsp; have values between&nbsp; $±1$. Even small changes in&nbsp; $r_{k}$&nbsp; at the edge of their range of values cause large changes for speech coding. The eight reflectance values&nbsp; $r_{k}$&nbsp; are represented logarithmically &nbsp; ⇒ &nbsp; '''LAR parameters''' (''Log Area Ratio''):
 
:$${\rm LAR}(k) = \ln \ \frac{1-r_k}{1+r_k}, \hspace{1cm} k = 1,\hspace{0.05cm} \text{...}\hspace{0.05cm} , 8.$$  
 
:$${\rm LAR}(k) = \ln \ \frac{1-r_k}{1+r_k}, \hspace{1cm} k = 1,\hspace{0.05cm} \text{...}\hspace{0.05cm} , 8.$$  
 
   
 
   
*Anschließend werden die acht LAR–Parameter entsprechend ihrer subjektiven Bedeutung durch unterschiedlich viele Bit quantisiert, codiert und zur Übertragung bereitgestellt. Die beiden ersten Parameter werden mit je sechs Bit, die beiden nächsten mit je fünf Bit, $\rm LAR(5)$&nbsp; und&nbsp; $\rm LAR(6)$&nbsp; mit je vier Bit und die beiden letzten &ndash; &nbsp; $\rm LAR(7)$&nbsp; und&nbsp; $\rm LAR(8)$&ndash; &nbsp; mit je drei Bit dargestellt.
+
*Then the eight LAR parameters are quantized by different numbers of bits according to their subjective meaning, encoded and made available for transmission. The first two parameters are represented with six bits each, the next two with five bits each, $\rm LAR(5)$&nbsp; and&nbsp; $\rm LAR(6)$&nbsp; with four bits each and the last two &ndash; &nbsp; $\rm LAR(7)$&nbsp; and&nbsp; $\rm LAR(8)$&ndash; &nbsp; with three bits each.
*Bei fehlerfreier Übertragung kann am Empfänger aus den acht LPC–Parametern&nbsp; (insgesamt&nbsp; $36$&nbsp; Bit)&nbsp; mit dem entsprechenden LPC–Synthesefilter das ursprüngliche Signal&nbsp; $s(n)$&nbsp; wieder vollständig rekonstruiert werden, wenn man von den unvermeidbaren zusätzlichen Quantisierungsfehlern durch die digitale Beschreibung der LAR-Koeffizienten absieht.
+
*If the transmission is error-free, the original signal&nbsp; $s(n)$&nbsp; can be completely reconstructed again at the receiver from the eight LPC parameters&nbsp; (in total&nbsp; $36$&nbsp; bits)&nbsp; with the corresponding LPC synthesis filter, if one disregards the unavoidable additional quantization errors due to the digital description of the LAR coefficients.
*Weiterhin wird mit Hilfe des LPC–Filters das Prädiktionsfehlersignal&nbsp; $e_{\rm LPC}(n)$&nbsp; gewonnen. Dieses ist gleichzeitig das Eingangssignal für die nachfolgende Langzeitprädiktion. Das LPC–Filter ist nicht rekursiv und hat nur ein kurzes Gedächtnis von etwa einer Millisekunde.
+
*Further, the prediction error signal&nbsp; $e_{\rm LPC}(n)$&nbsp; is obtained using the LPC filter. This is also the input signal for the subsequent long-term prediction. The LPC filter is not recursive and has only a short memory of about one millisecond.
  
  
 
{{GraueBox|TEXT=   
 
{{GraueBox|TEXT=   
$\text{Beispiel 1:}$&nbsp;
+
$\text{Example 1:}$&nbsp;
Die Grafik aus&nbsp; [Kai05]<ref name ='Kai05'>Kaindl, M.:&nbsp; Kanalcodierung für Sprache und Daten in GSM-Systemen.&nbsp; Dissertation. Lehrstuhl für Nachrichtentechnik, TU München. VDI Fortschritt-Berichte, Reihe 10, Nr. 764, 2005.</ref>&nbsp; zeigt oben einen Ausschnitt des Sprachsignals&nbsp; $s(n)$&nbsp; und dessen Zeit–Frequenzdarstellung. Unten ist das LPC–Prädiktionsfehlersignal&nbsp; $e_{\rm LPC}(n)$&nbsp; dargestellt.
+
The graph from&nbsp; [Kai05]<ref name ='Kai05'>Kaindl, M.:&nbsp; Channel coding for voice and data in GSM systems.&nbsp; Dissertation. Chair of Communications Engineering, TU Munich. VDI Fortschritt-Berichte, Series 10, No. 764, 2005.</ref>&nbsp; above shows a section of the speech signal&nbsp; $s(n)$&nbsp; and its time-frequency representation. Below is shown the LPC prediction error signal&nbsp; $e_{\rm LPC}(n)$&nbsp;.
  
[[File:EN_Bei_T_3_3_S3b_neu.png|right|frame|LPC&ndash;Prädiktionsfehlersignal bei GSM (Zeit&ndash;Frequenzdarstellung) ]]
+
[[File:EN_Bei_T_3_3_S3b_neu.png|right|frame|LPC Prediction error signal at GSM (time&ndash;frequency representation). ]]
  
<br><br>Man erkennt aus diesen Bildern
+
<br><br>One can see from these pictures
*die kleinere Amplitude von&nbsp; $e_{\rm LPC}(n)$&nbsp; gegenüber&nbsp; $s(n)$,
+
*the smaller amplitude of&nbsp; $e_{\rm LPC}(n)$&nbsp; compared to&nbsp; $s(n)$,
*den deutlich reduzierten Dynamikumfang, und
+
*the significantly reduced dynamic range, and
*das flachere Spektrum des verbleibenden Signals.}}
+
*the flatter spectrum of the remaining signal.}}
  
  

Revision as of 21:20, 17 January 2023


Various voice coding methods


Each GSM subscriber has a maximum net data rate of  $\text{22.8 kbit/s}$  available, while the ISDN fixed network operates with a data rate of  $\text{64 kbit/s}$  (with  $8$  bit quantization)  or  $\text{104 kbit/s}$  (with $13$ bit quantization)  respectively. The exercise of speech coding in GSM is to limit the amount of data for speech signal transmission to  $\text{22.8 kbit/s}$  and to reproduce the speech signal at the receiver side in the best possible way. The functions of the GSM encoder and the GSM decoder are usually combined in a single functional unit called a "codec".

Different signal processing methods are used for voice coding and decoding:

  • The  GSM Fullrate Vocoder  was standardized in 1991 from a combination of three compression methods for the GSM radio channel. It is based on  Linear Predictive Coding  (LPC) in conjunction with  Long Term Prediction  (LTP) and  Regular Pulse Excitation  (RPE).
  • The  GSM Halfrate Vocoder  was introduced in 1994 and provides the ability to transmit speech at nearly the same quality in half a traffic channel $($data rate  $\text{11.4 kbit/s})$ .
  • The  Enhanced Full Rate Vocoder  (EFR codec) was standardized and implemented in 1995, originally for the North American DCS1900 network. The EFR codec provides better voice quality compared to the conventional full rate codec.
  • The  Adaptive Multi-Rate Codec  (AMR codec) is the latest voice codec for GSM. It was standardized in 1997 and also mandated in 1999 by the  Third Generation Partnership Project  (3GPP) as the standard voice codec for third generation mobile systems such as UMTS.


You can visualize the quality of these voice coding schemes for speech and music with the interactive applet  Quality of different voice codecs (Applet)  . This audio animation also takes into account the Wideband AMR, which was developed and standardized for UMTS in 2007.

In contrast to conventional AMR, where the voice signal is bandlimited to the frequency range from  $\text{300 Hz}$  to   $\text{3.4 kHz}$ , WB-AMR assumes a wideband signal   $\text{(50 Hz - 7 kHz)}$ . This is therefore also suitable for music signals.


GSM Fullrate Vocoder


In the  Full Rate Vocoder'  the analog speech signal in the frequency range between  $300 \ \rm Hz$  and  $3400 \ \rm Hz$  is first sampled with  $8 \ \rm kHz$  and then linearly quantized with  $13$  bits (A/D conversion), resulting in a data rate of  $104 \ \rm kbit/s$ .

LPC, LTP and RPE parameters in the GSM Full Rate Vocoder

In this method, speech coding is performed in four steps:

  • the preprocessing,
  • the setting of the short-term analyze filter  (Linear Predictive Coding, LPC),
  • the control of the Long Term Prediction (LTP) filter, and
  • the coding of the residual signal by a sequence of pulses  (Regular Pulse Excitation, RPE).


In the graph,  $s(n)$  denotes the speech signal sampled and quantized at distance  $T_{\rm A} = 125\ \rm µ s$  after the continuously performed preprocessing, where.

  • the digitized microphone signal is freed from a possibly existing DC signal component (offset) in order to avoid a disturbing whistling tone of approx.  $2.6 \ \rm kHz$  during decoding when recovering the higher frequency components, and
  • additionally, higher spectral components of  $s(n)$  are raised to improve the computational accuracy and effectiveness of the subsequent LPC analysis.


The table shows the  $76$  parameters  $(260$ bit$)$  of the functional units LPC, LTP and RPE. The meaning of the individual quantities is described in detail on the following pages.

Table of full rate codec parameters

All processing steps (LPC, LTP, RPE) are performed in blocks of  $20 \ \rm ms$  duration over  $160$  samples of the preprocessed speech signal, which are called  GSM speech frames' .

  • In the full rate codec, a total of  $260$ bits  are generated per voice frame, resulting in a data rate of  $13 \rm kbit/s$ .
  • This corresponds to a compression of the speech signal by a factor  $8$  $(104 \ \rm kbit/s$ related to $13 \ \rm kbit/s)$.



Linear Predictive Coding


Building blocks of GSM Linear Predictive Coding (LPC)

The block  Linear Predictive Coding  (LPC) performs short-time prediction, that is, it determines the statistical dependencies among the samples in a short range of one millisecond.
The following is a brief description of the LPC principle circuit:

  • First, for this purpose, the time-unbounded signal  $s(n)$  is segmented into intervals  $s_{\rm R}(n)$  of  $20 \rm ms$ duration  $(160$ samples$)$. By convention, the run variable within such a language frame can take the values  $n = 1$, ... , $160$  .
  • In the first step of  LPC analysis  dependencies between samples are quantified by the autocorrelation coefficients with indices  $0 ≤ k ≤ 8$  :
$$φ_{\rm s}(k) = \text{E}\big [s_{\rm R}(n) · s_{\rm R}(n + k)\big ].$$
  • From these nine ACF values, using the so-called  Schur recursion  eight reflection coefficients  $r_{k}$  are calculated, which serve as a basis for setting the coefficients of the LPC analysis filter for the current frame.
  • The coefficients  $r_{k}$  have values between  $±1$. Even small changes in  $r_{k}$  at the edge of their range of values cause large changes for speech coding. The eight reflectance values  $r_{k}$  are represented logarithmically   ⇒   LAR parameters (Log Area Ratio):
$${\rm LAR}(k) = \ln \ \frac{1-r_k}{1+r_k}, \hspace{1cm} k = 1,\hspace{0.05cm} \text{...}\hspace{0.05cm} , 8.$$
  • Then the eight LAR parameters are quantized by different numbers of bits according to their subjective meaning, encoded and made available for transmission. The first two parameters are represented with six bits each, the next two with five bits each, $\rm LAR(5)$  and  $\rm LAR(6)$  with four bits each and the last two –   $\rm LAR(7)$  and  $\rm LAR(8)$–   with three bits each.
  • If the transmission is error-free, the original signal  $s(n)$  can be completely reconstructed again at the receiver from the eight LPC parameters  (in total  $36$  bits)  with the corresponding LPC synthesis filter, if one disregards the unavoidable additional quantization errors due to the digital description of the LAR coefficients.
  • Further, the prediction error signal  $e_{\rm LPC}(n)$  is obtained using the LPC filter. This is also the input signal for the subsequent long-term prediction. The LPC filter is not recursive and has only a short memory of about one millisecond.


$\text{Example 1:}$  The graph from  [Kai05][1]  above shows a section of the speech signal  $s(n)$  and its time-frequency representation. Below is shown the LPC prediction error signal  $e_{\rm LPC}(n)$ .

LPC Prediction error signal at GSM (time–frequency representation).



One can see from these pictures

  • the smaller amplitude of  $e_{\rm LPC}(n)$  compared to  $s(n)$,
  • the significantly reduced dynamic range, and
  • the flatter spectrum of the remaining signal.


Long Term Prediction – Langzeitprädiktion


Bei der  Long Term Prediction  (LTP) wird die Eigenschaft des Sprachsignals ausgenutzt, dass es auch periodische Strukturen (stimmhafte Abschnitte) besitzt. Dieser Umstand wird dazu verwendet, um die im Signal vorhandene Redundanz zu reduzieren.

Bausteine der GSM-Langzeitprädiktion (LTP)
  • Die Langzeitprädiktion (LTP–Analyse und –Filterung) wird viermal pro Sprachrahmen, also alle  $5 \ \rm ms$  durchgeführt.
  • Die vier Subblöcke bestehen aus jeweils $40$ Samples und werden mit  $i = 1$, ... , $4$  nummeriert.


Es folgt eine Kurzbeschreibung gemäß dem obigen LTP–Prinzipschaltbild – siehe  [Kai05][1].

  • Das Eingangssignal ist das Ausgangssignal  $e_{\rm LPC}(n)$  der Kurzzeitprädiktion. Die Signale nach der Segmentierung in vier Subblöcken werden mit  $e_i(l)$  bezeichnet, wobei jeweils  $l = 1, 2$, ... , $40$  gilt.
  • Zu dieser Analyse wird die Kreuzkorrelationsfunktion  $φ_{ee\hspace{0.03cm}',\hspace{0.05cm}i}(k)$  des aktuellen Subblocks  $i$  des LPC–Prädiktionsfehlersignals  $e_i(l)$  mit dem rekonstruierten LPC–Restsignal  $e\hspace{0.03cm}'_i(l)$  aus den drei vorherigen Teilrahmen berechnet. Das Gedächtnis dieses LTP–Prädiktors beträgt zwischen  $5 \ \rm ms$  und  $15 \ \rm ms$  und ist somit deutlich länger als das des LPC–Prädiktors  $(1 \ \rm ms)$.
  • $e\hspace{0.03cm}'_i(l)$  ist die Summe aus dem LTP–Filter–Ausgangssignal  $y_i(l)$  und dem Korrektursignal  $e_{\rm RPE,\hspace{0.05cm}i}(l)$, das von der folgenden Komponente  (Regular Pulse Excitation)  für den  $i$–ten Subblock bereitgestellt wird.
  • Der Wert von  $k$, für den die Kreuzkorrelationsfunktion  $φ_{ee\hspace{0.03cm}',\hspace{0.05cm}i}(k)$  maximal wird, bestimmt die für jeden Subblock  $i$  optimale LTP–Verzögerung  $N(i)$. Die Verzögerungen  $N(1)$  bis  $N(4)$  werden jeweils mit sieben Bit quantisiert und zur Übertragung bereitgestellt.
  • Der zu  $N(i)$  gehörige Verstärkungsfaktor  $G(i)$  – auch LTP–Gain  genannt – wird so bestimmt, dass der an der Stelle  $N(i)$  gefundene Subblock nach Multiplikation mit  $G(i)$  am besten zum aktuellen Teilrahmen  $e_i(l)$  passt. Die Verstärkungsfaktoren  $G(1)$  bis  $G(4)$  werden jeweils mit zwei Bit quantisiert und ergeben zusammen mit  $N(1)$, ..., $N(4)$  die  $36$  Bit für die acht LTP–Parameter.
  • Das Signal  $y_i(l)$  nach LTP–Analyse und –Filterung ist ein Schätzsignal für das LPC–Signal  $e_i(l)$  im  $i$–ten Subblock. Die Differenz zwischen beiden ergibt das LTP–Restsignal  $e_{\rm LTP,\hspace{0.05cm}i}(l)$, das an die nächste Funktionseinheit „RPE” weitergegeben wird.


$\text{Beispiel 2:}$  Die Grafik aus  [Kai05][1]  zeigt

  • oben das LPC–Prädiktionsfehlersignal  $e_{\rm LPC}(n)$  – gleichzeitig das LTP-Eingangssignal,
  • unten das Restfehlersignal  $e_{\rm LTP}(n)$  nach der Langzeitprädiktion.
LTP–Prädiktionsfehlersignal bei GSM (Zeit–Frequenzdarstellung)


Es wird nur ein Subblock betrachtet. Deshalb wird hier für die diskrete Zeit bei LPC und LTP der gleiche Buchstabe  $n$  verwendet.


Man erkennt aus diesen Darstellungen

  • die kleineren Amplituden von  $e_{\rm LTP}(n)$  gegenüber  $e_{\rm LPC}(n)$  und
  • den deutlich reduzierten Dynamikumfang von  $e_{\rm LTP}(n)$,
  • besonders in periodischen, also stimmhaften Abschnitten.


Auch im Frequenzbereich zeigt sich eine Reduktion des Prädiktionsfehlersignals aufgrund der Langzeitprädiktion.


Regular Pulse Excitation – RPE Coding


Das Signal nach LPC– und LTP–Filterung ist bereits redundanz–reduziert, das heißt, es benötigt eine geringere Bitrate als das abgetastete Sprachsignal  $s(n)$.

Bausteine der Regular Pulse Excitation (RPE) bei GSM
  • Nun wird in der nachfolgenden Funktionseinheit  Regular Pulse Excitation  (RPE) die Irrelevanz weiter verringert.
  • Das bedeutet:   Signalanteile, die für den subjektiven Höreindruck weniger wichtig sind, werden entfernt.


Zu diesem Blockschaltbild ist anzumerken:

  • Die RPE–Codierung wird jeweils für  $5 \ \rm ms$–Teilrahmen  $(40$ Abtastwerte$)$  durchgeführt. Dies ist hier durch den Index  $i$  im Eingangssignal  $e_{\rm LTP},\hspace{0.03cm} i(l)$  angedeutet, wobei mit  $i = 1, 2, 3, 4$  wieder die einzelnen Subblöcke durchnummeriert sind.
  • Im ersten Schritt wird das LTP–Prädiktionsfehlersignal  $e_{{\rm LTP}, \hspace{0.03cm}i}(l)$  durch ein Tiefpassfilter auf etwa ein Drittel der ursprünglichen Bandbreite – also auf  $1.3 \ \rm kHz$  – bandbegrenzt. Dies ermöglicht in einem zweiten Schritt eine Reduktion der Abtastrate um ca. den Faktor  $3$.
  • So wird das Ausgangssignal  $x_i(l)$  mit  $l = 1$, ... , $40$  durch Unterabtastung in vier Teilfolgen  $x_{m, \hspace{0.03cm} i}(j)$  mit  $m = 1$, ... , $4$  und  $j = 1$, ... , $13$  zerlegt. Diese Aufspaltung ist in der Grafik verdeutlicht.
  • Die Teilfolgen  $x_{m,\hspace{0.03cm} i}(j)$  beinhalten folgende Abtastwerte des Signals  $x_i(l)$:
    • $m = 1$:   $l = 1, \ 4, \ 7$, ... , $34, \ 37$ (rote Punkte),
    • $m = 2$:   $l = 2, \ 5, \ 8$, ... , $35, \ 38$ (grüne Punkte),
    • $m = 3$:   $l = 3, \ 6, \ 9$, ... , $36, \ 39$ (blaue Punkte),
    • $m = 4$:   $l = 4, \ 7, \ 10$, ... , $37, \ 40$ $($ebenfalls rot, weitgehend identisch mit  $m = 1)$.


  • Für jeden Subblock  $i$  wird im Block  RPE Grid Selection  die Teilfolge  $x_{m,\hspace{0.03cm}i}(j)$  mit der höchsten Energie ausgewählt und der Index  $M_i$  der  optimalen Folge  mit zwei Bit quantisiert und als  $\mathbf{M}(i)$   übertragen. Insgesamt benötigen die vier RPE–Teilfolgen–Indizes  $\mathbf{M}(1)$, ... ,  $\mathbf{M}(4)$  somit acht Bit.
  • Von der optimalen Teilfolge für den Subblock  $i$  $($mit Index  $M_i)$  wird das  Betragsmaximum  $x_{\rm max,\hspace{0.03cm}i}$  ermittelt, dieser Wert mit sechs Bit logarithmisch quantisiert und als  $\mathbf{x_{\rm max}}(i)$  zur Übertragung bereit gestellt. Insgesamt benötigen die vier RPE–Blockamplituden  $24$  Bit.
  • Zusätzlich wird für jeden Subblock  $i$  die optimale Teilfolge auf  $x_{{\rm max},\hspace{0.03cm}i}$  normiert. Die so erhaltenen  $13$  Abtastwerte werden anschließend mit jeweils drei Bit quantisiert und als  $\mathbf{X}_j(i)$  codiert übertragen. Die  $4 · 13 · 3 = 156$  Bit beschreiben den so genannten  RPE–Pulse.
  • Anschließend werden diese RPE–Parameter lokal wieder decodiert und als Signal  $e_{{\rm RPE},\hspace{0.03cm}i}(l)$  an das LTP–Synthesefilter im vorherigen Subblock zurückgeführt, woraus zusammen mit dem LTP–Schätzsignal  $y_i(l)$  das Signal  $e\hspace{0.03cm}'_i(l)$  erzeugt wird (siehe  LTP–Grafik).
  • Durch das Zwischenfügen von jeweils zwei Nullwerten zwischen zwei übertragenen RPE–Abtastwerten wird näherungsweise das Basisband von Null bis  $1300 \ \rm Hz$  in den Bereich von  $1300 \ \rm Hz$  bis  $2600 \ \rm Hz$  in Kehrlage und von  $2600 \ \rm Hz$  bis  $3900 \ \rm Hz$  in Normallage gefaltet. Dies ist der Grund für die notwendige Gleichsignalbefreiung in der Vorverarbeitung. Sonst entstünde durch die beschriebene Faltungsoperation ein störender Pfeifton bei  $2.6 \ \rm kHz$.


Halfrate Vocoder und Enhanced Fullrate Codec


Nach der Standardisierung des Vollraten–Codecs im Jahre 1991 ging es in der Folgezeit um die Entwicklung neuer Sprachcodecs mit zwei spezifischen Zielen, nämlich um

  • die bessere Ausnutzung der in GSM–Systemen verfügbaren Bandbreite, und
  • die Verbesserung der Sprachqualität.


Diese Entwicklung kann wie folgt zusammengefasst werden:

  • Bis 1994 wurde mit dem  Halfrate Vocoder  (deutsch:  Halbraten-Codec)  ein neues Verfahren entwickelt. Dieser hat eine Datenrate von  $5.6 \ \rm kbit/s$  und bietet so die Möglichkeit, Sprache in einem halben Verkehrskanal bei annähernd gleicher Qualität zu übertragen. Dadurch können auf einem Zeitschlitz zwei Gespräche gleichzeitig abgewickelt werden. Der Halbraten–Codec wurde allerdings von den Mobilfunkbetreibern nur dann eingesetzt, wenn eine Funkzelle überlastet war. Inzwischen spielt der Halfrate–Codec keine Rolle mehr.
  • Um die Sprachqualität weiter zu verbessern, wurde 1995 der  Enhanced Fullrate Codec  (EFR–Codec) eingeführt. Dieses Sprachcodierverfahren – ursprünglich für das US–amerikanische DCS1900–Netz entwickelt – ist ein Vollraten–Codec mit der (etwas niedrigeren) Datenrate  $12.2 \ \rm kbit/s$. Die Nutzung dieses Codecs muss natürlich vom Mobiltelefon unterstützt werden.
  • Statt der RPE–LTP–Komprimierung (Regular Pulse Excitation – Long Term Prediction) beim herkömmlichen Vollraten–Codec wird bei dieser Weiterentwicklung zudem  Algebraic Code Excitation Linear Prediction  (ACELP) angewandt, was eine deutlich bessere Sprachqualität und eine ebenfalls verbesserte Fehlererkennung und –verschleierung bietet. Nähere Informationen darüber finden Sie auf der übernächsten Seite.


Adaptive Multi–Rate Codec


Die bisher beschriebenen GSM–Codecs arbeiten hinsichtlich Sprach– und Kanalcodierung unabhängig von den Kanalbedingungen und der Netzauslastung stets mit einer festen Datenrate. 1997 wurde ein neues adaptives Sprachcodierverfahren für Mobilfunksysteme entwickelt und kurz darauf durch das European Telecommunications Standards Institute (ETSI) nach Vorschlägen der Firmen Ericsson, Nokia und Siemens standardisiert. Bei den Forschungsarbeiten zum Systemvorschlag der Siemens AG war der Lehrstuhl für Nachrichtentechnik der TU München, der dieses Lerntutorial $\rm LNTwww$ zur Verfügung stellt, entscheidend beteiligt. Näheres finden Sie unter  [Hin02][2].

Der  Adaptive Multi–Rate Codec  – abgekürzt AMR – hat folgende Eigenschaften:

  • Er passt sich flexibel an die aktuellen Kanalgegebenheiten und an die Netzauslastung an, indem er entweder im Vollraten–Modus (höhere Sprachqualität) oder im Halbraten–Modus (geringere Datenrate) arbeitet. Daneben gibt es noch etliche Zwischenstufen.
  • Er bietet sowohl beim Vollraten– als auch beim Halbratenverkehrskanal eine verbesserte Sprachqualität, was auf die flexibel handhabbare Aufteilung der zur Verfügung stehenden Brutto–Kanaldatenrate zwischen Sprach– und Kanalcodierung zurückzuführen ist.
  • Er besitzt eine größere Robustheit gegenüber Kanalfehlern als die Codecs aus der Frühzeit der Mobilfunktechnik. Dies gilt besonders beim Einsatz im Vollraten–Verkehrskanal.


Der AMR–Codec stellt  acht verschiedene Modi  mit Datenraten zwischen  $12.2 \ \rm kbit/s$  $(244$  Bit pro Rahmen von  $20 \ \rm ms)$  und  $4.75 \ \rm kbit/s$  $(95$ Bit pro Rahmen$)$ zur Verfügung. Drei Modi spielen eine herausgehobene Rolle, nämlich

  • $12.2 \ \rm kbit/s$  – der verbesserte GSM–Vollraten–Codec (EFR-Codec),
  • $7.4 \ \rm kbit/s$  – die Sprachkompression gemäß dem US–amerikanischen Standard IS–641, und
  • $6.7 \ \rm kbit/s$  – die EFR–Sprachübertragung des japanischen PDC–Mobilfunkstandards.


Die folgenden Beschreibungen beziehen sich meist auf den Modus mit  $12.2 \ \rm kbit/s$.

Zusammenstellung der AMR–Parameter
  • Alle Vorgänger–Verfahren des AMR basieren auf der Minimierung des Prädiktionsfehlersignals durch eine Vorwärtsprädiktion in den Teilschritten LPC, LTP und RPE.
  • Im Gegensatz dazu verwendet der AMR-Codec eine Rückwärtsprädiktion gemäß dem Prinzip „Analyse durch Synthese”. Dieses Codierungsprinzip bezeichnet man auch als  Algebraic Code Excited Linear Prediction  (ACELP).


In der Tabelle sind die Parameter des Adaptive Multi–Rate Codecs für zwei Modi zusammengestellt:

  •   $244$  Bit pro  $20 \ \rm ms$   ⇒   Modus  $12.2 \ \rm kbit/s$,
  •   $95$  Bit pro  $20 \ \rm ms$   ⇒   Modus  $4.75 \ \rm kbit/s$.


Algebraic Code Excited Linear Prediction


Die Grafik zeigt den auf  ACELP  basierenden  AMR-Codec. Es folgt eine kurze Beschreibung des Prinzips. Eine detaillierte Beschreibung finden Sie zum Beispiel in  [1].

Algebraic Code Excited Linear Prediction – Prinzip
  • Das Sprachsignal  $s(n)$, wie beim GSM–Vollraten–Sprachcodec mit  $8 \ \rm kHz$  abgetastet und mit  $13$  Bit quantisiert, wird vor der weiteren Verarbeitung in Rahmen  $s_{\rm R}(n)$  mit  $n = 1$, ... , $160$  bzw. in Subblöcke  $s_i(l)$  mit  $i = 1, 2, 3, 4$  und  $l = 1$, ... , $40$  segmentiert.
  • Die Berechnung der LPC–Koeffizienten erfolgt im rot hinterlegten Block rahmenweise alle  $20 \ \rm ms$  entsprechend  $160$  Abtastwerten, da innerhalb dieser kurzen Zeitspanne die spektrale Einhüllende des Sprachsignal  $s_{\rm R}(n)$  als konstant angesehen werden kann.
  • Zur LPC–Analyse wird meist ein Filter  $A(z)$  der Ordnung  $10$  gewählt. Beim höchstratigen Modus mit  $12.2 \ \rm kbit/s$  werden die aktuellen Koeffizienten  $a_k \ ( k = 1$, ... , $10)$  der Kurzzeitprädiktion alle  $10\ \rm ms$  quantisiert, codiert und beim gelb hinterlegten Punkt 1 zur Übertragung bereitgestellt.
  • Die weiteren Schritte des AMR werden alle  $5 \ \rm ms$  entsprechend den  $40$  Abtastwerten der Signale  $s_i(l)$  durchgeführt. Die Langzeitprädiktion (LTP) – im Bild blau umrandet – ist hier als adaptives Codebuch realisiert, in dem die Abtastwerte der vorangegangenen Subblöcke eingetragen sind.
  • Für die Langzeitprädiktion (LTP) wird zunächst die Verstärkung  $G_{\rm FCB}$  für das  Fixed Code Book  (FCB) zu Null gesetzt, so dass eine Folge von  $40$  Samples des adaptiven Codebuchs am Eingang  $u_i(l)$  des durch die LPC festgelegten Sprachtraktfilters  $A(z)^{–1}$  anliegen. Der Index  $i$  bezeichnet den betrachteten Subblock.
  • Durch Variation der beiden LTP–Parameter  $N_{{\rm LTP},\hspace{0.05cm}i}$  und  $G_{{\rm LTP},\hspace{0.05cm}i}$  soll für diesen  $i$–ten Subblock erreicht werden, dass der quadratische Mittelwert – also die mittlere Leistung – des gewichteten Fehlersignals  $w_i(l)$  minimal wird.
  • Das Fehlersignal  $w_i(l)$  ist gleich der Differenz zwischen dem aktuellen Sprachrahmen  $s_i(l)$  und dem Ausgangssignal  $y_i(l)$  des so genannten Sprachtraktfilters bei Anregung mit  $u_i(l)$, unter Berücksichtigung des Wichtungsfilters  $W(z)$  zur Anpassung an die Spektraleigenschaften des menschlichen Gehörs.
  • In anderen Worten:   $W(z)$  entfernt solche spektralen Anteile im Signal  $e_i(l)$, die von einem „durchschnittlichen” Ohr nicht wahrgenommen werden. Beim Modus  $12.2 \ \rm kbit/s$  verwendet man  $W(z) = A(z/γ_1)/A(z/γ_2)$  mit konstanten Faktoren  $γ_1 = 0.9$  und  $γ_2 = 0.6$.
  • Für jeden Subblock kennzeichnet  $N_{{\rm LTP},\hspace{0.05cm}i}$  die bestmögliche LTP–Verzögerung, die zusammen mit der LTP–Verstärkung  $G_{{\rm LTP},\hspace{0.05cm}i}$  nach Mittelung bezüglich  $l = 1$, ... , $40$  den quadratischen Fehler  $\text{E}[w_i(l)^2]$  minimiert. Gestrichelte Linien kennzeichnen Steuerleitungen zur iterativen Optimierung.
  • Man bezeichnet die beschriebene Vorgehensweise als  Analyse durch Synthese. Nach einer ausreichend großen Anzahl an Iterationen wird der Subblock  $u_i(l)$  in das adaptive Codebuch aufgenommen. Die ermittelten LTP–Parameter  $N_{{\rm LTP},\hspace{0.05cm}i}$  und  $G_{{\rm LTP},\hspace{0.05cm}i}$  werden codiert und zur Übertragung bereitgestellt.


Fixed Code Book – FCB


Spureinteilung beim ACELP-Sprachcodec

Nach der Ermittlung der besten adaptiven Anregung erfolgt die Suche nach dem besten Eintrag im festen Codebuch (Fixed Code Book, FCB).

  • Dieses liefert die wichtigste Information über das Sprachsignal.
  • Zum Beispiel werden beim  $12.2 \ \rm kbit/s$–Modus hieraus pro Subblock  $40$  Bit abgeleitet.
  • Somit gehen in jedem Rahmen von  $20$  Millisekunden  $160/244 ≈ 65\%$  der Codierung auf den im Bild auf der letzten Seite grün umrandeten Block zurück.


Das Prinzip lässt sich anhand der Grafik in wenigen Stichpunkten wie folgt beschreiben:

  • Im festen Codebuch kennzeichnet jeder Eintrag einen Puls, bei dem genau  $10$  der  $40$  Positionen mit  $+1$  bzw.  $-1$  belegt sind. Erreicht wird dies gemäß der Grafik durch fünf Spuren mit jeweils acht Positionen, von denen genau zwei die Werte  $±1$  aufweisen und alle anderen Null sind.
  • Ein roter Kreis in obiger Grafik  $($an den Positionen  $2,\ 11,\ 26,\ 30,\ 38)$  kennzeichnet eine  $+1$  und ein blauer eine  $-1$  $($im Beispiel bei  $13,\ 17,\ 19,\ 24,\ 35)$. In jeder Spur werden die beiden belegten Positionen mit lediglich je drei Bit codiert (da es nur acht mögliche Positionen gibt).
  • Für das Vorzeichen wird ein weiteres Bit verwendet, welches das Vorzeichen des erstgenannten Impulses definiert. Ist die Pulsposition des zweiten Impulses größer als die des ersten, so hat der zweite Impuls das gleiche Vorzeichen wie der erste, ansonsten das entgegengesetzte.
  • In der ersten Spur des obigen Beispiels gibt es positive Pulse auf Position  $2 \ (010)$  und Position  $5 \ (101)$, wobei die Positionszählung bei  $0$  beginnt. Diese Spur ist also gekennzeichnet durch die Positionen  $010$  und  $101$  sowie das Vorzeichen  $1$  (positiv).
  • Die Kennzeichnung für die zweite Spur lautet:   Positionen  $011$  und  $000$, Vorzeichen  $0$. Da hier die Pulse an Position  $0$  und  $3$  unterschiedliche Vorzeichen haben, steht  $011$  vor  $000$. Das Vorzeichen $0$   ⇒   negativ bezieht sich auf den Puls an der erstgenannten Position  $3$.
  • Ein jeder Puls – bestehend aus  $40$  Impulsen, von denen allerdings  $30$  das Gewicht "Null" besitzen – ergibt ein stochastisches, rauschähnliches Akustiksignal, das nach Verstärkung mit  $G_{{\rm LTP},\hspace{0.05cm}i}$  und Formung durch das LPC–Sprachtraktfilter  $A(z)^{–1}$  den Sprachrahmen  $s_i(l)$  approximiert.


Aufgaben zum Kapitel


Aufgabe 3.5: GSM–Vollraten–Sprachcodec

Aufgabe 3.6: Adaptive Multi–Rate Codec

Quellenverzeichnis

  1. 1.0 1.1 1.2 1.3 Kaindl, M.:  Channel coding for voice and data in GSM systems.  Dissertation. Chair of Communications Engineering, TU Munich. VDI Fortschritt-Berichte, Series 10, No. 764, 2005. Cite error: Invalid <ref> tag; name "Kai05" defined multiple times with different content Cite error: Invalid <ref> tag; name "Kai05" defined multiple times with different content Cite error: Invalid <ref> tag; name "Kai05" defined multiple times with different content
  2. Hindelang, T.: Source-Controlled Channel Decoding and Decoding for Mobile Communications. Dissertation. Lehrstuhl für Nachrichtentechnik, TU München. VDI Fortschritt-Berichte, Reihe 10, Nr. 695, 2002.