<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://en.lntwww.de/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Wael</id>
	<title>LNTwww - User contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://en.lntwww.de/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Wael"/>
	<link rel="alternate" type="text/html" href="https://en.lntwww.de/Special:Contributions/Wael"/>
	<updated>2026-04-28T21:58:48Z</updated>
	<subtitle>User contributions</subtitle>
	<generator>MediaWiki 1.34.1</generator>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Further_Developments_of_UMTS&amp;diff=22129</id>
		<title>Examples of Communication Systems/Further Developments of UMTS</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Further_Developments_of_UMTS&amp;diff=22129"/>
		<updated>2018-01-03T17:05:31Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{LastPage}} &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=UMTS – Universal Mobile Telecommunications System&lt;br /&gt;
|Vorherige Seite=Nachrichtentechnische Aspekte von UMTS&lt;br /&gt;
|Nächste Seite=&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==High–Speed Downlink Packet Access==  	 &lt;br /&gt;
&lt;br /&gt;
Um dem ständig steigenden Bedarf an höheren Datenraten im Mobilfunk gerecht zu werden und um eine immer bessere Dienstgüte zu gewährleisten, wurde der Standard UMTS–Release 99 bis heute (2008) in fünf Phasen weiterentwickelt. In der Grafik sind die einzelnen Entwicklungsphasen zeitlich dargestellt.&lt;br /&gt;
&lt;br /&gt;
Die wichtigsten Weiterentwicklungen waren&lt;br /&gt;
*das UMTS Release 5 mit '''HSDPA''' und&lt;br /&gt;
*das UMTS Release 6 mit '''HSUPA'''.&lt;br /&gt;
&lt;br /&gt;
Für diese beiden Standards standen vor allem die Steigerung der zur Verfügung gestellten Datenraten für Downlink und Uplink sowie eine größere Bandbreiteneffizienz und Zellenkapazität im Vordergrund. Zusammen ergeben HSDPA und HSUPA den '''HSPA–Standard'''.&lt;br /&gt;
*Im Jahre 2002 wurde ''High–Speed Downlink Packet Access'' – abgekürzt '''HSDPA''' – im Rahmen von UMTS Release 5 spezifiziert und 2006 eingeführt, um Datenrate und Durchsatz gegenüber dem ursprünglichen UMTS–Standard zu steigern sowie die Antwortzeiten bei paketvermittelten Übertragungen zu verkürzen.&lt;br /&gt;
*In HSPDA betragen die zur Verfügung gestellten Datenraten zwischen 500 kbit/s und 3.6 Mbit/s – theoretisch sogar bis 14.4 Mbit/s. Im Vergleich zur Datenrate von UMTS R’99 (144 kbit/s bis 2 Mbit/s) stellen diese Werte eine Verdoppelung bis Vervierfachung dar.&lt;br /&gt;
&lt;br /&gt;
Folgende technische Verfahren tragen zur Steigerung der Leistungsfähigkeit von HSDPA gegenüber UMTS bei. Im Schaubild sind die Features zusammengestellt:&lt;br /&gt;
*Einführung eines zusätzlichen gemeinsam genutzten Kanals: '''HS–PDSCH''',&lt;br /&gt;
*Verwendung des '''Hybrid–ARQ–Verfahrens''',&lt;br /&gt;
*Minimierung der '''Verzögerungszeiten''',&lt;br /&gt;
*Einführung eines '''Node B Schedulings''',&lt;br /&gt;
*Verwendung von '''adaptiver''' Modulation, Codierung und Übertragungsrate.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==Zusätzliche Kanäle in HSDPA==  	 	 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Der ''High–Speed Downlink Physical High Speed Channel'' – Kurzbezeichnung '''HS–PDCH''' – ist ein Hochgeschwindigkeits–Transportkanal, der für die Übertragung von Teilnehmerdaten verwendet wird. Er vereinigt die Eigenschaften eines gemeinsam genutzten und eines dedizierten Kanals:&lt;br /&gt;
*Im Downlink können ein oder mehrere Kanäle von mehreren Teilnehmern gleichzeitig verwendet werden. Dies ermöglicht die simultane Übertragung gleicher Daten an unterschiedliche Teilnehmer sowie eine signifikante Erhöhung der Übertragungsgeschwindigkeit durch Bündelung mehrerer Kanäle dieser Art.&lt;br /&gt;
*In einem jeden HS–PDCH beträgt der Spreizfaktor $J$ = 16. Dies bedeutet, dass in einer Zelle theoretisch bis zu 15 solcher Kanäle gleichzeitig verwendet werden können. In der Praxis werden jedoch stets nur zwischen 5 und 10 Kanäle genutzt, da die restlichen Kanäle für den Betrieb anderer Dienste benötigt werden.&lt;br /&gt;
&lt;br /&gt;
Die Ressourcenzuteilung für den ''High–Speed Shared Data Channel'' ('''HS–DSCH''') erfolgt über so genannte ''High–Speed Shared Control Channels'' ('''HS–SCCH'''). Ein Empfänger muss daher in der Lage sein, bis zu vier solcher Kanäle gleichzeitig zu empfangen und zu decodieren.&lt;br /&gt;
&lt;br /&gt;
Zusätzlich zu den oben vorgestellten Kanälen wird ein ''Dedicated Physical Control Channel'' ('''DPCCH''') für die Übertragung von Kontrolldaten im Uplink und ein ''Dedicated Control Channel'' ('''DCCH''') für die Lokalisierungsprozedur im Down– und Uplink genutzt. Für die Übertragung von IP–Nutzdaten in der Aufwärtsrichtung ist jeweils ein ''Dedicated Traffic Channel'' ('''DTCH''') verantwortlich.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==HARQ–Verfahren und Node B Scheduling  ==	 &lt;br /&gt;
&lt;br /&gt;
Ein weiteres Merkmal von HSDPA ist die Reduzierung der Paketumlaufzeit (englisch: ''Round–Trip Delay'', RTD) und die Verwendung des HARQ–Verfahrens:&lt;br /&gt;
*Die '''Paketumlaufzeit''' wurde durch HSDPA auf 70 ms gesenkt (gegenüber 160 ... 200 ms bei UMTS R’99), was für einige Anwendungen (zum Beispiel Web–Browsing) von großer Bedeutung ist. Diese Reduzierung wurde durch Verringern der Transportblocklänge auf ca. 2 Millisekunden erreicht (vorher hatte diese 10 ms bzw. 20 ms betragen).&lt;br /&gt;
*In jedem Node B wurde ein '''Hybrid Automatic Repeat Request''' (HARQ) implementiert, um die Übertragungsverzögerungen zu minimieren. Dieser Mechanismus verhindert, dass es durch das erneute Übertragen von fehlerhaften Blöcken zu signifikanten Verzögerungen kommt. Solche Verzögerungen können nämlich vom TCP–Protokoll als Blockierungen interpretiert werden, was dann zu weiteren Verzögerungen führt.&lt;br /&gt;
&lt;br /&gt;
Unter Verwendung des HARQ–Mechanismus und mit Transportblocklängen von 2 ms betragen die Übertragungsverzögerungen in HSPDA weniger als 10 ms. Dies stellt eine entscheidende Verbesserung im Vergleich zu UMTS dar, bei dem eine Fehlerdetektion (verbunden mit einer erneuten Übertragung) ca. 90 ms in Anspruch nimmt.&lt;br /&gt;
&lt;br /&gt;
Beim HARQ–Verfahren wird bei jedem einzelnen Transportrahmen die Detektion eines bzw. keines Fehlers (englisch: ''Acknowledgement'', ACK/NACK) quittiert. Dieses Verfahren wird als '''Stop and Wait''' (SAW) bezeichnet.&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt die erreichbare Datenrate in Abhängigkeit des Quotienten $E_B/N_0$ (in dB). Man erkennt entscheidende Verbesserungen durch den HARQ–Mechanismus, insbesondere bei kleinen Werten von $E_B/N_0$. Dagegen wird mit HARQ die Datenrate nicht weiter vergrößert, wenn 10 · lg $E_B/N_0$ &amp;gt; 2 dB ist.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Grafik soll die '''Funktionsweise des HARQ–Verfahrens''' verdeutlichen. Es sind dabei folgende Schritte zu unterscheiden:&lt;br /&gt;
*Vor dem Senden informiert die Basisstation den Empfänger mit Hilfe des Kanals HS–SCCH über eine bevorstehende Übertragung, wobei ein HS–SCCH–Rahmen über drei Zeitschlitze verfügt.&lt;br /&gt;
*Die Kontrolldaten kommen beim Empfänger an und werden unmittelbar nach Ankunft des ersten SCCH–Zeitschlitzes ausgewertet. Die Datenübertragung auf dem HS–PDSCH startet, sobald der Teilnehmer die ersten zwei Zeitschlitze des Kontrolldatenblocks erhalten hat.&lt;br /&gt;
*Innerhalb von fünf Millisekunden nach Erhalt eines Datenrahmens muss der Empfänger den gesamten Rahmen decodiert und auf Fehler überprüft haben.&lt;br /&gt;
*Im Falle einer fehlerfreien Übertragung wird eine positive Quittierung (ACK) in Aufwärtsrichtung versendet, ansonsten wird dem Node B ein ''Non Acknowledgement'' (NACK) geschickt.&lt;br /&gt;
&lt;br /&gt;
Da der HARQ einen neuen Rahmen erst versendet, wenn die Quittierung der bereits übertragenen Rahmen vorliegt, muss der Empfänger in der Lage sein, bis zu acht HARQs zu verwalten. Dies garantiert die richtige Reihenfolge und dadurch die richtige Verarbeitung der Daten in den höheren Ebenen.&lt;br /&gt;
&lt;br /&gt;
Zusätzlich zum HARQ–Verfahren wurde in dem ''UMTS Release 5'' ein '''Node B Scheduling''' eingeführt, um auf Veränderungen der Übertragungsbedingungen einzelner Teilnehmer (zum Beispiel durch Fading) schnell reagieren zu können. Mit Hilfe dieses Schedulings wird entschieden, welche Rahmen welchem Übertragungskanal zugewiesen werden.&lt;br /&gt;
&lt;br /&gt;
Bei dem Scheduling werden Prioritäten vergeben und ein Rahmen wird erst gesendet, wenn er über die höchste Priorität verfügt, was gleichbedeutend damit ist, dass er mit der größten Wahrscheinlichkeit richtig empfangen wird. Durch dieses Scheduling wird die zur Verfügung gestellte Bandbreite besser ausgenutzt und die Zellenkapazität signifikant gesteigert.&lt;br /&gt;
	 &lt;br /&gt;
&lt;br /&gt;
==Adaptive Modulation, Codierung und Übertragungsrate==  	 &lt;br /&gt;
&lt;br /&gt;
In HSDPA werden die Signale ''adaptiv moduliert''. Das bedeutet:&lt;br /&gt;
*Unter guten Übertragungsbedingungen wird 16–QAM bzw. 64–QAM verwendet.&lt;br /&gt;
*Bei schlechteren Bedingungen wird auf QPSK umgeschaltet.&lt;br /&gt;
&lt;br /&gt;
Zusätzlich zur Modulation kann die Codierung sowie die Anzahl der von einem Teilnehmer gleichzeitig verwendeten HS–DSCH–Kanäle je nach Kanalqualität ziemlich flexibel und schnell (alle 2 ms) verändert werden. Trotz der gleichzeitigen Verwendung von adaptiver Modulation und adaptiver Codierung wird die Leistung stets konstant gehalten.&lt;br /&gt;
&lt;br /&gt;
Die Leistungsregelung läuft in HSDPA unterschiedlich zu UMTS R’99 ab:&lt;br /&gt;
*Die Sendeleistung wird stets an die Signalqualität angepasst, während die Bandbreite möglichst konstant gehalten werden sollte.&lt;br /&gt;
*Nur falls die Leistung nicht mehr erhöht werden kann, wird der Spreizfaktor vergrößert und damit die Datenrate herunter gesetzt.&lt;br /&gt;
&lt;br /&gt;
Die maximal erreichbare Datenrate hängt vorwiegend von der ''Leistungsfähigkeit des Empfängers'' sowie vom ''Transportformat und den Ressourcenkombinationen'' (TFRC) ab.&lt;br /&gt;
&lt;br /&gt;
In der Tabelle sind verschiedene Parameterkombinationen für Modulation und Coderate angegeben und die daraus resultierenden Bitraten zu ersehen. Nicht berücksichtigt ist der Overhead.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==High–Speed Uplink Packet Access==  &lt;br /&gt;
&lt;br /&gt;
Seit UMTS R’99 wurden die Spezifikationen für den Uplink nicht mehr weiterentwickelt, obwohl die bidirektionalen symmetrischen Anwendungen immer mehr an Bedeutung gewonnen haben und immer größere Anforderungen an die Übertragungsgeschwindigkeiten gestellt wurden. Die Datenraten betrugen bis zur Einführung von Release 6 zwischen 64 und 128 kbit/s, bei idealen Bedingungen bis zu 384 kbit/s.&lt;br /&gt;
&lt;br /&gt;
Mit dem UMTS Release 6 wurde 2004 '''High-Speed Uplink Packet Access''' (HSUPA) definiert und 2007 eingeführt. Dadurch wurden die Datenraten auf der Aufwärtsstrecke erheblich gesteigert. Diese betragen theoretisch bis zu 5.8 Mbit/s. In der Praxis werden – unter Berücksichtigung der gleichzeitigen Übertragung für mehrere Nutzer und der Empfängerkapazität – immerhin Übertragungsraten bis ca. 800 kbit/s erreicht.&lt;br /&gt;
&lt;br /&gt;
Die wesentliche Verbesserung durch HSUPA ist auf die Einführung eines zusätzlichen Aufwärtskanals zurückzuführen, dem so genannten ''Enhanced Dedicated Channel'' ('''E-DCH'''). Dieser minimiert unter anderem in den dedizierten Uplink–Kanälen den Einfluss von Anwendungen mit stark unterschiedlichen und teilweise sehr intensiven Datenaufkommen (englisch: ''Bursty Traffic'').&lt;br /&gt;
&lt;br /&gt;
Obwohl der E–DCH ein dedizierter Transportkanal ist, garantiert er dem Teilnehmer allerdings keine feste Bandbreite in Aufwärtsrichtung, wie es bei UMTS R’99 der Fall ist. Diese flexible und effiziente Zuteilung der Bandbreite in Abhängigkeit der Kanalbedingungen erlaubt eine wesentliche Steigerung der Zellenkapazität.&lt;br /&gt;
&lt;br /&gt;
Neben dem neuen Transportkanal (E–DCH) wurden auch im Uplink (HSUPA) analog zum Downlink (HSDPA) zusätzlich folgende Verfahren eingeführt:&lt;br /&gt;
*''Node B Scheduling'',&lt;br /&gt;
*''Hybrid Automatic Repeat Request'' (HARQ).&lt;br /&gt;
&lt;br /&gt;
Die Verwendung von HSUPA im Uplink ist nur dann sinnvoll, wenn es mit HSDPA im Downlink kombiniert wird. Ihr Zusammenwirken steigert die Leistungsfähigkeit des Gesamtsystems signifikant.&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
==UTRAN Long Time Evolution==  	&lt;br /&gt;
&lt;br /&gt;
'''Long Term Evolution''' (LTE) stellt ein Mobilfunksystem der vierten Generation dar, das von der 3gpp parallel zu den unterschiedlichen Weiterentwicklungsphasen von UMTS entworfen und standardisiert wurde, um den stetig wachsenden Anforderungen an zukünftige Mobilfunksysteme gerecht zu werden. Dieses System wird auch als ''High Speed OFDM Packet Access'' (HSOPA) bezeichnet.&lt;br /&gt;
&lt;br /&gt;
LTE stellt eine zukunftsweisende Alternative zu den aktuellen Mobilfunksystemen der dritten Generation dar. Die Grundzüge von LTE wurden 2004 definiert, konkrete Anforderungen wurden aber erst 2006 erstellt. Erste Systeme begannen 2011 mit dem Betrieb.&lt;br /&gt;
&lt;br /&gt;
Nachfolgend sind einige Merkmale von UTRAN–LTE stichpunktartig und kommentarlos aufgelistet:&lt;br /&gt;
*Die für GSM und UMTS zugewiesenen ''Frequenzbereiche'' sollen weiterhin verwendet werden, allerdings ist eine Erweiterung in den Bereich um 2600 MHz geplant.&lt;br /&gt;
*Es sollen zwischen 200 und 400 aktive Teilnehmer gleichzeitig versorgt werden können, was eine Steigerung der ''Zellenkapazität'' gegenüber UMTS um den Faktor 2 bis 3 bedeutet.&lt;br /&gt;
*Die Reichweite soll von 5 km (bei optimaler Güte) bis zu 100 km (mit reduzierter Qualität) reichen. Die ''maximalen Datenraten'' sind 100 Mbit/s im Downlink und 50 Mbit/s im Uplink.&lt;br /&gt;
*Die ''Verzögerungszeiten'' sollen auf weniger als 5 ms bei größeren Bandbreitenzuweisungen und auf 10 ms bei kleineren Bandbreitenzuweisungen herabgesetzt werden.&lt;br /&gt;
*Die Bandbreiten sollen mit 1.25 MHz, 2.5 MHz, 5 MHz, 10 MHz, 15 MHz und 20 MHz in einem sehr weiten Bereich flexibel zugewiesen werden können.&lt;br /&gt;
*Vielfachzugriffsverfahren sind Orthogonal Frequency Division Multiple Access (OFDMA) im Downlink und ''Single Carrier Frequency Division Multiple Muplexing'' (SC–FDMA) im Uplink.&lt;br /&gt;
*Trotz dieser vielfachen Neuerungen soll es Kompatibilität zu den Mobilfunksystemen vorheriger Generationen geben und ein nahtloser Übergang zu diesen möglich sein.&lt;br /&gt;
&lt;br /&gt;
Das Schaubild fasst die Entwicklung der Mobilfunksysteme aus der Sicht des Jahres 2011 zusammen.&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
== Aufgabe zu Kapitel 4.4==  	 &lt;br /&gt;
[[Aufgaben:4.8_HSDPA_und_HSUPA|Aufgabe 4.8: HSDPA und HSUPA]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Telecommunications_Aspects_of_UMTS&amp;diff=22128</id>
		<title>Examples of Communication Systems/Telecommunications Aspects of UMTS</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Telecommunications_Aspects_of_UMTS&amp;diff=22128"/>
		<updated>2018-01-03T17:04:58Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=UMTS – Universal Mobile Telecommunications System&lt;br /&gt;
|Vorherige Seite=UMTS–Netzarchitektur&lt;br /&gt;
|Nächste Seite=Weiterentwicklungen von UMTS&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Sprachcodierung == 	&lt;br /&gt;
&lt;br /&gt;
Im Kapitel GSM dieses Buches wurden bereits mehrere Sprachcodecs ausführlich beschrieben. Ein Sprachcodec dient zur Reduzierung der Datenrate eines digitalisierten Sprach– oder Musiksignals. Dabei wird Redundanz und Irrelevanz aus dem Originalsignal entfernt. Das Kunstwort Codec weist darauf hin, dass die gleiche Funktionseinheit sowohl zur Codierung wie auch zur Decodierung verwendet wird.&lt;br /&gt;
&lt;br /&gt;
Unter anderem wurde der '''Adaptive Multi-Rate''' Codec (AMR) vorgestellt, der im Frequenzbereich von 300 bis 3400 Hz ein dynamisches Umschalten zwischen acht verschiedenen Modi (Einzelcodecs) unterschiedlicher Datenrate im Bereich von 4.75 bis 12.2 kbit/s erlaubt und auf ACELP basiert.&lt;br /&gt;
&lt;br /&gt;
Auch in UMTS Release 99 und UMTS Release 4 werden diese AMR–Codecs unterstützt. Sie erlauben im Vergleich zu den früheren Sprachcodecs (''Full–Rate, Half–Rate'' und ''Enhanced Full–Rate Vocoder'')&lt;br /&gt;
*eine Unabhängigkeit von den Kanalbedingungen und der Netzauslastung,&lt;br /&gt;
*die Möglichkeit, die Datenraten an die Bedingungen anzupassen,&lt;br /&gt;
*einen verbesserten flexiblen Fehlerschutz bei stärkerer Funkstörung, und&lt;br /&gt;
*dadurch insgesamt eine bessere Sprachqualität.&lt;br /&gt;
&lt;br /&gt;
Im Jahre 2001 wurde vom 3gpp–Forum (''3rd Generation Partnership Project'') und der ''International Telecommuncation Union'' (ITU) für das UMTS Release 5 der neue Sprachcodec '''Wideband–AMR''' spezifiziert. Dieser ist eine Weiterentwicklung des AMR und bietet&lt;br /&gt;
*eine erweiterte Bandbreite von 50 bis 7000 Hz (Abtastfrequenz 16 kHz),&lt;br /&gt;
*insgesamt 9 Modi zwischen 6.6 und 23.85 kbit/s (wovon aber nur 5 genutzt werden), und&lt;br /&gt;
*eine verbesserte Sprachqualität und einen besseren, natürlicheren Klang.&lt;br /&gt;
&lt;br /&gt;
Die Tabelle gibt eine Übersicht über die verschiedenen Modi und deren Bitumfang.&lt;br /&gt;
&lt;br /&gt;
Sie können sich die Qualität dieser Sprachcodierverfahren bei Sprache und Musik mit dem folgenden Interaktionsmodul verdeutlichen:&lt;br /&gt;
Qualität verschiedener Sprach–Codecs (Dateigröße: 11.3 MB !)&lt;br /&gt;
&lt;br /&gt;
''Anmerkung'': Die untere Grenzfrequenz von Wideband-AMR ist zwar mit 50 Hz spezifiziert, aber auf Grund verwendeter Vorfilter ist diese meist – und auch in der Audio–Demo – auf 200 Hz angehoben, um die Störanfälligkeit zu reduzieren und die Kenndaten von Handy–Lautsprechern und –Mikrofonen zu berücksichtigen.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
Im Folgenden sind einige wesentliche '''Merkmale von Wideband–AMR''' aufgelistet:&lt;br /&gt;
*Die Sprachdaten werden an den Codec als PCM–codierte Sprache mit '''16000 Abtastwerten pro Sekunde''' geliefert. Die Sprachcodierung erfolgt in '''Blöcken von 20 ms''' und die Datenrate wird alle 20 ms angepasst.&lt;br /&gt;
*Das Frequenzband (50 Hz bis 7000 Hz) wird in zwei Teilbänder unterteilt, die unterschiedlich codiert werden, um mehr Bits den subjektiv wichtigen Frequenzen zuweisen zu können. Das obere Band (6400 Hz bis 7000 Hz) wird nur im höchsten Modus (23.85 kbit/s) übertragen. In allen anderen Modi werden bei der Codierung nur die Frequenzen 50 Hz bis 6400 Hz berücksichtigt.&lt;br /&gt;
*Wideband–AMR unterstützt '''Discontinuous Transmission''' (DTX). Dieses Feature bedeutet, dass die Übertragung bei Sprachpausen angehalten wird, wodurch sowohl der Energieverbrauch der Mobilstation als auch die Gesamtinterferenz an der Luftschnittstelle gesenkt werden. Dieses Verfahren ist auch unter dem Namen ''Source–Controlled Rate'' (SCR) bekannt.&lt;br /&gt;
*Die '''Voice Activity Detection''' (VAD) ermittelt, ob gerade gesprochen wird oder nicht und fügt auch bei kürzeren Sprachpausen einen SID–Rahmen (''Silence Descriptor'') ein. Dem Teilnehmer wird das Gefühl einer kontinuierlichen Verbindung suggeriert, indem der Decoder während Sprachpausen synthetisch erzeugtes Hintergrundgeräusch (englisch: ''Comfort Noise'') einfügt.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Anwendung des CDMA–Verfahrens in UMTS==  &lt;br /&gt;
&lt;br /&gt;
UMTS verwendet das Vielfachzugriffsverfahren '''Direct Sequence Code Division Multiple Access''' (DS–CDMA), das bereits im Kapitel 5.1 des Buches „Modulationsverfahren” besprochen wurde.&lt;br /&gt;
&lt;br /&gt;
Hier folgt eine kurze Zusammenfassung entsprechend der Grafik, die ein solches System im äquivalenten Tiefpassbereich und stark vereinfacht beschreibt:&lt;br /&gt;
*Die beiden Datensignale $q_1(t)$ und $q_2(t)$ sollen den gleichen Kanal nutzen, ohne sich gegenseitig zu stören. Die Bitdauer beträgt jeweils TB.&lt;br /&gt;
*Jedes der Datensignale wird mit einem zugeordneten Spreizcode – $c_1(t)$ bzw. $c_2(t)$ – multipliziert und es wird das Summensignal $s(t) = q_1(t) · c_1(t) + q_2(t) · c_2(t)$ gebildet und übertragen.&lt;br /&gt;
*Beim Empfänger werden die gleichen Spreizcodes $c_1(t)$ bzw. $c_2(t)$ zugesetzt und damit die Signale wieder voneinander getrennt.&lt;br /&gt;
*Unter der Voraussetzung, dass die Spreizcodes orthogonal sind und dass das AWGN–Rauschen klein ist, gilt dann $v_1(t) = q_1(t) und v_2(t) = q_2(t)$.&lt;br /&gt;
*Bei einem AWGN–Rauschsignal $n(t)$ wird die Bitfehlerwahrscheinlichkeit durch den oder die anderen Teilnehmer nicht verändert, solange die Spreizfolgen orthogonal sind.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&lt;br /&gt;
Die Grafik zeigt drei Datenbit (+1, –1, +1) des rechteckförmigen Quellensignals $q_1(t)$ von Teilnehmer 1, jeweils mit der Symboldauer $T_{\rm B}$. Die Symboldauer $T_{\rm C}$ des Spreizcodes $c_1(t)$ – die man auch '''Chipdauer''' nennt – ist um den Faktor 4 kleiner. Durch die Multiplikation $s_1(t) = q_1(t) · c_1(t)$ entsteht ein Chipstrom der Länge 12 · $T_{\rm C}$.&lt;br /&gt;
&lt;br /&gt;
Man erkennt weiter aus dieser Darstellung, dass $s_1(t)$ höherfrequenter ist als $q_1(t)$. Deshalb spricht man auch von '''Bandspreizung''' (englisch: ''Spread Spectrum''). Der CDMA–Empfänger macht diese wieder rückgängig, was als '''Bandstauchung''' bezeichnet wird.&lt;br /&gt;
&lt;br /&gt;
{{end}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend kann man sagen: Durch die Anwendung von DS–CDMA auf eine Nutzbitfolge&lt;br /&gt;
*vergrößert sich dessen Bandbreite um den '''Spreizfaktor''' $J = T_{\rm B}/T_{\rm C}$. Dieser ist gleich der Anzahl der ''Chips pro Bit'';&lt;br /&gt;
*ist die Chiprate $R_{\rm C}$ um den Faktor $J$ größer als die Bitrate $R_{\rm B}$;&lt;br /&gt;
*ist die Bandbreite des CDMA–Signals um $J$ größer als die Bandbreite jedes einzelnen Nutzers.&lt;br /&gt;
&lt;br /&gt;
Das heißt: Bei UMTS steht jedem Teilnehmer die gesamte Bandbreite über die gesamte Sendedauer zur Verfügung. Erinnern wir uns: Bei GSM werden als Vielfachzugriffsverfahren sowohl ''Frequency Division Multiple Access'' als auch ''Time Division Multiple Access'' verwendet.&lt;br /&gt;
*Hier verfügt jeder Teilnehmer nur über ein begrenztes Frequenzband (FDMA), und&lt;br /&gt;
*er hat nur innerhalb von Zeitschlitzen Zugriff auf den Kanal (TDMA).&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
==Spreizcodes und Verwürfelung in UMTS==  	&lt;br /&gt;
&lt;br /&gt;
Die Spreizcodes für UMTS sollen&lt;br /&gt;
*zueinander orthogonal sein, um eine gegenseitige Beeinflussung der Teilnehmer zu vermeiden,&lt;br /&gt;
*eine flexible Realisierung unterschiedlicher Spreizfaktoren $J$ ermöglichen.&lt;br /&gt;
&lt;br /&gt;
Ein Beispiel dafür sind die '''Codes mit variablem Spreizfaktor''' (englisch: ''Orthogonal Variable Spreading Faktor'', OVSF), die Codes der Längen von $J$ = 4 bis $J$ = 512 bereitstellen. Diese können, wie in der Grafik zu sehen ist, mit Hilfe eines Codebaums erstellt werden. Dabei entstehen bei jeder Verzweigung aus einem Code $C$ zwei neue Codes (+ $C$ + $C$) und (+ $C$ – $C$).&lt;br /&gt;
&lt;br /&gt;
Anzumerken ist, dass kein Vorgänger und Nachfolger eines Codes benutzt werden darf. Im Beispiel könnten also acht Spreizcodes mit Spreizfaktor $J$ = 8 verwendet werden oder die vier gelb hinterlegten Codes – einmal mit $J$ = 2, einmal mit $J$ = 4 und zweimal mit $J$ = 8. Beispielsweise können die unteren vier Codes mit dem Spreizfaktor J = 8 nicht herangezogen werden, da sie alle mit „+1 –1” beginnen, was bereits durch den OVSF–Code mit Spreizfaktor J = 2 belegt ist. Der hier dargelegte Sachverhalt wird auch durch das Flash–Interaktionsmodul OVSF–Codes verdeutlicht.&lt;br /&gt;
&lt;br /&gt;
Um mehr Spreizcodes zu erhalten und damit mehr Teilnehmer versorgen zu können, wird nach der Bandspreizung mit $c(t)$ die Folge mit $w(t)$ chipweise nochmals verwürfelt, ohne dass eine weitere Spreizung stattfindet. Der '''Verwürfelungscode''' $w(t)$ hat die gleiche Länge und dieselbe Rate wie $c(t)$.&lt;br /&gt;
&lt;br /&gt;
Durch die Verwürfelung (englisch: ''Scrambling'') verlieren die Codes ihre vollständige Orthogonalität; man nennt sie ''quasi–othogonal''. Bei diesen Codes ist zwar die Kreuzkorrelationsfunktion (KKF) zwischen unterschiedlichen Spreizcodes ungleich null, sie zeichnen sich aber durch eine ausgeprägte Autokorrelationsfunktion um den Nullpunkt aus, was die Detektion am Empfänger erleichtert.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Verwendung quasi–orthogonaler Codes macht Sinn, da die Menge an orthogonalen Codes begrenzt ist und durch die Verwürfelung verschiedene Teilnehmer auch gleiche Spreizcodes verwenden können.&lt;br /&gt;
&lt;br /&gt;
In UMTS werden für die Verwürfelung so genannte '''Goldcodes''' verwendet. Die Grafik aus &amp;lt;ref&amp;gt;3gpp Group: ''UMTS Release 6 – Technical Specification'' 25.213 V6.4.0., Sept. 2005.&amp;lt;/ref&amp;gt; zeigt das Blockschaltbild zur schaltungstechnischen Erzeugung solcher Codes. Dabei werden zunächst zwei unterschiedliche Pseudonoise–Folgen gleicher Länge (hier: $N$ = 18) mit Hilfe von Schieberegistern parallel erzeugt und dann mit $Exklusiv–Oder–Gatter$ bitweise addiert.&lt;br /&gt;
&lt;br /&gt;
Im Uplink hat jede Mobilstation einen eigenen Verwürfelungscode und die Trennung der einzelnen Kanäle erfolgt über den jeweils gleichen Code. Dagegen hat im Downlink jedes Versorgungsgebiet eines Node B einen gemeinsamen Verwürfelungscode.&lt;br /&gt;
&lt;br /&gt;
Die Tabelle fasst einige Daten der Spreiz– und Verwürfelungscodes zusammen.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
==Kanalcodierung  ==	 &lt;br /&gt;
&lt;br /&gt;
Ebenso wie bei GSM erfahren EFR– und AMR–codierte Sprachdaten im UMTS einen zweistufigen Fehlerschutz, bestehend aus&lt;br /&gt;
*Bildung von CRC–Prüfbits (englisch: ''Cyclic Redundancy Check''), und&lt;br /&gt;
*Faltungscodierung (englisch: ''Convolutional Coding'').&lt;br /&gt;
&lt;br /&gt;
Diese Verfahren unterscheiden sich jedoch von denjenigen bei GSM durch eine größere Flexibilität, da sie bei UMTS unterschiedliche Datenraten berücksichtigen.&lt;br /&gt;
&lt;br /&gt;
Für die '''Fehlererkennung''' mittels CRC werden je nach Größe des Transportblockes (10 oder 20 ms) 8, 12, 16 oder 24 ''CRC–Bits'' gebildet und an diesen angehängt. Am Ende eines jeden Rahmens werden außerdem 8 Tailbits eingefügt, die Synchronisationszwecken dienen. Die Grafik zeigt einen beispielhaften Transportblock des DCH–Kanals mit 164 Nutzdatenbits, an den 16 CRC–Prüfbits und acht Tailbits angehängt werden.&lt;br /&gt;
&lt;br /&gt;
Für die '''Fehlerkorrektur''' kommen bei UMTS – je nach Datenrate – zwei verschiedene Verfahren zum Einsatz:&lt;br /&gt;
*Bei niedrigen Datenraten werden wie bei GSM–Faltungscodes (englisch: ''Convolutional Codes'') mit den Coderaten $r$ = 1/2 oder $r$ = 1/3 verwendet. Diese werden mit acht Speicherelementen eines rückgekoppelten Schieberegisters (256 Zustände) erzeugt. Der Codiergewinn beträgt mit der Coderate 1/3 und bei niedrigen Fehlerraten ca. 4.5 bis 6 dB.&lt;br /&gt;
*Bei höheren Datenraten verwendet man '''Turbo–Codes''' der Rate $r$ = 1/3. Das Schieberegister besteht hier aus drei Speicherzellen, die insgesamt acht Zustände annehmen können. Der Gewinn der Turbo–Codes ist gegenüber Faltungscodes um 2 bis 3 dB größer und ist abhängig von der Anzahl der Iterationen. Sie benötigen dafür zum einen Prozessoren mit hoher Rechenleistung, zum anderen kann es zu relativ großen Verzögerungen kommen.&lt;br /&gt;
&lt;br /&gt;
Nach der Kanalcodierung werden die Daten wie bei GSM einer '''Verwürfelung''' (englisch: ''Interleaving'') zugeführt, um empfangsseitig die durch Fading entstandenen Bündelfehler auflösen zu können. Schließlich werden zur '''Ratenanpassung''' der entstandenen Daten an den physikalischen Kanal einzelne Bit nach einem vorgegebenen Algorithmus entfernt (''Puncturing'') oder wiederholt (''Repetition'').&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&lt;br /&gt;
Die Grafik zeigt zunächst die Zunahme der Bits durch einen Faltungs– oder Turbocode der Rate 1/3, wobei aus dem 188 Bit–Zeitrahmen (nach der CRC–Prüfsumme und den Tailbits) ein 564 Bit–Rahmen entsteht.&lt;br /&gt;
&lt;br /&gt;
Danach folgt eine erste externe Verschachtelung und dann eine zweite interne Verschachtelung. Nach dieser wird der Zeitrahmen in vier Unterrahmen mit jeweils 141 Bit aufgeteilt und diese werden anschließend durch eine Ratenanpassung an den physikalischen Kanal angepasst.&lt;br /&gt;
&lt;br /&gt;
{{end}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pulsformung und Modulation in UMTS==  	&lt;br /&gt;
&lt;br /&gt;
Das '''Sendeimpulsfilter''' wandelt die binären {0, 1} Daten in physikalische Signale. Es wird beschrieben durch den Frequenzgang $H_S(f)$, der formgleich mit dem Spektrum eines einzelnen Sendeimpulses ist.&lt;br /&gt;
&lt;br /&gt;
Bei UMTS ist das Empfangsfilter $H_E(f) = H_S(f)$ an den Sender angepasst (''Matched–Filter'') und der Gesamtfrequenzgang $H(f) = H_S(f) · H_E(f)$ erfüllt das erste Nyquistkriterium:&lt;br /&gt;
 &lt;br /&gt;
Das bedeutet: Zeitlich aufeinander folgende Impulse stören sich nicht gegenseitig  ⇒  es treten keine Impulsinterferenzen (englisch: ''Intersymbol Interference'', ISI) auf. Die zugehörige Zeitfunktion lautet:&lt;br /&gt;
 &lt;br /&gt;
„CRO” steht hierbei für Cosinus–Rolloff (englisch: ''Raised Cosine''). Die Summe $f_1 + f_2$ ist gleich dem Kehrwert der Chipdauer $T_{\rm C}$ = 260 ns, also gleich 3.84 MHz. Der '''Rolloff–Faktor'''&lt;br /&gt;
 &lt;br /&gt;
wurde bei UMTS zu $r$ = 0.22 festgelegt. Wir bleiben bei der in LNTwww gewählten Bezeichnung $„r”$, im UMTS–Standard wird hierfür $„α”$ verwendet.&lt;br /&gt;
&lt;br /&gt;
Die beiden Eckfrequenzen sind somit&lt;br /&gt;
 &lt;br /&gt;
und die theoretische Bandbreite beträgt $B$ = 2 · $f_2$ = 4.7 MHz. Für jeden UMTS–Kanal steht mit 5 MHz somit ausreichend Bandbreite zur Verfügung.&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt links das (normierte) Nyquistspektrum $H(f)$ und rechts den dazugehörigen Nyquistimpuls $h(t)$ mit äquidistanten Nulldurchgängen im Abstand $T_{\rm C}$. Sendefilter $H_S(f)$ und Matched–Filter $H_E(f)$ sind jeweils für sich allein Wurzel–Cosinus–Rolloff–förmig (englisch: ''Root Raised Cosine'').&lt;br /&gt;
*Das bedeutet gleichzeitig: Die Impulsantworten $h_S(t)$ und $h_E(t)$ für sich allein erfüllen die erste Nyquistbedingung nicht. Erst die Kombination aus beiden (also im Zeitbereich die Faltung) führt zu den gewünschten äquidistanten Nulldurchgängen.&lt;br /&gt;
&lt;br /&gt;
Die bei UMTS eingesetzten '''Modulationsverfahren''' können wie folgt zusammengefasst werden:&lt;br /&gt;
*In der Abwärtsrichtung (''Downlink'') wird zur Modulation sowohl bei ''FDD'' als auch bei ''TDD Quaternary Phase Shift Keying'' (QPSK) verwendet. Dabei werden Nutzdaten (DPDCH–Kanal) und Kontrolldaten (DPCCH–Kanal) zeitlich gemultiplext.&lt;br /&gt;
*Ebenso wird bei der ''TDD'' in Aufwärtsrichtung (''Uplink'') das Signal mittels QPSK moduliert, nicht aber bei ''FDD''. Hier wird vielmehr eine '''zweifache binäre PSK''' (englisch: ''Dual Channel–BPSK'') verwendet.&lt;br /&gt;
&lt;br /&gt;
Bei ''Dual–Channel BPSK'' wird zwar ebenfalls der QPSK–Signalraum genutzt, aber in ''Inphase''– und ''Quadratur–Komponente'' werden unterschiedliche Kanäle übertragen. Pro Modulationsschritt werden also zwei Chips übertragen und die Brutto–Chiprate ist daher doppelt so groß wie die Modulationsrate von 3.84 Mchip pro Sekunde.&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt dieses I/Q–Multiplexing–Verfahren, wie es auch bezeichnet wird, im äquivalenten Tiefpassbereich:&lt;br /&gt;
*Die gespreizten Nutzdaten des DPDCH–Kanals werden auf die Inphase–Komponente und die gespreizten Kontrolldaten des DPCCH–Kanals auf die Quadratur–Komponente moduliert und übertragen.&lt;br /&gt;
*Nach der Modulation wird die Quadratur–Komponente mit der Wurzel des Leistungsverhältnisses $G$ zwischen den beiden Kanälen gewichtet, um den Einfluss des Leistungsunterschieds zwischen I und Q zu minimieren.&lt;br /&gt;
*Abschließend wird das komplexe Summensignal (I + j · Q) mit einem ebenfalls komplexen Verwürfelungscode multipliziert.&lt;br /&gt;
&lt;br /&gt;
Ein Vorteil der zweifachen BPSK–Modulation ist die Möglichkeit der Verwendung stromsparender Verstärker. Ein Zeitmultiplex von Nutz– und Kontrolldaten wie im ''Uplink'' ist im ''Downlink'' nicht möglich. Ein Grund hierfür ist der Einsatz von ''Discontinuous Transmission'' (DTX) und die damit verbundenen zeitlichen Einschränkungen.&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==CDMA–Empfänger  ==	&lt;br /&gt;
&lt;br /&gt;
Aufgabe eines CDMA–Empfängers ist es, aus der Summe der gespreizten Datenströme die gesendeten Daten der einzelnen Teilnehmer zu separieren und zu rekonstruieren. Dabei unterscheidet man zwischen den ''Single–User''–Empfängern und den ''Multi–User''–Empfängern.&lt;br /&gt;
&lt;br /&gt;
Im Downlink von UMTS wird stets ein '''Single-User-Empfänger''' verwendet, da in der Mobilstation eine gemeinsame Detektion aller Teilnehmer wegen der Vielzahl aktiver Teilnehmer sowie der Länge der Verwürfelungscodes und des asynchronen Betriebs zu aufwändig wäre.&lt;br /&gt;
&lt;br /&gt;
Ein solcher Empfänger besteht aus einer Bank unabhängiger Korrelatoren. Jeder einzelne der insgesamt $J$ Korrelatoren gehört zu einer spezifischen Spreizfolge. Die Korrelation wird meist in einer so genannten ''Korrelatordatenbank'' softwaremäßig gebildet. Dabei erhält man am Korrelatorausgang die Summe aus&lt;br /&gt;
*der ''Autokorrelationsfunktion'' des Spreizcodes und&lt;br /&gt;
*der ''Kreuzkorrelationsfunktion'' aller anderen Teilnehmer mit dem teilnehmereigenen Spreizcode.&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt die einfachste Realisierung eines solchen Empfängers mit Matched–Filter.&lt;br /&gt;
*Das Empfangssignal $r(t)$ wird zunächst mit dem Spreizcode $c(t)$ des betrachteten Teilnehmers multipliziert, was als ''Bandstauchung'' oder ''Entspreizung'' bezeichnet wird (gelbe Hinterlegung).&lt;br /&gt;
*Danach folgt die Faltung mit der Impulsantwort des Matched–Filters (''Root Raised Cosine''), um das SNR zu maximieren, und die Abtastung im Bittakt ( $T_{\rm B}$ ).&lt;br /&gt;
*Abschließend erfolgt die Schwellenwertentscheidung, die das Sinkensignal $v(t)$ und damit die Datenbits des betrachteten Teilnehmers liefert.&lt;br /&gt;
&lt;br /&gt;
Beim AWGN–Kanal haben die Bandspreizung beim Sender und die daran angepasste Bandstauchung beim Empfänger wegen $c(t)^2$ = 1 keinen Einfluss auf die Bitfehlerwahrscheinlichkeit. Wie in Aufgabe A4.5 gezeigt, gilt auch mit Bandspreizung/Bandstauchung bei optimalem Empfänger unabhängig vom Spreizgrad $J$:&lt;br /&gt;
 &lt;br /&gt;
Dieses Ergebnis lässt sich wie folgt begründen: Die statistischen Eigenschaften von weißem Rauschen $n(t)$ werden durch die Multiplikation mit dem ±1–Signal $c(t)$ nicht verändert.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ein weiterer Empfänger für die Single–User–Detektion ist der so genannte '''RAKE–Empfänger''', der bei einem Mehrwegekanal zu deutlichen Verbesserungen führt. Die Grafik zeigt seinen Aufbau für einen Zweiwegekanal mit&lt;br /&gt;
*einem direkten Pfad mit Koeffizient $h_0$ und Verzögerungszeit $τ_0$, und&lt;br /&gt;
*einem Echo mit Koeffizient $h_1$ und Verzögerungszeit $τ_1$.&lt;br /&gt;
&lt;br /&gt;
Zur Vereinfachung werden beide Amplitudenkoeffizienten $h_0$ und $h_1$ als reell angenommen.&lt;br /&gt;
&lt;br /&gt;
Aufgabe des RAKE–Empfängers ist es, die Signalenergien aller Pfade (in diesem Beispiel nur zwei) auf einen einzigen Zeitpunkt zu konzentrieren. Er arbeitet demnach wie eine ''Harke'' für den Garten, was auch die deutsche Übersetzung für „RAKE” ist.&lt;br /&gt;
&lt;br /&gt;
Legt man einen Diracimpuls zur Zeit $t$ = 0 an den Kanaleingang an, so gibt es am Ausgang des RAKE–Empfängers drei Diracimpulse entsprechend der Gleichung&lt;br /&gt;
  &lt;br /&gt;
Die Signalenenergie konzentriert sich auf den Zeitpunkt $τ_0 + τ_1$. Von den insgesamt vier Wegen tragen zwei dazu bei. Die Diracfunktionen bei $2τ_0$ und $2τ_1$ bewirken zwar Impulsinterferenzen. Ihre Gewichte sind aber deutlich kleiner als die des Hauptpfades.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&lt;br /&gt;
Mit den Kanalparametern $h_0$ = 0.8 und $h_1$ = 0.6 beinhaltet der Hauptpfad (mit Gewicht $h_0$) nur 0.82/(0.82 + 0.62) = 64% der gesamten Signalenergie. Mit RAKE–Empfänger und den gleichen Gewichten lautet die obige Gleichung&lt;br /&gt;
 &lt;br /&gt;
Der Anteil des Hauptpfades an der Gesamtenergie beträgt nun &lt;br /&gt;
$$\frac{1^2}{(1^2 + 0.48^2 + 0.48^2)} ≈ 68%.$$&lt;br /&gt;
&lt;br /&gt;
{{end}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
RAKE–Empfänger werden zur Implementierung in mobilen Geräten bevorzugt, haben aber bei vielen aktiven Teilnehmern nur eine begrenzte Leistungsfähigkeit. Bei einem Mehrwegekanal mit vielen $(M)$ Pfaden hat auch der RAKE $M$ Finger. Der Hauptfinger (''Main Finger'') – auch ''Searcher'' genannt – ist dafür verantwortlich, die individuellen Pfade der Mehrfachausbreitung zu identifizieren und einzuordnen. Er sucht die stärksten Pfade und weist diese zusammen mit ihren Steuerinformationen anderen Fingern zu. Dabei wird die Zeit– und Frequenzsynchronisation aller Finger kontinuierlich mit den Kontrolldaten des empfangenen Signals verglichen.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Bei einem Single–User–Empfänger wird nur das Datensignal eines Teilnehmers entschieden, während alle anderen Teilnehmersignale als zusätzliches Rauschen betrachtet werden. Die Fehlerrate eines solchen Detektors wird jedoch dann sehr groß sein, wenn große ''Intrazellinterferenzen'' (viele Teilnehmer in der betrachteten Funkzelle) oder ''Interzellinterferenzen'' (störende Teilnehmer in Nachbarzellen) vorliegen.&lt;br /&gt;
&lt;br /&gt;
Dagegen treffen '''Multi–User–Empfänger''' eine gemeinsame Entscheidung für alle aktiven Teilnehmer. Die Eigenschaften solcher Mehrbenutzerempfänger können wie folgt zusammengefasst werden:&lt;br /&gt;
*Ein Multi–User–Empfänger betrachtet die Interferenzen anderer Teilnehmer nicht als Rauschen, sondern nutzt auch die in den Interferenzsignalen enthaltenen Informationen zur Detektion.&lt;br /&gt;
*Der Empfänger ist sehr aufwändig zu realisieren und die Algorithmen sind äußerst rechenintensiv. Er beinhaltet eine extrem große Korrelatordatenbank gefolgt von einem gemeinsamen Detektor.&lt;br /&gt;
*Dem Multi–User–Empfänger müssen die Spreizcodes aller aktiven Teilnehmer bekannt sein. Diese Voraussetzung schließt einen Einsatz im UMTS–Downlink (also bei der Mobilstation) aus.&lt;br /&gt;
*Dagegen sind den Basisstationen alle teilnehmerspezifischen Spreizcodes a priori bekannt, so dass im Uplink die Mehrbenutzerdetektion tatsächlich zur Anwendung kommt.&lt;br /&gt;
*Manche Detektionsalgorithmen verlangen zusätzlich die Kenntnis anderer Signalparameter wie Energien und Verzögerungszeiten. Der gemeinsame Detektor – das Herzstück des Empfängers – ist dafür verantwortlich, den jeweiligen passenden Detektionsalgorithmus anzuwenden. Beispiele für die Mehrbenutzerdetektion sind ''Decorrelating Detection'' und ''Interference Cancellation''.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Near–Far–Effekt==  	 &lt;br /&gt;
&lt;br /&gt;
Der Near–Far–Effekt ist ausschließlich ein Problem des Uplinks, also der Übertragung von mobilen Teilnehmern zu einer Basisstation. Wir betrachten ein Szenario mit zwei unterschiedlich weit von der Basisstation (Node B) entfernten Nutzern entsprechend der folgenden Grafik.&lt;br /&gt;
&lt;br /&gt;
Die Grafik kann man wie folgt interpretieren:&lt;br /&gt;
*Senden beide Mobilstationen mit gleicher Leistung, so ist die Empfangsleistung des roten Nutzers A an der Basisstation aufgrund des Pfadverlustes deutlich kleiner als die des blauen Nutzers B (linkes Szenario). In großen Makrozellen kann der Unterschied bis zu 100 dB ausmachen. Dadurch wird das rote Signal weitgehend durch das blaue verdeckt.&lt;br /&gt;
*Man kann den Near–Far–Effekt weitgehend vermeiden, wenn der weiter entfernte Nutzer A mit höherer Leistung sendet als Nutzer B, wie im rechten Szenario angedeutet. An der Basisstation ist dann die Empfangsleistung beider Mobilstationen gleich.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Anmerkung'': Bei einem idealisierten System (Einwegekanal, ideale A/D–Wandler, vollständig lineare Verstärker) sind die übertragenen Daten der Nutzer orthogonal zueinander und man könnte die Nutzer auch bei sehr unterschiedlichen Empfangsleistungen einzeln detektieren. Diese Aussage gilt für UMTS (Mehrfachzugriffsverfahren: CDMA) ebenso wie für für das 2G–System GSM (FDMA/TDMA) und für das 4G–System LTE (TDMA/OFDMA).&lt;br /&gt;
&lt;br /&gt;
In der Realität ist jedoch die Orthogonalität aufgrund folgender Ursachen nicht immer gegeben:&lt;br /&gt;
*verschiedene Empfangspfade  ⇒  Mehrwegekanal,&lt;br /&gt;
*nicht ideale Eigenschaften der Spreiz– und Scramblingcodes bei CDMA,&lt;br /&gt;
*Asynchronität der Nutzer im Zeitbereich (Grundlaufzeit der Pfade) und im Frequenzbereich (nicht ideale Oszillatoren und Dopplerverschiebung aufgrund der Mobilität der Nutzer).&lt;br /&gt;
&lt;br /&gt;
Folglich sind die Nutzer nicht mehr orthogonal zueinander und der Störabstand des zu detektierenden Nutzers gegenüber den anderen Teilnehmern ist nicht beliebig hoch. Bei GSM und LTE kann man von Störabständen von 25 dB und mehr ausgehen, bei CDMA jedoch nur von ca. 15 dB, bei hochratiger Datenübertragung eher noch von etwas weniger.&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
==Träger–zu–Interferenz–Leistungsverhältnis (CIR) – Zellatmung == 	&lt;br /&gt;
&lt;br /&gt;
Unter '''Kapazität''' wird allgemein die Anzahl der verfügbaren Übertragungskanäle pro Zelle verstanden werden. Da aber bei UMTS die Teilnehmerzahl im Gegensatz zum GSM nicht streng begrenzt ist, lässt sich hier keine feste Kapazität angeben.&lt;br /&gt;
*Bei perfekten Codes stören sich die Teilnehmer gegenseitig nicht. Dadurch wird die maximale Nutzerzahl allein durch den Spreizfaktor $J$ und die verfügbare Anzahl der zueinander orthogonalen Codes bestimmt, die aber ebenfalls limitiert ist.&lt;br /&gt;
*Praxisnäher sind nichtperfekte, nur quasi–orthogonale Codes. Hier wird die „Kapazität” einer Funkzelle vorwiegend durch die entstehenden Interferenzen bzw. das ''Träger–zu–Interferenz–Leistungsverhältnis'' (englisch: ''Carrier–to–Interference Ratio'', CIR) bestimmt.&lt;br /&gt;
&lt;br /&gt;
Wie aus folgender Grafik zu ersehen ist, hängt das CIR direkt von der Anzahl der aktiven Teilnehmer ab.&lt;br /&gt;
&lt;br /&gt;
Je mehr Teilnehmer aktiv sind, desto mehr Interferenzleistung entsteht und desto kleiner wird das CIR. Desweiteren hängt dieses für UMTS entscheidende Kriterium auch von folgenden Größen ab:&lt;br /&gt;
*der Topologie und dem Nutzerverhalten (aufgerufene Dienste),&lt;br /&gt;
*dem Spreizfaktor $J$ und der Orthogonalität des verwendeten Spreizcodes.&lt;br /&gt;
&lt;br /&gt;
Um den störenden Einfluss der Interferenzleistung auf die Übertragungsqualität zu begrenzen, gibt es zwei Möglichkriten:&lt;br /&gt;
*Zellatmung: Nimmt bei UMTS die Anzahl der aktiven Teilnehmer signifikant zu, so wird der Zellenradius verkleinert und (wegen der nun weniger Teilnehmer in der Zelle) auch die aktuelle Interferenzleistung geringer. Für die Versorgung der Teilnehmer am Rande der verkleinerten Zelle springt dann eine weniger belastete Nachbarzelle ein.&lt;br /&gt;
*Leistungsregelung: Überschreitet die Gesamtinterferenzleistung innerhalb einer Funkzelle einen vorgegebenen Grenzwert, so wird die Sendeleistung aller Teilnehmer entsprechend herabgesetzt und/oder die Datenrate reduziert, was eine schlechtere Übertragungsqualität für alle zur Folge hat. Hierzu mehr auf der folgenden Seite.&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Leistung und Leistungsregelung in UMTS==  	&lt;br /&gt;
&lt;br /&gt;
Als Regelgröße bei der Leistungsregelung in UMTS wird das Verhältnis zwischen der Signalleistung und der Interferenzleistung verwendet. Dabei gibt es Unterschiede zwischen dem FDD– und TDD–Modus.&lt;br /&gt;
&lt;br /&gt;
Wir betrachten die ''Leistungsregelung im FDD–Modus'' genauer. In der Grafik erkennt man zwei verschiedene Regelkreise:&lt;br /&gt;
*Der '''innere Regelkreis''' steuert die Sendeleistung auf der Basis von Zeitschlitzen, wobei in jedem Zeitschlitz ein Leistungskommando übertragen wird. Die Leistung des Senders wird mit Hilfe der CIR–Schätzungen im Empfänger und den Vorgaben des ''Radio Network Controllers'' (RNC) aus dem äußeren Regelkreis bestimmt und verändert.&lt;br /&gt;
*Der '''äußere Regelkreis''' regelt auf Basis von Rahmen mit 10 Millisekunden Dauer. Er wird im RNC realisiert und ist dafür zuständig, den Soll–Wert für den inneren Regelkreis zu bestimmen.&lt;br /&gt;
&lt;br /&gt;
Der Ablauf der FDD–Leistungsregelung sieht folgendermaßen aus:&lt;br /&gt;
*Der RNC gibt einen Sollwert für das Träger–zu–Interferenz–Verhältnis (CIR–Sollwert) vor.&lt;br /&gt;
*Der Empfänger schätzt den CIR–Istwert und generiert Steuerkommandos für den Sender.&lt;br /&gt;
*Der Sender ändert entsprechend dieser Steuerkommandos die Sendeleistung.&lt;br /&gt;
&lt;br /&gt;
Das Prinzip der ''Leistungsregelung im TDD–Modus'' ähnelt der oben vorgestellten Regelung für den FDD–Modus, in der Abwärtsrichtung sind sie sogar praktisch identisch.&lt;br /&gt;
*Die TDD–Leistungsregelung ist jedoch viel langsamer und dadurch auch unpräziser als bei FDD. Eine schnelle Leistungsregelung ist in diesem Fall aber auch gar nicht möglich, da jeder Teilnehmer jeweils nur einen Bruchteil des Zeitrahmens zur Verfügung hat.&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Link–Budget == 	&lt;br /&gt;
&lt;br /&gt;
Bei der Planung von UMTS–Netzen ist die Berechnung des Link-Budgets ein wichtiger Schritt. Die Kenntnis des Link–Budgets ist sowohl bei der Dimensionierung der Versorgungsgebiete als auch für die Bestimmung der Kapazität und der Dienstgüte–Anforderungen erforderlich. Ziel des Link–Budgets ist die Berechnung der '''maximalen Zellgröße''' unter Berücksichtigung folgender Kriterien:&lt;br /&gt;
*Art und Datenrate der Services,&lt;br /&gt;
*Topologie der Umgebung,&lt;br /&gt;
*Systemkonfiguration (Lage und Leistung der Node Bs, Handover–Gewinn),&lt;br /&gt;
*Service–Anforderungen (Verfügbarkeit),&lt;br /&gt;
*Art der Mobilstation (Geschwindigkeit, Leistung),&lt;br /&gt;
*finanzielle und wirtschaftliche Aspekte.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&lt;br /&gt;
Die Berechnung des Link–Budgets wird am Beispiel eines Sprachübertragungskanals im UMTS–Downlink dargestellt. Zu den beispielhaften Zahlenwerten ist zu bemerken:&lt;br /&gt;
&lt;br /&gt;
*Die '''Sendeleistung''' $P_{\rm S}$ beträgt 19 dBm, was ca. 79 mW entspricht. Hierbei ist der Antennenverlust mit 2 dB berücksichtigt.&lt;br /&gt;
*Die '''Rauschleistung''' $P_{\rm R}$ = 5 · 10&amp;lt;sup&amp;gt;–11&amp;lt;/sup&amp;gt; mW ist das Produkt aus UMTS–Bandbreite und Rauschleistungsdichte ( $P_{\rm R}$ = –103 dBm ).&lt;br /&gt;
*Die '''Interferenzleistung''' ist $P_{\rm I}$ = –99 dBm (1.25 · 10&amp;lt;sup&amp;gt;–10&amp;lt;/sup&amp;gt; mW). Damit ergibt sich die gesamte Störleistung zu $P_{\rm R+I}$ = $P_{\rm R} + P_{\rm I}$ = 1.75 · 10&amp;lt;sup&amp;gt;–10&amp;lt;/sup&amp;gt; mW (– 97.5 dBm).&lt;br /&gt;
*Die '''Antennenempfindlichkeit''' ergibt sich zu –97.5 – 27 + 5 – 17 + 3.5 = – 133 dBm. Ein großer negativer Wert ist hierbei „gut”.&lt;br /&gt;
*Der '''maximal zulässige Pfadverlust''' soll einen möglichst großen Wert besitzen. Man erhält im Beispiel 19 – (–133) = 152 dBm.&lt;br /&gt;
*Das '''Link–Budget''' beinhaltet den Margin für Fading und den Handover–Gewinn und beträgt im Beispiel 140 dBm.&lt;br /&gt;
*Der '''maximale Zellradius''' lässt sich aus dem Link–Budget mit einer empirischen Formel von Okumura–Hata bestimmen. Es gilt:&lt;br /&gt;
 &lt;br /&gt;
 	 &lt;br /&gt;
{{end}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==UMTS–Funkressourcenverwaltung == 	&lt;br /&gt;
&lt;br /&gt;
Zentrale Aufgabe der '''Funkressourcenverwaltung''' (englisch: ''Radio Resource Management'', RRM) ist die dynamische Anpassung der Funkübertragungsparameter an die aktuelle Situation (Fading, Bewegung der Mobilstation, Auslastung, usw.) mit dem Ziel,&lt;br /&gt;
*die Übertragungs– und Teilnehmerkapazitäten zu steigern,&lt;br /&gt;
*die individuelle Übertragungsqualität zu verbessern und&lt;br /&gt;
*die vorhandenen Funkressourcen ökonomisch zu nutzen.&lt;br /&gt;
&lt;br /&gt;
Nachfolgend werden die im Schaubild zusammengestellten wichtigsten RRM–Mechanismen erläutert.&lt;br /&gt;
&lt;br /&gt;
'''Sendeleistungsregelung''' – Das ''Radio Resource Management'' versucht, die Empfangsleistung und damit das Träger–zu–Interferenz–Verhältnis (CIR) am Empfänger konstant zu halten oder zumindest zu vermeiden, dass ein vorgegebener Grenzwert unterschritten wird. Ein Beispiel für die Notwendigkeit der Leistungsregelung ist der Near–Far–Effekt, der bekanntlich zu einem Verbindungsabbruch führen kann.&lt;br /&gt;
&lt;br /&gt;
Die Schrittweite der Leistungsregelung beträgt 1 dB oder 2 dB, die Frequenz der Regelungskommandos 1500 Kommandos pro Sekunde.&lt;br /&gt;
&lt;br /&gt;
'''Regelung der Datenrate''' – Bei UMTS ist ein Austausch zwischen Datenrate und Übertragungsqualität möglich, die sich über die Wahl des Spreizfaktors realisieren lässt. Eine Verdopplung des Spreizfaktors entspricht hierbei einer Halbierung der Datenrate und erhöht die Qualität um 3 dB (Spreizgewinn).&lt;br /&gt;
&lt;br /&gt;
'''Zugangskontrolle''' – Um Überlastsituationen des gesamten Netzes zu vermeiden, wird vor dem Aufbau einer neuen Verbindung überprüft, ob die notwendigen Ressourcen vorhanden sind. Andernfalls wird die neue Verbindung abgewiesen. Diese Überprüfung wird durch Abschätzung der Sendeleistungsverteilung nach der Aufnahme der neuen Verbindung realisiert.&lt;br /&gt;
&lt;br /&gt;
'''Lastregelung''' – Diese wird aktiv, wenn trotz Zugangskontrolle eine Überlast auftritt. In diesem Fall wird ein Handover zu einem anderen ''Node B'' initiiert und – falls dies nicht möglich ist – werden die Datenraten bestimmter Teilnehmer gesenkt.&lt;br /&gt;
&lt;br /&gt;
'''Handover''' – Die Funkressourcenverwaltung ist schließlich auch für das Handover verantwortlich, um unterbrechungsfreie Verbindungen zu gewährleisten. Die Zuordnung der Mobilstationen zu den einzelnen Funkzellen erfolgt auf Grundlage von CIR–Messungen.&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Aufgaben zu Kapitel 4.3 == 	 &lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:4.5_PN-Modulation|Aufgabe 4.5: PN-Modulation]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:4.5Z_Zur_Bandspreizung_bei_UMTS|Zusatzaufgabe 4.5Z: Zur Bandspreizung bei UMTS]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:4.6_OVSF-Codes|Aufgabe 4.6: OVSF-Codes]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:4.7_RAKE-Empfänger|Aufgabe 4.7: RAKE-Empfänger]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/UMTS_Network_Architecture&amp;diff=22127</id>
		<title>Examples of Communication Systems/UMTS Network Architecture</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/UMTS_Network_Architecture&amp;diff=22127"/>
		<updated>2018-01-03T17:03:04Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=UMTS – Universal Mobile Telecommunications System&lt;br /&gt;
|Vorherige Seite=Allgemeine Beschreibung von UMTS&lt;br /&gt;
|Nächste Seite=Nachrichtentechnische Aspekte von UMTS&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Basiseinheiten der Systemarchitektur  ==&lt;br /&gt;
&lt;br /&gt;
Bei der Architektur von UMTS–Netzen unterscheidet man vier grundlegende logische Einheiten. Die Interaktion dieser Einheiten ermöglicht das Bedienen und das Betreiben des Gesamtnetzes.&lt;br /&gt;
&lt;br /&gt;
Man unterscheidet:&lt;br /&gt;
*'''Universal Subscriber Identity Module (USIM)''' – Das USIM ist eine entnehmbare IC–Karte, die Funkinformationen und Informationen zur eindeutigen Identifizierung und Authentifizierung des Teilnehmers enthält. Sie unterscheidet sich von der herkömmlichen SIM–Karte durch erweiterte Sicherheitsfunktionen, größere Speicherkapazität und einen integrierten Mikroprozessor, der zur Ausführung von Programmen dient.&lt;br /&gt;
*'''Mobile Equipment (ME)''' – Ausgestattet mit einer USIM–Karte stellt das UMTS–Endgerät sowohl die Funkschnittstelle für die Datenübertragung als auch die Bedienelemente für die Benutzer bereit. Es unterscheidet sich von der gängigen GSM–Mobilstation durch eine erweiterte Funktionalität, Multimedia–Anwendungen sowie komplexere und vielfältigere Dienste. Vielfach finden sich auch die Bezeichnungen ''User Equipment'' (UE) und ''Terminal Equipment'' (TE).&lt;br /&gt;
*'''Radio Access Network (RAN)''' – Darunter versteht man die Festnetzinfrastruktur von UMTS, die für die Funkübertragung und die damit verbundenen Aufgaben zuständig ist. Das RAN enthält die Basisstationen (''Node B'') und die Kontrollknoten (''Radio Network Controller'' – RNC), die das RAN und das ''Core Network'' verbinden.&lt;br /&gt;
*'''Core Network (CN)''' – Dieses stellt das Weitverkehrsnetz dar und ist für den Datentransport verantwortlich. Es enthält Vermittlungseinrichtungen (SGSN, GGSN) zu externen Netzen und Datenbanken zur Mobilitäts– und Teilnehmerverwaltung (HLR, VLR). Das Core Network enthält auch die Netzmanagement–Einrichtungen (''Operation and Maintenance Center'' – OMC), die zur Verwaltung des Gesamtnetzes erforderlich sind.&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
==Domänen und Schnittstellen == 	 &lt;br /&gt;
&lt;br /&gt;
Die auf der letzten Seite aufgeführten Einheiten des UMTS–Netzes werden in so genannte Domänen (englisch: ''Domains'') zusammengefasst. Darunter versteht man Funktionsblöcke, die zur Standardisierung und zur Untersuchung der funktionalen Einheiten und Schnittstellen innerhalb des UMTS–Netzes dienen.&lt;br /&gt;
&lt;br /&gt;
Man unterscheidet zwei Hauptkategorien von Domänen, nämlich&lt;br /&gt;
*die ''User Equipment Domain'', und&lt;br /&gt;
*die ''Infrastructure Domain''.&lt;br /&gt;
&lt;br /&gt;
Die '''User Equipment Domain''' enthält alle Funktionen, die einen Zugang zum UMTS–Netz ermöglichen, wie zum Beispiel Verschlüsselungsfunktionen für die Übertragung der Daten über die Funkschnittstelle. Man kann diese Domäne in zwei Domänen unterteilen:&lt;br /&gt;
*die '''USIM Domain''' – die SIM–Karte ist ein Teil dieser Domäne;&lt;br /&gt;
*die '''Mobile Equipment Domain''' enthält alle Funktionen, über die ein Endgerät verfügt.&lt;br /&gt;
&lt;br /&gt;
Diese beiden Domänen sind über die '''Cu–Schnittstelle'' verbunden. Diese umfasst die elektrischen und physikalischen Spezifikationen sowie den Protokollstapel zwischen USIM–Karte und Endgerät. Dadurch können USIM–Karten verschiedener Netzbetreiber mit allen Endgeräten betrieben werden.&lt;br /&gt;
&lt;br /&gt;
Eine weitere wichtige Schnittstelle ist die '''Uu–Schnittstelle''', die die Radioverbindung zwischen der Mobilstation und der auf der nächsten Seite beschriebenen ''Infrastructure Domain'' herstellt.&lt;br /&gt;
&lt;br /&gt;
Die '''Infrastructure Domain''' gliedert sich in die zwei folgenden Domänen:&lt;br /&gt;
*Die '''Access Network Domain''' fasst alle Basisstationen – die bei UMTS „Node B” genannt werden – und die Funktionen des ''Radio Access Networks'' (RAN) zusammen.&lt;br /&gt;
*Die '''Core Network Domain''' ist für die möglichst fehlerfreie Übermittlung und den Transport der Nutzerdaten verantwortlich.&lt;br /&gt;
&lt;br /&gt;
Diese beiden Domänen sind über eine '''Iu–Schnittstelle''' verbunden. Diese ist für die Datenvermittlung zwischen dem ''Access Network'' und dem ''Core Network'' verantwortlich und stellt die Trennung zwischen der Transportebene und der Funknetzebene dar.&lt;br /&gt;
&lt;br /&gt;
Die ''Core Network Domain'' kann wiederum in drei Unterdomänen unterteilt werden:&lt;br /&gt;
*Die ''Serving Network Domain'' enthält alle Funktionen und Informationen, die für den Zugang zum UMTS–Netz nötig sind.&lt;br /&gt;
*Die ''Home Network Domain'' enthält alle Funktionalitäten, die im Heimatnetz eines (fremden) Teilnehmers durchgeführt werden.&lt;br /&gt;
*Die ''Transit Network Domain'' ist ein so genanntes Transitnetz. Dieses wird nur dann wirksam, wenn Datenbankabfragen im Heimatnetz des Teilnehmers durchzuführen sind und das ''Serving Network'' nicht direkt mit dem ''Home Network'' verbunden ist.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Architektur der Zugangsebene == 	 	 &lt;br /&gt;
&lt;br /&gt;
UMTS–Netze unterstützen sowohl eine Leitungs– als auch eine Paketvermittlung:&lt;br /&gt;
*Bei der '''Leitungsvermittlung''' (englisch: ''Circuit Switching'', CS) wird der Funkkanal während der gesamten Dauer der Verbindung den beiden Kommunikationspartnern so lange zugewiesen, bis alle Informationen übertragen wurden. Erst danach wird der Kanal freigegeben.&lt;br /&gt;
*Bei der '''Paketvermittlung''' (englisch: ''Packet Switching'', PS) können die Teilnehmer den Kanal nicht exklusiv nutzen, sondern der Datenstrom wird im Sender in kleine Datenpakete – jeweils mit der Zieladresse im Header versehen – aufgeteilt, und erst danach versendet. Der Kanal wird von mehreren Teilnehmern gemeinsam benutzt.&lt;br /&gt;
&lt;br /&gt;
Diese beiden Modi erkennt man auch in der Architektur der Zugangsebene des UMTS–Netzes im ''Core Network'' (CN) wieder, die in der nachfolgenden Grafik dargestellt ist.&lt;br /&gt;
&lt;br /&gt;
Die Zugangsebene kann man in zwei Hauptblöcke unterteilen. Man unterscheidet bei UMTS:&lt;br /&gt;
*Das '''UMTS Terrestrial Radio Access Network''' (UTRAN) sichert die Funkübertragung von Daten zwischen der Transportebene und der Funknetzebene.&lt;br /&gt;
*Das '''Core Network''' (CN) ist für die Vermittlung der Daten (sowohl ''circuit-switched'' als auch ''packet-switched'') innerhalb des UMTS–Netzes zuständig.&lt;br /&gt;
&lt;br /&gt;
Auf der nächsten Seite werden die Aufgaben von UTRAN und ''Core Network'' noch genauer erläutert.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Das '''UMTS Terrestrial Radio Access Network (UTRAN)''' sichert die Funkübertragung von Daten zwischen der Transportebene und der Funknetzebene. Zum UTRAN gehören die Basisstationen und die Kontrollknoten, deren Funktionen nachfolgend genannt werden:&lt;br /&gt;
*Ein '''Node B''' – wie eine UMTS–Basisstation meist genannt wird – umfasst die Antennenanlage sowie den CDMA–Empfänger und ist unmittelbar mit den ME–Funkschnittstellen verbunden. Zu seinen Aufgaben gehören die Datenratenanpassung, Daten– und Kanal(de)codierung, Interleaving sowie Modulation bzw. Demodulation. Jeder Node B kann eine oder mehrere Zellen versorgen.&lt;br /&gt;
*Der '''Radio Network Controller''' (RNC) ist für die Steuerung der Basisstationen verantwortlich. Ebenso ist er innerhalb der Zellen zuständig für die Rufannahmesteuerung, Verschlüsselung und Entschlüsselung, ATM–Vermittlung, Kanalzuweisung, Handover und Leistungssteuerung.&lt;br /&gt;
&lt;br /&gt;
Das '''Core Network (CN)''' übernimmt die Vermittlung der Daten innerhalb des UMTS–Netzes. Dazu enthält es bei ''Leitungsvermittlung'' folgende Hardware– und Softwarekomponenten:&lt;br /&gt;
*Das '''Mobile Services Switching Center'' (MSC) ist zuständig für das Routing von Gesprächen, Lokalisierung, Authentifizierung, das Handover und die Verschlüsselung von Teilnehmerdaten.&lt;br /&gt;
*Das '''Home Location Register'' (HLR) enthält alle Teilnehmerdaten wie zum Beispiel Tarifmodell, Telefonnummer sowie die zugehörigen dienstspezifischen Berechtigungen und Schlüssel.&lt;br /&gt;
*Das '''Visitor Location Register''' (VLR) enthält Ortsinformationen über lokal registrierte Nutzer und Kopien der Datensätze aus dessen HLR. Diese Daten sind dynamisch: Sobald der Teilnehmer seinen Aufenthaltsort ändert, werden diese Informationen verändert.&lt;br /&gt;
&lt;br /&gt;
Bei ''paketvermittelter Übertragung'' gibt es folgende Einrichtungen bzw. Register:&lt;br /&gt;
*Der '''Serving GPRS Support Node''' (SGSN) ist anstelle von MSC und VLR für Routing und Authentifizierung zuständig und hält eine lokale Kopie der Teilnehmerinformationen gespeichert.&lt;br /&gt;
*Am '''Gateway GPRS Support Node''' (GGSN) gibt es Übergänge zu anderen Paketdatennetzen wie zum Beispiel dem Internet. Eingetroffene Pakete werden durch eine integrierte Firewall gefiltert und an den entsprechenden SGSN weitergeleitet.&lt;br /&gt;
*Das '''GPRS Register''' (GR) ist Teil des ''Home Location Register'' (HLR) und enthält zusätzliche Teilnehmerinformationen, die für die paketvermittelte Übertragung benötigt werden.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Physikalische Kanäle  ==&lt;br /&gt;
&lt;br /&gt;
Physikalische Kanäle dienen der Kommunikation auf der physikalischen Ebene der Funkschnittstelle und werden innerhalb einer Basisstation (''Node B'') verarbeitet. Dabei unterscheidet man zwischen den ''dedizierten physikalischen Kanälen'' und ''gemeinsam genutzten physikalischen Kanälen''.&lt;br /&gt;
&lt;br /&gt;
Die '''dedizierten physikalischen Kanäle''' werden einzelnen Kommunikationspartnern fest zugewiesen. Zu diesen gehören:&lt;br /&gt;
*''Dedicated Physical Data Channel'' '''(DPDCH)''' – Dabei handelt es sich um einen unidirektionalen Uplink–Kanal, der Nutz– und Signalisierungsdaten aus höheren Schichten transportiert.&lt;br /&gt;
*''Dedicated Physical Control Channel'' '''(DPCCH)''' – Dieser Kontrollkanal enthält Informationen der physikalischen Schicht für die Steuerung der Übertragung, Leitungssteuerungs–Kommandos und Transportformat–Indikatoren, um nur einige Beispiele zu nennen.&lt;br /&gt;
*''Dedicated Physical Channel'' '''(DPCH)''' – Dieser Kanal umfasst den DPDCH und den DPCCH im Downlink und hat eine Länge von 2560 Chips.&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt den strukturellen Aufbau des DPDCH (blau), des DPCCH (rot) sowie des einhüllenden DPCH. Im DPCH werden in 10 ms genau 15 · 2560 = 38400 Chips übertragen, woraus sich für die Chiprate 3.84 Mchip/s ergibt.&lt;br /&gt;
&lt;br /&gt;
Die Nutzdaten im DPDCH werden aufgesplittet und pro Zeitschlitz werden – je nach Spreizfaktor J – zwischen 10 ( $J$ = 256 ) und 640 ( $J$ = 4 ) Bit übertragen. Im DPCCH werden einheitlich pro Zeitschlitz zehn Kontrollbits übertragen.&lt;br /&gt;
&lt;br /&gt;
In der Tabelle sind die von allen Teilnehmern '''gemeinsam genutzten''' physikalischen Kanäle aufgelistet.&lt;br /&gt;
&lt;br /&gt;
Im Folgenden werden die Eigenschaften einiger ausgewählter Kanäle beschrieben:&lt;br /&gt;
*Der '''CCPCH''' ist ein Downlink–Kanal mit zwei Unterkanälen. Der P–CCPCH beinhaltet Daten, die für den Betrieb innerhalb einer Funkzelle notwendig sind, während der S–CCPCH Daten enthält, die für die Paging–Prozedur und für den Transport von Kontrolldaten verantwortlich sind.&lt;br /&gt;
*Der '''PDSCH''' und der '''PUSCH''' sind gemeinsam genutzte Kanäle, die sowohl Nutzdaten als auch Kontrolldaten transportieren können. Der erste ist allein für den Downlink zuständig, der zweite für den Uplink.&lt;br /&gt;
*CPICH, SCH, AICH und PICH sind gemeinsam genutzte Kanäle, die für die Steuerung und Synchronisierung des Gesamtsystems verantwortlich sind. '''CPICH''' ermittelt die Zugehörigkeit der Mobilstation zu einer Basisstation, '''SCH''' dient zur Zellsuche und Synchronisation der Mobilstation.&lt;br /&gt;
*Der '''AICH''' überprüft und ermittelt die Verfügbarkeit des Systems, während der '''PICH''' für den Funkruf bei der Teilnehmerlokalisierung zuständig ist.&lt;br /&gt;
*Der '''PRACH''' kontrolliert die Übertragung von Nachrichten des Zufallszugriffkanals '''RACH''', während der '''PCPCH''' für den Transport von Datenpaketen nach dem CDMA/CD–Verfahren zuständig ist.	 	 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Logische Kanäle  ==	 &lt;br /&gt;
&lt;br /&gt;
Die logischen Kanäle befinden sich in der MAC–Referenzschicht und werden durch den Typ der übertragenen Daten gekennzeichnet. MAC steht hierbei für ''Medium Access Control''.&lt;br /&gt;
&lt;br /&gt;
Die in der Tabelle zusammengestellten logischen Kanäle lassen sich in zwei Klassen unterteilen, nämlich in die Kontrollkanäle (''Control Channels'') und die Verkehrskanäle (''Traffic Channels''):&lt;br /&gt;
*Über die '''Kontrollkanäle''' (mit der Endung '''CCH''') werden sowohl Kontrollinformationen (BCCH) als auch Paging–Informationen (PCCH) transportiert. Es können aber auch teilnehmerspezifische Signalisierungsdaten (DCCH) oder Transportinformationen zwischen den Teilnehmergeräten und dem UTRAN (CCCH) ausgetauscht werden.&lt;br /&gt;
*Dagegen werden über die '''Verkehrskanäle''' Teilnehmerinformationen ausgetauscht. Während der DTCH einem mobilen Teilnehmer zum Nutzdatentransport individuell zugewiesen werden kann, wird ein CTCH vorwiegend an alle oder an eine vordefinierte Gruppe von Teilnehmern vergeben.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
== Transportkanäle  ==	 &lt;br /&gt;
&lt;br /&gt;
Transportkanäle befinden sich in der physikalischen Schicht des ISO/OSI–Schichtenmodells. Sie&lt;br /&gt;
*werden durch die Parameter der Datenübertragung (z.B. die Datenrate) gekennzeichnet,&lt;br /&gt;
*gewährleisten die gewünschten Anforderungen bezüglich der Fehlerschutzmechanismen,&lt;br /&gt;
*legen die Art der Datenübertragung – so zu sagen das „WIE” – fest.&lt;br /&gt;
&lt;br /&gt;
Man unterscheidet zwei Klassen von Transportkanälen, nämlich dedizierte und gemeinsam genutzte Transportkanäle.&lt;br /&gt;
&lt;br /&gt;
Zur Klasse der '''dedizierten Transportkanäle''' (''Dedicated Transport Channels'' – DTCH) gehören die '''Dedicated Channels''' (DCH), die einem Teilnehmer fest zugewiesen werden. Ein DCH transportiert sowohl Nutzdaten als auch Kontrolldaten (Handover–Daten, Messdaten, ...) an die höheren Schichten, in denen sie dann interpretiert und verarbeitet werden.&lt;br /&gt;
&lt;br /&gt;
Zu den '''gemeinsam genutzten Transportkanälen''' (''Common Transport Channels'' – CTCH) gehören beispielsweise:&lt;br /&gt;
*Der ''Broadcast Channel'' ('''BCH''') ist ein Downlink–Kanal, der netzbetreiberspezifische Daten der Funkzelle (zum Beispiel ''Access Random Codes'' zur Signalisierung eines Verbindungsaufbaus) an die Teilnehmer verteilt. Charakteristisch ist seine relativ hohe Leistung und niedrige Datenrate (nur 3.4 kbit/s), um allen Nutzern einen möglichst fehlerfreien Empfang und hohen Prozessgewinn zu ermöglichen.&lt;br /&gt;
*Der ''Forward Access Channel'' ('''FACH''') ist ein Downlink–Kanal, zuständig für den Transport von Kontrolldaten. Eine Zelle kann mehrere FACH–Kanäle enthalten, wobei einer der Kanäle eine niedrige Datenrate aufweisen muss, um allen Nutzern die Auswertung seiner Daten zu ermöglichen.&lt;br /&gt;
*Der ''Random Access Channel'' ('''RACH''') ist ein unidirektionaler Uplink–Kanal. Der Teilnehmer kann damit den Wunsch äußern, eine Funkverbindung aufbauen zu wollen. Außerdem können auch kleine Datenmengen übertragen werden.&lt;br /&gt;
*Der ''Common Packet Channel'' ('''CPCH''') ist ein unidirektionaler Uplink–Datenkanal, der für paketorientierte Dienste ausgelegt ist und eine Erweiterung des RACH–Kanals darstellt.&lt;br /&gt;
*Der ''Paging Channel'' ('''PCH''') ist ein unidirektionaler Downlink–Kanal zur Lokalisierung eines Teilnehmers mit Daten für die Paging–Prozedur.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
{{Beispiel}}&lt;br /&gt;
Die Grafik soll die Interaktion zwischen den Transportkanälen RACH und FACH mit den logischen Kanälen CCCH und DCCH bei einem einfachen Verbindungsaufbau erläutern.&lt;br /&gt;
&lt;br /&gt;
Einige Erklärungen zu diesem Schaubild:&lt;br /&gt;
*Ein mobiler Teilnehmer (ME) äußert den Wunsch für einen Verbindungsaufbau. Als erstes wird dann mit Hilfe des logischen Kanals  ⇒  '''CCCH''' und des Transportkanals  ⇒  '''RACH''' eine Verbindungsanfrage über den UTRAN an den ''Radio Network Controller'' (RNC) gesendet.&lt;br /&gt;
*Hierzu wird das '''RRC'''–Protokoll (''Radio Resource Control'') verwendet, das die Aufgabe hat, die Signalisierung zwischen dem Teilnehmer und UTRAN/RNC zu gewährleisten.&lt;br /&gt;
*Der RNC antwortet auf diese Anfrage über den Transportkanal  ⇒  '''FACH'''. Dabei werden dem Teilnehmer die nötigen Kontrolldaten für den Verbindungsaufbau übersendet.&lt;br /&gt;
*Die Verbindung wird mit Hilfe des logischen Kanals  ⇒  '''DCCH''' tatsächlich aufgebaut.&lt;br /&gt;
&lt;br /&gt;
{{end}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Kommunikation innerhalb des ISO/OSI–Schichtenmodells==  &lt;br /&gt;
&lt;br /&gt;
Die Kommunikation zwischen den verschiedenen Schichten des ISO/OSI–Modells wird durch die auf den letzten Seiten vorgestellten logischen, physikalischen und Transport–Kanäle sichergestellt. Um die Funktionsfähigkeit und den Datenaustausch innerhalb des Gesamtmodells zu garantieren, müssen diese entsprechend der folgenden Grafik aufeinander abgebildet werden:&lt;br /&gt;
*Zunächst erfolgt die Abbildung des logischen Kanals auf den Transportkanal,&lt;br /&gt;
*danach die Abbildung des Transportkanals auf einen physikalischen Kanal.&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt die Struktur für Aufwärtsrichtung (Uplink) und Abwärtsrichtung (Downlink).&lt;br /&gt;
&lt;br /&gt;
Die untere Darstellung soll einen Gesamtüberblick über die Struktur der drei untersten Schichten des ISO/OSI–Modells geben und die Interaktionen der verschiedenen Kanalarten vermitteln.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
== Zellulare Architektur von UMTS  	== 	 &lt;br /&gt;
&lt;br /&gt;
Um ein flächendeckendes Netz mit geringer Sendeleistung und ausreichender Frequenzökonomie zu ermöglichen, werden auch bei UMTS wie bei GSM Funkzellen eingerichtet. Die Funkzellen sind im UMTS–Netz (Trägerfrequenz um 2 GHz) deutlich kleiner als bei GSM (Trägerfrequenz um 900 MHz), da bei gleicher Sendeleistung die Reichweite von Funksignalen mit steigender Frequenz abnimmt.&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt die '''Zellenstruktur''' von UMTS. Man erkennt daraus einen hierarchischen Aufbau und drei Typen von Funkzellen:&lt;br /&gt;
*'''Makrozellen''' sind mit 4 bis 6 Kilometer Durchmesser die größten Zellen. Sie erlauben relativ schnelle Bewegungungen. Beispielsweise ist eine Bewegungsgeschwindigkeit bis zu maximal 500 km/h zulässig, wenn die Datenrate 144 kbit/s beträgt. Eine Makrozelle kann möglicherweise eine Vielzahl von Mikro– und Pikozellen überlagern.&lt;br /&gt;
*'''Mikrozellen''' sind mit 1 bis 2 km deutlich kleiner als Makrozellen. Sie erlauben wesentlich höhere Datenraten bis 384 kbit/s, dafür aber nur langsamere Bewegungsgeschwindigkeiten. Zum Beispiel ist bei der Datenrate 384 kbit/s die maximal zulässige Geschwindigkeit 120 km/h. Eine Mikrozelle überlagert keine, eine oder eine Vielzahl von Pikozellen.&lt;br /&gt;
*'''Pikozellen''' versorgen nur sehr kleine Gebiete mit etwa 100 Meter Durchmesser, aber sehr hohem Datenaufkommen. Sie werden in hochverdichteten Orten wie zum Beispiel Flughäfen, Stadien, usw. eingesetzt. Zulässig sind theoretisch Datenraten bis 2 Mbit/s.&lt;br /&gt;
&lt;br /&gt;
Da UMTS als Vielfachzugriffsverfahren ''Code Division Multiple Access'' (CDMA) verwendet, benutzen alle Teilnehmer den gleichen Frequenzkanal. Dies resultiert in einer relativ hohen '''Interferenzleistung''' und einem sehr niedrigen Träger–zu–Interferenz–Abstand (englisch: ''Carrier–to–Interference Ratio'', CIR). Dieses ist zumindest deutlich kleiner als bei GSM, das auf FDMA und TDMA basiert.&lt;br /&gt;
&lt;br /&gt;
Ein niedriges CIR kann die Übertragungsqualität erheblich beeinträchtigen, nämlich dann, wenn sich die Signale unterschiedlicher Teilnehmer destruktiv überlagern, was zu Informationsverlust führt.&lt;br /&gt;
&lt;br /&gt;
Man unterscheidet zwei Arten von Interferenzen:&lt;br /&gt;
*'''Intrazellinterferenz''' entsteht durch die Verwendung des gleichen Frequenzkanals von mehreren Teilnehmern innerhalb der gleichen Zelle.&lt;br /&gt;
*Dagegen kann es zu '''Interzellinterferenz''' kommen, wenn Teilnehmer verschiedener Zellen den gleichen Frequenzkanal benutzen.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&lt;br /&gt;
Die Grafik veranschaulicht beide Arten der Zellinterferenz. In der linken Zelle kommt es zu ''Intrazellinterferenzen'', wenn die beiden Frequenzen $f_1$ und $f_2$ identisch sind.&lt;br /&gt;
&lt;br /&gt;
Dagegen gibt es ''Interzellinterferenz'', wenn in den beiden rechten Funkzellen gleiche Frequenzen verwendet werden $(f_3 = f_4)$. Intrazellinterferenzen sind wegen des geringen Abstands der Intrazellstörer meistens gravierender als Interzellinterferenzen, das heißt, sie bewirken ein deutlich kleineres CIR.&lt;br /&gt;
&lt;br /&gt;
{{end}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Um den Einfluss der Interferenzleistung auf die Übertragungsqualität zu begrenzen, wird bei UMTS die so genannte '''Zellatmung''' eingesetzt. Diese lässt sich wie folgt beschreiben:&lt;br /&gt;
*Nimmt die Anzahl der aktiven Teilnehmer und damit die aktuelle Interferenzleistung zu, so wird der Zellenradius verkleinert.&lt;br /&gt;
*Da nun weniger Teilnehmer in der Zelle senden, wird damit auch der störende Einfluss der Zellinterferenz geringer.&lt;br /&gt;
*Für die Versorgung der am Rande einer ausgelasteten Zelle stehenden Teilnehmer springt dann die weniger belastete Nachbarzelle ein.&lt;br /&gt;
&lt;br /&gt;
Eine Alternative zur Zellatmung ist, dass man die Gesamtsendeleistung innerhalb der Zelle verringert, was allerdings eine Reduzierung der Sende– und damit auch der Empfangsqualität bedeutet.&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&lt;br /&gt;
In der Grafik erkennt man, dass die Anzahl der aktiven Teilnehmer im Versorgungsgebiet von links nach rechts zunimmt.&lt;br /&gt;
&lt;br /&gt;
*Lässt man die Zellengröße gleich, so gibt es in der Zelle mehr aktive Teilnehmer als vorher und dementsprechend nimmt die Qualität aufgrund der Intrazellinterferenzen deutlich ab.&lt;br /&gt;
*Verkleinert man dagegen die Zellengröße im gleichen Maße, wie die Teilnehmerzahl zunimmt, so sind in einer Zelle nicht mehr Teilnehmer aktiv als vorher und die Qualität bleibt erhalten.&lt;br /&gt;
&lt;br /&gt;
{{end}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Handover in UMTS == 	 &lt;br /&gt;
&lt;br /&gt;
Um den Übergang zwischen verschiedenen Zellen für Mobilfunkteilnehmer möglichst unterbrechungsfrei erscheinen zu lassen, wird bei leitungsvermittelten UMTS–Diensten – wie auch bei GSM – ein Handover eingesetzt. Man unterscheidet bei UMTS zwei Arten:&lt;br /&gt;
*'''Hard Handover''' – Hierbei wird zu einem bestimmten Zeitpunkt die Verbindung hart zu einem anderen ''Node B'' umgeschaltet. Diese Art von Handover geschieht im TDD–Modus während des Umschaltens zwischen Sender und Empfänger.&lt;br /&gt;
*'''Soft Handover''' – Dabei kann ein Mobiltelefon mit bis zu drei Basisstationen kommunizieren. Die Übergabe eines Teilnehmers von einem Node B zu einem anderen erfolgt allmählich, bis der Teilnehmer diesen Bereich verlässt. Man spricht in diesem Zusammenhang von ''Makrodiversität''.&lt;br /&gt;
&lt;br /&gt;
Die ''Downlink–Daten'' werden im ''Radio Network Controller'' (RNC) aufgeteilt (''Splitting''), über die beteiligten ''Node Bs'' ausgestrahlt und in der Mobilstation wieder zusammengesetzt (''Rake Processing'').&lt;br /&gt;
&lt;br /&gt;
Im ''Uplink'' werden hingegen die gesendeten Daten von allen beteiligten Basisstationen empfangen. Die Zusammenlegung der Daten (''Soft Combining'') findet im RNC statt. Dieser leitet anschließend die Daten an das ''Core Network'' (CN) weiter.&lt;br /&gt;
&lt;br /&gt;
Man unterscheidet bei '''Soft Handover''' drei Sonderfälle:&lt;br /&gt;
Bei Softer Handover wird ein Teilnehmer über verschiedene Pfade der gleichen Basisstation ''Node B'' versorgt. Dagegen geschieht bei '''Intra–RNC Handover''' die Versorgung der Teilnehmer über zwei verschiedene Basisstationen, die an denselben RNC angeschlossen sind. Das ''Combining und Splitting'' der Daten findet in dem gemeinsamen RNC statt.&lt;br /&gt;
&lt;br /&gt;
Befindet sich der Teilnehmer in einem Gebiet, das von zwei benachbarten ''Radio Network Controllern'' verwaltet wird, so liegt '''Inter–RNC Handover''' vor. Der erste RNC, den man auch als ''Serving RNC'' (SRNC) bezeichnet, übernimmt die Kommunikation mit dem ''Core Network'' und ist für ''Combining und Splitting'' verantwortlich. Der zweite RNC – der so genannte ''Drift RNC'' (DRNC) – übernimmt die Kommunikation mit dem SRNC und mit dem von ihm verwalteten ''Node B''.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&lt;br /&gt;
Die nachfolgende Flash–Animation soll dieses Szenario verdeutlichen. Man erkennt&lt;br /&gt;
&lt;br /&gt;
*Hard Handover bei '''H''',&lt;br /&gt;
*Inter–RNC Handover bei   grüner Markierung '''D''',&lt;br /&gt;
*Intra–RNC Handover bei   blauen Marken: '''B, F, J''',&lt;br /&gt;
*nur eine RNC–Verbindung bei '''A, C, E, G, I, K'''.&lt;br /&gt;
&lt;br /&gt;
START der Animation&lt;br /&gt;
&lt;br /&gt;
{{end}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==IP–basierte Netze == 	 	 &lt;br /&gt;
&lt;br /&gt;
Mit dem UMTS Release 5 wurden unter Anderem '''IP–basierte Netze''' (''IP Core Networks'') eingeführt. Dabei werden sowohl Nutzdaten als auch Kontrolldaten über ein internes IP–Netz übertragen. Das bedeutet, dass sowohl leitungsvermittelte Dienste als auch paketvermittelte Dienste auf der Basis von IP–Protokollen erbracht werden.&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt die Netzarchitektur von UMTS Release 5 in schematischer Weise. Im Vergleich zur ursprünglichen UMTS–Netzarchitektur (Release 99) wurde das Netz um folgende Knoten ergänzt:&lt;br /&gt;
*Das '''Media Gateway (MGW)''' ist für die Wiedergewinnung der in ''Voice–over–IP'' (VoIP) konvertierten Sprachpakete in herkömmliche Sprachdaten verantwortlich.&lt;br /&gt;
*Der '''Home Subscriber Server (HSS)''' fasst die aus dem ''UMTS Release 99'' bekannten Register HLR und VLR zusammen.&lt;br /&gt;
*Der '''Call State Control Function (CSCF)'''–Knoten ist für die gesamte Steuerung des IP–Netzes in ''UMTS Release 5'' zuständig und stellt zudem die Kommunikation zwischen CSCF–Knoten und Teilnehmer über das ''Session Initiation Protokoll'' (SIP) her.&lt;br /&gt;
&lt;br /&gt;
Es spricht vieles für den Einsatz einer solchen IP–basierten Netzarchitektur, da diese eine Reihe von Verbesserungen bereitstellt. Wesentliche '''Vorteile''' von IP–Netzen sind:&lt;br /&gt;
*eine zukunftsweisende Alternative zur jetzigen Auslegung,&lt;br /&gt;
*eine preiswerte Routing–Technologie  ⇒  große Einsparungen bei der Vermittlungstechnik,&lt;br /&gt;
*große Flexibilität bei der Einführung neuer Dienste, und&lt;br /&gt;
*eine leichte Implementierung von Netzüberwachungstechniken.&lt;br /&gt;
&lt;br /&gt;
Entscheidende '''Nachteile''' dieser Architektur sind derzeit (2011) allerdings auch:&lt;br /&gt;
*die mühsame Integration der Infrastruktur der zweiten Mobilfunkgeneration,&lt;br /&gt;
*die Notwendigkeit von Übergangsknoten zur Konvertierung der Daten in sog. Gateways,&lt;br /&gt;
*das Fehlen eines eindeutigen und zuverlässigen Sicherheitskonzeptes.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Aufgaben zu Kapitel 4.2 == 	 &lt;br /&gt;
[[Aufgaben:4.3_UMTS–Zugangsebene|Aufgabe 4.3: UMTS–Zugangsebene]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:4.4_Zellulare_UMTS-Architektur|Aufgabe 4.4: Zellulare UMTS-Architektur]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/General_Description_of_UMTS&amp;diff=22126</id>
		<title>Examples of Communication Systems/General Description of UMTS</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/General_Description_of_UMTS&amp;diff=22126"/>
		<updated>2018-01-03T17:02:03Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=UMTS – Universal Mobile Telecommunications System&lt;br /&gt;
|Vorherige Seite=Weiterentwicklungen des GSM&lt;br /&gt;
|Nächste Seite=UMTS–Netzarchitektur&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== # ÜBERBLICK ZUM VIERTEN HAUPTKAPITEL # ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Anforderungen an Mobilfunksysteme der dritten Generation==  	 &lt;br /&gt;
&lt;br /&gt;
Die wichtigste Motivation zur Entwicklung von '''Mobilfunksystemen der dritten Generation''' war die Erkenntnis, dass die Systeme der zweiten Generation den Bandbreitenbedarf zur Nutzung multimedialer Dienste nicht zufrieden stellen konnten. Die Grafik zeigt die Entwicklung der Mobilfunksysteme seit 1995 hinsichtlich Leistungsfähigkeit bzw. Datenübertragungsrate. Die für HSPA angegebenen Datenraten sind für 2006/2007 realistisch. Bis Ende 2008 ist mit einer Erhöhung bis zum Faktor 2.5 zu rechnen. In den Spezifikationen werden dagegen für den Uplink 5.8 Mbit/s und für den Downlink 14.4 Mbit/s (also deutlich höhere Maximalwerte) genannt, die aber in der Praxis wohl nicht erreichbar sein werden.&lt;br /&gt;
&lt;br /&gt;
Die Mobilfunksysteme der dritten Generation sollen über eine größere Bandbreite und eine genügende Reserve an Leistungsfähigkeit verfügen, um auch bei den stetig wachsenden Anforderungen eine hohe Dienstgüte gewährleisten zu können.&lt;br /&gt;
Bei der Entwicklung der Systeme der dritten Generation hat die ''International Telecommunication Union'' (ITU) eine wichtige Rolle gespielt. Sie hat unter anderem einen Anforderungskatalog erstellt, der ihre Eigenschaften festlegte. Dieser Anforderungskatalog umfasst folgende Rahmenbedingungen:&lt;br /&gt;
*Hohe Datenraten von 144 kbit/s (Standard) bis 2 Mbit/s (In-door),&lt;br /&gt;
*symmetrische und asymmetrische Datenübertragung (IP–Dienste),&lt;br /&gt;
*leitungsvermittelte (''circuit–switched'') und paketvermittelte (''packed–switched'') Übertragung,&lt;br /&gt;
*hohe Sprachqualität und hohe Spektraleffizienz,&lt;br /&gt;
*nahtloser Übergang von Systemen der zweiten Generation,&lt;br /&gt;
*globale Erreichbarkeit und Verbreitung,&lt;br /&gt;
*Anwendungen unabhängig vom verwendeten Netz (''Virtual Home Environment'').&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==Der IMT–2000–Standard==  &lt;br /&gt;
&lt;br /&gt;
Im Jahre 1992 wurde von der ''International Telecommuncation Union'' (ITU) der Standard '''IMT-2000''' (''International Mobile Telecommunications at'' 2000 MHz) ins Leben gerufen, der die genannten Anforderungen ermöglichen sollte. IMT–2000 umfasst eine Reihe verschiedener Mobilfunksysteme der dritten Generation, die im Laufe der Standardisierung aneinander angenähert wurden, um die Entwicklung von gemeinsamen Endgeräten für alle diese Standards zu ermöglichen.&lt;br /&gt;
&lt;br /&gt;
Um national unterschiedliche Vorarbeiten zu berücksichtigen und den Netzbetreibern die Möglichkeit zu geben, die bereits bestehenden Netzarchitekturen zum Teil weiter zu verwenden, beinhaltet IMT–2000 mehrere Einzelstandards. Diese lassen sich grob in vier Kategorien einteilen:&lt;br /&gt;
*'''W–CDMA''': Dazu zählt man die FDD-Komponente des europäischen UMTS–Standards sowie das amerikanische cdma2000–System.&lt;br /&gt;
*'''TD–CDMA''': Zu dieser Gruppe zählt die TDD–Komponente von UMTS sowie das chinesische TD–SCDMA, das mittlerweile in den UMTS–TDD–Standard integriert ist.&lt;br /&gt;
*'''TDMA''': Eine Weiterentwicklung des GSM–Ablegers EDGE und des amerikanischen Pendants UWC–136, auch bekannt als DS–AMPS.&lt;br /&gt;
*'''FD–TDMA''': Die Weiterentwicklung des europäischen Schnurlos–Telefonie–Standards DECT (''Digital Enhanced Cordless Telecommunication'').&lt;br /&gt;
&lt;br /&gt;
Im Folgenden konzentrieren wir uns auf das in Europa entwickelte System '''UMTS''' (''Universal Mobile Telecommunications System''), das die beiden erstgenannten Standards W–CDMA und TD–CDMA der Systemfamilie IMT–2000 unterstützt.&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
==Historische Entwicklung von UMTS == 	 &lt;br /&gt;
&lt;br /&gt;
Es folgen einige Daten zur historischen Entwicklung von UMTS und der darin verwendeten Techniken. Weitere Informationen finden Sie beispielsweise unter diesem Internet–Link.&lt;br /&gt;
*'''1940–1950''' Erste militärische Anwendungen von Signalspreizverfahren.&lt;br /&gt;
*'''1949'''	Erste Grundzüge des CDMA–Verfahrens durch C. E. Shannon und J. R. Pierce.&lt;br /&gt;
*'''1970'''	Verschiedene CDMA–Entwicklungen für militärische Systeme, z.B. GPS.&lt;br /&gt;
*'''1989–1992'''	Grundlagenforschung zu den Eigenschaften zukünftiger Mobilfunksysteme im Rahmen des EU–Programms RACE–1 (''Research, Analysis, Communication, Evaluation'').&lt;br /&gt;
*'''1992'''	Erste Überlegungen zum Standard IMT–2000 durch die ITU.&lt;br /&gt;
*'''1992–1995'''	EU–Programm RACE–2 mit dem Schwerpunkt „Entwicklung von Systemkonzepten” – basierend auf den Ergebnissen von RACE–1.&lt;br /&gt;
*'''1996'''	Gründung des UMTS–Forums in Zürich – Umbenennung des geplanten europäischen Standards „W–CDMA” in „UMTS”.&lt;br /&gt;
*'''1998'''	Übernahme der beiden Modi ''W–CDMA'' und ''TD–CDMA'' in den UMTS–Standard auf der ETSI–SMG–Sitzung in Paris.&lt;br /&gt;
*'''1998'''	Gründung des ''3gpp''–Forums (''3rd Generation Partnership Project'') durch die Gremien ETSI–SMG, T1P1, ARIB TTC und TTA.&lt;br /&gt;
*'''1999'''	Verabschiedung des Standards UMTS–R99 (Release 1999) durch die ETSI. Dieser gilt als Basis für die ersten verfügbaren UMTS–Endgeräte.&lt;br /&gt;
*'''2001	'''Verabschiedung der Release 4 als Weiterentwicklung von UMTS–R99: ''Quality of Service'' (QoS) wird nun sowohl an der Funkschnittstelle als auch im Festnetz unterstützt.&lt;br /&gt;
*'''2001	'''Erstes kommerzielle UMTS–Netz des norwegischen Unternehmens TELENOR.&lt;br /&gt;
*'''2002	'''Verabschiedung der UMTS Release 5: Die an das GSM–Festnetz angelehnte Architektur wird durch ein vollständig IP–basiertes Festnetz ersetzt.&lt;br /&gt;
*'''2002	'''Erste UMTS–Sprach– und Datenverbindung von Nortel Networks und Qualcomm. Damit gelten diese beiden Firmen als Vorreiter bei der Umsetzung der UMTS–Technologie.&lt;br /&gt;
*'''2004'''	Verabschiedung der UMTS Release 6. Dieser weiterentwickelte Standard bietet dem Nutzer einen verbesserten QoS und dem Anbieter eine effektivere Ressourcenverwaltung.&lt;br /&gt;
&lt;br /&gt;
	&lt;br /&gt;
Die Grafik fasst die historische Entwicklung von UMTS nochmals zusammen.&lt;br /&gt;
&lt;br /&gt;
Man erkennt, dass auch bei UMTS zwischen den ersten Konzeptüberlegungen und der endgültigen Einführung mehr als ein Jahrzehnt vergangen ist. Bei der Einführung anderer Kommunikationssysteme (ISDN, DSL, GSM) war dies ähnlich.&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
==Frequenzspektren für UMTS==  	&lt;br /&gt;
&lt;br /&gt;
Zuständig für die Zuweisung von Bandbreiten und Frequenzbänder der Kommunikationssysteme ist die ''International Telecommunication Union'' (ITU). Insbesondere bei UMTS gibt es Abweichungen zwischen den europäischen und den ITU–Frequenzzuweisungen, da manche Frequenzbänder schon von anderen Mobilfunksystemen belegt sind. In der folgenden Grafik sind die europäische (unten) sowie die ITU–Frequenzzuweisung (oben) dargestellt.&lt;br /&gt;
&lt;br /&gt;
Hierbei bedeuten:&lt;br /&gt;
*'''GSM 1800''' – Frequenzband für den Downlink des GSM 1800,&lt;br /&gt;
*'''SAT''' – satellitengestützte Systeme, jeweils 30 MHz für Uplink und Downlink,&lt;br /&gt;
*'''DECT''' – ''Digital Enhanced Cordless Telecommunications'' (Schnurlostelefon– Standard),&lt;br /&gt;
*'''UTRA–FDD''' – ''UMTS Terrestrial Radio Access–Frequency Division Duplex'',&lt;br /&gt;
*'''UTRA–TDD''' – ''UMTS Terrestrial Radio Access–Time Division Duplex''.&lt;br /&gt;
&lt;br /&gt;
UTRA–FDD (oder kurz FDD) besteht aus 12 gepaarten Uplink– und Downlink–Frequenzbändern zu je 5 MHz Bandbreite. Die Frequenzbänder liegen in Europa zwischen 1920 und 1980 MHz im Uplink sowie zwischen 2110 und 2170 MHz im Downlink.&lt;br /&gt;
&lt;br /&gt;
Dagegen besteht UTRA–TDD (oder kurz TDD) aus 5 Frequenzbändern zu je 5 MHz Bandbreite, in denen mittels Zeitmultiplex sowohl Uplink– als auch Downlink–Daten übertragen werden sollen. Für TDD sind die Frequenzen zwischen 1900 und 1920 MHz (vier Kanäle) und zwischen 2020 und 2025 MHz (ein Kanal) reserviert. Das Band zwischen 2010–2020 wurde noch nicht lizenziert und wird deswegen in Deutschland ebenfalls noch nicht genutzt.&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
== Vollduplexverfahren == 	&lt;br /&gt;
&lt;br /&gt;
Um die beiden Übertragungsrichtungen Uplink und Downlink zu trennen, werden in UMTS zwei unterschiedliche Betriebsmodi unterstützt. Man unterscheidet:&lt;br /&gt;
*''UMTS Terrestrial Radio Access Frequency Division Duplex'' (UTRA–FDD),&lt;br /&gt;
*''UMTS Terrestrial Radio Access Time Division Duplex'' (UTRA–TDD).&lt;br /&gt;
&lt;br /&gt;
Der wesentliche Unterschied zwischen diesen beiden Modi zeigt sich vor allem in der physikalischen Ebene des Protokollstapels. Die beiden Verfahren unterscheiden sich dabei sowohl in ihren Duplex– als auch in ihren Vielfachzugriffsverfahren.&lt;br /&gt;
&lt;br /&gt;
Im '''UTRA–FDD'''–Modus werden – wie in obiger Grafik zu sehen – die Uplink– und Downlink–Daten gleichzeitig auf unterschiedlichen, aber korrespondierenden gepaarten Frequenzblöcken zu je 5 MHz übertragen. Dabei ist zu beachten:&lt;br /&gt;
*Daten verschiedener Teilnehmer werden auf dem gleichen Frequenzband gesendet und empfangen. Die Verwendung von verschiedenen CDMA–Spreizcodes ermöglicht die Trennung der jeweiligen Teilnehmerdaten.&lt;br /&gt;
*Es wird außerdem das ''TDMA–Verfahren'' verwendet, um periodische Funktionen wie z.B. die Leistungssteuerung zu realisieren.&lt;br /&gt;
*Das ''FDMA–Verfahren'' kann zusätzlich zu CDMA und TDMA genutzt werden, wenn der Netzbetreiber über mehr als einen Frequenzkanal verfügt.&lt;br /&gt;
&lt;br /&gt;
Der FDD–Modus wird nur in Europa und meist bei symmetrischen Diensten verwendet, deren Bandbreitenanforderungen im Uplink und im Downlink etwa gleich sind. Dies ist zum Beispiel bei der Sprachkommunikation oder der Videotelefonie der Fall.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
Im '''UTRA–TDD–Modus''' werden Uplink– und Downlink–Daten im gleichen Frequenzband übertragen. Dabei werden Uplink und Downlink zeitlich getrennt, wie die folgende Grafik zeigt. Weiterhin gilt:&lt;br /&gt;
*Der Umschaltzeitpunkt (''Switching Point'') kann abhängig vom Datenvolumenverhältnis zwischen Uplink und Downlink flexibel gewählt werden.&lt;br /&gt;
*Die Teilnehmer werden beim TDD–Modus sowohl durch den Spreizcode (wie bei FDD) als auch durch den Zeitschlitz gekennzeichnet.&lt;br /&gt;
*Wie bei FDD kann zusätzlich zu CDMA und TDMA noch das FDMA–Verfahren zum Einsatz kommen, wenn der Netzbetreiber über mehr als einen Frequenzkanal verfügt.&lt;br /&gt;
&lt;br /&gt;
Der TDD–Modus wird derzeit in Europa noch nicht genutzt und wird nach seiner Einführung hauptsächlich bei asymmetrischen Diensten (Beispiel: Downloads oder Surfen im Internet) zum Einsatz kommen, bei denen sich die Datenvolumina von Downlink und Uplink deutlich unterscheiden.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Eigenschaften des UMTS-Funkkanals==  &lt;br /&gt;
&lt;br /&gt;
Im UMTS–Funkkanal treten neben Interferenzen durch andere Teilnehmer und Rauschen zusätzlich eine Reihe unvorhersehbarer, störender und verzerrender Effekte auf, die sich zudem über der Zeit verändern. Bedingt durch Reflexionen sowie Streuungen und Beugungen an Objekten erfährt das gesendete Signal eine '''Mehrwegeausbreitung'''. Dabei erreicht das Signal den Empfänger nicht nur über den direkten Pfad, sondern über mehrere Wege mit unterschiedlichen Laufzeiten und unterschiedlich gedämpft.&lt;br /&gt;
&lt;br /&gt;
Die Mehrwegeausbreitung wird von der Umgebung beeinflusst, zusätzlich aber auch von einer möglichen Bewegung des Teilnehmers, wie in der Grafik durch die Bewegungsgeschwindigkeit $v$ angedeutet ist.&lt;br /&gt;
&lt;br /&gt;
Der '''Pfadverlust''' (englisch: ''Path–Loss'') geht auf Ausbreitungseigenschaften elektromagnetischer Wellen zurück – siehe Kapitel 2.1 des Buches [[Mobile Kommunikation]]. Für die Untersuchung dieses Dämpfungsphänomens gehen wir von einem vereinfachten Pfadverlustmodell aus. Dieses besagt:&lt;br /&gt;
*Die Empfangsleistung eines Funksignals fällt mit der Entfernung $d$ um $d^{–γ}$, wobei der Parameter $γ$ eine mediumsabhängige Konstante der Funkausbreitungswelle darstellt.&lt;br /&gt;
*Unter Berücksichtigung von konstruktiven oder destruktiven Bodenreflexionen nimmt die Konstante $γ$ unterhalb des so genannten Break Points $(d_0)$ Werte zwischen 2 und 3 an.&lt;br /&gt;
*Oberhalb des Break Points verstärken sich die Reflexionseffekte und die Ausbreitungskonstante γ wächst auf Werte zwischen 3.5 und 4 an.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&lt;br /&gt;
Rechts dargestellt ist der Pfadverlust (in dB) in Abhängigkeit der Entfernung $d$. Bei diesem Beispiel ist die Konstante $α_0 = 10^{–5}$ (also 50 dB) gesetzt und der Break Point liegt bei $d_0 = 100$ m.&lt;br /&gt;
*Im linken Bereich gilt $γ$ ≈ 2.&lt;br /&gt;
*Für $d &amp;gt; d_0$ ist dagegen $γ$ ≈ 4. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{end}}&lt;br /&gt;
	 	 &lt;br /&gt;
&lt;br /&gt;
==Frequenz- und zeitselektives Fading==  	 &lt;br /&gt;
&lt;br /&gt;
Eine wesentliche Eigenschaft des Mobilfunkkanals stellt das so genannte '''Fading''' dar. Dieses entsteht durch zeitlich veränderliche Signalabschattungen (englisch: ''Shadowing'') und durch mögliche Bewegungen des Mobilfunkteilnehmers.&lt;br /&gt;
&lt;br /&gt;
Im Buch [[Mobile Kommunikation]] wird diese Art der Signalbeeinträchtigung ausführlich behandelt. Hier folgt nur eine kurze Zusammenfassung. Man unterscheidet zum einen:&lt;br /&gt;
*'''schnelles Fading''' (englisch: ''Fast Fading'' oder ''Short Term Fading'') mit kurzzeitigen Einbrüchen der Empfangsleistung im Mikrosekundenbereich,&lt;br /&gt;
*'''langsames Fading''' (englisch: ''Long Term Fading'') – also nur langsame Veränderungen (meist) im Sekundenbereich.&lt;br /&gt;
&lt;br /&gt;
''Fast Fading'' beeinträchtigt hauptsächlich Systeme mit großer Symboldauer, also kleiner Bandbreite. Da aber die Bandbreite bei UMTS sehr viel größer ist als bei GSM, ist dieses System weniger anfällig gegenüber ''Fast Fading''.&lt;br /&gt;
&lt;br /&gt;
Weiterhin lässt sich Fading auch noch wie folgt klassifizieren:&lt;br /&gt;
*'''Frequenzselektives Fading''' wird durch Mehrwegeausbreitung über Pfade mit unterschiedlichen Verzögerungszeiten verursacht. Als Folge dieses Fadings werden verschiedene Frequenzanteile durch die Leistungsübertragungsfunktion $|H_{\rm K}(f)|^2$ des Kanals unterschiedlich gedämpft.&lt;br /&gt;
*'''Zeitselektives Fading''' entsteht durch eine Relativbewegung zwischen Sender und Empfänger. Dadurch kommt es abhängig von der Bewegungsrichtung (hin zum oder weg vom Sender) zu Frequenzverschiebungen, die physikalisch durch den ''Dopplereffekt'' beschrieben werden.&lt;br /&gt;
&lt;br /&gt;
Hier sei auf zwei Interaktionsmodule aus dem Buch [[Mobile Kommunikation]] verwiesen:&lt;br /&gt;
*Mehrwegeausbreitung und Frequenzselektivität&lt;br /&gt;
*Zur Verdeutlichung des Dopplereffekts&lt;br /&gt;
&lt;br /&gt;
Auf der nächsten Seite wird dargelegt, unter welchen Bedingungen mit welchen dieser Fadingarten zu rechnen ist.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die beiden auf der letzten Seite genannten Fadingeigenschaften ''frequenzselektiv'' und ''zeitselektiv'' sollen noch etwas genauer erläutert werden.&lt;br /&gt;
&lt;br /&gt;
Durch den Empfang verschiedener Streukomponenten mit unterschiedlichen Verzögerungszeiten entsteht eine Mehrwegeverbreiterung (englisch: ''Delay Spread'') $T_{\rm V}$, definiert als Differenz zwischen maximaler und minimaler Verzögerungszeit. Der Kehrwert hiervon ist näherungsweise die Kohärenzbandbreite $B_{\rm K}$.&lt;br /&gt;
*Man spricht dann von ''frequenzselektivem Fading'', wenn die Kohärenzbandbreite $B_{\rm K}$ sehr viel kleiner als die Signalbandbreite BS ist. Als Folge werden verschiedene Frequenzanteile durch den Kanal unterschiedlich gedämpft, woraus lineare Verzerrungen resultieren.&lt;br /&gt;
&lt;br /&gt;
Die linke Grafik verdeutlicht diesen Effekt. Dargestellt ist die Leistungsübertragungsfunktion $|H_{\rm K}(f, t)|^2$ des Kanals zu einer festen Zeit t. Während blau nichtfrequenzselektives Fading mit –5 dB eingezeichnet ist, zeigt die rote Kurve ein Beispiel von frequenzselektivem Fading: Unterschiedliche Frequenzanteile werden dabei unterschiedlich gedämpft.&lt;br /&gt;
&lt;br /&gt;
Beim zeitselektiven Fading entsteht eine so genannte Dopplerverbreiterung (englisch: ''Doppler Spread'') $B_{\rm D}$, die als Differenz zwischen der maximal und der minimal auftretenden Dopplerfrequenzen definiert ist. Deren Kehrwert bezeichnet man als die Korrelationsdauer $T_{\rm D} = \frac{1}{B_{\rm D}}$. In manchen Literaturstellen wird diese Größe auch als Kohärenzzeit bezeichnet.&lt;br /&gt;
*Bei UMTS tritt immer dann ''zeitselektives Fading'' auf, wenn die ''Korrelationsdauer'' $T_{\rm D}$ sehr viel kleiner als die Chipdauer $T_{\rm C}$ ist. Die rechte Grafik zeigt schematisch das zeitselektive Fading, wobei nun die Leistungsübertragungsfunktion $|H_{\rm K}(f, t)|^2$ des Kanals für eine feste Frequenz $f$ aufgetragen ist. Die blaue Kurve gilt hier für nicht zeitselektives Fading.&lt;br /&gt;
&lt;br /&gt;
Mehr über die hier kurz angerissene Thematik erfahren Sie im Buch [[Mobile Kommunikation]]:&lt;br /&gt;
*Mehrwegeverbreiterung und Kohärenzbandbreite&lt;br /&gt;
*Korrelationsdauer und Dopplerverbreiterung&lt;br /&gt;
	 &lt;br /&gt;
&lt;br /&gt;
==UMTS–Dienste == 	&lt;br /&gt;
&lt;br /&gt;
Die Einführung von UMTS hat sich unter Anderem die Erweiterung und Diversifikation der angebotenen Mobilfunkdienste zum Ziel gesetzt. Ein UMTS–fähiges Endgerät muss zusätzlich zu den klassischen Diensten (Sprachübertragung, Messaging, usw.) eine Reihe komplexerer multimedialer Anwendungen und Funktionen unterstützen.&lt;br /&gt;
&lt;br /&gt;
Man kann diese Dienste – je nach Anwendung – in sechs Hauptkategorien unterteilen:&lt;br /&gt;
*'''Information''': Internet–Surfen (''Info–on–demand''), Online–Printmedien,&lt;br /&gt;
*'''Kommunikation''': Video– und Audiokonferenz, Fax, ISDN, Messaging,&lt;br /&gt;
*'''Unterhaltung''': Mobile TV, Mobile Radio, Video–on–Demand, Online–Gaming,&lt;br /&gt;
*'''Geschäftlicher Bereich''': Interaktives Einkaufen, E–Commerce,&lt;br /&gt;
*'''Technischer Bereich''': Online–Betreuung, Distributionsservice (Sprache und Daten),&lt;br /&gt;
*'''Medizinischer Bereich''': Telemedizin.&lt;br /&gt;
&lt;br /&gt;
In der Abbildung sind die Dienste nach Datenrate und Art der Verbindung klassifiziert:&lt;br /&gt;
*Die Höhe eines Kästchens gibt (in etwa) den Bereich für die erforderliche Datenrate an.&lt;br /&gt;
*Die Breite deutet näherungsweise auf den Datenumfang hin.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
==Sicherheitsaspekte == 	 &lt;br /&gt;
&lt;br /&gt;
Die Sicherheitsmerkmale in UMTS–Netzen basieren auf den genau gleichen Prinzipien wie bei GSM. Allerdings wurden einige GSM–Sicherheitsfunktionen entfernt, ersetzt oder ausgebaut. Dadurch wurden die Verschlüsselungsalgorithmen robuster, die Authentifizierungsalgorithmen strenger und die Kriterien zur Vertraulichkeit eines Teilnehmers enger.&lt;br /&gt;
&lt;br /&gt;
Die wesentlichen von GSM übernommenen Sicherheitsmaßnahmen bei UMTS sind:&lt;br /&gt;
*Authentifizierung des Teilnehmers,&lt;br /&gt;
*Vertraulichkeit der Teilnehmeridentität,&lt;br /&gt;
*Verschlüsselung der Funkschnittstelle.&lt;br /&gt;
&lt;br /&gt;
Zusätzlich zu diesen werden bei UMTS noch weitere Sicherheitsmaßnahmen beachtet:&lt;br /&gt;
*Gegenseitige Authentifizierung, um die Nutzung falscher Basisstationen zu vermeiden,&lt;br /&gt;
*Verschlüsselung der Verbindung zwischen Basisstation und zugehörigem Kontrollknoten,&lt;br /&gt;
*Verschlüsselung und Authentifizierung der Sicherheitsdaten bei der Übertragung,&lt;br /&gt;
*Mechanismen zur Aktualisierung der Sicherheitsmerkmale.&lt;br /&gt;
&lt;br /&gt;
Man kann die oben aufgeführten Sicherheitsmaßnahmen entsprechend der Grafik klassifizieren. Man unterscheidet Sicherheitskonzepte für&lt;br /&gt;
*den sicheren '''Netzzugang''' (''Network Access Security'') für jeden Teilnehmer,&lt;br /&gt;
*die '''Netzdomäne''' (''Network Domain Security'') – ein sicherer Austausch von Kontrolldaten zwischen den Knoten innerhalb der Netzanbieterdomäne wird sichergestellt,&lt;br /&gt;
*die '''Teilnehmerdomäne''' (''User Domain Security'') – der Zugang zu den Endgeräten wird sichergestellt,&lt;br /&gt;
*die '''Anwendungsdomäne''' (''Application Domain Security'') – der sichere Austausch zwischen Anwendungen der Teilnehmerendgeräte und der Netzanbieter wird garantiert.&lt;br /&gt;
&lt;br /&gt;
Der UMTS–Teilnehmer kann jederzeit erkennen, welche dieser Sicherheitsmaßnahmen in Betrieb sind und welche davon für bestimmte Dienste benötigt werden. Man spricht in diesem Zusammenhang von Sichtbarkeit und Konfigurierbarkeit der Sicherheit.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==Aufgaben zu Kapitel 4.1  ==	 &lt;br /&gt;
[[Aufgaben:4.1_UMTS_-_Duplexverfahren|Aufgabe 4.1: UMTS - Duplexverfahren]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:4.2_UMTS-Funkkanal|Aufgabe 4.2: UMTS-Funkkanal]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Further_Developments_of_the_GSM&amp;diff=22125</id>
		<title>Examples of Communication Systems/Further Developments of the GSM</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Further_Developments_of_the_GSM&amp;diff=22125"/>
		<updated>2018-01-03T17:00:47Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=GSM – Global System for Mobile Communications&lt;br /&gt;
|Vorherige Seite=Gesamtes GSM–Übertragungssystem&lt;br /&gt;
|Nächste Seite=Allgemeine Beschreibung von UMTS&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Die verschiedenen Generationen des GSM==  &lt;br /&gt;
&lt;br /&gt;
GSM wurde ursprünglich als ein paneuropäisches Mobilfunknetz konzipiert und entwickelt, vor allem für Telefongespräche und Fax. Die Datenübertragung bei konstanter niedriger Datenrate war sekundär.&lt;br /&gt;
Der GSM–Standard wurde nach der Darstellung in verschiedenen Phasen weiter entwickelt. So wurden neue Dienste ermöglicht.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Grafik aus &amp;lt;ref&amp;gt;Eberspächer, J.; Vögel, H.J.; Bettstetter, C.: ''Global System for Mobile Communication''. 3. Auflage. Stuttgart: Teubner, 2001.&amp;lt;/ref&amp;gt; zeigt die Weiterentwicklungen von GSM:&lt;br /&gt;
*Das in den Kapiteln 3.1 bis 3.4 beschriebene GSM-System beschränkt sich auf die beiden ersten Generationen. Die '''Phase 1''' beinhaltet grundlegende Teledienste und einige wenige Zusatzdienste, die zur Markteinführung von GSM im Jahr 1991 verbindlich von allen damaligen Netzbetreibern angeboten werden konnten.&lt;br /&gt;
*Die Standardisierung der '''Phase 2''' in den Jahren von 1995 bis 1997 beinhaltete bereits die ersten Weiterentwicklungen des GSM–Standards. Dadurch wurden die von ISDN her bekannten Zusatzdienste für GSM schrittweise verfügbar gemacht und um einige neue Leistungsmerkmale ergänzt, so etwa Anklopfen (''Call Waiting'') oder Halten (''Hold'').&lt;br /&gt;
*In den Jahren 1997–2000 wurden neue Datendienste mit höherer Datenrate entwickelt, wie zum Beispiel &lt;br /&gt;
–  High Speed Circuit–Switched Data (HSCSD), &lt;br /&gt;
–  General Packet Radio Service (GPRS), und &lt;br /&gt;
–  Enhanced Data Rates für GSM Evolution (EDGE). &lt;br /&gt;
Diese neuen Datendienste werden der '''Phase 2+''' (oder Generation 2.5) zugerechnet und sind in der Grafik grün hinterlegt.&lt;br /&gt;
*Zur dritten Mobilfunkgeneration gehört '''Universal Mobile Telecommunications System''' (UMTS). Dieser Standard ermöglicht deutlich höhere Datenübertragungsraten, als dies mit dem GSM–Standard möglich ist. Er wird im Kapitel 4 dieses Buches eingehend behandelt. In der Grafik ist dieses System der dritten Generation rot hinterlegt.&lt;br /&gt;
&lt;br /&gt;
Die Themen der Phase 2+ betreffen fast alle Aspekte von GSM, von der Funkübertragung bis hin zur Verbindungssteuerung. Die damit möglichen neuen Datendienste werden auf den folgenden Seiten näher erklärt.&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
==High Speed Circuit–Switched Data (HSCSD)==  	 &lt;br /&gt;
&lt;br /&gt;
Durch den 1999 eingeführten GSM–Datenübertragungsstandard '''High Speed Circuit–Switched Data''' (HSCSD) kann durch eine verbesserte Kanalcodierung die Nutzdatenrate pro Verbindung von 9.6 kbit/s auf 14.4 kbit/s erhöht werden, wenn es die Übertragungsbedingungen erlauben. Durch die Bündelung mehrerer benachbarter Zeitschlitze kann die Datenrate noch weiter gesteigert werden. Die Datenrate ist davon abhängig, wie viele Kanäle der Netzbetreiber für die Bündelung zur Verfügung stellt bzw. wie viele Kanäle das HSCSD–Handy verarbeiten kann.&lt;br /&gt;
&lt;br /&gt;
Die Grafik erklärt das Prinzip der Bündelung mehrerer Zeitschlitze:&lt;br /&gt;
*Jeder der 8 physikalischen Kanäle (Zeitschlitze) eines Rahmens bietet maximal 14.4 kbit/s für die Datenkommunikation. HSCSD ermöglicht eine Kanalbündelung durch die Kombination mehrerer Zeitschlitze, die auch bei ISDN verwendet wird. Man spricht in diesem Zusammenhang von '''Multislot Capability'''.&lt;br /&gt;
*Durch das Zusammenschalten aller acht Kanäle ergäben sich somit 8 · 14.4 kbit/s = 115.2 kbit/s. Da jedoch die Verbindung zwischen dem ''Base Station Controller'' (BSC) und dem ''Mobile Switching Center'' (MSC) auf 64 kbit/s begrenzt ist, beschränkt man sich auf die Bündelung von vier Zeitschlitzen, woraus sich die maximale Übertragungsrate zu 57.6 kbit/s ergibt.&lt;br /&gt;
*Ein Vorteil der HSCSD–Technik gegenüber dem paketorientierten GPRS (siehe nächste Seite) ist die leitungsorientierte Datenübertragung. Dies ist insbesondere für Anwendungen von Vorteil, die gleichmäßige Bandbreiten benötigen, da der Übertragungskanal mit niemandem geteilt werden muss. Beispiele hierfür sind die Video– und die Bildübertragung.&lt;br /&gt;
*Nachteilig sind allerdings die höheren Übertragungskosten durch die Belegung mehrerer Kanäle. Diese Kanäle stehen somit für andere Mobilfunkteilnehmer nicht mehr zu Verfügung. In einer Funkzelle mit hoher Kanalauslastung kann es deshalb passieren, dass die Bündelung mehrerer Kanäle vom Netzbetreiber unterbunden wird.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==General Packet Radio Service (GPRS)==  	 	&lt;br /&gt;
&lt;br /&gt;
Mit der GSM–Erweiterung '''General Packet Radio Service''' (GPRS) wurde 2000 erstmals eine paketorientierte Datenübertragung ermöglicht. GPRS unterstützt sehr viele Protokolle (Internet Protocol, X.25, Datex–P, usw.) und erlaubt dem Mobilfunkteilnehmer, mit fremden Datennetzen (Internet oder firmeninternen Intranets) zu kommunizieren. GPRS war ein wichtiger Zwischenschritt in der Evolution der zellularen Mobilfunknetze in Richtung dritter Generation und mobiles Internet.&lt;br /&gt;
&lt;br /&gt;
Ein GPRS–Benutzer profitiert von kürzeren Zugriffzeiten und der höheren Datenrate (bis 21.4 kbit/s) gegenüber dem herkömmlichen GSM (9.6 kbit/s) und HSCSD (14.4 kbit/s). Die Gebühren ergeben sich bei GPRS nicht aus der Verbindungsdauer, sondern aus der tatsächlich übertragenen Datenmenge. Deshalb muss nicht (wie bei HSCSD) ein Funkkanal dauerhaft für einen Benutzer reserviert werden.&lt;br /&gt;
&lt;br /&gt;
Zur Einführung von GPRS waren einige Modifikationen und Ergänzungen im GSM–Netz notwendig, die in der Grafik „GPRS–Systemarchitektur” aus &amp;lt;ref&amp;gt;Bettstetter, C.; Vögel, H.J.; Eberspächer, J.: ''GSM Phase 2+ General Packet Radio Service GPRS: Architecture, Protocols, and Air Interface''. In: IEEE Communications Surveys &amp;amp; Tutorials, Vol. 2 (1999) No. 3, S. 2-14.&amp;lt;/ref&amp;gt; zusammengefasst sind. Blaue Linien beschreiben Nutz– und Signalisierungsdaten und die orange–gepunkteten Verbindungen Signalisierungsdaten.&lt;br /&gt;
&lt;br /&gt;
Die zusätzlichen GPRS–Komponenten – durch rote Kreise hervorgehoben – werden kurz erklärt:&lt;br /&gt;
Zur Integration von GPRS in die bestehende GSM–Systemarchitektur wird diese um eine neue Klasse von Netzknoten erweitert. Diese '''GPRS Support Nodes''' (GSN) sind für die Übertragung und die Verkehrslenkung (''Routing'') der Datenpakete zwischen den Mobilstationen und den externen paketvermittelten Datennetzen verantwortlich. Hierbei unterscheidet man zwischen SGSN und GGSN, die miteinander über ein IP–basiertes GPRS–Backbone–Netz kommunizieren.&lt;br /&gt;
*Der '''Serving GPRS Support Node''' (SGSN) ist für das Mobilitätsmanagement zuständig und übernimmt für die Paketdatendienste eine ähnliche Funktion wie das ''Mobile Switching Center'' (MSC) für die verbindungsorientierten Sprachsignale.&lt;br /&gt;
*Der '''Gateway GPRS Support Node''' (GGSN) ist die Schnittstelle zu fremden paketorientierten Datennetzen. Er konvertiert die vom SGSN kommenden GPRS–Pakete in das entsprechende Protokoll (IP, X.25, ...) und sendet diese an das '''Packet Data Network''' (PDN) aus.&lt;br /&gt;
&lt;br /&gt;
Gb, Gc, Gd, usw. geben Schnittstellen von GPRS an. So bezeichnet Gd die Schnittstelle zwischen SGSN und SMS–GMSC, die zum Austausch von SMS–Nachrichten erforderlich ist.&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
==GPRS–Luftschnittstelle==  	&lt;br /&gt;
&lt;br /&gt;
Ein GPRS–Handy führt beim Einschalten als erstes die Prozedur „Cell Selection” durch, indem es nach einem Frequenzkanal mit GPRS–Daten sucht. Wurde ein solcher Kanal gefunden, so muss je nach Handyklasse das Handy manuell auf GPRS–Dienste eingestellt werden oder es kann automatisch und dynamisch zwischen GPRS und GSM umschalten. Man unterscheidet:&lt;br /&gt;
*Geräte der '''Klasse A''' können GPRS–Datendienste und GSM–Übertragungsdienste gleichzeitig übernehmen; die Kanalressourcen werden parallel paket– und durchschaltevermittelt überwacht.&lt;br /&gt;
*Bei '''Klasse B''' werden die Signalisierungskanäle von GSM und GPRS gleichzeitig überwacht, solange kein Dienst durchgestellt ist. Der parallele GSM/GPRS–Betrieb ist aber nicht möglich.&lt;br /&gt;
*In der '''Klasse C''' muss sich der Teilnehmer vorher entscheiden, ob er das Handy für GSM oder GPRS nutzen möchte, da Signalisierungskanäle nicht mehr simultan überwacht werden können.&lt;br /&gt;
&lt;br /&gt;
Um die GSM–Funkschnittstelle auf den paketorientierten GPRS–Betrieb umstellen zu können, mussten die logischen Kanäle erweitert werden. Logische GPRS–Kanäle erkennt man an einem vorangestellten „P”, das die paketorientierte Betriebsart indiziert. Fast für alle logischen GSM–Kanäle gibt es das entsprechende GPRS–Äquivalent:&lt;br /&gt;
*Der '''Packet Data Traffic Channel''' (PDTCH) wird bei GPRS als '''Verkehrskanal''' für den Nutzdatentransfer verwendet. Der entsprechende GSM–Kanal heißt TCH.&lt;br /&gt;
*Die '''Signalisierungskanäle''' werden wie bei GSM in den '''Packet Broadcast Control Channel''' (PBCCH), den '''Packet Common Control Channel''' (PCCCH) und den '''Packet Dedicated Control Channel''' (PDCCH) unterteilt.&lt;br /&gt;
&lt;br /&gt;
GPRS ermöglicht den Teilnehmern, Daten mit öffentlichen Datennetzen auszutauschen und verwendet dazu wie GSM die GMSK-Modulation und die FDMA/TDMA–Kombination mit acht Zeitschlitzen pro TDMA-Rahmen. Es ergeben sich folgende Unterschiede:&lt;br /&gt;
*Im GSM–Standard wird jeder aktiven Mobilstation genau ein Zeitschlitz eines TDMA–Rahmens zugewiesen. Dieser physikalische Kanal ist für die gesamte Dauer eines Rufes sowohl im Uplink als auch im Downlink für die Mobilstation reserviert.&lt;br /&gt;
*Bei GPRS können zur Ratensteigerung bis zu acht Zeitschlitze miteinander kombiniert werden. Außerdem werden Up– und Downlink separat zugewiesen. Die physikalischen Kanäle werden nur für die Dauer der Übertragung von Datenpaketen reserviert und anschließend wieder frei gegeben.&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==GPRS–Kanalcodierung == 	&lt;br /&gt;
&lt;br /&gt;
Im Gegensatz zum herkömmlichen GSM (mit der Datenrate 9.6 kbit/s) sind bei GPRS vier mögliche '''Codierschemata''' definiert, die je nach Empfangsqualität genutzt werden können:&lt;br /&gt;
*Codierschema 1 (CS–1) mit 9.05 kbit/s (181 Bit pro 20 ms),&lt;br /&gt;
*Codierschema 2 (CS–2) mit 13.4 kbit/s (268 Bit pro 20 ms),&lt;br /&gt;
*Codierschema 3 (CS–3) mit 15.6 kbit/s (312 Bit pro 20 ms),&lt;br /&gt;
*Codierschema 4 (CS–4) mit 21.4 kbit/s (428 Bit pro 20 ms).&lt;br /&gt;
&lt;br /&gt;
Die kleinstmögliche Datenrate ist somit 9.05 kbit/s (CS–1, ein Zeitschlitz), die maximale beträgt 171.2 kbit/s (CS–4, acht Zeitschlitze). Diese theoretische Geschwindigkeit wird in der Praxis jedoch nicht erreicht, da die meisten aktuellen GPRS–Handys nur maximal eine Netto–Datenrate von 13.4 kbit/s (Codierschema 2) unterstützen. Bei der Kombination von vier Zeitschlitzen, wie es in deutschen Netzen üblich ist, kommt man somit auf eine maximale Datenrate von 53.6 kbit/s.&lt;br /&gt;
&lt;br /&gt;
Die Grafik und die nachfolgenden Erklärungen beziehen sich auf das Codierschema 2 und damit auf die Netto–Datenrate 13.4 kbit/s.&lt;br /&gt;
*Die 268 Informationsbits werden zunächst durch sechs vorcodierte Bits des ''Uplink State Flags'' (USF), 16 Paritätsbits der so genannten ''Block Check Sequence'' (BCS) und vier Tailbits („0000”) ergänzt. Letztere sind für die Terminierung der Faltungscodes notwendig.&lt;br /&gt;
*Zur Kanalcodierung wird der von GSM bekannte Faltungscode der Coderate RC = 1/2 benutzt. Durch diesen werden die insgesamt 294 Bits auf 588 Bits verdoppelt und somit ausreichend gegen Übertragungsfehler geschützt.&lt;br /&gt;
*Anschließend werden 132 Bits der resultierenden 588 Bit punktiert, so dass daraus schließlich ein Codewort der Länge 456 Bit (Bitrate 22.8 kbit/s) resultiert. Damit ergibt sich eine resultierende Coderate (von Faltungscoder inklusive Punktierung) von 294/456 ≈ 65%.&lt;br /&gt;
*Nach der Kanalcodierung werden die Codewörter einem Blockinterleaver der Tiefe 4 zugeführt. Das Interleavingschema ist für alle vier Codierschemata identisch.&lt;br /&gt;
 &lt;br /&gt;
 	&lt;br /&gt;
 	 &lt;br /&gt;
== Enhanced Data Rates for GSM Evolution == 	 	&lt;br /&gt;
&lt;br /&gt;
Die letzte GSM–Erweiterung '''Enhanced Data Rates for GSM–Evolution''' (EDGE) mit dem Ziel, die Datenübertragungsrate in GSM-Mobilfunknetzen zu erhöhen, benutzt neben ''Gaussian Minimum Shift Keying'' (GMSK) als zusätzliches Modulationsverfahren '''8–Phase Shift Keying''' (8–PSK). Bei diesem gibt es acht verschiedene Symbole (bei GMSK nur zwei), die sich durch unterschiedliche Phasenlagen bei Vielfachen von 45° unterscheiden. Das bedeutet, dass mit jedem Symbol drei Datenbits übertragen werden können, wodurch die Datenrate im Vergleich zu GPRS um den Faktor 3 gesteigert wird.&lt;br /&gt;
&lt;br /&gt;
Mit der Definition von EDGE wird HSCSD zu „''Enhanced Circuit Switched Data''” (E–CSD) und GPRS zu „''Enhanced–GPRS''” (E–GPRS). T–mobile ist allerdings der einzige deutsche Netzbetreiber, der derzeit (2007) EDGE in seinem Netz anbietet.&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt den ''Normal Burst'' von EDGE bzw. E–GPRS. Man erkennt folgende Unterschiede zum GSM–Normal Burst:&lt;br /&gt;
*Der ''Normal Burst'' besteht bei EDGE aus 468.75 Bit anstelle der 156.25 Bit bei GSM, woraus die Verdreifachung der Datenrate ersichtlich ist.&lt;br /&gt;
*Wie bei GSM gibt es zwei ''Stealing Flags''. Tailbits, Trainingssequenz und ''Guard Period'' werden jeweils verdreifacht. Damit verbleiben für das Datenfeld 57 · 3 + 2 = 173 Bit.&lt;br /&gt;
*Somit werden bei E–GPRS im ''Normal Burst'' 346 Bit kanalcodierte Daten (Coderate 1/2) pro 576.9 μs übertragen, was einer Netto–Datenrate von ca. 60 kbit/s entspricht.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Bei E–GPRS gibt es neun vom Betreiber auswählbare '''Modulation and Coding Schemes''' (MCS), die von den verwendeten Kanalcodier– und Modulationsverfahren abhängen.&lt;br /&gt;
&lt;br /&gt;
Die Tabelle zeigt die möglichen Schemata von E–GPRS. Daraus ist zu erkennen:&lt;br /&gt;
*Die ersten vier Schemata verwenden wie GSM/GPRS das Modulationsverfahren GMSK mit einem bit Information pro Kanalzugriff, während bei MCS–5, ... , MCS–9 eine achtstufige Phasenmodulation (8–PSK) benutzt wird und damit 3 bit/Symbol übertragen werden.&lt;br /&gt;
*Je kleiner die Coderate, desto größer ist die zugesetzte Redundanz und damit die Datensicherheit. Insbesondere zwischen MCS–4 ( $R_{\rm C}$ = 1 ) und MCS–5 ( $R_{\rm C}$ = 0.37 ) nimmt die Coderate wegen der günstigeren Modulationsart trotz höherer Netto–Datenrate signifikant ab (siehe letzte Spalte).&lt;br /&gt;
*Der aufwändigste Modus MCS–9 bietet gemäß der Tabelle eine Datenrate von 59.2 kbit/s und erlaubt theoretisch die gleichzeitige Belegung von acht Zeitschlitzen, was eine maximale Netto–Datenrate von 473.6 kbit/s bedeuten würde. Allerdings ist dieser Modus (mit $R_{\rm C}$ = 1) nur bei extrem guten Bedingungen anwendbar und acht Zeitschlitze stehen auch nur selten zur Verfügung.&lt;br /&gt;
*Mit MCS–8 und sieben Zeitschlitzen kann man immerhin schon 380.8 kbit/s erreichen und ist damit in der Größenordnung von '''Universal Mobile Telecommunications System''' (UMTS), dem bekanntesten Standard der dritten Mobilfunkgeneration, der 384 kbit/s anbietet.&lt;br /&gt;
*EDGE verwendet die gleichen Frequenzen wie GSM, weshalb diese Technik besonders für Betreiber mit bestehender GSM–Infrastruktur interessant ist, die im Jahr 2000 keine der teueren UMTS–Lizenzen erworben haben und trotzdem eine ausreichend hohe Datenrate anbieten wollen.&lt;br /&gt;
&lt;br /&gt;
Das System UMTS wird im nachfolgenden Kapitel 4 eingehend beschrieben.&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
==Aufgabe zu Kapitel 3.5==  	 &lt;br /&gt;
[[Aufgaben:3.8_General_Packet_Radio_Service|Aufgabe 3.8: General Packet Radio Service]]&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Entire_GSM_Transmission_System&amp;diff=22124</id>
		<title>Examples of Communication Systems/Entire GSM Transmission System</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Entire_GSM_Transmission_System&amp;diff=22124"/>
		<updated>2018-01-03T17:00:08Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=GSM – Global System for Mobile Communications&lt;br /&gt;
|Vorherige Seite=Sprachcodierung&lt;br /&gt;
|Nächste Seite=Weiterentwicklungen des GSM&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Komponenten der Sprach– und Datenübertragung==  	&lt;br /&gt;
&lt;br /&gt;
Nachfolgend sehen Sie das Blockschaltbild des sendeseitigen GSM–Übertragungssystems, das sowohl für digitalisierte Sprachsignale (Abtastrate: 8 kHz, Quantisierung: 13 Bit ⇒ Datenrate: 104 kbit/s) als auch für 9.6 kbit/s–Datensignale geeignet ist. Die Komponenten für die Sprachübertragung sind blau, die für Daten rot und gemeinsame Blöcke grün dargestellt.&lt;br /&gt;
&lt;br /&gt;
Hier eine kurze Beschreibung der einzelnen Komponenten:&lt;br /&gt;
*Sprachsignale werden durch die Sprachcodierung von 104 kbit/s auf 13 kbit/s – also um den Faktor 8 – komprimiert. Die in der Grafik angegebene Bitrate gilt für den Vollraten–Codec, der pro Sprachrahmen (Dauer $T_{\rm R}$ = 20 ms) genau 260 Bit liefert.&lt;br /&gt;
*Der '''AMR–Codec''' liefert im höchsten Modus 12.2 kbit/s (244 Bit pro Sprachrahmen). Der Sprachcodec muss aber zusätzlich auch Informationen hinsichtlich des aktuellen Modus übertragen, so dass die Datenrate vor der Kanalcodierung ebenfalls 13 kbit/s beträgt.&lt;br /&gt;
*Aufgabe der gestrichelt eingezeichneten '''Voice Activity Detection''' ist es zu entscheiden, ob der aktuelle Sprachrahmen tatsächlich ein Sprachsignal enthält oder nur eine Sprachpause, während der die Leistung des Sendeverstärkers heruntergefahren wird.&lt;br /&gt;
*Durch die '''Kanalcodierung''' wird wieder Redundanz hinzugefügt, um Fehlerkorrektur beim Empfänger zu ermöglichen. Pro Sprachrahmen gibt der Kanalcoder 456 Bit ab, woraus sich die Datenrate 22.8 kbit/s ergibt. Die wichtigeren Bits werden besonders geschützt.&lt;br /&gt;
*Der '''Interleaver''' verwürfelt die entstehende Bitfolge, um den Einfluss von Bündelfehlern zu vermindern. Die 456 Eingangsbit werden auf vier Zeitrahmen zu je 114 Bit aufgeteilt. Zwei aufeinander folgende Bits werden somit immer in zwei verschiedenen Bursts übertragen.&lt;br /&gt;
*Ein '''Datenkanal''' – im Bild rot markiert – unterscheidet sich von einem Sprachkanal (blau gekennzeichnet) nur durch die unterschiedliche Eingangsrate (9.6 kbit/s statt 104 kbit/s) und die Verwendung eines zweiten, äußeren Kanalcoders anstelle des Sprachcodierers.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die grün hinterlegten Komponenten gelten für die Sprach– und Datenübertragung gleichermaßen:&lt;br /&gt;
Die erste gemeinsame Systemkomponente für Sprach– und Datenübertragung im Blockschaltbild des GSM–Senders auf der ersten Seite dieses Abschnitts ist die '''Verschlüsselung''', die verhindern soll, dass Unbefugte Zugriff auf die Daten erhalten.&lt;br /&gt;
&lt;br /&gt;
Dabei gibt es zwei grundsätzlich unterschiedliche Verschlüsselungsverfahren:&lt;br /&gt;
*'''Symmetrische Verschlüsselung''': Diese kennt nur einen einzigen geheimen Schlüssel, der sowohl zur Verschlüsselung und Chiffrierung der Nachrichten im Sender als auch zur Entschlüsselung und Dechiffrierung im Empfänger benutzt wird. Der Schlüssel muss vor der Kommunikation erzeugt und zwischen den Kommunikationspartnern über einen sicheren Kanal ausgetauscht werden. Der Vorteil dieses im herkömmlichen GSM angewendeten Verschlüsselungsverfahrens ist, dass es sehr schnell arbeitet.&lt;br /&gt;
*'''Asymmetrische Verschlüsselung''': Dieses Verfahren benutzt zwei unabhängige, aber zueinander passende asymmetrische Schlüssel. Es ist nicht möglich, mit einem Schlüssel den anderen zu berechnen. Der „Public Key” ist öffentlich zugänglich und dient der Verschlüsselung. Der „Private Key” ist geheim und wird bei der Entschlüsselung verwendet. Im Gegensatz zu den symmetrischen Verschlüsselungsverfahren sind die asymmetrischen Methoden wesentlich langsamer, bieten dafür aber auch eine höhere Sicherheit.&lt;br /&gt;
&lt;br /&gt;
Der zweite grüne Block ist die '''Burstbildung''', wobei es verschiedene Burstarten gibt. Beim ''Normal Burst'' werden die 114 codierten, verwürfelten und verschlüsselten Bits durch Hinzufügen von ''Guard Period'', Signalisierungsbits, etc. auf 156.25 Bit abgebildet. Diese werden innerhalb eines Zeitschlitzes der Dauer $T_{\rm Z}$ = 576.9 μs übertragen. Daraus ergibt sich die Brutto–Datenrate 270.833 kbit/s, die mittels des '''Modulationsverfahrens''' GMSK übertragen wird.&lt;br /&gt;
&lt;br /&gt;
Beim Empfänger gibt es in umgekehrter Reihenfolge die Blöcke Demodulation, Burstzerlegung, Entschlüsselung, De–Interleaving, Kanal– und Sprachdecodierung. Auf den nächsten Seiten werden alle Blöcke von obigem Übertragungsschema im Detail vorgestellt.&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Codierung bei Sprachsignalen==  	&lt;br /&gt;
&lt;br /&gt;
Uncodierte Funkdatenübertragung führt zu Bitfehlerraten im Prozentbereich. Durch Anwendung von '''Kanalcodierung''' (englisch: ''Channel Coding'') können aber manche Übertragungsfehler beim Empfänger erkannt oder sogar korrigiert werden. Die Bitfehlerrate lässt sich so auf Werte von $10^{–5}$ bis $10^{–6}$ reduzieren.&lt;br /&gt;
&lt;br /&gt;
Zunächst betrachten wir die GSM-Kanalcodierung für die Sprachkanäle, wobei als Sprachcoder der Vollraten–Codec vorausgesetzt wird. Die Kanalcodierung eines Sprachrahmens der Dauer 20 ms erfolgt in vier aufeinander folgenden Schritten entsprechend obiger Grafik:&lt;br /&gt;
*Aus der Beschreibung in Kapitel 3.3 ist zu ersehen, dass nicht alle 260 Bits den gleichen Einfluss auf die subjektiv empfundene Sprachqualität haben. Deshalb werden die Daten entsprechend ihrer Wichtigkeit in drei Klassen aufgeteilt: Die 50 wichtigsten Bits bilden die '''Klasse 1a''', weitere 132 werden der '''Klasse 1b''' zugeteilt. Die restlichen 78 Bits ergeben die eher unwichtige '''Klasse 2'''.&lt;br /&gt;
*Im nächsten Schritt wird für die 50 besonders wichtigen Bits der Klasse 1a mit einem rückgekoppelten Schieberegister eine drei Bit lange '''Cyclic Redundancy Check''' (CRC)–Prüfsumme berechnet. Das Generatorpolynom für diese CRC–Überprüfung lautet:&lt;br /&gt;
 &lt;br /&gt;
*Anschließend werden den insgesamt 185 Bits der Klasse 1a und 1b inclusive den drei (rot eingezeichneten) CRC–Paritätsbits noch vier (gelbe) '''Tailbits''' „0000” angehängt. Diese vier Bits initialisieren die vier Speicherregister des nachfolgenden Faltungscoders jeweils mit 0, so dass für jeden Sprachrahmen von einem definierten Status ausgegangen werden kann.&lt;br /&gt;
*Der Faltungscode mit der Coderate $R_{\rm C}$ = 1/2 verdoppelt diese 189 wichtigsten Bits auf 378 Bits und schützt diese somit signifikant gegen Übertragungsfehler. Anschließend werden noch die 78 Bits der unwichtigeren Klasse 2 ungeschützt angehängt.&lt;br /&gt;
*Auf diese Weise ergeben sich nach der Kanalcodierung pro 20 ms–Sprachrahmen genau 456 Bits. Dies entspricht einer (codierten) Datenrate von 22.8 kbit/s gegenüber 13 kbit/s nach der Sprachcodierung. Die effektive Kanalcodierungsrate beträgt somit 260/456 = 0.57.&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Interleaving bei Sprachsignalen==  	 &lt;br /&gt;
&lt;br /&gt;
Das Ergebnis der Faltungsdecodierung hängt nicht nur von der Häufigkeit der Übertragungsfehler ab, sondern auch von deren Verteilung. Um gute Korrekturergebnisse zu erzielen, sollte der Kanal kein Gedächtnis besitzen, sondern möglichst statistisch unabhängige Bitfehler liefern.&lt;br /&gt;
&lt;br /&gt;
Bei Mobilfunksystemen treten Übertragungsfehler aber meist in Blöcken (''Error Bursts'') auf. Durch den Einsatz der Interleaving–Technik werden solche Bündelfehler über mehrere Bursts gleichmäßig verteilt und so deren Auswirkungen abgeschwächt.&lt;br /&gt;
&lt;br /&gt;
Bei einem Sprachkanal arbeitet der Interleaver in folgender Weise:&lt;br /&gt;
*Die 456 Eingangsbit pro Sprachrahmen werden nach einem festen Algorithmus auf vier Blöcke zu je 114 Bit aufgeteilt. Im Folgenden werden diese für den $n$–ten Sprachrahmen mit $A_n$, $B_n$, $C_n$ und $D_n$ bezeichnet. Der Index $n$–1 bezeichnet den vorhergehenden Rahmen, $n$+1 den nachfolgenden.&lt;br /&gt;
*Der Block $A_n$ wird weiterhin in zwei Unterblöcke $A_{g,n}$ und $A_{u,n}$ zu je 57 Bit unterteilt, wobei $A_{g,n}$ nur die geraden Bitpositionen und $A_{u,n}$ die ungeraden Bitpositionen von $A_n$ bezeichnet. In der Grafik sind $A_{g,n}$ und $A_{u,n}$ an der roten bzw. blauen Hinterlegung zu erkennen.&lt;br /&gt;
*Der Unterblock $A_{g,n}$ des $n$–ten Sprachrahmens wird mit dem Block $A_{u,n–1}$ des vorangegangenen Rahmens zusammengefügt und ergibt die 114 Bit Nutzdaten eines Normal Bursts mit 156.25 Bit: $(A_{g,n}, A_{u,n–1})$. Gleiches gilt entsprechend der Skizze für die drei nächsten Bursts: $(B_{g,n}, B_{u,n–1}), (C_{g,n}, C_{u,n–1}), (D_{g,n}, D_{u,n–1})$.&lt;br /&gt;
*In gleicher Weise werden die ungeraden Unterblöcke des $n$–ten Sprachrahmens mit den geraden Unterblöcken des nachfolgenden Rahmens verschachtelt: $(A_{g,n+1}, A_{u,n}), ... , (D_{g,n+1}, D_{u,n})$.&lt;br /&gt;
*Diese Verwürfelungsart wird '''block-diagonales Interleaving''' genannt, hier speziell vom Grad 8. Es vermindert die Störanfälligkeit gegenüber Bündelfehlern. So werden niemals zwei aufeinander folgende Bits eines Datenblocks direkt hintereinander gesendet. Mehrbitfehler treten nach dem De–Interleaver isoliert auf und können so wirkungsvoller korrigiert werden.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==Codierung und Interleaving bei Datensignalen == 	&lt;br /&gt;
&lt;br /&gt;
Für die GSM–Datenübertragung steht jedem Teilnehmer lediglich eine Nettodatenrate von 9.6 kbit/s zur Verfügung. Zur Fehlersicherung werden zwei Verfahren eingesetzt:&lt;br /&gt;
*'''Forward Error Correction'' (FEC, deutsch: Vorwärtsfehlerkorrektur) wird auf der physikalischen Schicht durch Anwendung von Faltungscodes realisiert.&lt;br /&gt;
*'''Automatic Repeat Request''' (ARQ); dabei werden auf der Sicherungsschicht defekte und nicht korrigierbare Pakete neu angefordert.&lt;br /&gt;
&lt;br /&gt;
Die Grafik verdeutlicht Kanalcodierung und Interleaving für den Datenkanal mit 9.6 kbit/s, die im Gegensatz zur Kanalcodierung des Sprachkanals (mit Bitfehlerrate $10^{–5}$... $10^{–6}$) eine nahezu fehlerfreie Rekonstruktion der Daten erlaubt.&lt;br /&gt;
&lt;br /&gt;
Aus den beiden oberen Skizzen dieser Grafik erkennt man:&lt;br /&gt;
*Die Datenbitrate von 9.6 kbit/s wird zuerst im ''Terminal Equipment'' der Mobilstation durch eine nicht GSM–spezifische Kanalcodierung um 25% auf 12 kbit/s erhöht, um eine Fehlererkennung in leitungsvermittelten Netzen zu ermöglichen.&lt;br /&gt;
*Bei der Datenübertragung sind alle Bit gleichwertig, so dass es im Gegensatz zur Codierung des Sprachkanals keine Klassen gibt. Die 240 Bit pro 20 ms–Zeitrahmen werden zusammen mit vier Tailbits „0000” zu einem einzigen Datenrahmen zusammengefasst.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Aus den Skizzen 3 – 6 der obigen Grafik erkennt man:&lt;br /&gt;
*Diese 244 Bit werden wie bei Sprachkanälen durch einen Faltungscoder der Rate 1/2 auf 488 Bit verdoppelt. Pro einlaufendem Bit werden zwei Codesymbole erzeugt, zum Beispiel gemäß den Generatorpolynomen $G_0(D) = 1 + D^3 + D^4$ und $G_1(D) = 1 + D + D^3 + D^4$:&lt;br /&gt;
&lt;br /&gt;
*Der nachfolgende Interleaver erwartet – ebenso wie ein „Sprach–Interleaver” – als Eingabe nur 456 Bit pro Rahmen (20 ms). Deshalb werden von den 488 Bits am Ausgang des Faltungscoders noch 32 Bits an den Positionen 15 · $j$ – 4 ( $j$ = 1, ..., 32 ) entfernt („Punktierung”).&lt;br /&gt;
*Da die Datenübertragung weniger zeitkritisch ist als die Sprachübertragung, wird hier ein höherer Interleaving–Grad gewählt. Die 456 Bit werden auf bis zu 24 Interleaver–Blöcke zu je 19 Bit verteilt, was bei Sprachdiensten aus Gründen der Echtzeitübertragung nicht möglich wäre.&lt;br /&gt;
*Danach werden sie auf vier aufeinander folgende ''Normal Bursts'' (4 · 2 · 57 Bit) aufgeteilt und versandt. Beim Einpacken in die Bursts werden wieder Gruppierungen gerader und ungerader Bits gebildet, ähnlich dem Interleaving im Sprachkanal.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
==Empfängerseite – Decodierung == 	 &lt;br /&gt;
&lt;br /&gt;
Der GSM–Empfänger (gelb hinterlegt) beinhaltet die GMSK-Demodulation, die Burstzerlegung, die Entschlüsselung, das De–Interleaving sowie die Kanal– und Sprachdecodierung.&lt;br /&gt;
&lt;br /&gt;
Zu den beiden letzten Blöcken in obigem Bild ist anzumerken:&lt;br /&gt;
*Das Decodierverfahren wird durch die GSM–Spezifikation nicht vorgeschrieben, sondern ist den einzelnen Netzbetreibern überlassen. Die Leistungsfähigkeit ist vom eingesetzten Algorithmus zur Fehlerkorrektur abhängig.&lt;br /&gt;
*Zum Beispiel wird beim Decodierverfahren '''Maximum Likelihood Sequence Estimation''' (MLSE) die wahrscheinlichste Bitsequenz unter Verwendung des Viterbi–Algorithmus oder eines MAP–Empfängers (''Maximum A–posteriori Probability'') ermittelt.&lt;br /&gt;
*Nach der Fehlerkorrektur wird der ''Cyclic Redundancy Check'' (CRC) durchgeführt, wobei beim Vollraten–Codec der Grad G des verwendeten CRC–Generatorpolynoms gleich 3 ist. Damit werden alle Fehlermuster bis zum Gewicht 3 und alle Bündelfehler bis zur Länge 4 erkannt.&lt;br /&gt;
*Anhand des CRC wird über die Verwendbarkeit eines jeden Sprachrahmens entschieden. Ist das Testergebnis positiv, so werden im nachfolgenden Sprachdecoder aus den Sprachparametern (260 Bit pro Rahmen) die Sprachsignale synthetisiert.&lt;br /&gt;
*Falls ausgefallen sind, werden die Parametersätze vorangegangener, als korrekt erkannter Rahmen zur Sprachinterpolation verwendet („''Fehlerverschleierung''”). Treten mehrere nicht korrekte Sprachrahmen in Folge auf, so wird die Leistung kontinuierlich bis hin zur Stummschaltung abgesenkt.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
== Aufgabe zu Kapitel 3.4==  	 &lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.7_Komponenten_des_GSM–Systems|Aufgabe 3.7: Komponenten des GSM–Systems]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Speech_Coding&amp;diff=22123</id>
		<title>Examples of Communication Systems/Speech Coding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Speech_Coding&amp;diff=22123"/>
		<updated>2018-01-03T16:59:26Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=GSM – Global System for Mobile Communications&lt;br /&gt;
|Vorherige Seite=Funkschnittstelle&lt;br /&gt;
|Nächste Seite=Gesamtes GSM–Übertragungssystem&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Verschiedene Sprachcodierverfahren==  	 	&lt;br /&gt;
&lt;br /&gt;
Jedem GSM-Teilnehmer steht maximal die Netto–Datenrate 22.8 kbit/s zur Verfügung, während im ISDN–Festnetz mit einer Datenrate von 64 kbit/s (bei 8 Bit Quantisierung) bzw. 104 kbit/s (bei 13 Bit Quantisierung) gearbeitet wird. Aufgabe der Sprachcodierung bei GSM ist die Beschränkung der Datenmenge zur Sprachsignalübertragung auf 22.8 kbit/s und eine bestmögliche Reproduktion des Sprachsignals auf der Empfängerseite. Die Funktionen des GSM–Coders und des GSM–Decoders sind meist in einer Funktionseinheit zusammengefasst, die als '''Codec''' bezeichnet wird.&lt;br /&gt;
&lt;br /&gt;
Zur Sprachcodierung und –Decodierung werden verschiedene Signalverarbeitungsverfahren angewandt:&lt;br /&gt;
*Der '''GSM Fullrate Vocoder''' (deutsch: GSM–Vollraten–Sprachcodec) wurde 1991 aus einer Kombination von drei Kompressionsmethoden für den GSM–Funkkanal standardisiert. Er basiert auf ''Linear Predictive Coding'' (LPC) in Verbindung mit einer ''Long Term Prediction'' (LTP) und einer ''Regular Pulse Excitation'' (RPE).&lt;br /&gt;
*Der '''GSM Halfrate Vocoder '''(deutsch: GSM–Halbraten–Sprachcodec) wurde 1994 eingeführt und bietet die Möglichkeit, Sprache bei nahezu gleicher Qualität in einem halben Verkehrskanal (Datenrate 11.4 kbits/s) zu übertragen.&lt;br /&gt;
*Der '''Enhanced Fullrate Vocoder''' (EFR–Codec) wurde 1995 standardisiert und implementiert, ursprünglich für das nordamerikanische DCS1900–Netz. Der EFR–Codec bietet gegenüber dem herkömmlichen Vollraten–Codec eine bessere Sprachqualität.&lt;br /&gt;
*Der '''Adaptive Multi–Rate Codec''' (AMR–Codec) ist der neueste Sprachcodec für GSM. Er wurde 1997 standardisiert und 1999 vom ''Third Generation Partnership Project'' (3GPP) auch als Standard–Sprachcodec für Mobilfunksysteme der 3. Generation wie UMTS vorgeschrieben.&lt;br /&gt;
&lt;br /&gt;
Sie können sich die Qualität dieser Sprachcodierverfahren bei Sprache und Musik mit dem folgenden Interaktionsmodul verdeutlichen:&lt;br /&gt;
Qualität verschiedener Sprach–Codecs (Dateigröße: 11.3 MB)&lt;br /&gt;
&lt;br /&gt;
Diese Audio–Animation berücksichtigt auch den '''Wideband–AMR''', der momentan (2007) für UMTS entwickelt und standardisiert wird. Im Gegensatz zum herkömmlichen AMR, bei dem das Sprachsignal auf den Frequenzbereich von 300 Hz bis 3.4 kHz bandbegrenzt wird, geht man beim WB–AMR von einem Wideband–Signal (50 Hz – 7 kHz) aus. Dieser ist somit auch für Musiksignale geeignet.&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
==GSM Fullrate Vocoder – Vollraten–Codec==  	 &lt;br /&gt;
&lt;br /&gt;
Beim '''GSM–Vollraten-Codec''' (''Full Rate Vocoder'') wird das analoge Sprachsignal im Frequenzbereich zwischen 300 und 3400 Hz zunächst mit 8 kHz abgetastet und danach mit 13 Bit linear quantisiert (A/D–Wandlung), was eine Datenrate von 104 kbit/s ergibt. Die Sprachcodierung erfolgt bei diesem Verfahren in vier Schritten:&lt;br /&gt;
*die Vorverarbeitung,&lt;br /&gt;
*die Einstellung des Kurzzeitanalyse–Filters &lt;br /&gt;
(''Linear Predictive Coding'', LPC),&lt;br /&gt;
*die Steuerung des Langzeitanalyse–Filters &lt;br /&gt;
(''Long Term Prediction'', LTP) und&lt;br /&gt;
*die Codierung des Restsignals durch eine Folge von Pulsen (''Regular Pulse Excitation'', RPE).&lt;br /&gt;
&lt;br /&gt;
In obiger Grafik bezeichnet $s(n)$ das im Abstand $T_{\rm A}$ = 125 µs abgetastete und quantisierte Sprachsignal nach der kontinuierlich durchgeführten Vorverarbeitung, wobei&lt;br /&gt;
*das digitalisierte Mikrofonsignal von einem eventuell vorhandenen Gleichsignalanteil (Offset) befreit wird, um bei der Decodierung einen störenden Pfeifton von ca. 2.6 kHz bei der Wiedergewinnung der höheren Frequenzanteile zu vermeiden, und&lt;br /&gt;
*zusätzlich höhere Spektralanteile von $s(n)$ angehoben werden, um die Rechengenauigkeit und Effektivität der nachfolgenden LPC–Analyse zu verbessern.&lt;br /&gt;
&lt;br /&gt;
Die Tabelle zeigt die 76 Parameter (260 Bit) der Funktionseinheiten LPC, LTP und RPE. Die Bedeutung der einzelnen Größen wird auf den folgenden Seiten im Detail beschrieben.&lt;br /&gt;
&lt;br /&gt;
Alle Verarbeitungsschritte (LPC, LTP, RPE) erfolgen jeweils in Blöcken von 20 ms Dauer über 160 Abtastwerte des vorverarbeiteten Sprachsignals, die man als '''GSM–Sprachrahmen''' bezeichnet. Beim Vollraten–Codec werden pro Sprachrahmen insgesamt 260 Bit erzeugt, woraus sich eine Datenrate von 13 kbit/s ergibt. Dies entspricht einer Kompression des Sprachsignals um den Faktor 8 (104 kbit/s bezogen auf 13 kbit/s).&lt;br /&gt;
	 &lt;br /&gt;
&lt;br /&gt;
==Linear Predictive Coding – Kurzzeitprädiktion==  	&lt;br /&gt;
&lt;br /&gt;
Der Block '''Linear Predictive Coding''' (LPC) führt eine Kurzzeitprädiktion durch, das heißt, es werden die statistischen Abhängigkeiten der Abtastwerte untereinander in einem kurzen Bereich von einer Millisekunde ermittelt. Zunächst wird dazu das zeitlich unbeschränkte Signal $s(n)$ mit $n$ = 1, 2, ... in Intervalle $s_{\rm R}(n)$ von 20 ms Dauer, also 160 Samples, segmentiert. Die Laufvariable innerhalb eines solchen Sprachrahmens kann vereinbarungsgemäß die Werte $n$ = 1, ... , 160 annehmen.&lt;br /&gt;
&lt;br /&gt;
Hier folgt eine Kurzbeschreibung des obigen LPC–Prinzipschaltbildes:&lt;br /&gt;
*Im ersten Schritt der '''LPC-Analyse''' werden statistische Abhängigkeiten zwischen den Abtastwerten durch die Autokorrelationskoeffizienten $φ_{\rm s}(k) = \text{E}[s_{\rm R}(n) · s_{\rm R}(n + k)]$ mit 0 ≤ $k$ ≤ 8 quantifiziert. Aus diesen neun AKF–Werten werden mit Hilfe der sog. ''Schur–Rekursion'' acht Reflexionskoeffizienten $r_{\rm k}$ berechnet, die als Grundlage für die Einstellung der Koeffizienten des LPC–Analysefilters für den aktuellen Rahmen dienen.&lt;br /&gt;
*Die Koeffizienten $r_{\rm k}$ können Werte zwischen ±1 annehmen. Schon geringe Änderungen der $r_{\rm k}$ am Rand ihres Wertesbereichs bewirken große Änderungen für die Sprachcodierung. Die acht Reflexionswerte $r_{\rm k}$ werden logarithmisch dargestellt  ⇒  '''LAR–Parameter''' (''Log Area Ratio''):&lt;br /&gt;
 &lt;br /&gt;
*Anschließend werden diese acht LAR–Parameter entsprechend ihrer subjektiven Bedeutung durch unterschiedlich viele Bits quantisiert, codiert und zur Übertragung bereitgestellt. Die beiden ersten Parameter werden mit je 6 Bit, die beiden nächsten mit je 5 Bit, LAR(5) und LAR(6) mit je 4 Bit und die beiden letzten mit je 3 Bit dargestellt.&lt;br /&gt;
*Bei fehlerfreier Übertragung kann am Empfänger aus den acht LPC–Parametern (insgesamt 36 Bit) mit dem entsprechenden LPC–Synthesefilter das ursprüngliche Signal s(n) wieder vollständig rekonstruiert werden, wenn man von den unvermeidbaren zusätzlichen Quantisierungsfehlern durch die digitale Beschreibung der LAR-Koeffizienten absieht.&lt;br /&gt;
*Weiterhin wird mit Hilfe des LPC–Filters das Prädiktionsfehlersignal $e_{\rm LPC}(n)$ gewonnen. Dieses ist gleichzeitig das Eingangssignal für die nachfolgende Langzeitprädiktion. Das LPC–Filter ist nicht rekursiv und hat nur ein kurzes Gedächtnis von etwa einer Millisekunde.&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&lt;br /&gt;
Die Grafik aus &amp;lt;ref&amp;gt;Kaindl, M.: ''Kanalcodierung für Sprache und Daten in GSM-Systemen''. Dissertation. Lehrstuhl für Nachrichtentechnik, TU München. VDI Fortschritt-Berichte, Reihe 10, Nr. 764, 2005.&amp;lt;/ref&amp;gt; zeigt oben einen Ausschnitt des Sprachsignals $s(n)$ und dessen Zeit–Frequenzdarstellung. Unten ist das LPC–Prädiktionsfehlersignal $e_{\rm LPC}(n)$ dargestellt.&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus diesen Bildern&lt;br /&gt;
*die kleinere Amplitude von $e_{\rm LPC}(n)$ gegenüber $s(n)$,&lt;br /&gt;
*den deutlich reduzierten Dynamikumfang und&lt;br /&gt;
*das flachere Spektrum des verbleibenden Signals.&lt;br /&gt;
&lt;br /&gt;
{{end}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Long Term Prediction – Langzeitprädiktion==  &lt;br /&gt;
&lt;br /&gt;
Bei der '''Long Term Prediction''' (LTP) wird die Eigenschaft des Sprachsignals ausgenutzt, dass es auch periodische Strukturen (stimmhafte Abschnitte) besitzt. Dieser Umstand wird dazu verwendet, um die im Signal vorhandene Redundanz zu reduzieren. Die Langzeitprädiktion (LTP–Analyse und –Filterung) wird viermal pro Sprachrahmen, also alle 5 ms durchgeführt. Die Subblöcke bestehen aus jeweils 40 Abtastwerten und werden mit i = 1, ..., 4 nummeriert.&lt;br /&gt;
&lt;br /&gt;
Es folgt eine Kurzbeschreibung der Langzeitprädiktion gemäß dem obigen Prinzipschaltbild – siehe &amp;lt;ref&amp;gt;Kaindl, M.: ''Kanalcodierung für Sprache und Daten in GSM-Systemen''. Dissertation. Lehrstuhl für Nachrichtentechnik, TU München. VDI Fortschritt-Berichte, Reihe 10, Nr. 764, 2005.&amp;lt;/ref&amp;gt;. Das Eingangssignal ist das Ausgangssignal $e_{\rm LPC}(n)$ der Kurzzeitprädiktion. Die Signale nach der Segmentierung in vier Subblöcken werden mit $e_i(l)$ bezeichnet, wobei jeweils $l$ = 1, 2, ... , 40 gilt.&lt;br /&gt;
*Zu dieser Analyse wird die Kreuzkorrelationsfunktion $φ_{ee',i}(k)$ des aktuellen Subblocks $i$ des LPC–Prädiktionsfehlersignals $e_i(l)$ mit dem rekonstruierten LPC–Restsignal $e'_i(l)$ aus den drei vorherigen Teilrahmen berechnet. Das Gedächtnis dieses LTP–Prädiktors beträgt zwischen 5 und 15 ms und ist somit deutlich länger als das des LPC–Prädiktors (1 ms).&lt;br /&gt;
* $e'_i(l)$ ist die Summe aus dem LTP–Filter–Ausgangssignal $y_i(l)$ und dem Korrektursignal $e_{\rm RPE,i}(l)$, das von der folgenden Komponente (''Regular Pulse Excitation'') für den $i$–ten Subblock bereitgestellt wird.&lt;br /&gt;
*Der Wert von $k$, für den die Kreuzkorrelationsfunktion $φ_{ee',i}(k)$ maximal wird, bestimmt die für jeden Subblock $i$ optimale LTP–Verzögerung $N(i)$. Die Verzögerungen $N(1)$ bis $N(4)$ werden jeweils mit 7 Bit quantisiert und zur Übertragung bereitgestellt.&lt;br /&gt;
*Der zu $N(i)$ gehörige Verstärkungsfaktor $G(i)$ – auch LTP–Gain genannt – wird so bestimmt, dass der an der Stelle $N(i)$ gefundene Subblock nach Multiplikation mit $G(i)$ am besten zum aktuellen Teilrahmen $e_i(l)$ passt. Die Verstärkungsfaktoren $G(1)$ bis $G(4)$ werden jeweils mit 2 Bit quantisiert und ergeben zusammen mit $N(1)$, ..., $N(4)$ die 36 Bit für die acht LTP–Parameter.&lt;br /&gt;
*Das Signal $y_i(l)$ nach LTP–Analyse und –Filterung ist ein Schätzsignal für das LPC–Signal $e_i(l)$ im $i$–ten Subblock. Die Differenz zwischen beiden ergibt das LTP–Restsignal $e_{\rm LTP,i}(l)$, das an die nächste Funktionseinheit „RPE” weitergegeben wird.&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
==Regular Pulse Excitation – RPE–Codierung == 	 &lt;br /&gt;
&lt;br /&gt;
Das Signal nach LPC– und LTP–Filterung ist bereits redundanzreduziert, das heißt, es benötigt eine geringere Bitrate als das abgetastete Sprachsignal $s(n)$. Nun wird in der nachfolgenden Funktionseinheit '''Regular Pulse Excitation''' (RPE) die Irrelevanz weiter verringert. Das bedeutet: Signalanteile, die für den subjektiven Höreindruck weniger wichtig sind, werden entfernt.&lt;br /&gt;
&lt;br /&gt;
Zum obigen Blockschaltbild ist Folgendes anzumerken:&lt;br /&gt;
*Die RPE–Codierung wird jeweils für 5 ms–Teilrahmen (40 Abtastwerte) durchgeführt. Dies ist hier durch den Index $„i”$ im Eingangssignal $e_{\rm LTP}, i(l)$ angedeutet, wobei mit $i$ = 1, 2, 3, 4 wieder die einzelnen Subblöcke durchnummeriert sind.&lt;br /&gt;
*Im ersten Schritt wird das LTP–Prädiktionsfehlersignal $e_{{\rm LTP}, i}(l)$ durch ein Tiefpassfilter auf etwa ein Drittel der ursprünglichen Bandbreite – also auf 1.3 kHz – bandbegrenzt. Dies ermöglicht in einem zweiten Schritt eine Reduktion der Abtastrate um ca. den Faktor 3.&lt;br /&gt;
*So wird das Ausgangssignal $x_i(l)$ mit $l$ = 1, ... , 40 durch Unterabtastung in vier Teilfolgen $x_{m, i}(j)$ mit m = 1, ... , 4 und j = 1, ... , 13 zerlegt. Diese Aufspaltung ist in der Grafik verdeutlicht.&lt;br /&gt;
*Die Teilfolgen $x_{m, i}(j)$ beinhalten folgende Abtastwerte des Signals $x_i(l)$:&lt;br /&gt;
$m$ = 1:     $l$ = 1, 4, 7, ... , 34, 37 (rote Punkte),&lt;br /&gt;
$m$ = 2:     $l$ = 2, 5, 8, ... , 35, 38 (grüne Punkte),&lt;br /&gt;
$m$ = 3:     $l$ = 3, 6, 9, ... , 36, 39 (blaue Punkte),&lt;br /&gt;
$m$ = 4:     $l$ = 4, 7, 10, ... , 37, 40 (ebenfalls rot, weitgehend identisch mit $m$ = 1).&lt;br /&gt;
*Für jeden Subblock $i$ wird im Block ''RPE Grid Selection'' diejenige Teilfolge $x_{m,i}(j)$ mit der höchsten Energie ausgewählt und der Index $M_i$ der '''optimalen Folge''' mit 2 Bit quantisiert und als $\mathbf{M(i)}$ übertragen. Insgesamt benötigen die vier RPE–Teilfolgen–Indizes $\mathbf{M(1)}$ ... $\mathbf{M(4)}$ somit 8 Bit.&lt;br /&gt;
*Von der optimalen Teilfolge für den Subblock $i$ (mit Index $M_i$) wird das '''Betragsmaximum''' $x_{\rm max,i}$ ermittelt, dieser Wert mit 6 Bit logarithmisch quantisiert und als $\mathbf{x_{\rm max}(i)}$ zur Übertragung bereit gestellt. Insgesamt benötigen die vier RPE–Blockamplituden 24 Bit.&lt;br /&gt;
*Zusätzlich wird für jeden Subblock $i$ die optimale Teilfolge auf $x_{{\rm max},i}$ normiert. Die so erhaltenen 13 Abtastwerte werden anschließend mit jeweils 3 Bit quantisiert und als $\mathbf{X_j(i)}$ codiert übertragen. Die 4 · 13 · 3 = 156 Bit beschreiben den so genannten RPE–Pulse.&lt;br /&gt;
*Anschließend werden diese RPE–Parameter lokal wieder decodiert und als Signal $e_{{\rm RPE},i}(l)$ an das LTP–Synthesefilter im vorherigen Subblock zurückgeführt, woraus zusammen mit dem LTP–Schätzsignal $y_i(l)$ das Signal $e'_i(l)$ erzeugt wird (siehe Grafik auf der Seite 4a).&lt;br /&gt;
*Durch das Zwischenfügen von jeweils zwei Nullwerten zwischen zwei übertragenen RPE–Abtastwerten wird näherungsweise das Basisband von 0 bis 1300 Hz in den Bereich von 1300 bis 2600 Hz in Kehrlage und von 2600 bis 3900 Hz in Normallage gefaltet.&lt;br /&gt;
*Dies ist der Grund für die notwendige Gleichsignalbefreiung in der Vorverarbeitung. Sonst entstünde durch die beschriebene Faltungsoperation ein störender Pfeifton bei 2.6 kHz.&lt;br /&gt;
	 &lt;br /&gt;
&lt;br /&gt;
==Halfrate Vocoder und Enhanced Fullrate Codec==  	&lt;br /&gt;
&lt;br /&gt;
Nach der Standardisierung des Vollraten–Codecs im Jahre 1991 ging es in der Folgezeit um die Entwicklung neuer Sprachcodecs mit zwei spezifischen Zielen, nämlich um&lt;br /&gt;
*die bessere Ausnutzung der in GSM–Systemen verfügbaren Bandbreite, und&lt;br /&gt;
*die Verbesserung der Sprachqualität.&lt;br /&gt;
&lt;br /&gt;
Diese Entwicklung kann wie folgt zusammengefasst werden:&lt;br /&gt;
*Bis 1994 wurde mit dem '''Halfrate Vocoder''' (deutsch: Halbraten-Codec) ein neues Verfahren entwickelt. Dieser hat eine Datenrate von 5.6 kbit/s und bietet so die Möglichkeit, Sprache in einem halben Verkehrskanal bei annähernd gleicher Qualität zu übertragen. Dadurch können auf einem Zeitschlitz zwei Gespräche gleichzeitig abgewickelt werden. Der Halbraten–Codec wurde allerdings von den Mobilfunkbetreibern nur dann eingesetzt, wenn eine Funkzelle überlastet war. Heute spielt der Halfrate–Codec keine Rolle mehr.&lt;br /&gt;
*Um die GSM–Sprachqualität weiter zu verbessern, wurde 1995 der '''Enhanced Fullrate Codec''' (EFR–Codec) eingeführt. Dieses Sprachcodierverfahren – ursprünglich für das US–amerikanische DCS1900–Netz entwickelt – ist ein Vollraten–Codec mit einer Datenrate von 12.2 kbit/s. Die Nutzung dieses Codecs muss natürlich vom Mobiltelefon unterstützt werden.&lt;br /&gt;
*Statt der RPE–LTP–Komprimierung (Regular Pulse Excitation – Long Term Prediction) beim herkömmlichen Vollraten–Codec wird bei dieser Weiterentwicklung '''Algebraic Code Excitation Linear Prediction''' (ACELP) angewandt, was eine deutlich bessere Sprachqualität und eine ebenfalls verbesserte Fehlererkennung und –verschleierung bietet. Nähere Informationen darüber finden Sie auf der übernächsten Seite.&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Adaptive Multi–Rate Codec==  	 &lt;br /&gt;
&lt;br /&gt;
Die bisher beschriebenen GSM–Codecs arbeiten hinsichtlich Sprach– und Kanalcodierung unabhängig von den Kanalbedingungen und der Netzauslastung stets mit einer festen Datenrate. 1997 wurde ein neues adaptives Sprachcodierverfahren für Mobilfunksysteme entwickelt und kurz darauf durch das ''European Telecommunications Standards Institute'' (ETSI) nach Vorschlägen der Firmen Ericsson, Nokia und Siemens standardisiert. Bei den Forschungsarbeiten zum Systemvorschlag der Siemens AG war der Lehrstuhl für Nachrichtentechnik der TU München, der dieses Lerntutorial ''LNTwww'' zur Verfügung stellt, entscheidend beteiligt. Näheres hierzu finden Sie unter &amp;lt;ref&amp;gt;Hindelang, T.: ''Source-Controlled Channel Decoding and Decoding for Mobile Communications''. Dissertation. Lehrstuhl für Nachrichtentechnik, TU München. VDI Fortschritt-Berichte, Reihe 10, Nr. 695, 2002.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Der '''Adaptive Multi–Rate Codec''' – abgekürzt AMR – hat folgende Eigenschaften:&lt;br /&gt;
*Er passt sich flexibel an die aktuellen Kanalgegebenheiten und an die Netzauslastung an, indem er entweder im Vollraten–Modus (höhere Sprachqualität) oder im Halbraten–Modus (geringere Datenrate) arbeitet. Daneben gibt es noch etliche Zwischenstufen.&lt;br /&gt;
*Er bietet sowohl beim Vollraten– als auch beim Halbratenverkehrskanal eine verbesserte Sprachqualität, was auf die flexibel handhabbare Aufteilung der zur Verfügung stehenden Brutto–Kanalrate zwischen Sprach– und Kanalcodierung zurückzuführen ist.&lt;br /&gt;
*Er besitzt eine größere Robustheit gegenüber Kanalfehlern als die Codecs aus der Frühzeit der Mobilfunktechnik. Dies gilt besonders beim Einsatz im Vollraten–Verkehrskanal.&lt;br /&gt;
&lt;br /&gt;
Der AMR–Codec stellt '''acht verschiedene Modi''' mit Datenraten zwischen 12.2 kbit/s (244 Bit pro Rahmen von 20 ms) und 4.75 kbit/s (95 Bit pro Rahmen) zur Verfügung.&lt;br /&gt;
&lt;br /&gt;
Drei Modi spielen eine herausgehobene Rolle, nämlich&lt;br /&gt;
*12.2 kbit/s – der verbesserte GSM–Vollraten–Codec (EFR-Codec),&lt;br /&gt;
*7.4 kbit/s – die Sprachkompression gemäß dem US–amerikanischen Standard IS–641, und&lt;br /&gt;
*6.7 kbit/s – die EFR–Sprachübertragung des japanischen PDC–Mobilfunkstandards.&lt;br /&gt;
&lt;br /&gt;
Die nachfolgenden Beschreibungen beziehen sich meist auf den Modus mit12.2 kbit/s.&lt;br /&gt;
&lt;br /&gt;
Alle Vorgänger–Verfahren des AMR basieren auf der Minimierung des Prädiktionsfehlersignals durch eine Vorwärtsprädiktion in den festen Teilschritten LPC, LTP und RPE. Im Gegensatz dazu verwendet der AMR-Codec eine Rückwärtsprädiktion gemäß dem Prinzip „Analyse durch Synthese”. Dieses Codierungsprinzip bezeichnet man auch als '''Algebraic Code Excited Linear Prediction''' (ACELP).&lt;br /&gt;
&lt;br /&gt;
In der Tabelle sind die Parameter des Adaptive Multi–Rate Codecs zusammengestellt, die mit 244 Bit pro 20 ms (Modus 12.2 kbit/s) bzw. 95 Bit (Modus 4.75 kbit/s) codiert werden.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
== Algebraic Code Excited Linear Prediction==  	&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt den auf '''ACELP''' basierenden '''AMR-Codec'''. Eine detaillierte Beschreibung finden Sie zum Beispiel in &amp;lt;ref&amp;gt;Kaindl, M.: ''Kanalcodierung für Sprache und Daten in GSM-Systemen''. Dissertation. Lehrstuhl für Nachrichtentechnik, TU München. VDI Fortschritt-Berichte, Reihe 10, Nr. 764, 2005.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Hier eine kurze Beschreibung des AMR–Prinzips:&lt;br /&gt;
*Das Sprachsignal $s(n)$, wie beim GSM–Vollraten–Sprachcodec mit 8 kHz abgetastet und mit 13 Bit quantisiert, wird vor der weiteren Verarbeitung in Rahmen $s_{\rm R}(n)$ mit $n$ = 1, ... , 160 bzw. in Subblöcke $s_i(l)$ mit $i$ = 1, 2, 3, 4 und $l$ = 1, ... , 40 segmentiert.&lt;br /&gt;
*Die Berechnung der LPC–Koeffizienten erfolgt im rot hinterlegten Block rahmenweise alle 20 ms entsprechend 160 Abtastwerten, da innerhalb dieser kurzen Zeitspanne die spektrale Einhüllende des Sprachsignal $s_{\rm R}(n)$ als konstant angesehen werden kann.&lt;br /&gt;
*Zur LPC–Analyse wird meist ein Filter $A(z)$ der Ordnung 10 gewählt. Beim höchstratigen Modus mit 12.2 kbit/s werden die aktuellen Filterkoeffizienten $a_k$ ( $k$ = 1, ... , 10 ) der Kurzzeitprädiktion alle 10 ms quantisiert, codiert und beim gelb hinterlegten Punkt 1 zur Übertragung bereitgestellt.&lt;br /&gt;
*Die weiteren Schritte des AMR werden alle 5 ms entsprechend den 40 Abtastwerten der Signale $s_i(l)$ durchgeführt. Die Langzeitprädiktion (LTP) – im Bild blau umrandet – ist hier als adaptives Codebuch realisiert, in dem die Abtastwerte der vorangegangenen Subblöcke eingetragen sind.&lt;br /&gt;
*Für die Langzeitprädiktion (LTP) wird zunächst die FCB–Verstärkung $G_{\rm FCB}$ zu Null gesetzt, so dass eine Folge von 40 Samples des adaptiven Codebuchs am Eingang $u_i(l)$ des durch die LPC festgelegten Sprachtraktfilters $A(z)^{–1}$ anliegen. Der Index $i$ bezeichnet den betrachteten Subblock.&lt;br /&gt;
*Durch Variation der beiden LTP–Parameter $N_{{\rm LTP},i}$ und $G_{{\rm LTP},i}$ soll für diesen $i$–ten Subblock erreicht werden, dass der quadratische Mittelwert – also die mittlere Leistung – des gewichteten Fehlersignals $w_i(l)$ minimal wird.&lt;br /&gt;
*Das Fehlersignal $w_i(l)$ ist gleich der Differenz zwischen dem aktuellen Sprachrahmen $s_i(l)$ und dem Ausgangssignal $y_i(l)$ des sog. Sprachtraktfilters bei Anregung mit $u_i(l)$, unter Berücksichtigung des Wichtungsfilters $W(z)$ zur Anpassung an die Spektraleigenschaften des menschlichen Gehörs.&lt;br /&gt;
*In anderen Worten: $W(z)$ entfernt solche spektralen Anteile im Signal $e_i(l)$, die von einem „durchschnittlichen” Ohr nicht wahrgenommen werden. Beim Modus für 12.2 kbit/s verwendet man $W(z) = A(z/γ_1)/A(z/γ_2)$ mit konstanten Faktoren $γ_1$ = 0.9 und $γ_2$ = 0.6.&lt;br /&gt;
*Für jeden Subblock kennzeichnet $N_{{\rm LTP},i}$ die bestmögliche LTP–Verzögerung, die zusammen mit der LTP–Verstärkung $G_{{\rm LTP},i}$ nach Mittelung bezüglich $l$ = 1, ... , 40 den quadratischen Fehler $\text{E}[w_i(l)^2]$ minimiert. Gestrichelte Linien kennzeichnen Steuerleitungen zur iterativen Optimierung.&lt;br /&gt;
*Man bezeichnet die beschriebene Vorgehensweise als '''Analyse durch Synthese'''. Nach einer ausreichend großen Anzahl an Iterationen wird der Subblock ui(l) in das adaptive Codebuch aufgenommen. Die ermittelten LTP–Parameter NLTP,i$N_{{\rm LTP},i}$ und $G_{{\rm LTP},i}$ werden codiert und zur Übertragung bereitgestellt.&lt;br /&gt;
&lt;br /&gt;
Nach der Ermittlung der besten adaptiven Anregung erfolgt die Suche nach dem besten Eintrag im festen Codebuch (''Fixed Code Book'', FCB). Dieser liefert die wichtigste Information über das Sprachsignal. Zum Beispiel werden beim 12.2 kbit/s–Modus hieraus pro Subblock 40 Bit abgeleitet, so dass in jedem Rahmen von 20 Millisekunden 160/244 ≈ 65% der Codierung auf den im Bild auf der letzten Seite grün umrandeten Block zurückgehen.&lt;br /&gt;
&lt;br /&gt;
Das Prinzip lässt sich anhand obiger Grafik in wenigen Stichpunkten wie folgt beschreiben:&lt;br /&gt;
*Im festen Codebuch kennzeichnet jeder Eintrag einen Puls, bei dem genau 10 der 40 Positionen mit +1 bzw. –1 belegt sind. Erreicht wird dies gemäß der Grafik durch fünf Spuren mit jeweils 8 Positionen, von denen genau zwei die Werte ±1 aufweisen und alle anderen 0 sind.&lt;br /&gt;
*Ein roter Kreis in obiger Grafik (an den Positionen 2, 11, 26, 30, 38) kennzeichnet eine +1, ein blauer eine –1 (im Beispiel bei 13, 17, 19, 24, 35). In jeder Spur werden die beiden belegten Positionen mit lediglich je 3 Bit codiert (da es nur 8 mögliche Positionen gibt).&lt;br /&gt;
*Für das Vorzeichen wird ein weiteres Bit verwendet, welches das Vorzeichen des erstgenannten Impulses definiert. Ist die Pulsposition des zweiten Impulses größer als die des ersten, so hat der zweite Impuls das gleiche Vorzeichen wie der erste, ansonsten das entgegengesetzte.&lt;br /&gt;
*In der ersten Spur des obigen Beispiels gibt es positive Pulse auf Position 2 (010) und Position 5 (101), wobei die Positionszählung bei 0 beginnt. Diese Spur ist also gekennzeichnet durch die Positionen „010” und „101” sowie das Vorzeichen „1” (positiv).&lt;br /&gt;
*Die Kennzeichnung für die Spur 2 lautet: Positionen 011 und 000, Vorzeichen 0. Da hier die Pulse an Position 0 und 3 unterschiedliche Vorzeichen haben, steht „011” vor „000”. Das Vorzeichen „0”  ⇒  negativ bezieht sich auf den Puls an der erstgenannten Position 3.&lt;br /&gt;
*Ein jeder Puls – bestehend aus 40 Impulsen, von denen allerdings 30 das Gewicht 0 besitzen – ergibt ein stochastisches, rauschähnliches Akustiksignal, das nach Verstärkung mit $G_{{\rm LTP},i}$ und Formung durch das LPC–Sprachtraktfilter $A(z)^{–1}$ den aktuellen Sprachrahmen $s_i(l)$ approximiert.&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
== Aufgaben zu Kapitel 3.3==  	 &lt;br /&gt;
[[Aufgaben:3.5_GSM–Vollraten–Sprachcodec|Aufgabe 3.5: GSM–Vollraten–Sprachcodec]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.6_Adaptive_Multi–Rate_Codec|Aufgabe 3.6: Adaptive Multi–Rate Codec]]&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Speech_Coding&amp;diff=22122</id>
		<title>Examples of Communication Systems/Speech Coding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Speech_Coding&amp;diff=22122"/>
		<updated>2018-01-03T16:53:52Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=GSM – Global System for Mobile Communications&lt;br /&gt;
|Vorherige Seite=Funkschnittstelle&lt;br /&gt;
|Nächste Seite=Gesamtes GSM–Übertragungssystem&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Verschiedene Sprachcodierverfahren==  	 	&lt;br /&gt;
&lt;br /&gt;
Jedem GSM-Teilnehmer steht maximal die Netto–Datenrate 22.8 kbit/s zur Verfügung, während im ISDN–Festnetz mit einer Datenrate von 64 kbit/s (bei 8 Bit Quantisierung) bzw. 104 kbit/s (bei 13 Bit Quantisierung) gearbeitet wird. Aufgabe der Sprachcodierung bei GSM ist die Beschränkung der Datenmenge zur Sprachsignalübertragung auf 22.8 kbit/s und eine bestmögliche Reproduktion des Sprachsignals auf der Empfängerseite. Die Funktionen des GSM–Coders und des GSM–Decoders sind meist in einer Funktionseinheit zusammengefasst, die als '''Codec''' bezeichnet wird.&lt;br /&gt;
&lt;br /&gt;
Zur Sprachcodierung und –Decodierung werden verschiedene Signalverarbeitungsverfahren angewandt:&lt;br /&gt;
*Der '''GSM Fullrate Vocoder''' (deutsch: GSM–Vollraten–Sprachcodec) wurde 1991 aus einer Kombination von drei Kompressionsmethoden für den GSM–Funkkanal standardisiert. Er basiert auf ''Linear Predictive Coding'' (LPC) in Verbindung mit einer ''Long Term Prediction'' (LTP) und einer ''Regular Pulse Excitation'' (RPE).&lt;br /&gt;
*Der '''GSM Halfrate Vocoder '''(deutsch: GSM–Halbraten–Sprachcodec) wurde 1994 eingeführt und bietet die Möglichkeit, Sprache bei nahezu gleicher Qualität in einem halben Verkehrskanal (Datenrate 11.4 kbits/s) zu übertragen.&lt;br /&gt;
*Der '''Enhanced Fullrate Vocoder''' (EFR–Codec) wurde 1995 standardisiert und implementiert, ursprünglich für das nordamerikanische DCS1900–Netz. Der EFR–Codec bietet gegenüber dem herkömmlichen Vollraten–Codec eine bessere Sprachqualität.&lt;br /&gt;
*Der '''Adaptive Multi–Rate Codec''' (AMR–Codec) ist der neueste Sprachcodec für GSM. Er wurde 1997 standardisiert und 1999 vom ''Third Generation Partnership Project'' (3GPP) auch als Standard–Sprachcodec für Mobilfunksysteme der 3. Generation wie UMTS vorgeschrieben.&lt;br /&gt;
&lt;br /&gt;
Sie können sich die Qualität dieser Sprachcodierverfahren bei Sprache und Musik mit dem folgenden Interaktionsmodul verdeutlichen:&lt;br /&gt;
Qualität verschiedener Sprach–Codecs (Dateigröße: 11.3 MB)&lt;br /&gt;
&lt;br /&gt;
Diese Audio–Animation berücksichtigt auch den '''Wideband–AMR''', der momentan (2007) für UMTS entwickelt und standardisiert wird. Im Gegensatz zum herkömmlichen AMR, bei dem das Sprachsignal auf den Frequenzbereich von 300 Hz bis 3.4 kHz bandbegrenzt wird, geht man beim WB–AMR von einem Wideband–Signal (50 Hz – 7 kHz) aus. Dieser ist somit auch für Musiksignale geeignet.&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
==GSM Fullrate Vocoder – Vollraten–Codec==  	 &lt;br /&gt;
&lt;br /&gt;
Beim '''GSM–Vollraten-Codec''' (''Full Rate Vocoder'') wird das analoge Sprachsignal im Frequenzbereich zwischen 300 und 3400 Hz zunächst mit 8 kHz abgetastet und danach mit 13 Bit linear quantisiert (A/D–Wandlung), was eine Datenrate von 104 kbit/s ergibt. Die Sprachcodierung erfolgt bei diesem Verfahren in vier Schritten:&lt;br /&gt;
*die Vorverarbeitung,&lt;br /&gt;
*die Einstellung des Kurzzeitanalyse–Filters &lt;br /&gt;
(''Linear Predictive Coding'', LPC),&lt;br /&gt;
*die Steuerung des Langzeitanalyse–Filters &lt;br /&gt;
(''Long Term Prediction'', LTP) und&lt;br /&gt;
*die Codierung des Restsignals durch eine Folge von Pulsen (''Regular Pulse Excitation'', RPE).&lt;br /&gt;
&lt;br /&gt;
In obiger Grafik bezeichnet $s(n)$ das im Abstand $T_{\rm A}$ = 125 µs abgetastete und quantisierte Sprachsignal nach der kontinuierlich durchgeführten Vorverarbeitung, wobei&lt;br /&gt;
*das digitalisierte Mikrofonsignal von einem eventuell vorhandenen Gleichsignalanteil (Offset) befreit wird, um bei der Decodierung einen störenden Pfeifton von ca. 2.6 kHz bei der Wiedergewinnung der höheren Frequenzanteile zu vermeiden, und&lt;br /&gt;
*zusätzlich höhere Spektralanteile von $s(n)$ angehoben werden, um die Rechengenauigkeit und Effektivität der nachfolgenden LPC–Analyse zu verbessern.&lt;br /&gt;
&lt;br /&gt;
Die Tabelle zeigt die 76 Parameter (260 Bit) der Funktionseinheiten LPC, LTP und RPE. Die Bedeutung der einzelnen Größen wird auf den folgenden Seiten im Detail beschrieben.&lt;br /&gt;
&lt;br /&gt;
Alle Verarbeitungsschritte (LPC, LTP, RPE) erfolgen jeweils in Blöcken von 20 ms Dauer über 160 Abtastwerte des vorverarbeiteten Sprachsignals, die man als '''GSM–Sprachrahmen''' bezeichnet. Beim Vollraten–Codec werden pro Sprachrahmen insgesamt 260 Bit erzeugt, woraus sich eine Datenrate von 13 kbit/s ergibt. Dies entspricht einer Kompression des Sprachsignals um den Faktor 8 (104 kbit/s bezogen auf 13 kbit/s).&lt;br /&gt;
	 &lt;br /&gt;
&lt;br /&gt;
==Linear Predictive Coding – Kurzzeitprädiktion==  	&lt;br /&gt;
&lt;br /&gt;
Der Block '''Linear Predictive Coding''' (LPC) führt eine Kurzzeitprädiktion durch, das heißt, es werden die statistischen Abhängigkeiten der Abtastwerte untereinander in einem kurzen Bereich von einer Millisekunde ermittelt. Zunächst wird dazu das zeitlich unbeschränkte Signal $s(n)$ mit $n$ = 1, 2, ... in Intervalle $s_{\rm R}(n)$ von 20 ms Dauer, also 160 Samples, segmentiert. Die Laufvariable innerhalb eines solchen Sprachrahmens kann vereinbarungsgemäß die Werte $n$ = 1, ... , 160 annehmen.&lt;br /&gt;
&lt;br /&gt;
Hier folgt eine Kurzbeschreibung des obigen LPC–Prinzipschaltbildes:&lt;br /&gt;
*Im ersten Schritt der '''LPC-Analyse''' werden statistische Abhängigkeiten zwischen den Abtastwerten durch die Autokorrelationskoeffizienten $φ_{\rm s}(k) = \text{E}[s_{\rm R}(n) · s_{\rm R}(n + k)]$ mit 0 ≤ $k$ ≤ 8 quantifiziert. Aus diesen neun AKF–Werten werden mit Hilfe der sog. ''Schur–Rekursion'' acht Reflexionskoeffizienten $r_{\rm k}$ berechnet, die als Grundlage für die Einstellung der Koeffizienten des LPC–Analysefilters für den aktuellen Rahmen dienen.&lt;br /&gt;
*Die Koeffizienten $r_{\rm k}$ können Werte zwischen ±1 annehmen. Schon geringe Änderungen der $r_{\rm k}$ am Rand ihres Wertesbereichs bewirken große Änderungen für die Sprachcodierung. Die acht Reflexionswerte $r_{\rm k}$ werden logarithmisch dargestellt  ⇒  '''LAR–Parameter''' (''Log Area Ratio''):&lt;br /&gt;
 &lt;br /&gt;
*Anschließend werden diese acht LAR–Parameter entsprechend ihrer subjektiven Bedeutung durch unterschiedlich viele Bits quantisiert, codiert und zur Übertragung bereitgestellt. Die beiden ersten Parameter werden mit je 6 Bit, die beiden nächsten mit je 5 Bit, LAR(5) und LAR(6) mit je 4 Bit und die beiden letzten mit je 3 Bit dargestellt.&lt;br /&gt;
*Bei fehlerfreier Übertragung kann am Empfänger aus den acht LPC–Parametern (insgesamt 36 Bit) mit dem entsprechenden LPC–Synthesefilter das ursprüngliche Signal s(n) wieder vollständig rekonstruiert werden, wenn man von den unvermeidbaren zusätzlichen Quantisierungsfehlern durch die digitale Beschreibung der LAR-Koeffizienten absieht.&lt;br /&gt;
*Weiterhin wird mit Hilfe des LPC–Filters das Prädiktionsfehlersignal $e_{\rm LPC}(n)$ gewonnen. Dieses ist gleichzeitig das Eingangssignal für die nachfolgende Langzeitprädiktion. Das LPC–Filter ist nicht rekursiv und hat nur ein kurzes Gedächtnis von etwa einer Millisekunde.&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&lt;br /&gt;
Die Grafik aus &amp;lt;ref&amp;gt;Kaindl, M.: ''Kanalcodierung für Sprache und Daten in GSM-Systemen''. Dissertation. Lehrstuhl für Nachrichtentechnik, TU München. VDI Fortschritt-Berichte, Reihe 10, Nr. 764, 2005.&amp;lt;/ref&amp;gt; zeigt oben einen Ausschnitt des Sprachsignals $s(n)$ und dessen Zeit–Frequenzdarstellung. Unten ist das LPC–Prädiktionsfehlersignal $e_{\rm LPC}(n)$ dargestellt.&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus diesen Bildern&lt;br /&gt;
*die kleinere Amplitude von $e_{\rm LPC}(n)$ gegenüber $s(n)$,&lt;br /&gt;
*den deutlich reduzierten Dynamikumfang und&lt;br /&gt;
*das flachere Spektrum des verbleibenden Signals.&lt;br /&gt;
&lt;br /&gt;
{{end}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Long Term Prediction – Langzeitprädiktion==  &lt;br /&gt;
&lt;br /&gt;
Bei der '''Long Term Prediction''' (LTP) wird die Eigenschaft des Sprachsignals ausgenutzt, dass es auch periodische Strukturen (stimmhafte Abschnitte) besitzt. Dieser Umstand wird dazu verwendet, um die im Signal vorhandene Redundanz zu reduzieren. Die Langzeitprädiktion (LTP–Analyse und –Filterung) wird viermal pro Sprachrahmen, also alle 5 ms durchgeführt. Die Subblöcke bestehen aus jeweils 40 Abtastwerten und werden mit i = 1, ..., 4 nummeriert.&lt;br /&gt;
&lt;br /&gt;
Es folgt eine Kurzbeschreibung der Langzeitprädiktion gemäß dem obigen Prinzipschaltbild – siehe &amp;lt;ref&amp;gt;Kaindl, M.: ''Kanalcodierung für Sprache und Daten in GSM-Systemen''. Dissertation. Lehrstuhl für Nachrichtentechnik, TU München. VDI Fortschritt-Berichte, Reihe 10, Nr. 764, 2005.&amp;lt;/ref&amp;gt;. Das Eingangssignal ist das Ausgangssignal $e_{\rm LPC}(n)$ der Kurzzeitprädiktion. Die Signale nach der Segmentierung in vier Subblöcken werden mit $e_i(l)$ bezeichnet, wobei jeweils $l$ = 1, 2, ... , 40 gilt.&lt;br /&gt;
*Zu dieser Analyse wird die Kreuzkorrelationsfunktion $φ_{ee',i}(k)$ des aktuellen Subblocks $i$ des LPC–Prädiktionsfehlersignals $e_i(l)$ mit dem rekonstruierten LPC–Restsignal $e'_i(l)$ aus den drei vorherigen Teilrahmen berechnet. Das Gedächtnis dieses LTP–Prädiktors beträgt zwischen 5 und 15 ms und ist somit deutlich länger als das des LPC–Prädiktors (1 ms).&lt;br /&gt;
* $e'_i(l)$ ist die Summe aus dem LTP–Filter–Ausgangssignal $y_i(l)$ und dem Korrektursignal $e_{\rm RPE,i}(l)$, das von der folgenden Komponente (''Regular Pulse Excitation'') für den $i$–ten Subblock bereitgestellt wird.&lt;br /&gt;
*Der Wert von $k$, für den die Kreuzkorrelationsfunktion $φ_{ee',i}(k)$ maximal wird, bestimmt die für jeden Subblock $i$ optimale LTP–Verzögerung $N(i)$. Die Verzögerungen $N(1)$ bis $N(4)$ werden jeweils mit 7 Bit quantisiert und zur Übertragung bereitgestellt.&lt;br /&gt;
*Der zu $N(i)$ gehörige Verstärkungsfaktor $G(i)$ – auch LTP–Gain genannt – wird so bestimmt, dass der an der Stelle $N(i)$ gefundene Subblock nach Multiplikation mit $G(i)$ am besten zum aktuellen Teilrahmen $e_i(l)$ passt. Die Verstärkungsfaktoren $G(1)$ bis $G(4)$ werden jeweils mit 2 Bit quantisiert und ergeben zusammen mit $N(1)$, ..., $N(4)$ die 36 Bit für die acht LTP–Parameter.&lt;br /&gt;
*Das Signal $y_i(l)$ nach LTP–Analyse und –Filterung ist ein Schätzsignal für das LPC–Signal $e_i(l)$ im $i$–ten Subblock. Die Differenz zwischen beiden ergibt das LTP–Restsignal $e_{\rm LTP,i}(l)$, das an die nächste Funktionseinheit „RPE” weitergegeben wird.&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
==Regular Pulse Excitation – RPE–Codierung == 	 &lt;br /&gt;
&lt;br /&gt;
Das Signal nach LPC– und LTP–Filterung ist bereits redundanzreduziert, das heißt, es benötigt eine geringere Bitrate als das abgetastete Sprachsignal $s(n)$. Nun wird in der nachfolgenden Funktionseinheit '''Regular Pulse Excitation''' (RPE) die Irrelevanz weiter verringert. Das bedeutet: Signalanteile, die für den subjektiven Höreindruck weniger wichtig sind, werden entfernt.&lt;br /&gt;
&lt;br /&gt;
Zum obigen Blockschaltbild ist Folgendes anzumerken:&lt;br /&gt;
*Die RPE–Codierung wird jeweils für 5 ms–Teilrahmen (40 Abtastwerte) durchgeführt. Dies ist hier durch den Index $„i”$ im Eingangssignal $e_{\rm LTP}, i(l)$ angedeutet, wobei mit $i$ = 1, 2, 3, 4 wieder die einzelnen Subblöcke durchnummeriert sind.&lt;br /&gt;
*Im ersten Schritt wird das LTP–Prädiktionsfehlersignal $e_{{\rm LTP}, i}(l)$ durch ein Tiefpassfilter auf etwa ein Drittel der ursprünglichen Bandbreite – also auf 1.3 kHz – bandbegrenzt. Dies ermöglicht in einem zweiten Schritt eine Reduktion der Abtastrate um ca. den Faktor 3.&lt;br /&gt;
*So wird das Ausgangssignal $x_i(l)$ mit $l$ = 1, ... , 40 durch Unterabtastung in vier Teilfolgen $x_{m, i}(j)$ mit m = 1, ... , 4 und j = 1, ... , 13 zerlegt. Diese Aufspaltung ist in der Grafik verdeutlicht.&lt;br /&gt;
*Die Teilfolgen $x_{m, i}(j)$ beinhalten folgende Abtastwerte des Signals $x_i(l)$:&lt;br /&gt;
$m$ = 1:     $l$ = 1, 4, 7, ... , 34, 37 (rote Punkte),&lt;br /&gt;
$m$ = 2:     $l$ = 2, 5, 8, ... , 35, 38 (grüne Punkte),&lt;br /&gt;
$m$ = 3:     $l$ = 3, 6, 9, ... , 36, 39 (blaue Punkte),&lt;br /&gt;
$m$ = 4:     $l$ = 4, 7, 10, ... , 37, 40 (ebenfalls rot, weitgehend identisch mit $m$ = 1).&lt;br /&gt;
*Für jeden Subblock $i$ wird im Block ''RPE Grid Selection'' diejenige Teilfolge $x_{m,i}(j)$ mit der höchsten Energie ausgewählt und der Index $M_i$ der '''optimalen Folge''' mit 2 Bit quantisiert und als $\mathbf{M(i)}$ übertragen. Insgesamt benötigen die vier RPE–Teilfolgen–Indizes $\mathbf{M(1)}$ ... $\mathbf{M(4)}$ somit 8 Bit.&lt;br /&gt;
*Von der optimalen Teilfolge für den Subblock $i$ (mit Index $M_i$) wird das '''Betragsmaximum''' $x_{\rm max,i}$ ermittelt, dieser Wert mit 6 Bit logarithmisch quantisiert und als $\mathbf{x_{\rm max}(i)}$ zur Übertragung bereit gestellt. Insgesamt benötigen die vier RPE–Blockamplituden 24 Bit.&lt;br /&gt;
*Zusätzlich wird für jeden Subblock $i$ die optimale Teilfolge auf $x_{{\rm max},i}$ normiert. Die so erhaltenen 13 Abtastwerte werden anschließend mit jeweils 3 Bit quantisiert und als $\mathbf{X_j(i)}$ codiert übertragen. Die 4 · 13 · 3 = 156 Bit beschreiben den so genannten RPE–Pulse.&lt;br /&gt;
*Anschließend werden diese RPE–Parameter lokal wieder decodiert und als Signal $e_{{\rm RPE},i}(l)$ an das LTP–Synthesefilter im vorherigen Subblock zurückgeführt, woraus zusammen mit dem LTP–Schätzsignal $y_i(l)$ das Signal $e'_i(l)$ erzeugt wird (siehe Grafik auf der Seite 4a).&lt;br /&gt;
*Durch das Zwischenfügen von jeweils zwei Nullwerten zwischen zwei übertragenen RPE–Abtastwerten wird näherungsweise das Basisband von 0 bis 1300 Hz in den Bereich von 1300 bis 2600 Hz in Kehrlage und von 2600 bis 3900 Hz in Normallage gefaltet.&lt;br /&gt;
*Dies ist der Grund für die notwendige Gleichsignalbefreiung in der Vorverarbeitung. Sonst entstünde durch die beschriebene Faltungsoperation ein störender Pfeifton bei 2.6 kHz.&lt;br /&gt;
	 &lt;br /&gt;
&lt;br /&gt;
==Halfrate Vocoder und Enhanced Fullrate Codec==  	&lt;br /&gt;
&lt;br /&gt;
Nach der Standardisierung des Vollraten–Codecs im Jahre 1991 ging es in der Folgezeit um die Entwicklung neuer Sprachcodecs mit zwei spezifischen Zielen, nämlich um&lt;br /&gt;
*die bessere Ausnutzung der in GSM–Systemen verfügbaren Bandbreite, und&lt;br /&gt;
*die Verbesserung der Sprachqualität.&lt;br /&gt;
&lt;br /&gt;
Diese Entwicklung kann wie folgt zusammengefasst werden:&lt;br /&gt;
*Bis 1994 wurde mit dem '''Halfrate Vocoder''' (deutsch: Halbraten-Codec) ein neues Verfahren entwickelt. Dieser hat eine Datenrate von 5.6 kbit/s und bietet so die Möglichkeit, Sprache in einem halben Verkehrskanal bei annähernd gleicher Qualität zu übertragen. Dadurch können auf einem Zeitschlitz zwei Gespräche gleichzeitig abgewickelt werden. Der Halbraten–Codec wurde allerdings von den Mobilfunkbetreibern nur dann eingesetzt, wenn eine Funkzelle überlastet war. Heute spielt der Halfrate–Codec keine Rolle mehr.&lt;br /&gt;
*Um die GSM–Sprachqualität weiter zu verbessern, wurde 1995 der '''Enhanced Fullrate Codec''' (EFR–Codec) eingeführt. Dieses Sprachcodierverfahren – ursprünglich für das US–amerikanische DCS1900–Netz entwickelt – ist ein Vollraten–Codec mit einer Datenrate von 12.2 kbit/s. Die Nutzung dieses Codecs muss natürlich vom Mobiltelefon unterstützt werden.&lt;br /&gt;
*Statt der RPE–LTP–Komprimierung (Regular Pulse Excitation – Long Term Prediction) beim herkömmlichen Vollraten–Codec wird bei dieser Weiterentwicklung '''Algebraic Code Excitation Linear Prediction''' (ACELP) angewandt, was eine deutlich bessere Sprachqualität und eine ebenfalls verbesserte Fehlererkennung und –verschleierung bietet. Nähere Informationen darüber finden Sie auf der übernächsten Seite.&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Adaptive Multi–Rate Codec==  	 &lt;br /&gt;
&lt;br /&gt;
Die bisher beschriebenen GSM–Codecs arbeiten hinsichtlich Sprach– und Kanalcodierung unabhängig von den Kanalbedingungen und der Netzauslastung stets mit einer festen Datenrate. 1997 wurde ein neues adaptives Sprachcodierverfahren für Mobilfunksysteme entwickelt und kurz darauf durch das ''European Telecommunications Standards Institute'' (ETSI) nach Vorschlägen der Firmen Ericsson, Nokia und Siemens standardisiert. Bei den Forschungsarbeiten zum Systemvorschlag der Siemens AG war der Lehrstuhl für Nachrichtentechnik der TU München, der dieses Lerntutorial ''LNTwww'' zur Verfügung stellt, entscheidend beteiligt. Näheres hierzu finden Sie unter &amp;lt;ref&amp;gt;Hindelang, T.: ''Source-Controlled Channel Decoding and Decoding for Mobile Communications''. Dissertation. Lehrstuhl für Nachrichtentechnik, TU München. VDI Fortschritt-Berichte, Reihe 10, Nr. 695, 2002.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Der '''Adaptive Multi–Rate Codec''' – abgekürzt AMR – hat folgende Eigenschaften:&lt;br /&gt;
*Er passt sich flexibel an die aktuellen Kanalgegebenheiten und an die Netzauslastung an, indem er entweder im Vollraten–Modus (höhere Sprachqualität) oder im Halbraten–Modus (geringere Datenrate) arbeitet. Daneben gibt es noch etliche Zwischenstufen.&lt;br /&gt;
*Er bietet sowohl beim Vollraten– als auch beim Halbratenverkehrskanal eine verbesserte Sprachqualität, was auf die flexibel handhabbare Aufteilung der zur Verfügung stehenden Brutto–Kanalrate zwischen Sprach– und Kanalcodierung zurückzuführen ist.&lt;br /&gt;
*Er besitzt eine größere Robustheit gegenüber Kanalfehlern als die Codecs aus der Frühzeit der Mobilfunktechnik. Dies gilt besonders beim Einsatz im Vollraten–Verkehrskanal.&lt;br /&gt;
&lt;br /&gt;
Der AMR–Codec stellt '''acht verschiedene Modi''' mit Datenraten zwischen 12.2 kbit/s (244 Bit pro Rahmen von 20 ms) und 4.75 kbit/s (95 Bit pro Rahmen) zur Verfügung.&lt;br /&gt;
&lt;br /&gt;
Drei Modi spielen eine herausgehobene Rolle, nämlich&lt;br /&gt;
*12.2 kbit/s – der verbesserte GSM–Vollraten–Codec (EFR-Codec),&lt;br /&gt;
*7.4 kbit/s – die Sprachkompression gemäß dem US–amerikanischen Standard IS–641, und&lt;br /&gt;
*6.7 kbit/s – die EFR–Sprachübertragung des japanischen PDC–Mobilfunkstandards.&lt;br /&gt;
&lt;br /&gt;
Die nachfolgenden Beschreibungen beziehen sich meist auf den Modus mit12.2 kbit/s.&lt;br /&gt;
&lt;br /&gt;
Alle Vorgänger–Verfahren des AMR basieren auf der Minimierung des Prädiktionsfehlersignals durch eine Vorwärtsprädiktion in den festen Teilschritten LPC, LTP und RPE. Im Gegensatz dazu verwendet der AMR-Codec eine Rückwärtsprädiktion gemäß dem Prinzip „Analyse durch Synthese”. Dieses Codierungsprinzip bezeichnet man auch als '''Algebraic Code Excited Linear Prediction''' (ACELP).&lt;br /&gt;
&lt;br /&gt;
In der Tabelle sind die Parameter des Adaptive Multi–Rate Codecs zusammengestellt, die mit 244 Bit pro 20 ms (Modus 12.2 kbit/s) bzw. 95 Bit (Modus 4.75 kbit/s) codiert werden.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
== Algebraic Code Excited Linear Prediction==  	&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt den auf '''ACELP''' basierenden '''AMR-Codec'''. Eine detaillierte Beschreibung finden Sie zum Beispiel in &amp;lt;ref&amp;gt;Kaindl, M.: ''Kanalcodierung für Sprache und Daten in GSM-Systemen''. Dissertation. Lehrstuhl für Nachrichtentechnik, TU München. VDI Fortschritt-Berichte, Reihe 10, Nr. 764, 2005.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
Hier eine kurze Beschreibung des AMR–Prinzips:&lt;br /&gt;
*Das Sprachsignal $s(n)$, wie beim GSM–Vollraten–Sprachcodec mit 8 kHz abgetastet und mit 13 Bit quantisiert, wird vor der weiteren Verarbeitung in Rahmen $s_{\rm R}(n)$ mit $n$ = 1, ... , 160 bzw. in Subblöcke $s_i(l)$ mit $i$ = 1, 2, 3, 4 und $l$ = 1, ... , 40 segmentiert.&lt;br /&gt;
*Die Berechnung der LPC–Koeffizienten erfolgt im rot hinterlegten Block rahmenweise alle 20 ms entsprechend 160 Abtastwerten, da innerhalb dieser kurzen Zeitspanne die spektrale Einhüllende des Sprachsignal $s_{\rm R}(n)$ als konstant angesehen werden kann.&lt;br /&gt;
*Zur LPC–Analyse wird meist ein Filter $A(z)$ der Ordnung 10 gewählt. Beim höchstratigen Modus mit 12.2 kbit/s werden die aktuellen Filterkoeffizienten $a_k$ ( $k$ = 1, ... , 10 ) der Kurzzeitprädiktion alle 10 ms quantisiert, codiert und beim gelb hinterlegten Punkt 1 zur Übertragung bereitgestellt.&lt;br /&gt;
*Die weiteren Schritte des AMR werden alle 5 ms entsprechend den 40 Abtastwerten der Signale $s_i(l)$ durchgeführt. Die Langzeitprädiktion (LTP) – im Bild blau umrandet – ist hier als adaptives Codebuch realisiert, in dem die Abtastwerte der vorangegangenen Subblöcke eingetragen sind.&lt;br /&gt;
*Für die Langzeitprädiktion (LTP) wird zunächst die FCB–Verstärkung $G_{\rm FCB}$ zu Null gesetzt, so dass eine Folge von 40 Samples des adaptiven Codebuchs am Eingang $u_i(l)$ des durch die LPC festgelegten Sprachtraktfilters $A(z)^{–1}$ anliegen. Der Index $i$ bezeichnet den betrachteten Subblock.&lt;br /&gt;
*Durch Variation der beiden LTP–Parameter $N_{{\rm LTP},i}$ und $G_{{\rm LTP},i}$ soll für diesen $i$–ten Subblock erreicht werden, dass der quadratische Mittelwert – also die mittlere Leistung – des gewichteten Fehlersignals $w_i(l)$ minimal wird.&lt;br /&gt;
*Das Fehlersignal $w_i(l)$ ist gleich der Differenz zwischen dem aktuellen Sprachrahmen $s_i(l)$ und dem Ausgangssignal $y_i(l)$ des sog. Sprachtraktfilters bei Anregung mit $u_i(l)$, unter Berücksichtigung des Wichtungsfilters $W(z)$ zur Anpassung an die Spektraleigenschaften des menschlichen Gehörs.&lt;br /&gt;
*In anderen Worten: $W(z)$ entfernt solche spektralen Anteile im Signal $e_i(l)$, die von einem „durchschnittlichen” Ohr nicht wahrgenommen werden. Beim Modus für 12.2 kbit/s verwendet man $W(z) = A(z/γ_1)/A(z/γ_2)$ mit konstanten Faktoren $γ_1$ = 0.9 und $γ_2$ = 0.6.&lt;br /&gt;
*Für jeden Subblock kennzeichnet $N_{{\rm LTP},i}$ die bestmögliche LTP–Verzögerung, die zusammen mit der LTP–Verstärkung $G_{{\rm LTP},i}$ nach Mittelung bezüglich $l$ = 1, ... , 40 den quadratischen Fehler $\text{E}[w_i(l)^2]$ minimiert. Gestrichelte Linien kennzeichnen Steuerleitungen zur iterativen Optimierung.&lt;br /&gt;
*Man bezeichnet die beschriebene Vorgehensweise als '''Analyse durch Synthese'''. Nach einer ausreichend großen Anzahl an Iterationen wird der Subblock ui(l) in das adaptive Codebuch aufgenommen. Die ermittelten LTP–Parameter NLTP,i$N_{{\rm LTP},i}$ und $G_{{\rm LTP},i}$ werden codiert und zur Übertragung bereitgestellt.&lt;br /&gt;
&lt;br /&gt;
Nach der Ermittlung der besten adaptiven Anregung erfolgt die Suche nach dem besten Eintrag im festen Codebuch (''Fixed Code Book'', FCB). Dieser liefert die wichtigste Information über das Sprachsignal. Zum Beispiel werden beim 12.2 kbit/s–Modus hieraus pro Subblock 40 Bit abgeleitet, so dass in jedem Rahmen von 20 Millisekunden 160/244 ≈ 65% der Codierung auf den im Bild auf der letzten Seite grün umrandeten Block zurückgehen.&lt;br /&gt;
&lt;br /&gt;
Das Prinzip lässt sich anhand obiger Grafik in wenigen Stichpunkten wie folgt beschreiben:&lt;br /&gt;
*Im festen Codebuch kennzeichnet jeder Eintrag einen Puls, bei dem genau 10 der 40 Positionen mit +1 bzw. –1 belegt sind. Erreicht wird dies gemäß der Grafik durch fünf Spuren mit jeweils 8 Positionen, von denen genau zwei die Werte ±1 aufweisen und alle anderen 0 sind.&lt;br /&gt;
*Ein roter Kreis in obiger Grafik (an den Positionen 2, 11, 26, 30, 38) kennzeichnet eine +1, ein blauer eine –1 (im Beispiel bei 13, 17, 19, 24, 35). In jeder Spur werden die beiden belegten Positionen mit lediglich je 3 Bit codiert (da es nur 8 mögliche Positionen gibt).&lt;br /&gt;
*Für das Vorzeichen wird ein weiteres Bit verwendet, welches das Vorzeichen des erstgenannten Impulses definiert. Ist die Pulsposition des zweiten Impulses größer als die des ersten, so hat der zweite Impuls das gleiche Vorzeichen wie der erste, ansonsten das entgegengesetzte.&lt;br /&gt;
*In der ersten Spur des obigen Beispiels gibt es positive Pulse auf Position 2 (010) und Position 5 (101), wobei die Positionszählung bei 0 beginnt. Diese Spur ist also gekennzeichnet durch die Positionen „010” und „101” sowie das Vorzeichen „1” (positiv).&lt;br /&gt;
*Die Kennzeichnung für die Spur 2 lautet: Positionen 011 und 000, Vorzeichen 0. Da hier die Pulse an Position 0 und 3 unterschiedliche Vorzeichen haben, steht „011” vor „000”. Das Vorzeichen „0”  ⇒  negativ bezieht sich auf den Puls an der erstgenannten Position 3.&lt;br /&gt;
*Ein jeder Puls – bestehend aus 40 Impulsen, von denen allerdings 30 das Gewicht 0 besitzen – ergibt ein stochastisches, rauschähnliches Akustiksignal, das nach Verstärkung mit $G_{{\rm LTP},i}$ und Formung durch das LPC–Sprachtraktfilter $A(z)^{–1}$ den aktuellen Sprachrahmen $s_i(l)$ approximiert.&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
== Aufgaben zu Kapitel 3.3==  	 &lt;br /&gt;
[[Aufgaben:3.5_GSM–Vollraten–Sprachcodec|Aufgabe 3.5: GSM–Vollraten–Sprachcodec]]&lt;br /&gt;
[[Aufgaben:3.6_Adaptive_Multi–Rate_Codec|Aufgabe 3.6: Adaptive Multi–Rate Codec]]&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Radio_Interface&amp;diff=22121</id>
		<title>Examples of Communication Systems/Radio Interface</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Radio_Interface&amp;diff=22121"/>
		<updated>2018-01-03T16:52:35Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=GSM – Global System for Mobile Communications&lt;br /&gt;
|Vorherige Seite=Allgemeine Beschreibung von GSM&lt;br /&gt;
|Nächste Seite=Sprachcodierung&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Logische Kanäle des GSM  ==	 &lt;br /&gt;
&lt;br /&gt;
Entscheidend für den ordnungsgemäßen Betrieb des GSM–Netzes und den Informationsaustausch zwischen Mobil– und Basisstation ist die '''Funkschnittstelle'''. Diese wird auch „Luftschnittstelle” oder „Physical Layer” genannt und definiert alle physikalischen Kanäle des GSM–Systems sowie deren Zuordnung zu den logischen Kanälen. Weiterhin ist die Funkschnittstelle für weitere Funktionalitäten wie zum Beispiel das ''Radio Subsystem Link Control'' zuständig.&lt;br /&gt;
&lt;br /&gt;
Beginnen wir mit den '''logischen Kanälen'''. Diese können einen ganzen physikalischen Kanal oder auch nur einen Teil eines physikalischen Kanals belegen und unterteilen sich in zwei Kategorien:&lt;br /&gt;
*'''Traffic Channels''' (deutsch: Verkehrskanäle) werden ausschließlich für die Übertragung von Benutzerdatenströmen wie Sprache, Fax und Daten genutzt. Diese Kanäle sind für beide Richtungen (MS ⇔ BSS) ausgelegt und können entweder durch einen Vollraten–Verkehrskanal (13 kbit/s) oder von zwei Halbratenkanälen (je 5.6 kbit/s) belegt werden.&lt;br /&gt;
*'''Control Channels''' (deutsch: Signalisierungskanäle) versorgen über die Funkschnittstelle alle aktiven Mobilstationen durch einen paketorientierten Signalisierungsdienst, um jederzeit Nachrichten von der BTS empfangen bzw. Nachrichten an die BTS senden zu können.&lt;br /&gt;
&lt;br /&gt;
Die Tabelle listet die logischen Kanäle des GSM auf. Diese unterscheiden sich von den logischen ISDN–Kanälen durch ein zusätzliches „m” für „mobile”. Beispielsweise ist der Bm–Kanal vergleichbar mit dem B–Kanal des ISDN.&lt;br /&gt;
	 &lt;br /&gt;
&lt;br /&gt;
==Uplink– und Downlink–Parameter ==	&lt;br /&gt;
&lt;br /&gt;
Die logischen Kanäle werden auf '''physikalische Kanäle''' abgebildet, die alle physikalischen Aspekte des Datentransportes beschreiben:&lt;br /&gt;
*die Frequenzbereiche für den '''Uplink''' (Funkstrecke von der Mobil– zur Basisstation) und den '''Downlink''' (Funkstrecke von der Basis– zur Mobilstation),&lt;br /&gt;
*die Aufteilung zwischen '''Time Division Multiple Access''' (TDMA) und '''Frequency Division Multiple Access''' (FDMA),&lt;br /&gt;
*die '''Burststruktur''', also die Belegung eines TDMA-Zeitschlitzes bei verschiedenen Anwendungen (Benutzer- und Signalisierungsdaten, Synchronisationsmarken, usw.), sowie&lt;br /&gt;
*das '''Modulationsverfahren''' ''Gaussian Minimum Shift Keying'' (GMSK), eine Variante von ''Continuous Phase – Frequency Shift Keying'' (CP–FSK) mit großer Bandbreiteneffizienz.&lt;br /&gt;
&lt;br /&gt;
Die nachfolgende Tabelle zeigt die Frequenzbereiche der standardisierten GSM–Systeme.&lt;br /&gt;
&lt;br /&gt;
Damit zwischen den beiden Richtungen keine Intermodulationsstörungen auftreten, liegt zwischen den Bändern für Uplink und Downlink ein Sicherheitsband, der sog. '''Duplexabstand'''.&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&lt;br /&gt;
Beim System GSM 900 (in Deutschland: D–Netz) beginnt der Uplink bei 890 MHz und der Downlink bei 935 MHz. Der Duplexabstand beträgt somit 45 MHz. Sowohl der Uplink als auch der Downlink besitzen eine Bandbreite von 25 MHz. Abzüglich der Guard–Bänder an den beiden Rändern von jeweils 100 kHz verbleiben 24.8 MHz, die in 124 FDMA-Kanäle zu je 200 kHz unterteilt sind.&lt;br /&gt;
Das DCS–Band (E–Netz) im Bereich um 1800 MHz hat einen Duplexabstand von 95 MHz und eine jeweilige Bandbreite von 75 MHz. Unter Berücksichtigung der Guard–Bänder ergeben sich hier 374 FDMA–Kanäle zu je 200 kHz.&lt;br /&gt;
&lt;br /&gt;
{{end}}&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
== Realisierung von FDMA und TDMA==  &lt;br /&gt;
&lt;br /&gt;
Beim GSM–System werden zwei Vielfachzugriffsverfahren parallel verwendet:&lt;br /&gt;
*Frequenzmultiplex (''Frequency Division Multiple Access'', FDMA) und&lt;br /&gt;
*Zeitmultiplex (''Time Division Multiple Access'', TDMA).&lt;br /&gt;
&lt;br /&gt;
Die Grafik und die nachfolgende Beschreibung gilt für das System GSM 900, in Deutschland bekannt als D–Netz. Bei den anderen GSM–Systemen gelten vergleichbare Aussagen.&lt;br /&gt;
&lt;br /&gt;
*Sowohl im Uplink als auch im Downlink geschieht die Übertragung der Signalisierungs– und Verkehrsdaten parallel in 124 Frequenzkanälen, bezeichnet mit RFCH1 bis RFCH124.&lt;br /&gt;
*Die Mittenfrequenz des Uplink–Kanals $n$ liegt bei 890 MHz + $n$ · 0.2 MHz ( $n$ = 1, ... , 124 ). Am oberen und unteren Ende des 25 MHz–Bandes gibt es Schutzbereiche von je 100 kHz.&lt;br /&gt;
*Der Kanal $n$ im Downlink liegt um den Duplexabstand von 45 MHz über dem Kanal $n$ im Uplink bei 935 MHz + $n$ · 0.2 MHz. Die Kanäle werden ebenso bezeichnet wie in der Aufwärtsstrecke.&lt;br /&gt;
*Jeder Zelle wird eine Teilmenge dieser Frequenzen per '''Cell Allocation''' (CA) zugewiesen. Mobilstationen in benachbarten Zellen arbeiten meist bei unterschiedlichen Frequenzen.&lt;br /&gt;
*Eine Teilmenge der CA ist für die logischen Kanäle reserviert. Die verbleibenden Kanäle können einer Mobilstation zur '''Mobile Allocation''' (MA) zugewiesen werden.&lt;br /&gt;
*Diese wendet man zum Beispiel bei '''Frequenzsprungverfahren''' (''Frequency Hopping'') an, wobei die Daten über verschiedene Frequenzkanäle gesendet werden. Die Übertragung wird dadurch stabiler gegenüber Kanalschwankungen. Meist erfolgt der Frequenzwechsel paketweise.&lt;br /&gt;
*Die einzelnen GSM–Frequenzkanäle werden durch Zeitmultiplex (TDMA) noch weiter unterteilt. Jeder FDMA–Kanal wird periodisch in so genannte '''TDMA–Rahmen''' aufgeteilt, die ihrerseits jeweils acht Zeitschlitze (Time–Slots) umfassen.&lt;br /&gt;
*Die '''Zeitschlitze''' (TDMA–Kanäle) werden zyklisch den einzelnen Teilnehmern zugeordnet und beinhalten jeweils einen sog. Burst von 156.25 Bitperioden Länge. Jedem GSM-Nutzer steht in jedem TDMA–Rahmen genau einer der acht Zeitschlitze zur Verfügung.&lt;br /&gt;
*Die TDMA–Rahmen des Uplinks werden gegenüber denen des Downlinks mit drei Zeitschlitzen Verzögerung gesendet. Dies hat den Vorteil, dass die gleiche Hardware einer Mobilstation sowohl zum Senden als auch zum Empfangen einer Nachricht eingesetzt werden kann.&lt;br /&gt;
*Die Dauer eines Zeitschlitzes beträgt $T_{\rm Z}$ ≈ 577 µs, die eines TDMA–Rahmens 4.615 ms. Diese Werte ergeben sich aus der GSM–Rahmenstruktur. Insgesamt 26 TDMA–Rahmen werden zu einem so genannten Multiframe der Dauer 120 ms zusammengefasst:&lt;br /&gt;
 &lt;br /&gt;
Wir verweisen hier auch auf die Seite GSM–Rahmenstruktur und die Aufgabe A3.3.&lt;br /&gt;
	 	 &lt;br /&gt;
&lt;br /&gt;
==Die verschiedenen Arten von Bursts==  	&lt;br /&gt;
&lt;br /&gt;
Wie gerade gezeigt wurde, beinhaltet ein '''Burst''' jeweils 156.25 Bit und hat die Dauer $T_{\rm Z}$ ≈ 577 µs. Daraus berechnet sich die Bitdauer zu $T_{\rm B}$ ≈ 3.69 µs. Zur Vermeidung von Überlappungen von Bursts aufgrund unterschiedlicher Laufzeiten zwischen Mobil– und Basisstation ist am Ende eines jeden Bursts eine '''Guard Period''' (GP) eingefügt. Dieser Sicherheitsabstand beträgt meist 8.25 Bitdauern, also 8.25 · 3.69 µs ≈ 30.5 µs.&lt;br /&gt;
&lt;br /&gt;
Man unterscheidet fünf verschiedene Arten von Bursts, wie aus obigem Bild hervorgeht:&lt;br /&gt;
*Normal Burst,&lt;br /&gt;
*Frequency Correction Burst,&lt;br /&gt;
*Synchronization Burst,&lt;br /&gt;
*Dummy Burst,&lt;br /&gt;
*Access Burst.&lt;br /&gt;
&lt;br /&gt;
Der '''Normal Burst''' (NB) wird eingesetzt, um Daten von Verkehrs– und Signalisierungskanälen zu übertragen. Die fehlerschutzcodierten Nutzdaten (blau, zwei mal 57 Bits) ergeben zusammen mit je drei Tailbits (rot, in dieser Zeit wird die Sendeleistung geregelt), zwei Signalisierungsbits (grün) und 26 Bits für die Trainingssequenz (gelb, erforderlich für die Kanalschätzung und Synchronisation) insgesamt 148 Bit. Dazu kommt die Guard Period von 8.25 Bit (grau).&lt;br /&gt;
&lt;br /&gt;
Die zwei (grünen) Signalisierungsbits – auch ''Stealing Flags'' genannt – zeigen an, ob der Burst lediglich Nutzdaten oder hochpriorisierte Signalisierungsinformationen transportiert, die immer verzögerungsfrei zu übertragen sind. Mit Hilfe der ''Trainingssequenz'' kann der Kanal geschätzt werden, was eine Voraussetzung für die Anwendung eines Entzerrers zur Verminderung von Impulsinterferenzen ist.&lt;br /&gt;
&lt;br /&gt;
Die vier anderen Burstarten werden auf der nächsten Seite erklärt.&lt;br /&gt;
&lt;br /&gt;
Die vier weiteren Burstarten haben folgende Bedeutung:&lt;br /&gt;
*Der '''Frequency Correction Burst''' (FB) wird zur Frequenzsynchronisierung einer MS verwendet. Alle Bits außer den Tailbits und der Guard Period sind hier auf logisch 0 gesetzt. Die wiederholte Ausstrahlung eines solchen Bursts auf dem ''Frequency Correction Channel'' (FCCH) entspricht einem unmodulierten Trägersignal mit der Frequenz $f_{\rm T} + Δf_{\rm A}$ (Trägerfrequenz + Frequenzhub). Dieser Wert ergibt sich aus der Tatsache, dass das Modulationsverfahren Gaussian Minimum Shift Keying ein FSK–Sonderfall ist.&lt;br /&gt;
*Mit dem '''Synchronization Burst''' (SB) werden Informationen übertragen, mit deren Hilfe sich eine MS zeitlich mit der BTS synchronisiert. Neben einer langen Midambel von 64 Bit enthält der ''Synchronization Burst'' die TDMA–Rahmen–Nummer und den ''Base Transceiver Station Identity Code'' (BSIC). Bei wiederholter Ausstrahlung eines solchen Bursts spricht man vom ''Synchronization Channel'' (SCH).&lt;br /&gt;
*Der '''Dummy Burst''' (DB) wird von jeder ''Base Transceiver Station'' (BTS) auf einer speziell ihr zugeteilten Frequenz (''Cell Allocation'') ausgesandt, wenn keine anderen Bursts zu versenden sind. Damit ist sichergestellt, dass eine Mobilstation stets Leistungsmessungen durchführen kann.&lt;br /&gt;
*Der '''Access Burst''' (AB) wird für wahlfreien Vielfachzugriff auf dem ''Random Access Channel'' (RACH) eingesetzt. Um die Wahrscheinlichkeit von Kollisionen auf dem RACH gering zu halten, besitzt der ''Access Burst'' eine wesentliche längere ''Guard Period'' von 68.25 Bitdauern als die übrigen Bursts.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==GSM–Rahmenstruktur == &lt;br /&gt;
&lt;br /&gt;
Durch die GSM–Rahmenstruktur erfolgt die Abbildung der logischen Kanäle auf physikalische Kanäle. Hierbei wird unterschieden zwischen&lt;br /&gt;
*der '''Abbildung in der Frequenz''', basierend auf ''Cell Allocation'' (CA), ''Mobile Allocation'' (MA), die TDMA–Rahmennummer (FN) und den Vorschriften für das (optionale) ''Frequency Hopping'',&lt;br /&gt;
*der '''Abbildung in der Zeit''', wobei die TDMA–Rahmen mit jeweils acht Zeitschlitzen zur Übertragung der Bursts in Multiframes, Superframes und Hyperframes zusammengefasst werden.&lt;br /&gt;
&lt;br /&gt;
Entsprechend diesem Bild gelten folgende Aussagen:&lt;br /&gt;
*'''Multiframes''' werden für die Abbildung von logischen Kanälen auf physikalische Kanäle genutzt. Hierbei sind zwei Arten zu unterscheiden, solche mit 26 TDMA–Rahmen und einer Zyklusdauer von 120 ms und solche mit 51 TDMA–Rahmen und einer Dauer von 235.4 ms.&lt;br /&gt;
*Die Bursts der Verkehrskanäle (TCH) und der zugeordneten Steuerungskanäle (SACCH, FACCH) werden in jeweils 26 aufeinander folgenden TDMA-Rahmen übertragen. Dabei wird stets nur ein Zeitschlitz je TDMA-Rahmen für den jeweiligen Multiframe berücksichtigt.&lt;br /&gt;
*Von der Brutto–Datenrate pro Nutzer (≈ 33.9 kbit/s) sind 9.2 kbit/s für Synchronisierung, Signalisierung und ''Guard Period'' reserviert und 1.9 kbit/s für SACCH und IDLE. Die (codierten &amp;amp; verschlüsselten) Nutzdaten belegen bei Multiframe-Struktur mit 26 Rahmen nur 22.8 kbit/s.&lt;br /&gt;
*Die Multiframe-Struktur mit 51 Rahmen (rechte Bildhälfte) dient dazu, mehrere logische Kanäle auf einen physikalischen Kanal zu multiplexen. In 51 aufeinander folgenden TDMA–Rahmen werden jeweils alle Daten der Signalisierungskanäle (außer FACCH und SACCH) übertragen.&lt;br /&gt;
*Ein '''Superframe''' besteht aus 1326 aufeinander folgenden TDMA-Rahmen (51 Multiframes mit je 26 bzw. aus 26 Multiframes mit je 51 TDMA–Rahmen) und dauert ca. 6.12 Sekunden.&lt;br /&gt;
*Ein '''Hyperframe''' fasst jeweils 2048 Superframes (bzw. 2'715'648 TDMA–Rahmen) zusammen und wird mit seiner langen Zyklusdauer von 3 Stunden, 28 Minuten und 53.760 Sekunden zur Synchronisierung der Nutzdatenverschlüsselung verwendet.&lt;br /&gt;
	 	&lt;br /&gt;
 &lt;br /&gt;
==Modulation bei GSM–Systemen==  	&lt;br /&gt;
&lt;br /&gt;
Entsprechend den Aussagen der letzten Seite müssen in einem Frequenzkanal 156.25 Bit pro Zeitschlitz (0.5769 ms) übertragen werden. Dies entspricht einer Gesamtbitrate (für acht TDMA–Nutzer inkl. Kanalcodierung, Signalisierungs– und Synchronisationsinformation, etc.) von $R_{\rm ges}$ = 270 833 bit/s. Für diese Bitrate steht bei GSM eine Bandbreite von $B$ = 200 kHz zur Verfügung. Man benötigt deshalb ein Modulationsverfahren mit einer Bandbreiteneffizienz von mindestens $β$ = $R_{\rm ges}/B$ = 1.35.&lt;br /&gt;
&lt;br /&gt;
Beim GSM–Mobilfunk findet das Modulationsverfahren '''Gaussian Minimum Shift Keying''' (GMSK) Anwendung. Dieses wurde schon im Kapitel 4.4 des Buches [[Modulationsverfahren]] ausführlich behandelt. Hier folgt eine kurze, stichpunktartige Beschreibung:&lt;br /&gt;
*GMSK ist eine abgewandelte Form von '''Frequency Shift Keying''' (FSK). Diese ergibt sich, wenn man einen Frequenzmodulator (gemäß Kapitel 3.2 im Buch [[Modulationsverfahren]]) mit einem binären bipolaren rechteckförmigen Eingangssignal betreibt.&lt;br /&gt;
*Ein solches FSK-Signal $s(t)$ beinhaltet innerhalb einer jeden Symboldauer $T$ jeweils nur eine einzige Augenblicksfrequenz $f_A(t)$ = const. Ist das (normierte) Eingangssignal gleich „+1”, so ist $f_A(t)$ gleich der Summe aus der Trägerfrequenz $f_T$ und dem Frequenzhub $Δf_A$. Entsprechend gilt für den Amplitudenwert „–1”:   $f_A(t) = f_T – Δf_A$.&lt;br /&gt;
*Um eine einfache Demodulation zu ermöglichen, sollten die beiden Signale mit den Frequenzen $f_T ± Δf$ innerhalb der Symboldauer $T$ orthogonal zueinander sein. Demzufolge muss gelten:&lt;br /&gt;
 &lt;br /&gt;
Daraus ergibt sich für den '''Frequenzhub''' die Anforderung:&lt;br /&gt;
 &lt;br /&gt;
*Da bei FSK–Systemen der '''Modulationsindex''' zu $h = 2 · Δf_A · T$ definiert ist, folgt $h = k/2$. Der kleinste Wert unter Einhaltung der Orthogonalitätsbedingungen ist somit $h_{\rm min}$ = 0.5.&lt;br /&gt;
*Ein FSK–System mit $h$ = 0.5 bzw. $Δf_A$ = $\frac{1}{4T}$ bezeichnet man als '''Minimum Shift Keying''' – kurz MSK. Dieses wird in allen GSM-Systemen eingesetzt, da ein größerer Modulationindex als $h$ = 0.5 eine deutlich größere Bandbreite beanspruchen würde.&lt;br /&gt;
*Ein sehr schmales Spektrum ergibt sich allerdings nur dann, wenn an den Symbolgrenzen Phasensprünge durch Phasenwertanpassung vermieden werden. MSK gehört somit zu den ''Continuous Phase Frequency Shift Keying''–Verfahren (CP–FSK, siehe nächste Seite).&lt;br /&gt;
*Vor dem Frequenzmodulator wird zusätzlich noch ein Tiefpass mit Gauß–Charakteristik eingefügt, wodurch die GSM–Bandbreite weiter verringert wird. Diese Modulationsart '''GMSK''' wird auf Seite 9 dieses Kapitels 3.2 im Detail beschrieben.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
==Kontinuierliche Phasenanpassung bei FSK  ==	 	&lt;br /&gt;
&lt;br /&gt;
Ausgehend vom Rechtecksignal $q(t)$ und der Trägerfrequenz $f_T = 4/T$ betrachten wir die FSK–Signale $s_A(t), ... , s_D(t)$ bei unterschiedlichem Frequenzhub $Δf_A$  ⇒  Modulationindex $h = 2 · Δf_A · T$.&lt;br /&gt;
&lt;br /&gt;
Zu den Signalverläufen ist Folgendes anzumerken:&lt;br /&gt;
*Das Signal $s_A(t)$ ergibt sich mit $Δf_A = 1/T$  ⇒  Modulationsindex $h = 2$. Man erkennt die höhere Frequenz $f_1 = 5/T$ (für $a_ν$ = +1) gegenüber der Frequenz $f_2 = 3/T$ (für $a_ν$ = –1).&lt;br /&gt;
*Mit $Δf_A = 0.5/T$ (Signal $s_{\rm B}(t)$, $h$ = 1) gilt $f_1 = 4.5/T$ und $f_2 = 3.5/T$. An jeder Symbolgrenze tritt ein Phasensprung um $π$ auf, wenn keine Phasenanpassung wie bei $s_{\rm C}(t)$ vorgenommen wird.&lt;br /&gt;
*Bei $s_{\rm C}(t)$ wird im Bereich 0 ... $T$ der Koeffizient $a_1$ = +1 durch $\cos(2π·f_1·t)$ repräsentiert, während der ebenfalls positive Koeffizient $a_2$ = +1 im Bereich $T$ ... $2T$ zum Signal $–\cos(2π·f_1·(t–T))$ führt. Durch diese Anpassung werden somit Phasensprünge vermieden.&lt;br /&gt;
*Das Signal $s_{\rm D}(t)$ beschreibt das MSK-Signal (Frequenzhub $Δf_A = 0.25/T$ ⇒ $h = 0.5$), ebenfalls mit Phasenanpassung. Hier sind bei jeder Symbolgrenze – je nach den vorherigen Symbolen – vier unterschiedliche Anfangsphasen möglich.&lt;br /&gt;
*Bei GSM (D–Netz) beträgt die Trägerfrequenz $f_T$ = 900 MHz und die Symboldauer $T$ ≈ 3.7 μs. Mit dem Modulationsindex $h$ = 0.5 ergibt sich daraus $Δf_A$ ≈ 68 kHz. Die beiden Frequenzen $f_1$ = 900.068 MHz und $f_2$ = 899.932 MHz liegen somit sehr eng beieinander.&lt;br /&gt;
&lt;br /&gt;
Wir verweisen auf das Modul Frequency Shift Keying &amp;amp; Continuous Phase Modulation.&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
== Minimum Shift Keying (MSK) == 	 &lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt das Modell zur Erzeugung einer MSK–Modulation und typische Signalverläufe.&lt;br /&gt;
&lt;br /&gt;
Man erkennt:&lt;br /&gt;
*am Punkt 1 das digitale Quellensignal, bestehend aus einer Folge von Diracimpulsen im Abstand T, gewichtet mit den Amplitudenkoeffizienten $a_ν$ ∈ {–1, +1}:&lt;br /&gt;
 &lt;br /&gt;
*am Punkt 2 das Rechtecksignal $q_{\rm R}(t)$ nach Faltung mit dem Rechteckimpuls $g(t)$ der Dauer $T$ und der Höhe $1/T$ (die Amplitude wurde aus Kompatibilitätsgründen zu späteren Seiten so gewählt):&lt;br /&gt;
 &lt;br /&gt;
*den Frequenzmodulator, der sich gemäß Kapitel 3.2 des Buches [[Modulationsverfahren]] als Integrator und nachgeschalteten Phasenmodulator realisieren lässt. Für das Signal am Punkt 3 gilt:&lt;br /&gt;
 &lt;br /&gt;
Die Phasenwerte bei der Symboldauer $T$ sind Vielfache von $π/2$ (90°), wobei der für MSK gültige Modulationsindex $h$ = 0.5 berücksichtigt ist. Der Phasenverlauf ist linear. Daraus ergibt sich am Punkt 4 des Blockschaltbildes das MSK–Signal zu&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
==Gaussian Minimum Shift Keying (GMSK)==  	 &lt;br /&gt;
&lt;br /&gt;
Ein Vorteil von MSK gegenüber anderen Modulationsarten ist der geringere Bandbreitenbedarf. Durch geringfügige Modifikationen hin zum '''Gaussian Minimum Shift Keying''' – abgekürzt GMSK– ergibt sich nochmals eine schmaleres Spektrum.&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus dem Blockschaltbild folgende Unterschiede zum MSK:&lt;br /&gt;
*Der Frequenzimpuls g(t) ist nun nicht mehr rechteckförmig wie der Impuls $g_{\rm R}(t)$, sondern weist flachere Flanken auf. Demzufolge ergibt sich auch ein weicherer Phasenverlauf (Punkt 3) als beim MSK–Verfahren (siehe letzte Seite), bei dem $ϕ(t)$ symbolweise linear ansteigt bzw. abfällt.&lt;br /&gt;
*Man erreicht diese sanfteren Phasenübergänge bei GMSK durch ein '''Gaußtiefpassfilter''' mit dem Frequenzgang bzw. der Impulsantwort&lt;br /&gt;
 &lt;br /&gt;
*Bei GSM ist die 3dB–Grenzfrequenz zu $f_{\rm 3dB} = 0.3/T$ festgelegt. Wie in Aufgabe A3.4 gezeigt wird, gilt somit für die systemtheoretische Grenzfrequenz $f_{\rm G} ≈ 1.5 · f_{\rm 3dB} = 0.45/T$.&lt;br /&gt;
*Der resultierende Frequenzimpuls $g(t)$ am Punkt 2 des Blockschaltbildes ergibt sich aus der Faltung des Recheckimpulses $g_{\rm R}(t)$ mit der Impulsantwort $h_{\rm G}(t)$ des Gaußtiefpasses zu&lt;br /&gt;
 &lt;br /&gt;
*Das GMSK–modulierte Signal $s(t)$ weist nun nicht mehr abschnittsweise (je Symboldauer) eine konstante Frequenz auf. Diesen Unterschied zur MSK kann man allerdings aus dem Signalverlauf am Punkt 4 des Blockschaltbildes nur schwer erkennen.&lt;br /&gt;
&lt;br /&gt;
Wir verweisen auf das Modul Frequency Shift Keying &amp;amp; Continuous Phase Modulation.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==Vor– und Nachteile von GMSK  ==&lt;br /&gt;
&lt;br /&gt;
Das bei GSM angewendete Modulationsverfahren ''Gaussian Minimum Shift Keying'' (GMSK) wird im Kapitel 4 des Buches [[Modulationsverfahren]] im Detail beschrieben. Hier sollen nur die wichtigsten Merkmale zusammenfassend aufgeführt werden.&lt;br /&gt;
&lt;br /&gt;
Ein wesentlicher Vorteil von GMSK ist der sehr geringe Bandbreitenbedarf. Die linke Grafik zeigt das logarithmierte Leistungsdichtespektrum $10 · \text{lg} Φ_s(f)/Φ_0$ des Verfahrens Minimum Shift Keying (MSK) im Vergleich zu ''Quaternary Phase Shift Keying'' (QPSK), wobei $Φ_0$ „geeignet” gewählt wurde. Man erkennt aus dieser dem Buch &amp;lt;ref&amp;gt;Kammeyer, K.D.: ''Nachrichtenübertragung''. Stuttgart: B.G. Teubner, 4. Auflage, 2004.&amp;lt;/ref&amp;gt; entnommenen Darstellung:&lt;br /&gt;
*Auf der Abszisse ist die normierte Frequenz $f · T_{\rm B}$ aufgetragen. Bei MSK ist die Bitdauer $T_{\rm B}$ gleich der Symboldauer $T$, während bei QPSK $T_{\rm B} = T/2$ gilt. Im rechten Diagramm, das sich ausschließlich auf (G)MSK bezieht, könnte die Abszisse auch mit $f · T$ beschriftet werden.&lt;br /&gt;
*Betrachten wir zunächst die linke Grafik: Die erste Nullstelle im Leistungsdichtespektrum (LDS) tritt bei der QPSK (gestrichelte Kurve) beim normierten Abszissenwert 0.5 auf, bei der MSK dagegen erst bei $f · T_{\rm B}$ = 0.75.&lt;br /&gt;
*Im weiteren Verlauf ergibt sich jedoch bei MSK ein deutlich schnellerer LDS–Abfall als der asymptotische $f^{–2}$–Abfall bei QPSK. Zu beachten ist, dass für die MSK ein Cosinusimpuls zur Spektralformung zugrunde liegt und für die QPSK ein Rechteckimpuls.&lt;br /&gt;
&lt;br /&gt;
Die rechte Darstellung zeigt den Einfluss der gaußförmigen Impulsformung bei GMSK auf das Leistungsdichtespektrum $Φ_s(f)$, wobei als Parameter die normierte 3dB–Grenzfrequenz verwendet wird.&lt;br /&gt;
*Je kleiner $f_{\rm 3dB}$ ist, desto schmalbandiger ist das LDS. Allerdings ist zu berücksichtigen, dass es damit auch zu beträchtlichen Impulsinterferenzen kommt.&lt;br /&gt;
*Im GSM–Standard wurde $f_{\rm 3dB} · T$ = 0.3 festgelegt. Mit diesem Wert wird die Bandbreite bereits entscheidend reduziert, was zu geringeren '''Nachbarkanalinterferenzen''' führt.&lt;br /&gt;
*Andererseits wirken sich mit dieser Grenzfrequenz die Impulsinterferenzen schon gravierend aus. Die Augenöffnung ist kleiner als 50% und es ist eine geeignete Entzerrung vorzusehen.&lt;br /&gt;
&lt;br /&gt;
Des Weiteren ist zu vermerken:&lt;br /&gt;
*Die binäre FSK stellt – auch bei kontinuierlicher Phasenanpassung – allgemein ein nichtlineares Modulationsverfahren dar. Deshalb ist eine kohärente Demodulation eigentlich nicht möglich.&lt;br /&gt;
*Eine Ausnahme bildet die MSK als Sonderfall für den Modulationsindex $h$ = 0.5, die sich als Offset–QPSK linear realisieren lässt und somit auch kohärent demoduliert werden kann.&lt;br /&gt;
*Ohne Berücksichtigung der Impulsinterferenzen beträgt die '''Bitfehlerwahrscheinlichkeit'''&lt;br /&gt;
 &lt;br /&gt;
wie im Kapitel 1.5 des Buches [[Digitalsignalübertragung]] abgeleitet wird. Dort finden Sie auch die Definitionen der hier verwendeten Funktionen Q(.) bzw. erfc(.). Gegenüber der QPSK ergibt sich eine Degradation um 3 dB.&lt;br /&gt;
*Ein Vorteil der GMSK gegenüber der QPSK ist, dass sich trotz der spektralen Formung des Grundimpulses eine konstante Hüllkurve ergibt. Nichtlinearitäten auf dem Kanal spielen deshalb nicht eine so große Rolle als bei anderen Modulationsverfahren.&lt;br /&gt;
*Dies ermöglicht den Einsatz einfacher und kostengünstiger Leistungsverstärker, einen geringeren Leistungsverbrauch und damit auch längere Betriebsdauern akkubetriebener Geräte.&lt;br /&gt;
&lt;br /&gt;
Die Realisierung von MSK durch eine spezielle Variante von Offset–QPSK wird durch das folgende Interaktionsmodul verdeutlicht:&lt;br /&gt;
QPSK und Offset–QPSK&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
==Radio Subsystem Link Control==  &lt;br /&gt;
&lt;br /&gt;
Eine weitere Funktion der Funkschnittstelle ist die Steuerung der Funkverbindung. So übernimmt das so genannte ''Radio Subsystem Link Control'' folgende Aufgaben:&lt;br /&gt;
Es ist für die Messung der Empfangsqualität zuständig. Während einer aufgebauten Verkehrs– oder Signalisierungsverbindung erfolgt in regelmäßigen Abständen die Kanalvermessung der Mobilstation hinsichtlich Empfangsfeldstärke und Bitfehlerrate  ⇒  '''Quality Monitoring'''. Diese Werte werden in einem Messreport zur Basisstation über den Signalisierungskanal SACCH übertragen und von dieser für die Leistungsregelung und das Handover verwendet.&lt;br /&gt;
Die '''Power Control''' (deutsch: Leistungsregelung) ist erforderlich, damit alle Mobilstationen nur mit der minimal erforderlichen Energie abstrahlen. Die Sendeleistung kann adaptiv in Schritten von 2 dBm zwischen 43 dBm (Stufe 0: 20 W) und 13 dBm (Stufe 15: 20 mW) geregelt werden.&lt;br /&gt;
Auch die Sendeleistung der Basisstationen wird in Schritten von 2 dBm geregelt, um optimale Netzkapazität zu erzielen. Eine Ausnahme bildet der BCCH–Träger mit konstanter Sendeleistung, um den Mobilstationen eine vergleichende Messung benachbarter BCCH–Träger zu ermöglichen.&lt;br /&gt;
&lt;br /&gt;
Das '''Adaptive Frame Alignment''' – also die adaptive Rahmensynchronisation – dient dazu, Kollisionen zwischen Uplink– und Downlinkdaten zu vermeiden, die von der Mobilstation um drei Zeitschlitze versetzt gesendet bzw. empfangen werden sollen. Dies zeigt nebenstehende Grafik.&lt;br /&gt;
&lt;br /&gt;
Im mittleren, gelb hinterlegten Bereich ist der Downlink dargestellt, wobei die Daten um die Zeit $T_{\rm R}$ (''Round Trip Delay Time'') später bei der MS ankommen, als sie von der ''Base Transceiver Station'' (BTS) gesendet wurden (grüne Markierung).&lt;br /&gt;
&lt;br /&gt;
Im oberen Bereich ist der Uplink ohne ''Timing Advance'' dargestellt. Die MS beginnt genau 3 Zeitschlitze nach dem Empfang mit dem Senden (blaue Markierung). Aufgrund der Verzögerungen im Downlink und Uplink erreicht der Zeitschlitz 0 die BTS nicht wie gefordert zu der Zeit $3T_{\rm Z}$, sondern um $2T_{\rm Z}$ später (rote Markierung). Beim ''Timing Advance'' Uplink (untere Skizze) wird diese Verzögerung bereits von der MS kompensiert, indem die Daten um die Zeit $T_{\rm A} = 2T_{\rm R}$ früher versandt werden und diese somit genau zeitsynchron bei der BTS ankommen.&lt;br /&gt;
&lt;br /&gt;
Für das ''Timing Advance'' stehen 64 Stufen (0 – 63) zur Verfügung, wobei jede Stufe einer Bitdauer TB entspricht. Das maximale ''Timing Advance'' beträgt somit 63 · 3.7 µs ≈ 233 µs, so dass sich die maximale zulässige Laufzeit in einer Richtung zu $T_{\rm R}$ ≈ 116 µs ergibt. Dies entspricht einer Entfernung zwischen BTS und MS von 116 μs · 3 · 10&amp;lt;sup&amp;gt;8&amp;lt;/sup&amp;gt; m/s ≈ 35 km. Diesen Wert gibt GSM als den erlaubten Zellenradius an.&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
== Aufgaben zu Kapitel 3.2 == 	 &lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.3_GSM–Rahmenstruktur|Aufgabe 3.3: GSM–Rahmenstruktur]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.3Z_GSM_900_und_GSM_1800|Zusatzaufgabe 3.3Z: GSM 900 und GSM 1800]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.4_GMSK–Modulation|Aufgabe 3.4: GMSK–Modulation]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.4Z_Continuous_Phase_FSK|Zusatzaufgabe 3.4Z: Continuous Phase FSK]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Radio_Interface&amp;diff=22120</id>
		<title>Examples of Communication Systems/Radio Interface</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Radio_Interface&amp;diff=22120"/>
		<updated>2018-01-03T16:52:11Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=GSM – Global System for Mobile Communications&lt;br /&gt;
|Vorherige Seite=Allgemeine Beschreibung von GSM&lt;br /&gt;
|Nächste Seite=Sprachcodierung&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Logische Kanäle des GSM  ==	 &lt;br /&gt;
&lt;br /&gt;
Entscheidend für den ordnungsgemäßen Betrieb des GSM–Netzes und den Informationsaustausch zwischen Mobil– und Basisstation ist die '''Funkschnittstelle'''. Diese wird auch „Luftschnittstelle” oder „Physical Layer” genannt und definiert alle physikalischen Kanäle des GSM–Systems sowie deren Zuordnung zu den logischen Kanälen. Weiterhin ist die Funkschnittstelle für weitere Funktionalitäten wie zum Beispiel das ''Radio Subsystem Link Control'' zuständig.&lt;br /&gt;
&lt;br /&gt;
Beginnen wir mit den '''logischen Kanälen'''. Diese können einen ganzen physikalischen Kanal oder auch nur einen Teil eines physikalischen Kanals belegen und unterteilen sich in zwei Kategorien:&lt;br /&gt;
*'''Traffic Channels''' (deutsch: Verkehrskanäle) werden ausschließlich für die Übertragung von Benutzerdatenströmen wie Sprache, Fax und Daten genutzt. Diese Kanäle sind für beide Richtungen (MS ⇔ BSS) ausgelegt und können entweder durch einen Vollraten–Verkehrskanal (13 kbit/s) oder von zwei Halbratenkanälen (je 5.6 kbit/s) belegt werden.&lt;br /&gt;
*'''Control Channels''' (deutsch: Signalisierungskanäle) versorgen über die Funkschnittstelle alle aktiven Mobilstationen durch einen paketorientierten Signalisierungsdienst, um jederzeit Nachrichten von der BTS empfangen bzw. Nachrichten an die BTS senden zu können.&lt;br /&gt;
&lt;br /&gt;
Die Tabelle listet die logischen Kanäle des GSM auf. Diese unterscheiden sich von den logischen ISDN–Kanälen durch ein zusätzliches „m” für „mobile”. Beispielsweise ist der Bm–Kanal vergleichbar mit dem B–Kanal des ISDN.&lt;br /&gt;
	 &lt;br /&gt;
&lt;br /&gt;
==Uplink– und Downlink–Parameter ==	&lt;br /&gt;
&lt;br /&gt;
Die logischen Kanäle werden auf '''physikalische Kanäle''' abgebildet, die alle physikalischen Aspekte des Datentransportes beschreiben:&lt;br /&gt;
*die Frequenzbereiche für den '''Uplink''' (Funkstrecke von der Mobil– zur Basisstation) und den '''Downlink''' (Funkstrecke von der Basis– zur Mobilstation),&lt;br /&gt;
*die Aufteilung zwischen '''Time Division Multiple Access''' (TDMA) und '''Frequency Division Multiple Access''' (FDMA),&lt;br /&gt;
*die '''Burststruktur''', also die Belegung eines TDMA-Zeitschlitzes bei verschiedenen Anwendungen (Benutzer- und Signalisierungsdaten, Synchronisationsmarken, usw.), sowie&lt;br /&gt;
*das '''Modulationsverfahren''' ''Gaussian Minimum Shift Keying'' (GMSK), eine Variante von ''Continuous Phase – Frequency Shift Keying'' (CP–FSK) mit großer Bandbreiteneffizienz.&lt;br /&gt;
&lt;br /&gt;
Die nachfolgende Tabelle zeigt die Frequenzbereiche der standardisierten GSM–Systeme.&lt;br /&gt;
&lt;br /&gt;
Damit zwischen den beiden Richtungen keine Intermodulationsstörungen auftreten, liegt zwischen den Bändern für Uplink und Downlink ein Sicherheitsband, der sog. '''Duplexabstand'''.&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&lt;br /&gt;
Beim System GSM 900 (in Deutschland: D–Netz) beginnt der Uplink bei 890 MHz und der Downlink bei 935 MHz. Der Duplexabstand beträgt somit 45 MHz. Sowohl der Uplink als auch der Downlink besitzen eine Bandbreite von 25 MHz. Abzüglich der Guard–Bänder an den beiden Rändern von jeweils 100 kHz verbleiben 24.8 MHz, die in 124 FDMA-Kanäle zu je 200 kHz unterteilt sind.&lt;br /&gt;
Das DCS–Band (E–Netz) im Bereich um 1800 MHz hat einen Duplexabstand von 95 MHz und eine jeweilige Bandbreite von 75 MHz. Unter Berücksichtigung der Guard–Bänder ergeben sich hier 374 FDMA–Kanäle zu je 200 kHz.&lt;br /&gt;
&lt;br /&gt;
{{end}}&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
== Realisierung von FDMA und TDMA==  &lt;br /&gt;
&lt;br /&gt;
Beim GSM–System werden zwei Vielfachzugriffsverfahren parallel verwendet:&lt;br /&gt;
*Frequenzmultiplex (''Frequency Division Multiple Access'', FDMA) und&lt;br /&gt;
*Zeitmultiplex (''Time Division Multiple Access'', TDMA).&lt;br /&gt;
&lt;br /&gt;
Die Grafik und die nachfolgende Beschreibung gilt für das System GSM 900, in Deutschland bekannt als D–Netz. Bei den anderen GSM–Systemen gelten vergleichbare Aussagen.&lt;br /&gt;
&lt;br /&gt;
*Sowohl im Uplink als auch im Downlink geschieht die Übertragung der Signalisierungs– und Verkehrsdaten parallel in 124 Frequenzkanälen, bezeichnet mit RFCH1 bis RFCH124.&lt;br /&gt;
*Die Mittenfrequenz des Uplink–Kanals $n$ liegt bei 890 MHz + $n$ · 0.2 MHz ( $n$ = 1, ... , 124 ). Am oberen und unteren Ende des 25 MHz–Bandes gibt es Schutzbereiche von je 100 kHz.&lt;br /&gt;
*Der Kanal $n$ im Downlink liegt um den Duplexabstand von 45 MHz über dem Kanal $n$ im Uplink bei 935 MHz + $n$ · 0.2 MHz. Die Kanäle werden ebenso bezeichnet wie in der Aufwärtsstrecke.&lt;br /&gt;
*Jeder Zelle wird eine Teilmenge dieser Frequenzen per '''Cell Allocation''' (CA) zugewiesen. Mobilstationen in benachbarten Zellen arbeiten meist bei unterschiedlichen Frequenzen.&lt;br /&gt;
*Eine Teilmenge der CA ist für die logischen Kanäle reserviert. Die verbleibenden Kanäle können einer Mobilstation zur '''Mobile Allocation''' (MA) zugewiesen werden.&lt;br /&gt;
*Diese wendet man zum Beispiel bei '''Frequenzsprungverfahren''' (''Frequency Hopping'') an, wobei die Daten über verschiedene Frequenzkanäle gesendet werden. Die Übertragung wird dadurch stabiler gegenüber Kanalschwankungen. Meist erfolgt der Frequenzwechsel paketweise.&lt;br /&gt;
*Die einzelnen GSM–Frequenzkanäle werden durch Zeitmultiplex (TDMA) noch weiter unterteilt. Jeder FDMA–Kanal wird periodisch in so genannte '''TDMA–Rahmen''' aufgeteilt, die ihrerseits jeweils acht Zeitschlitze (Time–Slots) umfassen.&lt;br /&gt;
*Die '''Zeitschlitze''' (TDMA–Kanäle) werden zyklisch den einzelnen Teilnehmern zugeordnet und beinhalten jeweils einen sog. Burst von 156.25 Bitperioden Länge. Jedem GSM-Nutzer steht in jedem TDMA–Rahmen genau einer der acht Zeitschlitze zur Verfügung.&lt;br /&gt;
*Die TDMA–Rahmen des Uplinks werden gegenüber denen des Downlinks mit drei Zeitschlitzen Verzögerung gesendet. Dies hat den Vorteil, dass die gleiche Hardware einer Mobilstation sowohl zum Senden als auch zum Empfangen einer Nachricht eingesetzt werden kann.&lt;br /&gt;
*Die Dauer eines Zeitschlitzes beträgt $T_{\rm Z}$ ≈ 577 µs, die eines TDMA–Rahmens 4.615 ms. Diese Werte ergeben sich aus der GSM–Rahmenstruktur. Insgesamt 26 TDMA–Rahmen werden zu einem so genannten Multiframe der Dauer 120 ms zusammengefasst:&lt;br /&gt;
 &lt;br /&gt;
Wir verweisen hier auch auf die Seite GSM–Rahmenstruktur und die Aufgabe A3.3.&lt;br /&gt;
	 	 &lt;br /&gt;
&lt;br /&gt;
==Die verschiedenen Arten von Bursts==  	&lt;br /&gt;
&lt;br /&gt;
Wie gerade gezeigt wurde, beinhaltet ein '''Burst''' jeweils 156.25 Bit und hat die Dauer $T_{\rm Z}$ ≈ 577 µs. Daraus berechnet sich die Bitdauer zu $T_{\rm B}$ ≈ 3.69 µs. Zur Vermeidung von Überlappungen von Bursts aufgrund unterschiedlicher Laufzeiten zwischen Mobil– und Basisstation ist am Ende eines jeden Bursts eine '''Guard Period''' (GP) eingefügt. Dieser Sicherheitsabstand beträgt meist 8.25 Bitdauern, also 8.25 · 3.69 µs ≈ 30.5 µs.&lt;br /&gt;
&lt;br /&gt;
Man unterscheidet fünf verschiedene Arten von Bursts, wie aus obigem Bild hervorgeht:&lt;br /&gt;
*Normal Burst,&lt;br /&gt;
*Frequency Correction Burst,&lt;br /&gt;
*Synchronization Burst,&lt;br /&gt;
*Dummy Burst,&lt;br /&gt;
*Access Burst.&lt;br /&gt;
&lt;br /&gt;
Der '''Normal Burst''' (NB) wird eingesetzt, um Daten von Verkehrs– und Signalisierungskanälen zu übertragen. Die fehlerschutzcodierten Nutzdaten (blau, zwei mal 57 Bits) ergeben zusammen mit je drei Tailbits (rot, in dieser Zeit wird die Sendeleistung geregelt), zwei Signalisierungsbits (grün) und 26 Bits für die Trainingssequenz (gelb, erforderlich für die Kanalschätzung und Synchronisation) insgesamt 148 Bit. Dazu kommt die Guard Period von 8.25 Bit (grau).&lt;br /&gt;
&lt;br /&gt;
Die zwei (grünen) Signalisierungsbits – auch ''Stealing Flags'' genannt – zeigen an, ob der Burst lediglich Nutzdaten oder hochpriorisierte Signalisierungsinformationen transportiert, die immer verzögerungsfrei zu übertragen sind. Mit Hilfe der ''Trainingssequenz'' kann der Kanal geschätzt werden, was eine Voraussetzung für die Anwendung eines Entzerrers zur Verminderung von Impulsinterferenzen ist.&lt;br /&gt;
&lt;br /&gt;
Die vier anderen Burstarten werden auf der nächsten Seite erklärt.&lt;br /&gt;
&lt;br /&gt;
Die vier weiteren Burstarten haben folgende Bedeutung:&lt;br /&gt;
*Der '''Frequency Correction Burst''' (FB) wird zur Frequenzsynchronisierung einer MS verwendet. Alle Bits außer den Tailbits und der Guard Period sind hier auf logisch 0 gesetzt. Die wiederholte Ausstrahlung eines solchen Bursts auf dem ''Frequency Correction Channel'' (FCCH) entspricht einem unmodulierten Trägersignal mit der Frequenz $f_{\rm T} + Δf_{\rm A}$ (Trägerfrequenz + Frequenzhub). Dieser Wert ergibt sich aus der Tatsache, dass das Modulationsverfahren Gaussian Minimum Shift Keying ein FSK–Sonderfall ist.&lt;br /&gt;
*Mit dem '''Synchronization Burst''' (SB) werden Informationen übertragen, mit deren Hilfe sich eine MS zeitlich mit der BTS synchronisiert. Neben einer langen Midambel von 64 Bit enthält der ''Synchronization Burst'' die TDMA–Rahmen–Nummer und den ''Base Transceiver Station Identity Code'' (BSIC). Bei wiederholter Ausstrahlung eines solchen Bursts spricht man vom ''Synchronization Channel'' (SCH).&lt;br /&gt;
*Der '''Dummy Burst''' (DB) wird von jeder ''Base Transceiver Station'' (BTS) auf einer speziell ihr zugeteilten Frequenz (''Cell Allocation'') ausgesandt, wenn keine anderen Bursts zu versenden sind. Damit ist sichergestellt, dass eine Mobilstation stets Leistungsmessungen durchführen kann.&lt;br /&gt;
*Der '''Access Burst''' (AB) wird für wahlfreien Vielfachzugriff auf dem ''Random Access Channel'' (RACH) eingesetzt. Um die Wahrscheinlichkeit von Kollisionen auf dem RACH gering zu halten, besitzt der ''Access Burst'' eine wesentliche längere ''Guard Period'' von 68.25 Bitdauern als die übrigen Bursts.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==GSM–Rahmenstruktur == &lt;br /&gt;
&lt;br /&gt;
Durch die GSM–Rahmenstruktur erfolgt die Abbildung der logischen Kanäle auf physikalische Kanäle. Hierbei wird unterschieden zwischen&lt;br /&gt;
*der '''Abbildung in der Frequenz''', basierend auf ''Cell Allocation'' (CA), ''Mobile Allocation'' (MA), die TDMA–Rahmennummer (FN) und den Vorschriften für das (optionale) ''Frequency Hopping'',&lt;br /&gt;
*der '''Abbildung in der Zeit''', wobei die TDMA–Rahmen mit jeweils acht Zeitschlitzen zur Übertragung der Bursts in Multiframes, Superframes und Hyperframes zusammengefasst werden.&lt;br /&gt;
&lt;br /&gt;
Entsprechend diesem Bild gelten folgende Aussagen:&lt;br /&gt;
*'''Multiframes''' werden für die Abbildung von logischen Kanälen auf physikalische Kanäle genutzt. Hierbei sind zwei Arten zu unterscheiden, solche mit 26 TDMA–Rahmen und einer Zyklusdauer von 120 ms und solche mit 51 TDMA–Rahmen und einer Dauer von 235.4 ms.&lt;br /&gt;
*Die Bursts der Verkehrskanäle (TCH) und der zugeordneten Steuerungskanäle (SACCH, FACCH) werden in jeweils 26 aufeinander folgenden TDMA-Rahmen übertragen. Dabei wird stets nur ein Zeitschlitz je TDMA-Rahmen für den jeweiligen Multiframe berücksichtigt.&lt;br /&gt;
*Von der Brutto–Datenrate pro Nutzer (≈ 33.9 kbit/s) sind 9.2 kbit/s für Synchronisierung, Signalisierung und ''Guard Period'' reserviert und 1.9 kbit/s für SACCH und IDLE. Die (codierten &amp;amp; verschlüsselten) Nutzdaten belegen bei Multiframe-Struktur mit 26 Rahmen nur 22.8 kbit/s.&lt;br /&gt;
*Die Multiframe-Struktur mit 51 Rahmen (rechte Bildhälfte) dient dazu, mehrere logische Kanäle auf einen physikalischen Kanal zu multiplexen. In 51 aufeinander folgenden TDMA–Rahmen werden jeweils alle Daten der Signalisierungskanäle (außer FACCH und SACCH) übertragen.&lt;br /&gt;
*Ein '''Superframe''' besteht aus 1326 aufeinander folgenden TDMA-Rahmen (51 Multiframes mit je 26 bzw. aus 26 Multiframes mit je 51 TDMA–Rahmen) und dauert ca. 6.12 Sekunden.&lt;br /&gt;
*Ein '''Hyperframe''' fasst jeweils 2048 Superframes (bzw. 2'715'648 TDMA–Rahmen) zusammen und wird mit seiner langen Zyklusdauer von 3 Stunden, 28 Minuten und 53.760 Sekunden zur Synchronisierung der Nutzdatenverschlüsselung verwendet.&lt;br /&gt;
	 	&lt;br /&gt;
 &lt;br /&gt;
==Modulation bei GSM–Systemen==  	&lt;br /&gt;
&lt;br /&gt;
Entsprechend den Aussagen der letzten Seite müssen in einem Frequenzkanal 156.25 Bit pro Zeitschlitz (0.5769 ms) übertragen werden. Dies entspricht einer Gesamtbitrate (für acht TDMA–Nutzer inkl. Kanalcodierung, Signalisierungs– und Synchronisationsinformation, etc.) von $R_{\rm ges}$ = 270 833 bit/s. Für diese Bitrate steht bei GSM eine Bandbreite von $B$ = 200 kHz zur Verfügung. Man benötigt deshalb ein Modulationsverfahren mit einer Bandbreiteneffizienz von mindestens $β$ = $R_{\rm ges}/B$ = 1.35.&lt;br /&gt;
&lt;br /&gt;
Beim GSM–Mobilfunk findet das Modulationsverfahren '''Gaussian Minimum Shift Keying''' (GMSK) Anwendung. Dieses wurde schon im Kapitel 4.4 des Buches [[Modulationsverfahren]] ausführlich behandelt. Hier folgt eine kurze, stichpunktartige Beschreibung:&lt;br /&gt;
*GMSK ist eine abgewandelte Form von '''Frequency Shift Keying''' (FSK). Diese ergibt sich, wenn man einen Frequenzmodulator (gemäß Kapitel 3.2 im Buch [[Modulationsverfahren]]) mit einem binären bipolaren rechteckförmigen Eingangssignal betreibt.&lt;br /&gt;
*Ein solches FSK-Signal $s(t)$ beinhaltet innerhalb einer jeden Symboldauer $T$ jeweils nur eine einzige Augenblicksfrequenz $f_A(t)$ = const. Ist das (normierte) Eingangssignal gleich „+1”, so ist $f_A(t)$ gleich der Summe aus der Trägerfrequenz $f_T$ und dem Frequenzhub $Δf_A$. Entsprechend gilt für den Amplitudenwert „–1”:   $f_A(t) = f_T – Δf_A$.&lt;br /&gt;
*Um eine einfache Demodulation zu ermöglichen, sollten die beiden Signale mit den Frequenzen $f_T ± Δf$ innerhalb der Symboldauer $T$ orthogonal zueinander sein. Demzufolge muss gelten:&lt;br /&gt;
 &lt;br /&gt;
Daraus ergibt sich für den '''Frequenzhub''' die Anforderung:&lt;br /&gt;
 &lt;br /&gt;
*Da bei FSK–Systemen der '''Modulationsindex''' zu $h = 2 · Δf_A · T$ definiert ist, folgt $h = k/2$. Der kleinste Wert unter Einhaltung der Orthogonalitätsbedingungen ist somit $h_{\rm min}$ = 0.5.&lt;br /&gt;
*Ein FSK–System mit $h$ = 0.5 bzw. $Δf_A$ = $\frac{1}{4T}$ bezeichnet man als '''Minimum Shift Keying''' – kurz MSK. Dieses wird in allen GSM-Systemen eingesetzt, da ein größerer Modulationindex als $h$ = 0.5 eine deutlich größere Bandbreite beanspruchen würde.&lt;br /&gt;
*Ein sehr schmales Spektrum ergibt sich allerdings nur dann, wenn an den Symbolgrenzen Phasensprünge durch Phasenwertanpassung vermieden werden. MSK gehört somit zu den ''Continuous Phase Frequency Shift Keying''–Verfahren (CP–FSK, siehe nächste Seite).&lt;br /&gt;
*Vor dem Frequenzmodulator wird zusätzlich noch ein Tiefpass mit Gauß–Charakteristik eingefügt, wodurch die GSM–Bandbreite weiter verringert wird. Diese Modulationsart '''GMSK''' wird auf Seite 9 dieses Kapitels 3.2 im Detail beschrieben.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
==Kontinuierliche Phasenanpassung bei FSK  ==	 	&lt;br /&gt;
&lt;br /&gt;
Ausgehend vom Rechtecksignal $q(t)$ und der Trägerfrequenz $f_T = 4/T$ betrachten wir die FSK–Signale $s_A(t), ... , s_D(t)$ bei unterschiedlichem Frequenzhub $Δf_A$  ⇒  Modulationindex $h = 2 · Δf_A · T$.&lt;br /&gt;
&lt;br /&gt;
Zu den Signalverläufen ist Folgendes anzumerken:&lt;br /&gt;
*Das Signal $s_A(t)$ ergibt sich mit $Δf_A = 1/T$  ⇒  Modulationsindex $h = 2$. Man erkennt die höhere Frequenz $f_1 = 5/T$ (für $a_ν$ = +1) gegenüber der Frequenz $f_2 = 3/T$ (für $a_ν$ = –1).&lt;br /&gt;
*Mit $Δf_A = 0.5/T$ (Signal $s_{\rm B}(t)$, $h$ = 1) gilt $f_1 = 4.5/T$ und $f_2 = 3.5/T$. An jeder Symbolgrenze tritt ein Phasensprung um $π$ auf, wenn keine Phasenanpassung wie bei $s_{\rm C}(t)$ vorgenommen wird.&lt;br /&gt;
*Bei $s_{\rm C}(t)$ wird im Bereich 0 ... $T$ der Koeffizient $a_1$ = +1 durch $\cos(2π·f_1·t)$ repräsentiert, während der ebenfalls positive Koeffizient $a_2$ = +1 im Bereich $T$ ... $2T$ zum Signal $–\cos(2π·f_1·(t–T))$ führt. Durch diese Anpassung werden somit Phasensprünge vermieden.&lt;br /&gt;
*Das Signal $s_{\rm D}(t)$ beschreibt das MSK-Signal (Frequenzhub $Δf_A = 0.25/T$ ⇒ $h = 0.5$), ebenfalls mit Phasenanpassung. Hier sind bei jeder Symbolgrenze – je nach den vorherigen Symbolen – vier unterschiedliche Anfangsphasen möglich.&lt;br /&gt;
*Bei GSM (D–Netz) beträgt die Trägerfrequenz $f_T$ = 900 MHz und die Symboldauer $T$ ≈ 3.7 μs. Mit dem Modulationsindex $h$ = 0.5 ergibt sich daraus $Δf_A$ ≈ 68 kHz. Die beiden Frequenzen $f_1$ = 900.068 MHz und $f_2$ = 899.932 MHz liegen somit sehr eng beieinander.&lt;br /&gt;
&lt;br /&gt;
Wir verweisen auf das Modul Frequency Shift Keying &amp;amp; Continuous Phase Modulation.&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
== Minimum Shift Keying (MSK) == 	 &lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt das Modell zur Erzeugung einer MSK–Modulation und typische Signalverläufe.&lt;br /&gt;
&lt;br /&gt;
Man erkennt:&lt;br /&gt;
*am Punkt 1 das digitale Quellensignal, bestehend aus einer Folge von Diracimpulsen im Abstand T, gewichtet mit den Amplitudenkoeffizienten $a_ν$ ∈ {–1, +1}:&lt;br /&gt;
 &lt;br /&gt;
*am Punkt 2 das Rechtecksignal $q_{\rm R}(t)$ nach Faltung mit dem Rechteckimpuls $g(t)$ der Dauer $T$ und der Höhe $1/T$ (die Amplitude wurde aus Kompatibilitätsgründen zu späteren Seiten so gewählt):&lt;br /&gt;
 &lt;br /&gt;
*den Frequenzmodulator, der sich gemäß Kapitel 3.2 des Buches [[Modulationsverfahren]] als Integrator und nachgeschalteten Phasenmodulator realisieren lässt. Für das Signal am Punkt 3 gilt:&lt;br /&gt;
 &lt;br /&gt;
Die Phasenwerte bei der Symboldauer $T$ sind Vielfache von $π/2$ (90°), wobei der für MSK gültige Modulationsindex $h$ = 0.5 berücksichtigt ist. Der Phasenverlauf ist linear. Daraus ergibt sich am Punkt 4 des Blockschaltbildes das MSK–Signal zu&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
==Gaussian Minimum Shift Keying (GMSK)==  	 &lt;br /&gt;
&lt;br /&gt;
Ein Vorteil von MSK gegenüber anderen Modulationsarten ist der geringere Bandbreitenbedarf. Durch geringfügige Modifikationen hin zum '''Gaussian Minimum Shift Keying''' – abgekürzt GMSK– ergibt sich nochmals eine schmaleres Spektrum.&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus dem Blockschaltbild folgende Unterschiede zum MSK:&lt;br /&gt;
*Der Frequenzimpuls g(t) ist nun nicht mehr rechteckförmig wie der Impuls $g_{\rm R}(t)$, sondern weist flachere Flanken auf. Demzufolge ergibt sich auch ein weicherer Phasenverlauf (Punkt 3) als beim MSK–Verfahren (siehe letzte Seite), bei dem $ϕ(t)$ symbolweise linear ansteigt bzw. abfällt.&lt;br /&gt;
*Man erreicht diese sanfteren Phasenübergänge bei GMSK durch ein '''Gaußtiefpassfilter''' mit dem Frequenzgang bzw. der Impulsantwort&lt;br /&gt;
 &lt;br /&gt;
*Bei GSM ist die 3dB–Grenzfrequenz zu $f_{\rm 3dB} = 0.3/T$ festgelegt. Wie in Aufgabe A3.4 gezeigt wird, gilt somit für die systemtheoretische Grenzfrequenz $f_{\rm G} ≈ 1.5 · f_{\rm 3dB} = 0.45/T$.&lt;br /&gt;
*Der resultierende Frequenzimpuls $g(t)$ am Punkt 2 des Blockschaltbildes ergibt sich aus der Faltung des Recheckimpulses $g_{\rm R}(t)$ mit der Impulsantwort $h_{\rm G}(t)$ des Gaußtiefpasses zu&lt;br /&gt;
 &lt;br /&gt;
*Das GMSK–modulierte Signal $s(t)$ weist nun nicht mehr abschnittsweise (je Symboldauer) eine konstante Frequenz auf. Diesen Unterschied zur MSK kann man allerdings aus dem Signalverlauf am Punkt 4 des Blockschaltbildes nur schwer erkennen.&lt;br /&gt;
&lt;br /&gt;
Wir verweisen auf das Modul Frequency Shift Keying &amp;amp; Continuous Phase Modulation.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==Vor– und Nachteile von GMSK  ==&lt;br /&gt;
&lt;br /&gt;
Das bei GSM angewendete Modulationsverfahren ''Gaussian Minimum Shift Keying'' (GMSK) wird im Kapitel 4 des Buches [[Modulationsverfahren]] im Detail beschrieben. Hier sollen nur die wichtigsten Merkmale zusammenfassend aufgeführt werden.&lt;br /&gt;
&lt;br /&gt;
Ein wesentlicher Vorteil von GMSK ist der sehr geringe Bandbreitenbedarf. Die linke Grafik zeigt das logarithmierte Leistungsdichtespektrum $10 · \text{lg} Φ_s(f)/Φ_0$ des Verfahrens Minimum Shift Keying (MSK) im Vergleich zu ''Quaternary Phase Shift Keying'' (QPSK), wobei $Φ_0$ „geeignet” gewählt wurde. Man erkennt aus dieser dem Buch &amp;lt;ref&amp;gt;Kammeyer, K.D.: ''Nachrichtenübertragung''. Stuttgart: B.G. Teubner, 4. Auflage, 2004.&amp;lt;/ref&amp;gt; entnommenen Darstellung:&lt;br /&gt;
*Auf der Abszisse ist die normierte Frequenz $f · T_{\rm B}$ aufgetragen. Bei MSK ist die Bitdauer $T_{\rm B}$ gleich der Symboldauer $T$, während bei QPSK $T_{\rm B} = T/2$ gilt. Im rechten Diagramm, das sich ausschließlich auf (G)MSK bezieht, könnte die Abszisse auch mit $f · T$ beschriftet werden.&lt;br /&gt;
*Betrachten wir zunächst die linke Grafik: Die erste Nullstelle im Leistungsdichtespektrum (LDS) tritt bei der QPSK (gestrichelte Kurve) beim normierten Abszissenwert 0.5 auf, bei der MSK dagegen erst bei $f · T_{\rm B}$ = 0.75.&lt;br /&gt;
*Im weiteren Verlauf ergibt sich jedoch bei MSK ein deutlich schnellerer LDS–Abfall als der asymptotische $f^{–2}$–Abfall bei QPSK. Zu beachten ist, dass für die MSK ein Cosinusimpuls zur Spektralformung zugrunde liegt und für die QPSK ein Rechteckimpuls.&lt;br /&gt;
&lt;br /&gt;
Die rechte Darstellung zeigt den Einfluss der gaußförmigen Impulsformung bei GMSK auf das Leistungsdichtespektrum $Φ_s(f)$, wobei als Parameter die normierte 3dB–Grenzfrequenz verwendet wird.&lt;br /&gt;
*Je kleiner $f_{\rm 3dB}$ ist, desto schmalbandiger ist das LDS. Allerdings ist zu berücksichtigen, dass es damit auch zu beträchtlichen Impulsinterferenzen kommt.&lt;br /&gt;
*Im GSM–Standard wurde $f_{\rm 3dB} · T$ = 0.3 festgelegt. Mit diesem Wert wird die Bandbreite bereits entscheidend reduziert, was zu geringeren '''Nachbarkanalinterferenzen''' führt.&lt;br /&gt;
*Andererseits wirken sich mit dieser Grenzfrequenz die Impulsinterferenzen schon gravierend aus. Die Augenöffnung ist kleiner als 50% und es ist eine geeignete Entzerrung vorzusehen.&lt;br /&gt;
&lt;br /&gt;
Des Weiteren ist zu vermerken:&lt;br /&gt;
*Die binäre FSK stellt – auch bei kontinuierlicher Phasenanpassung – allgemein ein nichtlineares Modulationsverfahren dar. Deshalb ist eine kohärente Demodulation eigentlich nicht möglich.&lt;br /&gt;
*Eine Ausnahme bildet die MSK als Sonderfall für den Modulationsindex $h$ = 0.5, die sich als Offset–QPSK linear realisieren lässt und somit auch kohärent demoduliert werden kann.&lt;br /&gt;
*Ohne Berücksichtigung der Impulsinterferenzen beträgt die '''Bitfehlerwahrscheinlichkeit'''&lt;br /&gt;
 &lt;br /&gt;
wie im Kapitel 1.5 des Buches [[Digitalsignalübertragung]] abgeleitet wird. Dort finden Sie auch die Definitionen der hier verwendeten Funktionen Q(.) bzw. erfc(.). Gegenüber der QPSK ergibt sich eine Degradation um 3 dB.&lt;br /&gt;
*Ein Vorteil der GMSK gegenüber der QPSK ist, dass sich trotz der spektralen Formung des Grundimpulses eine konstante Hüllkurve ergibt. Nichtlinearitäten auf dem Kanal spielen deshalb nicht eine so große Rolle als bei anderen Modulationsverfahren.&lt;br /&gt;
*Dies ermöglicht den Einsatz einfacher und kostengünstiger Leistungsverstärker, einen geringeren Leistungsverbrauch und damit auch längere Betriebsdauern akkubetriebener Geräte.&lt;br /&gt;
&lt;br /&gt;
Die Realisierung von MSK durch eine spezielle Variante von Offset–QPSK wird durch das folgende Interaktionsmodul verdeutlicht:&lt;br /&gt;
QPSK und Offset–QPSK&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
==Radio Subsystem Link Control==  &lt;br /&gt;
&lt;br /&gt;
Eine weitere Funktion der Funkschnittstelle ist die Steuerung der Funkverbindung. So übernimmt das so genannte ''Radio Subsystem Link Control'' folgende Aufgaben:&lt;br /&gt;
Es ist für die Messung der Empfangsqualität zuständig. Während einer aufgebauten Verkehrs– oder Signalisierungsverbindung erfolgt in regelmäßigen Abständen die Kanalvermessung der Mobilstation hinsichtlich Empfangsfeldstärke und Bitfehlerrate  ⇒  '''Quality Monitoring'''. Diese Werte werden in einem Messreport zur Basisstation über den Signalisierungskanal SACCH übertragen und von dieser für die Leistungsregelung und das Handover verwendet.&lt;br /&gt;
Die '''Power Control''' (deutsch: Leistungsregelung) ist erforderlich, damit alle Mobilstationen nur mit der minimal erforderlichen Energie abstrahlen. Die Sendeleistung kann adaptiv in Schritten von 2 dBm zwischen 43 dBm (Stufe 0: 20 W) und 13 dBm (Stufe 15: 20 mW) geregelt werden.&lt;br /&gt;
Auch die Sendeleistung der Basisstationen wird in Schritten von 2 dBm geregelt, um optimale Netzkapazität zu erzielen. Eine Ausnahme bildet der BCCH–Träger mit konstanter Sendeleistung, um den Mobilstationen eine vergleichende Messung benachbarter BCCH–Träger zu ermöglichen.&lt;br /&gt;
&lt;br /&gt;
Das '''Adaptive Frame Alignment''' – also die adaptive Rahmensynchronisation – dient dazu, Kollisionen zwischen Uplink– und Downlinkdaten zu vermeiden, die von der Mobilstation um drei Zeitschlitze versetzt gesendet bzw. empfangen werden sollen. Dies zeigt nebenstehende Grafik.&lt;br /&gt;
&lt;br /&gt;
Im mittleren, gelb hinterlegten Bereich ist der Downlink dargestellt, wobei die Daten um die Zeit $T_{\rm R}$ (''Round Trip Delay Time'') später bei der MS ankommen, als sie von der ''Base Transceiver Station'' (BTS) gesendet wurden (grüne Markierung).&lt;br /&gt;
&lt;br /&gt;
Im oberen Bereich ist der Uplink ohne ''Timing Advance'' dargestellt. Die MS beginnt genau 3 Zeitschlitze nach dem Empfang mit dem Senden (blaue Markierung). Aufgrund der Verzögerungen im Downlink und Uplink erreicht der Zeitschlitz 0 die BTS nicht wie gefordert zu der Zeit $3T_{\rm Z}$, sondern um $2T_{\rm Z}$ später (rote Markierung). Beim ''Timing Advance'' Uplink (untere Skizze) wird diese Verzögerung bereits von der MS kompensiert, indem die Daten um die Zeit $T_{\rm A} = 2T_{\rm R}$ früher versandt werden und diese somit genau zeitsynchron bei der BTS ankommen.&lt;br /&gt;
&lt;br /&gt;
Für das ''Timing Advance'' stehen 64 Stufen (0 – 63) zur Verfügung, wobei jede Stufe einer Bitdauer TB entspricht. Das maximale ''Timing Advance'' beträgt somit 63 · 3.7 µs ≈ 233 µs, so dass sich die maximale zulässige Laufzeit in einer Richtung zu $T_{\rm R}$ ≈ 116 µs ergibt. Dies entspricht einer Entfernung zwischen BTS und MS von 116 μs · 3 · 10&amp;lt;sup&amp;gt;8&amp;lt;/sup&amp;gt; m/s ≈ 35 km. Diesen Wert gibt GSM als den erlaubten Zellenradius an.&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
== Aufgaben zu Kapitel 3.2 == 	 &lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.3_GSM–Rahmenstruktur|Aufgaben 3.3: GSM–Rahmenstruktur]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.3Z_GSM_900_und_GSM_1800|Zusatzaufgaben 3.3Z: GSM 900 und GSM 1800]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.4_GMSK–Modulation|Aufgaben 3.4: GMSK–Modulation]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.4Z_Continuous_Phase_FSK|Zusatzaufgaben 3.4Z: Continuous Phase FSK]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Radio_Interface&amp;diff=21295</id>
		<title>Examples of Communication Systems/Radio Interface</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Radio_Interface&amp;diff=21295"/>
		<updated>2018-01-02T19:43:51Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=GSM – Global System for Mobile Communications&lt;br /&gt;
|Vorherige Seite=Allgemeine Beschreibung von GSM&lt;br /&gt;
|Nächste Seite=Sprachcodierung&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Logische Kanäle des GSM  ==	 &lt;br /&gt;
&lt;br /&gt;
Entscheidend für den ordnungsgemäßen Betrieb des GSM–Netzes und den Informationsaustausch zwischen Mobil– und Basisstation ist die '''Funkschnittstelle'''. Diese wird auch „Luftschnittstelle” oder „Physical Layer” genannt und definiert alle physikalischen Kanäle des GSM–Systems sowie deren Zuordnung zu den logischen Kanälen. Weiterhin ist die Funkschnittstelle für weitere Funktionalitäten wie zum Beispiel das ''Radio Subsystem Link Control'' zuständig.&lt;br /&gt;
&lt;br /&gt;
Beginnen wir mit den '''logischen Kanälen'''. Diese können einen ganzen physikalischen Kanal oder auch nur einen Teil eines physikalischen Kanals belegen und unterteilen sich in zwei Kategorien:&lt;br /&gt;
*'''Traffic Channels''' (deutsch: Verkehrskanäle) werden ausschließlich für die Übertragung von Benutzerdatenströmen wie Sprache, Fax und Daten genutzt. Diese Kanäle sind für beide Richtungen (MS ⇔ BSS) ausgelegt und können entweder durch einen Vollraten–Verkehrskanal (13 kbit/s) oder von zwei Halbratenkanälen (je 5.6 kbit/s) belegt werden.&lt;br /&gt;
*'''Control Channels''' (deutsch: Signalisierungskanäle) versorgen über die Funkschnittstelle alle aktiven Mobilstationen durch einen paketorientierten Signalisierungsdienst, um jederzeit Nachrichten von der BTS empfangen bzw. Nachrichten an die BTS senden zu können.&lt;br /&gt;
&lt;br /&gt;
Die Tabelle listet die logischen Kanäle des GSM auf. Diese unterscheiden sich von den logischen ISDN–Kanälen durch ein zusätzliches „m” für „mobile”. Beispielsweise ist der Bm–Kanal vergleichbar mit dem B–Kanal des ISDN.&lt;br /&gt;
	 &lt;br /&gt;
&lt;br /&gt;
==Uplink– und Downlink–Parameter ==	&lt;br /&gt;
&lt;br /&gt;
Die logischen Kanäle werden auf '''physikalische Kanäle''' abgebildet, die alle physikalischen Aspekte des Datentransportes beschreiben:&lt;br /&gt;
*die Frequenzbereiche für den '''Uplink''' (Funkstrecke von der Mobil– zur Basisstation) und den '''Downlink''' (Funkstrecke von der Basis– zur Mobilstation),&lt;br /&gt;
*die Aufteilung zwischen '''Time Division Multiple Access''' (TDMA) und '''Frequency Division Multiple Access''' (FDMA),&lt;br /&gt;
*die '''Burststruktur''', also die Belegung eines TDMA-Zeitschlitzes bei verschiedenen Anwendungen (Benutzer- und Signalisierungsdaten, Synchronisationsmarken, usw.), sowie&lt;br /&gt;
*das '''Modulationsverfahren''' ''Gaussian Minimum Shift Keying'' (GMSK), eine Variante von ''Continuous Phase – Frequency Shift Keying'' (CP–FSK) mit großer Bandbreiteneffizienz.&lt;br /&gt;
&lt;br /&gt;
Die nachfolgende Tabelle zeigt die Frequenzbereiche der standardisierten GSM–Systeme.&lt;br /&gt;
&lt;br /&gt;
Damit zwischen den beiden Richtungen keine Intermodulationsstörungen auftreten, liegt zwischen den Bändern für Uplink und Downlink ein Sicherheitsband, der sog. '''Duplexabstand'''.&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&lt;br /&gt;
Beim System GSM 900 (in Deutschland: D–Netz) beginnt der Uplink bei 890 MHz und der Downlink bei 935 MHz. Der Duplexabstand beträgt somit 45 MHz. Sowohl der Uplink als auch der Downlink besitzen eine Bandbreite von 25 MHz. Abzüglich der Guard–Bänder an den beiden Rändern von jeweils 100 kHz verbleiben 24.8 MHz, die in 124 FDMA-Kanäle zu je 200 kHz unterteilt sind.&lt;br /&gt;
Das DCS–Band (E–Netz) im Bereich um 1800 MHz hat einen Duplexabstand von 95 MHz und eine jeweilige Bandbreite von 75 MHz. Unter Berücksichtigung der Guard–Bänder ergeben sich hier 374 FDMA–Kanäle zu je 200 kHz.&lt;br /&gt;
&lt;br /&gt;
{{end}}&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
== Realisierung von FDMA und TDMA==  &lt;br /&gt;
&lt;br /&gt;
Beim GSM–System werden zwei Vielfachzugriffsverfahren parallel verwendet:&lt;br /&gt;
*Frequenzmultiplex (''Frequency Division Multiple Access'', FDMA) und&lt;br /&gt;
*Zeitmultiplex (''Time Division Multiple Access'', TDMA).&lt;br /&gt;
&lt;br /&gt;
Die Grafik und die nachfolgende Beschreibung gilt für das System GSM 900, in Deutschland bekannt als D–Netz. Bei den anderen GSM–Systemen gelten vergleichbare Aussagen.&lt;br /&gt;
&lt;br /&gt;
*Sowohl im Uplink als auch im Downlink geschieht die Übertragung der Signalisierungs– und Verkehrsdaten parallel in 124 Frequenzkanälen, bezeichnet mit RFCH1 bis RFCH124.&lt;br /&gt;
*Die Mittenfrequenz des Uplink–Kanals $n$ liegt bei 890 MHz + $n$ · 0.2 MHz ( $n$ = 1, ... , 124 ). Am oberen und unteren Ende des 25 MHz–Bandes gibt es Schutzbereiche von je 100 kHz.&lt;br /&gt;
*Der Kanal $n$ im Downlink liegt um den Duplexabstand von 45 MHz über dem Kanal $n$ im Uplink bei 935 MHz + $n$ · 0.2 MHz. Die Kanäle werden ebenso bezeichnet wie in der Aufwärtsstrecke.&lt;br /&gt;
*Jeder Zelle wird eine Teilmenge dieser Frequenzen per '''Cell Allocation''' (CA) zugewiesen. Mobilstationen in benachbarten Zellen arbeiten meist bei unterschiedlichen Frequenzen.&lt;br /&gt;
*Eine Teilmenge der CA ist für die logischen Kanäle reserviert. Die verbleibenden Kanäle können einer Mobilstation zur '''Mobile Allocation''' (MA) zugewiesen werden.&lt;br /&gt;
*Diese wendet man zum Beispiel bei '''Frequenzsprungverfahren''' (''Frequency Hopping'') an, wobei die Daten über verschiedene Frequenzkanäle gesendet werden. Die Übertragung wird dadurch stabiler gegenüber Kanalschwankungen. Meist erfolgt der Frequenzwechsel paketweise.&lt;br /&gt;
*Die einzelnen GSM–Frequenzkanäle werden durch Zeitmultiplex (TDMA) noch weiter unterteilt. Jeder FDMA–Kanal wird periodisch in so genannte '''TDMA–Rahmen''' aufgeteilt, die ihrerseits jeweils acht Zeitschlitze (Time–Slots) umfassen.&lt;br /&gt;
*Die '''Zeitschlitze''' (TDMA–Kanäle) werden zyklisch den einzelnen Teilnehmern zugeordnet und beinhalten jeweils einen sog. Burst von 156.25 Bitperioden Länge. Jedem GSM-Nutzer steht in jedem TDMA–Rahmen genau einer der acht Zeitschlitze zur Verfügung.&lt;br /&gt;
*Die TDMA–Rahmen des Uplinks werden gegenüber denen des Downlinks mit drei Zeitschlitzen Verzögerung gesendet. Dies hat den Vorteil, dass die gleiche Hardware einer Mobilstation sowohl zum Senden als auch zum Empfangen einer Nachricht eingesetzt werden kann.&lt;br /&gt;
*Die Dauer eines Zeitschlitzes beträgt $T_{\rm Z}$ ≈ 577 µs, die eines TDMA–Rahmens 4.615 ms. Diese Werte ergeben sich aus der GSM–Rahmenstruktur. Insgesamt 26 TDMA–Rahmen werden zu einem so genannten Multiframe der Dauer 120 ms zusammengefasst:&lt;br /&gt;
 &lt;br /&gt;
Wir verweisen hier auch auf die Seite GSM–Rahmenstruktur und die Aufgabe A3.3.&lt;br /&gt;
	 	 &lt;br /&gt;
&lt;br /&gt;
==Die verschiedenen Arten von Bursts==  	&lt;br /&gt;
&lt;br /&gt;
Wie gerade gezeigt wurde, beinhaltet ein '''Burst''' jeweils 156.25 Bit und hat die Dauer $T_{\rm Z}$ ≈ 577 µs. Daraus berechnet sich die Bitdauer zu $T_{\rm B}$ ≈ 3.69 µs. Zur Vermeidung von Überlappungen von Bursts aufgrund unterschiedlicher Laufzeiten zwischen Mobil– und Basisstation ist am Ende eines jeden Bursts eine '''Guard Period''' (GP) eingefügt. Dieser Sicherheitsabstand beträgt meist 8.25 Bitdauern, also 8.25 · 3.69 µs ≈ 30.5 µs.&lt;br /&gt;
&lt;br /&gt;
Man unterscheidet fünf verschiedene Arten von Bursts, wie aus obigem Bild hervorgeht:&lt;br /&gt;
*Normal Burst,&lt;br /&gt;
*Frequency Correction Burst,&lt;br /&gt;
*Synchronization Burst,&lt;br /&gt;
*Dummy Burst,&lt;br /&gt;
*Access Burst.&lt;br /&gt;
&lt;br /&gt;
Der '''Normal Burst''' (NB) wird eingesetzt, um Daten von Verkehrs– und Signalisierungskanälen zu übertragen. Die fehlerschutzcodierten Nutzdaten (blau, zwei mal 57 Bits) ergeben zusammen mit je drei Tailbits (rot, in dieser Zeit wird die Sendeleistung geregelt), zwei Signalisierungsbits (grün) und 26 Bits für die Trainingssequenz (gelb, erforderlich für die Kanalschätzung und Synchronisation) insgesamt 148 Bit. Dazu kommt die Guard Period von 8.25 Bit (grau).&lt;br /&gt;
&lt;br /&gt;
Die zwei (grünen) Signalisierungsbits – auch ''Stealing Flags'' genannt – zeigen an, ob der Burst lediglich Nutzdaten oder hochpriorisierte Signalisierungsinformationen transportiert, die immer verzögerungsfrei zu übertragen sind. Mit Hilfe der ''Trainingssequenz'' kann der Kanal geschätzt werden, was eine Voraussetzung für die Anwendung eines Entzerrers zur Verminderung von Impulsinterferenzen ist.&lt;br /&gt;
&lt;br /&gt;
Die vier anderen Burstarten werden auf der nächsten Seite erklärt.&lt;br /&gt;
&lt;br /&gt;
Die vier weiteren Burstarten haben folgende Bedeutung:&lt;br /&gt;
*Der '''Frequency Correction Burst''' (FB) wird zur Frequenzsynchronisierung einer MS verwendet. Alle Bits außer den Tailbits und der Guard Period sind hier auf logisch 0 gesetzt. Die wiederholte Ausstrahlung eines solchen Bursts auf dem ''Frequency Correction Channel'' (FCCH) entspricht einem unmodulierten Trägersignal mit der Frequenz $f_{\rm T} + Δf_{\rm A}$ (Trägerfrequenz + Frequenzhub). Dieser Wert ergibt sich aus der Tatsache, dass das Modulationsverfahren Gaussian Minimum Shift Keying ein FSK–Sonderfall ist.&lt;br /&gt;
*Mit dem '''Synchronization Burst''' (SB) werden Informationen übertragen, mit deren Hilfe sich eine MS zeitlich mit der BTS synchronisiert. Neben einer langen Midambel von 64 Bit enthält der ''Synchronization Burst'' die TDMA–Rahmen–Nummer und den ''Base Transceiver Station Identity Code'' (BSIC). Bei wiederholter Ausstrahlung eines solchen Bursts spricht man vom ''Synchronization Channel'' (SCH).&lt;br /&gt;
*Der '''Dummy Burst''' (DB) wird von jeder ''Base Transceiver Station'' (BTS) auf einer speziell ihr zugeteilten Frequenz (''Cell Allocation'') ausgesandt, wenn keine anderen Bursts zu versenden sind. Damit ist sichergestellt, dass eine Mobilstation stets Leistungsmessungen durchführen kann.&lt;br /&gt;
*Der '''Access Burst''' (AB) wird für wahlfreien Vielfachzugriff auf dem ''Random Access Channel'' (RACH) eingesetzt. Um die Wahrscheinlichkeit von Kollisionen auf dem RACH gering zu halten, besitzt der ''Access Burst'' eine wesentliche längere ''Guard Period'' von 68.25 Bitdauern als die übrigen Bursts.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==GSM–Rahmenstruktur == &lt;br /&gt;
&lt;br /&gt;
Durch die GSM–Rahmenstruktur erfolgt die Abbildung der logischen Kanäle auf physikalische Kanäle. Hierbei wird unterschieden zwischen&lt;br /&gt;
*der '''Abbildung in der Frequenz''', basierend auf ''Cell Allocation'' (CA), ''Mobile Allocation'' (MA), die TDMA–Rahmennummer (FN) und den Vorschriften für das (optionale) ''Frequency Hopping'',&lt;br /&gt;
*der '''Abbildung in der Zeit''', wobei die TDMA–Rahmen mit jeweils acht Zeitschlitzen zur Übertragung der Bursts in Multiframes, Superframes und Hyperframes zusammengefasst werden.&lt;br /&gt;
&lt;br /&gt;
Entsprechend diesem Bild gelten folgende Aussagen:&lt;br /&gt;
*'''Multiframes''' werden für die Abbildung von logischen Kanälen auf physikalische Kanäle genutzt. Hierbei sind zwei Arten zu unterscheiden, solche mit 26 TDMA–Rahmen und einer Zyklusdauer von 120 ms und solche mit 51 TDMA–Rahmen und einer Dauer von 235.4 ms.&lt;br /&gt;
*Die Bursts der Verkehrskanäle (TCH) und der zugeordneten Steuerungskanäle (SACCH, FACCH) werden in jeweils 26 aufeinander folgenden TDMA-Rahmen übertragen. Dabei wird stets nur ein Zeitschlitz je TDMA-Rahmen für den jeweiligen Multiframe berücksichtigt.&lt;br /&gt;
*Von der Brutto–Datenrate pro Nutzer (≈ 33.9 kbit/s) sind 9.2 kbit/s für Synchronisierung, Signalisierung und ''Guard Period'' reserviert und 1.9 kbit/s für SACCH und IDLE. Die (codierten &amp;amp; verschlüsselten) Nutzdaten belegen bei Multiframe-Struktur mit 26 Rahmen nur 22.8 kbit/s.&lt;br /&gt;
*Die Multiframe-Struktur mit 51 Rahmen (rechte Bildhälfte) dient dazu, mehrere logische Kanäle auf einen physikalischen Kanal zu multiplexen. In 51 aufeinander folgenden TDMA–Rahmen werden jeweils alle Daten der Signalisierungskanäle (außer FACCH und SACCH) übertragen.&lt;br /&gt;
*Ein '''Superframe''' besteht aus 1326 aufeinander folgenden TDMA-Rahmen (51 Multiframes mit je 26 bzw. aus 26 Multiframes mit je 51 TDMA–Rahmen) und dauert ca. 6.12 Sekunden.&lt;br /&gt;
*Ein '''Hyperframe''' fasst jeweils 2048 Superframes (bzw. 2'715'648 TDMA–Rahmen) zusammen und wird mit seiner langen Zyklusdauer von 3 Stunden, 28 Minuten und 53.760 Sekunden zur Synchronisierung der Nutzdatenverschlüsselung verwendet.&lt;br /&gt;
	 	&lt;br /&gt;
 &lt;br /&gt;
==Modulation bei GSM–Systemen==  	&lt;br /&gt;
&lt;br /&gt;
Entsprechend den Aussagen der letzten Seite müssen in einem Frequenzkanal 156.25 Bit pro Zeitschlitz (0.5769 ms) übertragen werden. Dies entspricht einer Gesamtbitrate (für acht TDMA–Nutzer inkl. Kanalcodierung, Signalisierungs– und Synchronisationsinformation, etc.) von $R_{\rm ges}$ = 270 833 bit/s. Für diese Bitrate steht bei GSM eine Bandbreite von $B$ = 200 kHz zur Verfügung. Man benötigt deshalb ein Modulationsverfahren mit einer Bandbreiteneffizienz von mindestens $β$ = $R_{\rm ges}/B$ = 1.35.&lt;br /&gt;
&lt;br /&gt;
Beim GSM–Mobilfunk findet das Modulationsverfahren '''Gaussian Minimum Shift Keying''' (GMSK) Anwendung. Dieses wurde schon im Kapitel 4.4 des Buches [[Modulationsverfahren]] ausführlich behandelt. Hier folgt eine kurze, stichpunktartige Beschreibung:&lt;br /&gt;
*GMSK ist eine abgewandelte Form von '''Frequency Shift Keying''' (FSK). Diese ergibt sich, wenn man einen Frequenzmodulator (gemäß Kapitel 3.2 im Buch [[Modulationsverfahren]]) mit einem binären bipolaren rechteckförmigen Eingangssignal betreibt.&lt;br /&gt;
*Ein solches FSK-Signal $s(t)$ beinhaltet innerhalb einer jeden Symboldauer $T$ jeweils nur eine einzige Augenblicksfrequenz $f_A(t)$ = const. Ist das (normierte) Eingangssignal gleich „+1”, so ist $f_A(t)$ gleich der Summe aus der Trägerfrequenz $f_T$ und dem Frequenzhub $Δf_A$. Entsprechend gilt für den Amplitudenwert „–1”:   $f_A(t) = f_T – Δf_A$.&lt;br /&gt;
*Um eine einfache Demodulation zu ermöglichen, sollten die beiden Signale mit den Frequenzen $f_T ± Δf$ innerhalb der Symboldauer $T$ orthogonal zueinander sein. Demzufolge muss gelten:&lt;br /&gt;
 &lt;br /&gt;
Daraus ergibt sich für den '''Frequenzhub''' die Anforderung:&lt;br /&gt;
 &lt;br /&gt;
*Da bei FSK–Systemen der '''Modulationsindex''' zu $h = 2 · Δf_A · T$ definiert ist, folgt $h = k/2$. Der kleinste Wert unter Einhaltung der Orthogonalitätsbedingungen ist somit $h_{\rm min}$ = 0.5.&lt;br /&gt;
*Ein FSK–System mit $h$ = 0.5 bzw. $Δf_A$ = $\frac{1}{4T}$ bezeichnet man als '''Minimum Shift Keying''' – kurz MSK. Dieses wird in allen GSM-Systemen eingesetzt, da ein größerer Modulationindex als $h$ = 0.5 eine deutlich größere Bandbreite beanspruchen würde.&lt;br /&gt;
*Ein sehr schmales Spektrum ergibt sich allerdings nur dann, wenn an den Symbolgrenzen Phasensprünge durch Phasenwertanpassung vermieden werden. MSK gehört somit zu den ''Continuous Phase Frequency Shift Keying''–Verfahren (CP–FSK, siehe nächste Seite).&lt;br /&gt;
*Vor dem Frequenzmodulator wird zusätzlich noch ein Tiefpass mit Gauß–Charakteristik eingefügt, wodurch die GSM–Bandbreite weiter verringert wird. Diese Modulationsart '''GMSK''' wird auf Seite 9 dieses Kapitels 3.2 im Detail beschrieben.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
==Kontinuierliche Phasenanpassung bei FSK  ==	 	&lt;br /&gt;
&lt;br /&gt;
Ausgehend vom Rechtecksignal $q(t)$ und der Trägerfrequenz $f_T = 4/T$ betrachten wir die FSK–Signale $s_A(t), ... , s_D(t)$ bei unterschiedlichem Frequenzhub $Δf_A$  ⇒  Modulationindex $h = 2 · Δf_A · T$.&lt;br /&gt;
&lt;br /&gt;
Zu den Signalverläufen ist Folgendes anzumerken:&lt;br /&gt;
*Das Signal $s_A(t)$ ergibt sich mit $Δf_A = 1/T$  ⇒  Modulationsindex $h = 2$. Man erkennt die höhere Frequenz $f_1 = 5/T$ (für $a_ν$ = +1) gegenüber der Frequenz $f_2 = 3/T$ (für $a_ν$ = –1).&lt;br /&gt;
*Mit $Δf_A = 0.5/T$ (Signal $s_{\rm B}(t)$, $h$ = 1) gilt $f_1 = 4.5/T$ und $f_2 = 3.5/T$. An jeder Symbolgrenze tritt ein Phasensprung um $π$ auf, wenn keine Phasenanpassung wie bei $s_{\rm C}(t)$ vorgenommen wird.&lt;br /&gt;
*Bei $s_{\rm C}(t)$ wird im Bereich 0 ... $T$ der Koeffizient $a_1$ = +1 durch $\cos(2π·f_1·t)$ repräsentiert, während der ebenfalls positive Koeffizient $a_2$ = +1 im Bereich $T$ ... $2T$ zum Signal $–\cos(2π·f_1·(t–T))$ führt. Durch diese Anpassung werden somit Phasensprünge vermieden.&lt;br /&gt;
*Das Signal $s_{\rm D}(t)$ beschreibt das MSK-Signal (Frequenzhub $Δf_A = 0.25/T$ ⇒ $h = 0.5$), ebenfalls mit Phasenanpassung. Hier sind bei jeder Symbolgrenze – je nach den vorherigen Symbolen – vier unterschiedliche Anfangsphasen möglich.&lt;br /&gt;
*Bei GSM (D–Netz) beträgt die Trägerfrequenz $f_T$ = 900 MHz und die Symboldauer $T$ ≈ 3.7 μs. Mit dem Modulationsindex $h$ = 0.5 ergibt sich daraus $Δf_A$ ≈ 68 kHz. Die beiden Frequenzen $f_1$ = 900.068 MHz und $f_2$ = 899.932 MHz liegen somit sehr eng beieinander.&lt;br /&gt;
&lt;br /&gt;
Wir verweisen auf das Modul Frequency Shift Keying &amp;amp; Continuous Phase Modulation.&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
== Minimum Shift Keying (MSK) == 	 &lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt das Modell zur Erzeugung einer MSK–Modulation und typische Signalverläufe.&lt;br /&gt;
&lt;br /&gt;
Man erkennt:&lt;br /&gt;
*am Punkt 1 das digitale Quellensignal, bestehend aus einer Folge von Diracimpulsen im Abstand T, gewichtet mit den Amplitudenkoeffizienten $a_ν$ ∈ {–1, +1}:&lt;br /&gt;
 &lt;br /&gt;
*am Punkt 2 das Rechtecksignal $q_{\rm R}(t)$ nach Faltung mit dem Rechteckimpuls $g(t)$ der Dauer $T$ und der Höhe $1/T$ (die Amplitude wurde aus Kompatibilitätsgründen zu späteren Seiten so gewählt):&lt;br /&gt;
 &lt;br /&gt;
*den Frequenzmodulator, der sich gemäß Kapitel 3.2 des Buches [[Modulationsverfahren]] als Integrator und nachgeschalteten Phasenmodulator realisieren lässt. Für das Signal am Punkt 3 gilt:&lt;br /&gt;
 &lt;br /&gt;
Die Phasenwerte bei der Symboldauer $T$ sind Vielfache von $π/2$ (90°), wobei der für MSK gültige Modulationsindex $h$ = 0.5 berücksichtigt ist. Der Phasenverlauf ist linear. Daraus ergibt sich am Punkt 4 des Blockschaltbildes das MSK–Signal zu&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
==Gaussian Minimum Shift Keying (GMSK)==  	 &lt;br /&gt;
&lt;br /&gt;
Ein Vorteil von MSK gegenüber anderen Modulationsarten ist der geringere Bandbreitenbedarf. Durch geringfügige Modifikationen hin zum '''Gaussian Minimum Shift Keying''' – abgekürzt GMSK– ergibt sich nochmals eine schmaleres Spektrum.&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus dem Blockschaltbild folgende Unterschiede zum MSK:&lt;br /&gt;
*Der Frequenzimpuls g(t) ist nun nicht mehr rechteckförmig wie der Impuls $g_{\rm R}(t)$, sondern weist flachere Flanken auf. Demzufolge ergibt sich auch ein weicherer Phasenverlauf (Punkt 3) als beim MSK–Verfahren (siehe letzte Seite), bei dem $ϕ(t)$ symbolweise linear ansteigt bzw. abfällt.&lt;br /&gt;
*Man erreicht diese sanfteren Phasenübergänge bei GMSK durch ein '''Gaußtiefpassfilter''' mit dem Frequenzgang bzw. der Impulsantwort&lt;br /&gt;
 &lt;br /&gt;
*Bei GSM ist die 3dB–Grenzfrequenz zu $f_{\rm 3dB} = 0.3/T$ festgelegt. Wie in Aufgabe A3.4 gezeigt wird, gilt somit für die systemtheoretische Grenzfrequenz $f_{\rm G} ≈ 1.5 · f_{\rm 3dB} = 0.45/T$.&lt;br /&gt;
*Der resultierende Frequenzimpuls $g(t)$ am Punkt 2 des Blockschaltbildes ergibt sich aus der Faltung des Recheckimpulses $g_{\rm R}(t)$ mit der Impulsantwort $h_{\rm G}(t)$ des Gaußtiefpasses zu&lt;br /&gt;
 &lt;br /&gt;
*Das GMSK–modulierte Signal $s(t)$ weist nun nicht mehr abschnittsweise (je Symboldauer) eine konstante Frequenz auf. Diesen Unterschied zur MSK kann man allerdings aus dem Signalverlauf am Punkt 4 des Blockschaltbildes nur schwer erkennen.&lt;br /&gt;
&lt;br /&gt;
Wir verweisen auf das Modul Frequency Shift Keying &amp;amp; Continuous Phase Modulation.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==Vor– und Nachteile von GMSK  ==&lt;br /&gt;
&lt;br /&gt;
Das bei GSM angewendete Modulationsverfahren ''Gaussian Minimum Shift Keying'' (GMSK) wird im Kapitel 4 des Buches [[Modulationsverfahren]] im Detail beschrieben. Hier sollen nur die wichtigsten Merkmale zusammenfassend aufgeführt werden.&lt;br /&gt;
&lt;br /&gt;
Ein wesentlicher Vorteil von GMSK ist der sehr geringe Bandbreitenbedarf. Die linke Grafik zeigt das logarithmierte Leistungsdichtespektrum $10 · \text{lg} Φ_s(f)/Φ_0$ des Verfahrens Minimum Shift Keying (MSK) im Vergleich zu ''Quaternary Phase Shift Keying'' (QPSK), wobei $Φ_0$ „geeignet” gewählt wurde. Man erkennt aus dieser dem Buch &amp;lt;ref&amp;gt;Kammeyer, K.D.: ''Nachrichtenübertragung''. Stuttgart: B.G. Teubner, 4. Auflage, 2004.&amp;lt;/ref&amp;gt; entnommenen Darstellung:&lt;br /&gt;
*Auf der Abszisse ist die normierte Frequenz $f · T_{\rm B}$ aufgetragen. Bei MSK ist die Bitdauer $T_{\rm B}$ gleich der Symboldauer $T$, während bei QPSK $T_{\rm B} = T/2$ gilt. Im rechten Diagramm, das sich ausschließlich auf (G)MSK bezieht, könnte die Abszisse auch mit $f · T$ beschriftet werden.&lt;br /&gt;
*Betrachten wir zunächst die linke Grafik: Die erste Nullstelle im Leistungsdichtespektrum (LDS) tritt bei der QPSK (gestrichelte Kurve) beim normierten Abszissenwert 0.5 auf, bei der MSK dagegen erst bei $f · T_{\rm B}$ = 0.75.&lt;br /&gt;
*Im weiteren Verlauf ergibt sich jedoch bei MSK ein deutlich schnellerer LDS–Abfall als der asymptotische $f^{–2}$–Abfall bei QPSK. Zu beachten ist, dass für die MSK ein Cosinusimpuls zur Spektralformung zugrunde liegt und für die QPSK ein Rechteckimpuls.&lt;br /&gt;
&lt;br /&gt;
Die rechte Darstellung zeigt den Einfluss der gaußförmigen Impulsformung bei GMSK auf das Leistungsdichtespektrum $Φ_s(f)$, wobei als Parameter die normierte 3dB–Grenzfrequenz verwendet wird.&lt;br /&gt;
*Je kleiner $f_{\rm 3dB}$ ist, desto schmalbandiger ist das LDS. Allerdings ist zu berücksichtigen, dass es damit auch zu beträchtlichen Impulsinterferenzen kommt.&lt;br /&gt;
*Im GSM–Standard wurde $f_{\rm 3dB} · T$ = 0.3 festgelegt. Mit diesem Wert wird die Bandbreite bereits entscheidend reduziert, was zu geringeren '''Nachbarkanalinterferenzen''' führt.&lt;br /&gt;
*Andererseits wirken sich mit dieser Grenzfrequenz die Impulsinterferenzen schon gravierend aus. Die Augenöffnung ist kleiner als 50% und es ist eine geeignete Entzerrung vorzusehen.&lt;br /&gt;
&lt;br /&gt;
Des Weiteren ist zu vermerken:&lt;br /&gt;
*Die binäre FSK stellt – auch bei kontinuierlicher Phasenanpassung – allgemein ein nichtlineares Modulationsverfahren dar. Deshalb ist eine kohärente Demodulation eigentlich nicht möglich.&lt;br /&gt;
*Eine Ausnahme bildet die MSK als Sonderfall für den Modulationsindex $h$ = 0.5, die sich als Offset–QPSK linear realisieren lässt und somit auch kohärent demoduliert werden kann.&lt;br /&gt;
*Ohne Berücksichtigung der Impulsinterferenzen beträgt die '''Bitfehlerwahrscheinlichkeit'''&lt;br /&gt;
 &lt;br /&gt;
wie im Kapitel 1.5 des Buches [[Digitalsignalübertragung]] abgeleitet wird. Dort finden Sie auch die Definitionen der hier verwendeten Funktionen Q(.) bzw. erfc(.). Gegenüber der QPSK ergibt sich eine Degradation um 3 dB.&lt;br /&gt;
*Ein Vorteil der GMSK gegenüber der QPSK ist, dass sich trotz der spektralen Formung des Grundimpulses eine konstante Hüllkurve ergibt. Nichtlinearitäten auf dem Kanal spielen deshalb nicht eine so große Rolle als bei anderen Modulationsverfahren.&lt;br /&gt;
*Dies ermöglicht den Einsatz einfacher und kostengünstiger Leistungsverstärker, einen geringeren Leistungsverbrauch und damit auch längere Betriebsdauern akkubetriebener Geräte.&lt;br /&gt;
&lt;br /&gt;
Die Realisierung von MSK durch eine spezielle Variante von Offset–QPSK wird durch das folgende Interaktionsmodul verdeutlicht:&lt;br /&gt;
QPSK und Offset–QPSK&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
==Radio Subsystem Link Control==  &lt;br /&gt;
&lt;br /&gt;
Eine weitere Funktion der Funkschnittstelle ist die Steuerung der Funkverbindung. So übernimmt das so genannte ''Radio Subsystem Link Control'' folgende Aufgaben:&lt;br /&gt;
Es ist für die Messung der Empfangsqualität zuständig. Während einer aufgebauten Verkehrs– oder Signalisierungsverbindung erfolgt in regelmäßigen Abständen die Kanalvermessung der Mobilstation hinsichtlich Empfangsfeldstärke und Bitfehlerrate  ⇒  '''Quality Monitoring'''. Diese Werte werden in einem Messreport zur Basisstation über den Signalisierungskanal SACCH übertragen und von dieser für die Leistungsregelung und das Handover verwendet.&lt;br /&gt;
Die '''Power Control''' (deutsch: Leistungsregelung) ist erforderlich, damit alle Mobilstationen nur mit der minimal erforderlichen Energie abstrahlen. Die Sendeleistung kann adaptiv in Schritten von 2 dBm zwischen 43 dBm (Stufe 0: 20 W) und 13 dBm (Stufe 15: 20 mW) geregelt werden.&lt;br /&gt;
Auch die Sendeleistung der Basisstationen wird in Schritten von 2 dBm geregelt, um optimale Netzkapazität zu erzielen. Eine Ausnahme bildet der BCCH–Träger mit konstanter Sendeleistung, um den Mobilstationen eine vergleichende Messung benachbarter BCCH–Träger zu ermöglichen.&lt;br /&gt;
&lt;br /&gt;
Das '''Adaptive Frame Alignment''' – also die adaptive Rahmensynchronisation – dient dazu, Kollisionen zwischen Uplink– und Downlinkdaten zu vermeiden, die von der Mobilstation um drei Zeitschlitze versetzt gesendet bzw. empfangen werden sollen. Dies zeigt nebenstehende Grafik.&lt;br /&gt;
&lt;br /&gt;
Im mittleren, gelb hinterlegten Bereich ist der Downlink dargestellt, wobei die Daten um die Zeit $T_{\rm R}$ (''Round Trip Delay Time'') später bei der MS ankommen, als sie von der ''Base Transceiver Station'' (BTS) gesendet wurden (grüne Markierung).&lt;br /&gt;
&lt;br /&gt;
Im oberen Bereich ist der Uplink ohne ''Timing Advance'' dargestellt. Die MS beginnt genau 3 Zeitschlitze nach dem Empfang mit dem Senden (blaue Markierung). Aufgrund der Verzögerungen im Downlink und Uplink erreicht der Zeitschlitz 0 die BTS nicht wie gefordert zu der Zeit $3T_{\rm Z}$, sondern um $2T_{\rm Z}$ später (rote Markierung). Beim ''Timing Advance'' Uplink (untere Skizze) wird diese Verzögerung bereits von der MS kompensiert, indem die Daten um die Zeit $T_{\rm A} = 2T_{\rm R}$ früher versandt werden und diese somit genau zeitsynchron bei der BTS ankommen.&lt;br /&gt;
&lt;br /&gt;
Für das ''Timing Advance'' stehen 64 Stufen (0 – 63) zur Verfügung, wobei jede Stufe einer Bitdauer TB entspricht. Das maximale ''Timing Advance'' beträgt somit 63 · 3.7 µs ≈ 233 µs, so dass sich die maximale zulässige Laufzeit in einer Richtung zu $T_{\rm R}$ ≈ 116 µs ergibt. Dies entspricht einer Entfernung zwischen BTS und MS von 116 μs · 3 · 10&amp;lt;sup&amp;gt;8&amp;lt;/sup&amp;gt; m/s ≈ 35 km. Diesen Wert gibt GSM als den erlaubten Zellenradius an.&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
== Aufgaben zu Kapitel 3.2 == 	 &lt;br /&gt;
&lt;br /&gt;
[[|]]&lt;br /&gt;
&lt;br /&gt;
[[|]]&lt;br /&gt;
&lt;br /&gt;
[[|]]&lt;br /&gt;
&lt;br /&gt;
[[|]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Methods_to_Reduce_the_Bit_Error_Rate_in_DSL&amp;diff=21294</id>
		<title>Examples of Communication Systems/Methods to Reduce the Bit Error Rate in DSL</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/Methods_to_Reduce_the_Bit_Error_Rate_in_DSL&amp;diff=21294"/>
		<updated>2018-01-02T19:36:26Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=DSL – Digital Subscriber Line&lt;br /&gt;
|Vorherige Seite=xDSL als Übertragungstechnik&lt;br /&gt;
|Nächste Seite=Allgemeine Beschreibung von GSM&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Übertragungseigenschaften von Kupferkabeln  ==	&lt;br /&gt;
&lt;br /&gt;
Wie schon im Kapitel 2.1 erwähnt, sind im Telefonleitungsnetz der Deutschen Telekom vorwiegend Kupfer–Doppeladern mit einem Durchmesser von 0.4 mm verlegt. Der Teilnehmeranschlussbereich (TAL) – häufig auch als „Last Mile” bezeichnet – ist in drei Segmente gegliedert: das Hauptkabel, das Verzweigungskabel und das Hausanschlusskabel. Die Leitungslänge beträgt im Durchschnitt weniger als 4 Kilometer und in den Städten ist die Kupferleitung in 90% aller Fälle kürzer als 2.8 km.&lt;br /&gt;
&lt;br /&gt;
Die hier besprochenen xDSL–Varianten wurden speziell für den Einsatz auf solchen symmetrischen Kupfer–Doppeladern im Kabelverbund entwickelt. Um die technischen Anforderungen an die xDSL–Systeme besser verstehen zu können, muss ein genauer Blick auf die Übertragungseigenschaften und Störungen auf den Leiterpaaren gerichtet werden. Dieses Thema wurde schon im Kapitel 4 des Buches [[Lineare zeitinvariante Systeme]] ausführlich behandelt und wird deshalb hier nur kurz anhand des Ersatzschaltbildes zusammengefasst:&lt;br /&gt;
*Die Leitungsübertragungseigenschaften werden durch den ''Wellenwiderstand'' $Z_{\rm W}(f)$ und das Übertragungsmaß $γ(f)$ vollständig charakterisiert. Beide Größen sind im allgemeinen komplex.&lt;br /&gt;
*Das ''Dämpfungsmaß'' $α(f)$ ist der Realteil des Übertragungsmaßes und beschreibt die Dämpfung der sich entlang der Leitung ausbreitenden Welle; $α(f)$ ist eine gerade Funktion der Frequenz.&lt;br /&gt;
*Der ungerade Imaginärteil $β(f)$ des komplexen Übertragungsmaßes heißt Phasenmaß und gibt die Phasendrehung der Signalwelle entlang der Leitung an.&lt;br /&gt;
 &lt;br /&gt;
Betrachten wir beispielhaft das unten dargestellte Dämpfungsmaß, das auf empirische Untersuchungen der Deutschen Telekom zurückgeht. Die Kurven ergaben sich durch Mittelung über eine große Anzahl gemessener Leitungen von einem Kilometer Länge im Frequenzbereich bis 30 MHz. Man erkennt:&lt;br /&gt;
* $α(f)$ steigt näherungsweise proportional mit der Wurzel der Frequenz an.&lt;br /&gt;
* $α(f)$ wird mit steigendem Leiterdurchmesser $d$ geringer.&lt;br /&gt;
* Die Dämpfungsfunktion steigt linear mit der Kabellänge $l$ an: $a(f) = α(f) · l$.&lt;br /&gt;
&lt;br /&gt;
Für den Leitungsdurchmesser 0.40 mm wurde in &amp;lt;ref&amp;gt;Neubaueri, AW.: ''Informationstheorie und Quellencodierung''. J. Schlembach Fachverlag, 2006.&amp;lt;/ref&amp;gt; eine Näherungsformel angegeben:&lt;br /&gt;
 &lt;br /&gt;
Wertet man diese aus, so können folgende beispielhafte Werte genannt werden:&lt;br /&gt;
*Die Dämpfung $a(f)$ einer Kupfer–Doppelader der Länge $l$ = 1 km mit Durchmesser 0.4 mm beträgt für die Signalfrequenz 10 MHz etwas mehr als 60 dB. Beachten Sie bitte den Unterschied zwischen dem Dämfungswert „a” und der Dämfungsfunktion „alpha”.&lt;br /&gt;
*Bei doppelter Frequenz (20 MHz) steigt der Dämpfungswert auf über 90 dB. Es zeigt sich, dass die Dämpfung nicht exakt mit der Wurzel der Frequenz ansteigt, wie es bei alleiniger Betrachtung des Skin–Effekts der Fall wäre, da auch verschiedene andere Effekte zur Dämpfung beitragen.&lt;br /&gt;
*Wird die Kabellänge auf $l$ = 2 km verdoppelt, so erreicht die Dämpfung einen Wert von mehr als 120 dB (bei 10 MHz). Dies entspricht einem Amplitudendämpfungsfaktor kleiner als $10^{-6}$.&lt;br /&gt;
*Durch die Frequenzabhängigkeit von $α(f)$ und $β(f)$ kommt es zu ''Intersymbolinterferenzen'' (ISI) und ''Intercarrierinterferenzen'' (ICI). Vorzusehen ist also bei xDSL eine geeignete Entzerrung.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Im Kapitel 4.3 des Buches [[Lineare zeitinvariante Systeme]] wird die hier betrachtete Thematik ausführlicher behandelt. Wir verweisen hier auf zwei Interaktionsmodule:&lt;br /&gt;
 	 &lt;br /&gt;
==Störungen bei der Übertragung  ==	 &lt;br /&gt;
&lt;br /&gt;
Jedes Nachrichtensystem wird durch Rauschen beeinflusst, das meist in erster Linie aus dem thermischen Widerstandsrauschen resultiert. Zusätzlich ist bei einer Zweidrahtleitung noch zu beachten:&lt;br /&gt;
*'''Reflexionen''': Durch die gegenläufige Welle wird die Dämfung eines Leitungspaares erhöht, was im Betriebsdämpfungsmaß der Leitung berücksichtigt wird. Siehe Buch [[Lineare zeitinvariante Systeme]], Kapitel 4.1. Um solche Reflexion zu verhindern, müsste der Abschlusswiderstand $\rm {Z_E}(f)$ identisch mit dem (komplexen und frequenzabhängigen) Wellenwiderstand $\rm {Z_W}(f)$ gewählt werden. Dies ist in der Praxis schwierig. Deshalb werden die Abschlusswiderstände reell und konstant gewählt und die daraus resultierenden Reflexionen – wenn möglich – mit technischen Mitteln bekämpft.&lt;br /&gt;
*Die dominante Störung ist bei leitungsgebundener Übertragung aber das '''Nebensprechen'''. Dies entsteht, wenn es durch induktive und kapazitive Kopplungen zwischen benachbarten Adern eines Kabelbündels zu gegenseitigen Beeinflussungen bei der Signalübertragung kommt.&lt;br /&gt;
&lt;br /&gt;
Beim Nebensprechen unterscheidet man zwischen zwei Typen:&lt;br /&gt;
*'''Nahnebensprechen''' (englisch: ''Near End Crosstalk'', NEXT): Der störende Sender und der gestörte Empfänger befinden sich auf der gleichen Seite des Kabels.&lt;br /&gt;
*'''Fernnebensprechen''' (englisch: ''Far End Crosstalk'', FEXT): Der störende Sender und der gestörte Empfänger befinden sich auf den gegenüberliegenden Seiten des Kabels.&lt;br /&gt;
&lt;br /&gt;
Das Fernnebensprechen nimmt mit zunehmender Leitungslänge aufgrund der Dämpfung stark ab, so dass auch bei DSL das Nahnebensprechen dominant ist. Zusammenfassend lässt sich sagen:&lt;br /&gt;
*Mit steigender Frequenz und abnehmendem Abstand zwischen den Leiterpaaren – wie innerhalb eines Sternvierers – nimmt das Nahnebensprechen zu. Weniger kritisch ist es, wenn sich die Adern in verschiedenen Grundbündeln befinden.&lt;br /&gt;
*Je nach eingesetzter Verseiltechnik, Abschirmung und Fertigungsgenauigkeit des Kabels tritt dieser Effekt unterschiedlich stark auf. Die Leitungslänge spielt dagegen bei Nahnebensprechen keine Rolle: Der eigene Sender wird durch das Kabel nicht gedämpft.&lt;br /&gt;
*Durch geschickte Belegung der Doppeladern kann der Einfluss von Nebensprechen signifikant reduziert werden. Dies wird realisiert, indem man benachbarte Adern mit unterschiedlichen Diensten belegt, die unterschiedliche und möglichst wenig überlappende Frequenzbänder nutzen.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==SNR, Reichweite und Übertragungsrate == 	 	&lt;br /&gt;
&lt;br /&gt;
Zur Bewertung der Qualität eines Übertragungssystems wird meist das Signal–zu–Rausch–Verhältnis (''Signal–to–Noise Ratio'', SNR) vor dem Entscheider herangezogen. Dieses ist auch ein Maß für die zu erwartende Bitfehlerrate (BER). Signal und Rauschen im gleichen Frequenzband verringern das SNR und führen zu einer höheren BER oder – bei vorgegebener BER – zu einer niedrigeren Übertragungsrate.&lt;br /&gt;
Die Zusammenhänge zwischen Sendesignal, Kanalgüte und erreichbarer Übertragungsrate können sehr gut durch Shannons Kanalkapazitätsformel verdeutlicht werden:&lt;br /&gt;
 &lt;br /&gt;
Die Kanalkapazität $C$ bezeichnet die maximale Übertragungsbitrate, mit der bei idealen Voraussetzungen (unter Anderem eine bestmögliche Codierung bei unendlicher Blocklänge) übertragen werden kann  ⇒  ''Kanalcodierungstheorem''. Näheres hierzu finden Sie im Buch [[Einführung in die Informationstheorie]].&lt;br /&gt;
&lt;br /&gt;
Wir gehen davon aus, dass die Bandbreite durch die xDSL–Variante festliegt und dass Nahnebensprechen die dominante Störung ist. Dann kann die Übertragungsrate durch folgende Maßnahmen verbessert werden:&lt;br /&gt;
*Man vergrößert bei gegebener Sendeleistung $P_S$ und gegebenem Medium (0.4 mm) die zur Demodulation nutzbare Empfangsleistung $P_E$ nur durch eine kürzere Leitungslänge.&lt;br /&gt;
*Man vermindert die Störleistung $P_N$, was bei gegebener Bandbreite $B$ durch eine erhöhte Nebensprechdämpfung zu erreichen wäre, die wiederum auch vom Übertragungsverfahren auf den benachbarten Leitungspaaren abhängt.&lt;br /&gt;
*Eine Erhöhung der Sendeleistung $P_S$ wäre hier nicht zielführend, da sich eine größere Sendeleistung gleichzeitig ungünstig auf das Nebensprechen auswirkt. Diese Maßnahme wäre nur bei einem AWGN–Kanal (Beispiel: Koaxialkabel) erfolgreich.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Diese Auflistung zeigt, dass bei xDSL ein direkter Zusammenhang zwischen Reichweite (Leitungslänge), Übertragungsrate und eingesetztem Übertragungsverfahren besteht. Aus der nachfolgenden Grafik, die sich auf Messungen mit 1–DA–xDSL–Verfahren und 0.4mm–Kupferkabeln bei Versuchssystemen mit realitätsnahen Störbedingungen bezieht, erkennt man deutlich diese Abhängigkeiten.&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt für verschiedene ADSL– und VDSL–Varianten die Reichweite (Kabellänge) $l_{\rm max}$ und die Gesamtübertragungsrate $R_{\rm ges}$ von Upstream (erste Angabe) und Downstream (zweite Angabe). Die Gesamtübertragungsrate liegt zwischen 2.2 Mbit/s und 53 Mbit/s. Die Reichweite bezieht sich hier auf eine Kupferdoppelader mit 0.4 mm Durchmesser.&lt;br /&gt;
&lt;br /&gt;
Die Tendenz der Messwerte ist in dieser Grafik als durchgezogene (blaue) Kurve eingezeichnet und kann als grobe Näherung folgendermaßen formuliert werden:&lt;br /&gt;
 &lt;br /&gt;
Man erkennt, dass sich die Reichweite aller derzeitigen Systeme (zwischen etwa 0.5 und 3,5 km) von dieser Faustformel um maximal ±25% unterscheiden (gestrichelte Kurven).&lt;br /&gt;
Im unteren Diagramm sind die Gesamtdatenübertragungsraten von ADSL2+ und VDSL2 als Funktion der Leitungslänge im Falle eines „worst-case”–Störszenarios bei folgenden Randbedingungen dargestellt:&lt;br /&gt;
*Kabelbündel mit 50 Kupferdoppeladern (0.4 mm Durchmesser), PE–isoliert,&lt;br /&gt;
*Ziel–Symbolfehlerrate $10^{–7}, 6 \text{dB}$ Margin (Reserve–SNR, um Ziel–Datenrate zu erreichen),&lt;br /&gt;
*gleichzeitiger Betrieb folgender Nachrichtenübertragungsverfahren: 25 mal ADSL2+ über ISDN, 14 mal ISDN, viermal SHDSL (1 Mbit/s), je fünfmal SHDSL (2 Mbit/s) und VDSL2 Bandplan 998, sowie zweimal HDSL.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Man erkennt: Ab einer Leitungslänge von etwa 1.8 km sind die erzielbaren Übertragungsraten bei ADSL2+ deutlich höher als bei VDSL2. Dies ist darauf zurückzuführen, dass VDSL2 in den unteren Frequenzbändern mit deutlich niedrigerer Sendeleistung arbeitet, um die Störeinflüsse auf benachbarte Übertragungssysteme zu minimieren. Mit zunehmender Leitungslänge werden die frequenzmäßig höher angesiedelten Subkanäle wegen der zunehmenden Dämpfung zur Datenübertragung unbrauchbar, was den Absturz der Datenrate erklärt.&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
==DSL–Fehlerkorrekturmaßnahmen im Überblick==  &lt;br /&gt;
&lt;br /&gt;
Um die Bitfehlerrate der xDSL–Systeme zu senken, wurden in den Spezifikationen eine Reihe von Verfahren geschickt miteinander kombiniert, um den zwei häufigsten Fehlerursachen entgegen zu wirken:&lt;br /&gt;
*Übertragungsfehler aufgrund von Impuls– und Nebensprechstörungen auf der Leitung: Besonders bei hohen Datenraten liegen benachbarte Symbole im QAM–Signalraum eng beieinander, was die Fehlerwahrscheinlichkeit signifikant erhöht.&lt;br /&gt;
*Abschneiden von Signalspitzen aufgrund mangelnder Dynamik der Sendeverstärker (''Clipping''): Dieses Abschneiden entspricht ebenfalls einer Impulsstörung und wirkt als zusätzliche farbige Rauschbelastung, die das SNR merkbar verschlechtert.&lt;br /&gt;
&lt;br /&gt;
Beim DMT–Verfahren sind für Fehlerkorrekturmaßnahmen in den Signalprozessoren zwei Pfade realisiert. Die Bitzuordnung zu diesen Pfaden übernimmt ein Multiplexer mit Sync–Kontrolle.&lt;br /&gt;
*Beim '''Fast–Path''' setzt man auf geringe Wartezeiten (''Latency''), beim '''Interleaved–Path''' dagegen auf niedrige Bitfehlerraten. Hier ist die Latenz aufgrund des Einsatzes eines Interleavers größer.&lt;br /&gt;
*Eine duale Latenz bedeutet die gleichzeitige Verwendung beider Pfade. Die ''ADSL Transceiver Units'' müssen eine duale Latenz zumindest im Downstream unterstützen.&lt;br /&gt;
&lt;br /&gt;
Auf den restlichen Kapitelseiten werden für beide Pfade die Fehlerschutzverfahren erörtert. &lt;br /&gt;
''Hinweis'': Die beschriebenen Fehlerschutzmaßnahmen sind bei anderen Modulationsverfahren prinzipiell gleich.&lt;br /&gt;
*Die Übertragungskette beginnt mit dem ''Cyclic Redundancy Check'' (CRC), der eine Prüfsumme über einen Überrahmen bildet, die beim Empfänger ausgewertet wird. Aufgabe des Scramblers ist es, lange Folgen von Einsen und Nullen umzuwandeln, um häufigere Signalwechsel zu erzeugen.&lt;br /&gt;
*Danach folgt die Vorwärtsfehlerkorrektur (''Forward Error Correction'', FEC), um empfangsseitig Bytefehler erkennen und eventuell sogar korrigieren zu können. Standard ist bei xDSL eine Reed–Solomon–Codierung, oft kommt zusätzlich die Trellis–Codierung zum Einsatz.&lt;br /&gt;
*Aufgabe des ''Interleavers'' ist es, die empfangenen Codeworte über einen größeren Zeitbereich zu verteilen, um eventuell auftretende Übertragungsstörungen ebenfalls auf mehrere Codeworte zu verteilen und damit die Chancen einer Rekonstruktion zu erhöhen.&lt;br /&gt;
*Nach dem Durchlaufen der einzelnen Bitsicherungsverfahren werden die Datenströme von Fast– und Interleaved–Pfad im ''Tone Ordering'' zusammengeführt und bearbeitet. Hier werden auch die Bits den Trägerfrequenzen (Bins) zugewiesen.&lt;br /&gt;
*Außerdem werden im DMT-Sender nach der IDFT ein Schutzintervall und ein zyklisches Präfix eingefügt, das im DMT–Empfänger wieder entfernt wird. Dies stellt bei verzerrendem Kanal eine sehr einfache Realisierung der Signalentzerrung im Frequenzbereich dar.&lt;br /&gt;
 &lt;br /&gt;
 &lt;br /&gt;
==Cyclic Redundancy Check==  	 &lt;br /&gt;
&lt;br /&gt;
Die zyklische Redundanzprüfung (engl. ''Cyclic Redundancy Check'', CRC) ist ein einfaches Verfahren auf Bitebene, um die Unversehrtheit der Daten bei der Übertragung oder der Duplizierung von Daten zu überprüfen. Das CRC–Prinzip wurde bereits im ISDN–Kapitel im Detail beschrieben. Hier folgt eine Zusammenfassung, wobei die bei den xDSL–Spezifikationen verwendete Nomenklatur verwendet wird:&lt;br /&gt;
*Vor der Datenübertragung wird für einen Datenblock D(x) mit k Bit d0, ... , dk-1 ein Prüfwert C(x) mit 8 Bit gebildet und an die ursprüngliche Datenfolge angehängt. Die Variable x bezeichnet hierbei einen Verzögerungsoperator.&lt;br /&gt;
*C(x) ergibt sich als der Divisionsrest der Polynomdivision von D(x) durch das Prüfpolynom G(x). Diese Operation wird durch folgende Modulo–2–Gleichungen beschrieben:&lt;br /&gt;
 &lt;br /&gt;
*Beim Empfänger wird nach dem gleichen Verfahren erneut ein CRC–Wert gebildet und und mit dem übermittelten Prüfwert verglichen. Sind beide ungleich, so liegt mindestens ein Bitfehler vor.&lt;br /&gt;
*Auf diese Weise können Bitfehler erkannt werden, wenn diese nicht zu sehr gehäuft sind. In der ADSL–Praxis ist das CRC–Verfahren ausreichend zur Bitfehlererkennung.&lt;br /&gt;
&lt;br /&gt;
Die nachstehende Grafik zeigt eine beispielhafte Schaltung – realisierbar in Hardware oder Software – zur CRC–Prüfwertbildung mit dem für ADSL spezifizierten Generatorpolynom $G(x)$.&lt;br /&gt;
&lt;br /&gt;
Der zu prüfende Datenblock wird von links in die Schaltung eingebracht, der Ausgang rückgekoppelt und mit den Stellen des Generatorpolynoms $G(x)$ exklusiv–oder–verknüpft. Nach Durchlauf des gesamten Datenblocks enthalten die Speicherelemente den CRC–Prüfwert $C(x)$.&lt;br /&gt;
*Anzumerken ist in diesem Zusammenhang, dass bei ADSL die Daten in so genannte Superframes (zu je 68 Rahmen) aufgespaltet werden. Jeder Rahmen beinhaltet Daten aus dem Fast– und Interleaved–Pfad. Dazu werden Verwaltungs– und Synchronisations–Bits in spezifischen Rahmen übertragen.&lt;br /&gt;
*Pro ADSL–Superframe und pro Pfad werden 8 CRC–Bits gebildet und als ''Fast Byte'' bzw. ''Sync Byte'' als erstes Byte von Rahmen 0 des nächsten Superframes übertragen.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==Scrambler und De–Scrambler==  &lt;br /&gt;
&lt;br /&gt;
Die Aufgabe des Scramblers ist es, lange Folgen von Einsen und Nullen so umzuwandeln, dass häufige Signalwechsel erfolgen. Eine mögliche Realisierung stellt eine Schieberegisterschaltung mit rückgeführten Exklusiv–Oder–verknüpften Zweigen dar. Um beim Empfänger die ursprüngliche Binärfolge herzustellen, muss dort ein spiegelbildlich selbstsynchronisierender De–Scrambler verwendet werden.&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt links ein Beispiel eines bei DSL tatsächlich eingesetzten Scramblers mit 23 Speicherelementen Rechts ist der zugehörige De–Scrambler dargestellt.&lt;br /&gt;
&lt;br /&gt;
Das sendeseitige Schieberegister wird mit einem beliebigen Startwert geladen, der keinen weiteren Einfluss auf die Funktion der Schaltung hat. Bezeichnet man mit en die binäre Eingangsfolge und mit an die Bits am Ausgang, so gilt folgender Zusammenhang:&lt;br /&gt;
 &lt;br /&gt;
Im Beispiel besteht die Eingangsfolge aus 80 aufeinander folgenden Einsen, die bitweise in den Scrambler geschoben werden. Die Ausgangsbitfolge weist dann – wie gewünscht – häufige Null–Eins–Wechsel auf.&lt;br /&gt;
&lt;br /&gt;
Der De–Scrambler (rechts im Bild dargestellt) kann zu jedem beliebigen Zeitpunkt gestartet werden. Am Ausgangsdatenstrom erkennt man,&lt;br /&gt;
*dass der De–Scramber zunächst einige (bis zu maximal 23) fehlerhafte Bits ausgibt,&lt;br /&gt;
*sich dann aber automatisch synchronisiert und&lt;br /&gt;
*anschließend die ursprüngliche Bitfolge fehlerfrei zurückgewinnt.&lt;br /&gt;
&lt;br /&gt;
Hierbei ist zu beachten, dass in diesem Beispiel zwar die Bitübertragung als fehlerfrei angenommen wurde, aber auch der De–Scrambler mit einem beliebigen Startwert geladen werden kann, was bedeutet, dass zwischen beiden Schaltungen keine Synchronisierung erforderlich ist.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
==Vorwärtsfehlerkorrektur==  	 &lt;br /&gt;
&lt;br /&gt;
Zur Vorwärtsfehlerkorrektur (''Forward Error Correction'', FEC) wird bei allen xDSL–Varianten ein Reed–Solomon–Code (RS–Codierung) verwendet. Bei manchen Systemen – beispielsweise ADSL der Deutschen Telekom – wurde als zusätzliche Fehlerschutzmaßnahme Trellis–Code–Modulation (TCM) verbindlich festgelegt, auch wenn diese von den internationalen Gremien nur als „optional” spezifiziert wurde.&lt;br /&gt;
&lt;br /&gt;
Beide Verfahren werden im Buch [[Einführung in die Kanalcodierung]] ausführlich behandelt. Hier folgt eine kurze Zusammenfassung der Reed–Solomon–Codierung im Hinblick auf die Anwendung bei DSL:&lt;br /&gt;
*Mit der Reed–Solomon–Codierung werden Redundanzbytes für fest vereinbarte Stützstellen des Nutzdatenpolynoms generiert.&lt;br /&gt;
*Bei systematischer RS–Codierung wird ähnlich dem CRC–Verfahren ein Prüfwert berechnet und an den zu schützenden Datenblock angehängt.&lt;br /&gt;
*Die Daten werden jedoch nicht mehr bitweise, sondern byteweise verarbeitet. Demzufolge werden arithmetische Operationen nicht mehr im Galois–Feld GF( 2 ) ausgeführt, sondern in GF( $2^8$ ).&lt;br /&gt;
&lt;br /&gt;
Die Reed–Solomon–Prüfziffer lässt sich auch als Divisionsrest einer Polynomdivision ermitteln, bei xDSL mit folgenden Parametern:&lt;br /&gt;
*Anzahl $S$ der zu überwachenden DMT–Symbole pro Reed–Solomon Codewort (mindestens 1 für den Fast–Puffer, mindestens $2^0$ bis $2^4$ für den Interleaved–Puffer),&lt;br /&gt;
*Anzahl $K$ der Nutzdatenbytes in den S DMT–Symbolen, definiert als Polynom $B(x)$ vom Grad $K$, wobei das „B” auf Bytes hinweist,&lt;br /&gt;
*Anzahl $R$ der RS–Prüfbytes (gerade Zahl zwischen 2 bis 16) pro Prüfwert (Fast oder Interleaved),&lt;br /&gt;
*Summe $N = K + R$ der Nutzdatenbytes und Prüfbytes des Reed–Solomon–Codewortes.&lt;br /&gt;
&lt;br /&gt;
Die Besonderheiten der RS–Codierung bei xDSL werden hier ohne weitere Kommentierung angegeben:&lt;br /&gt;
*Bei xDSL muss die Anzahl $R$ der Prüfbytes ein ganzzahliges Vielfaches der Symbolanzahl $S$ sein, damit diese im Nutzdatenpolynom gleichmäßig verteilt werden können.&lt;br /&gt;
*Die sog. MDS–Codes (''Maximum Distance Separable'') – eine Unterklasse der RS–Codes – erlauben die Korrektur von $R/2$ verfälschten Nutzdatenbytes.&lt;br /&gt;
*Vom gewählten RS–Code für die DMT–Systeme ergibt sich als Einschränkung eine maximale Codewortlänge von $2^8–1 = 255$ Byte entsprechend 2040 Bit.&lt;br /&gt;
*Die Redundanz der RS–Codes kann bei ungünstigen Codeparametern eine beachtliche Datenmenge erzeugen, wodurch die Nettoübertragungsrate erheblich geschmälert wird.&lt;br /&gt;
*Es empfiehlt sich eine sinnvolle Aufteilung der Datenübertragungsmenge (Bruttodatenrate) in Nutzdaten (Nettodatenrate, ''Payload'') und Fehlerschutzdaten (''Overhead'').&lt;br /&gt;
*Die Reed–Solomon–Codierung erzielt einen hohen Codiergewinn. Ein System ohne Codierung müsste für die gleiche Bitfehlerrate ein um 3 dB besseres SNR aufweisen.&lt;br /&gt;
*Durch die TCM in Verbindung mit den vorher vorgestellten Fehlerschutzmaßnahmen fällt der Codiergewinnn höchst unterschiedlich aus; er bewegt sich zwischen 0 dB und 6 dB.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==Interleaving und De–Interleaving==  	 &lt;br /&gt;
&lt;br /&gt;
Gemeinsame Aufgabe von Interleaver (beim Sender) und De–Interleaver (beim Empfänger) ist es, die empfangenen Reed–Solomon–Codewörter über einen größeren Zeitbereich zu verteilen, um eventuell auftretende Übertragungsfehler auf mehrere Codeworte zu verteilen und damit die Chance einer korrekten Decodierung zu erhöhen.&lt;br /&gt;
Das Interleaving ist durch den Parameter $D$ (die so genannte Tiefe) charakterisiert, der Werte zwischen $2^0$ und $2^9$ annehmen kann. Die Grafik verdeutlicht das Prinzip anhand der Reed–Solomon–Codeworte $A$, $B$, $C$ mit jeweils 5 Byte sowie der Interleaver–Tiefe $D$ = 2.&lt;br /&gt;
&lt;br /&gt;
Jedes Byte $B_i$ des mittleren Reed–Solomon–Codewortes $B$ wird um $V_i = (D – 1) · i$ Bytes verzögert und es werden zwei Interleaver–Blöcke gebildet:&lt;br /&gt;
Im ersten sind die Bytes $B_0$, $B_1$ und $B_2$ zusammen mit den Bytes $A_3$ und $A_4$ des vorherigen Codewortes zusammengefasst, im zweiten die Bytes $B_3$ und $B_4$ zusammen mit den Bytes $C_0$, $C_1$ und $C_2$ des nachfolgenden Codewortes. Dies hat folgende Vorteile (vorausgesetzt, dass $D$ hinreichend groß ist):&lt;br /&gt;
*Die Fehlerkorrekturmöglichkeiten des Reed–Solomon–Codes werden verbessert.&lt;br /&gt;
*Die Nutzdatenrate bleibt gleich, wird also nicht vermindert (Redundanzfreiheit).&lt;br /&gt;
*Bei Störungen müssen nicht ganze Pakete auf Protokollebene wiederholt werden.&lt;br /&gt;
&lt;br /&gt;
Nachteilig ist, dass es mit zunehmender Interleaver–Tiefe zu merklichen Verzögerungszeiten (in der Größenordnung von Millisekunden) kommen kann, was für Echtzeitanwendungen große Probleme bereitet. Interleaving mit geringer Tiefe ist nur bei genügend hohem Signal–zu–Rausch–Abstand sinnvoll.&lt;br /&gt;
&lt;br /&gt;
Ein Beispiel für die Vorteile von Interleaver und De–Interleaver bei Vorhandensein von Bündelfehlern zeigt die Grafik am Ende dieser Seite:&lt;br /&gt;
*In der ersten Zeile sind die Bytefolgen nach der Reed–Solomon–Codierung dargestellt, wobei jedes Codeworte beispielhaft aus 7 Bytes besteht.&lt;br /&gt;
*In der mittleren Zeile werden die Datenbytes durch das Interleaving mit $D$ = 3 verschoben, sodass zwischen $C_i$ und $C_{i+1}$ zwei fremde Bytes liegen und das Codewort auf drei Blöcke verteilt wird.&lt;br /&gt;
*Es sei nun angenommen, dass während der Übertragung eine Impulsstörung drei aufeinander folgende Bytes in einem einzigen Datenblock verfälscht.&lt;br /&gt;
*Nach dem De–Interleaver ist die ursprüngliche Bytefolge der Reed–Solomon–Codewörter wieder hergestellt, wobei die drei fehlerhaften Bytes auf drei unabhängige Codewörter verteilt sind.&lt;br /&gt;
*Wurden bei der Reed–Solomon–Codierung jeweils zwei Redundanzbytes eingefügt, so lassen sich die nun separierten Byteverfälschungen vollständig korrigieren.&lt;br /&gt;
	 &lt;br /&gt;
&lt;br /&gt;
==Gain Scaling und Tone Ordering==  	&lt;br /&gt;
&lt;br /&gt;
Eine besonders vorteilhafte Eigenschaft von DMT ist die Möglichkeit, die Subkanäle (englisch: ''Bins'') individuell an die vorliegende Kanalcharakteristik anzupassen und eventuell ''Bins'' mit ungünstigem SNR ganz abzuschalten. Dabei wird wie folgt vorgegangen:&lt;br /&gt;
*Vor dem Start der Übertragung – und eventuell auch dynamisch während des Betriebs – wird vom DMT–Modem für jeden ''Bin'' die Kanalcharakteristik gemessen und entsprechend dem SNR individuell die maximale Übertragungsrate festgelegt (siehe Grafik).&lt;br /&gt;
*Während der Initialisierung tauschen die ''ADSL Transceiver Units'' Bin–Informationen aus, zum Beispiel die jeweiligen „Bits/Bin” und die erforderliche Sendeleistung (''Gain''). Dabei sendet die ATU–C Informationen über den Upstream und die ATU–R Informationen über die Downstream.&lt;br /&gt;
*Diese Mitteilung hat die Form $\{b_i, g_i\}$ wobei bi (4 Bit) die Größe der Konstellation angibt. Für den Upstream hat der Index die Werte $i$ = 1, ... , 31, für den Downstream $i$ = 1, ... , 255.&lt;br /&gt;
*Der Gain $g_i$ ist eine Festkommazahl mit 12 Bit. Beispielsweise steht $g_i$ = 001.010000000 für den Dezimalwert 1.25 und gibt an, dass die Signalleistung von Kanal i um 1.94 dB höher sein muss als die Leistung des während der Kanalanalyse gesendeten Testsignals.&lt;br /&gt;
&lt;br /&gt;
Beim gleichzeitigen Betrieb des Fast– und des Interleaved–Pfades (siehe Grafik auf Seite 4) kann durch eine optimierte Trägerfrequenzbelegung („Tone Ordering”) die Bitfehlerrate weiter gesenkt werden. Hintergrund dieser Maßnahme ist wieder das Clipping (Abschneiden von Spannungsspitzen), wodurch das SNR insgesamt verschlechtert wird. Dieses Verfahren beruht auf folgenden Regeln:&lt;br /&gt;
*''B''ins mit dichter Konstellation (viele Bits/Bin ⇒ größere Verfälschungswahrscheinlichkeit) werden dem Interleaved–Zweig, zugeordnet, da dieser durch den zusätzlichen Interleaver von Haus aus zuverlässiger ist. Entsprechend werden die Subkanäle mit niederwertiger Belegung (nur wenige Bits/Bin) für den Fast–Datenpuffer reserviert.&lt;br /&gt;
*Gesendet werden dann neue Tabellen für Upstream und Downstream, in denen die Bins nicht mehr nach dem Index geordnet sind, sondern entsprechend den Bits/Bin–Verhältnissen. Anhand dieser neuen Tabelle ist es für die ATU–C bzw. ATU–R möglich, die Bit–Extraktion erfolgreich durchzuführen&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Einfügen von Guard–Intervall und zyklischem Präfix == 	&lt;br /&gt;
&lt;br /&gt;
Im Kapitel 5.6 des Buches [[Modulationsverfahren]] wurde bereits gezeigt, dass durch die Einfügung eines Schutzabstandes – man nennt diesen auch ''Guard–Intervall'' oder ''Guard–Lücke'' – die Bitfehlerrate bei Vorhandensein von linearen Kanalverzerrungen entscheidend verbessert werden kann.&lt;br /&gt;
&lt;br /&gt;
Wir gehen davon aus, dass sich die Kabelimpulsantwort $h_{\rm K}(t)$ über die Zeitdauer $T_{\rm K}$ erstreckt. Ideal wäre $h_{\rm K}(t) = δ(t)$ und dementsprechend $T_{\rm K}$ = 0. Bei verzerrendem Kanal ( $T_{\rm K}$ &amp;gt; 0 ) gilt:&lt;br /&gt;
*Durch Einfügung eines ''Guard–Intervalls'' der Dauer  $T_{\rm G}$ lassen sich ''Intersymbolinterferenzen'' zwischen den einzelnen DSL–Rahmen vermeiden, solange  $T_{\rm G}$ ≥  $T_{\rm K}$ gilt. Diese Maßnahme führt allerdings zu einem Ratenverlust um den Faktor $T/(T +  T_{\rm G})$; hierbei ist $T = \frac{1}{f_0}$ die Symboldauer.&lt;br /&gt;
*Damit gibt es aber immer noch ''Inter–Carrier–Interferenzen'' zwischen den einzelnen Subträgern innerhalb des gleichen Rahmens, das heißt, die DMT–Einzelspektren sind nicht mehr si–förmig und es kommt zu einer De–Orthogonalisierung.&lt;br /&gt;
*Durch ein zyklisches Präfix lässt sich auch dieser störende Effekt vermeiden. Dabei erweitert man den Sendevektor $\mathbf{s}$ nach vorne um die letzten $L$ Abtastwerte des IDFT–Ausgangs, wobei der Minimalwert für $L$ durch die Dauer  $T_{\rm K}$ der Kabelimpulsantwort vorgegeben ist.&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt diese Maßnahme beim DSL/DMT–Verfahren, für das der Parameter $L$ = 32 festgelegt wurde. Die Abtastwerte $s_{480} , ... , s_{511}$ werden als Präfix $(s_{–32} , ... , s_{–1})$ zum IDFT–Ausgangsvektor $(s_0 , ... , s_{511})$ hinzugefügt. Das Sendesignal $s(t)$ hat nun statt der Symboldauer $T$ ≈ 232 μs die resultierende Dauer $T$ +  $T_{\rm G}$ = 1.0625T ≈ 246 μs. Dadurch wird die Rate um den Faktor 0.94 verringert.&lt;br /&gt;
Bei der empfangsseitigen Auswertung beschränkt man sich auf den Zeitbereich von 0 bis $T$. In diesem Zeitintervall ist der störende Einfluss der Impulsantwort bereits abgeklungen und die Subkanäle sind – ebenso wie bei idealem Kanal – zueinander orthogonal. Die Abtastwerte $s_{–32} , ... , s_{–1}$ werden am Empfänger verworfen – eine recht einfache Realisierung der Signalentzerrung.&lt;br /&gt;
	 &lt;br /&gt;
Die letzte Grafik dieses Kapitels zeigt das gesamte DMT–Übertragungssystem, allerdings ohne die auf den vorherigen Seiten beschriebenen Fehlerschutzmaßnahmen. Man erkennt:&lt;br /&gt;
*Im Block „Addiere zyklisches Präfix” werden die Abtastwerte $s_{480}, ... , s_{511}$ als $s_{–32}, ... , s_{–1}$ hinzugefügt. Das Sendesignal $s(t)$ hat somit den auf der letzten Seite gezeigten Verlauf.&lt;br /&gt;
*Das Empfangsignal $r(t)$ ergibt sich aus der Faltung von $s(t)$ mit $h_{\rm K}(t)$. Nach A/D–Wandlung und Entfernen des zyklischen Präfix erhält man die Eingangswerte $r_0, ... , r_{511}$ für die DFT.&lt;br /&gt;
*Die (komplexen) Ausgangswerte $D'_k$ der DFT hängen nur vom jeweiligen (komplexen) Datenwert $D_k$ ab. Unabhängig von anderen Daten $D_κ (κ ≠ k)$ gilt mit dem Rauschwert $n'_k$:&lt;br /&gt;
 &lt;br /&gt;
*Jeder Träger $D_k$ wird durch einen eigenen (komplexen) Faktor $α_k$, der nur vom Kanal abhängt, in seiner Amplitude und Phase verändert. Der Frequenzbereichsentzerrer hat lediglich die Aufgabe, den Koeffizienten $D'_k$ mit dem inversen Wert $\frac{1}{α_k}$ zu multiplizieren, und man erhält schließlich:&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
Diese einfache Realisierungsmöglichkeit der vollständigen Entzerrung des stark verzerrenden Kabelfrequenzgangs war eines der entscheidenden Kriterien, dass sich bei xDSL das DMT–Verfahren gegenüber QAM und CAP durchgesetzt hat. Meist findet direkt nach der A/D–Wandlung zusätzlich noch eine Vorentzerrung im Zeitbereich statt, um auch die Intersymbolinterferenzen zwischen benachbarten Rahmen zu vermeiden.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Aufgaben zu Kapitel 2.4==  	 &lt;br /&gt;
[[2.5_DSL–Fehlersicherungsmaßnahmen|Aufgabe 2.5: DSL–Fehlersicherungsmaßnahmen ]]&lt;br /&gt;
&lt;br /&gt;
[[2.5Z_ADSL–Reichweite_vs._–Bitrate|Zusatzaufgabe 2.5Z: ADSL–Reichweite vs. –Bitrate]]&lt;br /&gt;
&lt;br /&gt;
[[2.6_Zyklisches_Präfix|Aufgabe 2.6: Zyklisches Präfix]]&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/xDSL_as_Transmission_Technology&amp;diff=21293</id>
		<title>Examples of Communication Systems/xDSL as Transmission Technology</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/xDSL_as_Transmission_Technology&amp;diff=21293"/>
		<updated>2018-01-02T19:34:11Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=DSL – Digital Subscriber Line&lt;br /&gt;
|Vorherige Seite=xDSL–Systeme&lt;br /&gt;
|Nächste Seite=Verfahren zur Senkung der Bitfehlerrate bei DSL&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Mögliche Bandbreitenbelegungen für xDSL==  	 &lt;br /&gt;
&lt;br /&gt;
Die xDSL–Spezifikationen lassen den Betreibern viele Freiheiten hinsichtlich der Belegung. Zur notwendigen Richtungstrennung der xDSL–Signalübertragung nach&lt;br /&gt;
*Abwärtsrichtung vom Anbieter zum Kunden (''Downstream'' mit möglichst hoher Datenrate),&lt;br /&gt;
*Aufwärtsrichtung vom Kunden zum Anbieter (''Upstream'' mit meist niedrigerer Datenrate)&lt;br /&gt;
wurden hierfür zwei Varianten standardisiert:&lt;br /&gt;
*Beim '''Frequenzgetrenntlageverfahren''' werden die Datenströme für die beiden Richtungen in zwei voneinander getrennten Frequenzbändern übertragen mit dem Vorteil, dass zur Trennung der Übertragungsrichtungen ein einfaches Filter genügt, was die technische Realisierung vereinfacht.&lt;br /&gt;
*Beim '''Frequenzgleichlageverfahren''' überlagern sich in einem bestimmten Teil die Spektren von Upstream und Downstream. Die Trennung erfolgt hier mit Hilfe einer Echokompensationsschaltung. Vorteile des Verfahrens sind der geringere Bandbreitenbedarf bei höheren (und damit stärker gedämpften) Frequenzen sowie eine größere Reichweite.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Grafik stellt diese beiden Möglichkeiten vergleichend gegenüber.&lt;br /&gt;
&lt;br /&gt;
Grundsätzlich überlassen die Spezifikationen den Entwicklern/Betreibern die Entscheidung,&lt;br /&gt;
*xDSL alleine auf der Teilnehmeranschlussleitung zu betreiben, oder&lt;br /&gt;
*einen Mischbetrieb von xDSL mit den Telefondiensten POTS (''Plain Old Telephone Service'') oder ISDN (''Integrated Services Digital Network'') zu ermöglichen, und somit&lt;br /&gt;
*den von den beiden Telefondiensten belegten unteren Frequenzbereich für xDSL auszuschließen oder auch zu belegen.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==ADSL–Bandbreitenbelegung in Deutschland==  	 &lt;br /&gt;
&lt;br /&gt;
Wegen der technisch deutlich einfacheren Realisierbarkeit fiel in Deutschland für ADSL und ADSL2+ die Entscheidung zugunsten&lt;br /&gt;
*des Frequenzgetrenntlageverfahrens,&lt;br /&gt;
*die generelle Reservierung des unteren Frequenzbereichs für ISDN.&lt;br /&gt;
&lt;br /&gt;
Das Frequenzgleichlageverfahren wird zwar teilweise noch verwendet, aber eher selten.&lt;br /&gt;
&lt;br /&gt;
Bei den Übertragungsverfahren QAM und CAP wird die für DSL verfügbare Bandbreite nicht weiter zerlegt. Dagegen werden beim Mehrträgerverfahren DMT der Aufwärtskanal und der Abwärtskanal in $N_{\rm Up}$ bzw. $N_{\rm Down}$ Subkanäle (englisch: ''Bins'') zu je 4.3125 kHz aufgeteilt.&lt;br /&gt;
Außerdem ist zu dieser Grafik anzumerken:&lt;br /&gt;
*Telefondienste (POTS bzw. ISDN) und xDSL liegen in verschiedenen Frequenzbändern, was die gegenseitigen Störungen im Bündelkabel minimiert. Das signalstärkere ISDN stört somit nicht das parallel laufende xDSL und umgekehrt.&lt;br /&gt;
*Der untere Frequenzbereich bis 120 kHz wurde für ISDN (wahlweise POTS) reserviert. Dieser Wert ergibt sich aus der ersten Nullstelle des ISDN–Spektrums mit 4B3T–Codierung. Oberhalb von 120 kHz wird das ISDN–Spektrum vollständig unterdrückt.&lt;br /&gt;
*Zur Trennung von Telefon– und xDSL–Signal wird an beiden Enden der Zweidrahtleitung ein Splitter eingesetzt, der je ein Tiefpassfilter und ein Hochpassfilter beinhaltet und auch die folgende Frequenzlücke bis 138 kHz berücksichtigt.&lt;br /&gt;
*Nach dieser Belegungslücke folgt das ADSL–Upstream-Band von 138 kHz bis 276 kHz. Diese Bandbreite erlaubt die Übertragung von $N_{\rm Up}$ = 32 Subträgern zu je 4.3125 kHz. Dieser Wert ergibt sich aus der Rahmenübertragungsgeschwindigkeit.&lt;br /&gt;
*Der anschließende Downstream–Bereich reicht bei ADSL bis 1104 kHz, womit $N_{\rm Down}$ = 256 Subträger realisiert werden können. Die Trennung von Auf– und Abwärtskanal bei xDSL erfolgt über ein Bandpassfilter im Modem.&lt;br /&gt;
*Allerdings dürfen die ersten 64 Subträger (das entspricht 276 kHz) nicht belegt werden. Beim Frequenzgleichlageverfahren wären nur 32 Subträger auszusparen, wobei zu berücksichtigen ist, dass die Trennung von Aufwärts– und Abwärtsrichtung eine aufwändigere Realisierung erfordert.&lt;br /&gt;
*Bei ADSL2+ ist die Systembandbreite gleich 2208 kHz ⇒ $N_{\rm Down}$ = 512 Subträger. Die Anzahl der auszusparenden Bins bleibt gegenüber ADSL unverändert. Berücksichtigt man, dass zwei Bins von Kontrollfunktionen (z.B. zur Synchronisation von Sender und Empfänger) belegt werden, so verbleiben 190 (ADSL) bzw. 446 (ADSL2+) Downstream–Kanäle für Nutzer.&lt;br /&gt;
*Die in Deutschland vorgeschriebene ISDN–Reservierung hat für xDSL allerdings die Konsequenz, dass die niedrigen Frequenzen, die bei einer Kupferleitung mit Abstand am wenigsten gedämpft werden und damit eigentlich am besten geeignet wären, nicht genutzt werden können.&lt;br /&gt;
*Aus der Frequenzanordnung erkennt man weiterhin, dass die Downstream–Subkanäle stärker gedämpft werden als die Upstream–Subkanäle (höhere Frequenzen) und demzufolge ein kleineres Signal–zu–Rauschleistungsverhältnis (SNR) aufweisen.&lt;br /&gt;
*Die Entscheidung „Upstream unterhalb Downstream” hängt damit zusammen, dass der Ausfall von Downstream–Kanälen nur eine vergleichsweise geringe Auswirkung auf die Übertragungsrate hat. Im Upstream würde sich ein solcher Ausfall prozentual viel stärker bemerkbar machen.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==VDSL2–Bandbreitenbelegung==  	&lt;br /&gt;
&lt;br /&gt;
Für VDSL2 hat die ITU mehrere Profile festgelegt. Für die in Deutschland eingesetzten Systeme gilt zum Zeitpunkt der Erstellung dieses Kapitels (2010) die in der Grafik angegebene Frequenzbandbelegung gemäß dem VDSL2 Plan 998b – Profil 17a (Annex B) der ITU. Die (leicht) hellere Farbgebung bei den höheren Frequenzen soll darauf hinweisen, dass diese Kanäle stärker gedämpft werden.&lt;br /&gt;
&lt;br /&gt;
Ohne Anspruch auf Vollständigkeit lässt sich dieser Belegungsplan wie folgt charakterisieren:&lt;br /&gt;
*Um höhere Bitraten zu erreichen, werden hier achtmal so viele Bins verwendet als bei ADSL2+. Damit beträgt die Systembandbreite 8 · 2208 MHz = 17664 MHz, womit Übertragungsraten bis zu 100 Mbit/s (abhängig von Kabellänge und –beschaffenheit) ermöglicht werden.&lt;br /&gt;
*Auch hier gilt, dass die Frequenzbänder für die Upstream–Subkanäle immer bei den niedrigeren Frequenzen angeordnet sind, da die größere Kabeldämpfung (mit der Frequenz zunehmend) beim Upstream einen prozentual größeren Einfluss auf die Gesamtbitrate hat als beim Downstream.&lt;br /&gt;
*Bei VDSL2–Systemen wird stets das so genannte Frequenzgetrenntlageverfahren verwendet. Eine Überlappung der Upstream– und Downstream–Frequenzbänder ist in der ITU–Spezifikation für VDSL2 kategorisch ausgeschlossen.&lt;br /&gt;
*Bei den VDSL–Systemen in Deutschland sind die unteren Frequenzen wieder für ISDN reserviert. Danach folgen abwechselnd Bereiche für Upstream und Downstream. Aus den angegebenen Bereichsgrenzen erkennt man die gegenüber dem Downstream schmäleren Upstream–Bereiche.&lt;br /&gt;
*Man erkennt eine abwechselnde Anordnung von Upstream– und Downstreambereichen. Ein Grund hierfür ist, dass bei diesem breiten Spektrum vermieden werden soll, dass eine Richtung (zum Beispiel abwärts) nur stark gedämpfte Frequenzen (also hohe) zugewiesen bekommt.&lt;br /&gt;
*Die VDSL2–Spezifikation sieht Belegungspläne bis zu Systembandbreiten von 30 MHz (nach dem Profil 30a) vor, die Übertragungsraten bis etwa 200 Mbit/s auf kurzen Strecken ermöglichen sollen. Dafür wird auch die Bandbreite der einzelnen Subkanäle gegenüber ADSL auf 8.625 kHz verdoppelt.&lt;br /&gt;
*Alle Belegungspläne werden mit verschiedenen Masken für das Leistungsdichtespektrum versehen, um so die maximale Sendeleistung und damit auch die Störung benachbarter Systeme im Kabelbündel (Nebensprechen) zu begrenzen.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==Übertragungsverfahren im Überblick==  	 	&lt;br /&gt;
&lt;br /&gt;
Zu Beginn der verschiedenen Standardisierungsprozeduren für die einzelnen xDSL–Varianten wurden als Basis verschiedene Übertragungsverfahren festgelegt:&lt;br /&gt;
*Pulscodemodulation (PCM) für ISDN sowie ''Trellis Coded–Pulse Amplitude Modulation'' für HDSL2 und SHDSL/SDSL,&lt;br /&gt;
*Quadratur–Amplitudemodulation (QAM) für QAM–ADSL und QAM–VDSL,&lt;br /&gt;
*Carrierless Amplitude/Phase Modulation (CAP) für CAP–HDSL und CAP–ADSL,&lt;br /&gt;
*Discrete Multitone Transmission (DMT) für ADSL, ADSL2, ADSL 2+, VDSL und VDSL2.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Mit zunehmender Forderung des Marktes nach höheren Übertragungsraten und den damit verbundenen Anforderungen kristallisierten sich zwei geeignete Hauptverfahren heraus, nämlich&lt;br /&gt;
*QAM/CAP,&lt;br /&gt;
*DMT.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Da sich die Hersteller von 1997 bis 2003 auch aus patentrechtlichen Gründen auf keinen gemeinsamen Standard einigen konnten (man spricht in diesem Zusammenhang sogar von ''Line Code Wars''), kam es lange Zeit zur Koexistenz beider konkurrierender Verfahren. Bei den so genannten DSL–Olympics 2003 wurde schließlich die Entscheidung zugunsten von DMT getroffen,&lt;br /&gt;
*einerseits wegen der etwas besseren Performance allgemein,&lt;br /&gt;
*insbesondere aber wegen der höheren Robustheit gegenüber Schmalbandstörungen.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Insbesondere für die USA (viele Telefonfreileitungen und damit verbundene Probleme mit eingekoppelten Funksignalen) hat das zweite Argument eine große Rolle gespielt.&lt;br /&gt;
Die heutigen (2010) in Deutschland vorwiegend angebotenen xDSL–Varianten ADSL2(+) und VDSL2 basieren alle auf dem ''Discrete Multitone Transmission''–Verfahren, wobei aber die einzelnen Subträger durchaus mit QAM–Signalen belegt sein können.&lt;br /&gt;
Zunächst sollen aber in aller Kürze xDSL–QAM– und xDSL–CAP–Systeme betrachtet werden.&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
==Grundlagen der Quadratur–Amplitudenmodulation==  	 &lt;br /&gt;
&lt;br /&gt;
Die folgende Grafik zeigt das Referenzmodell für QAM–ADSL, wobei wir uns hier nur mit den beiden roten Funktionsblöcken '''QAM–Modulator''' und '''QAM–Demodulator''' beschäftigen wollen.&lt;br /&gt;
&lt;br /&gt;
Die Trägerfrequenz $f_T$ liegt jeweils innerhalb des spezifizierten Auf– und Abwärts–Bandes der jeweiligen xDSL–Variante. Sie wird ebenso wie die Signalraumgröße (zwischen 4 und 256 Signalraumpunkte) und die Symbolrate durch Kanalmessungen bei der Initialisierung der Übertragung festgelegt.&lt;br /&gt;
&lt;br /&gt;
Für QAM–ADSL wurden folgende Symbolraten (in kBaud = 1000 Symbole/s) festgelegt:&lt;br /&gt;
*20, 40, 84, 100, 120, 136 im Upstream,&lt;br /&gt;
*40, 126, 160, 252, 336, 504, 806.4, 1008 im Downstream.&lt;br /&gt;
&lt;br /&gt;
Das QAM–Prinzip wurde bereits im Kapitel 4.3 des Buches „Modulationsverfahren” ausführlich beschrieben. Hier folgt nur eine kurze Zusammenfassung anhand der folgenden Grafik bezieht:&lt;br /&gt;
&lt;br /&gt;
*QAM ist ein Einträgermodulationsverfahren um die Trägerfrequenz $f_T$. Zunächst erfolgt eine blockweise Seriell–/Parallelwandlung des Bitstroms und die Signalraumzuordnung.&lt;br /&gt;
*Aus jeweils $b$ Binärsymbolen werden zwei mehrstufige Amplitudenkoeffizienten $a_{In}$ und $a_{Qn}$ abgeleitet (Inphase– und Quadraturkomponente), wobei beide Koeffizienten jeweils einen von $M = 2^{b/2}$ möglichen Amplitudenwerten annehmen können.&lt;br /&gt;
*Das in der Grafik betrachtete Beispiel gilt für die 16–QAM mit $b$ = $M$ = 4 und dementsprechend 16 Signalraumpunkten. Bei einer 256–QAM würde $b$ = 8 und $M$ = 16 gelten ( $2^b = M^2 = 256$ ).	 &lt;br /&gt;
*Die Koeffizienten $a_{In}$ und $a_{Qn}$ werden jeweils einem Diracpuls als Impulsgewichte eingeprägt. Nach der Impulsformung  ⇒  Sendegrundimpuls $g_s(t)$ gilt in den Zweigen des Blockschaltbilds:&lt;br /&gt;
 &lt;br /&gt;
Für die Impulsformung kommen meist Cosinus–Rolloff–Filter (geringe Bandbreite !) zum Einsatz.&lt;br /&gt;
*Anzumerken ist, dass wegen der redundanzfreien Umsetzung die Symboldauer $T$ dieser Signale um den Faktor $b$ größer ist als die Bitdauer $T_{\rm B}$ der binären Eingangsfolge. Im gezeichneten Beispiel (16–QAM) gilt $T = 4 · T_{\rm B}$.&lt;br /&gt;
*Das '''QAM–Sendesignal''' $s(t)$ ist dann die Summe der beiden mit Cosinus bzw. Minus–Sinus multiplizierten Teilsignale (möglicherweise folgt noch eine Bandbegrenzung, um Interferenzen zu benachbarten Bändern zu verhindern, siehe Grafik):&lt;br /&gt;
 &lt;br /&gt;
*Die beiden Zweige (I und Q) können wegen der Orthogonalität von Cosinus– und (Minus–) Sinus als zwei völlig getrennte $M$–stufige ASK–Systeme aufgefasst werden, die sich gegenseitig nicht stören, solange alle Komponenten optimal ausgelegt sind.&lt;br /&gt;
*Das bedeutet gleichzeitig: Die Quadratur–Amplitudenmodulation ermöglicht gegenüber einer BPSK (Modulationnur mit Cosinus oder Sinus) eine Verdoppelung der Datenrate bei gleichbleibender Qualität.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt oben das BP–Modell, unten das äquivalente TP–Modell. Man kombiniert Inphase– und Quadraturkoeffizient zum komplexen Amplitudenkoeffizienten $a_n = a_{\text{I}n} + j · a_{\text{Q}n}$ und ersetzt zusätzlich das BP–Signal $s(t)$ durch das äquivalente TP–Signal $s_{\rm TP}(t) = s_{\rm I}(t) + j · s_{\rm Q}(t)$.&lt;br /&gt;
&lt;br /&gt;
Die Darstellung des QAM–Senders und des hier nicht explizit aufgeführten QAM–Empfängers ist Inhalt der Flash–Animation  Prinzip der Quadratur–Amplitudenmodulation.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Mögliche QAM–Signalraumkonstellationen==  	 &lt;br /&gt;
&lt;br /&gt;
Ein wichtiger QAM–Parameter ist die Anzahl $b$ der Bits, die zum Amplitudenkoeffizientenpaar ( $a_{\rm I}, a_{\rm Q}$ ) verarbeitet werden. Hierbei ist $b$ stets geradzahlig. Ist $b$ = 2, so kann sowohl aI als auch $a_{\m Q}$ nur die beiden Werte ±1 annehmen und es ergibt sich die '''4–QAM''' entsprechend der linken Konstellation in nachfolgender Grafik. Entsprechend einer ITU–Empfehlung gilt dabei die Zuordnung:&lt;br /&gt;
  &lt;br /&gt;
Der gelb markierte Punkt '''10''' ( $a_{\rm I}$ = –1, $a_{\rm Q}$ = 1) steht also für $q_1$ = 1, $q_0$ = 0.&lt;br /&gt;
&lt;br /&gt;
Mit $b = 4$ ⇒ $M = 2^{b/2} = 4$ kommt man zur '''16–QAM''' entsprechend dem rechten Diagramm mit den möglichen Amplitudenkoeffizienten $a_{\rm I}$ ∈ {±3, ±1} und $a_{\rm Q}$ ∈ {±3, ±1}. Dieses lässt sich mit Hilfe des links unten angegebenen Hilfsgrafen ermitteln, wie die nachfolgenden zwei Beispiele verdeutlichen sollen.&lt;br /&gt;
* $q_3$ = 1, $q_2$ = 0, $q_1$ = 1, $q_0$ = 1 (gelbe Markierung). Die beiden höchstwertigen Bit (''Most Significant Bit'', MSB) '''10''' bestimmen entsprechend dem 4–QAM–Diagramm den Quadranten, in dem das Symbol liegt. Die beiden niederwertigen Bit ('''11''') legen zusammen mit dem Hilfsgrafen den Punkt innerhalb des Quadranten fest. Das Ergebnis ist $a_{\rm I}$ = –1, $a_{\rm Q}$ = +3.&lt;br /&gt;
*Entsprechend liefern die Eingangsbits $q_3$ = 0, $q_2$ = 1, $q_1$ = 1, $q_0$ = 0 (grüne Markierung) die Koeffizienten $a_{\rm I}$ = +3, $a_{\rm Q}$ = –3.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==Carrierless Amplitude Phase Modulation (CAP)==  	&lt;br /&gt;
&lt;br /&gt;
''Carrierless Amplitude Phase Modulation'' (CAP) ist eine bandbreiteneffiziente Variante der QAM, die sich mit digitalen Signalprozessoren sehr einfach realisieren lässt. Der Unterschied zur QAM liegt einzig darin, dass auf eine Modulation mit einem Trägersignal verzichtet werden kann.&lt;br /&gt;
&lt;br /&gt;
Anstelle der Multiplikation mit Cosinus und Minus–Sinus wird hier eine digitale Filterung vorgenommen. $g_{\rm I}(t)$ und $g_{\rm Q}(t)$ sind die um $π/2$ phasenverschobenen Impulsantworten zweier transversaler Bandpassfilter mit gleicher Amplitudencharakteristik. Beide sind zueinander orthogonal, das heißt, dass das Integral des Produkts $g_{\rm I}(t) · g_{\rm Q}(t)$ über eine Symboldauer den Wert 0 ergibt.&lt;br /&gt;
*Die so erzeugten Signale $s_{\rm I}(t)$ und $s_{\rm Q}(t)$ werden zusammengeführt, durch einen Digital–Analog–Wandler in ein zeitkontinuierliches Signal gewandelt und die bei der D/A–Wandlung erzeugten unerwünschten hochfrequenten Anteile vor dem Aussenden durch ein Tiefpassfilter (TP) eliminiert.&lt;br /&gt;
*Beim Empfänger wird das Signal $r(t)$ zunächst mittels A/D–Wandler in ein zeitdiskretes Signal gewandelt und anschließend werden über zwei ''Finite–Impulse–Response''–Filter (FIR–Filter) und nachgelagerte Entscheider die Inphase– und Quadratur–Symbole $a_{\rm I}$ und $a_{\rm Q}$ extrahiert.&lt;br /&gt;
&lt;br /&gt;
CAP war der de–facto–Standard bei den anfänglichen ADSL–Spezifikationen bis 1996. Die Frequenzen bis 4 kHz wurden für POTS reserviert. Der CAP–ADSL–Aufwärtskanal belegte den Frequenzbereich von 25 kHz bis 160 kHz und der Abwärtskanal die Frequenzen von 240 kHz bis 1.5 MHz. Die folgende Grafik zeigt das Referenzmodell.&lt;br /&gt;
&lt;br /&gt;
Ein Problem bei CAP ist, dass ein „schlechter Kanal” dramatische Folgen auf die Übertragungsqualität hat. Deshalb findet man heute (2010) CAP–ADSL nur noch bei einigen wenigen HDSL–Varianten.&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Grundlagen von DMT – Discrete Multitone Transmission==  	 &lt;br /&gt;
&lt;br /&gt;
''Discrete Multitone Transmission'' (DMT) bezeichnet ein Mehrträgermodulationsverfahren, das nahezu identisch mit Orthogonal Frequency Division Multiplexing (OFDM) ist. Bei leitungsgebundener Übertragung spricht man meist von „DMT”, bei drahtloser Übertragung von „OFDM”.&lt;br /&gt;
In beiden Fällen unterteilt man die gesamte Bandbreite in eine große Anzahl schmalbandiger äquidistanter Subkanäle. Die jeweiligen Subträgersignale $s_k(t)$ werden individuell mit komplexen Datensymbolen $D_k$ beaufschlagt und die Summe der modulierten Subträgersignale wird als Sendesignal $s(t)$ übertragen.&lt;br /&gt;
&lt;br /&gt;
Die Grafik verdeutlicht das Prinzip von OFDM und DMT im Frequenzbereich, wobei teilweise die für ADSL/DMT spezifizierten Werte verwendet sind:&lt;br /&gt;
*255 Subträger mit den Trägerfrequenzen $k · f_0$ ( $k$ = 1, ... , 255 ),&lt;br /&gt;
*Grundfrequenz $f_0$ = 4.3125 kHz, da 4000 Datenrahmen pro Sekunde übertragen werden, nach 68 Datenrahmen ein Synchronisationsrahmen eingefügt wird und aufgrund des zyklischen Präfix (siehe Kapitel 2.4) die Symboldauer $T = 1/f_0$ noch um den Faktor 16/17 verkürzt werden muss.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ein wesentlicher Unterschied zwischen OFDM und DMT besteht darin, dass&lt;br /&gt;
*bei OFDM das dargestellte Spektrum $S(f)$ in Wirklichkeit ein äquivalentes Tiefpass-Spektrum $S_{\rm TP}(f)$ beschreibt und noch die Verschiebung um eine Trägerfrequenz $f_{\rm T}$ zu berücksichtigen ist:&lt;br /&gt;
 &lt;br /&gt;
*bei DMT dagegen noch die Anteile bei negativen Frequenzen berücksichtigt werden müssen, die mit den konjugiert–komplexen Spektralkoeffizienten zu gewichten sind:&lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
Nach den Gleichungen der letzten Seite besteht das komplexe OFDM–Signal $s_{\rm OFDM}(t)$ aus $K$ = 255 komplexen Exponentialschwingungen. Das DMT–Signal $s_{\rm DMT}(t)$ setzt sich aus ebenso vielen Cosinusschwingungen mit Frequenzen $k · f_0$ zusammen (volle Belegung voausgesetzt). Trotz komplexer Koeffizienten $D_k$, die sich bei QAM–Belegung der Träger ergeben, ist das DMT–Signal wegen der konjugiert–komplexen Ergänzungen bei negativen Frequenzen stets reell.&lt;br /&gt;
Sowohl bei OFDM als auch bei der DMT ist allerdings das Sendesignal $s(t)$ zeitlich genau auf die Symboldauer $T = 1/f_0 ≈ 232 {\rm μs}$ begrenzt, was mathematisch der Multiplikation mit einem Rechteck der Dauer $T$ bedeutet. Im Spektralbereich entspricht dies der Faltung mit einer Spaltfunktion $\text{si}(πfT)$:&lt;br /&gt;
*Aus jeder Diracfunktion bei $k · f_0$ wird somit bei Berücksichtigung der zeitlichen Begrenzung eine si–Funktion an gleicher Stelle, wie im unteren Diagramm dargestellt.&lt;br /&gt;
*Benachbarte Subträgerspektren überlappen sich zwar auf der Frequenzachse, aber bei $k · f_0$ sind wieder die Koeffizienten $D_k$ zu erkennen, da alle anderen Spektren hier Nullstellen aufweisen.&lt;br /&gt;
*Für die untere Grafik ist ein symmetrisches Rechteck angenommen. Ein Rechteck zwischen 0 und $T$ hätte noch einen Phasenterm zur Folge. Es würde sich aber nichts bezüglich $|S(f)|$ ändern.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Geht man von den für den ADSL–Downstream günstigen Voraussetzungen aus, nämlich dass&lt;br /&gt;
*pro Sekunde 4000 Rahmen übertragen werden,&lt;br /&gt;
*stets alle Subträger aktiv sind ( $K$ = 255 ),&lt;br /&gt;
*jeder Träger mit einer 1024–QAM ( $b$ = 10, laut ITU 8 ≤ $b$ ≤ 15 ) belegt ist, und&lt;br /&gt;
*ideale Bedingungen herrschen, so dass die in der Grafik erkennbare Orthogonalität erhalten bleibt,&lt;br /&gt;
&lt;br /&gt;
so ergibt sich für die maximale Daten(bit)rate $R_{\rm B,max}$ = 4000 · $K$ · $b$ ≈ 10 Mbit/s. Spezifiziert ist der ADSL–Downstream allerdings nur mit 2 Mbit/s (Aussparung der 64 untersten Träger wegen ISDN und Upstream, QAM–Belegung der stark gedämpften Träger mit weniger als 10 Bit, Berücksichtigung des zyklischen Präfix sowie einige betriebsbedingte Gründe).&lt;br /&gt;
	 &lt;br /&gt;
&lt;br /&gt;
==DMT–Realisierung mit IDFT/DFT==  &lt;br /&gt;
&lt;br /&gt;
Die folgende Grafik zeigt das DMT–Gesamtsystem, wobei wir uns zunächst auf die beiden roten Blöcke konzentrieren. Die blauen Blöcke werden im Kapitel 2.4 behandelt.&lt;br /&gt;
&lt;br /&gt;
In vereinfachter Form lassen sich Sender und Empfänger wie in der unteren Grafik darstellen:&lt;br /&gt;
*Zur Durchführung der DMT–Modulation wird beim Sender ein Block an Eingangsbits in einem Datenpuffer angesammelt, der als ein Rahmen übertragen werden soll.&lt;br /&gt;
*Der QAM–Coder liefert pro Rahmen die komplexwertigen Datensymbole $D_1, ... , D_{255}$, die mit $D_0 = D_{256} = 0$ sowie $D_k = D_{512}–k∗ (k = 257, ... , 511)$ zum Vektor $\mathbf{D}$ der Länge 512 erweitert wird. Als Konsequenz finiter Signale sind $D_{257}, ... , D_{511}$ identisch mit $D_{–255}, ... , D_{–1}$.&lt;br /&gt;
*Die Spektralabtastwerte $\mathbf{D}$ werden mittels der Inversen Diskreten Fouriertransformation (IDFT) in den Vektor $\mathbf{s}$ der Zeitsignalabtastwerte umgerechnet, ebenfalls mit Länge 512. Wegen der konjugiert–komplexen Belegung im Spektralbereich ist $\text{Im}\{\mathbf{s}\}$ = 0.&lt;br /&gt;
*Nach Parallel/Seriell– und Digital/Analog–Wandlung und Tiefpassfilterung von $\text{Re}\{\mathbf{s}\}$ ergibt sich das physikalische und damit reelle sowie zeitkontinuierliche Sendesignal $s(t)$. Für dieses gilt im Bereich 0 ≤ $t$ ≤ $T$ (Faktor 2, da jeweils zwei Koeffizienten zu Cosinus/Sinus beitragen):&lt;br /&gt;
 &lt;br /&gt;
*Das Empfangssignal bei Übertragung über den AWGN–Kanal ist $r(t) = s(t) + n(t)$. Nach A/D– und S/P–Wandlung kann $r(t)$ durch den (reellen) Vektor $\mathbf{r}$ ausgedrückt werden. Die Diskrete Fouriertransformation (DFT) liefert dann Schätzwerte für die gesendeten Spektralkoeffizienten.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
Betrachten wir als Beispiel den ADSL/DMT–Downstream. In der linken Grafik erkennt man die Beträge $|D_k|$ der belegten Subkanäle 64, ... , 255. Die Träger 0, ... , 63 für den reservierten Frequenzbereich von ISDN und Upstream sind auf 0 gesetzt. Rechts daneben sind die Spektralkoeffizienten $D_{64}, ... , D_{255}$ in der komplexen Zahlenebene dargestellt, wobei der Signalraum sehr groß gewählt ist.&lt;br /&gt;
&lt;br /&gt;
Die untere Grafik zeigt das Sendesignal $s(t)$ für die Rahmendauer $T$ = $\frac{1}{f_0}$ ≈ 232 μs, das sich durch TP–Filterung der IDFT–Werte $s_0, ... , s_{511}$ ergibt. Dieses Nutzsignal sieht nahezu aus wie Rauschen.&lt;br /&gt;
&lt;br /&gt;
Das Hauptproblem des DMT–Verfahrens ist der ungünstige Crestfaktor  ⇒  Verhältnis von Maximalwert $s_{\rm max}$ und dem Effektivwert $s_{\rm eff}$ (Wurzel aus der mittleren Leistung) an. Der im beispielhaften Signalverlauf erkennbare große Dynamikbereich stellt hohe Anforderungen an die Linearität der Verstärker. Bei Begrenzung des Aussteuerbereichs werden die Spitzen von $s(t)$ abgeschnitten, was wie eine Impulsstörung wirkt und eine zusätzliche Rauschbelastung für das System darstellt.&lt;br /&gt;
&lt;br /&gt;
Zusammenfassend lässt sich sagen:&lt;br /&gt;
*DMT ist im Prinzip die parallele Realisierung vieler schmalbandiger QAM–Modems mit unterschiedlichen Trägern und verhältnismäßig geringen Datenübertragungsraten.&lt;br /&gt;
*Die geringe Bandbreite pro Subträger ermöglicht eine lange Symboldauer, vermindert somit den Einfluss von Intersymbolinterferenzen und verringert den Entwicklungsaufwands für Entzerrer.&lt;br /&gt;
*Ein wesentlicher Grund für den Erfolg von DMT ist die technisch einfache Realisierung. IDFT und DFT werden mit digitalen Signalprozessoren (DSP) in Echtzeit gebildet.&lt;br /&gt;
*Da die Vektoren die Länge 512 (Zweierpotenz) besitzen, kann hierfür der besonders schnelle FFT–Algorithmus (''Fast Fourier Transformation'') angewendet werden.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==Aufgaben zu Kapitel 2.3 == 	 &lt;br /&gt;
&lt;br /&gt;
[[2.3_QAM–Signalraumbelegung|Aufgabe 2.3: QAM–Signalraumbelegung]]&lt;br /&gt;
&lt;br /&gt;
[[2.3Z_xDSL–Frequenzband|Zusatzaufgabe 2.3Z: xDSL–Frequenzband]]&lt;br /&gt;
&lt;br /&gt;
[[2.4_DSL/DMT_mit_IDFT/DFT|Aufgabe 2.4: DSL/DMT_mit_IDFT/DFT]]&lt;br /&gt;
&lt;br /&gt;
[[2.4Z_Wiederholung_zur_IDFT|Zusatzaufgabe 2.4Z: Wiederholung_zur_IDFT]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/xDSL_Systems&amp;diff=21292</id>
		<title>Examples of Communication Systems/xDSL Systems</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/xDSL_Systems&amp;diff=21292"/>
		<updated>2018-01-02T19:31:32Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=DSL – Digital Subscriber Line&lt;br /&gt;
|Vorherige Seite=Allgemeine Beschreibung von DSL&lt;br /&gt;
|Nächste Seite=xDSL als Übertragungstechnik&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Referenzmodelle==  	 &lt;br /&gt;
&lt;br /&gt;
Anhand des nachstehenden allgemeinen Referenzmodells der ITU lässt sich schnell erkennen, dass xDSL physikalisch eine reine Zugangsübertragungstechnik ist, die nur im Bereich des Teilnehmeranschlussnetzes zwischen dem Glasfaserabschlusspunkt und dem Netzabschluss beim Endkunden eingesetzt wird. Die Grundelemente des xDSL–Standards sind:&lt;br /&gt;
*der Netzwerkabschluss (NT),&lt;br /&gt;
*eine Teilnehmeranschlussleitung (TAL) und&lt;br /&gt;
*der Leitungsabschluss (LT).&lt;br /&gt;
&lt;br /&gt;
Bei der Umsetzung dieses Referenzmodells in die Praxis gibt es für die Netzbetreiber viele Freiheiten. Allen bisherigen Realisierungen ist gemein, dass sie bereits vorhandene metallische Teilnehmeranschlussleitungen nutzen.&lt;br /&gt;
&lt;br /&gt;
In einem Beispiel soll die in Deutschland am häufigsten anzutreffende Konfiguration gemäß der unteren Grafik dargestellt werden. Anzumerken ist:&lt;br /&gt;
*Bei allen heute eingesetzten xDSL–Varianten ist der in den Modems gewandelte Datendienst mit dem Telefondienst vereint. Damit ist eine Übertragung über das existierende Telefonnetz möglich. Durch den Splitter wird das Signal auf beiden Seiten der Teilnehmeranschlussleitung aufgespalten.&lt;br /&gt;
*Eine wichtige Schnittstelle ist mit '''U–R2''' bezeichnet. Diese wurde 2001 in Deutschland von der Deutschen Telekom AG normiert, um auf der Teilnehmerseite beliebige Modems einsetzen zu können. Damit ist der Kunde nicht mehr auf das xDSL–Modem seines Anbieters angewiesen.	 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Übersicht und Gemeinsamkeiten aller xDSL–Systeme== &lt;br /&gt;
&lt;br /&gt;
Die technische Realisierung eines xDSL–Systems beinhaltet viele Systemkomponenten, die auf mehrere Lokalitäten verteilt sein können. Es gibt eine Vielzahl an Realisierungsmöglichkeiten. Zusammenfassend ist zu sagen:&lt;br /&gt;
*Die nachfolgend dargestellten Systeme für ADSL und VDSL stellen die zum jetzigen Zeitpunkt (Ende 2009) am häufigsten anzutreffende Umsetzung dar. Der Datentransport auf Protokollebene basiert dabei auf der '''ATM'''–Technik (''Asynchronous Transfer Mode'').&lt;br /&gt;
*Trotz eines beachtenswerten Daten–Overheads bietet ATM immer noch entscheidende Vorteile im Vergleich zu Ethernet in Bezug auf die garantierte Dienstgüte ('''QoS'''), das heißt bezüglich effektiver Bitrate, geringer Laufzeitverzögerungen („Delay”) und Jitter.&lt;br /&gt;
*Ethernet ermöglicht dagegen sehr hohe Datenübertragungsraten, insbesondere durch die Varianten „10 Gbit/s Ethernet” und „100 Gbit/s Ethernet” (''Metro Ethernet''). ATM ist dagegen eher für niedrigere Datenraten geeignet.&lt;br /&gt;
&lt;br /&gt;
Es gibt momentan zahlreiche Diskussionen darüber, ob im Zuge des '''NGN''' (''Next Generation Network'') ATM durch 10 Gbit/s–Ethernet abgelöst werden soll. Allerdings stellt die Umrüstung des Backbones von ATM auf Ethernet einen nicht unerheblichen Investitionsaufwand dar.&lt;br /&gt;
Wie schon im Kapitel 2.1 erwähnt, sind die am meisten eingesetzten xDSL–Varianten&lt;br /&gt;
*ADSL sowie ADSL2 bzw. ADSL2+&lt;br /&gt;
*VDSL(1) und VDSL(2)&lt;br /&gt;
so definiert, dass jederzeit der gleichzeitige Betrieb von POTS (''Plain Old Telephone Service'') oder ISDN (''Integrated Services Digital Network'') auf der gleichen Leitung möglich ist. Dies ist auch die Basis der weiteren Beschreibungen.&lt;br /&gt;
 	 	 &lt;br /&gt;
&lt;br /&gt;
==ADSL – Asymmetric Digital Subscriber Line == 	&lt;br /&gt;
&lt;br /&gt;
Bei ADSL liegt der physikalische Netzabschluss in der Ortsvermittlungsstelle im ADSL–Modem (''ADSL Transmission Unit Central Office'', '''ATU–C'''). Vorher wird im '''Splitter''' das niederfrequente Telefonie– noch vom höherfrequenteren ADSL–Spektrum durch Tief– und Hochpassfilterung getrennt.&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt eine ADSL–Verbindung vom Endkunden zur Ortsvermittlungsstelle, die nachfolgend in aller Kürze beschrieben wird. Die umgekehrten Datenverbindungen erfolgen jeweils spiegelbildlich.&lt;br /&gt;
*Der Splitter leitet die Telefonsignale zur ISDN/POTS–Vermittlungsstelle weiter und die ADSL–Signale zum ''Digital Subscriber Line Access Multiplexer'' (DSLAM), in dem das ''ADSL Transmission Unit Central Office'' (ATU–C) als Einschubkarte realisiert ist.&lt;br /&gt;
*Der DSLAM bündelt viele ADSL–Anschlüsse und leitet die Daten nach Decodierung auf ATM–Ebene über Glasfaser zum ''ATM Service Access Multiplexer'' weiter. Dieser schickt die Daten aller DSLAMs über das Backbone zum ''Broadband Remote Access Server'' (BBRAS).&lt;br /&gt;
*Der BBRAS terminiert die Point–to–Point–Protokoll–Datenverbindung und leitet die IP–Pakete über Router zum Bestimmungsort weiter. Das Backbone besteht aus optischen Komponenten nach dem SDH–Standard (''Synchronous Digital Hierarchy'').&lt;br /&gt;
*Der an die ''Telekommunikations–Anschluss–Einheit'' (TAE) angeschlossene Splitter trennt die Signale. Die Telefonsignale werden zu den Telefonie–Endgeräten bzw. zum NTBA geleitet, die ADSL–Signale zum Modem (''ADSL Transmission Unit Remote'', ATU–R). Dieses übernimmt die Decodierung und Weiterleitung der binären Daten zu den angeschlossenen Endgeräten.&lt;br /&gt;
&lt;br /&gt;
Bei der Initialisierung der ADSL–Verbindung führen ATU–C und ATU–R ein so genanntes '''Training''' durch, bei dem je nach Leitungsbeschaffenheit relevante Systemparameter wie Datenrate, Interleaved– und Fast–Modus, usw. ermittelt werden. Die dabei ausgehandelten Parameter bleiben bis zur nächsten Überprüfung und Synchronisation erhalten. Zur Übertragung von Verwaltungsdaten (''Overhead'') werden bei den ADSL–Systemen statisch 32 kbit pro Rahmen reserviert.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
==ADSL2 und ADSL2plus==  	 &lt;br /&gt;
&lt;br /&gt;
Diese beiden Systemvarianten sind Weiterentwicklungen von ADSL:&lt;br /&gt;
*Die verbesserte Systemvariante Asymmetric Digital Subscriber Line Transceivers 2 (ADSL2) wurde 2002 mit der Veröffentlichung der ITU–Empfehlungen G.992.3 und G.992.4 spezifiziert.&lt;br /&gt;
*2003 folgte die ITU–Empfehlung G.992.5: Extended–bandwidth ADSL2 (ADSL2+).&lt;br /&gt;
&lt;br /&gt;
Gegenüber ADSL ergaben sich folgende Änderungen:&lt;br /&gt;
*Bei ADSL2 wurde die ''Seamless Rate Adaption'' (SRA) in den Standard aufgenommen. Diese ermöglicht, die Übertragungsparameter bei zeitvarianter Kanalgüte während des Betriebs ohne Verlust der Synchronisation zu ändern.&lt;br /&gt;
*Hierzu prüfen ATU–C und ATU–R periodisch das SNR der Übertragungskanäle. Verschlechtert sich ein benutzter Kanal, so teilt der Empfänger dem Sender die neue Datenrate und den neuen Sendepegel mit. Nach einem anschließenden ''Sync–Flag'' werden die Parameter übernommen.&lt;br /&gt;
*ADSL2–Systeme bieten darüber hinaus noch vielfältige Diagnosemöglichkeiten auch ohne erfolgte Synchronisation der Modems, ein Feature, das vor allem für die Fehlersuche, Fehleranalyse und Fehlerbehebung wichtig ist.&lt;br /&gt;
*Zudem bietet ADSL2 die Möglichkeit, bei ausreichendem SNR die Sendepegel zu reduzieren, um dadurch das Übersprechen zu minimieren und den Durchsatz im Bündelkabel zu erhöhen. Dieses ''Power–Cutback'' kann nicht nur vom DSLAM, sondern auch vom ATU–R eingeleitet werden.&lt;br /&gt;
*Bei ADSL2 ist die Anzahl der Overheadbits nicht mehr festgeschrieben, sondern sie kann zwischen 4 und 32 kbit variieren. Diese Steigerung der Nutzdatenbitrate von bis zu 28 kbit/s pro Datenrahmen ist um so wichtiger, je länger die Strecken zwischen Modem und DSLAM ist.&lt;br /&gt;
&lt;br /&gt;
Als Ergebnis erreichen ADSL2–Systeme eine Übertragungsrate von mehr als 8 Mbit/s (bis zu 12 Mbit/s) im Downstream und mehr als 800 kbit/s (bis zu 3.5 Mbit/s) im Upstream. Bei ADSL2+ wird die Übertragungsrate im Downstream nochmals gedoppelt; die maximale Rate beträgt theoretisch 25 Mbit/s.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==VDSL – Very–high–speed Digital Subscriber Line == &lt;br /&gt;
&lt;br /&gt;
VDSL–Systeme sind vom grundsätzlichen Aufbau ihrer Komponenten mit ADSL–Systemen identisch, mit der einzigen Ausnahme, dass durch die Verlagerung des Splitters und des DSLAM von der Ortsvermittlungsstelle in einen Kabelverzweiger der letzte Abschnitt zwischen Netzbetreiber und Kunden – die so genannte „''Last Mile''” – kürzer wird. Diese Maßnahme war notwendig, da VDSL aufgrund der mit der Leitungslänge stark zunehmenden Dämpfung der höheren Frequenzen seinen Vorteil – die größere Übertragungsgeschwindigkeit – nur auf sehr kurzen Strecken ausspielen kann.&lt;br /&gt;
DSLAM und BBRAS werden immer noch über STM–1–Schnittstellen verbunden. Deshalb muss nun auch die Strecke zwischen Ortsvermittlungsstelle und Kabelverzweiger mit Glasfaser verlegt werden.&lt;br /&gt;
&lt;br /&gt;
Man unterscheidet zwei alternative VDSL–Varianten:&lt;br /&gt;
*das auf '''QAM''' basierende '''VDSL(1)'''–System, das vorwiegend in Asien eingesetzt wird, und&lt;br /&gt;
*das auf '''DMT''' (''Discrete Multitone Transmission'') aufbauende '''VDSL(2)'''–System.&lt;br /&gt;
&lt;br /&gt;
VDSL(1)–Systeme kamen in Deutschland wegen der ungenügenden Fähigkeit, Audio/Video, Telefonie und Internet ('''Triple Play''') in ausreichender Dienstgüte zur Verfügung stellen zu können, nie zum Einsatz. Vielmehr wurde gleich der VDSL(2)–Standard etabliert, wegen höherer Performance und größerer Reichweite, der besseren Dienstgüte sowie der Wiederverwendbarkeit von ADSL(2+)–Infrastruktur.&lt;br /&gt;
Nachfolgend sind einige wenige Eigenschaften des VDSL(2)–Systems zusammengestellt:&lt;br /&gt;
*VDSL(2) erreicht seit 2006 je nach benutztem Standard eine maximale Übertragungsrate von 50 bis 100 Mbit/s.&lt;br /&gt;
*Die spezifizierte VDSL(2)–Übertragungsbandbreite von 30 MHz wird zum jetzigen Zeitpunkt (2009) als die maximal sinnvolle Bandbreite angesehen.&lt;br /&gt;
*Bis 2011 werden mit ergänzenden Maßnahmen wie dem '''Dynamic Spectrum Management''' und '''Advanced Codes''' bei kurzen Leitungslängen (&amp;lt; 300 Meter) Gesamtübertragungsraten von bis zu 280 Mbit/s erwartet.&lt;br /&gt;
 &lt;br /&gt;
 	 	 &lt;br /&gt;
==DSL–Internetzugang aus Sicht der Kommunikationsprotokolle == 	 &lt;br /&gt;
&lt;br /&gt;
Manche xDSL–Modems bieten eine ''Ethernet''–Schnittstelle zum Anschluss der Datenendgeräte an und eine transparente Verbindung zur Gegenstelle, basierend auf dem ''Internet-Protokoll''. Anzumerken ist:&lt;br /&gt;
*Diese Option wird durch die ''LAN–Emulation'' (RFC2684) sowie das ''ATM Adaption Layer Protocol'' (AAL5) ermöglicht. Der Ethernet–Datenstrom wird dazu auf ATM umgesetzt.&lt;br /&gt;
*Damit entfällt die Installation von ATM–Geräten und vorhandene Ethernet–Hardware kann verwendet werden, was die xDSL–Konfiguration beim Kunden wesentlich vereinfacht.&lt;br /&gt;
*Die ATM–Verbindung reicht mindestens bis zum ''Broadband Remote Access Server'' (BBRAS) und wird dort je nach Backbone–Datenübertragungssystem umgesetzt oder direkt weitergeführt.&lt;br /&gt;
&lt;br /&gt;
Die folgenden Grafiken zeigen die Kommunikation bei einer Internetverbindung nach dem OSI–Modell, wobei xDSL nur zwischen der xTU–R auf Kundenseite und der xTU–C auf Anbieterseite eingesetzt wird (braune Hinterlegung). Für die erste Grafik wird als xTU–R ein '''xDSL–Modem''' angenommen.&lt;br /&gt;
 &lt;br /&gt;
In der zweiten Grafik wird als xTU–R–Schnittstelle ein '''xDSL–Router''' verwendet. Dieser ermöglicht den Anschluss mehrerer Endgeräte in einem Netzwerk mit gemeinsam genutzter xDSL–Leitung. Hier initialisiert anstelle des Modems ein Router die ''Point–to–Point–Protocol–over–Ethernet''–Verbindung.&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Komponenten eines DSL–Internetzugangs == 	 	&lt;br /&gt;
&lt;br /&gt;
Abschließend werden notwendige Komponenten für einen DSL–Anschluss aufgelistet. Die Grafik zeigt Beispiele für diese, meist von der Deutschen Telekom. Der DSLAM ist ein Produkt der Fa. ZyXEL.&lt;br /&gt;
&lt;br /&gt;
'''NTBA''': Die allgemein übliche Bezeichnung ist ''Network Termination for ISDN Basic Rate Access''. Bei der deutschen Telekom steht der Begriff auch für ''Netzterminator Basis Anschluss''.&lt;br /&gt;
*Aufgaben des NTBA: Mit Hilfe einer Gabelschaltung und einer Echokompensation wird die zweidrahtige UK0–Schnittstelle auf der Anbieterseite in die vierdrahtige S0–Schnittstelle der Teilnehmerseite umgesetzt. Außerdem bewerkstelligt der NTBA die ISDN–Codeumsetzung vom MMS43–Code (UK0) auf den modifizierten AMI–Code (S0).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''xTU–R''': Die Abkürzung steht für ''xDSL Transceive Unit – Remote'' und bezeichnet die teilnehmerseitige xDSL–Einheit. Bei der Deutschen Telekom – schon immer bekannt für besondere Namensgebungen – ist auch die Bezeichnung ''Netzwerkterminationspunkt Breitbandanschluss'' (NTBBAE) üblich.&lt;br /&gt;
*Wegen der großen Verbreitung von Ethernet weisen heutige xDSL–Modems und Router zur Anbindung der Datenendeinrichtungen meist nur noch einen Ethernet–Anschluss auf. Ursprünglich dienten sie zum teilnehmerseitigen Anschluss von ATM–Datenendgeräten. Deshalb muss diese Einheit auch die Funktion einer ''Layer–2–Bridge'' übernehmen, um Ethernet über ATM zur Terminierung an den ''Broadband Remote Access Server'' (BBRAS) übertragen zu können.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''xDSL–Modem''': Bei dieser Funktionseinheit wird die Datenverbindung vom/zum Datenendgerät durch ein Point–to–Point–Protokoll (PPP) über eine PPP over Ethernet–Verbindung (PPPoE) initialisiert und vom BBRAS terminiert. Es kommen nur Datenendgerät in Frage, die separat eine Datenverbindung über PPP aufbauen können.&lt;br /&gt;
&lt;br /&gt;
'''xDSL–Modem–Router''': Dieser initialisiert die Datenverbindung über PPP und setzt die Adressen auf IP–Ebene durch. Dadurch können mehrere Endgeräte angeschlossen werden und es ist ein interner Datenaustausches zwischen diesen möglich, ohne sich in diese separat einwählen zu müssen.&lt;br /&gt;
Die Beschreibung wird auf der nächsten Seite fortgesetzt.&lt;br /&gt;
&lt;br /&gt;
'''Splitter''': Dieser ist im Prinzip eine Kombination aus Hoch– und Tiefpass mit drei Schnittstellen, die die Trennung der hochfrequenten xDSL–Datensignale (oberhalb von 138 kHz) von den niederfrequenten POTS– bzw. ISDN–Telefonsignalen (unterhalb von 120 kHz) übernimmt, bzw. deren Kombination.&lt;br /&gt;
*Diese '''Breitbandanschlusseinheit''' (BBAE) – wie sie im Telekom–Jargon auch heißt – ist nichts anderes als eine Frequenzweiche. Auf Seite der Teilnehmeranschlussleitung liegt die Summe der Signale an, während sowohl beim Kunden als auch auf der Anbieterseite die xDSL–Daten und die POTS/ISDN-Signale jeweils durch einen Splitter voneinander getrennt sind.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''xTU-C''': Die Abkürzung steht für ''xDSL Transceive Unit – Central office''. Sie ist die anbieterseitige xDSL–Einheit und wird meist als Leiterplatteneinschub (''Linecard'') für den DSLAM realisiert. Er wird manchmal auch als '''Netzwerkterminationspunkt Breitbandanschluss''' (NTBBAE) bezeichnet.&lt;br /&gt;
*Der xTU–C terminiert die physikalischen Endkunden–xDSL–Teilnehmeranschlüsse, moduliert teilnehmerseitig den ATM–Bitdatenstrom und demoduliert anbieterseitig das xDSL–Signal.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''DSLAM''': Die Abkürzung steht für ''Digital Subscriber Line Access Multiplexer''. Fachleute verwenden für den DSLAM, den es in verschiedenen Ausführungen gibt, auch die Bezeichnung „MXBBA”. In der einfachsten Form terminiert er mit seinen xTU–C–Linecards die physikalischen Teilnehmeranschlüsse. In erweiterter Form ist im DSLAM auch ein ''ATM Service Access Multiplexer'' integriert.&lt;br /&gt;
*Aufgabe des DSLAM ist es, die ATM–Bitströme der Teilnehmeranschlussleitungen zu bündeln und konzentriert im Multiplexverfahren über eine STM–1–Glasfaserschnittstelle ins Anbieternetz weiterzuleiten. STM ist ein SDH–Übertragungsstandard zum Multiplexen von optischen Kanälen und steht für ''Synchronous Transport Module''. STM–1 ermöglicht eine Bitrate von bis zu 155.52 Mbit/s, STM–64 bis zu fast 10 Gbit/s.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Aufgaben zu Kapitel 2.2  	== &lt;br /&gt;
[[2.2:_xDSL–Varianten|Aufgabe 2.2: xDSL–Varianten]]&lt;br /&gt;
&lt;br /&gt;
[[2.2Z_DSL–Internetanschluss|Zusatzaufgabe 2.2Z: DSL–Internetanschluss]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/xDSL_Systems&amp;diff=21291</id>
		<title>Examples of Communication Systems/xDSL Systems</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/xDSL_Systems&amp;diff=21291"/>
		<updated>2018-01-02T19:31:18Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=DSL – Digital Subscriber Line&lt;br /&gt;
|Vorherige Seite=Allgemeine Beschreibung von DSL&lt;br /&gt;
|Nächste Seite=xDSL als Übertragungstechnik&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Referenzmodelle==  	 &lt;br /&gt;
&lt;br /&gt;
Anhand des nachstehenden allgemeinen Referenzmodells der ITU lässt sich schnell erkennen, dass xDSL physikalisch eine reine Zugangsübertragungstechnik ist, die nur im Bereich des Teilnehmeranschlussnetzes zwischen dem Glasfaserabschlusspunkt und dem Netzabschluss beim Endkunden eingesetzt wird. Die Grundelemente des xDSL–Standards sind:&lt;br /&gt;
*der Netzwerkabschluss (NT),&lt;br /&gt;
*eine Teilnehmeranschlussleitung (TAL) und&lt;br /&gt;
*der Leitungsabschluss (LT).&lt;br /&gt;
&lt;br /&gt;
Bei der Umsetzung dieses Referenzmodells in die Praxis gibt es für die Netzbetreiber viele Freiheiten. Allen bisherigen Realisierungen ist gemein, dass sie bereits vorhandene metallische Teilnehmeranschlussleitungen nutzen.&lt;br /&gt;
&lt;br /&gt;
In einem Beispiel soll die in Deutschland am häufigsten anzutreffende Konfiguration gemäß der unteren Grafik dargestellt werden. Anzumerken ist:&lt;br /&gt;
*Bei allen heute eingesetzten xDSL–Varianten ist der in den Modems gewandelte Datendienst mit dem Telefondienst vereint. Damit ist eine Übertragung über das existierende Telefonnetz möglich. Durch den Splitter wird das Signal auf beiden Seiten der Teilnehmeranschlussleitung aufgespalten.&lt;br /&gt;
*Eine wichtige Schnittstelle ist mit '''U–R2''' bezeichnet. Diese wurde 2001 in Deutschland von der Deutschen Telekom AG normiert, um auf der Teilnehmerseite beliebige Modems einsetzen zu können. Damit ist der Kunde nicht mehr auf das xDSL–Modem seines Anbieters angewiesen.	 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Übersicht und Gemeinsamkeiten aller xDSL–Systeme== &lt;br /&gt;
&lt;br /&gt;
Die technische Realisierung eines xDSL–Systems beinhaltet viele Systemkomponenten, die auf mehrere Lokalitäten verteilt sein können. Es gibt eine Vielzahl an Realisierungsmöglichkeiten. Zusammenfassend ist zu sagen:&lt;br /&gt;
*Die nachfolgend dargestellten Systeme für ADSL und VDSL stellen die zum jetzigen Zeitpunkt (Ende 2009) am häufigsten anzutreffende Umsetzung dar. Der Datentransport auf Protokollebene basiert dabei auf der '''ATM'''–Technik (''Asynchronous Transfer Mode'').&lt;br /&gt;
*Trotz eines beachtenswerten Daten–Overheads bietet ATM immer noch entscheidende Vorteile im Vergleich zu Ethernet in Bezug auf die garantierte Dienstgüte ('''QoS'''), das heißt bezüglich effektiver Bitrate, geringer Laufzeitverzögerungen („Delay”) und Jitter.&lt;br /&gt;
*Ethernet ermöglicht dagegen sehr hohe Datenübertragungsraten, insbesondere durch die Varianten „10 Gbit/s Ethernet” und „100 Gbit/s Ethernet” (''Metro Ethernet''). ATM ist dagegen eher für niedrigere Datenraten geeignet.&lt;br /&gt;
&lt;br /&gt;
Es gibt momentan zahlreiche Diskussionen darüber, ob im Zuge des '''NGN''' (''Next Generation Network'') ATM durch 10 Gbit/s–Ethernet abgelöst werden soll. Allerdings stellt die Umrüstung des Backbones von ATM auf Ethernet einen nicht unerheblichen Investitionsaufwand dar.&lt;br /&gt;
Wie schon im Kapitel 2.1 erwähnt, sind die am meisten eingesetzten xDSL–Varianten&lt;br /&gt;
*ADSL sowie ADSL2 bzw. ADSL2+&lt;br /&gt;
*VDSL(1) und VDSL(2)&lt;br /&gt;
so definiert, dass jederzeit der gleichzeitige Betrieb von POTS (''Plain Old Telephone Service'') oder ISDN (''Integrated Services Digital Network'') auf der gleichen Leitung möglich ist. Dies ist auch die Basis der weiteren Beschreibungen.&lt;br /&gt;
 	 	 &lt;br /&gt;
&lt;br /&gt;
==ADSL – Asymmetric Digital Subscriber Line == 	&lt;br /&gt;
&lt;br /&gt;
Bei ADSL liegt der physikalische Netzabschluss in der Ortsvermittlungsstelle im ADSL–Modem (''ADSL Transmission Unit Central Office'', '''ATU–C'''). Vorher wird im '''Splitter''' das niederfrequente Telefonie– noch vom höherfrequenteren ADSL–Spektrum durch Tief– und Hochpassfilterung getrennt.&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt eine ADSL–Verbindung vom Endkunden zur Ortsvermittlungsstelle, die nachfolgend in aller Kürze beschrieben wird. Die umgekehrten Datenverbindungen erfolgen jeweils spiegelbildlich.&lt;br /&gt;
*Der Splitter leitet die Telefonsignale zur ISDN/POTS–Vermittlungsstelle weiter und die ADSL–Signale zum ''Digital Subscriber Line Access Multiplexer'' (DSLAM), in dem das ''ADSL Transmission Unit Central Office'' (ATU–C) als Einschubkarte realisiert ist.&lt;br /&gt;
*Der DSLAM bündelt viele ADSL–Anschlüsse und leitet die Daten nach Decodierung auf ATM–Ebene über Glasfaser zum ''ATM Service Access Multiplexer'' weiter. Dieser schickt die Daten aller DSLAMs über das Backbone zum ''Broadband Remote Access Server'' (BBRAS).&lt;br /&gt;
*Der BBRAS terminiert die Point–to–Point–Protokoll–Datenverbindung und leitet die IP–Pakete über Router zum Bestimmungsort weiter. Das Backbone besteht aus optischen Komponenten nach dem SDH–Standard (''Synchronous Digital Hierarchy'').&lt;br /&gt;
*Der an die ''Telekommunikations–Anschluss–Einheit'' (TAE) angeschlossene Splitter trennt die Signale. Die Telefonsignale werden zu den Telefonie–Endgeräten bzw. zum NTBA geleitet, die ADSL–Signale zum Modem (''ADSL Transmission Unit Remote'', ATU–R). Dieses übernimmt die Decodierung und Weiterleitung der binären Daten zu den angeschlossenen Endgeräten.&lt;br /&gt;
&lt;br /&gt;
Bei der Initialisierung der ADSL–Verbindung führen ATU–C und ATU–R ein so genanntes '''Training''' durch, bei dem je nach Leitungsbeschaffenheit relevante Systemparameter wie Datenrate, Interleaved– und Fast–Modus, usw. ermittelt werden. Die dabei ausgehandelten Parameter bleiben bis zur nächsten Überprüfung und Synchronisation erhalten. Zur Übertragung von Verwaltungsdaten (''Overhead'') werden bei den ADSL–Systemen statisch 32 kbit pro Rahmen reserviert.&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
==ADSL2 und ADSL2plus==  	 &lt;br /&gt;
&lt;br /&gt;
Diese beiden Systemvarianten sind Weiterentwicklungen von ADSL:&lt;br /&gt;
*Die verbesserte Systemvariante Asymmetric Digital Subscriber Line Transceivers 2 (ADSL2) wurde 2002 mit der Veröffentlichung der ITU–Empfehlungen G.992.3 und G.992.4 spezifiziert.&lt;br /&gt;
*2003 folgte die ITU–Empfehlung G.992.5: Extended–bandwidth ADSL2 (ADSL2+).&lt;br /&gt;
&lt;br /&gt;
Gegenüber ADSL ergaben sich folgende Änderungen:&lt;br /&gt;
*Bei ADSL2 wurde die ''Seamless Rate Adaption'' (SRA) in den Standard aufgenommen. Diese ermöglicht, die Übertragungsparameter bei zeitvarianter Kanalgüte während des Betriebs ohne Verlust der Synchronisation zu ändern.&lt;br /&gt;
*Hierzu prüfen ATU–C und ATU–R periodisch das SNR der Übertragungskanäle. Verschlechtert sich ein benutzter Kanal, so teilt der Empfänger dem Sender die neue Datenrate und den neuen Sendepegel mit. Nach einem anschließenden ''Sync–Flag'' werden die Parameter übernommen.&lt;br /&gt;
*ADSL2–Systeme bieten darüber hinaus noch vielfältige Diagnosemöglichkeiten auch ohne erfolgte Synchronisation der Modems, ein Feature, das vor allem für die Fehlersuche, Fehleranalyse und Fehlerbehebung wichtig ist.&lt;br /&gt;
*Zudem bietet ADSL2 die Möglichkeit, bei ausreichendem SNR die Sendepegel zu reduzieren, um dadurch das Übersprechen zu minimieren und den Durchsatz im Bündelkabel zu erhöhen. Dieses ''Power–Cutback'' kann nicht nur vom DSLAM, sondern auch vom ATU–R eingeleitet werden.&lt;br /&gt;
*Bei ADSL2 ist die Anzahl der Overheadbits nicht mehr festgeschrieben, sondern sie kann zwischen 4 und 32 kbit variieren. Diese Steigerung der Nutzdatenbitrate von bis zu 28 kbit/s pro Datenrahmen ist um so wichtiger, je länger die Strecken zwischen Modem und DSLAM ist.&lt;br /&gt;
&lt;br /&gt;
Als Ergebnis erreichen ADSL2–Systeme eine Übertragungsrate von mehr als 8 Mbit/s (bis zu 12 Mbit/s) im Downstream und mehr als 800 kbit/s (bis zu 3.5 Mbit/s) im Upstream. Bei ADSL2+ wird die Übertragungsrate im Downstream nochmals gedoppelt; die maximale Rate beträgt theoretisch 25 Mbit/s.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==VDSL – Very–high–speed Digital Subscriber Line == &lt;br /&gt;
&lt;br /&gt;
VDSL–Systeme sind vom grundsätzlichen Aufbau ihrer Komponenten mit ADSL–Systemen identisch, mit der einzigen Ausnahme, dass durch die Verlagerung des Splitters und des DSLAM von der Ortsvermittlungsstelle in einen Kabelverzweiger der letzte Abschnitt zwischen Netzbetreiber und Kunden – die so genannte „''Last Mile''” – kürzer wird. Diese Maßnahme war notwendig, da VDSL aufgrund der mit der Leitungslänge stark zunehmenden Dämpfung der höheren Frequenzen seinen Vorteil – die größere Übertragungsgeschwindigkeit – nur auf sehr kurzen Strecken ausspielen kann.&lt;br /&gt;
DSLAM und BBRAS werden immer noch über STM–1–Schnittstellen verbunden. Deshalb muss nun auch die Strecke zwischen Ortsvermittlungsstelle und Kabelverzweiger mit Glasfaser verlegt werden.&lt;br /&gt;
&lt;br /&gt;
Man unterscheidet zwei alternative VDSL–Varianten:&lt;br /&gt;
*das auf '''QAM''' basierende '''VDSL(1)'''–System, das vorwiegend in Asien eingesetzt wird, und&lt;br /&gt;
*das auf '''DMT''' (''Discrete Multitone Transmission'') aufbauende '''VDSL(2)'''–System.&lt;br /&gt;
&lt;br /&gt;
VDSL(1)–Systeme kamen in Deutschland wegen der ungenügenden Fähigkeit, Audio/Video, Telefonie und Internet ('''Triple Play''') in ausreichender Dienstgüte zur Verfügung stellen zu können, nie zum Einsatz. Vielmehr wurde gleich der VDSL(2)–Standard etabliert, wegen höherer Performance und größerer Reichweite, der besseren Dienstgüte sowie der Wiederverwendbarkeit von ADSL(2+)–Infrastruktur.&lt;br /&gt;
Nachfolgend sind einige wenige Eigenschaften des VDSL(2)–Systems zusammengestellt:&lt;br /&gt;
*VDSL(2) erreicht seit 2006 je nach benutztem Standard eine maximale Übertragungsrate von 50 bis 100 Mbit/s.&lt;br /&gt;
*Die spezifizierte VDSL(2)–Übertragungsbandbreite von 30 MHz wird zum jetzigen Zeitpunkt (2009) als die maximal sinnvolle Bandbreite angesehen.&lt;br /&gt;
*Bis 2011 werden mit ergänzenden Maßnahmen wie dem '''Dynamic Spectrum Management''' und '''Advanced Codes''' bei kurzen Leitungslängen (&amp;lt; 300 Meter) Gesamtübertragungsraten von bis zu 280 Mbit/s erwartet.&lt;br /&gt;
 &lt;br /&gt;
 	 	 &lt;br /&gt;
==DSL–Internetzugang aus Sicht der Kommunikationsprotokolle == 	 &lt;br /&gt;
&lt;br /&gt;
Manche xDSL–Modems bieten eine ''Ethernet''–Schnittstelle zum Anschluss der Datenendgeräte an und eine transparente Verbindung zur Gegenstelle, basierend auf dem ''Internet-Protokoll''. Anzumerken ist:&lt;br /&gt;
*Diese Option wird durch die ''LAN–Emulation'' (RFC2684) sowie das ''ATM Adaption Layer Protocol'' (AAL5) ermöglicht. Der Ethernet–Datenstrom wird dazu auf ATM umgesetzt.&lt;br /&gt;
*Damit entfällt die Installation von ATM–Geräten und vorhandene Ethernet–Hardware kann verwendet werden, was die xDSL–Konfiguration beim Kunden wesentlich vereinfacht.&lt;br /&gt;
*Die ATM–Verbindung reicht mindestens bis zum ''Broadband Remote Access Server'' (BBRAS) und wird dort je nach Backbone–Datenübertragungssystem umgesetzt oder direkt weitergeführt.&lt;br /&gt;
&lt;br /&gt;
Die folgenden Grafiken zeigen die Kommunikation bei einer Internetverbindung nach dem OSI–Modell, wobei xDSL nur zwischen der xTU–R auf Kundenseite und der xTU–C auf Anbieterseite eingesetzt wird (braune Hinterlegung). Für die erste Grafik wird als xTU–R ein '''xDSL–Modem''' angenommen.&lt;br /&gt;
 &lt;br /&gt;
In der zweiten Grafik wird als xTU–R–Schnittstelle ein '''xDSL–Router''' verwendet. Dieser ermöglicht den Anschluss mehrerer Endgeräte in einem Netzwerk mit gemeinsam genutzter xDSL–Leitung. Hier initialisiert anstelle des Modems ein Router die ''Point–to–Point–Protocol–over–Ethernet''–Verbindung.&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Komponenten eines DSL–Internetzugangs == 	 	&lt;br /&gt;
&lt;br /&gt;
Abschließend werden notwendige Komponenten für einen DSL–Anschluss aufgelistet. Die Grafik zeigt Beispiele für diese, meist von der Deutschen Telekom. Der DSLAM ist ein Produkt der Fa. ZyXEL.&lt;br /&gt;
&lt;br /&gt;
'''NTBA''': Die allgemein übliche Bezeichnung ist ''Network Termination for ISDN Basic Rate Access''. Bei der deutschen Telekom steht der Begriff auch für ''Netzterminator Basis Anschluss''.&lt;br /&gt;
*Aufgaben des NTBA: Mit Hilfe einer Gabelschaltung und einer Echokompensation wird die zweidrahtige UK0–Schnittstelle auf der Anbieterseite in die vierdrahtige S0–Schnittstelle der Teilnehmerseite umgesetzt. Außerdem bewerkstelligt der NTBA die ISDN–Codeumsetzung vom MMS43–Code (UK0) auf den modifizierten AMI–Code (S0).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''xTU–R''': Die Abkürzung steht für ''xDSL Transceive Unit – Remote'' und bezeichnet die teilnehmerseitige xDSL–Einheit. Bei der Deutschen Telekom – schon immer bekannt für besondere Namensgebungen – ist auch die Bezeichnung ''Netzwerkterminationspunkt Breitbandanschluss'' (NTBBAE) üblich.&lt;br /&gt;
*Wegen der großen Verbreitung von Ethernet weisen heutige xDSL–Modems und Router zur Anbindung der Datenendeinrichtungen meist nur noch einen Ethernet–Anschluss auf. Ursprünglich dienten sie zum teilnehmerseitigen Anschluss von ATM–Datenendgeräten. Deshalb muss diese Einheit auch die Funktion einer ''Layer–2–Bridge'' übernehmen, um Ethernet über ATM zur Terminierung an den ''Broadband Remote Access Server'' (BBRAS) übertragen zu können.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''xDSL–Modem''': Bei dieser Funktionseinheit wird die Datenverbindung vom/zum Datenendgerät durch ein Point–to–Point–Protokoll (PPP) über eine PPP over Ethernet–Verbindung (PPPoE) initialisiert und vom BBRAS terminiert. Es kommen nur Datenendgerät in Frage, die separat eine Datenverbindung über PPP aufbauen können.&lt;br /&gt;
&lt;br /&gt;
'''xDSL–Modem–Router''': Dieser initialisiert die Datenverbindung über PPP und setzt die Adressen auf IP–Ebene durch. Dadurch können mehrere Endgeräte angeschlossen werden und es ist ein interner Datenaustausches zwischen diesen möglich, ohne sich in diese separat einwählen zu müssen.&lt;br /&gt;
Die Beschreibung wird auf der nächsten Seite fortgesetzt.&lt;br /&gt;
&lt;br /&gt;
'''Splitter''': Dieser ist im Prinzip eine Kombination aus Hoch– und Tiefpass mit drei Schnittstellen, die die Trennung der hochfrequenten xDSL–Datensignale (oberhalb von 138 kHz) von den niederfrequenten POTS– bzw. ISDN–Telefonsignalen (unterhalb von 120 kHz) übernimmt, bzw. deren Kombination.&lt;br /&gt;
*Diese '''Breitbandanschlusseinheit''' (BBAE) – wie sie im Telekom–Jargon auch heißt – ist nichts anderes als eine Frequenzweiche. Auf Seite der Teilnehmeranschlussleitung liegt die Summe der Signale an, während sowohl beim Kunden als auch auf der Anbieterseite die xDSL–Daten und die POTS/ISDN-Signale jeweils durch einen Splitter voneinander getrennt sind.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''xTU-C''': Die Abkürzung steht für ''xDSL Transceive Unit – Central office''. Sie ist die anbieterseitige xDSL–Einheit und wird meist als Leiterplatteneinschub (''Linecard'') für den DSLAM realisiert. Er wird manchmal auch als '''Netzwerkterminationspunkt Breitbandanschluss''' (NTBBAE) bezeichnet.&lt;br /&gt;
*Der xTU–C terminiert die physikalischen Endkunden–xDSL–Teilnehmeranschlüsse, moduliert teilnehmerseitig den ATM–Bitdatenstrom und demoduliert anbieterseitig das xDSL–Signal.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''DSLAM''': Die Abkürzung steht für ''Digital Subscriber Line Access Multiplexer''. Fachleute verwenden für den DSLAM, den es in verschiedenen Ausführungen gibt, auch die Bezeichnung „MXBBA”. In der einfachsten Form terminiert er mit seinen xTU–C–Linecards die physikalischen Teilnehmeranschlüsse. In erweiterter Form ist im DSLAM auch ein ''ATM Service Access Multiplexer'' integriert.&lt;br /&gt;
*Aufgabe des DSLAM ist es, die ATM–Bitströme der Teilnehmeranschlussleitungen zu bündeln und konzentriert im Multiplexverfahren über eine STM–1–Glasfaserschnittstelle ins Anbieternetz weiterzuleiten. STM ist ein SDH–Übertragungsstandard zum Multiplexen von optischen Kanälen und steht für ''Synchronous Transport Module''. STM–1 ermöglicht eine Bitrate von bis zu 155.52 Mbit/s, STM–64 bis zu fast 10 Gbit/s.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Aufgaben zu Kapitel 2.2  	== &lt;br /&gt;
[[2.2:_xDSL–Varianten|Aufgabe 2.2: xDSL–Varianten]]&lt;br /&gt;
[[2.2Z_DSL–Internetanschluss|Zusatzaufgabe 2.2Z: DSL–Internetanschluss]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/General_Description_of_DSL&amp;diff=21290</id>
		<title>Examples of Communication Systems/General Description of DSL</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/General_Description_of_DSL&amp;diff=21290"/>
		<updated>2018-01-02T19:28:57Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=DSL – Digital Subscriber Line&lt;br /&gt;
|Vorherige Seite=Weiterentwicklungen von ISDN&lt;br /&gt;
|Nächste Seite=xDSL–Systeme&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== # ÜBERBLICK ZUM ZWEITEN HAUPTKAPITEL # ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Motivation für xDSL==  	 &lt;br /&gt;
&lt;br /&gt;
Die verschiedenen Varianten von '''xDSL – Digital Subscriber Line''', das „x” ist ein Platzhalter für einen weiteren Buchstaben – entstanden aus dem Bedarf, dem Endkunden einen kostengünstigen hochratigen digitalen Datenzugang bereitzustellen. Bei der Konzipierung war zu beachten:&lt;br /&gt;
*Die sog. „''Last Mile''” – der letzte Abschnitt der Leitung, die zum Teilnehmerhaushalt führt und als '''Teilnehmeranschlussleitung''' (TAL) bezeichnet wird – stellt den größten Kostenfaktor in einem Kommunikationsnetz dar, da sich im TAL–Bereich das Netz maximal verzweigt.&lt;br /&gt;
*Überlegungen, im Teilnehmeranschlussnetz die geschätzten 130 Millionen Kilometer an Kupfer–Doppeladern durch '''Glasfaserleitungen''' zu ersetzen (''Fiber–to–the–Home'', FttH), scheiterten bis heute an den enormen Kosten der meist unterirdischen Verlegungsarbeiten.&lt;br /&gt;
*Eine praktikable Lösung war, durch die Nutzung des bestehenden Telefonleitungsnetzes und durch geschickte Kombination verschiedener Nachrichtenübermittlungstechniken und Codierverfahren einen Breitbandanschluss anzubieten mit etwas niedrigeren Datenraten als in einem Glasfasernetz.&lt;br /&gt;
*Der Telefondienst – entweder analog oder digital (ISDN) – sollte gleichzeitig im gleichen Netz betrieben werden können.&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt den Teilnehmeranschlussbereich (TAL) zwischen Ortsvermittlungsstelle (OVSt) und Endkunden (EVZ).&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1905__Bei_2_1_S1_v1.png|Teilnehmeranschlussbereich eines Telekommunikationsnetzes]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==xDSL-Arten und -Begriffe==  	 	&lt;br /&gt;
&lt;br /&gt;
Bevor wir uns der historischen Entwicklung von DSL bis zum heutigen Stand zuwenden, müssen zuerst die verschiedenen xDSL–Arten definiert und einige Begriffe erklärt werden. Die technischen Merkmale werden in den nächsten Kapiteln in der Tiefe behandelt.&lt;br /&gt;
*'''ADSL''' – ''Asymmetric Digital Subscriber Line'': Asymmetrische Datenübertragungstechnik mit Datenübertragungsraten von 8 Mbit/s zum Teilnehmer (''Downstream'') und 1 Mbit/s in der Gegenrichtung (''Upstream'').&lt;br /&gt;
*'''ADSL2''' und '''ADSL2+''': Erweiterungen von ADSL mit Datenraten bis 25 Mbit/s zum Teilnehmer und bis 1 Mbit/s im Upstream. Die Datenrate wird je nach Kanalzustand dynamisch ausgehandelt.&lt;br /&gt;
*'''Re–ADSL2''': Eine weitere Erweiterung von ADSL mit etwa 30% Reichweitengewinn bei einer Datenrate von 768 kbit/s im Downstream.&lt;br /&gt;
*'''HDSL''' – ''High Data Rate Digital Subscriber Line'': Symmetrische Datenübertragungstechnik – also gleiche Raten in Down– und Upstream – mit Datenraten zwischen 1.54 Mbit/s und 2.04 Mbit/s. ''Anmerkung'': Der Name „HDSL” suggeriert höhere Datenraten als ADSL.&lt;br /&gt;
*'''SDSL''' – ''Symmetric Digital Subscriber Line'': Symmetrische Datenübertragung mit Raten bis zu 3 Mbit/s. Bei vieradriger Beschaltung (zwei Kupfer-Doppeladern) können maximal 4 Mbit/s übertragen werden. Alternativ kann man auch die Reichweite auf Kosten der Bandbreite erhöhen.&lt;br /&gt;
*'''VDSL''' – ''Very High Data Rate Digital Subscriber Line'': Eine neuere, auf QAM basierende Übertragungstechnik, die in der asymmetrischen Variante mit Bitraten von 25 bis 50 Mbit/s im Downstream und von 5 bis 10 Mbit/s im Upstream arbeitet. Die symmetrische Variante weist im Upstream und Downstream jeweils gleiche Datenübertragungsraten auf.&lt;br /&gt;
*'''VDSL2''' – ''Very High Data Rate Digital Subscriber Line 2'': Übertragungstechnologie mit der derzeit (2009) größten Gesamtdatenrate von bis zu 200 Mbit/s. Das Verfahren basiert auf DMT (''Discrete Multitone Transmission'').&lt;br /&gt;
*'''UDSL''' bzw. '''UADSL''' – ''Universal (Asymmetric) Digital Subscriber Line''.&lt;br /&gt;
Unter „DSL” kursieren daneben auch viele Produkte, die nicht dem xDSL–Standard zuzuordnen sind. Oft sollen sie nur deutlich machen, dass es sich um einen schnellen Datenzugang handelt. Dazu gehören:&lt;br /&gt;
*'''cableDSL''': Markenname des deutschen Unternehmens TELES AG, das einen schnellen Internetzugang über Kabel anbietet. Der Name wurde nur aus Marketinggründen gewählt.&lt;br /&gt;
*'''skyDSL''': Markenname für einen europaweit verfügbaren Internetzugang über Satelliten mit bis zu 24 Mbit/s im Downstream. Der Upstream erfolgt hier über POTS oder ISDN.&lt;br /&gt;
*'''T-DSL via Satellit''': Markenname für einen Downstream–Internetzugang der Telekom über Satellit; verwendet zum Senden ein herkömmliches Modem oder eine ISDN–Verbindung.&lt;br /&gt;
*'''WDSL''' – ''Wireless Digital Subscriber Line'': Markenname eines deutschen Unternehmens, das mit Funktechnik in DSL–freien Gebieten Datenraten bis zu 108 Mbit/s ermöglicht.&lt;br /&gt;
*'''mvoxDSL''': Markenname eines Internetzugangs mit „WiMAX–ähnlicher Funktechnik”, der ebenso wie WDSL und PortableDSL nur ein Hilfskonstrukt für DSL–freie Gebiete darstellt.&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
==Historische Entwicklung von xDSL – Standardisierungen == 	&lt;br /&gt;
&lt;br /&gt;
Schon in den 1970er Jahren wurde die Notwendigkeit digitaler Teilnehmeranschlüsse zur Verbesserung der Leitungsausnutzung und zur Erhöhung des Kundenkomforts erkannt. Nach der ISDN–Spezifikation Anfang der 1980er Jahre begann dann die eigentliche Entwicklung von DSL.&lt;br /&gt;
*Diese Entwicklung wurde von den Erkenntnissen vieler weltweit angesiedelter Gruppen beeinflusst. Dementsprechend unstrukturiert verlief die Standardisierung. Aus der Liste auf der nächsten Seite wird deutlich, dass bei den verschiedenen Standards weltweit unterschiedliche Gremien federführend waren.&lt;br /&gt;
*In der Industrie wichen die technischen Realisierungen der einzelnen xDSL–Standards von der Spezifikation oft merklich ab. So wurden manche Standards teilweise schon vor der Spezifikation als Projekte begonnen, da die Industrieparteien auch in den Gremien zur Standardisierung vertreten waren.&lt;br /&gt;
&lt;br /&gt;
Die Grafik veranschaulicht Zusammenhänge zwischen&lt;br /&gt;
*Meilensteinen beim theoretischen und praktischen Entwurf von Übertragungssystemen,&lt;br /&gt;
*parallel verlaufenden Fortschritten in der Halbleiterentwicklung, und der&lt;br /&gt;
*Realisierung der einzelnen xDSL–Standards mit den entsprechenden Datenraten.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1906__Bei_2_1_S3_v1.png|Industrielle xDSL–Entwicklung]]&lt;br /&gt;
&lt;br /&gt;
Hier die Meilensteine der DSL–Entwicklung in Kurzform:&lt;br /&gt;
*'''1986'''  Ein erstes Konzept für HDSL ('''''H'''igh–bit–rate '''D'''igital '''S'''ubscriber '''L'''ine'') wird von AT&amp;amp;T, Bell Laboratories und Bellcore definiert.&lt;br /&gt;
*'''1989'''  Erste HDSL–Prototypen erscheinen.  #  Bellcore arbeitet inzwischen an der konzeptionellen Definition von ADSL.&lt;br /&gt;
*'''1992'''  Im Februar erstmalige Veröffentlichung des '''ANSI Technical Report E1T1/92–002R1''': „''High Bit–rate Digital Subscriber Line'' – HDSL”.  #  Die ersten Prototypen für ADSL ('''''A'''symmetric '''D'''igital '''S'''ubscriber '''L'''ine'') erscheinen.&lt;br /&gt;
*'''1994'''  Das VDSL–Konzept ('''''V'''ery–high–speed '''D'''igital '''S'''ubscriber '''L'''ine'') wird erstmalig diskutiert.&lt;br /&gt;
*'''1995'''  Veröffentlichung des '''ETSI Technical Report ETR 152''': „''High–bit–rate Digital Subscriber Line'' (HDSL)” sowie „''Transmission Systems on Metallic Local Lines''”.  #  Erste Feldversuche mit ADSL in den USA.  #  Veröffentlichung des '''ADSL–Standards ANSI T1.413''': „''Asymmetric Digital Subscriber Line'' (ADSL) ''Metallic Interface''”.&lt;br /&gt;
*'''1996'''  Erstmalige Veröffentlichung des '''ETSI Technical Report ETR 328''': „Asymmetric Digital Subscriber Line (ADSL)” sowie „Transmission and Multiplexing (TM)”.&lt;br /&gt;
*'''1998'''  Im April erstmalige Veröffentlichung der '''ETSI Technical Specification TS 101 270–1 V1.1.1''': „''Very–high–speed Digital Subscriber Line'' (VDSL)”.  #  Nahezu zeitgleich erstmalige Veröffentlichung des '''ANSI Draft Technical Document T1E1.4/98–043R1''': „''Very–high–speed Digital Subscriber Lines''”.  #  Im Oktober erste Veröffentlichung der '''ITU–Empfehlung G.991.1''': „''High–bit–rate Digital Subscriber Line'' (HDSL) ''Transceivers''”.  #  Nahezu zeitgleich Veröffentlichung der '''ETSI Technical Specification TS 101 135''': „''High–bit–rate Digital Subscriber Line'' (HDSL) – ''Transmission Systems on Metallic Local Lines''”.  #  Im November Veröffentlichung der '''ETSI Technical Specification TS 101 388 V1.1.1''': „''Asymmetric Digital Subscriber Line'' (ADSL) – ''European Specific Requirements''”.&lt;br /&gt;
*'''1999'''  Im Juni Veröffentlichung der '''ITU–Empfehlungen G.992.1''': „''Asymmetric Digital Subscriber Line'' (ADSL) ''Transceivers''” und '''G.992.2''': „''Splitterless Asymmetric Digital Subscriber Line'' (ADSL) ''Transceivers''”.  #  Am 22.07. bietet die Deutsche Telekom AG erstmals ADSL in Deutschland an (T–DSL 768).&lt;br /&gt;
*'''2001'''  Im Februar Veröffentlichung der '''ITU–Empfehlung G.991.2''': „''Single–pair High–speed Digital Subscriber Line'' (SHDSL) ''Transceivers''”.  #  Im November Veröffentlichung der '''ITU–Empfehlung G.993.1''': ''Very–high–speed Digital Subscriber Line transceivers'' (VDSL).&lt;br /&gt;
*'''2002'''  Erstmalige Veröffentlichungen der '''ITU–Empfehlungen G.992.3''': „''Asymmetric Digital Subscriber Line Transceivers 2'' (ADSL2)” sowie '''G.992.4''': „''Splitterless Asymmetric Digital Subscriber Line Transceivers 2'' (splitterless ADSL2)” .&lt;br /&gt;
*'''2003'''  Erste Veröffentlichung der '''ITU–Empfehlung G.992.5''': „''Asymmetric Digital Subscriber Line'' (ADSL) ''Transceivers – Extended-bandwidth ADSL2'' (ADSL2+)” .&lt;br /&gt;
*'''2006'''  Im Februar Veröffentlichung der '''ITU–Empfehlung G.993.2''': „''Very–high–speed Digital Subscriber Line Transceivers 2'' (VDSL2)”.  #  Im Oktober bietet die Deutsche Telekom AG erstmals für Endkunden in ausgewählten Städten VDSL2 an.&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== Europäische ADSL- und VDSL-Entwicklung == 	 &lt;br /&gt;
&lt;br /&gt;
Aus der Zusammenstellung der letzten Seite erkennt man, dass die '''ADSL–Standardisierung''' vorwiegend von '''ANSI''' (''American National Standards Institute'') vorangetrieben wurde und dass jeweils kurz danach die '''ETSI''' (''European Telecommunications Standards Institute'') nachlegte:&lt;br /&gt;
*Der erste ADSL–Standard ('''ANSI T1.413''') aus dem Jahr 1995 war vorwiegend für Video–Abrufdienste optimiert, was auch durch das Verhältnis der hierin definierten Down– und Upstream–Datenraten deutlich wird: 1.5 Mbit/s &amp;amp; 16 kbit/s, 3 Mbit/s &amp;amp; 16 kbit/s, und schließlich 6 Mbit/s &amp;amp; 64 kbit/s.&lt;br /&gt;
*Der Frequenzbereich war ursprünglich so festgelegt, dass man mit ADSL nur ein analoges Telefon auf der Anschlussleitung betreiben konnte. ETSI veröffentlichte 1996 einen technischen Report ('''ETR 328''') mit nur wenigen Detailänderungen und der Möglichkeit, 2048 kbit/s zu übertragen.&lt;br /&gt;
*Da die zweite Version des ANSI–Standards ebenfalls nur ein zusätzliches Analogtelefon zuließ, definierte die ETSI daraufhin ein ADSL–System, das sich sowohl in den Bitraten als auch in der Möglichkeit der Nutzung eines ISDN–Basisanschlusses auf der gleichen Doppelader unterschied.&lt;br /&gt;
*Die ANSI– und ETSI–Standardisierungsbestrebungen der Vorjahre mündeten 1999 in die ITU–Empfehlung '''G.992.1''', die beide Standards beinhaltet und somit viele Möglichkeiten der Realisierung zulässt.&lt;br /&gt;
&lt;br /&gt;
Die vielen Optionen führten allerdings Ende der 1990–er Jahre zu großen konzeptionellen Unterschieden – weltweit, innereuropäisch und auch national, unter anderem abhängig vom Halbleiterhersteller. Nur wenige Systeme, Modems und Messgeräte interoperierten mit anderen Herstellern.&lt;br /&gt;
Um diesem Wildwuchs entgegenzuwirken, verabschiedete die Deutsche Telekom AG Ende 2001 die Technische Richtlinie '''1TR112''', in der alle nötigen Schnittstellenparameter festgelegt werden, um die Interoperabilität verschiedener Herstellermodems auf Anbieter– und Kundenseite zu gewährleisten. Durch die Marktmacht der Telekom wurde diese zum Quasi–Standard für Deutschland.&lt;br /&gt;
Des Weiteren wurden in Deutschland auch nur solche ADSL–Varianten eingesetzt, die jederzeit einen gleichzeitigen Betrieb von ISDN ermöglichten. Somit musste beim Wechsel von POTS auf ISDN nicht auch noch die ADSL–Version gewechselt werden.&lt;br /&gt;
Die für Europa relevante '''VDSL–Standardisierung''' wurde maßgeblich von der ETSI geprägt und geschah oft parallel zu den amerikanischen Aktivitäten. Insgesamt lief die Standardisierung von VDSL geordneter ab als bei ADSL. Der von ETSI beschlossene 3–Stufen–Plan sah vor:&lt;br /&gt;
*Stufe 1: Funktionale und elektrische Anforderungen an VDSL–Systeme,&lt;br /&gt;
*Stufe 2: Anforderungen an die Übertragungscodierung und die Zugriffsmethoden,&lt;br /&gt;
*Stufe 3: Interoperabilitätsanforderungen.&lt;br /&gt;
&lt;br /&gt;
Diese Anstrengungen mündeten im April 1998 in der Veröffentlichung der ETSI Technical Specification '''TS 101 270-1''', die als Modulationsverfahren sowohl DMT (''Discrete Multitone Transmission'') als auch QAM (Quadratur–Amplitudenmodulation) zuließ. Die Halbleiter–Hersteller konnten sich lange nicht auf einen weltweiten Leitungscode–Standard einigen und man sprach sogar vom „''VDSL Line-Code War''”. 2003 wurde bei den sog. „''VDSL Olympics''” zugunsten von DMT und gegen QAM (bzw. der leicht modifizierten Variante CAP) entschieden, und zwar&lt;br /&gt;
*wegen der Robustheit von DMT gegenüber schmalbandigen Störquellen,&lt;br /&gt;
*obwohl QAM (CAP) einen schnelleren Verbindungsaufbau ermöglichen würde.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
== Die rasante Entwicklung der DSL–Anschlüsse  ==	&lt;br /&gt;
&lt;br /&gt;
Anfang 2000 wurde für das Jahr 2004 eine DSL–Verbreitung von ca. 6 Millionen Anschlüssen (für Europa) und 1.6 Millionen (für Deutschland) prognostiziert. Die Prognosen wurden deutlich überboten. In Deutschland stieg die Zahl der '''Breitbandanschlüsse''' (xDSL und Sonstige, vorwiegend xDSL) durchschnittlich um etwa 50% jährlich. Gleichzeitig stagnierte die Zahl der '''Schmalbandanschlüsse''' (ISDN + Analog) mit einer Verschiebung zu ISDN. Dies zeigt den Trend zu komfortablen, digitalen Telefonanschlüssen, während der bisherige ''Plain Old Telephone Servive'' mehr und mehr verschwindet.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1908__Bei_2_1_S5a_v3.png|Entwicklung der Breitband– und Schmalbandanschlüssen in Deutschland]]&lt;br /&gt;
&lt;br /&gt;
2005 hielt Deutschland (fast 8 Millionen xDSL–Teilnehmeranschlüssen) die Spitzenposition in Europa, wie die folgende Grafik zeigt (blaue Balken). In der Bevölkerungsabdeckung (wieviele Bewohner nutzen DSL prozentual?) lagen andere Länder (Finnland, die Niederlande, Dänemark, Frankreich) mit mehr als 13% im europaweiten Vergleich vorne (rote Balken).&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID3117__Bei_2_1_S5b_v2.png|xDSL–Anschlüsse und xDSL–Abdeckung im europäischen Vergleich (2005)]]&lt;br /&gt;
 	 &lt;br /&gt;
&lt;br /&gt;
==DSL–Verbreitung um das Jahr 2008 == 	 &lt;br /&gt;
&lt;br /&gt;
Inzwischen haben sich die Zahlen in Europa fast explosionsartig weiterentwickelt. xDSL ist heute in fast allen Ländern die führende Zugangstechnologie mit einer beachtenswerten Entwicklung:&lt;br /&gt;
*In der Europäischen Union wurde für 2008 eine Breitbandverfügbarkeit für mindestens 95% der Bevölkerung angestrebt. Die „weißen Flecken” komplett abzuschaffen, ist derzeit leider noch nicht möglich.&lt;br /&gt;
*Ende 2008 verfügten mehr als 114 Millionen Europäer über einen Breitbandanschluss, größtenteils xDSL–Anschlüsse. Dies entspricht einer Steigerung von ca. 29% pro Jahr über die Jahre 2004–2008 gemittelt (siehe die folgende, für Europa geltende Grafik).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1910__Bei_2_1_S6a_v2.png|Entwicklung der Breitbandanschlüsse in Europa, aufgeteilt nach Technologie (2000–2008)]]&lt;br /&gt;
&lt;br /&gt;
Die nächste Grafik zeigt die „Top 10” weltweit im Jahr 2008. Hier weist China mit ca. 43 Millionen die meisten xDSL–Teilnehmeranschlüsse auf. In der Bevölkerungsabdeckung liefert Frankreich ein beachtliches Ergebnis mit 24%. Deutschland liegt bei beiden Betrachtungsweisen im oberen Mittelfeld. Die Prognosen des DSL–Forums gehen für 2010 weltweit von 500 Millionen xDSL–Anschlüssen aus.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1911__Bei_2_1_S6b_v2.png|xDSL im weltweiten Vergleich 2007 („Top 10”)]]&lt;br /&gt;
	 &lt;br /&gt;
Die nächste Grafik zeigt die Anzahl der Breitbandanschlüsse Ende 2008 ingesamt (xDSL, Kabel und Glasfaser) in 15 Mitgliedsländern der ''Organisation for Economic Co–operation and Development'' (OECD). Die USA liegen hier mit knapp über 30 Millionen xDSL–Zugängen vorne, Deutschland folgt an zweiter Stelle mit rund 20 Millionen xDSL–Zugängen.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1912__Bei_2_1_S6c_v2.png|Breitbandanschlüsse in den OECD-Länder Ende 2008]]&lt;br /&gt;
&lt;br /&gt;
Die Statistik ändert sich grundlegend, wenn man die Breitbandabdeckung in der Bevölkerung betrachtet. Hier ist (das einwohnermäßig kleine) Island mit einer xDSL–Abdeckung von 31.6% der Bevölkerung führend vor Frankreich mit 26.6%. Deutschland liegt an 5. Stelle mit 25.4%.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID3118__Bei_2_1_S6d_v3.png|Breitbandabdeckung in der Bevölkerung der OECD-Länder Ende 2008]]&lt;br /&gt;
&lt;br /&gt;
Die USA, Japan und Südkorea sind bezüglich Flächenabdechung mit jeweils unter 10% nicht unter den ersten 15 Ländern. Zu berücksichtigen ist aber, dass in diesen Ländern bereits damit begonnen wurde, Glasfaserleitungen bis zum Kunden zu verlegen (''Fiber–to–the–Home'', FttH). Diese Anschlüsse fallen aus der xDSL–Statistik heraus.&lt;br /&gt;
&lt;br /&gt;
Die folgende Grafik zeigt, in welchen OECD–Ländern die schnellsten DSL–Zugänge angeboten werden („Top 30”). Vorne liegen mit 100 Mbit/s Datenrate Korea und Japan dank der VDSL(2)–Technologie. Deutschland kommt gemeinsam mit Dänemark an dritter Stelle mit 50 Mbit/s. Hier wird ebenfalls der VDSL(2)–Standard verwendet; die kleinere Datenrate ergibt sich aufgrund der größeren Leitungslänge im Teilnehmeranschlussbereich. Allerdings ist diese hochratige Breitbandversorgung auch in Deutschland derzeit (Ende 2009) noch auf nur wenige städtische Gebiete beschränkt.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1914__Bei_2_1_S6e_v1.png|„Top 30” der schnellsten DSL–Angebote]]&lt;br /&gt;
&lt;br /&gt;
==DSL-Entwicklung und Zielvorgaben für Deutschland==  &lt;br /&gt;
&lt;br /&gt;
Die Bundesregierung legte 2003 in ihrem Programm „Informationsgesellschaft Deutschland 2006” für 2010 das Ziel von mindestens 20 Millionen Breitbandanschlüssen fest. Ende 2008 gab es in Deutschland laut ''Bundesministerium für Wirtschaft und Technologie'' rund 23 Millionen Breitbandzugänge, womit 60% der Haushalte abgedeckt waren. Mehr als 21 Millionen (91%) davon sind xDSL–Anschlüsse und 8% Kabelanschlüsse. Die restlichen Breitbandzugänge verteilen sich auf Satellit, Glasfaser und WLAN.&lt;br /&gt;
Laut der Breitbandstrategie der Bundesregierung vom Februar 2009 sollen&lt;br /&gt;
*alle Lücken in der Breitbandversorgung bis Ende 2010 geschlossen werden und flächendeckend leistungsfähige Breitbandanschlüsse – darunter versteht man Datenraten im ''Downstream'' von mindestens 1 Mbit/s – verfügbar sein,&lt;br /&gt;
*bis 2014 bereits für 75% der Haushalte Anschlüsse mit Datenraten von mindestens 50 Mbit/s zur Verfügung stehen und möglichst bald flächendeckend verfügbar sein.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1915__Bei_2_1_S7_v1.png|DSL–Verfügbarkeit in Deutschland (Breitbandatlas)]]&lt;br /&gt;
&lt;br /&gt;
Die letzte Grafik dieses Kapitels zeigt die DSL–Verfügbarkeit in Deutschland Ende 2008 allgemein (links) bzw. mit Datenraten größer als 1 Mbit/s (rechts). Im linken Bild erkennt man viele sattgrüne oder zumindest hellgrüne Bereiche, die eine DSL–Verfügbarkeit von mehr als 75% kennzeichnen. Allerdings gibt es insbesondere in Ostdeutschland auch noch viele weiße und rote Gebiete (Verfügbarkeit unter 25%). Im rechten Bild überwiegt gelb (Verfügbarkeit zwischen 50 und 75%).&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
==Aufgabe zu Kapitel 2.1 == 	 &lt;br /&gt;
&lt;br /&gt;
[[2.1:_Grundsätzliches_zu_xDSL|Aufgabe 2.1: Grundsätzliches zu xDSL]] &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/General_Description_of_GSM&amp;diff=21289</id>
		<title>Examples of Communication Systems/General Description of GSM</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Examples_of_Communication_Systems/General_Description_of_GSM&amp;diff=21289"/>
		<updated>2018-01-02T19:26:13Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=GSM – Global System for Mobile Communications&lt;br /&gt;
|Vorherige Seite=Verfahren zur Senkung der Bitfehlerrate bei DSL&lt;br /&gt;
|Nächste Seite=Funkschnittstelle&lt;br /&gt;
}}&lt;br /&gt;
== # ÜBERBLICK ZUM DRITTEN HAUPTKAPITEL # ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Entstehung und Historie von GSM == &lt;br /&gt;
&lt;br /&gt;
Der GSM–Standard wurde um 1990 mit dem Ziel eingeführt, ein einheitliches paneuropäisches mobiles Telefonsystem und –netz anbieten zu können. Die Nutzung zur Datenübertragung stand zunächst nicht im Mittelpunkt, wurde aber seitdem durch Zusatzspezifikationen hinsichtlich Datenrate stetig verbessert.&lt;br /&gt;
&lt;br /&gt;
Nachfolgend einige Daten zur historischen Entwicklung von GSM:&lt;br /&gt;
&lt;br /&gt;
'''1982'''  Bei der „Conférence Européenne des Postes et Télécommunications” (CEPT) wird die Groupe Spécial Mobile – abgekürzt GSM – eingerichtet.&lt;br /&gt;
&lt;br /&gt;
'''1987'''  Es wird eine Kooperation zwischen 17 zukünftigen Betreibern aus 15 europäischen Ländern gebildet und mit der GSM–Spezifikation begonnen.&lt;br /&gt;
&lt;br /&gt;
'''1990'''  Die Phase 1 der GSM 900-Spezifikation (für 900 MHz) wird abgeschlossen und es beginnt die Anpassung für das System DCS 1800 (Digital Cellular System) um die Frequenz 1.8 GHz.&lt;br /&gt;
&lt;br /&gt;
'''1992'''  Die meisten europäischen GSM-Netzbetreiber beginnen den kommerziellen Betrieb, zunächst nur mit Sprachdiensten. Ende 1992 sind bereits 13 Netze in sieben Ländern „on air”.&lt;br /&gt;
&lt;br /&gt;
'''1995'''  Die Phase 2 der GSM-Standardisierung beginnt. Diese beinhaltet Daten, SMS-Roaming, Fax sowie Anpassungen für GSM/PCS1900, das im gleichen Jahr in den USA ans Netz geht.&lt;br /&gt;
&lt;br /&gt;
'''1999'''  Mit der Einführung von WAP (Wireless Application Protocol) wird es erstmals möglich, Inhalte des Internets und andere interaktive Dienstangebote auf Mobilgeräte zu übertragen.&lt;br /&gt;
&lt;br /&gt;
'''2000'''  Die Erweiterung GPRS (General Packet Radio Service) verbessert und vereinfacht zudem den drahtlosen Zugang zu paketvermittelten Datennetzen wie IP– oder X.25–Protokolle.&lt;br /&gt;
&lt;br /&gt;
'''2000'''  Mit der Phase 2+ wird gleichzeitig EDGE (Enhanced Data Rates for GSM Evolution) eingeführt, womit die Datenrate gegenüber GPRS etwa um den Faktor 3 gesteigert werden kann.&lt;br /&gt;
&lt;br /&gt;
'''2006'''  Bis zum Jahr 2006 ist die Zahl der Netzbetreiber in 213 Ländern/Gebieten weltweit auf 147 angestiegen und es werden mehr als 2 Milliarden Teilnehmer versorgt. Allein in Deutschland gab es Ende 2005 schon mehr als 70 Millionen GSM–Handys.&lt;br /&gt;
&lt;br /&gt;
Die derzeit (2011) eingesetzten GSM-Standards sind:&lt;br /&gt;
*GSM 900: Frequenzbereich um 900 MHz (D–Netze, in Deutschland TD1, Vodafone D2),&lt;br /&gt;
*GSM/DCS 1800: Frequenzbereich um 1800 MHz (E–Netze, in Deutschland alle Betreiber),&lt;br /&gt;
*GSM/PCS 1900: Frequenzbereich um 1900 MHz (vorwiegend in den USA eingesetzt).&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
==Zellularstruktur von GSM == 	 &lt;br /&gt;
&lt;br /&gt;
Ein Charakteristikum von GSM ist die '''zellulare Netzstruktur''', die für einfache Berechnungen häufig durch Hexagone – also durch Sechsecke – entsprechend der linken Grafik idealisiert beschrieben wird. Dadurch kann ein Versorgungsgebiet mit jeweils einer Basisstation pro Zelle lückenlos versorgt werden, wenn die Reichweite der Basisstation mindestens so groß ist wie der Zellenradius.&lt;br /&gt;
&lt;br /&gt;
Aus dieser zellularen Struktur ergeben sich folgende Konsequenzen für das GSM–System:&lt;br /&gt;
*Der '''Zellenradius''' muss umso kleiner gewählt werden, je größer die Trägerfrequenz ist. Beim D-Netz ( $f_{\rm T}$ ≈ 900 MHz ) beträgt der maximale Zellenradius etwa 35 km, beim E–Netz ist dieser aufgrund der höheren Frequenz ( $f_{\rm T}$ ≈ 1800 MHz ) mit 8 km deutlich geringer.&lt;br /&gt;
*Bewegt sich ein mobiler Teilnehmer in dem Gebiet, so wird er verschiedene Zellen durchqueren und somit mit verschiedenen Basisstationen in Kontakt stehen. Ein nicht zu vernachlässigendes Problem ist das sog. '''Handover''' beim Überqueren einer Zellgrenze während eines Gesprächs.&lt;br /&gt;
*Benutzt man in allen Zellen die gleiche Trägerfrequenz, so kann es bei Überreichweiten zu '''Interzellinterferenzen''' kommen. Häufig verwendet man deshalb in benachbarten Zellen andere Frequenzen. Im obigen Beispiel werden drei unterschiedliche Frequenzen benutzt, was durch die Farben weiß, gelb und blau angedeutet ist. Diesem Beispiel liegt der Reuse–Faktor 3 zugrunde.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die rechte Grafik zeigt ein realistischeres Zellen–Layout mit unterschiedlich großen Zellen – je nach Teilnehmerdichte und Geländetopologie. Außerdem erkennt man, dass sich die Basisstation nicht immer im Zellenmittelpunkt befinden muss. Die Farben weiß und rot haben hier keine besondere Bedeutung.&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==GSM–Systemarchitektur und –Netzkomponenten==  &lt;br /&gt;
&lt;br /&gt;
GSM ist ein hierarchisch gegliedertes System verschiedener Netzkomponenten. Es hat zwei wesentliche Bestandteile, die '''Mobilstationen''' (MS, Mobilteilnehmer) und das fest installierte GSM–Netz. Eine jede Mobilstation besteht im Wesentlichen aus zwei Einheiten:&lt;br /&gt;
*dem '''Mobile Equipment''' (ME): Jedem ME ist eine eindeutige Nummer, die sog. ''International Mobile Equipment Identity'' (IMEI) zugeteilt.&lt;br /&gt;
*dem '''Subscriber Identity Modul''' (SIM): Dieses ist ein kleiner, durch PIN geschützter Prozessor und Speicher, verantwortlich für die Zuordnung der Benutzerdaten und die Authentifizierung.&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt die Struktur für ein so genanntes '''Public Land Mobile Network''' (PLMN) des GSM, also die GSM–Systemarchitektur. Diese ist für die Sprachübertragung ausgelegt, aber auch für die Datenübertragung in eingeschränktem Maße geeignet. Aus dieser Grafik erkennt man:&lt;br /&gt;
*Die Mobilstation (MS) kommuniziert über Funk mit der nächstgelegenen '''Base Transceiver Station''' (BTS, Sende– und Empfangsbasisstation).&lt;br /&gt;
*Mehrere BTS werden gebietsweise zusammengefasst und sind einem '''Base Station Controller''' (BSC, Kontrollstation) unterstellt.&lt;br /&gt;
*Das '''Base Station Subsystem''' (BSS) besteht aus einer Vielzahl von BTS und mehreren BSC. In der Grafik ist ein solches BSS blau umrandet.&lt;br /&gt;
*jede BSC ist schließlich mit einem '''Mobile Switching Center''' (MSC, Vermittlungsrechner) verbunden, dessen Funktion mit einem Vermittlungsknoten im Festnetz vergleichbar ist.&lt;br /&gt;
&lt;br /&gt;
Die fest installierte GSM-Infrastruktur kann in drei Subnetze untergliedert werden:&lt;br /&gt;
*dem '''Base Station Subsystem''' (BSS, Funknetz-BSS),&lt;br /&gt;
*dem '''Switching and Management Subsystem''' (SMSS, Mobilvermittlungsnetz), und&lt;br /&gt;
*dem '''Operation and Maintenance Subsystem''' (OMSS, Betrieb und Wartung).&lt;br /&gt;
&lt;br /&gt;
BSS und SMSS werden im nächsten Kapitel noch im Detail beschrieben.&lt;br /&gt;
&lt;br /&gt;
Das '''Operation and Maintenance Subsystem''' (OMSS) sorgt für das Einrichten der Teilnehmer, die Überprüfung der Berechtigungen, die Sperrung der Geräte, die Gebührenerfassung, die Wartung der Netzkomponenten sowie die Steuerung des Verkehrsflusses. Es beinhaltet folgende Komponenten:&lt;br /&gt;
*Das '''Operation and Maintenance Center''' (OMC) – grün umrandet – überwacht einen Teil des gesamten Mobilfunknetzes und löst die Steuerfunktionen des Netzes aus.&lt;br /&gt;
*Es unterteilt sich in die beiden Komponenten '''OMC-B''' für die Überwachung der ''Base Station Controller'' (BSC) und '''OMC-S''' zur Kontrolle des ''Mobile Switching Centers'' (MSC).&lt;br /&gt;
*Die Netzkontrolle kann auch in einem oder mehreren '''Network Management Center''' (NMC) zentralisiert erfolgen. Ein solches ist den OMCs übergeordnet.&lt;br /&gt;
&lt;br /&gt;
Weitere wichtige Funktionen/Aufgaben des ''Operation and Maintenance Centers'' (OMC) sind die Verwaltung des kommerziellen Betriebs, die Netzkonfiguration, das Sicherheitsmanagement und alle Wartungsarbeiten hinsichtlich Hardware und Software.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Base Station Subsystem (BSS) == 	&lt;br /&gt;
&lt;br /&gt;
Die folgende Grafik zeigt im linken Teil ein '''Base Station Subsystem''', abgekürzt BSS. Ein solches Funknetz besteht aus folgenden Netzkomponenten:&lt;br /&gt;
*Die '''Base Transceiver Station''' (BTS) stellt mindestens je einen Funkkanal für den Nutzverkehr bzw. die Signalisierung bereit. Sie besitzt neben dem HF–Teil (Sende– und Empfangseinrichtung) noch einige Komponenten zur Signal– und Protokollverarbeitung. An die BTS sind eine oder mehrere Antennen angeschlossen, die meist einen 120°–Sektor versorgen.&lt;br /&gt;
*Um die Basisstationseinheiten (BTS) klein halten zu können, ist die wesentliche Steuerungs- und Protokollintelligenz oft in den '''Base Station Controller''' (BSC) verlagert. Dabei können durchaus auch mehrere BTS von einem gemeinsamen BSC gesteuert werden.&lt;br /&gt;
*Bevor das Sprachsignal dem Vermittlungssystem übergeben wird, wandelt die '''Transcoding &amp;amp; Rate Adaption Unit''' (TRAU) die Rate des GSM-Sprachsignals von 13 auf 64 kbit/s. Des Weiteren übernimmt die TRAU auch die Ratenanpassung für die Datendienste.&lt;br /&gt;
&lt;br /&gt;
Jeder BTS werden verschiedene Parameter zugeordnet, nämlich:&lt;br /&gt;
*Eine oder mehrere Funkzellen werden zu einer ''Location Area'' (LA) zusammengefasst. Jede LA erhält eine eigene Kennziffer – den sog. '''Location Area Identifier''' (LAI). Dieser wird von der Basisstation auf dem ''Broadcast Control Channel'' (BCCH) regelmäßig ausgesendet.&lt;br /&gt;
*Dadurch kann jede Mobilstation über die LAI auch ihren aktuellen Aufenthaltsort feststellen. Bei einem Wechsel der Location Area fordert die Mobilstation ein '''Location Update''' an.&lt;br /&gt;
&lt;br /&gt;
Weitere Parameter des Base Station Subsystems sind unter anderem:&lt;br /&gt;
*die '''Cell Allocation''' (CA) zur Zuordnung eines Satzes von Frequenzen zu einer BTS,&lt;br /&gt;
*der '''Cell Identifier''' (CI) zur Kennzeichnung der einzelnen Zellen innerhalb einer LA, und&lt;br /&gt;
*der '''Base Transceiver Station Identity Code''' (BSIC) als Kennung der Basisstation.&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Switching and Management Subsystem (SMSS)  ==	 &lt;br /&gt;
&lt;br /&gt;
Das '''Switching and Management Subsystem''' (SMSS, deutsch: Mobilvermittlungsnetz) besteht aus den Mobilvermittlungszentren (MSC bzw. GMSC) und verschiedenen Datenbanken (VLR, HLR, AUC, EIR, etc.), wie die nachfolgende Grafik aus &amp;lt;ref&amp;gt;Bettstetter, C.; Vögel, H.J.; Eberspächer, J.: ''GSM Phase 2+ General Packet Radio Service GPRS: Architecture, Protocols, and Air Interface''. In: IEEE Communications Surveys &amp;amp; Tutorials, Vol. 2 (1999) No. 3, S. 2-14.&amp;lt;/ref&amp;gt; zeigt.&lt;br /&gt;
&lt;br /&gt;
Zu dieser Darstellung ist zu bemerken:&lt;br /&gt;
*Das '''Mobile Switching Center''' (MSC) – also das Mobilvermittlungszentrum – erfüllt die gleichen vermittlungstechnischen Funktionen wie ein Festnetz-Vermittlungsknoten, z.B. die Wegesuche und die Signalwegeschaltung. Zusätzlich muss ein MSC jedoch auch die Mobilität der Teilnehmer berücksichtigen (Aufenthaltsregistrierung, Handover beim Zellwechsel, und einiges mehr).&lt;br /&gt;
*Das '''Gateway Mobile Switching Center''' (GMSC) ist für die Verbindung zwischen Festnetz – zum Beispiel dem ISDN – und dem Mobilfunknetz verantwortlich. Wird beispielsweise ein Mobilfunkteilnehmer aus dem Festnetz angerufen, so ermittelt das GMSC im HLR (siehe unten) das zuständige MSC und vermittelt den Ruf weiter.&lt;br /&gt;
&lt;br /&gt;
MSC und GMSC haben Zugriff auf verschiedene Datenbanken:&lt;br /&gt;
*Das '''Home Location Register''' (HLR, deutsch: Heimatregister) ist ein zentrales Register für die Teilnehmerdaten in einem PLMN. Es beinhaltet permanente Daten, aber auch temporäre, die zur Wegesuche für Rufe der eigenen Mobilteilnehmer benötigt werden.&lt;br /&gt;
*Das '''Visitor Location Register''' (VLR, deutsch: Besucherregister) speichert die Daten aller Mobilstationen, die sich momentan im Verwaltungsbereich des zugehörigen MSC aufhalten, also auch die Teilnehmer anderer Netzbetreiber.&lt;br /&gt;
*Das '''Authentication Center''' (AUC) ist für die Speicherung von vertraulichen Daten und von Schlüsseln verantwortlich.&lt;br /&gt;
*Das '''Equipment Identity Register''' (EIR, deutsch: Geräteregister) speichert Seriennummern (''International Mobile Station Equipment Identity'', IMEI) der angemeldeten Endgeräte.&lt;br /&gt;
&lt;br /&gt;
Zwischen den Datenbanken (VLR, HLR, AUC, etc.) zweier an einer Sprachverbindung beteiligten Mobilvermittlungszentren gibt es einen ständigen Datenabgleich. Hierzu erforderlich sind verschiedene Kennzeichnungen für alle Teilnehmer, zum Beispiel:&lt;br /&gt;
*Die '''Mobile Station Roaming Number''' (MSRN) ist eine temporäre, aufenthaltsabhängige ISDN-Nummer. Sie wird jeder Mobilstation vom lokal zuständigen VLR zugewiesen und vom HLR auf Anfrage an das GMSC weitergeleitet. Mit Hilfe dieser MSRN werden Rufe zu einer Mobilstation geroutet.&lt;br /&gt;
*Die '''Temporary Mobile Subscriber Identity''' (TMSI) ist eine weitere Kennnummer, die nur im Gebiet des VLR gültig ist und anstelle der ''International Mobile Subscriber Identity'' (IMSI) zur Adressierung einer Mobilstation verwendet wird. &lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&lt;br /&gt;
Wir betrachten das Mobilfunknetz eines Betreibers A, dessen Kunde der Teilnehmer 1 ist. Das ''Visited Location Register'' von Betreiber A – abgekürzt VLR(A) – enthält Informationen zum genauen Aufenthalt (In welcher Zelle? Welches BTS?) aller Teilnehmer. Für diesen Teilnehmer 1 stimmt der Eintrag im ''Home Location Register'' HLR(A) mit VLR(A) überein. So erkennt Betreiber A, dass Teilnehmer 1 sein Kunde ist, und es wird eine Verbindung hergestellt.&lt;br /&gt;
Der Teilnehmer 2 ist Kunde eines anderen Betreibers B, der sich momentan per „Roaming“ im Netz A befindet. Das ''Visitor Location Register'' von Betreiber A – abgekürzt VLR(A) – enthält Informationen zum genauen Aufenthalt des fremden Teilnehmers 2 und eine Kopie von HLR(B) des Betreibers B. Der Betreiber A erkennt so diesen fremden Kunden und erteilt ihm die Freigabe für Roaming in seinem Netz A. Voraussetzung ist allerdings, dass zwischen den Netzbetreibern ein Roaming–Vertrag besteht.&lt;br /&gt;
&lt;br /&gt;
{{end}}&lt;br /&gt;
&lt;br /&gt;
	 &lt;br /&gt;
==Dienste des GSM== &lt;br /&gt;
&lt;br /&gt;
Die GSM-Dienste sind in die drei Kategorien aufgeteilt:&lt;br /&gt;
*'''Bearer Services''' – Trägerdienste,&lt;br /&gt;
*'''Teleservices''' – Tele(matik)dienste,&lt;br /&gt;
*'''Supplementary Services''' – Zusatzdienste.&lt;br /&gt;
&lt;br /&gt;
Träger– und Teledienste fasst man auch unter dem Oberbegriff „Telekommunikationsdienste” zusammen. Deshalb muss jedes ''Public Land Mobile Network'' (PLMN) die entsprechende Festnetz–Infrastruktur und eine Netzübergangsvermittlungsfunktion (''Interworking Function'', IWF) zur Verfügung stellen.&lt;br /&gt;
&lt;br /&gt;
Die '''Trägerdienste''' sind für die Datenübertragung grundlegend. Sie stellen die notwendigen technischen Einrichtungen zum gesicherten Transport der Nutzdaten bereit. Zu den reinen Transportdiensten gehören:&lt;br /&gt;
*synchrone leitungsvermittelte Datenübertragung (mit 2400, 4800 oder 9600 bit/s),&lt;br /&gt;
*asynchrone leitungsvermittelte Datenübertragung (mit 300 oder 1200 bit/s).&lt;br /&gt;
*synchrone paketvermittelte Datenübertragung (mit 2400, 4800 oder 9600 bit/s).&lt;br /&gt;
*asynchrone paketvermittelte Datenübertragung (mit 300 oder 9600 bit/s).&lt;br /&gt;
&lt;br /&gt;
Die Trägerdienste werden dazu noch in zwei verschiedene Modi unterteilt:&lt;br /&gt;
*Im sog. '''transparenten Modus''' besteht eine durch Vorwärtsfehlerkorrektur gesicherte Verbindung zwischen Endgerät und MSC. Dieser Modus ist durch eine konstante Bitrate, eine konstante Übertragungsverzögerung und – abhängig vom jeweiligen Kanalzustand – eine schwankende Bitfehlerhäufigkeit gekennzeichnet.&lt;br /&gt;
*Dagegen basiert der '''nichttransparente Modus''' auf dem ''Radio Link Protocol'' (RLP). Durch ein zusätzliches Automatic Repeat Request (ARQ)–Verfahren dieses Protokolls werden Blöcke mit zu vielen Bitfehlern zur Wiederübertragung angefordert, so dass sowohl die Netto–Bitrate als auch die Verzögerung stark von den Übertragungsbedingungen abhängen.&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
Die zweite Kategorie der GSM-Dienste sind '''Teledienste'''. Diese sind Ende-zu-Ende-Dienste, für die in der Regel keine Netzübergangsumsetzung (''Interworking Function'', IWF) erforderlich ist. In der Grafik bezeichnet „MS–TE“ das Terminal–Equipment der Mobilstation.&lt;br /&gt;
&lt;br /&gt;
Die wichtigsten Teledienste sind:&lt;br /&gt;
*der '''Telefondienst'''. Dieser Basisdienst für die Übertragung digital–codierter Sprachsignale benutzt eine bidirektionale sowie symmetrische Punkt-zu-Punkt-Verbindung und bietet sog. „Services” an, wie z.B. Anrufumleitung, Anrufsperre und geschlossene Benutzergruppen;&lt;br /&gt;
*der '''Faxdienst''', der zur Übertragung der Daten einen transparenten Trägerdienst nutzt;&lt;br /&gt;
*der '''Kurznachrichtendienst''' (englisch: ''Short Message Service'', SMS), der von GSM seit 1996 bereitgestellt wird. Hiermit können Nachrichten mit einem verbindungslosen paketvermittelten Protokoll von oder zu einer Mobilstation übertragen werden. Hierzu muss ein Netzbetreiber ein Dienstzentrum (''Service Center'') einrichten.&lt;br /&gt;
&lt;br /&gt;
Man unterscheidet zwei Typen von Kurznachrichten:&lt;br /&gt;
*'''Punkt-zu-Punkt-Nachrichten''' zwischen den Mobilstationen und einer Vermittlungsstelle mit einer maximalen Länge von 160 alphanumerischen Zeichen,&lt;br /&gt;
*'''Short Message Service Cell Broadcast''' (SMSCB). Diese Nachrichten werden nur in einem begrenzten, regionalen Gebiet ausgestrahlt und können von der Mobilstation nur im Ruhezustand empfangen werden. Die Länge ist auf 93 Zeichen beschränkt.&lt;br /&gt;
&lt;br /&gt;
Die '''Zusatzdienste''' als dritte Kategorie der GSM–Dienste modifizieren und ergänzen die Funktionalität eines GSM–Telekommunikationsdienstes. GSM der Phase 1 bietet die gleichen Zusatzdienste an wie ISDN, beispielsweise Anrufanzeige, Rufumleitung (''Call Forwarding'') und Rufnummernsperre (''Call Restriction'').&lt;br /&gt;
Neuere GSM–Dienste der Phase 2+ sind:&lt;br /&gt;
*High Speed Circuit-Switched Data (HSCSD, Leitungsdatendienst),&lt;br /&gt;
*General Packet Radio Service (GPRS, Paketdatendienst), sowie&lt;br /&gt;
*Enhanced Data Rates for GSM Evolution (EDGE, höherratige Datenübertragung).&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
==Aufgaben zu Kapitel 3.1 == 	 &lt;br /&gt;
&lt;br /&gt;
[[3.1_GSM–Netzkomponenten|Aufgabe 3.1: &amp;amp;nbsp; GSM&amp;amp;ndash;Netzkomponenten]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.2_GSM–Dienste|Aufgabe 3.2: &amp;amp;nbsp; GSM–Dienste]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Basics_of_Convolutional_Coding&amp;diff=21288</id>
		<title>Channel Coding/Basics of Convolutional Coding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Basics_of_Convolutional_Coding&amp;diff=21288"/>
		<updated>2018-01-02T19:19:25Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Faltungscodierung und geeignete Decoder&lt;br /&gt;
|Vorherige Seite=Fehlerwahrscheinlichkeit und Anwendungsgebiete&lt;br /&gt;
|Nächste Seite=Algebraische und polynomische Beschreibung&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== # ÜBERBLICK ZUM DRITTEN HAUPTKAPITEL # ==&lt;br /&gt;
&lt;br /&gt;
Dieses dritte Hauptkapitel behandelt '''Faltungscodes''' (englisch: ''Convolutional Codes''), die erstmals 1955 von [https://de.wikipedia.org/wiki/Peter_Elias Peter Elias] beschrieben wurden [Eli55]&amp;lt;ref name='Eli55'&amp;gt;Elias, P.: ''Coding for Noisy Channels''. In: IRE Conv. Rec. Part 4,S. 37-47, 1955.&amp;lt;/ref&amp;gt;. Während bei den linearen Blockcodes (siehe [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#.23_.C3.9CBERBLICK_ZUM_ERSTEN_HAUPTKAPITEL_.23|Erstes Hauptkapitel]]) und den Reed–Solomon–Codes (siehe [[Kanalcodierung/Einige_Grundlagen_der_Algebra#.23_.C3.9CBERBLICK_ZUM_ZWEITEN_HAUPTKAPITEL_.23|Zweites Hauptkapitel]]) die Codewortlänge jeweils $n$ ist, basiert die Theorie der Faltungscdes auf „semi–infiniten” Informations– und Codesequenzen. Ebenso liefert die Maximum–Likelihood–Decodierung mittels des Viterbi–Algorithmuses per se die gesamte Sequenz.&lt;br /&gt;
&lt;br /&gt;
Im Einzelnen werden in diesem Kapitel behandelt:&lt;br /&gt;
&lt;br /&gt;
*Wichtige ''Definitionen'' für Faltungscodes: Coderate, Gedächtnis, Einflusslänge, freie Distanz&lt;br /&gt;
*''Gemeinsamkeiten'' und ''Unterschiede'' zu den linearen Blockcodes,&lt;br /&gt;
*''Generatormatrix'' und ''Übertragungsfunktionsmatrix'' eines Faltungscodes,&lt;br /&gt;
*''gebrochen–rationale Übertragungsfunktionen'' für systematische Faltungscodes,&lt;br /&gt;
*Beschreibung mit ''Zustandsübergangsdiagramm'' und ''Trellisdiagramm'',&lt;br /&gt;
*''Terminierung'' und ''Punktierung'' von Faltungscodes,&lt;br /&gt;
*''Decodierung'' von Faltungscodes  ⇒  ''Viterbi–Algorithmus'',&lt;br /&gt;
*''Gewichtsfunktionen'' und Näherungen für die ''Bitfehlerwahrscheinlichkeit''.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Voraussetzungen und Definitionen ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir betrachten in diesem Kapitel eine unendlich lange binäre Informationssequenz $\underline{u}$ und unterteilen diese in Informationsblöcke $\underline{u}_i$ zu je $k$ Bit. Man kann diesen Sachverhalt wie folgt formalisieren:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{\it u} = \left ( \underline{\it u}_1, \underline{\it u}_2, ... \hspace{0.1cm}, \underline{\it u}_i , \text{...} \hspace{0.1cm}\right ) \hspace{0.3cm}{\rm mit}\hspace{0.3cm} \underline{\it u}_i = \left ( u_i^{(1)}, u_i^{(2)}, \text{...} \hspace{0.1cm}, u_i^{(k)}\right )\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;u_i^{(j)}\in {\rm GF(2)}\hspace{0.3cm}{\rm f\ddot{u}r} \hspace{0.3cm}1 \le j \le k &lt;br /&gt;
\hspace{0.5cm}\Rightarrow \hspace{0.5cm} \underline{\it u}_i \in {\rm GF}(2^k)\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Englischen bezeichnet man eine solche Sequenz ohne negative Indizes als &amp;lt;i&amp;gt;semi&amp;amp;ndash;infinite&amp;lt;/i&amp;gt;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;  Bei einem &amp;lt;b&amp;gt;binären Faltungscode&amp;lt;/b&amp;gt; (englisch: &amp;lt;i&amp;gt;Binary Convolutional Code&amp;lt;/i&amp;gt;)  wird zum Taktzeitpunkt $i$ ein Codewort $\underline{x}_i$ bestehend aus $n$ Codebits ausgegeben:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{\it x}_i = \left ( x_i^{(1)}, x_i^{(2)}, \text{...} \hspace{0.1cm}, x_i^{(n)}\right )\in {\rm GF}(2^n)\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dieses ergibt sich entsprechend&lt;br /&gt;
*den $k$ Bit des aktuellen Informationsblockes $\underline{u}_i$, und&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*den $m$ vorherigen Informationsblöcken $\underline{u}_{i&amp;amp;ndash;1}, \ ... \ \underline{u}_{i&amp;amp;ndash;m}$.&amp;lt;br&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2590 KC T 3 1 S1 v1.png|right|frame|Abhängigkeiten bei einem Faltungscodierer mit $m = 2$|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Die folgende Grafik verdeutlicht diesen Sachverhalt für die Parameter $k = 4, n = 7, m = 2$ und $i = 4$. Die $n = 7$ zum Zeitpunkt $i = 4$ erzeugten Codebits $x_4^{(1)}, \ ... \ , x_4^{(7)}$ können (direkt) von den $k \cdot (m+1) = 12$ rot markierten Informationsbits abhängen und werden durch Modulo&amp;amp;ndash;2&amp;amp;ndash;Additionen erzeugt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Gelb eingezeichnet ist zudem ein $(n, k)$&amp;amp;ndash;Faltungscodierer. Zu beachten ist, dass sich der Vektor $\underline{u}_i$ und die Sequenz $\underline{u}^{(i)}$ grundlegend unterscheide: &lt;br /&gt;
*Während $\underline{u}_i = (u_i^{(1)}, u_i^{(2)}, \ ... \ , u_i^{(k)})$ die $k$ zum Zeitpunkt $i$ parallel anliegenden Informationsbits zusammenfasst,&lt;br /&gt;
* bezeichnet $\underline{u}^i = (u_i^{(i)}$, $u_2^{(i)}, \ ...)$ die (horizontale) Sequenz am $i$&amp;amp;ndash;ten Eingang des Faltungscodierers. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definitionen bezüglich Faltungscodes:}$&amp;amp;nbsp;  &lt;br /&gt;
*Die &amp;lt;b&amp;gt;Coderrate&amp;lt;/b&amp;gt; ergibt sich wie bei den Blockcodes zu $R = k/n$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Man bezeichnet $m$ als das &amp;lt;b&amp;gt;Gedächtnis&amp;lt;/b&amp;gt; (englisch: &amp;lt;i&amp;gt;Memory&amp;lt;/i&amp;gt;) des Codes und den &amp;lt;i&amp;gt;Convolutional Code&amp;lt;/i&amp;gt;  selbst mit $\mathcal {CC}(n, k, m)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Daraus ergibt sich die &amp;lt;b&amp;gt;Einflusslänge&amp;lt;/b&amp;gt; (englisch: &amp;lt;i&amp;gt;Constraint Length&amp;lt;/i&amp;gt;) zu $\nu = m + 1$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Für $k &amp;gt; 1$ gibt man diese Parameter oft auch in Bit an: $m_{\rm Bit} = m \cdot k$ bzw. $\nu_{\rm Bit} = (m + 1) \cdot k$.&amp;lt;br&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
== Gemeinsamkeiten und Unterschiede gegenüber Blockcodes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Aus der [[Kanalcodierung/Grundlagen_der_Faltungscodierung#Voraussetzungen_und_Definitionen| Definition]] auf der vorherigen Seite ist ersichtlich, dass ein binärer Faltungscode mit $m = 0$ (also ohne Gedächtnis) identisch wäre mit einem binären Blockcode wie in Hauptkapitel 1 beschrieben. Wir schließen diesen Grenzfall aus und setzen deshalb für das Folgende stets voraus:&lt;br /&gt;
*Das Gedächtnis $m$ sei größer oder gleich $1$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Einflusslänge $\nu$ sei größer oder gleich $2$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; Bei einem $(7, 4)$&amp;amp;ndash;Blockcode hängt das Codewort $\underline {x}_4$ nur vom Informationswort $\underline{u}_4$ ab, nicht jedoch von $\underline{u}_2$ und $\underline{u}_3$, wie bei dem [[Kanalcodierung/Grundlagen_der_Faltungscodierung#Voraussetzungen_und_Definitionen| beispielhaften Faltungscodes]] (mit $m = 2$) auf der letzten Seite.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2592 KC T 3 1 S2 v2.png|right|frame|Abhängigkeiten bei einem $(7, 4)$–Blockcode zum Zeitpunkt $i = 4$|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Gilt beispielsweise &lt;br /&gt;
:$$x_4^{(1)} = u_4^{(1)}, \ x_4^{(2)} = u_4^{(2)},$$&lt;br /&gt;
:$$x_4^{(3)} = u_4^{(3)}, \ x_4^{(4)} = u_4^{(4)}$$ &lt;br /&gt;
sowie&lt;br /&gt;
:$$x_4^{(5)} = u_4^{(1)}+ u_4^{(2)}+u_4^{(3)}\hspace{0.05cm},$$ &lt;br /&gt;
:$$x_4^{(6)} = u_4^{(2)}+ u_4^{(3)}+u_4^{(4)}\hspace{0.05cm},$$&lt;br /&gt;
:$$x_4^{(7)} = u_4^{(1)}+ u_4^{(2)}+u_4^{(4)}\hspace{0.05cm},$$&lt;br /&gt;
&lt;br /&gt;
so handelt es sich um einen so genannten  [[Kanalcodierung/Beispiele_bin%C3%A4rer_Blockcodes#Hamming.E2.80.93Codes_.282.29| systematischen Hamming&amp;amp;ndash;Code]] $(7, 4, 3)$. In der Grafik sind diese speziellen Abhängigkeiten für $x_4^{(1)}$ und $x_4^{(7)}$ rot eingezeichnet.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In gewisser Weise könnte man auch einen $(n, k)$&amp;amp;ndash;Faltungscode mit Gedächtnis $m &amp;amp;#8805; 1$ als Blockcode interpretieren, dessen Codeparameter $n\hspace{0.05cm}' \gg n$ und $k\hspace{0.05cm}' \gg k$ allerdings sehr viel größere Werte annehmen müssten als die des vorliegenden Faltungscodes. Aufgrund der großen Unterschiede in der Beschreibung, in den Eigenschaften und insbesondere bei der Decodierung betrachten wir aber Faltungscodes in diesem Lerntutorial als etwas völlig Neues. Hierfür sprechen folgende Gründe:&lt;br /&gt;
*Ein Blockcodierer setzt Informationsworte der Länge $k$ Bit blockweise in Codeworte mit je $n$ Bit um. Der Blockcode ist dabei um so leistungsfähiger, je größer seine Codewortlänge $n$ ist. Bei gegebener Coderate $R = k/n$ erfordert dies auch eine große Informationswortlänge $k$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Dagegen wird die Korrekturfähigkeit eines Faltungscodes im wesentlichen durch sein Gedächtnis $m$ bestimmt. Die Codeparameter $k$ und $n$ werden hier meist sehr klein gewählt $(1, \ 2, \ 3, \ \text{...})$. Von praktischer Bedeutung sind somit nur ganz wenige und zudem sehr einfache Faltungscodes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Auch schon bei kleinen Werten für $k$ und $n$ überführt ein Faltungscoder eine ganze Sequenz von Informationsbits $(k\hspace{0.05cm}' &amp;amp;#8594; &amp;amp;#8734;)$ in eine sehr lange Sequenz von Codebits $(n\hspace{0.05cm}' = k\hspace{0.05cm}'/R)$. Ein solcher Code bietet somit oft ebenfalls eine große Korrekturfähigkeit.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Es gibt effiziente Faltungsdecoder &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; zum Beispiel den [[Kanalcodierung/Decodierung_von_Faltungscodes#Viterbi.E2.80.93Algorithmus.2C_basierend_auf_Korrelation_und_Metriken_.281.29| Viterbi&amp;amp;ndash;Algorithmus]] und den [[Kanalcodierung/Soft%E2%80%93in_Soft%E2%80%93out_Decoder#BCJR.E2.80.93Decodierung:_Vorw.C3.A4rts.E2.80.93R.C3.BCckw.C3.A4rts.E2.80.93Algorithmus| BCJR&amp;amp;ndash;Algorithmus]], die Zuverlässigkeitsinformationen über den Kanal &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; ''Soft&amp;amp;ndash;Decision&amp;amp;ndash;Input'' verarbeiten können und Zuverlässigkeitsinformation über das Decodierergebnis &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; &amp;lt;i&amp;gt;Soft&amp;amp;ndash;Decision&amp;amp;ndash;Output&amp;lt;/i&amp;gt;  liefern.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Rate–1/2–Faltungscodierer ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:P ID2593 KC T 3 1 S3a v1.png|right|frame|Faltungscoder $(k = 1, \ n = 2)$ für ein Informationsbit $u_i$|class=fit]]&lt;br /&gt;
&amp;lt;i&amp;gt;Vorbemerkung&amp;lt;/i&amp;gt;: Die beiden Begriffe &amp;lt;i&amp;gt;Faltungscodierer&amp;lt;/i&amp;gt; und &amp;lt;i&amp;gt;Faltungscoder&amp;lt;/i&amp;gt; werden in unserem Lerntutorial synonym verwendet und können beliebig ausgetauscht werden. Beide Begriffe bezeichnen die konkrete Umsetzung einer Informationssequenz $\underline{u}$ in eine Codesequenz $\underline{x}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Begriffe &amp;lt;i&amp;gt;Faltungscodierer&amp;lt;/i&amp;gt; und &amp;lt;i&amp;gt;Faltungscode&amp;lt;/i&amp;gt; sollte man allerdings nicht verwechseln. Unter einem Faltungscode $\mathcal {CC}(k, \ n, \ m)$ &amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp; $R = k/n$ versteht man die Menge aller möglichen Codesequenzen $\underline{x}$, die mit diesem Code unter Berücksichtigung aller möglichen Informationssequenzen $\underline{u}$ (am Eingang) generiert werden kann. Es gibt verschiedene Faltungscodierer, die den gleichen Faltungscode realisieren.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2594 KC T 3 1 S3b v1.png|right|frame|Faltungscoder $(k = 1, \ n = 2)$ für die Informationssequenz $\underline{u}$|class=fit]]&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;Die obere Grafik zeigt einen $(n = 2, \ k = 1)$&amp;amp;ndash;Faltungscodierer. &lt;br /&gt;
&lt;br /&gt;
*Zum Taktzeitpunkt $i$ liegt das Informationsbit $u_i$ am Codereingang an und es wird ein 2&amp;amp;ndash;Bit&amp;amp;ndash;Codeblock $\underline{x}_i = (x_i^{(1)}, \ x_i^{(2)})$ ausgegeben.&lt;br /&gt;
*Unter Berücksichtigung der (halb&amp;amp;ndash;unendlich) langen Informationssequenz $\underline{u}$ ergibt sich das Modell entsprechend der zweiten Grafik.&amp;lt;br&amp;gt;&lt;br /&gt;
*Um aus einem einzigen Informationsbit $u_i$ zwei Codebits $x_i^{(1)}$ und $x_i^{(2)}$ generieren zu können, muss der Faltungscodierer mindestens ein Speicherelement beinhalten: &amp;amp;nbsp; $k = 1\hspace{0.05cm}, n = 2 \hspace{0.3cm}\Rightarrow \hspace{0.3cm} m \ge 1&lt;br /&gt;
 \hspace{0.05cm}.$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp; Nachfolgend ist ein Faltungscodierer für die Parameter $k = 1, \ n = 2$ und $m = 1$ dargestellt. Das gelbe Quadrat kennzeichnet ein Speicherelement. Dessen Beschriftung  $D$ ist von &amp;lt;i&amp;gt;Delay&amp;lt;/i&amp;gt; abgeleitet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2595 KC T 3 1 S3c v1.png|right|frame|Faltungscodierer mit $k = 1, \ n = 2, \ m = 1$ sowie Beispielsequenzen|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Es handelt sich hier um einen &amp;lt;i&amp;gt;systematischen&amp;lt;/i&amp;gt; Faltungscodierer, gekennzeichnet durch $x_i^{(1)} = u_i$. Der zweite Ausgang liefert $x_i^{(2)} = u_i + u_{i-1}$. &lt;br /&gt;
&lt;br /&gt;
In der beispielhaften Ausgangssequenz nach &amp;lt;i&amp;gt;Multiplexing&amp;lt;/i&amp;gt; sind alle $x_i^{(1)}$ rot und alle $x_i^{(2)}$ blau beschriftet.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; &lt;br /&gt;
In der Grafik ist links das Ersatzschaltbild eines $(n = 2, \ k = 1)$&amp;amp;ndash;Faltungscodierers mit $m = 2$ Speicherelementen dargestellt. &lt;br /&gt;
[[File:P ID2596 KC T 3 1 S3d v1.png|right|frame|Faltungscoder $(k = 1, \ n = 2, \ m = 2)$ in zwei verschiedenen Darstellungen|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Rechts angegeben ist eine Realisierungsform dieses Coders. &lt;br /&gt;
&lt;br /&gt;
Die beiden Informationsbits lauten:&lt;br /&gt;
::&amp;lt;math&amp;gt;x_i^{(1)} \hspace{-0.15cm}  =  \hspace{-0.15cm} u_{i} + u_{i-1}+ u_{i-2} \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;x_i^{(2)} \hspace{-0.15cm}  =  \hspace{-0.15cm} u_{i} + u_{i-2} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wegen $x_i^{(1)} &amp;amp;ne; u_i$ handelt es sich hier nicht um einen systematischen Code.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Man erkennt:&lt;br /&gt;
*Die Informationssequenz $\underline{u}$ wird in einem Schieberegister der Länge $L = m + 1 = 3$ abgelegt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Zum Taktzeitpunkt $i$ beinhaltet das linke Speicherelement das aktuelle Informationsbit $u_i$, das zu den nächsten Taktzeitpunkten jeweils um eine Stelle nach rechts verschoben wird.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Aus der Anzahl der gelben Quadrate ergibt sich wieder das Gedächtnis $m = 2$ des Coders.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aus den beiden Darstellungen wird deutlich, dass  $x_i^{(1)}$ und $x_i^{(2)}$ jeweils als der Ausgang eines [[Stochastische_Signaltheorie/Digitale_Filter|Digitalen Filters]] über dem Galoisfeld ${\rm GF(2)}$ interpretiert werden kann, wobei beide Filter parallel mit der gleichen Eingangsfolge $\underline{u}$ arbeiten. &lt;br /&gt;
&lt;br /&gt;
Da sich (ganz allgemein) das Ausgangssignal eines Filters aus der [[Signaldarstellung/Faltungssatz_und_Faltungsoperation#Faltung_im_Zeitbereich| Faltung]] des Eingangssignals mit der Filterimpulsantwort ergibt, spricht man von  &amp;lt;i&amp;gt;Faltungscodierung&amp;lt;/i&amp;gt;.&amp;lt;br&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
== Faltungscodierer mit zwei Eingängen ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Nun betrachten wir einen Faltungscodierer, der aus $k = 2$ Informationsbits $n = 3$ Codebits generiert. &lt;br /&gt;
[[File:P ID2598 KC T 3 1 S4 v1.png|right|frame|Faltungscodierer mit $k = 2$ und $n = 3$]]&lt;br /&gt;
*Die Informationssequenz $\underline{u}$ wird in Blöcke zu je zwei Bit aufgeteilt. &lt;br /&gt;
*Zum Taktzeitpunkt $i$ liegt am oberen Eingang das Bit $u_i^{(1)}$ an, am unteren Eingang $u_i^{(2)}$. &lt;br /&gt;
*Für die $n = 3$ Codebits zum Zeitpunkt $i$ gilt dann:&lt;br /&gt;
::&amp;lt;math&amp;gt;x_i^{(1)} = u_{i}^{(1)} + u_{i-1}^{(1)}+ u_{i-1}^{(2)} \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;x_i^{(2)} = u_{i}^{(2)} + u_{i-1}^{(1)} \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;x_i^{(3)} = u_{i}^{(1)} + u_{i}^{(2)}+ u_{i-1}^{(1)} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In der Grafik sind die Info&amp;amp;ndash;Bits $u_i^{(1)}$ und $u_i^{(2)}$ rot bzw. blau gekennzeichnet, und die vorherigen Info&amp;amp;ndash;Bits $u_{i&amp;amp;ndash;1}^{(1)}$ und $u_{i&amp;amp;ndash;1}^{(2)}$ grün bzw. braun. &lt;br /&gt;
&lt;br /&gt;
Anzumerken ist:&lt;br /&gt;
*Das &amp;lt;b&amp;gt;Gedächtnis&amp;lt;/b&amp;gt; $m$ ist gleich der maximalen Speicherzellenzahl in einem Zweig &amp;amp;nbsp;&amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp;&amp;amp;nbsp; hier $m = 1$.&lt;br /&gt;
&lt;br /&gt;
*Die &amp;lt;b&amp;gt;Einflusslänge&amp;lt;/b&amp;gt; $\nu$ ist gleich der Summe aller Speicherelemente &amp;amp;nbsp;&amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp;&amp;amp;nbsp; hier $\nu = 2$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Alle Speicherelemente seien zu Beginn der Codierung (&amp;lt;i&amp;gt;Initialisierung&amp;lt;/i&amp;gt;) auf Null gesetzt.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der hiermit definierte Code ist die Menge aller möglichen Codesequenzen $\underline{x}$, die sich bei Eingabe aller möglichen Informationssequenzen $\underline{u}$ ergeben. Sowohl $\underline{u}$ als auch $\underline{x}$ seien dabei (zeitlich) unbegrenzt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Die Informationssequenz sei $\underline{u} = (0, 1, 1, 0, 0, 0, 1, 1, \ \text{ ...})$. Daraus ergeben sich die beiden Teilsequenzen $\underline{u}^{(1)} = (0, 1, 0, 1, \ \text{ ...})$ und $\underline{u}^{(2)} = (1, 0, 0, 1, \ \text{ ...})$. &lt;br /&gt;
&lt;br /&gt;
Mit der Festlegung $u_0^{(1)} = u_0^{(2)} = 0$ folgt aus den obigen Gleichungen für die $n = 3$ Codebits&lt;br /&gt;
*im ersten Codierschritt $(i = 1)$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;x_1^{(1)} = u_{1}^{(1)} = 0  \hspace{0.05cm},\hspace{0.4cm}&lt;br /&gt;
x_1^{(2)} = u_{1}^{(2)} = 1 \hspace{0.05cm},\hspace{0.4cm}&lt;br /&gt;
x_1^{(3)} = u_{1}^{(1)} + u_{1}^{(2)} = 0+1 = 1 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*im zweiten Codierschritt $(i = 2)$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;x_2^{(1)} =u_{2}^{(1)} + u_{1}^{(1)}+ u_{1}^{(2)} = 1 + 0 + 1 = 0\hspace{0.05cm},\hspace{0.4cm}&lt;br /&gt;
x_2^{(2)} = u_{2}^{(2)} + u_{1}^{(1)} = 0+0 = 0\hspace{0.05cm},\hspace{0.4cm}&lt;br /&gt;
x_2^{(3)} = u_{2}^{(1)} + u_{2}^{(2)}+ u_{1}^{(1)} = 1 + 0+0 =1\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*im dritten Codierschritt $(i = 3)$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;x_3^{(1)} =u_{3}^{(1)} + u_{2}^{(1)}+ u_{2}^{(2)} = 0+1+0 = 1\hspace{0.05cm},\hspace{0.4cm}&lt;br /&gt;
x_3^{(2)} = u_{3}^{(2)} + u_{2}^{(1)} = 0+1=1\hspace{0.05cm},\hspace{0.4cm}&lt;br /&gt;
x_3^{(3)} =u_{3}^{(1)} + u_{3}^{(2)}+ u_{2}^{(1)} = 0+0+1 =1\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*und schließlich im vierten Codierschritt $(i = 4)$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;x_4^{(1)} = u_{4}^{(1)} + u_{3}^{(1)}+ u_{3}^{(2)} = 1+0+0 = 1\hspace{0.05cm},\hspace{0.4cm}&lt;br /&gt;
x_4^{(2)} = u_{4}^{(2)} + u_{3}^{(1)} = 1+0=1\hspace{0.05cm},\hspace{0.4cm}&lt;br /&gt;
x_4^{(3)}= u_{4}^{(1)} + u_{4}^{(2)}+ u_{3}^{(1)} = 1+1+0 =0\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit lautet die Codesequenz nach dem Multiplexer: &amp;amp;nbsp; $\underline{x} = (0, 1, 1, 0, 0, 1, 1, 1, 1, 1, 1, 0, \ \text{...})$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:3.1 Analyse eines Faltungscoders|Aufgabe 3.1: Analyse eines Faltungscoders]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.1Z_Faltungscodes_der_Rate_1/2|Zusatzaufgabe 3.1Z: Faltungscodes der Rate 1/2]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Error_Correction_According_to_Reed-Solomon_Coding&amp;diff=21287</id>
		<title>Channel Coding/Error Correction According to Reed-Solomon Coding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Error_Correction_According_to_Reed-Solomon_Coding&amp;diff=21287"/>
		<updated>2018-01-02T19:18:53Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Reed–Solomon–Codes und deren Decodierung&lt;br /&gt;
|Vorherige Seite=Reed–Solomon–Decodierung beim Auslöschungskanal&lt;br /&gt;
|Nächste Seite=Fehlerwahrscheinlichkeit und Anwendungsgebiete&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Blockschaltbild und Voraussetzungen zur RS&amp;amp;ndash;Fehlerkorrektur ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wie im Kapitel [[Kanalcodierung/Reed–Solomon–Decodierung_beim_Auslöschungskanal#Blockschaltbild_und_Voraussetzungen_zur_RS.E2.80.93Fehlererkennung|Decodierung beim Auslöschungskanal]] betrachten wir ein Übertragungssystem mit Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codierung, das durch die beiden Codeparameter $n=2^m-1$ und $k$ gekennzeichnet  ist. Mit der Generatormatrix $\boldsymbol{\rm G}$ lautet der Zusammenhang zwischen dem Informationswort $\underline {u}$ und dem Codewort  $\underline {c}$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {c} = {\rm enc}(\underline {u}) = \underline {u} \cdot { \boldsymbol{\rm G}}&lt;br /&gt;
\hspace{0.3cm} {\rm mit}  \hspace{0.3cm}\underline {u} = (u_0, u_1, ... \hspace{0.05cm}, u_i, ...\hspace{0.05cm}, u_{k-1})\hspace{0.05cm}, \hspace{0.2cm} &lt;br /&gt;
\underline {c} = (c_0, c_1, ... \hspace{0.05cm}, c_i, ...\hspace{0.05cm}, c_{n-1})&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Sowohl die Informationssymbole $u_i$ als auch die Codesymbole $C_i$ entstammen dem Körper ${\rm GF}(q)$ mit $q=n+1=2^m$, und sind somit durch $m$ Binärsymbole (Bit) darstellbar.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2545 KC T 2 5 S1 v2.png|center|frame|Übertragungssystem mit Reed–Solomon–Codierung/Decodierung und &amp;lt;i&amp;gt;m&amp;lt;/i&amp;gt;–BSC|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Ein Vergleich dieses Blockschaltbildes mit dem entsprechenden [[Kanalcodierung/Reed–Solomon–Decodierung_beim_Auslöschungskanal#Blockschaltbild_und_Voraussetzungen_zur_RS.E2.80.93Fehlererkennung|Blockschaltbild zur RS&amp;amp;nbsp;Fehlererkennung]] zeigt:&lt;br /&gt;
*Der wesentliche Unterschied liegt im verwendeten diskreten Kanalmodell (grün hinterlegt). Anstelle des Auslöschungskanals (&amp;amp;bdquo;$m$&amp;amp;ndash;BEC&amp;amp;rdquo;) wird nun der $m$&amp;amp;ndash;BSC betrachtet. Für jedes einzelne Bit des Codesymbols $c_i$ wird der [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC| ''Binary Symmetric Channel'']] (BSC) angewandt. Ein Bitfehler vezüglich des $i$&amp;amp;ndash;Bits  ergibt $y_i \ne c_i$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Im [[Kanalcodierung/Reed–Solomon–Decodierung_beim_Auslöschungskanal|letzten Kapitel]] waren unsichere Bits bereits durch Auslöschungen $\rm E$ (&amp;lt;i&amp;gt;Erasures&amp;lt;/i&amp;gt;) markiert. Aufgabe des &amp;lt;i&amp;gt;Codewortfinders&amp;lt;/i&amp;gt; (CWF)war es deshalb, aus dem verstümmelten Empfangswort $\underline {y}$ das Decodierergebnis $\underline {z}$ zu rekonstruieren. Ist dabei die Anzahl $e$ der Auslöschungen kleiner als die minimale Distanz  $d_{\rm min}$, so gelingt dies und man erhält $\underline {z} = \underline {c}$. Andernfalls meldet der Codewortfinder, dass er das aktuelle Empfangswort $\underline {y}$ nicht decodieren kann. Eine Fehlentscheidung $(\underline {z} \ne \underline {c})$ ist ausgeschlossen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*In diesem Kapitel wird nun der erste Decoderblock als &amp;lt;i&amp;gt;Codewortschätzer&amp;lt;/i&amp;gt; ('''CWS''') bezeichnet. Die Namensgebung soll deutlich machen, dass aufgrund des $m$&amp;amp;ndash;BSC&amp;amp;ndash;Modells Fehlentscheidungen $(\underline {z} \ne \underline {c})$ unvermeidlich sind, nämlich dann, wenn durch mehrere Symbolfehler das Empfangswort $\underline {y}$ zu einem gültigen Codewort verfälscht wurde.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp;  Aufgabe des Decoders ist es, seinen Ausgangsvektor $\underline {v}$ so zu bestimmen, dass er &amp;amp;bdquo;möglichst gut&amp;amp;rdquo; mit dem Informationswort $\underline {u}$ übereinstimmt. Oder etwas genauer formuliert:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \rm Pr(Blockfehler)} = { \rm Pr}( \underline{\upsilon} \ne \underline{u}) \stackrel{!}{=} { \rm Minimum}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aufgrund des deterministischen Mappings $\underline{c} = {\rm enc}(\underline{u})$ und $\underline{v} = {\rm enc}^{-1}(\underline{z})$ gilt in gleicher Weise:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \rm Pr(Blockfehler)} = { \rm Pr}( \underline{z} \ne \underline{c}) \stackrel{!}{=} { \rm Minimum}\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Deshalb werden im Folgenden die zwei gelb hinterlegten Blöcke nicht weiter betrachtet.  Im Mittelpunkt der Betrachtungen steht vielmehr der rot hinterlegte &amp;lt;i&amp;gt;Codewortschätzer&amp;lt;/i&amp;gt; (CWS).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Mögliche Codewortschätzer für die RS&amp;amp;ndash;Decodierung ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die rechte Skizze der nachfolgenden Grafik verdeutlicht nochmals die Aufgabenstellung, wobei hier das Kanalmodell &amp;amp;bdquo;$m$&amp;amp;ndash;BSC&amp;amp;rdquo; durch den additiven '''Fehlervektor'''  $\underline{e} = \underline{y} - \underline{c}$ ersetzt ist. Die linke Skizze verdeutlicht den Zusammenhang zwischen diesen drei Vektoren.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2546 KC T 2 5 S2 v2.png|center|frame|Zur Definition des Fehlervektors $\underline{e}$|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Diese Aufgabenstellung soll durch ein Beispiel verdeutlicht werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2547 KC T 2 5 Darstellung v1.png|right|frame|Drei Darstellungsformen für $\rm GF(2^3)$]] &lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp;  &lt;br /&gt;
Alle nachfolgend genannten Symbole sind Elemente von $\rm GF(2^3) \in  \{0, 1, \alpha^1, \alpha^2, \alpha^3, \alpha^4, \alpha^5, \alpha^6\}$. Zur Umrechnung zwischen der Koeffizientendarstellung (mit der Reihenfolge $k_2$, $k_1$, $k_0$) und der Exponentendarstellung (als Potenzen des primitiven Elements$\alpha$) kann die nebenstehende Tabelle verwendet werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Codewort und Empfangswort lauten in diesem Beispiel in Koeffizientendarstellung:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{c} = \Big ( (010), (001), (100),(010),(100),(111),(111)\Big )\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{y} =\Big ( (011), (001), (000),(010),(100),(111),(111)\Big )\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit ergibt sich für den Fehlervektor $\underline{e} = \underline{y} - \underline{c}$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{e} \hspace{0.05cm} = \hspace{0.05cm} \Big ( (001), (000), (100), (000),(000),(000),(000)\Big )\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Umgewandelt in die Exponentendarstellung erhält man:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{c} = \Big ( \alpha^1, \hspace{0.09cm}1\hspace{0.09cm}, \alpha^2,\alpha^1,\alpha^2,\alpha^5,\alpha^5\Big )\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{y} =\Big ( \alpha^3, \hspace{0.09cm}1\hspace{0.09cm}, \hspace{0.09cm}0\hspace{0.09cm},\alpha^1,\alpha^2,\alpha^5,\alpha^5\Big )\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{e} = \Big ( \hspace{0.09cm}1\hspace{0.09cm}, \hspace{0.09cm}0\hspace{0.09cm}, \hspace{0.05cm}\alpha^2,\hspace{0.12cm}0\hspace{0.12cm},\hspace{0.12cm}0\hspace{0.12cm},\hspace{0.12cm}0\hspace{0.12cm},\hspace{0.12cm}0\hspace{0.12cm}\Big )\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Aufgabe des Codewortschätzers (CWS) ist es, das zu $\underline{y}$ wahrscheinlichste Codewort $\underline{c}_i$ zu finden und sein Ergebnis $\underline{z} = \underline{c}_i$ an das nachfolgende Mapping weiterzugeben. Es gibt verschiedene Möglichkeiten:&lt;br /&gt;
*&amp;lt;i&amp;gt;Hard Decision Maximum Likelihood Decoding&amp;lt;/i&amp;gt; (HD&amp;amp;ndash;MLD),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*&amp;lt;i&amp;gt;Bounded Distance Decoding&amp;lt;/i&amp;gt; (BDD),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Decodierung über die halbe Mindestdistanz.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Diese Decodierprinzipien werden im Folgenden beschrieben.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Hard Decision Maximum Likelihood Decoding (HD&amp;amp;ndash;MLD):&amp;lt;/b&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Man wählt von allen möglichen Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codeworten $\underline{c}_i$ (hiervon gibt es insgesamt$q^k$) dasjenige mit der geringsten [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung| Hamming&amp;amp;ndash;Distanz]] zum Empfangswort $\underline{y}$ aus. Somit lautet das Ergebnis:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \min_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}_{\rm RS}} \hspace{0.1cm}&lt;br /&gt;
d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{c}_{\hspace{0.03cm}i})\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Entscheidung passiert hier auf der maximalen Rückschlusswahrscheinlichkeit ${\rm Pr}(\underline{c}_i\hspace{0.05cm}|\hspace{0.05cm}\underline{y})$ und führt zum bestmöglichen Ergebnis. Näheres siehe [[Kanalcodierung/Klassifizierung_von_Signalen#ML.E2.80.93Entscheidung_beim_BSC.E2.80.93Kanal| ML&amp;amp;ndash;Entscheidung beim BSC&amp;amp;ndash;Kanal]]. Es wird stets entschieden, selbst wenn die Anzahl  $r$ der Symbolfehler größer ist als die Korrekturfähigkeit $t$ des Codes. In einem solchen Fall ist allerdings das Decodierergebnis sehr unsicher.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Es sei nochmals erwähnt, dass bei Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Decodierung immer entschieden wird. &lt;br /&gt;
*Ein Decodierversagen ist ausgeschlossen. &lt;br /&gt;
*Aber natürlich gibt es auch falsche Entscheidungen.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Bounded Distance Decoding (BDD):&amp;lt;/b&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Falls die Anzahl $r$ der Symbolfehler im Empfangswort $\underline{y}$ nicht größer ist als die Korrekturfähigkeit $t = &amp;amp;lfloor;(d_{\rm min}- 1)/2&amp;amp;rfloor;$ des Codes, kann man die $r$ Symbolfehler vollständig korrigieren. Allerdings gilt auch:&lt;br /&gt;
*Der Fall $r &amp;gt; t$ führt zu einem Abbruch des Decodiervorgangs ohne Ergebnis. &lt;br /&gt;
*Anders ausgedrückt: Es werden nur diejenigen Empfangsworte zum Kugelmittelpunkt decodiert, die in einer Kugel um diesen mit Radius $t$ liegen. &lt;br /&gt;
*Andere werden als undecodierbar markiert, zum Beispiel als &amp;lt;i&amp;gt;Erasure&amp;lt;/i&amp;gt;.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Decodierung über die halbe Mindestdistanz&amp;lt;/b&amp;gt;:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hier wird auch im Fall $r &amp;gt; t$ versucht, das Codewort zu decodieren. Im Gegensatz zu HD&amp;amp;ndash;MLD, das ebenfalls über die halbe Mindestdistanz hinaus decodiert, ist hier aber ein Decodierversagen nicht per se ausgeschlossen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für den Rest dieses Kapitels beschäftigen wir uns ausschließlich mit &amp;lt;i&amp;gt;Bounded Distance Decoding&amp;lt;/i&amp;gt;. Der Grund hierfür ist die enorme Komplexität der &amp;lt;i&amp;gt;Maximum Likelihood Detection&amp;lt;/i&amp;gt; proportional zu $q^{n-k}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Vorgehensweise beim „Bounded Distance Decoding” ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Im Folgenden werden die einzelnen Schritte des BDD&amp;amp;ndash;Algorithmuses kurz und rezeptartig beschrieben. Auf den nächsten Seiten werden dann die einzelnen Punkte genauer behandelt und die Vorgehensweise an typischen Beispielen verdeutlicht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''(A)'''&amp;amp;nbsp; '''Berechnung und Auswertung des Syndroms''' &amp;amp;nbsp; &amp;amp;nbsp; [[Kanalcodierung/Fehlerkorrektur_nach_Reed–Solomon–Codierung#Schritt_.28A.29:_Auswertung_des_Syndroms_beim_BDD|Detaillierte Beschreibung]]&lt;br /&gt;
*Berechne aus dem Empfangswort $\underline{y}$ und der Prüfmatrix $\boldsymbol{\rm H }$ des Codes das Syndrom $\underline {s} = \underline {y}  \cdot  \boldsymbol{\rm H }^{\rm T}$. &lt;br /&gt;
*Ergibt sich $\underline {s} =\underline {0}$, so setze den BDD&amp;amp;ndash;Ausgang $\underline {z} =\underline {y}$ und beende den Decodiervorgang für dieses Empfangswort.&amp;lt;br&amp;gt;&lt;br /&gt;
*Andernfalls setze den Parameter $r = 1$ und mache mit Schritt '''(B)''' weiter.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''(B)'''&amp;amp;nbsp; '''Bestimmung der tatsächlichen Symbolfehleranzahl &amp;lt;i&amp;gt;r&amp;lt;/i&amp;gt;'''&amp;amp;nbsp; &amp;amp;nbsp; [[Kanalcodierung/Fehlerkorrektur_nach_Reed–Solomon–Codierung#Schritt_.28B.29:_Aufstellen.2FAuswerten_des_ELP.E2.80.93Koeffizientenvektors|Detaillierte Beschreibung]]&lt;br /&gt;
*Erstelle und überprüfe die Gleichungen $\underline {\it \Lambda} _l \cdot\underline {s}^{\rm T} = 0$ für $l = 1,$ ... , $2 \cdot t -r$ unter der Annahme, dass das Empfangswort genau $r$ Symbolfehler beinhaltet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*$\underline {\it \Lambda} _l $ bezeichnet die verallgemeinerten ELP&amp;amp;ndash;Koeffizientenvektoren, wobei &amp;amp;bdquo;ELP&amp;amp;rdquo; für [[Kanalcodierung/Fehlerkorrektur_nach_Reed–Solomon–Codierung#Error_Locator_Polynom_.E2.80.93_Definition_und_Eigenschaften|Error Locator Polynom]] steht, und $t$ die Korrekturfähigkeit des Codes. Für die Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes gilt einheitlich $t = &amp;amp;lfloor;(n-k)/2 &amp;amp;rfloor;$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Gibt es eine eindeutige Lösung, dann mache mit Schritt '''(C)''' weiter. Im Empfangsvektor $\underline{y}$ sind dann tatsächlich genau $r$ Symbole verfälscht und im Fehlervektor $\underline{e}$ gibt es $r$ Einträge ungleich $0$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Andernfalls erhöhe $r$ um $1$. Falls $r &amp;amp;#8804; t$, dann wiederhole Schritt '''(B)''' von Beginn an: Das bisher angenommene $r$ war offensichtlich zu klein. Deshalb nun ein neuer Versuch mit größerem $r$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ist das neue $r$ größer als die Korrekturfähigkeit $t$ des Codes, so kann das aktuelle Empfangswort nicht decodiert werden. Beende den Decodierversuch mit einer ''Fehlermeldung''.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''(C)'''&amp;amp;nbsp; '''Lokalisierung der &amp;lt;i&amp;gt;r&amp;lt;/i&amp;gt;&amp;amp;nbsp; Fehlerpositionen'''&amp;amp;nbsp; &amp;amp;nbsp; [[Kanalcodierung/Fehlerkorrektur_nach_Reed–Solomon–Codierung#Schritt_.28C.29:_Lokalisierung_der_Fehlerstellen|Detaillierte Beschreibung]]&lt;br /&gt;
*Erstelle das &amp;lt;i&amp;gt;Error Locator Polynom&amp;lt;/i&amp;gt; ${\it \Lambda}(x)$ und finde dessen $r$ Nullstellen in ${\rm GF}(q) \hspace{-0.05cm}\setminus \hspace{-0.05cm} \{0\}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ein Fehler an der Stelle $i$ liegt immer dann vor, wenn ${\it \Lambda}(\alphaî) = 0$ ist.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''(D)'''&amp;amp;nbsp; '''Bestimmung der &amp;lt;i&amp;gt;r&amp;lt;/i&amp;gt;&amp;amp;nbsp;  Fehlerwerte und Korrektur'''&amp;amp;nbsp; &amp;amp;nbsp; [[Kanalcodierung/Fehlerkorrektur_nach_Reed–Solomon–Codierung#Schritt_.28D.29:_Abschlie.C3.9Fende_Fehlerkorrektur|Detaillierte Beschreibung]]&lt;br /&gt;
*Bekannt sind nun die $r$ Fehlerstellen. Ersetzt man im Empfangsvektor $\underline{y}$ die falschen Symbole durch Auslöschungen &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $y_i = \rm E$, falls $e_i &amp;amp;ne; 0$, so findet man das Ergebnis $\underline{y}$ entsprechend dem Kapitel [[Kanalcodierung/Reed–Solomon–Decodierung_beim_Auslöschungskanal|Reed–Solomon–Decodierung beim Auslöschungskanal]].&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Eine Alternative: Aus der Gleichung $\underline {e}  \cdot  \boldsymbol{\rm H }^{\rm T}  \underline {s}$kommt man unter Ausnutzung der fehlerfreien Stellen $(e_i = 0)$ zu einem linearen Gleichungssystem für die fehlerhaften Symbole $(e_i \ne 0)$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Schritt (A): Auswertung des Syndroms beim BDD ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wie im Abschnitt [[Kanalcodierung/Decodierung_linearer_Blockcodes#Prinzip_der_Syndromdecodierung|Prinzip der Syndromdecodierung]] gezeigt, kann zur Decodierung eines linearen Codes das Syndrom  $\underline{s}$ herangezogen werden. Mit dem Empfangswort $\underline{y}$ gleich Codewort $\underline{c}$  plus Fehlervektor $\underline{e}$ gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {s} = \underline {y}  \cdot { \boldsymbol{\rm H }}^{\rm T}= &lt;br /&gt;
\underline {c}  \cdot { \boldsymbol{\rm H }}^{\rm T}+&lt;br /&gt;
\underline {e}  \cdot { \boldsymbol{\rm H }}^{\rm T}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Da stets $\underline {c}  \cdot { \boldsymbol{\rm H }}^{\rm T} =\underline {0}$ gilt, folgt aus $\underline{s}= \underline{0}$ auch $\underline {e}  \cdot { \boldsymbol{\rm H }}^{\rm T} =\underline {0}$. Das heißt:&lt;br /&gt;
*Mit sehr großer Wahrscheinlichkeit kann aus $\underline{s}= \underline{0}$ auch auf $\underline{e}= \underline{0}$und damit auch auf das richtige Decodierergebnis $\underline{z}= \underline{y}$ geschlossen werden. Der Decodiervorgang wäre damit abgeschlossen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Es gibt aber auch Fehlermuster $\underline{e} \ne \underline{0}$, die zum Syndrom $\underline{s}= \underline{0}$ führen. Solche Muster beinhalten sicher mehr als $t$ Symbolfehler, so dass auch hier der Abbruch des Decodiervorgangs sinnvoll ist. Alle nachfolgenden Berechnungen würden auch nicht zum Erfolg führen.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2548 KC T 2 5 Darstellung v1.png|right|frame||Drei Darstellunsformen für $\rm GF(2^3)$]] &lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp;   &lt;br /&gt;
Diesem und den folgenden Beispielen auf den nächsten Seiten liegt stets der Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code '''RS (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt;''' zugrunde, so dass die in der Grafik angegebenen Umrechnungen in $\rm GF(2^3)$ genutzt werden können. Das Empfangswort lautet:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{y}=\big (\alpha^3,\hspace{0.05cm} 1,\hspace{0.05cm} 0, \hspace{0.05cm}\alpha^1, \hspace{0.05cm} \alpha^2, \hspace{0.05cm} \alpha^5, \hspace{0.05cm} \alpha^5 \big).&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Mit der [[Kanalcodierung/Definition_und_Eigenschaften_von_Reed%E2%80%93Solomon%E2%80%93Codes#Generatormatrix_und_Pr.C3.BCfmatrix_.282.29| Prüfmatrix]] $\boldsymbol{\rm H }$ ergibt sich für das Syndrom:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {s} = \underline {y}  \cdot { \boldsymbol{\rm H } }^{\rm T}= &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		\alpha^3, \hspace{0.05cm}1, \hspace{0.05cm}0, \hspace{0.05cm}\alpha^1, \hspace{0.05cm}\alpha^2, \hspace{0.05cm}\alpha^5, \hspace{0.05cm}\alpha^5&lt;br /&gt;
\end{pmatrix}\cdot&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
						1        &amp;amp; 1        &amp;amp; 1        &amp;amp; 1        \\&lt;br /&gt;
						\alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4 \\&lt;br /&gt;
						\alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1 \\&lt;br /&gt;
						\alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^2 &amp;amp; \alpha^5 \\&lt;br /&gt;
						\alpha^4 &amp;amp; \alpha^1 &amp;amp; \alpha^5 &amp;amp; \alpha^2 \\&lt;br /&gt;
						\alpha^5 &amp;amp; \alpha^3 &amp;amp; \alpha^1 &amp;amp; \alpha^6 \\&lt;br /&gt;
						\alpha^6 &amp;amp; \alpha^5 &amp;amp; \alpha^4 &amp;amp; \alpha^3&lt;br /&gt;
					\end{pmatrix}  &amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow  \hspace{0.3cm} \underline {s} = (\alpha^3 , \alpha^3 , \alpha^3 , \alpha^3) + (\alpha^1 , \alpha^2 , \alpha^3 , \alpha^4) + (0,0,0,0) + (\alpha^4,1,\alpha^3,\alpha^6)+(\alpha^6,\alpha^3,1,\alpha^4)+(\alpha^3,\alpha^1,\alpha^6,\alpha^4) + (\alpha^4,\alpha^3,\alpha^2,\alpha^1)&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow  \hspace{0.3cm} \underline {s} =  \text{...} \hspace{0.05cm}=&lt;br /&gt;
					(\alpha^5,\alpha^2,\alpha^3,\alpha^1)  \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Empfangswort wurde also verfälscht. Andernfalls hätte sich $\underline{e}= \underline{0} = (0, 0, 0, 0)$ ergeben müssen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Beschreibung des Decodiervorgangs beim RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt; wird im [[Kanalcodierung/Fehlerkorrektur_nach_Reed–Solomon–Codierung#Schritt_.28B.29:_Aufstellen.2FAuswerten_des_ELP.E2.80.93Koeffizientenvektors|Koeffizientenvektors|Beispiel 4]] fortgesetzt.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Error Locator Polynom – Definition und Eigenschaften ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Nach der Syndromberechnung im Schritt '''(A)''' mit dem Ergebnis $\underline{s} \ne \underline{0}$ wissen wir,&lt;br /&gt;
*dass das Empfangswort $\underline{y}$ nicht mit dem Codewort $\underline{c}$ übereinstimmt, bzw.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*dass der Fehlervektor $\underline{e}  = (e_0, \hspace{0.05cm}e_1, \hspace{0.05cm}\text{ ...}\hspace{0.05cm} , e_{n-1})$ mit Sicherheit auch Elemente ungleich $0$ beinhaltet.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wir wissen allerdings nicht, wie viele Symbole verfälscht wurden$ (0 &amp;lt; r &amp;amp;#8804; n)$ und wir können auch nicht die Positionen der Fehlerstellen $(e_i &amp;amp;ne; 0)$ im Fehlervektor $\underline{c}$ benennen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Einen Lösungsansatz für diese Aufgabe bietet das &amp;lt;i&amp;gt;Error Locator Polynom&amp;lt;/i&amp;gt;, das von [https://de.wikipedia.org/wiki/W._Wesley_Peterson William Wesley] Peterson eingeführt wurde. Siehe [Pet60]&amp;lt;ref name =''Pet60&amp;gt;Peterson, W.W: ''Encoding and Error-correction Procedures for the Bose-Chaudhuri codes.'' IRE Transactions on Information Theory , IT-6:459{470), 1960.&amp;lt;/ref&amp;gt;. Im Deutschen ist hierfür auch der Begriff &amp;lt;i&amp;gt;Schlüsselgleichung&amp;lt;/i&amp;gt; üblich.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;Es sei bekannt, dass genau $r$ Elemente des Fehlervektors $\underline{e}$ ungleich Null sind, erkennbar am [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung|Hamming&amp;amp;ndash;Gewicht]] $w_{\rm H}\underline{e} = r$ . Ebenfalls bekannt sei die Menge ${I}_{\rm FP}$ der Fehlerpositionen:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;I_{\rm FP} = \{ i \hspace{0.1cm}\vert \hspace{0.1cm} e_i \ne 0,\hspace{0.1cm} 0 \le i &amp;lt; n \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dann gilt für das '''Error Locator Polynom''' (ELP):&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\it \Lambda}(x)=x \cdot \prod_{i\hspace{0.05cm}\in \hspace{0.05cm} I_{\rm FP} }(x-\alpha^i) =x \cdot \big [{\it \lambda}_0 + \lambda_1 \cdot x+\ldots+{\it \lambda}_{r-1} \cdot x^{r-1}+x^r \big ].&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Vom &amp;lt;i&amp;gt;Error Locator Polynom&amp;lt;/i&amp;gt; wissen wir aufgrund der Definition:&lt;br /&gt;
*Wegen des Faktors $x$ vor dem Produktzeichen ist ${\it \Lambda}(x= 0) = 0$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Weitere $r$ Nullstellen ergeben sich für $x =  \alpha^{i}$ mit $i \in I_{\rm FP}$, das heißt, für alle Fehlerpositionen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Dagegen ergibt das &amp;lt;i&amp;gt;Error Locator Polynom&amp;lt;/i&amp;gt; für $i &amp;amp;#8713; I_{\rm FP}$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $e_i = 0$ keine Nullstelle: &amp;amp;nbsp; ${\it \Lambda}(x= \alpha^{i}) \ne0$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wir suchen also die $r$ nichttrivialen Nullstellen von ${\it \Lambda}(x)$ mit dem Argument $x &amp;amp;#8712; {\rm GF}(q) \hspace{-0.05cm}\setminus \hspace{-0.05cm} \{0\}$. Gelingt uns dies, so kennen wir die $r$ Fehlerpositionen, jedoch noch nicht die tatsächlichen Fehlerwerte $e_i &amp;amp;#8712; {\rm GF}(q)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2549 KC T 2 5 Darstellung v1.png|right|frame||Drei Darstellunsformen für ${\rm GF}(2^3)$]] &lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; &lt;br /&gt;
Es gelte $n=7$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $q=8$, $r=2$ und $I_{\rm FP}  = \{2, \hspace{0.05cm}4\}$:  &amp;amp;nbsp;[[File:P ID2551 KC T 2 5 S5a.png]]&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit erhält man für das &amp;lt;i&amp;gt;Error Locator Poynom&amp;lt;/i&amp;gt; aus ${\rm GF}(2^3)$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\it \Lambda}(x)=x \cdot (x\hspace{-0.05cm}-\hspace{-0.05cm}\alpha^2) \cdot (x\hspace{-0.05cm}-\hspace{-0.05cm}\alpha^4)=  x \cdot (x\hspace{-0.05cm}+\hspace{-0.05cm}\alpha^2) \cdot (x\hspace{-0.05cm}+\hspace{-0.05cm}\alpha^4) =x \cdot \big [x^2 \hspace{-0.05cm}+ \hspace{-0.05cm}(\alpha^2 + \alpha^4) \cdot x + \alpha^6\big ] &amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow	\hspace{0.3cm}  {\it \Lambda}(x)= x \cdot \big [\alpha^6 + \alpha \cdot x + x^2\big ]\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die beiden Nullstellen (außer bei $x = 0$) ergeben sich hier natürlich für $x = \alpha^2$  und $x = \alpha^4$, wie die folgende Kontrollrechnung zeigt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\it \Lambda}(x = \alpha^2)= x \cdot \big [\alpha^6 + \alpha \cdot \alpha^2 + (\alpha^2)^2\big ] = x \cdot \big [\alpha^6 + \alpha^3 + \alpha^4  \big ]= 0\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;	 {\it \Lambda}(x = \alpha^4)= x \cdot \big [\alpha^6 + \alpha \cdot \alpha^4 + (\alpha^4)^2\big ] =x \cdot \big [\alpha^6 + \alpha^5 + \alpha \big ]= 0\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Für die weitere Herleitung gehen wir stets vom &amp;lt;b&amp;gt;RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt;&amp;lt;/b&amp;gt; mit den folgenden Parameterwerten aus: &lt;br /&gt;
&lt;br /&gt;
:$$n=7, \hspace{0.3cm}k = 3, \hspace{0.3cm}d_{\rm min} = 5 \ \Rightarrow   t = (d_{\rm min} -1/2) = 2.$$&lt;br /&gt;
&lt;br /&gt;
Die Anzahl der Symbolfehler sei $r = t = 2$. Damit lautet das zu lösende Gleichungssystem mit den Hilfsgrößen $L_i = {\it \Lambda}(\alpha^{i})$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;L_0 = {\it \Lambda }(\alpha^0) = \alpha^0 \cdot \left [ {\it \lambda}_0 + {\it \lambda}_1 \cdot (\alpha^0)^1 + (\alpha^0)^2 \right ] = {\it \lambda}_0  \cdot 1 + {\it \lambda}_1 \cdot   1 + 1 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;L_1 = {\it \Lambda }(\alpha^1) =\alpha^1 \cdot \left [ {\it \lambda}_0 + {\it \lambda}_1 \cdot (\alpha^1)^1 + (\alpha^1)^2 \right ] = {\it \lambda}_0 \cdot \alpha^1+ {\it \lambda}_1 \cdot \alpha^2 + \alpha^3 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
:::::::::&amp;lt;math&amp;gt;...&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; L_6 = {\it \Lambda }(\alpha^6) = \alpha^6 \cdot \left [ {\it \lambda}_0 + {\it \lambda}_1 \cdot (\alpha^6)^1 + (\alpha^6)^2 \right ] = {\it \lambda}_0 \cdot \alpha^6 + {\it \lambda}_1 \cdot \alpha^{12} + \alpha^{18} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In Vektorform lautet dieses Gleichungssystem mit dem Hilfsvektor $\underline{L} = (L_0, \hspace{0.05cm}L_1, \hspace{0.05cm}L_2,\hspace{0.05cm}L_3,\hspace{0.05cm}L_4,\hspace{0.05cm}L_5,\hspace{0.05cm}L_6)$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {L}^{\rm T}=\begin{pmatrix}&lt;br /&gt;
		L_0\\&lt;br /&gt;
		L_1\\&lt;br /&gt;
		L_2\\&lt;br /&gt;
		L_3\\&lt;br /&gt;
		L_4\\&lt;br /&gt;
		L_5\\&lt;br /&gt;
		L_6&lt;br /&gt;
\end{pmatrix}&lt;br /&gt;
\hspace{0.15cm} = \hspace{0.15cm}&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1  \\&lt;br /&gt;
		\alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 \\&lt;br /&gt;
		\alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 \\&lt;br /&gt;
		\alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^9 \\&lt;br /&gt;
		\alpha^4 &amp;amp; \alpha^8 &amp;amp; \alpha^{12}\\&lt;br /&gt;
		\alpha^5 &amp;amp; \alpha^{10} &amp;amp; \alpha^{15}\\&lt;br /&gt;
		\alpha^6 &amp;amp; \alpha^{12} &amp;amp; \alpha^{18} &lt;br /&gt;
\end{pmatrix}  \hspace{0.15cm}\cdot \hspace{0.15cm}&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		{\lambda}_0\\&lt;br /&gt;
		{\lambda}_1\\&lt;br /&gt;
		1 &lt;br /&gt;
\end{pmatrix} 		&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wir erweitern nun den ELP&amp;amp;ndash;Koeffizientenvektor $\underline {\it \Lambda }$ durch Anhängen von Nullen auf die Länge $n-k$. Im betrachteten Beispiel erhält man somit ${\it \Lambda } = ( \lambda_0,\hspace{0.05cm}\lambda_1,\hspace{0.05cm}1, \hspace{0.05cm}0)$ und folgende Vektorgleichung:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {L}^{\rm T}&lt;br /&gt;
\hspace{0.15cm} = \hspace{0.15cm}&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 \\&lt;br /&gt;
		\alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4\\&lt;br /&gt;
		\alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^8\\&lt;br /&gt;
		\alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^9 &amp;amp; \alpha^{12}\\&lt;br /&gt;
		\alpha^4 &amp;amp; \alpha^8 &amp;amp; \alpha^{12} &amp;amp; \alpha^{16}\\&lt;br /&gt;
		\alpha^5 &amp;amp; \alpha^{10} &amp;amp; \alpha^{15} &amp;amp; \alpha^{20}\\&lt;br /&gt;
		\alpha^6 &amp;amp; \alpha^{12} &amp;amp; \alpha^{18} &amp;amp; \alpha^{24}&lt;br /&gt;
\end{pmatrix}  \hspace{0.15cm}\cdot \hspace{0.15cm}&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		{\lambda}_0\\&lt;br /&gt;
		{\lambda}_1\\&lt;br /&gt;
		1\\&lt;br /&gt;
		0 &lt;br /&gt;
\end{pmatrix} 		&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit haben wir erreicht:&lt;br /&gt;
*Aus der $7&amp;amp;times 3$&amp;amp;ndash;Matrix wurde nun eine $7&amp;amp;times 4$&amp;amp;ndash;Matrix. &lt;br /&gt;
*Die vierte Spalte kann eigentlich beliebig gefüllt werden, da alle Elemente mit Nullen multipliziert werden. &lt;br /&gt;
*Durch die hier gewählte Ergänzung erhält man die transponierte [[Kanalcodierung/Definition_und_Eigenschaften_von_Reed%E2%80%93Solomon%E2%80%93Codes#Generatormatrix_und_Pr.C3.BCfmatrix_.282.29| Prüfmatrix]] des RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt;.&lt;br /&gt;
* Somit kann man für die letzte Vektorgleichung schreiben:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {L}^{\rm T} = { \boldsymbol{\rm H }}^{\rm T} \cdot \underline {\it \Lambda }^{\rm T}&lt;br /&gt;
 \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}\underline {L} =	\underline {\it \Lambda } \cdot { \boldsymbol{\rm H }}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Da aber für die Fehlerstellen $(e_i &amp;amp;ne; 0)$ stets $L_i = {\it \Lambda}(\alpha^{i}) = 0$ gilt, ist das Produkt $L_i \cdot e_i \equiv 0$  und man erhält als Bestimmungsgleichung für die Nullstellen des &amp;lt;i&amp;gt;Error Locator Polynoms&amp;lt;/i&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {L}^{\rm T}  \cdot \underline {e}^{\rm T} = 0  \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}&lt;br /&gt;
\underline {\it \Lambda } \cdot { \boldsymbol{\rm H }} \cdot \underline {e}^{\rm T} = 0 \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}&lt;br /&gt;
\underline {\it \Lambda }  \cdot \underline {s}^{\rm T} = 0 &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Wichtiges Zwischenergebnis:}$&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
Die ''nichttrivialen Nullstellen'' (ungleich 0) $\lambda_0$, $\lambda_1$,  ... des ''Error Locator Polynoms'' ${\it \Lambda}(x)$ müssen stets der Vektorgleichung  $\underline {\it \Lambda }  \cdot \underline {s}^{\rm T} = 0 $ genügen.&lt;br /&gt;
*Hierbei bezeichnet  $\underline {\it \Lambda }$ den ''ELP&amp;amp;ndash;Koeffizientenvektor'', und&lt;br /&gt;
* $\underline {s }  = \underline {y }\cdot  \boldsymbol{\rm H }^{\rm T} $ gibt das [[Kanalcodierung/Fehlerkorrektur_nach_Reed%E2%80%93Solomon%E2%80%93Codierung#Schritt_.28A.29:_Auswertung_des_Syndroms_beim_BDD| Syndrom]] an.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Schritt (B): Aufstellen/Auswerten des ELP–Koeffizientenvektors ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Bevor wir dieses Zwischenergebnis  für den Schritt '''(B)''' berücksichtigen können, müssen noch einige Verallgemeinerungen vorgenommen werden. Der Grund hierfür ist:&lt;br /&gt;
*Die Gleichung $\underline {\it \Lambda }  \cdot \underline {s}^{\rm T} = 0 $ liefert nur eine einzige Bestimmungsgleichung. Damit kann das Problem für $r = 1$ gelöst werden, wenn man sicher ist, dass tatsächlich nur ein Symbol verfälscht wurde.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ist man sich dessen nicht sicher, führt aber die Berechnung trotzdem für $r = 1$ durch, so  braucht man noch eine zweite Gleichung (oder auch mehrere), um die Annahme zu verifizieren.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Eigenschaft des [[Kanalcodierung/Fehlerkorrektur_nach_Reed–Solomon–Codierung#Error_Locator_Polynom_.E2.80.93_Definition_und_Eigenschaften|''Error Locator Polynoms'']], dass ${\it \Lambda}(\alpha^{i})$ nur für $e_i &amp;amp;ne; 0$ ($i$&amp;amp;ndash;tes Symbol verfälscht) gleich Null ist, bleibt erhalten, wenn man ${\it \Lambda}(x)$mit beliebigen Potenzen von $x$ multipliziert. Jede Multiplikation mit $x$ bedeutet für den ELP&amp;amp;ndash;Koeffizientenvektor eine Verschiebung um eine Stelle nach rechts.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2550 KC T 2 5 S3 v1.png|center|frame|Verschobene ELP–Koeffizientenvektoren|class=fit]]&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; &lt;br /&gt;
Die '''verallgemeinerten ELP&amp;amp;ndash;Koeffizientenvektoren''' $\underline {\it \Lambda }_l$ ergeben sich durch sukzessive Verschiebungen gegenüber $\underline {\it \Lambda }_l$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\it \Lambda}_l(x)=x^l \cdot \prod_{i\hspace{0.05cm}\in \hspace{0.05cm} I_{\rm FP} }(x-\alpha^i) =x^l \cdot \big [{\it \lambda}_0 + \lambda_1 \cdot x+\ldots+{\it \lambda}_{r-1} \cdot x^{r-1}+x^r \big ]\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In dieser Definitionsgleichung  entspricht $\underline {\it \Lambda }_1$ dem bisherigen $\underline {\it \Lambda }$.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt die Belegung unter der Annahme von $r$ Fehlerstellen im Fehlervektor$\underline {e}$ für&lt;br /&gt;
*$r=1$ im linken Bereich (mit blauer Hinterlegung),&lt;br /&gt;
*$r=2$ im mittleren Bereich (mit roter Hinterlegung),&lt;br /&gt;
*$r=3$ im rechten Bereich (mit grüner Hinterlegung),&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Man erkennt:&lt;br /&gt;
*Die Länge aller $\underline {\it \Lambda }_l$ ist stets $n-k$. Jeder Vektor beinhaltet jeweils $r$ Koeffizienten $\lambda_0$, $\lambda_1$, ... , $\lambda_{r-1}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; $0 &amp;amp;#8804; i &amp;lt; r$  und eine Eins. Der Rest eines jeden Vektors ist mit Nullen aufgefüllt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Für jedes $r$ gibt es genau $n-k-r$ Koeffizientenvektoren $\underline {\it \Lambda }_l$, wobei sich $\underline {\it \Lambda }_l$ aus $\underline {\it \Lambda }_{l-1}$ stets durch Rechtsverschiebung um eine Position ergibt. Der Vektor $\underline {\it \Lambda }_{n-k-r}$ endet immer mit einer $1$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Das Gleichungssystem  $\underline {\it \Lambda }_l  \cdot \underline {s}^{\rm T} = 0 $ führt deshalb zu $n-k-r$ Gleichungen. Der gewählte Ansatz für $r$ ist nur dann richtig, wenn alle Gleichungen zu den gleichen Ergebnissen für $\lambda_0$,  ... , $\lambda_{r-1}$ führen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ist dies nicht der Fall, so muss man $r$ erhöhen und damit ein neues Gleichungssystem bearbeiten, und zwar solange, bis sich aus allen Gleichungen für das aktuelle $r$ eine eindeutige Lösung ergibt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ist schließlich $r$ größer als die Korrekturfähigkeit $t$ des Codes, so kann die Berechnung beendet werden. Das anstehende Empfangswort $\underline {y}$ ist dann nicht decodierbar.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Es gelten weiterhin die im [[Kanalcodierung/Fehlerkorrektur_nach_Reed%E2%80%93Solomon%E2%80%93Codierung#Schritt_.28A.29:_Auswertung_des_Syndroms_beim_BDD| Beispiel 2]] genannten Voraussetzungen: &lt;br /&gt;
*Dort wurde aufgrund des Syndroms $\underline {s} = (\alpha^5,\alpha^2,\alpha^3,\alpha^1)  &amp;amp;ne; \underline {0}$ auch nachgewiesen, dass der Empfangsvektor $\underline {y}$ verfälscht wurde &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp;  Fehlervektor $\underline {e} \ne \underline {0}$. &lt;br /&gt;
*Nicht bekannt ist allerdings die tatsächliche Symbolfehleranzahl $r$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Unter der Annahme eines einzigen falschen Symbols $(r= 1)$ erhält man folgendes Gleichungssystem (hier in Matrixform geschrieben):&lt;br /&gt;
[[File:P ID2556 KC T 2 5 Darstellung v1.png|right|frame|Drei Darstellunsformen für $\rm GF(2^3)$]]&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\big ({ \boldsymbol{\it \Lambda } }_l \big) \cdot \underline {s} ^{\rm T}= &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		\lambda_0 &amp;amp; 1 &amp;amp; 0 &amp;amp; 0  \\&lt;br /&gt;
		0 &amp;amp; \lambda_0 &amp;amp; 1 &amp;amp; 0  \\&lt;br /&gt;
		0 &amp;amp; 0 &amp;amp; \lambda_0 &amp;amp; 1    &lt;br /&gt;
\end{pmatrix} \cdot &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		\alpha^5\\ &lt;br /&gt;
		\alpha^2\\ &lt;br /&gt;
		\alpha^3\\&lt;br /&gt;
		\alpha &lt;br /&gt;
\end{pmatrix} \stackrel{!}{=}&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		0\\ &lt;br /&gt;
		0\\ &lt;br /&gt;
		0&lt;br /&gt;
\end{pmatrix} &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dieses Gleichungssystem liefert drei unterschiedliche Lösungen für $\lambda_0$, was nicht zielführend ist:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\text{Zeile 1:}\hspace{0.5cm}\alpha^5 \cdot \lambda_0 + \alpha^2 = 0 \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}&lt;br /&gt;
\lambda_0 = \alpha^{2-5}= \alpha^{-3}= \alpha^{4}\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\text{Zeile 2:}\hspace{0.5cm}\alpha^2 \cdot \lambda_0 + \alpha^3 = 0 \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}&lt;br /&gt;
\lambda_0 = \alpha^{3-2}=  \alpha\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\text{Zeile 3:}\hspace{0.5cm}\alpha^3 \cdot \lambda_0 + \alpha^1 = 0 \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}&lt;br /&gt;
\lambda_0 = \alpha^{1-3}=  \alpha^{-2} = \alpha^{5} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Deshalb stellen wir nun ein weiteres Gleichungssystem auf, und zwar unter der Annahme $r = 2$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\big ({ \boldsymbol{\it \Lambda } }_l \big) \cdot \underline {s} ^{\rm T}= &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		\lambda_0 &amp;amp; \lambda_1 &amp;amp; 1 &amp;amp; 0  \\&lt;br /&gt;
		0 &amp;amp; \lambda_0 &amp;amp; \lambda_1 &amp;amp; 1 &lt;br /&gt;
\end{pmatrix} \cdot &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		\alpha^5\\ &lt;br /&gt;
		\alpha^2\\ &lt;br /&gt;
		\alpha^3\\&lt;br /&gt;
		\alpha &lt;br /&gt;
\end{pmatrix} \stackrel{!}{=}&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		0\\ &lt;br /&gt;
		0&lt;br /&gt;
\end{pmatrix} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dies führt zu zwei Gleichungen für $\lambda_0$ und $\lambda_1$:&lt;br /&gt;
::&amp;lt;math&amp;gt;\alpha^5 \cdot \lambda_0 + \alpha^2 \cdot \lambda_1 + \alpha^3 = 0 \hspace{0.05cm},\hspace{0.5cm}\alpha^2 \cdot \lambda_0 + \alpha^3 \cdot \lambda_1 + \alpha^1 \hspace{-0.15cm}  =  \hspace{-0.15cm} 0 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dieses Gleichungssystem ist nun eindeutig lösbar. Man erhält $\lambda_0 = \alpha^2$ und $\lambda_1 = \alpha^6$. Das bedeutet: &lt;br /&gt;
*Die Annahme, dass tatsächlich $r = 2$ Positionen des Empfangsvektors $\underline {y}$ verfälscht wurden, ist richtig.&amp;lt;br&amp;gt;&lt;br /&gt;
*Man weiß aber noch nicht, welche Positionen verfälscht wurden. Soviel vorneweg: &lt;br /&gt;
*Es sind nicht die Symbolpositionen 2 und 6, sondern die Positionen 0 und 2, wie im folgenden Beispiel 5 gezeigt wird.}}&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Schritt (C): Lokalisierung der Fehlerstellen ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Nach Abarbeitung von Schritt '''(B)''' sind bekannt:&lt;br /&gt;
*die Anzahl $r$ der Fehlerstellen $e_i &amp;amp;ne; 0$ im Vektor $\underline {e} = (e_0, \text{... }, e_i, \text{... }, e_{n-1})$&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*die Koeffizienten $\lambda_0, \text{... } , \lambda_{r-1}$ des &amp;lt;i&amp;gt;Error Locator Polynoms&amp;lt;/i&amp;gt;.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zu bestimmen ist nun noch die Menge der Fehlerpositionen: &amp;amp;nbsp; $I_{\rm FP} = \{ i \hspace{0.1cm}| \hspace{0.1cm} e_i \ne 0,\hspace{0.1cm} 0 \le i &amp;lt; n \}\hspace{0.05cm}.$&lt;br /&gt;
&lt;br /&gt;
Hierzu gibt es zwei Möglichkeiten (beide Verfahren werden im folgenden Beispiel angewendet.):&lt;br /&gt;
*die so genannte &amp;lt;i&amp;gt;Chien&amp;amp;ndash;Suche&amp;lt;/i&amp;gt;, in dem man durch Einsetzen der möglichen Codesymbole außer dem Nullsymbol  $(\alpha^0, \text{... }, \alpha^i, \text{... },\alpha^{n-1})$ in das &amp;lt;i&amp;gt;Error Locator Polynom&amp;lt;/i&amp;gt; dessen Nullstellen ermittelt,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*die Auswertung der Gleichung $\underline {L} =	(L_0, \text{... }, L_i, \text{... },L_{n-1} ) = \underline {\it \Lambda } \cdot { \boldsymbol{\rm H }}$ mit der Abkürzung $L_i = {\it \Lambda}(\alpha^i)$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 5:}$&amp;amp;nbsp; &lt;br /&gt;
Im [[Kanalcodierung/Fehlerkorrektur_nach_Reed%E2%80%93Solomon%E2%80%93Codierung#Schritt_.28B.29:_Aufstellen.2FAuswerten_des_ELP.E2.80.93Koeffizientenvektors_.282.29| Beispiel 4]] wurde entsprechend den in [[Kanalcodierung/Fehlerkorrektur_nach_Reed%E2%80%93Solomon%E2%80%93Codierung#Schritt_.28A.29:_Auswertung_des_Syndroms_beim_BDD| Beispiel 2]] genannten Randbedingungen ermittelt, dass&lt;br /&gt;
*$r= 2$ Symbolfehler vorliegen, und &lt;br /&gt;
*die ELP&amp;amp;ndash;Koeffizienten $\lambda_0 = \alpha^2$ und $\lambda_1 = \alpha^6$ lauten. Damit ergibt sich das &amp;lt;i&amp;gt;Error Locator Polynom&amp;lt;/i&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\it \Lambda}(x)=x \cdot \big [{\it \lambda}_0 + \lambda_1 \cdot x+x^2 \big ]&lt;br /&gt;
	=x \cdot \big [\alpha^2 + \alpha^6 \cdot x+x^2 \big ]\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2557 KC T 2 5 Darstellung v1.png|right|frame|Drei Darstellunsformen für $\rm GF(2^3)$]] &lt;br /&gt;
Entsprechend der Chien&amp;amp;ndash;Suche erhält man&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\it \Lambda}(\alpha^0)\hspace{0.15cm}  =  \hspace{0.15cm}\alpha^0 \cdot \big [ \alpha^2 + \alpha^6 \cdot 1 + 1 \big ]	=  \alpha^2 + (\alpha^2 + 1) + 1 = 0 \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}{ \boldsymbol{\rm Nullstelle} }\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;{\it \Lambda}(\alpha^1)\hspace{0.15cm}  =  \hspace{0.15cm}\alpha^1 \cdot \big [\alpha^2 + \alpha^6 \cdot \alpha^1 + \alpha^2\big ]= \alpha^1 \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}{\rm Keine\hspace{0.15cm} Nullstelle}\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;{\it \Lambda}(\alpha^2)\hspace{0.15cm}  =  \hspace{0.15cm}\alpha^2 \cdot \big [ \alpha^2 + \alpha^6 \cdot \alpha^2 + \alpha^4 \big ] =\alpha^4 + \alpha^{10} + \alpha^6 = \text{...}&lt;br /&gt;
=  \hspace{0.15cm}0 &lt;br /&gt;
 \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}{ \boldsymbol{\rm Nullstelle} }\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit sind die beiden Fehlerpositionen mit $i = 0$ und $i = 2$ gefunden &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; der Fehlervektor lautet: $\underline {e} =	(e_0, 0, e_2, 0, 0, 0, 0)$ .&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Vektorgleichung $\underline {L} =	 \underline {\it \Lambda } \cdot { \boldsymbol{\rm H } }$ liefert das gleiche Ergebnis in kompakterer Form:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {L} = \underline{\it \Lambda} \cdot  { \boldsymbol{\rm H } }  = (\alpha^2, \alpha^6, 1, 0) \cdot&lt;br /&gt;
				\begin{pmatrix}&lt;br /&gt;
						1 &amp;amp; \alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4 &amp;amp; \alpha^5 &amp;amp; \alpha^6 \\&lt;br /&gt;
						1 &amp;amp; \alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1 &amp;amp; \alpha^3 &amp;amp; \alpha^5 \\&lt;br /&gt;
						1 &amp;amp; \alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^3 &amp;amp; \alpha^5 &amp;amp; \alpha^1 &amp;amp; \alpha^4 \\&lt;br /&gt;
						1 &amp;amp; \alpha^4 &amp;amp; \alpha^1 &amp;amp; \alpha^5 &amp;amp; \alpha^2 &amp;amp; \alpha^6 &amp;amp; \alpha^3&lt;br /&gt;
					\end{pmatrix}		&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \Rightarrow \hspace{0.3cm} \underline {L}   =  (\alpha^2,\alpha^3,\alpha^4,\alpha^5,\alpha^6,1       ,\alpha^1)&lt;br /&gt;
				+ (\alpha^6,\alpha^1,\alpha^3,\alpha^5,1       ,\alpha^2,\alpha^4)+(1,       \alpha^3,\alpha^6,\alpha^3,\alpha^5,\alpha^1,\alpha^4) &amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \Rightarrow \hspace{0.3cm} \underline {L}   = (0,\alpha^1,0,\alpha^3,\alpha^3,\alpha^5,\alpha^1)\hspace{0.3cm} \Rightarrow  \hspace{0.3cm}&lt;br /&gt;
L_0 = L_2 = 0 \hspace{0.3cm} \Rightarrow \hspace{0.3cm} &lt;br /&gt;
\underline {e} =	(e_0, 0, e_2, 0, 0, 0, 0)\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Beispiel wird mit dem '''Beispiel 6''' auf der nächsten Seite fortgesetzt.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Schritt (D): Abschließende Fehlerkorrektur ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Im letzten Schritt müssen nun nur noch die $r$ Symbolfehler korrigiert werden, deren Positionen nach Beendigung von Schritt '''(C)''' bekannt sind:&lt;br /&gt;
*Markiert man die Fehlerpositionen im Empfangswort $\underline {y}$  als Auslöschungen $\rm E$ (&amp;lt;i&amp;gt;Erasures&amp;lt;/i&amp;gt;), so kann das zugehörige Codewort $\underline {z}$ entsprechend der Beschreibung im Kapitel [[Kanalcodierung/Reed–Solomon–Decodierung_beim_Auslöschungskanal|Reed–Solomon–Decodierung beim Auslöschungskanal]] gefunden werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Eine zweite Möglichkeit bietet die Bestimmung des Fehlervektors $\underline {e}$ aus der Gleichung $\underline {e}  \cdot  \boldsymbol{\rm H }^{\rm T} = \underline {s}$ und die Korrektur entsprechend $\underline {z} = \underline {y}  - \underline {e} $ . Dieses Verfahren liegt dem folgenden Beispiel zugrunde.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2558 KC T 2 5 Darstellung v1.png|right|frame|$\rm GF(2^3)$&amp;amp;ndash;Darstellunsformen]] &lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 6:}$&amp;amp;nbsp; Im [[Kanalcodierung/Fehlerkorrektur_nach_Reed%E2%80%93Solomon%E2%80%93Codierung#Schritt_.28A.29:_Auswertung_des_Syndroms_beim_BDD| Beispiel 2]] wurde &lt;br /&gt;
*das Empfangswort mit $\underline{y}=\big (\alpha^3,\hspace{0.05cm} 1,\hspace{0.05cm} 0, \hspace{0.05cm}\alpha^1, \hspace{0.05cm} \alpha^2, \hspace{0.05cm} \alpha^5, \hspace{0.05cm} \alpha^5 \big)$ vorgegeben, und &lt;br /&gt;
*daraus das Syndrom $\underline{s}=\big (\alpha^5,\hspace{0.05cm}\alpha^2, \hspace{0.05cm} \alpha^3, \hspace{0.05cm} \alpha^1\big)$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
ermittelt. Nach den Berechnungen im [[Kanalcodierung/Fehlerkorrektur_nach_Reed%E2%80%93Solomon%E2%80%93Codierung#Schritt_.28C.29:_Lokalisierung_der_Fehlerstellen| Beispiel 5]] lautet der Fehlervektor $\underline {e} =	(e_0, 0, e_2, 0, 0, 0, 0)$. &amp;lt;br&amp;gt;Diese Angaben gelten für den '''RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt;'''.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aus $\underline {e}  \cdot  \boldsymbol{\rm H }^{\rm T} = \underline {s}$ erhält man nun folgende Bestimmungsgleichungen für die Fehlerwerte $e_0$ und $e_2$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {e}  \cdot \boldsymbol{\rm H }^{\rm T}= \begin{pmatrix}&lt;br /&gt;
		e_0 &amp;amp; 0 &amp;amp; e_2 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0&lt;br /&gt;
\end{pmatrix}\cdot&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 \\&lt;br /&gt;
		\alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4\\&lt;br /&gt;
		\alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1\\&lt;br /&gt;
		\alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^2 &amp;amp; \alpha^{5}\\&lt;br /&gt;
		\alpha^4 &amp;amp; \alpha^1 &amp;amp; \alpha^{5} &amp;amp; \alpha^{2}\\&lt;br /&gt;
		\alpha^5 &amp;amp; \alpha^{3} &amp;amp; \alpha^{1} &amp;amp; \alpha^{6}\\&lt;br /&gt;
		\alpha^6 &amp;amp; \alpha^{5} &amp;amp; \alpha^{4} &amp;amp; \alpha^{3}&lt;br /&gt;
\end{pmatrix} \stackrel{!}{=} \underline {s} = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		\alpha^5 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^1 &lt;br /&gt;
\end{pmatrix}  &amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow  \hspace{0.3cm}e_0 \cdot (1, 1, 1, 1) + e_2 \cdot (		\alpha^2, \alpha^4, \alpha^6, \alpha^1)\stackrel{!}{=}&lt;br /&gt;
(		\alpha^5, \alpha^2, \alpha^3, \alpha^1)&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow  \hspace{0.3cm}&lt;br /&gt;
e_0 + e_2 \cdot \alpha^2 = \alpha^5\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
e_0 + e_2 \cdot \alpha^4 = \alpha^2\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
e_0 + e_2 \cdot \alpha^6 = \alpha^3\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
e_0 + e_2 \cdot \alpha^1 = \alpha^1\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Diese Gleichungen führen zum Ergebnis $e_0 = 1$ und $e_2 =\alpha^2$. Damit  lautet das korrigierte Codewort mit $\underline {y} =  (\alpha^3,\hspace{0.05cm} 1,\hspace{0.05cm} 0,\hspace{0.05cm}  \alpha^1,\hspace{0.05cm} \alpha^2,\hspace{0.05cm} \alpha^5,\hspace{0.05cm} \alpha^5)$ und $\underline {e}=  (1,\hspace{0.05cm} 0,\hspace{0.05cm}  \alpha^2,\hspace{0.05cm} 0,\hspace{0.05cm} 0,\hspace{0.05cm} 0,\hspace{0.05cm} 0)$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {z} = \underline {y} - \underline {e} = \underline {y} + \underline {e}=&lt;br /&gt;
(\alpha^1,\hspace{0.03cm} 1,\hspace{0.03cm} \alpha^2,\hspace{0.03cm}  \alpha^1,\hspace{0.03cm} \alpha^2,\hspace{0.03cm} \alpha^5,\hspace{0.03cm} \alpha^5)\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dieses ist ein gültiges Codewort von RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt;.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Schnelle Reed–Solomon–Decodierung ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Klasse der Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes wurde bereits im Jahre 1960 durch die Veröffentlichung [RS60]&amp;lt;ref name='RS60'&amp;gt;Reed, I.S.; Solomon, G.: ''Polynomial Codes over Certain Finite Fields.'' J. Siam, Vol. 8, pp. 300–304, 1960.&amp;lt;/ref&amp;gt; eingeführt. Ihre effiziente Decodierung war jedoch erst ein bis zwei Jahrzehnte später möglich.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Auf den letzten Seiten haben wir den so genannten Petersen&amp;amp;ndash;Algorithmus inklusive der Chien&amp;amp;ndash;Suche am Beispiel des RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt; demonstriert, der bis zu $t = 2$ Fehler korrigieren kann. Im Mittelpunkt des Decodiervorgangs stand dabei das Aufstellen und Lösen der Schlüsselgleichung (englisch: &amp;lt;i&amp;gt;Error Locator Polynom&amp;lt;/i&amp;gt;), wobei die Nullstellen eines Grad&amp;amp;ndash;2&amp;amp;ndash;Polynoms im Körper $\rm GF(7)$ gefunden werden mussten. Sie konnten erkennen, dass schon diese algebraische Decodierung mit großem Aufwand verbunden ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Bei den in Praxis eingesetzten Codes mit großer Codewortlänge $n$ und hoher Korrekturfähigkeit $t$ würde der Decodieraufwand explodieren, wenn nicht schnellere Decodieralgorithmen gefunden worden wären. So müssen beim Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code RSC (255, 223, 33)&amp;lt;sub&amp;gt;256&amp;lt;/sub&amp;gt;, der schon früh im ESA/NASA&amp;amp;ndash;Standard zur Satellitenübertragung genannt wurde, zur Decodierng eines einzigen Codewortes bis zu $t = 16$ Nullstellen im Körper $\rm GF(255)$ gefunden werden, und das auch noch in Echtzeit.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ab Ende der 1960er Jahre haben sich viele Wissenschaftler um schnellere Decodieralgorithmen für  Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes bemüht:&lt;br /&gt;
&lt;br /&gt;
*Beim [https://de.wikipedia.org/wiki/Berlekamp-Massey-Algorithmus Berlekamp&amp;amp;ndash;Massey&amp;amp;ndash;Algorithmus] (BMA) wird die Schlüsselgleichung $\underline {\it \Lambda}  \cdot  \underline{s }^{\rm T} = 0$ als rückgekoppeltes Schieberegister dargestellt, siehe zum Beispiel [Mas69]&amp;lt;ref name ='Mas69'&amp;gt;Massey, J.L.: ''Shift Register Synthesis and BCH Decoding.''. IEEE Trans. on Information Theory, vol. IT-15, pp. 122–127, Jan. 1969.&amp;lt;/ref&amp;gt;, [Fri96]&amp;lt;ref name ='Fri96'&amp;gt;Friedrichs, B.: ''Kanalcodierung – Grundlagen und Anwendungen in modernen Kommunikations- systemen.'' Berlin – Heidelberg: Springer, 1996.&amp;lt;/ref&amp;gt; und [Bos98]&amp;lt;ref name ='Bos98'&amp;gt;Bossert, M.: ''Kanalcodierung.'' Stuttgart: B. G. Teubner, 1998.&amp;lt;/ref&amp;gt;. Das Problem wird damit auf die Synthese eines autoregressiven Filters zurückgeführt. Dieser Algorithmus arbeitet wesentlich schneller als der (leichter durchschaubare) Petersen&amp;amp;ndash;Algorithmus.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Etwas später wurde in [SK+75]&amp;lt;ref name='SK+75'&amp;gt;Sugiyama, Y.; Kashara, M.; Hirasawa, S.; Namekawa, T.: ''A Method for Solving Key Equation for Decoding Goppa Codes.'' Information and Control, Vol. 27, pp. 87–99, 1975.&amp;lt;/ref&amp;gt; ein Decodierverfahren vorgeschlagen, das auf dem [https://de.wikipedia.org/wiki/Euklidischer_Algorithmus Euklidischen Algorithmus] basiert. Dieser liefert den größten gemeinsamen Teiler zweier ganzer Zahlen, was zur Decodierung genutzt wird. Der Euklidische Algorithmus ist vergleichbar schnell wie der BMA. Genauere Informationen finden Sie wieder in [Bos98]&amp;lt;ref name ='Bos98'&amp;gt;&amp;lt;/ref&amp;gt; und [Fri96]&amp;lt;ref name ='Fri96'&amp;gt;&amp;lt;/ref&amp;gt;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Weitere effiziente Decodiernethoden von Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes arbeiten im &amp;lt;i&amp;gt;Frequenzbereich&amp;lt;/i&amp;gt; unter Verwendung der [[Signaldarstellung/Diskrete_Fouriertransformation_(DFT)#Argumente_f.C3.BCr_die_diskrete_Realisierung_der_FT| Diskreten Fouriertransformation]] (DFT) im Körper ${\rm GF}(n)$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Grundzüge der Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Fehlerkorrektur wurden bereits in den 1960er Jahren entwickelt. Aber bis in die heutige Zeit (2013) ist die (möglichst schnelle) algebraische Decodierung dieser Codes ein hochaktuelles Forschungsgebiet.&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:2.12 Decodierung beim RSC(7, 4, 4)(Base 8)|Aufgabe2.12: Decodierung beim RSC(7, 4, 4)(Base 8)]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.12Z_Reed–Solomon–Syndromberechnung|Zusatzaufgabe 2.12Z Reed–Solomon–Syndromberechnung]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.13 Nun RSC (7, 3, 5)(Base 8)–Decodierung|Aufgabe 2.13: Nun RSC (7, 3, 5)(Base 8)–Decodierung]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.14 Petersen–Algorithmus|Aufgabe 2.14: Petersen–Algorithmus]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Error_Probability_and_Application_Areas&amp;diff=21286</id>
		<title>Channel Coding/Error Probability and Application Areas</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Error_Probability_and_Application_Areas&amp;diff=21286"/>
		<updated>2018-01-02T19:17:50Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Reed–Solomon–Codes und deren Decodierung&lt;br /&gt;
|Vorherige Seite=Fehlerkorrektur nach Reed–Solomon–Codierung&lt;br /&gt;
|Nächste Seite=Grundlagen der Faltungscodierung&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Blockfehlerwahrscheinlichkeit für RSC und BDD ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Zur Fehlerwahrscheinlichkeitsberechnung  gehen wir vom gleichen Blockschaltbild wie im Kapitel [[Kanalcodierung/Fehlerkorrektur_nach_Reed–Solomon–Codierung| Fehlerkorrektur nach Reed–Solomon–Codierung]] aus, wobei wir uns hier für den Codewortschätzer $(\underline {y} &amp;amp;#8594; \underline {z})$ auf [[Kanalcodierung/Fehlerkorrektur_nach_Reed%E2%80%93Solomon%E2%80%93Codierung#M.C3.B6gliche_Codewortsch.C3.A4tzer:_HD.E2.80.93MLD_bzw._BDD_.281.29| Bounded Distance Decoding]] (BDD) beschränken. Für &amp;lt;i&amp;gt;Maximum Likelihood Decoding&amp;lt;/i&amp;gt; sind die Ergebnisse geringfügig besser.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2564 KC T 2 6 S1 v2.png|center|frame|Systemmodell mit Reed–Solomon–Codierung, $m$–BSC und ''Bounded Distance Decoding''|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Die Blockfehlerwahrscheinlichkeit sei wie folgt definiert:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \rm Pr(Blockfehler)} = { \rm Pr}( \underline{v} \ne \underline{u})= { \rm Pr}( \underline{z} \ne \underline{c}) = { \rm Pr}( f &amp;gt;t) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aufgrund der BDD&amp;amp;ndash;Annahme ergibt sich das gleiche einfache Ergebnis wie für die binären Blockcodes, nämlich die Wahrscheinlichkeit dafür, dass die Anzahl &amp;lt;i&amp;gt;f&amp;lt;/i&amp;gt; der Fehler im Block (Empfangswort) größer ist als die Korrekturfähigkeit $t$ des Codes. Da  für die Zufallsgröße $f$ (Fehleranzahl) eine [[Stochastische_Signaltheorie/Binomialverteilung#Wahrscheinlichkeiten_der_Binomialverteilung| Binominalverteilung]] im Bereich $0 &amp;amp;#8804; f &amp;amp;#8804; n$ vorliegt, erhält man:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr(Blockfehler)}  =&lt;br /&gt;
\sum_{f = t + 1}^{n} {n \choose f} \cdot {\varepsilon_{\rm S}}^f \cdot (1 - \varepsilon_{\rm S})^{n-f} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Während aber im ersten Hauptkapitel stets $c_i &amp;amp;#8712; \rm GF(2)$ gegolten hat und damit die $f$ Übertragungsfehler jeweils Bitfehler waren, versteht man bei Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codierung unter einem Übertragungsfehler $(y_i \ne c_i)$ wegen $c_i &amp;amp;#8712; {\rm GF}(2^m)$ sowie $y_i &amp;amp;#8712; {\rm GF}(2^m)$ einen &amp;lt;i&amp;gt;Symbolfehler&amp;lt;/i&amp;gt;. Damit ergeben sich folgende Unterschiede:&lt;br /&gt;
*Das diskrete Kanalmodell zur Beschreibung der binären Blockcodes ist der [[Kanalcodierung/Klassifizierung_von_Signalen#Binary_Symmetric_Channel_.E2.80.93_BSC| ''Binary Symmetric Channel'']] (BSC). Jedes Bit $c_i$ eines Codewortes wird mit der Wahrscheinlichkeit $\varepsilon$ verfälscht $(y_i \ne c_i)$ und mit der Wahrscheinlichkeit $1-\varepsilon$  richtig übertragen $(y_i = c_i)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codierung muss man das BSC&amp;amp;ndash;Modell durch das $m$&amp;amp;ndash;BSC&amp;amp;ndash;Kanalmodell ersetzen. Ein Symbol $c_i$ wird mit der Wahrscheinlichkeit $\varepsilon_{\rm S}$ in ein anderes Symbol $y_i$ verfälscht (egal, in welches) und kommt mit der Wahrscheinlichkeit $1-\varepsilon_{\rm S}$ unverfälscht beim Empfänger an.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; &lt;br /&gt;
Wir gehen vom BSC&amp;amp;ndash;Parameter $\varepsilon = 0.1$ aus und betrachten Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codesymbole $c_i &amp;amp;#8712; {\rm GF}(2^8)$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp;  $m = 8$, $q = 256$,  $n = 255$. &lt;br /&gt;
&lt;br /&gt;
Für eine Symbolverfälschung $(y_i \ne c_i)$ genügt bereits ein falsches Bit. Oder anders ausgedrückt: Soll $y_i = c_i$ gelten, so müssen alle $m = 8$ Bit des Codesymbols richtig übertragen werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;1 - \varepsilon_{\rm S} = (1 - \varepsilon)^m = 0.9^8 \approx 0.43&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Damit ergibt sich für das 8&amp;amp;ndash;BSC&amp;amp;ndash;Modell die Verfälschungswahrscheinlichkeit $\varepsilon_{\rm S}  &amp;amp;asymp; 0.57$. &lt;br /&gt;
*Mit der weiteren Annahme, dass die Verfälschung von $c_i  = \beta$ in jedes andere Symbol $y_i  = \gamma \ne \beta$ gleichwahrscheinlich ist, erhält man ${\rm Pr}(y_i  = \gamma\hspace{0.05cm}\vert \hspace{0.05cm}c_i  = \beta = 0.57/255 &amp;amp;asymp; 0.223\%$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Anwendung der Reed–Solomon–Codierung bei binären Kanälen ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Voraussetzungen für die folgende Berechnung der Blockfehlerwahrscheinlichkeit eines Systems mit Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codierung und Umsetzung auf Binärsymbole sind in der Grafik zusammengefasst:&lt;br /&gt;
*Angenommen wird eine $(n, k$&amp;amp;ndash;Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codierung mit Symbolen aus $c_i &amp;amp;#8712; {\rm GF}(2^m)$. Je kleiner die Coderate $R=k/m$ ist, um so weniger Information kann bei fester Datenrate übertragen werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Jedes Symbol wird durch $m$Bit binär dargestellt &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;i&amp;gt;Binär&amp;amp;ndash;Mapping&amp;lt;/i&amp;gt;. Ein Block (Codewort $(\underline {c} $) besteht somit aus $n$ Symbolen bzw. aus $n \cdot m$ Binärzeichen (Bit), die  in  $(\underline {c}_{\rm bin} $ zusammengefasst werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Vorausgesetzt wird  außerdem der [[Kanalcodierung/Klassifizierung_von_Signalen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang |AWGN&amp;amp;ndash;Kanal]], gekennzeichnet durch den Parameter $E_{\rm bin}/N_0 $. Entsprechend diesem Kanalmodell geschieht die Übertragung bipolar: &amp;amp;nbsp; &amp;amp;bdquo;0&amp;amp;rdquo; &amp;amp;nbsp; &amp;amp;#8596; &amp;amp;nbsp; $+1$ sowie  &amp;amp;bdquo;1&amp;amp;rdquo; &amp;amp;nbsp; &amp;amp;#8596; $-1$. &lt;br /&gt;
&lt;br /&gt;
*Der Empfänger trifft harte Entscheidungen (&amp;lt;i&amp;gt;Hard Decision&amp;lt;/i&amp;gt;) auf Bitebene. Vor der Decodierung inclusive der Fehlerkorrektur werden die Binärsymbole wieder auf ${\rm GF}(2^m)$&amp;amp;ndash;Symbole umgesetzt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2565 KC T 2 6 S2a v2.png|center|frame|Anwendung der Reed–Solomon–Codierung bei Binärkanälen|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Die auf der letzten Seite angegebene Gleichung (gültig für &amp;lt;i&amp;gt;Bounded Distance Decoding&amp;lt;/i&amp;gt;),&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr(Blockfehler)}  =&lt;br /&gt;
\sum_{f = t + 1}^{n} {n \choose f} \cdot {\varepsilon_{\rm S}}^f \cdot (1 - \varepsilon_{\rm S})^{n-f} \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
basiert auf dem $m$&amp;amp;ndash;BSC&amp;amp;ndash;Kanal. Ausgehend vom AWGN&amp;amp;ndash;Kanal kommt man&lt;br /&gt;
*mit dem [[Stochastische_Signaltheorie/Gaußverteilte_Zufallsgrößen#.C3.9Cberschreitungswahrscheinlichkeit|komplementären Gaußschen Fehlerintegral]] ${\rm Q}(x)$ zum BSC&amp;amp;ndash;Parameter&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\varepsilon = {\rm Q} \big (\sqrt{2 \cdot E_{\rm S}/N_0} \big ) &lt;br /&gt;
= {\rm Q} \big (\sqrt{2 \cdot R \cdot E_{\rm B}/N_0} \big ) &lt;br /&gt;
\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*und daraus zur Verfälschungswahrscheinlichkeit $\varepsilon_{\rm S}$ auf Symbolebene:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\varepsilon_{\rm S} = 1 - (1 - \varepsilon)^m &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp; Für $R=k/n = 239/255 = 0.9373$, $10 \cdot \lg  \ E_{\rm B}/N_0 = 7 \, \rm dB$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $E_{\rm B}/N_0 &amp;amp;asymp; 5$  und $n = 2^8-1$ 1 &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $m = 8$ erhält man für den Parameter $\varepsilon_{\rm S}$ des 8&amp;amp;ndash;BSC&amp;amp;ndash;Modells:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\varepsilon = {\rm Q} \big (\sqrt{2 \cdot 0.9373 \cdot 5} \big ) =  {\rm Q} \big (3.06\big ) \approx 1.1 \cdot 10^{-3}&lt;br /&gt;
\hspace{0.05cm}\hspace{0.3cm} &lt;br /&gt;
\Rightarrow\hspace{0.3cm}  \varepsilon_{\rm S} = 1 - (1 - 1.1 \cdot 10^{-3})^8 = 1 - 0.9989^8 = 1 - 0.9912 \approx 0.88 \cdot \% &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Jedes einzelne Symbol wird also mit mehr als $99$&amp;amp;ndash;prozentiger Wahrscheinlichkeit fehlerfrei übertragen.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== BER der Reed–Solomon–Codierung bei binären Kanälen ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die folgende Grafik zeigt die in [Liv10]&amp;lt;ref name='Liv10'&amp;gt;Liva, G.: ''Channel Coding.'' Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010.&amp;lt;/ref&amp;gt; angegebenen Blockfehlerwahrscheinlichkeiten in Abhängigkeit des AWGN&amp;amp;ndash;Quotienten $10 \cdot \lg  \ E_{\rm B}/N_0$. &lt;br /&gt;
[[File:P ID2566 KC T 2 6 S2b v1.png|righr|frame|Blockfehlerwahrscheinlichkeit zweier Reed–Solomon–Codes der Länge $n = 255$|class=fit]]&lt;br /&gt;
Dargestellt sind die berechneten Kurvenverläufe ${ \rm Pr}( \underline{v} \ne \underline{u})$ für zwei verschiedene Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes entsprechend den &amp;lt;i&amp;gt;Deep Space Standards&amp;lt;/i&amp;gt; nach CCSDS (&amp;lt;i&amp;gt;Consultative Committee for Space Data Systems&amp;lt;/i&amp;gt;), nämlich&lt;br /&gt;
&lt;br /&gt;
*dem '''RSC (255, 239,17)&amp;lt;sub&amp;gt;256&amp;lt;/sub&amp;gt;''' mit $R=0.9373$, der bis zu $t = 8$ Fehler korrigieren kann, und&amp;lt;br&amp;gt;&lt;br /&gt;
*dem '''RSC (255, 223, 33)&amp;lt;sub&amp;gt;256&amp;lt;/sub&amp;gt;''' mit höherer Korrekturfähigkeit $(t = 16)$ aufgrund kleinerer Coderate.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Hinweis'': Die nachfolgend nur angedeutete Berechnung sollen Sie in der [[Aufgabe 2.15]] für den '''RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt;''' &amp;amp;ndash; also für etwas übersichtlichere Parameter &amp;amp;ndash; vollständig durchführen.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt; &lt;br /&gt;
Wir analysieren den in der Grafik gelb hinterlegten Punkt, gültig für den RSC (255, 239, 17)&amp;lt;sub&amp;gt;256&amp;lt;/sub&amp;gt;, und $10 \cdot \lg  \ E_{\rm B}/N_0 = 7.1 \,\rm dB$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $\varepsilon = 0.007$. Die dazugehörige Blockfehlerwahrscheinlichkeit ergibt sich entsprechend der Grafik zu&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr(Blockfehler)}  =&lt;br /&gt;
\sum_{f =9}^{255} {255 \choose f} \cdot {\varepsilon_{\rm S}}^f \cdot (1 - \varepsilon_{\rm S})^{255-f}\approx 10^{-4} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dominant ist hierbei der erste Term (für $f=9$), der bereits etwa $80\%$ ausmacht:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{255 \choose 9} \approx 1.1 \cdot 10^{16}\hspace{0.05cm},\hspace{0.15cm}&lt;br /&gt;
\varepsilon_{\rm S}^9 \approx 4 \cdot 10^{-20}\hspace{0.05cm},\hspace{0.15cm}&lt;br /&gt;
(1 -\varepsilon_{\rm S})^{246} \approx 0.18 &lt;br /&gt;
\hspace{0.15cm} \Rightarrow  \hspace{0.15cm} {\rm Pr}(f = 9) \approx 8 \cdot 10^{-5} &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dies soll als Beleg dafür gelten, dass man die Summation schon nach wenigen Termen abbrechen darf.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die in der Grafik dargestellten Ergebnisse kann man wie folgt zusammenfassen:&lt;br /&gt;
*Für kleines $E_{\rm B}/N_0$ (des AWGN&amp;amp;ndash;Kanals) sind die Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes völlig ungeeignet. Beide Codes liegen für $10 \cdot \lg  \ E_{\rm B}/N_0 &amp;lt; 6 \,\rm dB$ über der Vergleichskurve für uncodierte Übertragung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Berechung für den RSC (255, 223, 33)&amp;lt;sub&amp;gt;256&amp;lt;/sub&amp;gt; unterscheidet sich von obiger Rechnung nur in der unteren Summationsgrenze $(f_{\rm min} = 17)$ und   (wegen $R = 0.8745$ durch ein etwas größeres $\varepsilon_{\rm S}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Dieser $(t = 16)$&amp;amp;ndash;Code ist für $\rm BER = 10^{-6}$ auch nur um etwa $1 \, \rm dB$ besser als der durch grüne Kreuze gekennzeichnete Code mit $t = 8$. Die Ergebnisse beider Codes sind also eher enttäuschend.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp;&lt;br /&gt;
*Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes sind beim gedächtnislosen Binärkanal (AWGN&amp;amp;ndash;Kanal) nicht sehr gut. Beide Codes liegen mehr als $4 \, \rm dB$ von der informationstheoretischen [[Kanalcodierung/Informationstheoretische_Grenzen_der_Kanalcodierung#AWGN.E2.80.93Kanalkapazit.C3.A4t_f.C3.BCr_bin.C3.A4re_Eingangssignale| Shannon&amp;amp;ndash;Grenze]] entfernt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes sind dagegen sehr wirkungsvoll bei so genannten [[Digitalsignal%C3%BCbertragung/B%C3%BCndelfehlerkan%C3%A4le| Bündelfehlerkanälen]]. Sie werden deshalb vorwiegend bei Fadingkanälen, Speichersysteme, usw. eingesetzt.&amp;lt;br&amp;gt;&lt;br /&gt;
*Die Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes sind nicht perfekt. Welche Konsequenzen sich daraus ergeben, wird in der [[Aufgabe 2.16]] behandelt.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Typische Anwendungen mit Reed–Solomon–Codierung==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codierung wird häufig entsprechend der Grafik zusammen mit einem &amp;lt;i&amp;gt;inneren Code&amp;lt;/i&amp;gt; in kaskadierter Form angewandt. &lt;br /&gt;
*Der innere Code ist fast immer ein Binärcode und in der Satelliten&amp;amp;ndash; und Mobilkommunikation oft ein Faltungscode. &lt;br /&gt;
*Will man nur die Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codierung/Decodierung untersuchen, so ersetzt man in einer Simulation die grau hinterlegten Komponenten durch einen einzigen Block, den man &amp;lt;i&amp;gt;Super Channel&amp;lt;/i&amp;gt; nennt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2575 KC T 2 6 S3a v2.png|center|frame|Codeschema mit Kaskadierung|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Besonders effizient ist ein solches &amp;lt;b&amp;gt;verkettetes&amp;lt;/b&amp;gt; (englisch: &amp;lt;i&amp;gt;concatenated&amp;lt;/i&amp;gt;) &amp;lt;b&amp;gt;Codiersystem&amp;lt;/b&amp;gt;, wenn zwischen den beiden Codierern ein Interleaver geschaltet ist, um Bündelfehler weiter zu entspreizen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; Die Grafik zeigt beispielhaft einen solchen Interleaver, wobei wir uns auf eine 20 &amp;amp;times; 4 Matrix beschränken. In der Praxis sind diese Matrizen deutlich größer.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2579 KC T 2 6 S3b v2.png|center|frame|Interleaver–Matrix für 20x4 Symbole|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Der Interleaver wird zeilenweise beschrieben und spaltenweise ausgelesen (blaue Beschriftung). Beim De&amp;amp;ndash;Interleaver  (grüne Beschriftung) ist die Reihenfolge genau umgekehrt.&lt;br /&gt;
*Die Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Symbole werden also nicht fortlaufend an den inneren Coder weitergeleitet, sondern entsprechend der angegebenen Reihenfolge als Symbol 1, 21, 41, 61, 2, 22, usw. .&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Auf dem Kanal wird ein zusammenhängender Bereich (hier die Symbole 22, 42, 62, 3, 23 &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp;  rot umrandetes Rechteck) zerstört, z. B. durch einen Kratzer auf dem Kanal &amp;amp;bdquo;Speichermedium&amp;amp;rdquo;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Nach dem De&amp;amp;ndash;Interleaving ist die Symbolreihenfolge wieder 1, 2, 3, ... Man erkennt an den rot umrandeten Kreisen, dass nun dieses Fehlerbündel weitgehend &amp;amp;bdquo;aufgebrochen&amp;amp;rdquo; wurde.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Eine sehr weit verbreitete Anwendung von Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codierung &amp;amp;ndash; und zudem die kommerziell erfolgreichste &amp;amp;ndash; ist die &amp;lt;b&amp;gt;Compact Disc&amp;lt;/b&amp;gt; (CD), deren Fehlerkorrekturmechanismus bereits im [[Kanalcodierung/Zielsetzung_der_Kanalcodierung| Einführungkapitel]] dieses Buches beschrieben wurde. Hier ist der innere Code ebenfalls ein Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code, und das verkette Codiersystem lässt sich wie folgt beschreiben:&lt;br /&gt;
*Beide Kanäle des Stereo&amp;amp;ndash;Audiosignals werden mit je 44.1 kHz abgetastet und jeder einzelne Abtastwert wird mit 32 Bit (4 Byte) digital dargestellt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Gruppierung von sechs Samples ergibt einen Rahmen (192 Bit) und damit 24 Codesymbole aus dem Galoisfeld  $\rm GF(2^8)$. Jedes Codesymbol entspricht somit genau einem Byte.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der erste Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code mit der Rate $R_1 = 24/28$ liefert 28 Byte, die einem Interleaver der Größe 28 &amp;amp;middot; 109 Byte zugeführt werden. Das Auslesen erfolgt (kompliziert) diagonal.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der Interleaver verteilt zusammenhängende Bytes großräumig über die gesamte Disk. Dadurch werden so genannte Bursts &amp;amp;bdquo;aufgelöst&amp;amp;rdquo;, die zum Beispiel durch Kratzer auf der CD herrühren.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Zusammen mit dem zweiten Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code (Rate $R_2 =   28/32$) ergibt sich eine Gesamtrate von $R = (24/28) &amp;amp;middot; (28/32) = 3/4$. Beide Codes können jeweils $t = 2$ Symbolfehler korrigieren.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die beiden Komponentencodes RSC (28, 24, 5) und RSC(32, 28, 5) basieren jeweils auf dem Galoisfeld $\rm GF(2^8)$, was eigentlich die Codelänge $n = 255$ bedeuten würde.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die hier benötigten kürzeren Komponentencodes ergeben sich aus aus dem RSC (255, 251, 5)&amp;lt;sub&amp;gt;256&amp;lt;/sub&amp;gt; durch &amp;lt;i&amp;gt;Shortening&amp;lt;/i&amp;gt; &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; siehe [[Aufgabe 1.9Z]]. Durch diese Maßnahme wird die minimale Distanz $d_{\rm min}= 5$ nicht verändert.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Mit der anschließenden [https://de.wikipedia.org/wiki/Eight-to-Fourteen-Modulation Eight&amp;amp;ndash;to&amp;amp;ndash;Fourteen&amp;amp;ndash;Modulation] und weiterer Kontrollsymbole kommt man schließlich zur endgültigen Coderate $ R = 192/588 &amp;amp;asymp; 0.326$ der CD&amp;amp;ndash;Datenkomprimierung.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Auf der Seite [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Die_.E2.80.9EGeschlitzte_CD.E2.80.9D_.E2.80.93_eine_Demonstration_des_LNT_der_TUM |Geschlitzte CD]] kann man sich anhand eines Audio&amp;amp;ndash;Beispiels von der Korrekturfähigkeit dieser &amp;lt;i&amp;gt;cross&amp;amp;ndash;interleaved Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codierung&amp;lt;/i&amp;gt; überzeugen, aber auch deren Grenzen erkennen.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:2.15 Pr(υ ≠ u) vs. EB/N0|Aufgabe 2.15: Pr(υ ≠ u) vs. EB/N0]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.15Z_Nochmals_Pr(υ_≠_u)_für_BDD|Zusatzaufgabe 2.15Z: Nochmals Pr(υ ≠ u) für BDD]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.16 BDD–Entscheidungskriterien|Aufgabe 2.16: BDD–Entscheidungskriterien]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Error_Correction_According_to_Reed-Solomon_Coding&amp;diff=21285</id>
		<title>Channel Coding/Error Correction According to Reed-Solomon Coding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Error_Correction_According_to_Reed-Solomon_Coding&amp;diff=21285"/>
		<updated>2018-01-02T19:16:40Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Reed–Solomon–Codes und deren Decodierung&lt;br /&gt;
|Vorherige Seite=Reed–Solomon–Decodierung beim Auslöschungskanal&lt;br /&gt;
|Nächste Seite=Fehlerwahrscheinlichkeit und Anwendungsgebiete&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Blockschaltbild und Voraussetzungen zur RS&amp;amp;ndash;Fehlerkorrektur ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wie im Kapitel [[Kanalcodierung/Reed–Solomon–Decodierung_beim_Auslöschungskanal#Blockschaltbild_und_Voraussetzungen_zur_RS.E2.80.93Fehlererkennung|Decodierung beim Auslöschungskanal]] betrachten wir ein Übertragungssystem mit Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codierung, das durch die beiden Codeparameter $n=2^m-1$ und $k$ gekennzeichnet  ist. Mit der Generatormatrix $\boldsymbol{\rm G}$ lautet der Zusammenhang zwischen dem Informationswort $\underline {u}$ und dem Codewort  $\underline {c}$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {c} = {\rm enc}(\underline {u}) = \underline {u} \cdot { \boldsymbol{\rm G}}&lt;br /&gt;
\hspace{0.3cm} {\rm mit}  \hspace{0.3cm}\underline {u} = (u_0, u_1, ... \hspace{0.05cm}, u_i, ...\hspace{0.05cm}, u_{k-1})\hspace{0.05cm}, \hspace{0.2cm} &lt;br /&gt;
\underline {c} = (c_0, c_1, ... \hspace{0.05cm}, c_i, ...\hspace{0.05cm}, c_{n-1})&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Sowohl die Informationssymbole $u_i$ als auch die Codesymbole $C_i$ entstammen dem Körper ${\rm GF}(q)$ mit $q=n+1=2^m$, und sind somit durch $m$ Binärsymbole (Bit) darstellbar.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2545 KC T 2 5 S1 v2.png|center|frame|Übertragungssystem mit Reed–Solomon–Codierung/Decodierung und &amp;lt;i&amp;gt;m&amp;lt;/i&amp;gt;–BSC|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Ein Vergleich dieses Blockschaltbildes mit dem entsprechenden [[Kanalcodierung/Reed–Solomon–Decodierung_beim_Auslöschungskanal#Blockschaltbild_und_Voraussetzungen_zur_RS.E2.80.93Fehlererkennung|Blockschaltbild zur RS&amp;amp;nbsp;Fehlererkennung]] zeigt:&lt;br /&gt;
*Der wesentliche Unterschied liegt im verwendeten diskreten Kanalmodell (grün hinterlegt). Anstelle des Auslöschungskanals (&amp;amp;bdquo;$m$&amp;amp;ndash;BEC&amp;amp;rdquo;) wird nun der $m$&amp;amp;ndash;BSC betrachtet. Für jedes einzelne Bit des Codesymbols $c_i$ wird der [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC| ''Binary Symmetric Channel'']] (BSC) angewandt. Ein Bitfehler vezüglich des $i$&amp;amp;ndash;Bits  ergibt $y_i \ne c_i$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Im [[Kanalcodierung/Reed–Solomon–Decodierung_beim_Auslöschungskanal|letzten Kapitel]] waren unsichere Bits bereits durch Auslöschungen $\rm E$ (&amp;lt;i&amp;gt;Erasures&amp;lt;/i&amp;gt;) markiert. Aufgabe des &amp;lt;i&amp;gt;Codewortfinders&amp;lt;/i&amp;gt; (CWF)war es deshalb, aus dem verstümmelten Empfangswort $\underline {y}$ das Decodierergebnis $\underline {z}$ zu rekonstruieren. Ist dabei die Anzahl $e$ der Auslöschungen kleiner als die minimale Distanz  $d_{\rm min}$, so gelingt dies und man erhält $\underline {z} = \underline {c}$. Andernfalls meldet der Codewortfinder, dass er das aktuelle Empfangswort $\underline {y}$ nicht decodieren kann. Eine Fehlentscheidung $(\underline {z} \ne \underline {c})$ ist ausgeschlossen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*In diesem Kapitel wird nun der erste Decoderblock als &amp;lt;i&amp;gt;Codewortschätzer&amp;lt;/i&amp;gt; ('''CWS''') bezeichnet. Die Namensgebung soll deutlich machen, dass aufgrund des $m$&amp;amp;ndash;BSC&amp;amp;ndash;Modells Fehlentscheidungen $(\underline {z} \ne \underline {c})$ unvermeidlich sind, nämlich dann, wenn durch mehrere Symbolfehler das Empfangswort $\underline {y}$ zu einem gültigen Codewort verfälscht wurde.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp;  Aufgabe des Decoders ist es, seinen Ausgangsvektor $\underline {v}$ so zu bestimmen, dass er &amp;amp;bdquo;möglichst gut&amp;amp;rdquo; mit dem Informationswort $\underline {u}$ übereinstimmt. Oder etwas genauer formuliert:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \rm Pr(Blockfehler)} = { \rm Pr}( \underline{\upsilon} \ne \underline{u}) \stackrel{!}{=} { \rm Minimum}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aufgrund des deterministischen Mappings $\underline{c} = {\rm enc}(\underline{u})$ und $\underline{v} = {\rm enc}^{-1}(\underline{z})$ gilt in gleicher Weise:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \rm Pr(Blockfehler)} = { \rm Pr}( \underline{z} \ne \underline{c}) \stackrel{!}{=} { \rm Minimum}\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Deshalb werden im Folgenden die zwei gelb hinterlegten Blöcke nicht weiter betrachtet.  Im Mittelpunkt der Betrachtungen steht vielmehr der rot hinterlegte &amp;lt;i&amp;gt;Codewortschätzer&amp;lt;/i&amp;gt; (CWS).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Mögliche Codewortschätzer für die RS&amp;amp;ndash;Decodierung ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die rechte Skizze der nachfolgenden Grafik verdeutlicht nochmals die Aufgabenstellung, wobei hier das Kanalmodell &amp;amp;bdquo;$m$&amp;amp;ndash;BSC&amp;amp;rdquo; durch den additiven '''Fehlervektor'''  $\underline{e} = \underline{y} - \underline{c}$ ersetzt ist. Die linke Skizze verdeutlicht den Zusammenhang zwischen diesen drei Vektoren.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2546 KC T 2 5 S2 v2.png|center|frame|Zur Definition des Fehlervektors $\underline{e}$|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Diese Aufgabenstellung soll durch ein Beispiel verdeutlicht werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2547 KC T 2 5 Darstellung v1.png|right|frame|Drei Darstellungsformen für $\rm GF(2^3)$]] &lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp;  &lt;br /&gt;
Alle nachfolgend genannten Symbole sind Elemente von $\rm GF(2^3) \in  \{0, 1, \alpha^1, \alpha^2, \alpha^3, \alpha^4, \alpha^5, \alpha^6\}$. Zur Umrechnung zwischen der Koeffizientendarstellung (mit der Reihenfolge $k_2$, $k_1$, $k_0$) und der Exponentendarstellung (als Potenzen des primitiven Elements$\alpha$) kann die nebenstehende Tabelle verwendet werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Codewort und Empfangswort lauten in diesem Beispiel in Koeffizientendarstellung:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{c} = \Big ( (010), (001), (100),(010),(100),(111),(111)\Big )\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{y} =\Big ( (011), (001), (000),(010),(100),(111),(111)\Big )\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit ergibt sich für den Fehlervektor $\underline{e} = \underline{y} - \underline{c}$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{e} \hspace{0.05cm} = \hspace{0.05cm} \Big ( (001), (000), (100), (000),(000),(000),(000)\Big )\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Umgewandelt in die Exponentendarstellung erhält man:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{c} = \Big ( \alpha^1, \hspace{0.09cm}1\hspace{0.09cm}, \alpha^2,\alpha^1,\alpha^2,\alpha^5,\alpha^5\Big )\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{y} =\Big ( \alpha^3, \hspace{0.09cm}1\hspace{0.09cm}, \hspace{0.09cm}0\hspace{0.09cm},\alpha^1,\alpha^2,\alpha^5,\alpha^5\Big )\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{e} = \Big ( \hspace{0.09cm}1\hspace{0.09cm}, \hspace{0.09cm}0\hspace{0.09cm}, \hspace{0.05cm}\alpha^2,\hspace{0.12cm}0\hspace{0.12cm},\hspace{0.12cm}0\hspace{0.12cm},\hspace{0.12cm}0\hspace{0.12cm},\hspace{0.12cm}0\hspace{0.12cm}\Big )\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Aufgabe des Codewortschätzers (CWS) ist es, das zu $\underline{y}$ wahrscheinlichste Codewort $\underline{c}_i$ zu finden und sein Ergebnis $\underline{z} = \underline{c}_i$ an das nachfolgende Mapping weiterzugeben. Es gibt verschiedene Möglichkeiten:&lt;br /&gt;
*&amp;lt;i&amp;gt;Hard Decision Maximum Likelihood Decoding&amp;lt;/i&amp;gt; (HD&amp;amp;ndash;MLD),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*&amp;lt;i&amp;gt;Bounded Distance Decoding&amp;lt;/i&amp;gt; (BDD),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Decodierung über die halbe Mindestdistanz.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Diese Decodierprinzipien werden im Folgenden beschrieben.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Hard Decision Maximum Likelihood Decoding (HD&amp;amp;ndash;MLD):&amp;lt;/b&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Man wählt von allen möglichen Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codeworten $\underline{c}_i$ (hiervon gibt es insgesamt$q^k$) dasjenige mit der geringsten [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung| Hamming&amp;amp;ndash;Distanz]] zum Empfangswort $\underline{y}$ aus. Somit lautet das Ergebnis:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \min_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}_{\rm RS}} \hspace{0.1cm}&lt;br /&gt;
d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{c}_{\hspace{0.03cm}i})\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Entscheidung passiert hier auf der maximalen Rückschlusswahrscheinlichkeit ${\rm Pr}(\underline{c}_i\hspace{0.05cm}|\hspace{0.05cm}\underline{y})$ und führt zum bestmöglichen Ergebnis. Näheres siehe [[Kanalcodierung/Klassifizierung_von_Signalen#ML.E2.80.93Entscheidung_beim_BSC.E2.80.93Kanal| ML&amp;amp;ndash;Entscheidung beim BSC&amp;amp;ndash;Kanal]]. Es wird stets entschieden, selbst wenn die Anzahl  $r$ der Symbolfehler größer ist als die Korrekturfähigkeit $t$ des Codes. In einem solchen Fall ist allerdings das Decodierergebnis sehr unsicher.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Es sei nochmals erwähnt, dass bei Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Decodierung immer entschieden wird. &lt;br /&gt;
*Ein Decodierversagen ist ausgeschlossen. &lt;br /&gt;
*Aber natürlich gibt es auch falsche Entscheidungen.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Bounded Distance Decoding (BDD):&amp;lt;/b&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Falls die Anzahl $r$ der Symbolfehler im Empfangswort $\underline{y}$ nicht größer ist als die Korrekturfähigkeit $t = &amp;amp;lfloor;(d_{\rm min}- 1)/2&amp;amp;rfloor;$ des Codes, kann man die $r$ Symbolfehler vollständig korrigieren. Allerdings gilt auch:&lt;br /&gt;
*Der Fall $r &amp;gt; t$ führt zu einem Abbruch des Decodiervorgangs ohne Ergebnis. &lt;br /&gt;
*Anders ausgedrückt: Es werden nur diejenigen Empfangsworte zum Kugelmittelpunkt decodiert, die in einer Kugel um diesen mit Radius $t$ liegen. &lt;br /&gt;
*Andere werden als undecodierbar markiert, zum Beispiel als &amp;lt;i&amp;gt;Erasure&amp;lt;/i&amp;gt;.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;b&amp;gt;Decodierung über die halbe Mindestdistanz&amp;lt;/b&amp;gt;:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hier wird auch im Fall $r &amp;gt; t$ versucht, das Codewort zu decodieren. Im Gegensatz zu HD&amp;amp;ndash;MLD, das ebenfalls über die halbe Mindestdistanz hinaus decodiert, ist hier aber ein Decodierversagen nicht per se ausgeschlossen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für den Rest dieses Kapitels beschäftigen wir uns ausschließlich mit &amp;lt;i&amp;gt;Bounded Distance Decoding&amp;lt;/i&amp;gt;. Der Grund hierfür ist die enorme Komplexität der &amp;lt;i&amp;gt;Maximum Likelihood Detection&amp;lt;/i&amp;gt; proportional zu $q^{n-k}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Vorgehensweise beim „Bounded Distance Decoding” ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Im Folgenden werden die einzelnen Schritte des BDD&amp;amp;ndash;Algorithmuses kurz und rezeptartig beschrieben. Auf den nächsten Seiten werden dann die einzelnen Punkte genauer behandelt und die Vorgehensweise an typischen Beispielen verdeutlicht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''(A)'''&amp;amp;nbsp; '''Berechnung und Auswertung des Syndroms''' &amp;amp;nbsp; &amp;amp;nbsp; [[Kanalcodierung/Fehlerkorrektur_nach_Reed–Solomon–Codierung#Schritt_.28A.29:_Auswertung_des_Syndroms_beim_BDD|Detaillierte Beschreibung]]&lt;br /&gt;
*Berechne aus dem Empfangswort $\underline{y}$ und der Prüfmatrix $\boldsymbol{\rm H }$ des Codes das Syndrom $\underline {s} = \underline {y}  \cdot  \boldsymbol{\rm H }^{\rm T}$. &lt;br /&gt;
*Ergibt sich $\underline {s} =\underline {0}$, so setze den BDD&amp;amp;ndash;Ausgang $\underline {z} =\underline {y}$ und beende den Decodiervorgang für dieses Empfangswort.&amp;lt;br&amp;gt;&lt;br /&gt;
*Andernfalls setze den Parameter $r = 1$ und mache mit Schritt '''(B)''' weiter.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''(B)'''&amp;amp;nbsp; '''Bestimmung der tatsächlichen Symbolfehleranzahl &amp;lt;i&amp;gt;r&amp;lt;/i&amp;gt;'''&amp;amp;nbsp; &amp;amp;nbsp; [[Kanalcodierung/Fehlerkorrektur_nach_Reed–Solomon–Codierung#Schritt_.28B.29:_Aufstellen.2FAuswerten_des_ELP.E2.80.93Koeffizientenvektors|Detaillierte Beschreibung]]&lt;br /&gt;
*Erstelle und überprüfe die Gleichungen $\underline {\it \Lambda} _l \cdot\underline {s}^{\rm T} = 0$ für $l = 1,$ ... , $2 \cdot t -r$ unter der Annahme, dass das Empfangswort genau $r$ Symbolfehler beinhaltet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*$\underline {\it \Lambda} _l $ bezeichnet die verallgemeinerten ELP&amp;amp;ndash;Koeffizientenvektoren, wobei &amp;amp;bdquo;ELP&amp;amp;rdquo; für [[Kanalcodierung/Fehlerkorrektur_nach_Reed–Solomon–Codierung#Error_Locator_Polynom_.E2.80.93_Definition_und_Eigenschaften|Error Locator Polynom]] steht, und $t$ die Korrekturfähigkeit des Codes. Für die Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes gilt einheitlich $t = &amp;amp;lfloor;(n-k)/2 &amp;amp;rfloor;$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Gibt es eine eindeutige Lösung, dann mache mit Schritt '''(C)''' weiter. Im Empfangsvektor $\underline{y}$ sind dann tatsächlich genau $r$ Symbole verfälscht und im Fehlervektor $\underline{e}$ gibt es $r$ Einträge ungleich $0$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Andernfalls erhöhe $r$ um $1$. Falls $r &amp;amp;#8804; t$, dann wiederhole Schritt '''(B)''' von Beginn an: Das bisher angenommene $r$ war offensichtlich zu klein. Deshalb nun ein neuer Versuch mit größerem $r$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ist das neue $r$ größer als die Korrekturfähigkeit $t$ des Codes, so kann das aktuelle Empfangswort nicht decodiert werden. Beende den Decodierversuch mit einer ''Fehlermeldung''.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''(C)'''&amp;amp;nbsp; '''Lokalisierung der &amp;lt;i&amp;gt;r&amp;lt;/i&amp;gt;&amp;amp;nbsp; Fehlerpositionen'''&amp;amp;nbsp; &amp;amp;nbsp; [[Kanalcodierung/Fehlerkorrektur_nach_Reed–Solomon–Codierung#Schritt_.28C.29:_Lokalisierung_der_Fehlerstellen|Detaillierte Beschreibung]]&lt;br /&gt;
*Erstelle das &amp;lt;i&amp;gt;Error Locator Polynom&amp;lt;/i&amp;gt; ${\it \Lambda}(x)$ und finde dessen $r$ Nullstellen in ${\rm GF}(q) \hspace{-0.05cm}\setminus \hspace{-0.05cm} \{0\}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ein Fehler an der Stelle $i$ liegt immer dann vor, wenn ${\it \Lambda}(\alphaî) = 0$ ist.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''(D)'''&amp;amp;nbsp; '''Bestimmung der &amp;lt;i&amp;gt;r&amp;lt;/i&amp;gt;&amp;amp;nbsp;  Fehlerwerte und Korrektur'''&amp;amp;nbsp; &amp;amp;nbsp; [[Kanalcodierung/Fehlerkorrektur_nach_Reed–Solomon–Codierung#Schritt_.28D.29:_Abschlie.C3.9Fende_Fehlerkorrektur|Detaillierte Beschreibung]]&lt;br /&gt;
*Bekannt sind nun die $r$ Fehlerstellen. Ersetzt man im Empfangsvektor $\underline{y}$ die falschen Symbole durch Auslöschungen &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $y_i = \rm E$, falls $e_i &amp;amp;ne; 0$, so findet man das Ergebnis $\underline{y}$ entsprechend dem Kapitel [[Kanalcodierung/Reed–Solomon–Decodierung_beim_Auslöschungskanal|Reed–Solomon–Decodierung beim Auslöschungskanal]].&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Eine Alternative: Aus der Gleichung $\underline {e}  \cdot  \boldsymbol{\rm H }^{\rm T}  \underline {s}$kommt man unter Ausnutzung der fehlerfreien Stellen $(e_i = 0)$ zu einem linearen Gleichungssystem für die fehlerhaften Symbole $(e_i \ne 0)$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Schritt (A): Auswertung des Syndroms beim BDD ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wie im Abschnitt [[Kanalcodierung/Decodierung_linearer_Blockcodes#Prinzip_der_Syndromdecodierung|Prinzip der Syndromdecodierung]] gezeigt, kann zur Decodierung eines linearen Codes das Syndrom  $\underline{s}$ herangezogen werden. Mit dem Empfangswort $\underline{y}$ gleich Codewort $\underline{c}$  plus Fehlervektor $\underline{e}$ gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {s} = \underline {y}  \cdot { \boldsymbol{\rm H }}^{\rm T}= &lt;br /&gt;
\underline {c}  \cdot { \boldsymbol{\rm H }}^{\rm T}+&lt;br /&gt;
\underline {e}  \cdot { \boldsymbol{\rm H }}^{\rm T}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Da stets $\underline {c}  \cdot { \boldsymbol{\rm H }}^{\rm T} =\underline {0}$ gilt, folgt aus $\underline{s}= \underline{0}$ auch $\underline {e}  \cdot { \boldsymbol{\rm H }}^{\rm T} =\underline {0}$. Das heißt:&lt;br /&gt;
*Mit sehr großer Wahrscheinlichkeit kann aus $\underline{s}= \underline{0}$ auch auf $\underline{e}= \underline{0}$und damit auch auf das richtige Decodierergebnis $\underline{z}= \underline{y}$ geschlossen werden. Der Decodiervorgang wäre damit abgeschlossen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Es gibt aber auch Fehlermuster $\underline{e} \ne \underline{0}$, die zum Syndrom $\underline{s}= \underline{0}$ führen. Solche Muster beinhalten sicher mehr als $t$ Symbolfehler, so dass auch hier der Abbruch des Decodiervorgangs sinnvoll ist. Alle nachfolgenden Berechnungen würden auch nicht zum Erfolg führen.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2548 KC T 2 5 Darstellung v1.png|right|frame||Drei Darstellunsformen für $\rm GF(2^3)$]] &lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp;   &lt;br /&gt;
Diesem und den folgenden Beispielen auf den nächsten Seiten liegt stets der Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code '''RS (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt;''' zugrunde, so dass die in der Grafik angegebenen Umrechnungen in $\rm GF(2^3)$ genutzt werden können. Das Empfangswort lautet:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{y}=\big (\alpha^3,\hspace{0.05cm} 1,\hspace{0.05cm} 0, \hspace{0.05cm}\alpha^1, \hspace{0.05cm} \alpha^2, \hspace{0.05cm} \alpha^5, \hspace{0.05cm} \alpha^5 \big).&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Mit der [[Kanalcodierung/Definition_und_Eigenschaften_von_Reed%E2%80%93Solomon%E2%80%93Codes#Generatormatrix_und_Pr.C3.BCfmatrix_.282.29| Prüfmatrix]] $\boldsymbol{\rm H }$ ergibt sich für das Syndrom:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {s} = \underline {y}  \cdot { \boldsymbol{\rm H } }^{\rm T}= &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		\alpha^3, \hspace{0.05cm}1, \hspace{0.05cm}0, \hspace{0.05cm}\alpha^1, \hspace{0.05cm}\alpha^2, \hspace{0.05cm}\alpha^5, \hspace{0.05cm}\alpha^5&lt;br /&gt;
\end{pmatrix}\cdot&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
						1        &amp;amp; 1        &amp;amp; 1        &amp;amp; 1        \\&lt;br /&gt;
						\alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4 \\&lt;br /&gt;
						\alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1 \\&lt;br /&gt;
						\alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^2 &amp;amp; \alpha^5 \\&lt;br /&gt;
						\alpha^4 &amp;amp; \alpha^1 &amp;amp; \alpha^5 &amp;amp; \alpha^2 \\&lt;br /&gt;
						\alpha^5 &amp;amp; \alpha^3 &amp;amp; \alpha^1 &amp;amp; \alpha^6 \\&lt;br /&gt;
						\alpha^6 &amp;amp; \alpha^5 &amp;amp; \alpha^4 &amp;amp; \alpha^3&lt;br /&gt;
					\end{pmatrix}  &amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow  \hspace{0.3cm} \underline {s} = (\alpha^3 , \alpha^3 , \alpha^3 , \alpha^3) + (\alpha^1 , \alpha^2 , \alpha^3 , \alpha^4) + (0,0,0,0) + (\alpha^4,1,\alpha^3,\alpha^6)+(\alpha^6,\alpha^3,1,\alpha^4)+(\alpha^3,\alpha^1,\alpha^6,\alpha^4) + (\alpha^4,\alpha^3,\alpha^2,\alpha^1)&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow  \hspace{0.3cm} \underline {s} =  \text{...} \hspace{0.05cm}=&lt;br /&gt;
					(\alpha^5,\alpha^2,\alpha^3,\alpha^1)  \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Empfangswort wurde also verfälscht. Andernfalls hätte sich $\underline{e}= \underline{0} = (0, 0, 0, 0)$ ergeben müssen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Beschreibung des Decodiervorgangs beim RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt; wird im [[Kanalcodierung/Fehlerkorrektur_nach_Reed–Solomon–Codierung#Schritt_.28B.29:_Aufstellen.2FAuswerten_des_ELP.E2.80.93Koeffizientenvektors|Koeffizientenvektors|Beispiel 4]] fortgesetzt.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Error Locator Polynom – Definition und Eigenschaften ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Nach der Syndromberechnung im Schritt '''(A)''' mit dem Ergebnis $\underline{s} \ne \underline{0}$ wissen wir,&lt;br /&gt;
*dass das Empfangswort $\underline{y}$ nicht mit dem Codewort $\underline{c}$ übereinstimmt, bzw.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*dass der Fehlervektor $\underline{e}  = (e_0, \hspace{0.05cm}e_1, \hspace{0.05cm}\text{ ...}\hspace{0.05cm} , e_{n-1})$ mit Sicherheit auch Elemente ungleich $0$ beinhaltet.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wir wissen allerdings nicht, wie viele Symbole verfälscht wurden$ (0 &amp;lt; r &amp;amp;#8804; n)$ und wir können auch nicht die Positionen der Fehlerstellen $(e_i &amp;amp;ne; 0)$ im Fehlervektor $\underline{c}$ benennen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Einen Lösungsansatz für diese Aufgabe bietet das &amp;lt;i&amp;gt;Error Locator Polynom&amp;lt;/i&amp;gt;, das von [https://de.wikipedia.org/wiki/W._Wesley_Peterson William Wesley] Peterson eingeführt wurde. Siehe [Pet60]&amp;lt;ref name =''Pet60&amp;gt;Peterson, W.W: ''Encoding and Error-correction Procedures for the Bose-Chaudhuri codes.'' IRE Transactions on Information Theory , IT-6:459{470), 1960.&amp;lt;/ref&amp;gt;. Im Deutschen ist hierfür auch der Begriff &amp;lt;i&amp;gt;Schlüsselgleichung&amp;lt;/i&amp;gt; üblich.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;Es sei bekannt, dass genau $r$ Elemente des Fehlervektors $\underline{e}$ ungleich Null sind, erkennbar am [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung|Hamming&amp;amp;ndash;Gewicht]] $w_{\rm H}\underline{e} = r$ . Ebenfalls bekannt sei die Menge ${I}_{\rm FP}$ der Fehlerpositionen:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;I_{\rm FP} = \{ i \hspace{0.1cm}\vert \hspace{0.1cm} e_i \ne 0,\hspace{0.1cm} 0 \le i &amp;lt; n \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dann gilt für das '''Error Locator Polynom''' (ELP):&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\it \Lambda}(x)=x \cdot \prod_{i\hspace{0.05cm}\in \hspace{0.05cm} I_{\rm FP} }(x-\alpha^i) =x \cdot \big [{\it \lambda}_0 + \lambda_1 \cdot x+\ldots+{\it \lambda}_{r-1} \cdot x^{r-1}+x^r \big ].&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Vom &amp;lt;i&amp;gt;Error Locator Polynom&amp;lt;/i&amp;gt; wissen wir aufgrund der Definition:&lt;br /&gt;
*Wegen des Faktors $x$ vor dem Produktzeichen ist ${\it \Lambda}(x= 0) = 0$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Weitere $r$ Nullstellen ergeben sich für $x =  \alpha^{i}$ mit $i \in I_{\rm FP}$, das heißt, für alle Fehlerpositionen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Dagegen ergibt das &amp;lt;i&amp;gt;Error Locator Polynom&amp;lt;/i&amp;gt; für $i &amp;amp;#8713; I_{\rm FP}$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $e_i = 0$ keine Nullstelle: &amp;amp;nbsp; ${\it \Lambda}(x= \alpha^{i}) \ne0$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wir suchen also die $r$ nichttrivialen Nullstellen von ${\it \Lambda}(x)$ mit dem Argument $x &amp;amp;#8712; {\rm GF}(q) \hspace{-0.05cm}\setminus \hspace{-0.05cm} \{0\}$. Gelingt uns dies, so kennen wir die $r$ Fehlerpositionen, jedoch noch nicht die tatsächlichen Fehlerwerte $e_i &amp;amp;#8712; {\rm GF}(q)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2549 KC T 2 5 Darstellung v1.png|right|frame||Drei Darstellunsformen für ${\rm GF}(2^3)$]] &lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; &lt;br /&gt;
Es gelte $n=7$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $q=8$, $r=2$ und $I_{\rm FP}  = \{2, \hspace{0.05cm}4\}$:  &amp;amp;nbsp;[[File:P ID2551 KC T 2 5 S5a.png]]&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit erhält man für das &amp;lt;i&amp;gt;Error Locator Poynom&amp;lt;/i&amp;gt; aus ${\rm GF}(2^3)$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\it \Lambda}(x)=x \cdot (x\hspace{-0.05cm}-\hspace{-0.05cm}\alpha^2) \cdot (x\hspace{-0.05cm}-\hspace{-0.05cm}\alpha^4)=  x \cdot (x\hspace{-0.05cm}+\hspace{-0.05cm}\alpha^2) \cdot (x\hspace{-0.05cm}+\hspace{-0.05cm}\alpha^4) =x \cdot \big [x^2 \hspace{-0.05cm}+ \hspace{-0.05cm}(\alpha^2 + \alpha^4) \cdot x + \alpha^6\big ] &amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow	\hspace{0.3cm}  {\it \Lambda}(x)= x \cdot \big [\alpha^6 + \alpha \cdot x + x^2\big ]\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die beiden Nullstellen (außer bei $x = 0$) ergeben sich hier natürlich für $x = \alpha^2$  und $x = \alpha^4$, wie die folgende Kontrollrechnung zeigt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\it \Lambda}(x = \alpha^2)= x \cdot \big [\alpha^6 + \alpha \cdot \alpha^2 + (\alpha^2)^2\big ] = x \cdot \big [\alpha^6 + \alpha^3 + \alpha^4  \big ]= 0\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;	 {\it \Lambda}(x = \alpha^4)= x \cdot \big [\alpha^6 + \alpha \cdot \alpha^4 + (\alpha^4)^2\big ] =x \cdot \big [\alpha^6 + \alpha^5 + \alpha \big ]= 0\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Für die weitere Herleitung gehen wir stets vom &amp;lt;b&amp;gt;RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt;&amp;lt;/b&amp;gt; mit den folgenden Parameterwerten aus: &lt;br /&gt;
&lt;br /&gt;
:$$n=7, \hspace{0.3cm}k = 3, \hspace{0.3cm}d_{\rm min} = 5 \ \Rightarrow   t = (d_{\rm min} -1/2) = 2.$$&lt;br /&gt;
&lt;br /&gt;
Die Anzahl der Symbolfehler sei $r = t = 2$. Damit lautet das zu lösende Gleichungssystem mit den Hilfsgrößen $L_i = {\it \Lambda}(\alpha^{i})$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;L_0 = {\it \Lambda }(\alpha^0) = \alpha^0 \cdot \left [ {\it \lambda}_0 + {\it \lambda}_1 \cdot (\alpha^0)^1 + (\alpha^0)^2 \right ] = {\it \lambda}_0  \cdot 1 + {\it \lambda}_1 \cdot   1 + 1 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;L_1 = {\it \Lambda }(\alpha^1) =\alpha^1 \cdot \left [ {\it \lambda}_0 + {\it \lambda}_1 \cdot (\alpha^1)^1 + (\alpha^1)^2 \right ] = {\it \lambda}_0 \cdot \alpha^1+ {\it \lambda}_1 \cdot \alpha^2 + \alpha^3 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
:::::::::&amp;lt;math&amp;gt;...&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; L_6 = {\it \Lambda }(\alpha^6) = \alpha^6 \cdot \left [ {\it \lambda}_0 + {\it \lambda}_1 \cdot (\alpha^6)^1 + (\alpha^6)^2 \right ] = {\it \lambda}_0 \cdot \alpha^6 + {\it \lambda}_1 \cdot \alpha^{12} + \alpha^{18} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In Vektorform lautet dieses Gleichungssystem mit dem Hilfsvektor $\underline{L} = (L_0, \hspace{0.05cm}L_1, \hspace{0.05cm}L_2,\hspace{0.05cm}L_3,\hspace{0.05cm}L_4,\hspace{0.05cm}L_5,\hspace{0.05cm}L_6)$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {L}^{\rm T}=\begin{pmatrix}&lt;br /&gt;
		L_0\\&lt;br /&gt;
		L_1\\&lt;br /&gt;
		L_2\\&lt;br /&gt;
		L_3\\&lt;br /&gt;
		L_4\\&lt;br /&gt;
		L_5\\&lt;br /&gt;
		L_6&lt;br /&gt;
\end{pmatrix}&lt;br /&gt;
\hspace{0.15cm} = \hspace{0.15cm}&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1  \\&lt;br /&gt;
		\alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 \\&lt;br /&gt;
		\alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 \\&lt;br /&gt;
		\alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^9 \\&lt;br /&gt;
		\alpha^4 &amp;amp; \alpha^8 &amp;amp; \alpha^{12}\\&lt;br /&gt;
		\alpha^5 &amp;amp; \alpha^{10} &amp;amp; \alpha^{15}\\&lt;br /&gt;
		\alpha^6 &amp;amp; \alpha^{12} &amp;amp; \alpha^{18} &lt;br /&gt;
\end{pmatrix}  \hspace{0.15cm}\cdot \hspace{0.15cm}&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		{\lambda}_0\\&lt;br /&gt;
		{\lambda}_1\\&lt;br /&gt;
		1 &lt;br /&gt;
\end{pmatrix} 		&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wir erweitern nun den ELP&amp;amp;ndash;Koeffizientenvektor $\underline {\it \Lambda }$ durch Anhängen von Nullen auf die Länge $n-k$. Im betrachteten Beispiel erhält man somit ${\it \Lambda } = ( \lambda_0,\hspace{0.05cm}\lambda_1,\hspace{0.05cm}1, \hspace{0.05cm}0)$ und folgende Vektorgleichung:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {L}^{\rm T}&lt;br /&gt;
\hspace{0.15cm} = \hspace{0.15cm}&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 \\&lt;br /&gt;
		\alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4\\&lt;br /&gt;
		\alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^8\\&lt;br /&gt;
		\alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^9 &amp;amp; \alpha^{12}\\&lt;br /&gt;
		\alpha^4 &amp;amp; \alpha^8 &amp;amp; \alpha^{12} &amp;amp; \alpha^{16}\\&lt;br /&gt;
		\alpha^5 &amp;amp; \alpha^{10} &amp;amp; \alpha^{15} &amp;amp; \alpha^{20}\\&lt;br /&gt;
		\alpha^6 &amp;amp; \alpha^{12} &amp;amp; \alpha^{18} &amp;amp; \alpha^{24}&lt;br /&gt;
\end{pmatrix}  \hspace{0.15cm}\cdot \hspace{0.15cm}&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		{\lambda}_0\\&lt;br /&gt;
		{\lambda}_1\\&lt;br /&gt;
		1\\&lt;br /&gt;
		0 &lt;br /&gt;
\end{pmatrix} 		&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit haben wir erreicht:&lt;br /&gt;
*Aus der $7&amp;amp;times 3$&amp;amp;ndash;Matrix wurde nun eine $7&amp;amp;times 4$&amp;amp;ndash;Matrix. &lt;br /&gt;
*Die vierte Spalte kann eigentlich beliebig gefüllt werden, da alle Elemente mit Nullen multipliziert werden. &lt;br /&gt;
*Durch die hier gewählte Ergänzung erhält man die transponierte [[Kanalcodierung/Definition_und_Eigenschaften_von_Reed%E2%80%93Solomon%E2%80%93Codes#Generatormatrix_und_Pr.C3.BCfmatrix_.282.29| Prüfmatrix]] des RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt;.&lt;br /&gt;
* Somit kann man für die letzte Vektorgleichung schreiben:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {L}^{\rm T} = { \boldsymbol{\rm H }}^{\rm T} \cdot \underline {\it \Lambda }^{\rm T}&lt;br /&gt;
 \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}\underline {L} =	\underline {\it \Lambda } \cdot { \boldsymbol{\rm H }}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Da aber für die Fehlerstellen $(e_i &amp;amp;ne; 0)$ stets $L_i = {\it \Lambda}(\alpha^{i}) = 0$ gilt, ist das Produkt $L_i \cdot e_i \equiv 0$  und man erhält als Bestimmungsgleichung für die Nullstellen des &amp;lt;i&amp;gt;Error Locator Polynoms&amp;lt;/i&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {L}^{\rm T}  \cdot \underline {e}^{\rm T} = 0  \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}&lt;br /&gt;
\underline {\it \Lambda } \cdot { \boldsymbol{\rm H }} \cdot \underline {e}^{\rm T} = 0 \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}&lt;br /&gt;
\underline {\it \Lambda }  \cdot \underline {s}^{\rm T} = 0 &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Wichtiges Zwischenergebnis:}$&amp;amp;nbsp; &lt;br /&gt;
&lt;br /&gt;
Die ''nichttrivialen Nullstellen'' (ungleich 0) $\lambda_0$, $\lambda_1$,  ... des ''Error Locator Polynoms'' ${\it \Lambda}(x)$ müssen stets der Vektorgleichung  $\underline {\it \Lambda }  \cdot \underline {s}^{\rm T} = 0 $ genügen.&lt;br /&gt;
*Hierbei bezeichnet  $\underline {\it \Lambda }$ den ''ELP&amp;amp;ndash;Koeffizientenvektor'', und&lt;br /&gt;
* $\underline {s }  = \underline {y }\cdot  \boldsymbol{\rm H }^{\rm T} $ gibt das [[Kanalcodierung/Fehlerkorrektur_nach_Reed%E2%80%93Solomon%E2%80%93Codierung#Schritt_.28A.29:_Auswertung_des_Syndroms_beim_BDD| Syndrom]] an.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Schritt (B): Aufstellen/Auswerten des ELP–Koeffizientenvektors ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Bevor wir dieses Zwischenergebnis  für den Schritt '''(B)''' berücksichtigen können, müssen noch einige Verallgemeinerungen vorgenommen werden. Der Grund hierfür ist:&lt;br /&gt;
*Die Gleichung $\underline {\it \Lambda }  \cdot \underline {s}^{\rm T} = 0 $ liefert nur eine einzige Bestimmungsgleichung. Damit kann das Problem für $r = 1$ gelöst werden, wenn man sicher ist, dass tatsächlich nur ein Symbol verfälscht wurde.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ist man sich dessen nicht sicher, führt aber die Berechnung trotzdem für $r = 1$ durch, so  braucht man noch eine zweite Gleichung (oder auch mehrere), um die Annahme zu verifizieren.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Eigenschaft des [[Kanalcodierung/Fehlerkorrektur_nach_Reed–Solomon–Codierung#Error_Locator_Polynom_.E2.80.93_Definition_und_Eigenschaften|''Error Locator Polynoms'']], dass ${\it \Lambda}(\alpha^{i})$ nur für $e_i &amp;amp;ne; 0$ ($i$&amp;amp;ndash;tes Symbol verfälscht) gleich Null ist, bleibt erhalten, wenn man ${\it \Lambda}(x)$mit beliebigen Potenzen von $x$ multipliziert. Jede Multiplikation mit $x$ bedeutet für den ELP&amp;amp;ndash;Koeffizientenvektor eine Verschiebung um eine Stelle nach rechts.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2550 KC T 2 5 S3 v1.png|center|frame|Verschobene ELP–Koeffizientenvektoren|class=fit]]&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; &lt;br /&gt;
Die '''verallgemeinerten ELP&amp;amp;ndash;Koeffizientenvektoren''' $\underline {\it \Lambda }_l$ ergeben sich durch sukzessive Verschiebungen gegenüber $\underline {\it \Lambda }_l$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\it \Lambda}_l(x)=x^l \cdot \prod_{i\hspace{0.05cm}\in \hspace{0.05cm} I_{\rm FP} }(x-\alpha^i) =x^l \cdot \big [{\it \lambda}_0 + \lambda_1 \cdot x+\ldots+{\it \lambda}_{r-1} \cdot x^{r-1}+x^r \big ]\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In dieser Definitionsgleichung  entspricht $\underline {\it \Lambda }_1$ dem bisherigen $\underline {\it \Lambda }$.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt die Belegung unter der Annahme von $r$ Fehlerstellen im Fehlervektor$\underline {e}$ für&lt;br /&gt;
*$r=1$ im linken Bereich (mit blauer Hinterlegung),&lt;br /&gt;
*$r=2$ im mittleren Bereich (mit roter Hinterlegung),&lt;br /&gt;
*$r=3$ im rechten Bereich (mit grüner Hinterlegung),&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Man erkennt:&lt;br /&gt;
*Die Länge aller $\underline {\it \Lambda }_l$ ist stets $n-k$. Jeder Vektor beinhaltet jeweils $r$ Koeffizienten $\lambda_0$, $\lambda_1$, ... , $\lambda_{r-1}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; $0 &amp;amp;#8804; i &amp;lt; r$  und eine Eins. Der Rest eines jeden Vektors ist mit Nullen aufgefüllt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Für jedes $r$ gibt es genau $n-k-r$ Koeffizientenvektoren $\underline {\it \Lambda }_l$, wobei sich $\underline {\it \Lambda }_l$ aus $\underline {\it \Lambda }_{l-1}$ stets durch Rechtsverschiebung um eine Position ergibt. Der Vektor $\underline {\it \Lambda }_{n-k-r}$ endet immer mit einer $1$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Das Gleichungssystem  $\underline {\it \Lambda }_l  \cdot \underline {s}^{\rm T} = 0 $ führt deshalb zu $n-k-r$ Gleichungen. Der gewählte Ansatz für $r$ ist nur dann richtig, wenn alle Gleichungen zu den gleichen Ergebnissen für $\lambda_0$,  ... , $\lambda_{r-1}$ führen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ist dies nicht der Fall, so muss man $r$ erhöhen und damit ein neues Gleichungssystem bearbeiten, und zwar solange, bis sich aus allen Gleichungen für das aktuelle $r$ eine eindeutige Lösung ergibt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ist schließlich $r$ größer als die Korrekturfähigkeit $t$ des Codes, so kann die Berechnung beendet werden. Das anstehende Empfangswort $\underline {y}$ ist dann nicht decodierbar.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Es gelten weiterhin die im [[Kanalcodierung/Fehlerkorrektur_nach_Reed%E2%80%93Solomon%E2%80%93Codierung#Schritt_.28A.29:_Auswertung_des_Syndroms_beim_BDD| Beispiel 2]] genannten Voraussetzungen: &lt;br /&gt;
*Dort wurde aufgrund des Syndroms $\underline {s} = (\alpha^5,\alpha^2,\alpha^3,\alpha^1)  &amp;amp;ne; \underline {0}$ auch nachgewiesen, dass der Empfangsvektor $\underline {y}$ verfälscht wurde &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp;  Fehlervektor $\underline {e} \ne \underline {0}$. &lt;br /&gt;
*Nicht bekannt ist allerdings die tatsächliche Symbolfehleranzahl $r$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Unter der Annahme eines einzigen falschen Symbols $(r= 1)$ erhält man folgendes Gleichungssystem (hier in Matrixform geschrieben):&lt;br /&gt;
[[File:P ID2556 KC T 2 5 Darstellung v1.png|right|frame|Drei Darstellunsformen für $\rm GF(2^3)$]]&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\big ({ \boldsymbol{\it \Lambda } }_l \big) \cdot \underline {s} ^{\rm T}= &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		\lambda_0 &amp;amp; 1 &amp;amp; 0 &amp;amp; 0  \\&lt;br /&gt;
		0 &amp;amp; \lambda_0 &amp;amp; 1 &amp;amp; 0  \\&lt;br /&gt;
		0 &amp;amp; 0 &amp;amp; \lambda_0 &amp;amp; 1    &lt;br /&gt;
\end{pmatrix} \cdot &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		\alpha^5\\ &lt;br /&gt;
		\alpha^2\\ &lt;br /&gt;
		\alpha^3\\&lt;br /&gt;
		\alpha &lt;br /&gt;
\end{pmatrix} \stackrel{!}{=}&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		0\\ &lt;br /&gt;
		0\\ &lt;br /&gt;
		0&lt;br /&gt;
\end{pmatrix} &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dieses Gleichungssystem liefert drei unterschiedliche Lösungen für $\lambda_0$, was nicht zielführend ist:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\text{Zeile 1:}\hspace{0.5cm}\alpha^5 \cdot \lambda_0 + \alpha^2 = 0 \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}&lt;br /&gt;
\lambda_0 = \alpha^{2-5}= \alpha^{-3}= \alpha^{4}\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\text{Zeile 2:}\hspace{0.5cm}\alpha^2 \cdot \lambda_0 + \alpha^3 = 0 \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}&lt;br /&gt;
\lambda_0 = \alpha^{3-2}=  \alpha\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\text{Zeile 3:}\hspace{0.5cm}\alpha^3 \cdot \lambda_0 + \alpha^1 = 0 \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}&lt;br /&gt;
\lambda_0 = \alpha^{1-3}=  \alpha^{-2} = \alpha^{5} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Deshalb stellen wir nun ein weiteres Gleichungssystem auf, und zwar unter der Annahme $r = 2$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\big ({ \boldsymbol{\it \Lambda } }_l \big) \cdot \underline {s} ^{\rm T}= &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		\lambda_0 &amp;amp; \lambda_1 &amp;amp; 1 &amp;amp; 0  \\&lt;br /&gt;
		0 &amp;amp; \lambda_0 &amp;amp; \lambda_1 &amp;amp; 1 &lt;br /&gt;
\end{pmatrix} \cdot &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		\alpha^5\\ &lt;br /&gt;
		\alpha^2\\ &lt;br /&gt;
		\alpha^3\\&lt;br /&gt;
		\alpha &lt;br /&gt;
\end{pmatrix} \stackrel{!}{=}&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		0\\ &lt;br /&gt;
		0&lt;br /&gt;
\end{pmatrix} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dies führt zu zwei Gleichungen für $\lambda_0$ und $\lambda_1$:&lt;br /&gt;
::&amp;lt;math&amp;gt;\alpha^5 \cdot \lambda_0 + \alpha^2 \cdot \lambda_1 + \alpha^3 = 0 \hspace{0.05cm},\hspace{0.5cm}\alpha^2 \cdot \lambda_0 + \alpha^3 \cdot \lambda_1 + \alpha^1 \hspace{-0.15cm}  =  \hspace{-0.15cm} 0 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dieses Gleichungssystem ist nun eindeutig lösbar. Man erhält $\lambda_0 = \alpha^2$ und $\lambda_1 = \alpha^6$. Das bedeutet: &lt;br /&gt;
*Die Annahme, dass tatsächlich $r = 2$ Positionen des Empfangsvektors $\underline {y}$ verfälscht wurden, ist richtig.&amp;lt;br&amp;gt;&lt;br /&gt;
*Man weiß aber noch nicht, welche Positionen verfälscht wurden. Soviel vorneweg: &lt;br /&gt;
*Es sind nicht die Symbolpositionen 2 und 6, sondern die Positionen 0 und 2, wie im folgenden Beispiel 5 gezeigt wird.}}&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Schritt (C): Lokalisierung der Fehlerstellen ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Nach Abarbeitung von Schritt '''(B)''' sind bekannt:&lt;br /&gt;
*die Anzahl $r$ der Fehlerstellen $e_i &amp;amp;ne; 0$ im Vektor $\underline {e} = (e_0, \text{... }, e_i, \text{... }, e_{n-1})$&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*die Koeffizienten $\lambda_0, \text{... } , \lambda_{r-1}$ des &amp;lt;i&amp;gt;Error Locator Polynoms&amp;lt;/i&amp;gt;.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zu bestimmen ist nun noch die Menge der Fehlerpositionen: &amp;amp;nbsp; $I_{\rm FP} = \{ i \hspace{0.1cm}| \hspace{0.1cm} e_i \ne 0,\hspace{0.1cm} 0 \le i &amp;lt; n \}\hspace{0.05cm}.$&lt;br /&gt;
&lt;br /&gt;
Hierzu gibt es zwei Möglichkeiten (beide Verfahren werden im folgenden Beispiel angewendet.):&lt;br /&gt;
*die so genannte &amp;lt;i&amp;gt;Chien&amp;amp;ndash;Suche&amp;lt;/i&amp;gt;, in dem man durch Einsetzen der möglichen Codesymbole außer dem Nullsymbol  $(\alpha^0, \text{... }, \alpha^i, \text{... },\alpha^{n-1})$ in das &amp;lt;i&amp;gt;Error Locator Polynom&amp;lt;/i&amp;gt; dessen Nullstellen ermittelt,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*die Auswertung der Gleichung $\underline {L} =	(L_0, \text{... }, L_i, \text{... },L_{n-1} ) = \underline {\it \Lambda } \cdot { \boldsymbol{\rm H }}$ mit der Abkürzung $L_i = {\it \Lambda}(\alpha^i)$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 5:}$&amp;amp;nbsp; &lt;br /&gt;
Im [[Kanalcodierung/Fehlerkorrektur_nach_Reed%E2%80%93Solomon%E2%80%93Codierung#Schritt_.28B.29:_Aufstellen.2FAuswerten_des_ELP.E2.80.93Koeffizientenvektors_.282.29| Beispiel 4]] wurde entsprechend den in [[Kanalcodierung/Fehlerkorrektur_nach_Reed%E2%80%93Solomon%E2%80%93Codierung#Schritt_.28A.29:_Auswertung_des_Syndroms_beim_BDD| Beispiel 2]] genannten Randbedingungen ermittelt, dass&lt;br /&gt;
*$r= 2$ Symbolfehler vorliegen, und &lt;br /&gt;
*die ELP&amp;amp;ndash;Koeffizienten $\lambda_0 = \alpha^2$ und $\lambda_1 = \alpha^6$ lauten. Damit ergibt sich das &amp;lt;i&amp;gt;Error Locator Polynom&amp;lt;/i&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\it \Lambda}(x)=x \cdot \big [{\it \lambda}_0 + \lambda_1 \cdot x+x^2 \big ]&lt;br /&gt;
	=x \cdot \big [\alpha^2 + \alpha^6 \cdot x+x^2 \big ]\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2557 KC T 2 5 Darstellung v1.png|right|frame|Drei Darstellunsformen für $\rm GF(2^3)$]] &lt;br /&gt;
Entsprechend der Chien&amp;amp;ndash;Suche erhält man&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\it \Lambda}(\alpha^0)\hspace{0.15cm}  =  \hspace{0.15cm}\alpha^0 \cdot \big [ \alpha^2 + \alpha^6 \cdot 1 + 1 \big ]	=  \alpha^2 + (\alpha^2 + 1) + 1 = 0 \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}{ \boldsymbol{\rm Nullstelle} }\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;{\it \Lambda}(\alpha^1)\hspace{0.15cm}  =  \hspace{0.15cm}\alpha^1 \cdot \big [\alpha^2 + \alpha^6 \cdot \alpha^1 + \alpha^2\big ]= \alpha^1 \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}{\rm Keine\hspace{0.15cm} Nullstelle}\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;{\it \Lambda}(\alpha^2)\hspace{0.15cm}  =  \hspace{0.15cm}\alpha^2 \cdot \big [ \alpha^2 + \alpha^6 \cdot \alpha^2 + \alpha^4 \big ] =\alpha^4 + \alpha^{10} + \alpha^6 = \text{...}&lt;br /&gt;
=  \hspace{0.15cm}0 &lt;br /&gt;
 \hspace{0.3cm} \Rightarrow  \hspace{0.3cm}{ \boldsymbol{\rm Nullstelle} }\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit sind die beiden Fehlerpositionen mit $i = 0$ und $i = 2$ gefunden &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; der Fehlervektor lautet: $\underline {e} =	(e_0, 0, e_2, 0, 0, 0, 0)$ .&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Vektorgleichung $\underline {L} =	 \underline {\it \Lambda } \cdot { \boldsymbol{\rm H } }$ liefert das gleiche Ergebnis in kompakterer Form:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {L} = \underline{\it \Lambda} \cdot  { \boldsymbol{\rm H } }  = (\alpha^2, \alpha^6, 1, 0) \cdot&lt;br /&gt;
				\begin{pmatrix}&lt;br /&gt;
						1 &amp;amp; \alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4 &amp;amp; \alpha^5 &amp;amp; \alpha^6 \\&lt;br /&gt;
						1 &amp;amp; \alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1 &amp;amp; \alpha^3 &amp;amp; \alpha^5 \\&lt;br /&gt;
						1 &amp;amp; \alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^3 &amp;amp; \alpha^5 &amp;amp; \alpha^1 &amp;amp; \alpha^4 \\&lt;br /&gt;
						1 &amp;amp; \alpha^4 &amp;amp; \alpha^1 &amp;amp; \alpha^5 &amp;amp; \alpha^2 &amp;amp; \alpha^6 &amp;amp; \alpha^3&lt;br /&gt;
					\end{pmatrix}		&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \Rightarrow \hspace{0.3cm} \underline {L}   =  (\alpha^2,\alpha^3,\alpha^4,\alpha^5,\alpha^6,1       ,\alpha^1)&lt;br /&gt;
				+ (\alpha^6,\alpha^1,\alpha^3,\alpha^5,1       ,\alpha^2,\alpha^4)+(1,       \alpha^3,\alpha^6,\alpha^3,\alpha^5,\alpha^1,\alpha^4) &amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \Rightarrow \hspace{0.3cm} \underline {L}   = (0,\alpha^1,0,\alpha^3,\alpha^3,\alpha^5,\alpha^1)\hspace{0.3cm} \Rightarrow  \hspace{0.3cm}&lt;br /&gt;
L_0 = L_2 = 0 \hspace{0.3cm} \Rightarrow \hspace{0.3cm} &lt;br /&gt;
\underline {e} =	(e_0, 0, e_2, 0, 0, 0, 0)\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Beispiel wird mit dem '''Beispiel 6''' auf der nächsten Seite fortgesetzt.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Schritt (D): Abschließende Fehlerkorrektur ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Im letzten Schritt müssen nun nur noch die $r$ Symbolfehler korrigiert werden, deren Positionen nach Beendigung von Schritt '''(C)''' bekannt sind:&lt;br /&gt;
*Markiert man die Fehlerpositionen im Empfangswort $\underline {y}$  als Auslöschungen $\rm E$ (&amp;lt;i&amp;gt;Erasures&amp;lt;/i&amp;gt;), so kann das zugehörige Codewort $\underline {z}$ entsprechend der Beschreibung im Kapitel [[Kanalcodierung/Reed–Solomon–Decodierung_beim_Auslöschungskanal|Reed–Solomon–Decodierung beim Auslöschungskanal]] gefunden werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Eine zweite Möglichkeit bietet die Bestimmung des Fehlervektors $\underline {e}$ aus der Gleichung $\underline {e}  \cdot  \boldsymbol{\rm H }^{\rm T} = \underline {s}$ und die Korrektur entsprechend $\underline {z} = \underline {y}  - \underline {e} $ . Dieses Verfahren liegt dem folgenden Beispiel zugrunde.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2558 KC T 2 5 Darstellung v1.png|right|frame|$\rm GF(2^3)$&amp;amp;ndash;Darstellunsformen]] &lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 6:}$&amp;amp;nbsp; Im [[Kanalcodierung/Fehlerkorrektur_nach_Reed%E2%80%93Solomon%E2%80%93Codierung#Schritt_.28A.29:_Auswertung_des_Syndroms_beim_BDD| Beispiel 2]] wurde &lt;br /&gt;
*das Empfangswort mit $\underline{y}=\big (\alpha^3,\hspace{0.05cm} 1,\hspace{0.05cm} 0, \hspace{0.05cm}\alpha^1, \hspace{0.05cm} \alpha^2, \hspace{0.05cm} \alpha^5, \hspace{0.05cm} \alpha^5 \big)$ vorgegeben, und &lt;br /&gt;
*daraus das Syndrom $\underline{s}=\big (\alpha^5,\hspace{0.05cm}\alpha^2, \hspace{0.05cm} \alpha^3, \hspace{0.05cm} \alpha^1\big)$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
ermittelt. Nach den Berechnungen im [[Kanalcodierung/Fehlerkorrektur_nach_Reed%E2%80%93Solomon%E2%80%93Codierung#Schritt_.28C.29:_Lokalisierung_der_Fehlerstellen| Beispiel 5]] lautet der Fehlervektor $\underline {e} =	(e_0, 0, e_2, 0, 0, 0, 0)$. &amp;lt;br&amp;gt;Diese Angaben gelten für den '''RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt;'''.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aus $\underline {e}  \cdot  \boldsymbol{\rm H }^{\rm T} = \underline {s}$ erhält man nun folgende Bestimmungsgleichungen für die Fehlerwerte $e_0$ und $e_2$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {e}  \cdot \boldsymbol{\rm H }^{\rm T}= \begin{pmatrix}&lt;br /&gt;
		e_0 &amp;amp; 0 &amp;amp; e_2 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0&lt;br /&gt;
\end{pmatrix}\cdot&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 \\&lt;br /&gt;
		\alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4\\&lt;br /&gt;
		\alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1\\&lt;br /&gt;
		\alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^2 &amp;amp; \alpha^{5}\\&lt;br /&gt;
		\alpha^4 &amp;amp; \alpha^1 &amp;amp; \alpha^{5} &amp;amp; \alpha^{2}\\&lt;br /&gt;
		\alpha^5 &amp;amp; \alpha^{3} &amp;amp; \alpha^{1} &amp;amp; \alpha^{6}\\&lt;br /&gt;
		\alpha^6 &amp;amp; \alpha^{5} &amp;amp; \alpha^{4} &amp;amp; \alpha^{3}&lt;br /&gt;
\end{pmatrix} \stackrel{!}{=} \underline {s} = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		\alpha^5 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^1 &lt;br /&gt;
\end{pmatrix}  &amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow  \hspace{0.3cm}e_0 \cdot (1, 1, 1, 1) + e_2 \cdot (		\alpha^2, \alpha^4, \alpha^6, \alpha^1)\stackrel{!}{=}&lt;br /&gt;
(		\alpha^5, \alpha^2, \alpha^3, \alpha^1)&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow  \hspace{0.3cm}&lt;br /&gt;
e_0 + e_2 \cdot \alpha^2 = \alpha^5\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
e_0 + e_2 \cdot \alpha^4 = \alpha^2\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
e_0 + e_2 \cdot \alpha^6 = \alpha^3\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
e_0 + e_2 \cdot \alpha^1 = \alpha^1\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Diese Gleichungen führen zum Ergebnis $e_0 = 1$ und $e_2 =\alpha^2$. Damit  lautet das korrigierte Codewort mit $\underline {y} =  (\alpha^3,\hspace{0.05cm} 1,\hspace{0.05cm} 0,\hspace{0.05cm}  \alpha^1,\hspace{0.05cm} \alpha^2,\hspace{0.05cm} \alpha^5,\hspace{0.05cm} \alpha^5)$ und $\underline {e}=  (1,\hspace{0.05cm} 0,\hspace{0.05cm}  \alpha^2,\hspace{0.05cm} 0,\hspace{0.05cm} 0,\hspace{0.05cm} 0,\hspace{0.05cm} 0)$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {z} = \underline {y} - \underline {e} = \underline {y} + \underline {e}=&lt;br /&gt;
(\alpha^1,\hspace{0.03cm} 1,\hspace{0.03cm} \alpha^2,\hspace{0.03cm}  \alpha^1,\hspace{0.03cm} \alpha^2,\hspace{0.03cm} \alpha^5,\hspace{0.03cm} \alpha^5)\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dieses ist ein gültiges Codewort von RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt;.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Schnelle Reed–Solomon–Decodierung ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Klasse der Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes wurde bereits im Jahre 1960 durch die Veröffentlichung [RS60]&amp;lt;ref name='RS60'&amp;gt;Reed, I.S.; Solomon, G.: ''Polynomial Codes over Certain Finite Fields.'' J. Siam, Vol. 8, pp. 300–304, 1960.&amp;lt;/ref&amp;gt; eingeführt. Ihre effiziente Decodierung war jedoch erst ein bis zwei Jahrzehnte später möglich.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Auf den letzten Seiten haben wir den so genannten Petersen&amp;amp;ndash;Algorithmus inklusive der Chien&amp;amp;ndash;Suche am Beispiel des RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt; demonstriert, der bis zu $t = 2$ Fehler korrigieren kann. Im Mittelpunkt des Decodiervorgangs stand dabei das Aufstellen und Lösen der Schlüsselgleichung (englisch: &amp;lt;i&amp;gt;Error Locator Polynom&amp;lt;/i&amp;gt;), wobei die Nullstellen eines Grad&amp;amp;ndash;2&amp;amp;ndash;Polynoms im Körper $\rm GF(7)$ gefunden werden mussten. Sie konnten erkennen, dass schon diese algebraische Decodierung mit großem Aufwand verbunden ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Bei den in Praxis eingesetzten Codes mit großer Codewortlänge $n$ und hoher Korrekturfähigkeit $t$ würde der Decodieraufwand explodieren, wenn nicht schnellere Decodieralgorithmen gefunden worden wären. So müssen beim Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code RSC (255, 223, 33)&amp;lt;sub&amp;gt;256&amp;lt;/sub&amp;gt;, der schon früh im ESA/NASA&amp;amp;ndash;Standard zur Satellitenübertragung genannt wurde, zur Decodierng eines einzigen Codewortes bis zu $t = 16$ Nullstellen im Körper $\rm GF(255)$ gefunden werden, und das auch noch in Echtzeit.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ab Ende der 1960er Jahre haben sich viele Wissenschaftler um schnellere Decodieralgorithmen für  Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes bemüht:&lt;br /&gt;
&lt;br /&gt;
*Beim [https://de.wikipedia.org/wiki/Berlekamp-Massey-Algorithmus Berlekamp&amp;amp;ndash;Massey&amp;amp;ndash;Algorithmus] (BMA) wird die Schlüsselgleichung $\underline {\it \Lambda}  \cdot  \underline{s }^{\rm T} = 0$ als rückgekoppeltes Schieberegister dargestellt, siehe zum Beispiel [Mas69]&amp;lt;ref name ='Mas69'&amp;gt;Massey, J.L.: ''Shift Register Synthesis and BCH Decoding.''. IEEE Trans. on Information Theory, vol. IT-15, pp. 122–127, Jan. 1969.&amp;lt;/ref&amp;gt;, [Fri96]&amp;lt;ref name ='Fri96'&amp;gt;Friedrichs, B.: ''Kanalcodierung – Grundlagen und Anwendungen in modernen Kommunikations- systemen.'' Berlin – Heidelberg: Springer, 1996.&amp;lt;/ref&amp;gt; und [Bos98]&amp;lt;ref name ='Bos98'&amp;gt;Bossert, M.: ''Kanalcodierung.'' Stuttgart: B. G. Teubner, 1998.&amp;lt;/ref&amp;gt;. Das Problem wird damit auf die Synthese eines autoregressiven Filters zurückgeführt. Dieser Algorithmus arbeitet wesentlich schneller als der (leichter durchschaubare) Petersen&amp;amp;ndash;Algorithmus.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Etwas später wurde in [SK+75]&amp;lt;ref name='SK+75'&amp;gt;Sugiyama, Y.; Kashara, M.; Hirasawa, S.; Namekawa, T.: ''A Method for Solving Key Equation for Decoding Goppa Codes.'' Information and Control, Vol. 27, pp. 87–99, 1975.&amp;lt;/ref&amp;gt; ein Decodierverfahren vorgeschlagen, das auf dem [https://de.wikipedia.org/wiki/Euklidischer_Algorithmus Euklidischen Algorithmus] basiert. Dieser liefert den größten gemeinsamen Teiler zweier ganzer Zahlen, was zur Decodierung genutzt wird. Der Euklidische Algorithmus ist vergleichbar schnell wie der BMA. Genauere Informationen finden Sie wieder in [Bos98]&amp;lt;ref name ='Bos98'&amp;gt;&amp;lt;/ref&amp;gt; und [Fri96]&amp;lt;ref name ='Fri96'&amp;gt;&amp;lt;/ref&amp;gt;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Weitere effiziente Decodiernethoden von Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes arbeiten im &amp;lt;i&amp;gt;Frequenzbereich&amp;lt;/i&amp;gt; unter Verwendung der [[Signaldarstellung/Diskrete_Fouriertransformation_(DFT)#Argumente_f.C3.BCr_die_diskrete_Realisierung_der_FT| Diskreten Fouriertransformation]] (DFT) im Körper ${\rm GF}(n)$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Grundzüge der Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Fehlerkorrektur wurden bereits in den 1960er Jahren entwickelt. Aber bis in die heutige Zeit (2013) ist die (möglichst schnelle) algebraische Decodierung dieser Codes ein hochaktuelles Forschungsgebiet.&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:2.12 Decodierung beim RSC(7, 4, 4)(Base 8)|A2.12 Decodierung beim RSC(7, 4, 4)(Base 8)]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.12Z_Reed–Solomon–Syndromberechnung|Zusatzaufgabe 2.12Z Reed–Solomon–Syndromberechnung]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.13 Nun RSC (7, 3, 5)(Base 8)–Decodierung|A2.13 Nun RSC (7, 3, 5)(Base 8)–Decodierung]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.14 Petersen–Algorithmus|A2.14 Petersen–Algorithmus]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Reed-Solomon_Decoding_for_the_Erasure_Channel&amp;diff=21284</id>
		<title>Channel Coding/Reed-Solomon Decoding for the Erasure Channel</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Reed-Solomon_Decoding_for_the_Erasure_Channel&amp;diff=21284"/>
		<updated>2018-01-02T19:14:47Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Reed–Solomon–Codes und deren Decodierung&lt;br /&gt;
|Vorherige Seite=Definition und Eigenschaften von Reed–Solomon–Codes&lt;br /&gt;
|Nächste Seite=Fehlerkorrektur nach Reed–Solomon–Codierung&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Blockschaltbild und Voraussetzungen zur RS&amp;amp;ndash;Fehlererkennung ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Im Kapitel [[Kanalcodierung/Decodierung_linearer_Blockcodes#Decodierung_beim_Binary_Erasure_Channel|Decodierung beim Binary Erasure Channel]] wurde für die binären Blockcodes gezeigt, welche Berechnungen der Decoder ausführen muss, um aus einem unvollständigen Empfangswort $\underline{y}$ das gesendete Codewort $\underline{x}$ bestmöglich decodieren zu können. Zugrunde gelegt war dabei das [[Kanalcodierung/Klassifizierung_von_Signalen#Binary_Erasure_Channel_.E2.80.93_BEC| BEC&amp;amp;ndash;Kanalmodell]] (&amp;lt;i&amp;gt;Binary Erasure Channel&amp;lt;/i&amp;gt;), das ein unsicheres Bit als &amp;lt;i&amp;gt;Erasure&amp;lt;/i&amp;gt; $\rm E$ (&amp;amp;bdquo;Auslöschung&amp;amp;rdquo;) markiert.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Gegensatz zu [[Kanalcodierung/Klassifizierung_von_Signalen#Binary_Symmetric_Channel_.E2.80.93_BSC| BSC]] (&amp;lt;i&amp;gt;Binary Symmetric Channel&amp;lt;/i&amp;gt;) und [[Kanalcodierung/Klassifizierung_von_Signalen#AWGN.E2.80.93Kanal_bei_bin.C3.A4rem_Eingang| AWGN]] (&amp;lt;i&amp;gt;Additive White Gaussian Noise&amp;lt;/i&amp;gt;) wurden hier Bitfehler $(y_i &amp;amp;ne; x_i)$ ausgeschlossen. Jedes  Bit eines Empfangswortes &lt;br /&gt;
*stimmt also mit dem entsprechenden Bit des Codewortes überein $(y_i = x_i)$, oder &lt;br /&gt;
*ist bereits als Auslöschung markiert $(y_i = \rm E)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2544 KC T 2 4 S1 v2.png|center|frame|Übertragungssystem mit Reed–Solomon–Codierung/Decodierung und Auslöschungskanal|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt das Blockschaltbild, das sich von dem Modell im Kapitel [[Kanalcodierung/Decodierung_linearer_Blockcodes#Blockschaltbild_und_Voraussetzungen|Decodierung linearer Blockcodes]] geringfügig unterscheidet:&lt;br /&gt;
*Da Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes lineare Blockcodes sind, stehen Informationswort $\underline{u}$ und Codewort $\underline{c}$ über die Generatormatrix $\boldsymbol{\rm G}$ und die folgende Gleichung in Zusammenhang:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {c} = {\rm enc}(\underline {u}) = \underline {u} \cdot { \boldsymbol{\rm G}}&lt;br /&gt;
\hspace{0.3cm} {\rm mit}  \hspace{0.3cm}\underline {u} = (u_0, u_1, ... \hspace{0.05cm}, u_i, ...\hspace{0.05cm}, u_{k-1})\hspace{0.05cm}, \hspace{0.2cm} &lt;br /&gt;
\underline {c} = (c_0, c_1, ... \hspace{0.05cm}, c_i, ...\hspace{0.05cm}, c_{n-1})&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Für die einzelnen Symbole von Informationsblock und Codewort gilt bei Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codierung:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;u_i \in {\rm GF}(q)\hspace{0.05cm},\hspace{0.2cm}c_i \in {\rm GF}(q)\hspace{0.3cm}{\rm mit}\hspace{0.3cm} q = n+1 = 2^m&lt;br /&gt;
\hspace{0.3cm} \Rightarrow  \hspace{0.3cm} n = 2^m - 1\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Jedes Codesymbol $c_i$ wird somit mit $m &amp;amp;#8805; 2$ Binärsymbolen (Bit) dargestellt. Zum Vergleich: Für die binären Blockcodes gilt $q=2$, $m=1$ und die Codewortlänge $n$ ist frei wählbar.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei Codierung auf Symbolebene muss das BEC&amp;amp;ndash;Modell zum $m$&amp;amp;ndash;BEC&amp;amp;ndash;Modell erweitert werden. Mit der Wahrscheinlichkeit $\lambda_m  &amp;amp;asymp; m \cdot\lambda$ wird ein Codesymbol $c_i$ ausgelöscht $(y_i = \rm E)$ und es gilt ${\rm Pr}(y_i = c_i) = 1 - \lambda_m$. Näheres zur Umrechnung der beiden Modelle finden Sie in der [[Aufgabe 2.11Z]].&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Im Folgenden beschäftigen wir uns ausschließlich mit dem Block  &amp;lt;i&amp;gt;Codewortfinder&amp;lt;/i&amp;gt; (CWF), der aus dem Empfangsvektor $\underline{y}$ den Vektor $\underline{z} &amp;amp;#8712; \mathcal{C}_{\rm RS}$ gewinnt:&lt;br /&gt;
*Falls die Anzahl $e$ der Auslöschungen in Vektor $\underline{y}$ hinreichend klein ist, lässt sich das gesamte Codewort mit Sicherheit $(\underline{z}=\underline{c})$   finden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Sind zuviele Symbole des Empfangswortes $\underline{y}$ ausgelöscht, meldet der Decoder, dass dieses Wort nicht decodierbar ist. Eventuell wird dann die Codesequenz noch einmal gesendet.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Beim Auslöschungskanal ($m$&amp;amp;ndash;BEC) ist also im Gegensatz zum $m$&amp;amp;ndash;BSC, der im Kapitel [[Kanalcodierung/Fehlerkorrektur_nach_Reed–Solomon–Codierung|Fehlerkorrektur nach Reed–Solomon–Codierung]] Anwendung findet,  eine Fehlentscheidung $(\underline{z} \ne \underline{c})$ ausgeschlossen &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; Blockfehlerwahrscheinlichkeit ${\rm Pr}(\underline{z}\ne\underline{c})  = 0$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; ${\rm Pr}(\underline{v}\ne\underline{u})  = 0$. Das rekonstruierte Informationswort ergibt sich gemäß dem Blockschaltbild (gelbe Hinterlegung) zu $\underline{v} = {\rm enc}^{-1}(\underline{z})$. Mit der Generatormatrix $\boldsymbol{\rm G}$ kann hierfür auch geschrieben werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {c} = \underline {u} \cdot { \boldsymbol{\rm G}}&lt;br /&gt;
\hspace{0.3cm} \Rightarrow  \hspace{0.3cm}\underline {z} = \underline {\upsilon} \cdot { \boldsymbol{\rm G}}&lt;br /&gt;
\hspace{0.3cm} \Rightarrow  \hspace{0.3cm}\underline {\upsilon} = \underline {z} \cdot { \boldsymbol{\rm G}}^{\rm T}&lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Vorgehensweise am Beispiel des RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt; ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Um die Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Decodierung beim Auslöschungskanal so einfach wie möglich darstellen zu können, gehen wir von einer konkreten Aufgabenstellung aus: Verwendet wird ein Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code mit den Parametern $n= 7$, $k= 3$ und $q= 2^3 = 8$. &lt;br /&gt;
&lt;br /&gt;
Somit gilt für das Informationswort $\underline{u}$ und das Codewort $\underline{c}$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {u} = (u_0, u_1, u_2) \hspace{0.05cm},\hspace{0.15cm}&lt;br /&gt;
\underline {c} = (c_0, c_1, c_2,c_3,c_4,c_5,c_6)\hspace{0.05cm},\hspace{0.15cm}&lt;br /&gt;
u_i, c_i \in {\rm GF}(2^3) = \{0, 1,  \alpha, \alpha^2, \text{...}\hspace{0.05cm} , \alpha^6\}&lt;br /&gt;
\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
und die Prüfmatrix $\boldsymbol{\rm H}$ lautet:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; \alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4 &amp;amp; \alpha^5 &amp;amp; \alpha^6\\&lt;br /&gt;
		1 &amp;amp; \alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1 &amp;amp; \alpha^{3} &amp;amp; \alpha^{5}\\&lt;br /&gt;
		1 &amp;amp; \alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^2 &amp;amp; \alpha^{5} &amp;amp; \alpha^{1} &amp;amp; \alpha^{4}\\&lt;br /&gt;
		1 &amp;amp; \alpha^4 &amp;amp; \alpha^1 &amp;amp; \alpha^{5} &amp;amp; \alpha^{2} &amp;amp; \alpha^{6} &amp;amp; \alpha^{3}&lt;br /&gt;
\end{pmatrix}\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Beispielhaft wird vom  Empfangsvektor $\underline {y}  = (\alpha, \hspace{0.03cm} 1, \hspace{0.03cm}{\rm E}, \hspace{0.03cm}{\rm E}, \hspace{0.03cm}\alpha^2,{\rm E}, \hspace{0.03cm}\alpha^5)$ ausgegangen. Dann gilt:&lt;br /&gt;
*Da der Auslöschungskanal keine Fehler produziert, sind dem Decoder vier der Codesymbole bekannt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;c_0 = \alpha^1 \hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
c_1 = 1 \hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
c_4 = \alpha^2 \hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
c_6 = \alpha^5 &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Es ist offensichtlich, dass der Block &amp;amp;bdquo;Codewortfinder&amp;amp;rdquo; &amp;amp;ndash; im Blockschaltbild mit '''CWF''' bezeichnet &amp;amp;ndash; einen Vektor der Form $\underline {z} = (c_0, \hspace{0.03cm}c_1, \hspace{0.03cm}z_2, \hspace{0.03cm}z_3,\hspace{0.03cm}c_4,\hspace{0.03cm}z_5,\hspace{0.03cm}c_6)$ liefern soll mit $z_2,\hspace{0.03cm}z_3,\hspace{0.03cm}z_5 \in \rm GF(2^3)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Da das vom Decoder gefundene Codewort $\underline {z}$ aber auch ein gültiges Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codewort  sein soll &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $\underline {z} &amp;amp;#8712; \mathcal{C}_{\rm RS}$, muss aber ebenso gelten:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} \cdot \underline {z}^{\rm T} = \underline {0}^{\rm T}  \hspace{0.3cm} \Rightarrow \hspace{0.3cm}&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; \alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4 &amp;amp; \alpha^5 &amp;amp; \alpha^6\\&lt;br /&gt;
		1 &amp;amp; \alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1 &amp;amp; \alpha^{3} &amp;amp; \alpha^{5}\\&lt;br /&gt;
		1 &amp;amp; \alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^2 &amp;amp; \alpha^{5} &amp;amp; \alpha^{1} &amp;amp; \alpha^{4}\\&lt;br /&gt;
		1 &amp;amp; \alpha^4 &amp;amp; \alpha^1 &amp;amp; \alpha^{5} &amp;amp; \alpha^{2} &amp;amp; \alpha^{6} &amp;amp; \alpha^{3}&lt;br /&gt;
\end{pmatrix} \cdot &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		c_0\\&lt;br /&gt;
		c_1\\&lt;br /&gt;
		z_2\\&lt;br /&gt;
		z_3\\&lt;br /&gt;
		c_4\\&lt;br /&gt;
		z_5\\&lt;br /&gt;
		c_6&lt;br /&gt;
\end{pmatrix} = \begin{pmatrix}&lt;br /&gt;
		0\\&lt;br /&gt;
		0\\&lt;br /&gt;
		0\\&lt;br /&gt;
		0&lt;br /&gt;
\end{pmatrix}&lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Daraus ergeben sich vier Gleichungen für die Unbekannten $z_2$, $z_3$ $z_5$. Bei eindeutiger Lösung &amp;amp;ndash; und nur bei einer solchen &amp;amp;ndash; ist die Decodierung erfolgreich und man kann dann mit Sicherheit sagen, dass tatsächlich $\underline {c} =  \underline {z} $ gesendet wurde.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Lösung der Matrixgleichungen am Beispiel des RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt; ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Gefunden werden muss also das zulässige Codewort $\underline {z}$, das die Bestimmungsgleichung $\boldsymbol{\rm H} \cdot \underline {z}^{\rm T} $  erfüllt. Zweckmäßigerweise spalten wir dazu den Vektor $\underline {z}$ in zwei Teilvektoren auf, nämlich in&lt;br /&gt;
*den Vektor $\underline {z}_{\rm E} = (z_2, z_3, z_5)$ der ausgelöschten Symbole (Index &amp;amp;bdquo;E&amp;amp;rdquo; für &amp;lt;i&amp;gt;Erasures&amp;lt;/i&amp;gt;),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*den Vektor $\underline {z}_{\rm K} = (c_0, c_1,c_4, c_6)$ der bekannten Symbole (Index &amp;amp;bdquo;K&amp;amp;rdquo; für &amp;lt;i&amp;gt;Korrekt&amp;lt;/i&amp;gt;).&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Mit den zugehörigen Teilmatrizen (jeweils mit $n-k = 4$ Zeilen)&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}}_{\rm E} = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		\alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^5 \\&lt;br /&gt;
		\alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^{3} \\&lt;br /&gt;
		\alpha^6 &amp;amp; \alpha^2 &amp;amp; \alpha^{1} \\&lt;br /&gt;
		\alpha^1 &amp;amp; \alpha^{5} &amp;amp; \alpha^{6} &lt;br /&gt;
\end{pmatrix} \hspace{0.05cm},\hspace{0.4cm}&lt;br /&gt;
{ \boldsymbol{\rm H}}_{\rm K} &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; \alpha^1 &amp;amp; \alpha^4 &amp;amp; \alpha^6\\&lt;br /&gt;
		1 &amp;amp; \alpha^2 &amp;amp; \alpha^1 &amp;amp;  \alpha^{5}\\&lt;br /&gt;
		1 &amp;amp; \alpha^3 &amp;amp; \alpha^{5}  &amp;amp; \alpha^{4}\\&lt;br /&gt;
		1 &amp;amp; \alpha^4 &amp;amp; \alpha^{2}  &amp;amp; \alpha^{3}&lt;br /&gt;
\end{pmatrix}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
lautet somit die Bestimmungsgleichung:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}}_{\rm E} \cdot \underline {z}_{\rm E}^{\rm T} +&lt;br /&gt;
{ \boldsymbol{\rm H}}_{\rm K} \cdot \underline {z}_{\rm K}^{\rm T} &lt;br /&gt;
= \underline {0}^{\rm T}  \hspace{0.5cm} \Rightarrow \hspace{0.5cm}&lt;br /&gt;
{ \boldsymbol{\rm H}}_{\rm E} \cdot \underline {z}_{\rm E}^{\rm T} = -&lt;br /&gt;
{ \boldsymbol{\rm H}}_{\rm K} \cdot \underline {z}_{\rm K}^{\rm T}\hspace{0.05cm}.  &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Da für alle Elemente $z_i &amp;amp;#8712; {\rm GF}(2^m)$ die [[Kanalcodierung/Einige_Grundlagen_der_Algebra#Definition_eines_Galoisfeldes |additive Inverse]] ${\rm Inv_A}(z_i)= (- z_i) = z_i$ ist, gilt in gleicher Weise&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}}_{\rm E} \cdot \underline {z}_{\rm E}^{\rm T} = &lt;br /&gt;
{ \boldsymbol{\rm H}}_{\rm K} \cdot \underline {z}_{\rm K}^{\rm T} =&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; \alpha^1 &amp;amp; \alpha^4 &amp;amp; \alpha^6\\&lt;br /&gt;
		1 &amp;amp; \alpha^2 &amp;amp; \alpha^1 &amp;amp;  \alpha^{5}\\&lt;br /&gt;
		1 &amp;amp; \alpha^3 &amp;amp; \alpha^{5}  &amp;amp; \alpha^{4}\\&lt;br /&gt;
		1 &amp;amp; \alpha^4 &amp;amp; \alpha^{2}  &amp;amp; \alpha^{3}&lt;br /&gt;
\end{pmatrix} \cdot &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		\alpha^1\\&lt;br /&gt;
		1\\&lt;br /&gt;
		\alpha^{2}\\&lt;br /&gt;
		\alpha^{6}&lt;br /&gt;
\end{pmatrix} = \hspace{0.15cm}... \hspace{0.15cm}=  &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		\alpha^3\\&lt;br /&gt;
		\alpha^{4}\\&lt;br /&gt;
		\alpha^{2}\\&lt;br /&gt;
		0&lt;br /&gt;
\end{pmatrix}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die rechte Gleichungsseite ergibt für das betrachtete Beispiel &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $\underline {z}_{\rm K} = (c_0, c_1,c_4, c_6)$ und basiert auf dem Polynom $p(x) = x^3 + x +1$, das zu folgenden Potenzen (in $\alpha$) führt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\alpha^3 =\alpha + 1\hspace{0.05cm},&lt;br /&gt;
\hspace{0.3cm} \alpha^4 = \alpha^2 + \alpha\hspace{0.05cm},&lt;br /&gt;
\hspace{0.3cm} \alpha^5 = \alpha^2 + \alpha + 1\hspace{0.05cm},&lt;br /&gt;
\hspace{0.3cm} \alpha^6 = \alpha^2  + 1\hspace{0.05cm},&lt;br /&gt;
\hspace{0.3cm} \alpha^7 \hspace{-0.15cm}  =  \hspace{-0.15cm} 1\hspace{0.05cm},&lt;br /&gt;
\hspace{0.3cm} \alpha^8 = \alpha^1 \hspace{0.05cm},&lt;br /&gt;
\hspace{0.3cm} \alpha^9 = \alpha^2 \hspace{0.05cm},&lt;br /&gt;
\hspace{0.3cm} \alpha^{10} = \alpha^3 =   \alpha + 1\hspace{0.05cm},\hspace{0.1cm} \text{...}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit lautet die Matrizengleichung zur Bestimmung des gesuchten Vektors $\underline {z}_{\rm E}$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\begin{pmatrix}&lt;br /&gt;
		\alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^5 \\&lt;br /&gt;
		\alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^{3} \\&lt;br /&gt;
		\alpha^6 &amp;amp; \alpha^2 &amp;amp; \alpha^{1} \\&lt;br /&gt;
		\alpha^1 &amp;amp; \alpha^{5} &amp;amp; \alpha^{6} &lt;br /&gt;
\end{pmatrix} \cdot &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		z_2\\&lt;br /&gt;
		z_3\\&lt;br /&gt;
		z_5&lt;br /&gt;
\end{pmatrix} \stackrel{!}{=}   &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		\alpha^3\\&lt;br /&gt;
		\alpha^{4}\\&lt;br /&gt;
		\alpha^{2}\\&lt;br /&gt;
		0&lt;br /&gt;
\end{pmatrix}&lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Löst man diese Matrizengleichung (am einfachsten per Programm), so erhält man&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;z_2 = \alpha^2\hspace{0.05cm},\hspace{0.25cm}z_3 = \alpha^1\hspace{0.05cm},\hspace{0.25cm}z_5 = \alpha^5&lt;br /&gt;
\hspace{0.5cm} \Rightarrow \hspace{0.5cm}\underline {z} = \left ( \hspace{0.05cm} \alpha^1, \hspace{0.05cm}1, \hspace{0.05cm}\alpha^2, \hspace{0.05cm}\alpha^1, \hspace{0.05cm}\alpha^2, \hspace{0.05cm}\alpha^5, \hspace{0.05cm}\alpha^5 \hspace{0.05cm}\right )&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Ergebnis ist richtig, wie die folgenden Kontrollrechnungen zeigen: &lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\alpha^2 \cdot \alpha^2 + \alpha^3 \cdot \alpha^1 + \alpha^5 \cdot \alpha^5 \hspace{-0.15cm}  =  \hspace{-0.15cm}&lt;br /&gt;
\alpha^4 + \alpha^4 + \alpha^{10} = \alpha^{10} = \alpha^3\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\alpha^4 \cdot \alpha^2 + \alpha^6 \cdot \alpha^1 + \alpha^3 \cdot \alpha^5 \hspace{-0.15cm}  =  \hspace{-0.15cm}&lt;br /&gt;
(\alpha^2 + 1) + (1) + (\alpha) = \alpha^{2} + \alpha = \alpha^4\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\alpha^6 \cdot \alpha^2 + \alpha^2 \cdot \alpha^1 + \alpha^1 \cdot \alpha^5 \hspace{-0.15cm}  =  \hspace{-0.15cm}&lt;br /&gt;
(\alpha) + (\alpha + 1) + (\alpha^2 + 1) = \alpha^{2} \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\alpha^1 \cdot \alpha^2 + \alpha^5 \cdot \alpha^1 + \alpha^6 \cdot \alpha^5 \hspace{-0.15cm}  =  \hspace{-0.15cm}&lt;br /&gt;
(\alpha + 1) + (\alpha^2 + 1) + (\alpha^2 + \alpha) = 0\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das zugehörige Informationswort erhält man mit der [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Generatormatrix| Generatormatrix]] $\boldsymbol{\rm G}$ zu $\underline {v} = \underline {z} \cdot \boldsymbol{\rm G}^{\rm T} = (\alpha^1,\hspace{0.05cm}1,\hspace{0.05cm}\alpha^3)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:2.11_RS–Decodierung_nach_„Erasures”|Aufgabe 2.11: RS–Decodierung nach „Erasures”]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.11Z_Erasure–Kanal_für_Symbole|Zusatzaufgabe 2.11Z: Erasure–Kanal für Symbole]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Definition_and_Properties_of_Reed-Solomon_Codes&amp;diff=21283</id>
		<title>Channel Coding/Definition and Properties of Reed-Solomon Codes</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Definition_and_Properties_of_Reed-Solomon_Codes&amp;diff=21283"/>
		<updated>2018-01-02T19:13:21Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Reed–Solomon–Codes und deren Decodierung&lt;br /&gt;
|Vorherige Seite=Erweiterungskörper&lt;br /&gt;
|Nächste Seite=Reed–Solomon–Decodierung beim Auslöschungskanal&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Definition und Eigenschaften der Reed–Solomon–Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:P ID2515 KC T 2 3 S1 v2.png|right|frame|Linearer $(n, \, k)$–Blockcode|class=fit]]&lt;br /&gt;
Ein &amp;lt;i&amp;gt;Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code&amp;lt;/i&amp;gt; &amp;amp;ndash; im Folgenden manchmal auch verkürzt  als '''RS&amp;amp;ndash;Code''' bezeichnet &amp;amp;ndash; ist ein [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Lineare_Codes_und_zyklische_Codes| linearer Blockcode]], der einem Informationsblock $\underline{u}$ mit $k$ Symbolen ein entsprechendes Codewort $\underline{c}$ mit $n &amp;gt; k$ Symbolen zuordnet. Diese noch heute vielfach eingesetzten Codes wurden bereits Anfang der 1960er Jahre von [https://de.wikipedia.org/wiki/Irving_Stoy_Reed Irving Stoy Reed] und [https://de.wikipedia.org/wiki/Gustave_Solomon Gustave Solomon] erfunden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Kapitel [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Blockschaltbild_und_Voraussetzungen|Zielsetzung der Kanalcodierung]] wurde der Informationsblock mit $\underline{u}= (u_1,$ ... , $u_k)$ und das Codewort mit $\underline{x}= (x_1,$ ... , $x_n)$ bezeichnet. Die Nomenklaturänderung gemäß obiger Grafik wurde vorgenommen, um Verwechslungen mit dem Argument von Polynomen auszuschließen und die Beschreibung der RS&amp;amp;ndash;Codes zu vereinfachen.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Alle im Abschnitt [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Lineare_Codes_und_zyklische_Codes|Lineare Codes und zyklische Codes]] genannten Eigenschaften linearer zyklischer Blockcodes gelten auch für einen Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code. Zusätzlich gilt: &lt;br /&gt;
*Konstruktion und Decodierung von Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes basieren auf der Arithmetik eines Galoisfeldes ${\rm GF}(q)$, wobei wir uns hier auf binäre Erweiterungskörper mit $q=2^m$ Elementen beschränken:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm GF}(2^m) = \big \{\hspace{0.05cm}0\hspace{0.05cm},\hspace{0.1cm} \alpha^{0}  ,\hspace{0.05cm}\hspace{0.1cm}&lt;br /&gt;
\alpha^{1}\hspace{0.05cm},\hspace{0.1cm} \alpha^{2}\hspace{0.05cm},\hspace{0.1cm}...\hspace{0.1cm},  \alpha^{q-2}\hspace{0.05cm} \big \}\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Prinzipiell unterschiedlich zum ersten Kapitel ist, dass die Koeffizienten $u_0$, $u_1$, ... , $u_{k-1}$ nun nicht mehr einzelne Informationsbits ($0$ oder $1$) angeben, sondern ebenfalls Elemente aus ${\rm GF}(2^m)$ sind. Jedes der $n$ Symbole steht vielmehr für $m$ Bit.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei den Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes ist der Parameter $n$ (Codelänge) gleich der Anzahl der Elemente des Galoisfeldes ohne das Nullwort: $n= q-1$. Wir verwenden hierzu folgende Nomenklatur:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm GF}(2^m) \hspace{-0.05cm}\setminus \hspace{-0.05cm} \{0\} = \big \{\hspace{0.05cm} \alpha^{0}  ,\hspace{0.05cm}\hspace{0.1cm}&lt;br /&gt;
\alpha^{1}\hspace{0.05cm},\hspace{0.1cm} \alpha^{2}\hspace{0.05cm},\hspace{0.1cm}...\hspace{0.1cm},  \alpha^{n-1}\hspace{0.05cm} \big \}\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die $k$ Koeffizienten $u_i \in {\rm GF}(2^m)$ des Informationsblocks $\underline{u} \ ( 0 \le i &amp;lt; k)$ kann man formal auch durch ein Polynom $u(x)$ ausdrücken. Der Grad des Polynoms ist dabei $k-1$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;u(x) = \sum_{i = 0}^{k-1} u_i \cdot x^{i}  = u_0 + u_1 \cdot x + u_2 \cdot x^2 + \hspace{0.1cm}... \hspace{0.1cm}+ u_{k-1} \cdot x^{k-1}   \hspace{0.05cm},\hspace{0.4cm} u_i \in {\rm GF}(2^m)&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die $n$ Symbole des zugehörigen Codewortes $\underline{c}= (c_0, c_1,$ ... , $c_{n-1})$ergeben sich mit diesem  Polynom $u(x)$ zu&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;c_0 = u(\alpha^{0}) \hspace{0.05cm},\hspace{0.3cm} c_1 = u(\alpha^{1})\hspace{0.05cm},\hspace{0.1cm}...\hspace{0.1cm},\hspace{0.3cm} c_{n-1}= u(\alpha^{n-1}) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Meist werden die Codesymbole $c_i \in {\rm GF}(2^m)$ vor der Übertragung wieder in Binärform &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; ${\rm GF}(2)$ gebracht, wobei dann jedes Symbol durch &amp;lt;i&amp;gt;m&amp;lt;/i&amp;gt; Bit dargestellt wird.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Fassen wir die bisherigen Aussagen kurz zusammen:&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;  Ein $(n, k)$'''&amp;amp;ndash;Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code''' für das Galoisfeld ${\rm GF}(2^m)$ wird festgelegt durch&lt;br /&gt;
*die $n= 2^{m-1}$ Elemente von ${\rm GF}(2^m) \hspace{-0.05cm}\setminus \hspace{-0.05cm} \{0\} =\{ \alpha^0, \alpha^1, \, \text{...} ,  \alpha^{n-1}\}$, wobei $\alpha$ ein [[Kanalcodierung/Erweiterungskörper#Bin.C3.A4re_Erweiterungsk.C3.B6rper_.E2.80.93_Primitive_Polynome|primitives Element]] von ${\rm GF}(2^m)$ bezeichnet,&lt;br /&gt;
&lt;br /&gt;
*ein an den Informationsblockt $\underline{u}$ angepasstes [[Kanalcodierung/Erweiterungskörper#Verallgemeinerte_Definition_eines_Erweiterungsk.C3.B6rpers|Polynom]] vom Grad $k-1$ der Form&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;u(x) = \sum_{i = 0}^{k-1} u_i \cdot x^{i}  = u_0 + u_1 \cdot x + u_2 \cdot x^2 + \hspace{0.1cm}... \hspace{0.1cm}+ u_{k-1} \cdot x^{k-1}   \hspace{0.05cm},\hspace{0.4cm} u_i \in {\rm GF}(2^m)&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit lässt sich der $(n, k)$&amp;amp;ndash;Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code  beschreiben als&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;C_{\rm RS} = \Big \{ \underline {c} =  \big ( u(\alpha^{0}) \hspace{0.05cm},\hspace{0.1cm} u(\alpha^{1})\hspace{0.05cm},\hspace{0.1cm}...\hspace{0.1cm},  u(\alpha^{n-1})\hspace{0.1cm}   \big )&lt;br /&gt;
 \hspace{0.1cm} \big \vert \hspace{0.2cm} u(x) = \sum_{i = 0}^{k-1} u_i \cdot x^{i}\hspace{0.05cm},\hspace{0.2cm} u_i \in {\rm GF}(2^m)&lt;br /&gt;
\Big \}  \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die bisherigen Angaben sollen nun an zwei einfachen Beispielen verdeutlicht werden.&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2517 KC T 2 3 S1b v3.png|right|frame|GF(2&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt;) in Exponenten–, Polynom– und Koeffizientenform |class=fit]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp;  Wir betrachten die folgenden Codeparametern:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;k = 2 \hspace{0.05cm},\hspace{0.15cm}n = 3 \hspace{0.5cm} \Rightarrow  \hspace{0.5cm} \underline {u} = (u_0, u_1)\hspace{0.05cm},\hspace{0.15cm} &lt;br /&gt;
\underline {c} = (c_0, c_1, c_2)\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;q = n+1 = 4 \hspace{0.45cm} \Rightarrow  \hspace{0.5cm} {\rm GF} (q) = {\rm GF} (2^m) &lt;br /&gt;
\hspace{0.5cm} \Rightarrow  \hspace{0.5cm} m = 2\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ausgehend von der Bedingungsgleichung $p(\alpha) =  \alpha^2 + \alpha + 1 = 0$  &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $\alpha^2 = \alpha + 1$ erhält man die Zuordnungen zwischen &lt;br /&gt;
*der Exponentendarstellung, &lt;br /&gt;
*der Polynomdarstellung und &lt;br /&gt;
*der Koeffizientendarstellung &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
von ${\rm GF}(2^2)$ gemäß obiger Tabelle. Daraus ist ersichtlich:&lt;br /&gt;
&lt;br /&gt;
*Der Koeffizientenvektor wird durch das Polynom $u(x) = u_0 + u_1 \cdot x$   ausgedrückt. Der Polynomgrad ist $k- 1 = 1$. &lt;br /&gt;
*Für $u_0 = \alpha^1$ und $u_1 = \alpha^2$ erhält man beispielsweise das Polynom $u(x) = \alpha + \alpha^2 \cdot x$ und damit&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;c_0 = u (x = \alpha^0) = u (x = 1) =  \alpha + \alpha^2 \cdot 1 = \alpha + (\alpha + 1) =1 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;c_1 =u (x = \alpha^1) =  \alpha + \alpha^2 \cdot \alpha = \alpha + \alpha^3 =  \alpha + \alpha^0  =  \alpha + 1 = \alpha^2 \hspace{0.05cm},&amp;lt;/math&amp;gt; &lt;br /&gt;
::&amp;lt;math&amp;gt;c_2 =u (x = \alpha^2) =  \alpha + \alpha^2 \cdot \alpha^2 = \alpha + \alpha^4 =  \alpha + \alpha^1 = 0 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Daraus ergeben sich folgende Zuordnungen auf Symbol&amp;amp;ndash; bzw. Bitebene:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {u} =(\alpha^1, \alpha^2)\hspace{0.57cm}\leftrightarrow\hspace{0.3cm} &lt;br /&gt;
\underline {c} = (1, \alpha^2, 0)\hspace{0.05cm},\hspace{1cm}\underline {u}_{\rm bin} =(1,0,1,1)\hspace{0.3cm}\leftrightarrow\hspace{0.3cm} &lt;br /&gt;
\underline {c}_{\rm bin} = (0,1,1,1,0,0)\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2570 KC T 2 3 S1bb v3.png|right|frame||Codetabelle des RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp;  &lt;br /&gt;
Rechts ist die Codetabelle des '''RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;''' genannten Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes. &lt;br /&gt;
*Die Bezeichnung bezieht sich auf die Parameter $n=3$, $k=2$, $d_{\rm min}=2$ und $q = 4$. &lt;br /&gt;
*In den Spalten 1 bis 3 erkennt man den Zusammenhang $\underline {u} \  &amp;amp;#8594; \ u(x) \ &amp;amp;#8594; \ \underline {c}$.&lt;br /&gt;
*In den beiden letzten Spalten ist die Codiervorschrift $\underline {u}_{\rm bin} \  &amp;amp;#8596; \ \underline {c}_{\rm bin}$ angegeben.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Zur Verdeutlichung nochmals der Eintrag für $(\alpha^0, \, \alpha^2)$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;u(x) = u_0 + u_1 \cdot x = \alpha^0 +  \alpha^2 \cdot x. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Daraus ergeben sich folgende Codesymbole:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;c_0 = u (x = \alpha^0) =  1 + \alpha^2 \cdot 1 = 1 + (1+\alpha ) =\alpha \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;c_1 = u (x = \alpha^1) =  1 + \alpha^2 \cdot \alpha = 1 +  (1+\alpha ) \cdot \alpha =  1 + \alpha + \alpha^2  =  0 \hspace{0.05cm},&amp;lt;/math&amp;gt; &lt;br /&gt;
::&amp;lt;math&amp;gt;c_2 =u (x = \alpha^2) =  1 + \alpha^2 \cdot \alpha^2 = 1 + \alpha =  \alpha^2  \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;i&amp;gt;Hinweise:&amp;lt;/i&amp;gt; &lt;br /&gt;
*Aus der Elementenmenge $\{0, \alpha^0 = 1, \alpha^1 = \alpha, \alpha^2\}$ sollte nicht geschlossen werden, dass für diesen Code die [[Kanalcodierung/Erweiterungskörper#Bin.C3.A4re_Erweiterungsk.C3.B6rper_.E2.80.93_Primitive_Polynome|3D&amp;amp;ndash;Darstellung]] mit den Achsen $\alpha^0 = 1$, $\alpha^1 = \alpha$ und $\alpha^2$ zutrifft. &lt;br /&gt;
*Aus der Koeffizientendarstellung geht vielmehr eindeutig hervor, dass ${\rm GF} (2^m)$ ein zweidimensionaler Code ist, wobei die Achsen der [[Kanalcodierung/Erweiterungskörper#Interpretation_des_neuen_Elementes_.7FUNIQ-MathJax56-QINU.7F| 2D&amp;amp;ndash;Darstellung]] mit $\alpha^0 = 1$ und $\alpha^1 = \alpha$ zu beschriften sind.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Generatormatrix  der Reed–Solomon–Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Da es sich beim Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code um einen linearen Blockcode handelt, ist der Zusammenhang zwischen Informationswort $\underline {u}$ und Codewort $\underline {c}$ durch die [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Generatormatrix| Generatormatrix]] $\boldsymbol{\rm G}$ gegeben:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\underline {c} = \underline {u} \cdot { \boldsymbol{\rm G}}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wie bei jedem linearen $(n, k)$&amp;amp;ndash;Blockcode besteht die Generatormatrix aus $k$ Zeilen und $n$ Spalten. Im Gegensatz zum Kapitel [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Lineare_Codes_und_zyklische_Codes|Allgemeine Beschreibung linearer Blockcodes]] sind nun aber die Elemente der Generatormatrix nicht mehr binär ($0$ oder $1$), sondern entstammen dem Galoisfeld ${\rm GF}(2^m) \hspace{-0.05cm}\setminus \hspace{-0.05cm} \{0\} $.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; Wir betrachten wie im Beispiel 2 auf der vorherigen Seite wieder den '''RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;''', dessen Generatormatrix folgende Form hat:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt; { \boldsymbol{\rm G} } = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		g_{00} &amp;amp; g_{01} &amp;amp; g_{02}\\&lt;br /&gt;
		g_{10} &amp;amp; g_{11} &amp;amp; g_{12}&lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm},\hspace{0.3cm} g_{ij} \in &lt;br /&gt;
	{\rm GF}(2^2) \hspace{-0.01cm}\setminus \hspace{-0.01cm} \{0\} = \big \{\hspace{0.05cm} \alpha^{0}  \hspace{0.05cm},\hspace{0.1cm}&lt;br /&gt;
\alpha^{1}\hspace{0.05cm},\hspace{0.1cm} \alpha^{2} \hspace{0.05cm}\big \}\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Daneben gilt:&lt;br /&gt;
*Die erste Zeile von $\boldsymbol{\rm G}$ gibt das Codewort für das Informationswort $\underline {u}_1 = (1, 0)$ an bzw. für die Polynomfunktion $u_1(x) = 1$. Damit erhält man die Matrixelemente der ersten Zeile zu&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;g_{00} = u_{1}(\alpha^{0}) = 1\hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
g_{01} = u_{1}(\alpha^{1}) = 1\hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
g_{02} = u_{1}(\alpha^{2}) = 1\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die zweite Zeile ist gleich dem Codewort für das Informationswort $\underline {u}_2 = (0, 1)$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $u_2(x) = x$. Die Matrixelemente der zweiten Zeile lauten somit:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;g_{10} = u_{2}(\alpha^{0}) = \alpha^{0} = 1\hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
g_{11} = u_{2}(\alpha^{1}) =  \alpha \hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
g_{12} = u_{2}(\alpha^{2}) = \alpha^{2}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow\hspace{0.3cm}	 { \boldsymbol{\rm G} } = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1\\&lt;br /&gt;
		1 &amp;amp; \alpha &amp;amp; \alpha^2&lt;br /&gt;
\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für das Informationswort $\underline {u}= (u_0, u_1)$ mit den Symbolen $u_0, u_1 &amp;amp;#8712; \{0, \alpha^0, \alpha^1 = \alpha, \alpha^2\}$ erhält man unter Berücksichtigung der beiden Gleichungen $\alpha^2 = \alpha + 1$ sowie $\alpha^3 = \alpha^0 = 1$ wiederum die Codetabelle des RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt; auf Symbolebene.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2519 KC T 2 3 S2a v1.png|center|frame|Codetabelle des RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt; auf Symbolebene|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Man erhält natürlich mit der Generatormatrix genau die gleiche Codetabelle $\underline {u} &amp;amp;nbsp; &amp;amp;#8596; &amp;amp;nbsp; \underline {c}$ wie nach der Berechnung über die Funktion $u(x)$. Die entsprechende Codetabelle auf Bitebene (siehe Beispiel 2 auf der vorherigen Seite) ergibt sich wieder, wenn man die Elemente nicht in Exponentendarstellung angibt, sondern in Koeffizientenform:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;(0, \hspace{0.1cm}\alpha^{0}, \hspace{0.1cm}\alpha^{1}, \hspace{0.1cm}\alpha^{2}) \hspace{0.3cm}\Leftrightarrow\hspace{0.3cm}(00, \hspace{0.1cm}01, \hspace{0.1cm}10, \hspace{0.1cm}11) &lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Generatormatrix  und Prüfmatrix ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir verallgemeinern nun das Ergebnis der letzten Seite für einen Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code mit&lt;br /&gt;
*der Dimension $k$ (Symbolanzahl pro Informationsblock),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*der Codewortlänge $n$ (Symbolanzahl pro Codewort).&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Generatormatrix| Generatormatrix]] $\boldsymbol{\rm G}$ (mit $k$ Zeilen und $n$ Spalten) und die [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Pr.C3.BCfmatrix| Prüfmatrix]] $\boldsymbol{\rm H}$ ($n-k$ Zeilen, $n$ Spalten) müssen gemeinsam folgende Gleichung erfüllen:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm G}} \cdot { \boldsymbol{\rm H }}^{\rm T}= { \boldsymbol{\rm 0}}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hierbei bezeichnet $\boldsymbol{\rm 0}$ eine Nullmatrix (alle Elemente gleich $0$) mit $k$ Zeilen und $n-k$ Spalten.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Wir betrachten den '''RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt;''' &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; Codeparameter $n= 7$, $k= 3$, basierend auf dem Galoisfeld $\rm GF(2^3 = 8)$ mit der Nebenbedingung $\alpha^3 =\alpha + 1$. Beachten Sie hinsichtlich der Codebezeichnung:&lt;br /&gt;
*Der dritte Parameter der für Blockcodes üblichen Nomenklatur nennt die freie Distanz $d_{\rm min}= 5$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Anders als bei den im Kapitel [[Kanalcodierung/Beispiele_binärer_Blockcodes|Beispiele binärer Blockcodes]] behandelten binären Codes (Single Parity–check Code, Repetition Code, Hamming Code) wird bei den Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes noch der Hinweis $q$ zum Galoisfeld hinzugefügt (hier: $q = 8$).&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Alle Elemente der Generatormatrix und der Prüfmatrix&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;{ \boldsymbol{\rm G} } = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1\\&lt;br /&gt;
		1 &amp;amp; \alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4 &amp;amp; \alpha^5 &amp;amp; \alpha^6\\&lt;br /&gt;
		1 &amp;amp; \alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1 &amp;amp; \alpha^{3} &amp;amp; \alpha^{5}&lt;br /&gt;
\end{pmatrix}\hspace{0.05cm},\hspace{0.4cm}&lt;br /&gt;
	 { \boldsymbol{\rm H} } = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; \alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4 &amp;amp; \alpha^5 &amp;amp; \alpha^6\\&lt;br /&gt;
		1 &amp;amp; \alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1 &amp;amp; \alpha^{3} &amp;amp; \alpha^{5}\\&lt;br /&gt;
		1 &amp;amp; \alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^2 &amp;amp; \alpha^{5} &amp;amp; \alpha^{1} &amp;amp; \alpha^{4}\\&lt;br /&gt;
		1 &amp;amp; \alpha^4 &amp;amp; \alpha^1 &amp;amp; \alpha^{5} &amp;amp; \alpha^{2} &amp;amp; \alpha^{6} &amp;amp; \alpha^{3}&lt;br /&gt;
\end{pmatrix} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
entstammen dem Galoisfeld ${\rm GF}(2^3) \hspace{-0.01cm}\setminus \hspace{-0.01cm} \{0\} = \big \{\hspace{0.05cm} \alpha^{0}  \hspace{0.05cm},\hspace{0.1cm}\alpha^{1}\hspace{0.05cm},\hspace{0.1cm} \alpha^{2} \hspace{0.05cm} \alpha^{3}  \hspace{0.05cm},\hspace{0.1cm}\alpha^{4}\hspace{0.05cm},\hspace{0.1cm} \alpha^{5} \hspace{0.05cm},\hspace{0.1cm} \alpha^{6} \hspace{0.05cm}\big \}$. Für das Matrixprodukt gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm G} } \cdot { \boldsymbol{\rm H } }^{\rm T}= \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1\\&lt;br /&gt;
		1 &amp;amp; \alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4 &amp;amp; \alpha^5 &amp;amp; \alpha^6\\&lt;br /&gt;
		1 &amp;amp; \alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1 &amp;amp; \alpha^{3} &amp;amp; \alpha^{5}&lt;br /&gt;
\end{pmatrix}&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 \\&lt;br /&gt;
		\alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4\\&lt;br /&gt;
		\alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1\\&lt;br /&gt;
		\alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^2 &amp;amp; \alpha^{5}\\&lt;br /&gt;
		\alpha^4 &amp;amp; \alpha^1 &amp;amp; \alpha^{5} &amp;amp; \alpha^{2}\\&lt;br /&gt;
		\alpha^5 &amp;amp; \alpha^{3} &amp;amp; \alpha^{1} &amp;amp; \alpha^{6}\\&lt;br /&gt;
		\alpha^6 &amp;amp; \alpha^{5} &amp;amp; \alpha^{4} &amp;amp; \alpha^{3}&lt;br /&gt;
\end{pmatrix} = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 \\&lt;br /&gt;
		0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 \\&lt;br /&gt;
		0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 &lt;br /&gt;
\end{pmatrix} &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dies soll hier nur für zwei Elemente nachgewiesen werden:&lt;br /&gt;
*Erste Zeile, erste Spalte:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;1 \hspace{0.1cm}  \cdot  \hspace{0.1cm} \big [1 + \alpha^1 + \alpha^2 + \alpha^3 + \alpha^4 + \alpha^5 + \alpha^6 \big ] =   1 + \alpha + \alpha^2 + (\alpha + 1) + (\alpha^2 + \alpha)+ (\alpha^2 + \alpha +1)+ (\alpha^2 + 1) = 0 \hspace{0.05cm}; &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Letzte Zeile, letzte Spalte:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;1 \hspace{0.1cm}  \cdot  \hspace{0.1cm} 1 + \alpha^2 \cdot \alpha^4 + \alpha^4 \cdot \alpha^1&lt;br /&gt;
+ \alpha^6 \cdot \alpha^5+ \alpha^1 \cdot \alpha^2+ \alpha^3 \cdot \alpha^6+ \alpha^5 \cdot \alpha^3= 1 + \alpha^6 + \alpha^5 + \alpha^{11} + \alpha^{3}+ \alpha^{9}+ \alpha^{8} =&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{1.5cm}  =  \hspace{0.15cm} 1 + \alpha^6 + \alpha^5 + \alpha^{4} + \alpha^{3}+ \alpha^{2}+ \alpha^{1} =0 \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Singleton–Schranke und minimale Distanz ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Eine wichtige Kenngröße eines jeden Blockcodes ist die [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung| minimale  Distanz]] zwischen zwei beliebigen Codeworten $\underline {c}_i$ und $\underline {c}_j$. &lt;br /&gt;
*Die Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes gehören zur Klasse der &amp;lt;i&amp;gt;linearen&amp;lt;/i&amp;gt; und &amp;lt;i&amp;gt;zyklischen&amp;lt;/i&amp;gt; Codes. Bei diesen kann man vom Nullwort $\underline {c}_0 = (0,  0, \hspace{0.05cm} \text{...} \hspace{0.05cm},  0)$ als Bezugsgröße ausgehen. &lt;br /&gt;
*Aus der Anzahl der Nullen in den anderen Codeworten $\underline {c}_j &amp;amp;ne; \underline {c}_0$ lässt sich das [[Kanalcodierung/Schranken_f%C3%BCr_die_Blockfehlerwahrscheinlichkeit#Distanzspektrum_eines_linearen_Codes_.282.29| Distanzspektrum]] $\{ \hspace{0.05cm}W_j\hspace{0.05cm}\}$ angeben.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 5:}$&amp;amp;nbsp; Die Tabelle verdeutlicht die Bestimmung des Distanzspektrums für den '''RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;'''. &lt;br /&gt;
*Gegenüber den bisherigen Grafiken wird  die Symbolmenge vereinfachend mit $\{0, 1, 2, 3\}$ anstelle von $\{0, \alpha^0, \alpha^1, \alpha^2\}$ bezeichnet. &lt;br /&gt;
*Die Distanz $d$  zwischen $\underline {c}_j$ und dem Nullwort  &amp;amp;$\underline {c}_0$ ist identisch dem [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung|Hamming&amp;amp;ndash;Gewicht]] $w_{\rm H}(\underline {c}_j)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2520 KC T 2 3 S3 v1.png|center|frame|Zur Herleitung des Distanzspektrums für den RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Aus der oberen Tabelle kann unter anderem abgelesen werden:&lt;br /&gt;
*Neun der Codeworte unterscheiden sich vom Nullwort in zwei Symbolen und sechs Codeworte in drei Symbolen: &amp;amp;nbsp; $W_2 = 9$, $W_3 = 6$. &lt;br /&gt;
*Es gibt kein einziges Codewort mit nur einer Null. Das heißt: Die minimale Distanz beträgt hier $d_{\rm min} = 2$. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Aus der unteren Tabelle erkennt man, dass auch für die Binärdarstellung $d_{\rm min} = 2$ gilt.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dieses empirische Ergebnis soll nun verallgemeinert werden:&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Ohne Beweis:}$&amp;amp;nbsp; &lt;br /&gt;
*Die &amp;lt;i&amp;gt;minimale Distanz&amp;lt;/i&amp;gt; eines jeden $(n, k)$&amp;amp;ndash;Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes beträgt $d_{\rm min} =n-k+1$. Damit lassen sich $e = d_{\rm min} -1 =n-k$ Symbolfehler erkennen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei &amp;lt;i&amp;gt;fehlerkorrigierenden Codes&amp;lt;/i&amp;gt; wählt man meist ein $d_{\rm min} $ ungeradzahlig &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $n-k$ geradzahlig. Bei RS&amp;amp;ndash;Codes können dann bis zu $t =(n-k)/2$ Symbolfehler korrigiert werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die [https://de.wikipedia.org/wiki/Singleton-Schranke Singleton&amp;amp;ndash;Schranke] besagt, dass für alle linearen Codes $d_{\rm min} \le n-k+1$ gilt. RS&amp;amp;ndash;Codes erreichen diese Schranke mit Gleichheit; sie sind so genannte [https://de.wikipedia.org/wiki/MDS-Code MDS&amp;amp;ndash;Codes] (&amp;lt;i&amp;gt;Maximum Distance Separable&amp;lt;/i&amp;gt;).&lt;br /&gt;
&lt;br /&gt;
*Das [[Kanalcodierung/Schranken_f%C3%BCr_die_Blockfehlerwahrscheinlichkeit#Distanzspektrum_eines_linearen_Codes| Distanzspektrum]] setzt sich zusammen aus $W_0 = 1$ sowie weiteren Gewichtsfaktoren $W_i$ mit $d &amp;amp;#8804; i &amp;amp;#8804; n$, wobei in der folgenden Gleichung $d_{\rm min}$ mit $d$ abgekürzt ist:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;W_i =   {n \choose i} \cdot \sum_{j = 0}^{i-d}\hspace{0.15cm}(-1)^j \cdot {i \choose j} \cdot \bigg  [\hspace{0.03cm}q^{i\hspace{0.03cm}-\hspace{0.03cm}j\hspace{0.03cm}-\hspace{0.03cm}d\hspace{0.03cm}+\hspace{0.03cm}1}-1 \hspace{0.03cm} \bigg ]\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
== Codebezeichnung und Coderate ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die übliche Bezeichnung für die Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes ist &amp;amp;nbsp;&amp;lt;b&amp;gt;RSC&amp;amp;nbsp;(&amp;lt;i&amp;gt;n&amp;lt;/i&amp;gt;,&amp;amp;nbsp;&amp;lt;i&amp;gt;k&amp;lt;/i&amp;gt;,&amp;amp;nbsp;&amp;lt;i&amp;gt;d&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;min&amp;lt;/sub&amp;gt;)&amp;lt;sub&amp;gt;&amp;lt;i&amp;gt;q&amp;lt;/i&amp;gt;&amp;lt;/sub&amp;gt;&amp;lt;/b&amp;gt;&amp;amp;nbsp; mit&lt;br /&gt;
*der Länge $n$ des Codes (Symbolanzahl eines Codewortes),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*der Dimension $k$ des Codes (Symbolanzahl eines Informationswortes),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*der minimalen Distanz $d_{\rm min} = n-k+1$, maximal entsprechend der ''Singleton&amp;amp;ndash;Schranke'', und&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*der Größe $q = 2^m$ des Galoisfeldes ${\rm GF}(q)$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Alle Elemente $u_i$ des Informationswortes $\underline{u}= (u_0, \hspace{0.05cm}\text{...} \hspace{0.05cm}, u_i,  \hspace{0.05cm}\text{...} \hspace{0.05cm}, u_{k-1})$ und alle Elemente &amp;lt;i&amp;gt;c&amp;lt;sub&amp;gt;i&amp;lt;/sub&amp;gt;&amp;lt;/i&amp;gt; des Codewortes $\underline{c}= (c_0, \hspace{0.05cm}\text{...} \hspace{0.05cm}, c_i,  \hspace{0.05cm}\text{...} \hspace{0.05cm}, c_{n-1})$ sind nicht binäre Symbole und entstammen dem Galoisfeld ${\rm GF}(q)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für die Realisierung werden diese Symbole stets auch binär dargestellt und man kommt zum äquivalenten binären Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code &amp;amp;nbsp;&amp;lt;b&amp;gt;RSC (&amp;lt;i&amp;gt;n&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;bin&amp;lt;/sub&amp;gt;, &amp;lt;i&amp;gt;k&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;bin&amp;lt;/sub&amp;gt;, &amp;lt;i&amp;gt;d&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;min&amp;lt;/sub&amp;gt;)&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt; &amp;lt;/b&amp;gt;&amp;amp;nbsp; mit&lt;br /&gt;
*$n_{\rm bin} = n \cdot m$ Bit eines Codewortes,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*$k_{\rm bin} = k \cdot m$ Bit eines Informationswortes.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Coderate wird durch diese Maßnahme nicht verändert:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;R = \frac{k}{n}= \frac{k_{\rm bin}}{n_{\rm bin}} = \frac{k \cdot m}{n \cdot m} = \frac{k}{n}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ebenso ändert sich durch den Übergang von ${\rm GF}(q)$ auf ${\rm GF}(2)$ nichts an der minimalen Distanz $d_{\rm min}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 6:}$&amp;amp;nbsp; Wie im Beispiel 5 betrachten wir wieder den '''RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;''' und geben das &amp;lt;i&amp;gt;Distanzspektrum&amp;lt;/i&amp;gt; $\{ \hspace{0.05cm}W_j\hspace{0.05cm}\}$ nochmals an (obere Tabelle). Die untere Tabelle gilt für den äquivalenten binären Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code '''RSC (6, 4, 2)&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;'''.&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2521 KC T 2 3 S3 v1.png|center|frame|Herleitung der Distanzspektren von RSC (3, 2, 2)&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt; und RSC (6, 4, 2)&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;|class=fit]]&lt;br /&gt;
&lt;br /&gt;
*Beide Codes haben die gleiche Coderate $R = k/n =2/3$ und auch die gleiche minimale Distanz $d_{\rm min} = 2$.&lt;br /&gt;
*Die beiden Codes unterscheiden sich jedoch hinsichtlich dem Distanzspektrum $\{ \hspace{0.05cm}W_j\hspace{0.05cm}\}$ und der [[Kanalcodierung/Schranken_f%C3%BCr_die_Blockfehlerwahrscheinlichkeit#Distanzspektrum_eines_linearen_Codes|Gewichtsfunktion]] $W(X)$:&lt;br /&gt;
&lt;br /&gt;
::{RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;: &amp;amp;nbsp; $W_0 =  1\hspace{0.05cm}, \hspace{0.2cm}W_2 =  9\hspace{0.05cm}, \hspace{0.2cm}W_3 =  6\hspace{0.3cm}\Rightarrow\hspace{0.3cm}W(X) = 1 + 9 \cdot X^2 + 6 \cdot X^3\hspace{0.05cm}.$&lt;br /&gt;
::{RSC (6, 4, 2)&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;: &amp;amp;nbsp; $W_0 =  1\hspace{0.05cm}, \hspace{0.2cm}W_2 =  3\hspace{0.05cm}, \hspace{0.2cm}W_3 =  8&lt;br /&gt;
\hspace{0.05cm}, \hspace{0.2cm}W_4 =  3\hspace{0.05cm}, \hspace{0.2cm}W_6 =  1&lt;br /&gt;
\hspace{0.3cm}\Rightarrow\hspace{0.3cm}W(X) = 1 + 3 \cdot X^2 + 8 \cdot X^3 + 4 \cdot X^4 + X^6 \hspace{0.05cm}.$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Bedeutung der Reed–Solomon–Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Anhand des hier oft beispielhaft betrachteten RSC&amp;amp;nbsp;(3,&amp;amp;nbsp;2,&amp;amp;nbsp;2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt; konnten wir viele Eigenschaften der Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes in überschaubarem Rahmen kennenlernen. Praxisrelevant ist dieser Code allerdings nicht, da wegen $d_{\rm min} = 2$ kein einziger Fehler korrigiert und auch nur ein einziger Fehler erkannt werden kann. Schon der nächstgrößere Code RSC&amp;amp;nbsp;(7,&amp;amp;nbsp;3,&amp;amp;nbsp;5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt;, der bis zu $t = 2$ Fehler korrigieren kann, weist bereits eine Codetabelle mit  $8^3 = 512$ Einträgen auf und ist zu Demonstrationszwecken weniger gut geeignet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In der Praxis werden meist sehr große RS&amp;amp;ndash;Codes eingesetzt, zum Beispiel der RSC (255, 223, 33)&amp;lt;sub&amp;gt;256&amp;lt;/sub&amp;gt; mit den folgenden Eigenschaften:&lt;br /&gt;
*Der Code basiert auf dem Galoisfeld $\rm GF(2^8)$. Jedes Symbol entspricht somit einem Byte. Die Coderate ist mit $R = 0.8745$ relativ groß.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Trotz dieser großen Coderate (also geringe Redundanz) können mit diesem Code bis zu $e = 32$ Fehler innerhalb eines Blocks aus $255$ Symbolen erkannt und $t = 16$ Fehler korrigiert werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Codetabelle würde allerdings $2^{8 \cdot 223}= 2^{8 \cdot 1784} &amp;amp;asymp; 10^{537}$ Einträge aufweisen und wird deshalb wahrscheinlich auch von niemanden tatsächlich erstellt.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der große Vorteil der Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes (und einer ganzen Reihe davon abgeleiteter weiterer Codes) ist zum einen, dass sie analytisch geschlossen konstruiert werden können und zum anderen ihre große Flexibilität hinsichtlich der Codeparameter. Meist geht man wie folgt vor:&lt;br /&gt;
*Man gibt die Korrekturfähigkeit in Form des Parameters $t$ vor. Daraus ergibt sich die minimale Distanz $d_{\rm min} = 2t + 1$ und die Differenz $n-k = 2t$ entsprechend der Singleton&amp;amp;ndash;Schranke. Einen besseren Wert gibt es nicht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ein weiterer Entwurfsparameter ist die Coderate $R=k/n$, wobei die Codewortlänge $n = 2^m -1$ nicht völlig frei wählbar ist. Durch Erweiterung, Verkürzung und Punktierung &amp;amp;ndash; siehe [[Aufgabe 1.9Z]] &amp;amp;ndash; kann die Vielzahl an möglichen Codes weiter vergrößert werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes ist die Gewichtsverteilung exakt bekannt und es ist eine Anpassung an die Fehlerstruktur des Kanals möglich. Diese Codes sind insbesondere für Bündelfehlerkanäle gut geeignet, die bei mobilen Funksystemen aufgrund von temporären Abschattungen häufig vorliegen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Im Falle statistisch unabhängiger Fehler sind [https://de.wikipedia.org/wiki/BCH-Code BCH&amp;amp;ndash;Codes] (von '''B'''ose&amp;amp;ndash;'''C'''haudhuri&amp;amp;ndash;'''H'''ocquenghem) besser geeignet. Diese sind eng verwandt mit den RS&amp;amp;ndash;Codes, allerdings erfüllen sie nicht immer das Singleton&amp;amp;ndash;Kriterium. Eine ausführliche Beschreibung finden Sie in [Fri96]&amp;lt;ref name='Fri96'&amp;gt;Friedrichs, B.: ''Kanalcodierung – Grundlagen und Anwendungen in modernen Kommunikations- systemen.'' Berlin – Heidelberg: Springer, 1996.&amp;lt;/ref&amp;gt;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Decodierung nach dem [https://en.wikipedia.org/wiki/Lattice_problem BDD&amp;amp;ndash;Prinzip] (&amp;lt;i&amp;gt;Bounded Distance Decoding&amp;lt;/i&amp;gt;) kann rechentechnisch sehr einfach erfolgen, zum Beispiel mit dem [https://de.wikipedia.org/wiki/Berlekamp-Massey-Algorithmus Berlekamp&amp;amp;ndash;Massey&amp;amp;ndash;Algorithmus]. Zudem kann im Decoder ohne wesentlichen Mehraufwand auch [https://en.wikipedia.org/wiki/Soft-decision_decoder Soft&amp;amp;ndash;Decision&amp;amp;ndash;Information] verarbeitet werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:2.07_Reed–Solomon–Code_(7,_3,_5)(Base_8)|Aufgabe 2.7: Reed–Solomon–Code (7, 3, 5)(Base 8)]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.07Z_Reed–Solomon–Code_(15,_5,_11)(Base_16)|Zusatzaufgabe 2.7Z: Reed–Solomon–Code (15, 5, 11)(Base 16)]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.08_RS–Generatorpolynome|Aufgabe 2.8:  RS–Generatorpolynome]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.08Z_„Plus”_und_„Mal”_in_GF(2%5E3)|Zusatzaufgabe 2.8Z: „Plus” und „Mal” in GF(2^3)]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.09_Reed–Solomon–Parameter|Aufgabe 2.9: Reed–Solomon–Parameter]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.10_Fehlererkennung_bei_RSC|Aufgabe 2.10: Fehlererkennung bei RSC]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.10Z_Coderate_und_minimale_Distanz|Zusatzaufgabe 2.10Z: Coderate und minimale Distanz]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Definition_and_Properties_of_Reed-Solomon_Codes&amp;diff=21282</id>
		<title>Channel Coding/Definition and Properties of Reed-Solomon Codes</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Definition_and_Properties_of_Reed-Solomon_Codes&amp;diff=21282"/>
		<updated>2018-01-02T19:12:54Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Reed–Solomon–Codes und deren Decodierung&lt;br /&gt;
|Vorherige Seite=Erweiterungskörper&lt;br /&gt;
|Nächste Seite=Reed–Solomon–Decodierung beim Auslöschungskanal&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Definition und Eigenschaften der Reed–Solomon–Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:P ID2515 KC T 2 3 S1 v2.png|right|frame|Linearer $(n, \, k)$–Blockcode|class=fit]]&lt;br /&gt;
Ein &amp;lt;i&amp;gt;Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code&amp;lt;/i&amp;gt; &amp;amp;ndash; im Folgenden manchmal auch verkürzt  als '''RS&amp;amp;ndash;Code''' bezeichnet &amp;amp;ndash; ist ein [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Lineare_Codes_und_zyklische_Codes| linearer Blockcode]], der einem Informationsblock $\underline{u}$ mit $k$ Symbolen ein entsprechendes Codewort $\underline{c}$ mit $n &amp;gt; k$ Symbolen zuordnet. Diese noch heute vielfach eingesetzten Codes wurden bereits Anfang der 1960er Jahre von [https://de.wikipedia.org/wiki/Irving_Stoy_Reed Irving Stoy Reed] und [https://de.wikipedia.org/wiki/Gustave_Solomon Gustave Solomon] erfunden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Kapitel [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Blockschaltbild_und_Voraussetzungen|Zielsetzung der Kanalcodierung]] wurde der Informationsblock mit $\underline{u}= (u_1,$ ... , $u_k)$ und das Codewort mit $\underline{x}= (x_1,$ ... , $x_n)$ bezeichnet. Die Nomenklaturänderung gemäß obiger Grafik wurde vorgenommen, um Verwechslungen mit dem Argument von Polynomen auszuschließen und die Beschreibung der RS&amp;amp;ndash;Codes zu vereinfachen.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Alle im Abschnitt [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Lineare_Codes_und_zyklische_Codes|Lineare Codes und zyklische Codes]] genannten Eigenschaften linearer zyklischer Blockcodes gelten auch für einen Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code. Zusätzlich gilt: &lt;br /&gt;
*Konstruktion und Decodierung von Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes basieren auf der Arithmetik eines Galoisfeldes ${\rm GF}(q)$, wobei wir uns hier auf binäre Erweiterungskörper mit $q=2^m$ Elementen beschränken:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm GF}(2^m) = \big \{\hspace{0.05cm}0\hspace{0.05cm},\hspace{0.1cm} \alpha^{0}  ,\hspace{0.05cm}\hspace{0.1cm}&lt;br /&gt;
\alpha^{1}\hspace{0.05cm},\hspace{0.1cm} \alpha^{2}\hspace{0.05cm},\hspace{0.1cm}...\hspace{0.1cm},  \alpha^{q-2}\hspace{0.05cm} \big \}\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Prinzipiell unterschiedlich zum ersten Kapitel ist, dass die Koeffizienten $u_0$, $u_1$, ... , $u_{k-1}$ nun nicht mehr einzelne Informationsbits ($0$ oder $1$) angeben, sondern ebenfalls Elemente aus ${\rm GF}(2^m)$ sind. Jedes der $n$ Symbole steht vielmehr für $m$ Bit.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei den Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes ist der Parameter $n$ (Codelänge) gleich der Anzahl der Elemente des Galoisfeldes ohne das Nullwort: $n= q-1$. Wir verwenden hierzu folgende Nomenklatur:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm GF}(2^m) \hspace{-0.05cm}\setminus \hspace{-0.05cm} \{0\} = \big \{\hspace{0.05cm} \alpha^{0}  ,\hspace{0.05cm}\hspace{0.1cm}&lt;br /&gt;
\alpha^{1}\hspace{0.05cm},\hspace{0.1cm} \alpha^{2}\hspace{0.05cm},\hspace{0.1cm}...\hspace{0.1cm},  \alpha^{n-1}\hspace{0.05cm} \big \}\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die $k$ Koeffizienten $u_i \in {\rm GF}(2^m)$ des Informationsblocks $\underline{u} \ ( 0 \le i &amp;lt; k)$ kann man formal auch durch ein Polynom $u(x)$ ausdrücken. Der Grad des Polynoms ist dabei $k-1$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;u(x) = \sum_{i = 0}^{k-1} u_i \cdot x^{i}  = u_0 + u_1 \cdot x + u_2 \cdot x^2 + \hspace{0.1cm}... \hspace{0.1cm}+ u_{k-1} \cdot x^{k-1}   \hspace{0.05cm},\hspace{0.4cm} u_i \in {\rm GF}(2^m)&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die $n$ Symbole des zugehörigen Codewortes $\underline{c}= (c_0, c_1,$ ... , $c_{n-1})$ergeben sich mit diesem  Polynom $u(x)$ zu&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;c_0 = u(\alpha^{0}) \hspace{0.05cm},\hspace{0.3cm} c_1 = u(\alpha^{1})\hspace{0.05cm},\hspace{0.1cm}...\hspace{0.1cm},\hspace{0.3cm} c_{n-1}= u(\alpha^{n-1}) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Meist werden die Codesymbole $c_i \in {\rm GF}(2^m)$ vor der Übertragung wieder in Binärform &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; ${\rm GF}(2)$ gebracht, wobei dann jedes Symbol durch &amp;lt;i&amp;gt;m&amp;lt;/i&amp;gt; Bit dargestellt wird.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Fassen wir die bisherigen Aussagen kurz zusammen:&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;  Ein $(n, k)$'''&amp;amp;ndash;Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code''' für das Galoisfeld ${\rm GF}(2^m)$ wird festgelegt durch&lt;br /&gt;
*die $n= 2^{m-1}$ Elemente von ${\rm GF}(2^m) \hspace{-0.05cm}\setminus \hspace{-0.05cm} \{0\} =\{ \alpha^0, \alpha^1, \, \text{...} ,  \alpha^{n-1}\}$, wobei $\alpha$ ein [[Kanalcodierung/Erweiterungskörper#Bin.C3.A4re_Erweiterungsk.C3.B6rper_.E2.80.93_Primitive_Polynome|primitives Element]] von ${\rm GF}(2^m)$ bezeichnet,&lt;br /&gt;
&lt;br /&gt;
*ein an den Informationsblockt $\underline{u}$ angepasstes [[Kanalcodierung/Erweiterungskörper#Verallgemeinerte_Definition_eines_Erweiterungsk.C3.B6rpers|Polynom]] vom Grad $k-1$ der Form&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;u(x) = \sum_{i = 0}^{k-1} u_i \cdot x^{i}  = u_0 + u_1 \cdot x + u_2 \cdot x^2 + \hspace{0.1cm}... \hspace{0.1cm}+ u_{k-1} \cdot x^{k-1}   \hspace{0.05cm},\hspace{0.4cm} u_i \in {\rm GF}(2^m)&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit lässt sich der $(n, k)$&amp;amp;ndash;Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code  beschreiben als&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;C_{\rm RS} = \Big \{ \underline {c} =  \big ( u(\alpha^{0}) \hspace{0.05cm},\hspace{0.1cm} u(\alpha^{1})\hspace{0.05cm},\hspace{0.1cm}...\hspace{0.1cm},  u(\alpha^{n-1})\hspace{0.1cm}   \big )&lt;br /&gt;
 \hspace{0.1cm} \big \vert \hspace{0.2cm} u(x) = \sum_{i = 0}^{k-1} u_i \cdot x^{i}\hspace{0.05cm},\hspace{0.2cm} u_i \in {\rm GF}(2^m)&lt;br /&gt;
\Big \}  \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die bisherigen Angaben sollen nun an zwei einfachen Beispielen verdeutlicht werden.&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2517 KC T 2 3 S1b v3.png|right|frame|GF(2&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt;) in Exponenten–, Polynom– und Koeffizientenform |class=fit]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp;  Wir betrachten die folgenden Codeparametern:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;k = 2 \hspace{0.05cm},\hspace{0.15cm}n = 3 \hspace{0.5cm} \Rightarrow  \hspace{0.5cm} \underline {u} = (u_0, u_1)\hspace{0.05cm},\hspace{0.15cm} &lt;br /&gt;
\underline {c} = (c_0, c_1, c_2)\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;q = n+1 = 4 \hspace{0.45cm} \Rightarrow  \hspace{0.5cm} {\rm GF} (q) = {\rm GF} (2^m) &lt;br /&gt;
\hspace{0.5cm} \Rightarrow  \hspace{0.5cm} m = 2\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ausgehend von der Bedingungsgleichung $p(\alpha) =  \alpha^2 + \alpha + 1 = 0$  &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $\alpha^2 = \alpha + 1$ erhält man die Zuordnungen zwischen &lt;br /&gt;
*der Exponentendarstellung, &lt;br /&gt;
*der Polynomdarstellung und &lt;br /&gt;
*der Koeffizientendarstellung &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
von ${\rm GF}(2^2)$ gemäß obiger Tabelle. Daraus ist ersichtlich:&lt;br /&gt;
&lt;br /&gt;
*Der Koeffizientenvektor wird durch das Polynom $u(x) = u_0 + u_1 \cdot x$   ausgedrückt. Der Polynomgrad ist $k- 1 = 1$. &lt;br /&gt;
*Für $u_0 = \alpha^1$ und $u_1 = \alpha^2$ erhält man beispielsweise das Polynom $u(x) = \alpha + \alpha^2 \cdot x$ und damit&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;c_0 = u (x = \alpha^0) = u (x = 1) =  \alpha + \alpha^2 \cdot 1 = \alpha + (\alpha + 1) =1 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;c_1 =u (x = \alpha^1) =  \alpha + \alpha^2 \cdot \alpha = \alpha + \alpha^3 =  \alpha + \alpha^0  =  \alpha + 1 = \alpha^2 \hspace{0.05cm},&amp;lt;/math&amp;gt; &lt;br /&gt;
::&amp;lt;math&amp;gt;c_2 =u (x = \alpha^2) =  \alpha + \alpha^2 \cdot \alpha^2 = \alpha + \alpha^4 =  \alpha + \alpha^1 = 0 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Daraus ergeben sich folgende Zuordnungen auf Symbol&amp;amp;ndash; bzw. Bitebene:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {u} =(\alpha^1, \alpha^2)\hspace{0.57cm}\leftrightarrow\hspace{0.3cm} &lt;br /&gt;
\underline {c} = (1, \alpha^2, 0)\hspace{0.05cm},\hspace{1cm}\underline {u}_{\rm bin} =(1,0,1,1)\hspace{0.3cm}\leftrightarrow\hspace{0.3cm} &lt;br /&gt;
\underline {c}_{\rm bin} = (0,1,1,1,0,0)\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2570 KC T 2 3 S1bb v3.png|right|frame||Codetabelle des RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp;  &lt;br /&gt;
Rechts ist die Codetabelle des '''RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;''' genannten Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes. &lt;br /&gt;
*Die Bezeichnung bezieht sich auf die Parameter $n=3$, $k=2$, $d_{\rm min}=2$ und $q = 4$. &lt;br /&gt;
*In den Spalten 1 bis 3 erkennt man den Zusammenhang $\underline {u} \  &amp;amp;#8594; \ u(x) \ &amp;amp;#8594; \ \underline {c}$.&lt;br /&gt;
*In den beiden letzten Spalten ist die Codiervorschrift $\underline {u}_{\rm bin} \  &amp;amp;#8596; \ \underline {c}_{\rm bin}$ angegeben.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Zur Verdeutlichung nochmals der Eintrag für $(\alpha^0, \, \alpha^2)$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;u(x) = u_0 + u_1 \cdot x = \alpha^0 +  \alpha^2 \cdot x. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Daraus ergeben sich folgende Codesymbole:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;c_0 = u (x = \alpha^0) =  1 + \alpha^2 \cdot 1 = 1 + (1+\alpha ) =\alpha \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;c_1 = u (x = \alpha^1) =  1 + \alpha^2 \cdot \alpha = 1 +  (1+\alpha ) \cdot \alpha =  1 + \alpha + \alpha^2  =  0 \hspace{0.05cm},&amp;lt;/math&amp;gt; &lt;br /&gt;
::&amp;lt;math&amp;gt;c_2 =u (x = \alpha^2) =  1 + \alpha^2 \cdot \alpha^2 = 1 + \alpha =  \alpha^2  \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;i&amp;gt;Hinweise:&amp;lt;/i&amp;gt; &lt;br /&gt;
*Aus der Elementenmenge $\{0, \alpha^0 = 1, \alpha^1 = \alpha, \alpha^2\}$ sollte nicht geschlossen werden, dass für diesen Code die [[Kanalcodierung/Erweiterungskörper#Bin.C3.A4re_Erweiterungsk.C3.B6rper_.E2.80.93_Primitive_Polynome|3D&amp;amp;ndash;Darstellung]] mit den Achsen $\alpha^0 = 1$, $\alpha^1 = \alpha$ und $\alpha^2$ zutrifft. &lt;br /&gt;
*Aus der Koeffizientendarstellung geht vielmehr eindeutig hervor, dass ${\rm GF} (2^m)$ ein zweidimensionaler Code ist, wobei die Achsen der [[Kanalcodierung/Erweiterungskörper#Interpretation_des_neuen_Elementes_.7FUNIQ-MathJax56-QINU.7F| 2D&amp;amp;ndash;Darstellung]] mit $\alpha^0 = 1$ und $\alpha^1 = \alpha$ zu beschriften sind.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Generatormatrix  der Reed–Solomon–Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Da es sich beim Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code um einen linearen Blockcode handelt, ist der Zusammenhang zwischen Informationswort $\underline {u}$ und Codewort $\underline {c}$ durch die [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Generatormatrix| Generatormatrix]] $\boldsymbol{\rm G}$ gegeben:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\underline {c} = \underline {u} \cdot { \boldsymbol{\rm G}}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wie bei jedem linearen $(n, k)$&amp;amp;ndash;Blockcode besteht die Generatormatrix aus $k$ Zeilen und $n$ Spalten. Im Gegensatz zum Kapitel [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Lineare_Codes_und_zyklische_Codes|Allgemeine Beschreibung linearer Blockcodes]] sind nun aber die Elemente der Generatormatrix nicht mehr binär ($0$ oder $1$), sondern entstammen dem Galoisfeld ${\rm GF}(2^m) \hspace{-0.05cm}\setminus \hspace{-0.05cm} \{0\} $.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; Wir betrachten wie im Beispiel 2 auf der vorherigen Seite wieder den '''RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;''', dessen Generatormatrix folgende Form hat:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt; { \boldsymbol{\rm G} } = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		g_{00} &amp;amp; g_{01} &amp;amp; g_{02}\\&lt;br /&gt;
		g_{10} &amp;amp; g_{11} &amp;amp; g_{12}&lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm},\hspace{0.3cm} g_{ij} \in &lt;br /&gt;
	{\rm GF}(2^2) \hspace{-0.01cm}\setminus \hspace{-0.01cm} \{0\} = \big \{\hspace{0.05cm} \alpha^{0}  \hspace{0.05cm},\hspace{0.1cm}&lt;br /&gt;
\alpha^{1}\hspace{0.05cm},\hspace{0.1cm} \alpha^{2} \hspace{0.05cm}\big \}\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Daneben gilt:&lt;br /&gt;
*Die erste Zeile von $\boldsymbol{\rm G}$ gibt das Codewort für das Informationswort $\underline {u}_1 = (1, 0)$ an bzw. für die Polynomfunktion $u_1(x) = 1$. Damit erhält man die Matrixelemente der ersten Zeile zu&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;g_{00} = u_{1}(\alpha^{0}) = 1\hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
g_{01} = u_{1}(\alpha^{1}) = 1\hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
g_{02} = u_{1}(\alpha^{2}) = 1\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die zweite Zeile ist gleich dem Codewort für das Informationswort $\underline {u}_2 = (0, 1)$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $u_2(x) = x$. Die Matrixelemente der zweiten Zeile lauten somit:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;g_{10} = u_{2}(\alpha^{0}) = \alpha^{0} = 1\hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
g_{11} = u_{2}(\alpha^{1}) =  \alpha \hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
g_{12} = u_{2}(\alpha^{2}) = \alpha^{2}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow\hspace{0.3cm}	 { \boldsymbol{\rm G} } = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1\\&lt;br /&gt;
		1 &amp;amp; \alpha &amp;amp; \alpha^2&lt;br /&gt;
\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für das Informationswort $\underline {u}= (u_0, u_1)$ mit den Symbolen $u_0, u_1 &amp;amp;#8712; \{0, \alpha^0, \alpha^1 = \alpha, \alpha^2\}$ erhält man unter Berücksichtigung der beiden Gleichungen $\alpha^2 = \alpha + 1$ sowie $\alpha^3 = \alpha^0 = 1$ wiederum die Codetabelle des RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt; auf Symbolebene.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2519 KC T 2 3 S2a v1.png|center|frame|Codetabelle des RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt; auf Symbolebene|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Man erhält natürlich mit der Generatormatrix genau die gleiche Codetabelle $\underline {u} &amp;amp;nbsp; &amp;amp;#8596; &amp;amp;nbsp; \underline {c}$ wie nach der Berechnung über die Funktion $u(x)$. Die entsprechende Codetabelle auf Bitebene (siehe Beispiel 2 auf der vorherigen Seite) ergibt sich wieder, wenn man die Elemente nicht in Exponentendarstellung angibt, sondern in Koeffizientenform:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;(0, \hspace{0.1cm}\alpha^{0}, \hspace{0.1cm}\alpha^{1}, \hspace{0.1cm}\alpha^{2}) \hspace{0.3cm}\Leftrightarrow\hspace{0.3cm}(00, \hspace{0.1cm}01, \hspace{0.1cm}10, \hspace{0.1cm}11) &lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Generatormatrix  und Prüfmatrix ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir verallgemeinern nun das Ergebnis der letzten Seite für einen Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code mit&lt;br /&gt;
*der Dimension $k$ (Symbolanzahl pro Informationsblock),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*der Codewortlänge $n$ (Symbolanzahl pro Codewort).&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Generatormatrix| Generatormatrix]] $\boldsymbol{\rm G}$ (mit $k$ Zeilen und $n$ Spalten) und die [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Pr.C3.BCfmatrix| Prüfmatrix]] $\boldsymbol{\rm H}$ ($n-k$ Zeilen, $n$ Spalten) müssen gemeinsam folgende Gleichung erfüllen:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm G}} \cdot { \boldsymbol{\rm H }}^{\rm T}= { \boldsymbol{\rm 0}}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hierbei bezeichnet $\boldsymbol{\rm 0}$ eine Nullmatrix (alle Elemente gleich $0$) mit $k$ Zeilen und $n-k$ Spalten.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Wir betrachten den '''RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt;''' &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; Codeparameter $n= 7$, $k= 3$, basierend auf dem Galoisfeld $\rm GF(2^3 = 8)$ mit der Nebenbedingung $\alpha^3 =\alpha + 1$. Beachten Sie hinsichtlich der Codebezeichnung:&lt;br /&gt;
*Der dritte Parameter der für Blockcodes üblichen Nomenklatur nennt die freie Distanz $d_{\rm min}= 5$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Anders als bei den im Kapitel [[Kanalcodierung/Beispiele_binärer_Blockcodes|Beispiele binärer Blockcodes]] behandelten binären Codes (Single Parity–check Code, Repetition Code, Hamming Code) wird bei den Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes noch der Hinweis $q$ zum Galoisfeld hinzugefügt (hier: $q = 8$).&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Alle Elemente der Generatormatrix und der Prüfmatrix&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;{ \boldsymbol{\rm G} } = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1\\&lt;br /&gt;
		1 &amp;amp; \alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4 &amp;amp; \alpha^5 &amp;amp; \alpha^6\\&lt;br /&gt;
		1 &amp;amp; \alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1 &amp;amp; \alpha^{3} &amp;amp; \alpha^{5}&lt;br /&gt;
\end{pmatrix}\hspace{0.05cm},\hspace{0.4cm}&lt;br /&gt;
	 { \boldsymbol{\rm H} } = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; \alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4 &amp;amp; \alpha^5 &amp;amp; \alpha^6\\&lt;br /&gt;
		1 &amp;amp; \alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1 &amp;amp; \alpha^{3} &amp;amp; \alpha^{5}\\&lt;br /&gt;
		1 &amp;amp; \alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^2 &amp;amp; \alpha^{5} &amp;amp; \alpha^{1} &amp;amp; \alpha^{4}\\&lt;br /&gt;
		1 &amp;amp; \alpha^4 &amp;amp; \alpha^1 &amp;amp; \alpha^{5} &amp;amp; \alpha^{2} &amp;amp; \alpha^{6} &amp;amp; \alpha^{3}&lt;br /&gt;
\end{pmatrix} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
entstammen dem Galoisfeld ${\rm GF}(2^3) \hspace{-0.01cm}\setminus \hspace{-0.01cm} \{0\} = \big \{\hspace{0.05cm} \alpha^{0}  \hspace{0.05cm},\hspace{0.1cm}\alpha^{1}\hspace{0.05cm},\hspace{0.1cm} \alpha^{2} \hspace{0.05cm} \alpha^{3}  \hspace{0.05cm},\hspace{0.1cm}\alpha^{4}\hspace{0.05cm},\hspace{0.1cm} \alpha^{5} \hspace{0.05cm},\hspace{0.1cm} \alpha^{6} \hspace{0.05cm}\big \}$. Für das Matrixprodukt gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm G} } \cdot { \boldsymbol{\rm H } }^{\rm T}= \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1\\&lt;br /&gt;
		1 &amp;amp; \alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4 &amp;amp; \alpha^5 &amp;amp; \alpha^6\\&lt;br /&gt;
		1 &amp;amp; \alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1 &amp;amp; \alpha^{3} &amp;amp; \alpha^{5}&lt;br /&gt;
\end{pmatrix}&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 \\&lt;br /&gt;
		\alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4\\&lt;br /&gt;
		\alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1\\&lt;br /&gt;
		\alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^2 &amp;amp; \alpha^{5}\\&lt;br /&gt;
		\alpha^4 &amp;amp; \alpha^1 &amp;amp; \alpha^{5} &amp;amp; \alpha^{2}\\&lt;br /&gt;
		\alpha^5 &amp;amp; \alpha^{3} &amp;amp; \alpha^{1} &amp;amp; \alpha^{6}\\&lt;br /&gt;
		\alpha^6 &amp;amp; \alpha^{5} &amp;amp; \alpha^{4} &amp;amp; \alpha^{3}&lt;br /&gt;
\end{pmatrix} = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 \\&lt;br /&gt;
		0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 \\&lt;br /&gt;
		0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 &lt;br /&gt;
\end{pmatrix} &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dies soll hier nur für zwei Elemente nachgewiesen werden:&lt;br /&gt;
*Erste Zeile, erste Spalte:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;1 \hspace{0.1cm}  \cdot  \hspace{0.1cm} \big [1 + \alpha^1 + \alpha^2 + \alpha^3 + \alpha^4 + \alpha^5 + \alpha^6 \big ] =   1 + \alpha + \alpha^2 + (\alpha + 1) + (\alpha^2 + \alpha)+ (\alpha^2 + \alpha +1)+ (\alpha^2 + 1) = 0 \hspace{0.05cm}; &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Letzte Zeile, letzte Spalte:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;1 \hspace{0.1cm}  \cdot  \hspace{0.1cm} 1 + \alpha^2 \cdot \alpha^4 + \alpha^4 \cdot \alpha^1&lt;br /&gt;
+ \alpha^6 \cdot \alpha^5+ \alpha^1 \cdot \alpha^2+ \alpha^3 \cdot \alpha^6+ \alpha^5 \cdot \alpha^3= 1 + \alpha^6 + \alpha^5 + \alpha^{11} + \alpha^{3}+ \alpha^{9}+ \alpha^{8} =&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{1.5cm}  =  \hspace{0.15cm} 1 + \alpha^6 + \alpha^5 + \alpha^{4} + \alpha^{3}+ \alpha^{2}+ \alpha^{1} =0 \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Singleton–Schranke und minimale Distanz ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Eine wichtige Kenngröße eines jeden Blockcodes ist die [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung| minimale  Distanz]] zwischen zwei beliebigen Codeworten $\underline {c}_i$ und $\underline {c}_j$. &lt;br /&gt;
*Die Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes gehören zur Klasse der &amp;lt;i&amp;gt;linearen&amp;lt;/i&amp;gt; und &amp;lt;i&amp;gt;zyklischen&amp;lt;/i&amp;gt; Codes. Bei diesen kann man vom Nullwort $\underline {c}_0 = (0,  0, \hspace{0.05cm} \text{...} \hspace{0.05cm},  0)$ als Bezugsgröße ausgehen. &lt;br /&gt;
*Aus der Anzahl der Nullen in den anderen Codeworten $\underline {c}_j &amp;amp;ne; \underline {c}_0$ lässt sich das [[Kanalcodierung/Schranken_f%C3%BCr_die_Blockfehlerwahrscheinlichkeit#Distanzspektrum_eines_linearen_Codes_.282.29| Distanzspektrum]] $\{ \hspace{0.05cm}W_j\hspace{0.05cm}\}$ angeben.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 5:}$&amp;amp;nbsp; Die Tabelle verdeutlicht die Bestimmung des Distanzspektrums für den '''RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;'''. &lt;br /&gt;
*Gegenüber den bisherigen Grafiken wird  die Symbolmenge vereinfachend mit $\{0, 1, 2, 3\}$ anstelle von $\{0, \alpha^0, \alpha^1, \alpha^2\}$ bezeichnet. &lt;br /&gt;
*Die Distanz $d$  zwischen $\underline {c}_j$ und dem Nullwort  &amp;amp;$\underline {c}_0$ ist identisch dem [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung|Hamming&amp;amp;ndash;Gewicht]] $w_{\rm H}(\underline {c}_j)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2520 KC T 2 3 S3 v1.png|center|frame|Zur Herleitung des Distanzspektrums für den RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Aus der oberen Tabelle kann unter anderem abgelesen werden:&lt;br /&gt;
*Neun der Codeworte unterscheiden sich vom Nullwort in zwei Symbolen und sechs Codeworte in drei Symbolen: &amp;amp;nbsp; $W_2 = 9$, $W_3 = 6$. &lt;br /&gt;
*Es gibt kein einziges Codewort mit nur einer Null. Das heißt: Die minimale Distanz beträgt hier $d_{\rm min} = 2$. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Aus der unteren Tabelle erkennt man, dass auch für die Binärdarstellung $d_{\rm min} = 2$ gilt.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dieses empirische Ergebnis soll nun verallgemeinert werden:&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Ohne Beweis:}$&amp;amp;nbsp; &lt;br /&gt;
*Die &amp;lt;i&amp;gt;minimale Distanz&amp;lt;/i&amp;gt; eines jeden $(n, k)$&amp;amp;ndash;Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes beträgt $d_{\rm min} =n-k+1$. Damit lassen sich $e = d_{\rm min} -1 =n-k$ Symbolfehler erkennen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei &amp;lt;i&amp;gt;fehlerkorrigierenden Codes&amp;lt;/i&amp;gt; wählt man meist ein $d_{\rm min} $ ungeradzahlig &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $n-k$ geradzahlig. Bei RS&amp;amp;ndash;Codes können dann bis zu $t =(n-k)/2$ Symbolfehler korrigiert werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die [https://de.wikipedia.org/wiki/Singleton-Schranke Singleton&amp;amp;ndash;Schranke] besagt, dass für alle linearen Codes $d_{\rm min} \le n-k+1$ gilt. RS&amp;amp;ndash;Codes erreichen diese Schranke mit Gleichheit; sie sind so genannte [https://de.wikipedia.org/wiki/MDS-Code MDS&amp;amp;ndash;Codes] (&amp;lt;i&amp;gt;Maximum Distance Separable&amp;lt;/i&amp;gt;).&lt;br /&gt;
&lt;br /&gt;
*Das [[Kanalcodierung/Schranken_f%C3%BCr_die_Blockfehlerwahrscheinlichkeit#Distanzspektrum_eines_linearen_Codes| Distanzspektrum]] setzt sich zusammen aus $W_0 = 1$ sowie weiteren Gewichtsfaktoren $W_i$ mit $d &amp;amp;#8804; i &amp;amp;#8804; n$, wobei in der folgenden Gleichung $d_{\rm min}$ mit $d$ abgekürzt ist:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;W_i =   {n \choose i} \cdot \sum_{j = 0}^{i-d}\hspace{0.15cm}(-1)^j \cdot {i \choose j} \cdot \bigg  [\hspace{0.03cm}q^{i\hspace{0.03cm}-\hspace{0.03cm}j\hspace{0.03cm}-\hspace{0.03cm}d\hspace{0.03cm}+\hspace{0.03cm}1}-1 \hspace{0.03cm} \bigg ]\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
== Codebezeichnung und Coderate ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die übliche Bezeichnung für die Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes ist &amp;amp;nbsp;&amp;lt;b&amp;gt;RSC&amp;amp;nbsp;(&amp;lt;i&amp;gt;n&amp;lt;/i&amp;gt;,&amp;amp;nbsp;&amp;lt;i&amp;gt;k&amp;lt;/i&amp;gt;,&amp;amp;nbsp;&amp;lt;i&amp;gt;d&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;min&amp;lt;/sub&amp;gt;)&amp;lt;sub&amp;gt;&amp;lt;i&amp;gt;q&amp;lt;/i&amp;gt;&amp;lt;/sub&amp;gt;&amp;lt;/b&amp;gt;&amp;amp;nbsp; mit&lt;br /&gt;
*der Länge $n$ des Codes (Symbolanzahl eines Codewortes),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*der Dimension $k$ des Codes (Symbolanzahl eines Informationswortes),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*der minimalen Distanz $d_{\rm min} = n-k+1$, maximal entsprechend der ''Singleton&amp;amp;ndash;Schranke'', und&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*der Größe $q = 2^m$ des Galoisfeldes ${\rm GF}(q)$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Alle Elemente $u_i$ des Informationswortes $\underline{u}= (u_0, \hspace{0.05cm}\text{...} \hspace{0.05cm}, u_i,  \hspace{0.05cm}\text{...} \hspace{0.05cm}, u_{k-1})$ und alle Elemente &amp;lt;i&amp;gt;c&amp;lt;sub&amp;gt;i&amp;lt;/sub&amp;gt;&amp;lt;/i&amp;gt; des Codewortes $\underline{c}= (c_0, \hspace{0.05cm}\text{...} \hspace{0.05cm}, c_i,  \hspace{0.05cm}\text{...} \hspace{0.05cm}, c_{n-1})$ sind nicht binäre Symbole und entstammen dem Galoisfeld ${\rm GF}(q)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für die Realisierung werden diese Symbole stets auch binär dargestellt und man kommt zum äquivalenten binären Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code &amp;amp;nbsp;&amp;lt;b&amp;gt;RSC (&amp;lt;i&amp;gt;n&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;bin&amp;lt;/sub&amp;gt;, &amp;lt;i&amp;gt;k&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;bin&amp;lt;/sub&amp;gt;, &amp;lt;i&amp;gt;d&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;min&amp;lt;/sub&amp;gt;)&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt; &amp;lt;/b&amp;gt;&amp;amp;nbsp; mit&lt;br /&gt;
*$n_{\rm bin} = n \cdot m$ Bit eines Codewortes,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*$k_{\rm bin} = k \cdot m$ Bit eines Informationswortes.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Coderate wird durch diese Maßnahme nicht verändert:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;R = \frac{k}{n}= \frac{k_{\rm bin}}{n_{\rm bin}} = \frac{k \cdot m}{n \cdot m} = \frac{k}{n}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ebenso ändert sich durch den Übergang von ${\rm GF}(q)$ auf ${\rm GF}(2)$ nichts an der minimalen Distanz $d_{\rm min}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 6:}$&amp;amp;nbsp; Wie im Beispiel 5 betrachten wir wieder den '''RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;''' und geben das &amp;lt;i&amp;gt;Distanzspektrum&amp;lt;/i&amp;gt; $\{ \hspace{0.05cm}W_j\hspace{0.05cm}\}$ nochmals an (obere Tabelle). Die untere Tabelle gilt für den äquivalenten binären Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code '''RSC (6, 4, 2)&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;'''.&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2521 KC T 2 3 S3 v1.png|center|frame|Herleitung der Distanzspektren von RSC (3, 2, 2)&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt; und RSC (6, 4, 2)&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;|class=fit]]&lt;br /&gt;
&lt;br /&gt;
*Beide Codes haben die gleiche Coderate $R = k/n =2/3$ und auch die gleiche minimale Distanz $d_{\rm min} = 2$.&lt;br /&gt;
*Die beiden Codes unterscheiden sich jedoch hinsichtlich dem Distanzspektrum $\{ \hspace{0.05cm}W_j\hspace{0.05cm}\}$ und der [[Kanalcodierung/Schranken_f%C3%BCr_die_Blockfehlerwahrscheinlichkeit#Distanzspektrum_eines_linearen_Codes|Gewichtsfunktion]] $W(X)$:&lt;br /&gt;
&lt;br /&gt;
::{RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;: &amp;amp;nbsp; $W_0 =  1\hspace{0.05cm}, \hspace{0.2cm}W_2 =  9\hspace{0.05cm}, \hspace{0.2cm}W_3 =  6\hspace{0.3cm}\Rightarrow\hspace{0.3cm}W(X) = 1 + 9 \cdot X^2 + 6 \cdot X^3\hspace{0.05cm}.$&lt;br /&gt;
::{RSC (6, 4, 2)&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;: &amp;amp;nbsp; $W_0 =  1\hspace{0.05cm}, \hspace{0.2cm}W_2 =  3\hspace{0.05cm}, \hspace{0.2cm}W_3 =  8&lt;br /&gt;
\hspace{0.05cm}, \hspace{0.2cm}W_4 =  3\hspace{0.05cm}, \hspace{0.2cm}W_6 =  1&lt;br /&gt;
\hspace{0.3cm}\Rightarrow\hspace{0.3cm}W(X) = 1 + 3 \cdot X^2 + 8 \cdot X^3 + 4 \cdot X^4 + X^6 \hspace{0.05cm}.$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Bedeutung der Reed–Solomon–Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Anhand des hier oft beispielhaft betrachteten RSC&amp;amp;nbsp;(3,&amp;amp;nbsp;2,&amp;amp;nbsp;2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt; konnten wir viele Eigenschaften der Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes in überschaubarem Rahmen kennenlernen. Praxisrelevant ist dieser Code allerdings nicht, da wegen $d_{\rm min} = 2$ kein einziger Fehler korrigiert und auch nur ein einziger Fehler erkannt werden kann. Schon der nächstgrößere Code RSC&amp;amp;nbsp;(7,&amp;amp;nbsp;3,&amp;amp;nbsp;5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt;, der bis zu $t = 2$ Fehler korrigieren kann, weist bereits eine Codetabelle mit  $8^3 = 512$ Einträgen auf und ist zu Demonstrationszwecken weniger gut geeignet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In der Praxis werden meist sehr große RS&amp;amp;ndash;Codes eingesetzt, zum Beispiel der RSC (255, 223, 33)&amp;lt;sub&amp;gt;256&amp;lt;/sub&amp;gt; mit den folgenden Eigenschaften:&lt;br /&gt;
*Der Code basiert auf dem Galoisfeld $\rm GF(2^8)$. Jedes Symbol entspricht somit einem Byte. Die Coderate ist mit $R = 0.8745$ relativ groß.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Trotz dieser großen Coderate (also geringe Redundanz) können mit diesem Code bis zu $e = 32$ Fehler innerhalb eines Blocks aus $255$ Symbolen erkannt und $t = 16$ Fehler korrigiert werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Codetabelle würde allerdings $2^{8 \cdot 223}= 2^{8 \cdot 1784} &amp;amp;asymp; 10^{537}$ Einträge aufweisen und wird deshalb wahrscheinlich auch von niemanden tatsächlich erstellt.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der große Vorteil der Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes (und einer ganzen Reihe davon abgeleiteter weiterer Codes) ist zum einen, dass sie analytisch geschlossen konstruiert werden können und zum anderen ihre große Flexibilität hinsichtlich der Codeparameter. Meist geht man wie folgt vor:&lt;br /&gt;
*Man gibt die Korrekturfähigkeit in Form des Parameters $t$ vor. Daraus ergibt sich die minimale Distanz $d_{\rm min} = 2t + 1$ und die Differenz $n-k = 2t$ entsprechend der Singleton&amp;amp;ndash;Schranke. Einen besseren Wert gibt es nicht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ein weiterer Entwurfsparameter ist die Coderate $R=k/n$, wobei die Codewortlänge $n = 2^m -1$ nicht völlig frei wählbar ist. Durch Erweiterung, Verkürzung und Punktierung &amp;amp;ndash; siehe [[Aufgabe 1.9Z]] &amp;amp;ndash; kann die Vielzahl an möglichen Codes weiter vergrößert werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes ist die Gewichtsverteilung exakt bekannt und es ist eine Anpassung an die Fehlerstruktur des Kanals möglich. Diese Codes sind insbesondere für Bündelfehlerkanäle gut geeignet, die bei mobilen Funksystemen aufgrund von temporären Abschattungen häufig vorliegen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Im Falle statistisch unabhängiger Fehler sind [https://de.wikipedia.org/wiki/BCH-Code BCH&amp;amp;ndash;Codes] (von '''B'''ose&amp;amp;ndash;'''C'''haudhuri&amp;amp;ndash;'''H'''ocquenghem) besser geeignet. Diese sind eng verwandt mit den RS&amp;amp;ndash;Codes, allerdings erfüllen sie nicht immer das Singleton&amp;amp;ndash;Kriterium. Eine ausführliche Beschreibung finden Sie in [Fri96]&amp;lt;ref name='Fri96'&amp;gt;Friedrichs, B.: ''Kanalcodierung – Grundlagen und Anwendungen in modernen Kommunikations- systemen.'' Berlin – Heidelberg: Springer, 1996.&amp;lt;/ref&amp;gt;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Decodierung nach dem [https://en.wikipedia.org/wiki/Lattice_problem BDD&amp;amp;ndash;Prinzip] (&amp;lt;i&amp;gt;Bounded Distance Decoding&amp;lt;/i&amp;gt;) kann rechentechnisch sehr einfach erfolgen, zum Beispiel mit dem [https://de.wikipedia.org/wiki/Berlekamp-Massey-Algorithmus Berlekamp&amp;amp;ndash;Massey&amp;amp;ndash;Algorithmus]. Zudem kann im Decoder ohne wesentlichen Mehraufwand auch [https://en.wikipedia.org/wiki/Soft-decision_decoder Soft&amp;amp;ndash;Decision&amp;amp;ndash;Information] verarbeitet werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:2.07_Reed–Solomon–Code_(7,_3,_5)(Base_8)|Aufgabe 2.7: Reed–Solomon–Code (7, 3, 5)(Base 8)]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.07Z_Reed–Solomon–Code_(15,_5,_11)(Base_16)|Zusatzaufgabe 2.7Z: Reed–Solomon–Code (15, 5, 11)(Base 16)]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.08_RS–Generatorpolynome|Aufgaben:2.08_RS–Generatorpolynome|Aufgabe 2.8:  RS–Generatorpolynome]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.08Z_„Plus”_und_„Mal”_in_GF(2%5E3)|Zusatzaufgabe 2.8Z: „Plus” und „Mal” in GF(2^3)]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.09_Reed–Solomon–Parameter|Aufgabe 2.9: Reed–Solomon–Parameter]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.10_Fehlererkennung_bei_RSC|Aufgabe 2.10: Fehlererkennung bei RSC]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.10Z_Coderate_und_minimale_Distanz|Zusatzaufgabe 2.10Z: Coderate und minimale Distanz]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Definition_and_Properties_of_Reed-Solomon_Codes&amp;diff=21281</id>
		<title>Channel Coding/Definition and Properties of Reed-Solomon Codes</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Definition_and_Properties_of_Reed-Solomon_Codes&amp;diff=21281"/>
		<updated>2018-01-02T19:12:19Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Reed–Solomon–Codes und deren Decodierung&lt;br /&gt;
|Vorherige Seite=Erweiterungskörper&lt;br /&gt;
|Nächste Seite=Reed–Solomon–Decodierung beim Auslöschungskanal&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Definition und Eigenschaften der Reed–Solomon–Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:P ID2515 KC T 2 3 S1 v2.png|right|frame|Linearer $(n, \, k)$–Blockcode|class=fit]]&lt;br /&gt;
Ein &amp;lt;i&amp;gt;Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code&amp;lt;/i&amp;gt; &amp;amp;ndash; im Folgenden manchmal auch verkürzt  als '''RS&amp;amp;ndash;Code''' bezeichnet &amp;amp;ndash; ist ein [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Lineare_Codes_und_zyklische_Codes| linearer Blockcode]], der einem Informationsblock $\underline{u}$ mit $k$ Symbolen ein entsprechendes Codewort $\underline{c}$ mit $n &amp;gt; k$ Symbolen zuordnet. Diese noch heute vielfach eingesetzten Codes wurden bereits Anfang der 1960er Jahre von [https://de.wikipedia.org/wiki/Irving_Stoy_Reed Irving Stoy Reed] und [https://de.wikipedia.org/wiki/Gustave_Solomon Gustave Solomon] erfunden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Kapitel [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Blockschaltbild_und_Voraussetzungen|Zielsetzung der Kanalcodierung]] wurde der Informationsblock mit $\underline{u}= (u_1,$ ... , $u_k)$ und das Codewort mit $\underline{x}= (x_1,$ ... , $x_n)$ bezeichnet. Die Nomenklaturänderung gemäß obiger Grafik wurde vorgenommen, um Verwechslungen mit dem Argument von Polynomen auszuschließen und die Beschreibung der RS&amp;amp;ndash;Codes zu vereinfachen.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Alle im Abschnitt [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Lineare_Codes_und_zyklische_Codes|Lineare Codes und zyklische Codes]] genannten Eigenschaften linearer zyklischer Blockcodes gelten auch für einen Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code. Zusätzlich gilt: &lt;br /&gt;
*Konstruktion und Decodierung von Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes basieren auf der Arithmetik eines Galoisfeldes ${\rm GF}(q)$, wobei wir uns hier auf binäre Erweiterungskörper mit $q=2^m$ Elementen beschränken:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm GF}(2^m) = \big \{\hspace{0.05cm}0\hspace{0.05cm},\hspace{0.1cm} \alpha^{0}  ,\hspace{0.05cm}\hspace{0.1cm}&lt;br /&gt;
\alpha^{1}\hspace{0.05cm},\hspace{0.1cm} \alpha^{2}\hspace{0.05cm},\hspace{0.1cm}...\hspace{0.1cm},  \alpha^{q-2}\hspace{0.05cm} \big \}\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Prinzipiell unterschiedlich zum ersten Kapitel ist, dass die Koeffizienten $u_0$, $u_1$, ... , $u_{k-1}$ nun nicht mehr einzelne Informationsbits ($0$ oder $1$) angeben, sondern ebenfalls Elemente aus ${\rm GF}(2^m)$ sind. Jedes der $n$ Symbole steht vielmehr für $m$ Bit.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei den Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes ist der Parameter $n$ (Codelänge) gleich der Anzahl der Elemente des Galoisfeldes ohne das Nullwort: $n= q-1$. Wir verwenden hierzu folgende Nomenklatur:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm GF}(2^m) \hspace{-0.05cm}\setminus \hspace{-0.05cm} \{0\} = \big \{\hspace{0.05cm} \alpha^{0}  ,\hspace{0.05cm}\hspace{0.1cm}&lt;br /&gt;
\alpha^{1}\hspace{0.05cm},\hspace{0.1cm} \alpha^{2}\hspace{0.05cm},\hspace{0.1cm}...\hspace{0.1cm},  \alpha^{n-1}\hspace{0.05cm} \big \}\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die $k$ Koeffizienten $u_i \in {\rm GF}(2^m)$ des Informationsblocks $\underline{u} \ ( 0 \le i &amp;lt; k)$ kann man formal auch durch ein Polynom $u(x)$ ausdrücken. Der Grad des Polynoms ist dabei $k-1$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;u(x) = \sum_{i = 0}^{k-1} u_i \cdot x^{i}  = u_0 + u_1 \cdot x + u_2 \cdot x^2 + \hspace{0.1cm}... \hspace{0.1cm}+ u_{k-1} \cdot x^{k-1}   \hspace{0.05cm},\hspace{0.4cm} u_i \in {\rm GF}(2^m)&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die $n$ Symbole des zugehörigen Codewortes $\underline{c}= (c_0, c_1,$ ... , $c_{n-1})$ergeben sich mit diesem  Polynom $u(x)$ zu&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;c_0 = u(\alpha^{0}) \hspace{0.05cm},\hspace{0.3cm} c_1 = u(\alpha^{1})\hspace{0.05cm},\hspace{0.1cm}...\hspace{0.1cm},\hspace{0.3cm} c_{n-1}= u(\alpha^{n-1}) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Meist werden die Codesymbole $c_i \in {\rm GF}(2^m)$ vor der Übertragung wieder in Binärform &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; ${\rm GF}(2)$ gebracht, wobei dann jedes Symbol durch &amp;lt;i&amp;gt;m&amp;lt;/i&amp;gt; Bit dargestellt wird.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Fassen wir die bisherigen Aussagen kurz zusammen:&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;  Ein $(n, k)$'''&amp;amp;ndash;Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code''' für das Galoisfeld ${\rm GF}(2^m)$ wird festgelegt durch&lt;br /&gt;
*die $n= 2^{m-1}$ Elemente von ${\rm GF}(2^m) \hspace{-0.05cm}\setminus \hspace{-0.05cm} \{0\} =\{ \alpha^0, \alpha^1, \, \text{...} ,  \alpha^{n-1}\}$, wobei $\alpha$ ein [[Kanalcodierung/Erweiterungskörper#Bin.C3.A4re_Erweiterungsk.C3.B6rper_.E2.80.93_Primitive_Polynome|primitives Element]] von ${\rm GF}(2^m)$ bezeichnet,&lt;br /&gt;
&lt;br /&gt;
*ein an den Informationsblockt $\underline{u}$ angepasstes [[Kanalcodierung/Erweiterungskörper#Verallgemeinerte_Definition_eines_Erweiterungsk.C3.B6rpers|Polynom]] vom Grad $k-1$ der Form&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;u(x) = \sum_{i = 0}^{k-1} u_i \cdot x^{i}  = u_0 + u_1 \cdot x + u_2 \cdot x^2 + \hspace{0.1cm}... \hspace{0.1cm}+ u_{k-1} \cdot x^{k-1}   \hspace{0.05cm},\hspace{0.4cm} u_i \in {\rm GF}(2^m)&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit lässt sich der $(n, k)$&amp;amp;ndash;Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code  beschreiben als&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;C_{\rm RS} = \Big \{ \underline {c} =  \big ( u(\alpha^{0}) \hspace{0.05cm},\hspace{0.1cm} u(\alpha^{1})\hspace{0.05cm},\hspace{0.1cm}...\hspace{0.1cm},  u(\alpha^{n-1})\hspace{0.1cm}   \big )&lt;br /&gt;
 \hspace{0.1cm} \big \vert \hspace{0.2cm} u(x) = \sum_{i = 0}^{k-1} u_i \cdot x^{i}\hspace{0.05cm},\hspace{0.2cm} u_i \in {\rm GF}(2^m)&lt;br /&gt;
\Big \}  \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die bisherigen Angaben sollen nun an zwei einfachen Beispielen verdeutlicht werden.&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2517 KC T 2 3 S1b v3.png|right|frame|GF(2&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt;) in Exponenten–, Polynom– und Koeffizientenform |class=fit]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp;  Wir betrachten die folgenden Codeparametern:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;k = 2 \hspace{0.05cm},\hspace{0.15cm}n = 3 \hspace{0.5cm} \Rightarrow  \hspace{0.5cm} \underline {u} = (u_0, u_1)\hspace{0.05cm},\hspace{0.15cm} &lt;br /&gt;
\underline {c} = (c_0, c_1, c_2)\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;q = n+1 = 4 \hspace{0.45cm} \Rightarrow  \hspace{0.5cm} {\rm GF} (q) = {\rm GF} (2^m) &lt;br /&gt;
\hspace{0.5cm} \Rightarrow  \hspace{0.5cm} m = 2\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ausgehend von der Bedingungsgleichung $p(\alpha) =  \alpha^2 + \alpha + 1 = 0$  &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $\alpha^2 = \alpha + 1$ erhält man die Zuordnungen zwischen &lt;br /&gt;
*der Exponentendarstellung, &lt;br /&gt;
*der Polynomdarstellung und &lt;br /&gt;
*der Koeffizientendarstellung &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
von ${\rm GF}(2^2)$ gemäß obiger Tabelle. Daraus ist ersichtlich:&lt;br /&gt;
&lt;br /&gt;
*Der Koeffizientenvektor wird durch das Polynom $u(x) = u_0 + u_1 \cdot x$   ausgedrückt. Der Polynomgrad ist $k- 1 = 1$. &lt;br /&gt;
*Für $u_0 = \alpha^1$ und $u_1 = \alpha^2$ erhält man beispielsweise das Polynom $u(x) = \alpha + \alpha^2 \cdot x$ und damit&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;c_0 = u (x = \alpha^0) = u (x = 1) =  \alpha + \alpha^2 \cdot 1 = \alpha + (\alpha + 1) =1 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;c_1 =u (x = \alpha^1) =  \alpha + \alpha^2 \cdot \alpha = \alpha + \alpha^3 =  \alpha + \alpha^0  =  \alpha + 1 = \alpha^2 \hspace{0.05cm},&amp;lt;/math&amp;gt; &lt;br /&gt;
::&amp;lt;math&amp;gt;c_2 =u (x = \alpha^2) =  \alpha + \alpha^2 \cdot \alpha^2 = \alpha + \alpha^4 =  \alpha + \alpha^1 = 0 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Daraus ergeben sich folgende Zuordnungen auf Symbol&amp;amp;ndash; bzw. Bitebene:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline {u} =(\alpha^1, \alpha^2)\hspace{0.57cm}\leftrightarrow\hspace{0.3cm} &lt;br /&gt;
\underline {c} = (1, \alpha^2, 0)\hspace{0.05cm},\hspace{1cm}\underline {u}_{\rm bin} =(1,0,1,1)\hspace{0.3cm}\leftrightarrow\hspace{0.3cm} &lt;br /&gt;
\underline {c}_{\rm bin} = (0,1,1,1,0,0)\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2570 KC T 2 3 S1bb v3.png|right|frame||Codetabelle des RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp;  &lt;br /&gt;
Rechts ist die Codetabelle des '''RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;''' genannten Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes. &lt;br /&gt;
*Die Bezeichnung bezieht sich auf die Parameter $n=3$, $k=2$, $d_{\rm min}=2$ und $q = 4$. &lt;br /&gt;
*In den Spalten 1 bis 3 erkennt man den Zusammenhang $\underline {u} \  &amp;amp;#8594; \ u(x) \ &amp;amp;#8594; \ \underline {c}$.&lt;br /&gt;
*In den beiden letzten Spalten ist die Codiervorschrift $\underline {u}_{\rm bin} \  &amp;amp;#8596; \ \underline {c}_{\rm bin}$ angegeben.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Zur Verdeutlichung nochmals der Eintrag für $(\alpha^0, \, \alpha^2)$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;u(x) = u_0 + u_1 \cdot x = \alpha^0 +  \alpha^2 \cdot x. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Daraus ergeben sich folgende Codesymbole:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;c_0 = u (x = \alpha^0) =  1 + \alpha^2 \cdot 1 = 1 + (1+\alpha ) =\alpha \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;c_1 = u (x = \alpha^1) =  1 + \alpha^2 \cdot \alpha = 1 +  (1+\alpha ) \cdot \alpha =  1 + \alpha + \alpha^2  =  0 \hspace{0.05cm},&amp;lt;/math&amp;gt; &lt;br /&gt;
::&amp;lt;math&amp;gt;c_2 =u (x = \alpha^2) =  1 + \alpha^2 \cdot \alpha^2 = 1 + \alpha =  \alpha^2  \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;i&amp;gt;Hinweise:&amp;lt;/i&amp;gt; &lt;br /&gt;
*Aus der Elementenmenge $\{0, \alpha^0 = 1, \alpha^1 = \alpha, \alpha^2\}$ sollte nicht geschlossen werden, dass für diesen Code die [[Kanalcodierung/Erweiterungskörper#Bin.C3.A4re_Erweiterungsk.C3.B6rper_.E2.80.93_Primitive_Polynome|3D&amp;amp;ndash;Darstellung]] mit den Achsen $\alpha^0 = 1$, $\alpha^1 = \alpha$ und $\alpha^2$ zutrifft. &lt;br /&gt;
*Aus der Koeffizientendarstellung geht vielmehr eindeutig hervor, dass ${\rm GF} (2^m)$ ein zweidimensionaler Code ist, wobei die Achsen der [[Kanalcodierung/Erweiterungskörper#Interpretation_des_neuen_Elementes_.7FUNIQ-MathJax56-QINU.7F| 2D&amp;amp;ndash;Darstellung]] mit $\alpha^0 = 1$ und $\alpha^1 = \alpha$ zu beschriften sind.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Generatormatrix  der Reed–Solomon–Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Da es sich beim Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code um einen linearen Blockcode handelt, ist der Zusammenhang zwischen Informationswort $\underline {u}$ und Codewort $\underline {c}$ durch die [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Generatormatrix| Generatormatrix]] $\boldsymbol{\rm G}$ gegeben:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\underline {c} = \underline {u} \cdot { \boldsymbol{\rm G}}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wie bei jedem linearen $(n, k)$&amp;amp;ndash;Blockcode besteht die Generatormatrix aus $k$ Zeilen und $n$ Spalten. Im Gegensatz zum Kapitel [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Lineare_Codes_und_zyklische_Codes|Allgemeine Beschreibung linearer Blockcodes]] sind nun aber die Elemente der Generatormatrix nicht mehr binär ($0$ oder $1$), sondern entstammen dem Galoisfeld ${\rm GF}(2^m) \hspace{-0.05cm}\setminus \hspace{-0.05cm} \{0\} $.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; Wir betrachten wie im Beispiel 2 auf der vorherigen Seite wieder den '''RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;''', dessen Generatormatrix folgende Form hat:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt; { \boldsymbol{\rm G} } = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		g_{00} &amp;amp; g_{01} &amp;amp; g_{02}\\&lt;br /&gt;
		g_{10} &amp;amp; g_{11} &amp;amp; g_{12}&lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm},\hspace{0.3cm} g_{ij} \in &lt;br /&gt;
	{\rm GF}(2^2) \hspace{-0.01cm}\setminus \hspace{-0.01cm} \{0\} = \big \{\hspace{0.05cm} \alpha^{0}  \hspace{0.05cm},\hspace{0.1cm}&lt;br /&gt;
\alpha^{1}\hspace{0.05cm},\hspace{0.1cm} \alpha^{2} \hspace{0.05cm}\big \}\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Daneben gilt:&lt;br /&gt;
*Die erste Zeile von $\boldsymbol{\rm G}$ gibt das Codewort für das Informationswort $\underline {u}_1 = (1, 0)$ an bzw. für die Polynomfunktion $u_1(x) = 1$. Damit erhält man die Matrixelemente der ersten Zeile zu&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;g_{00} = u_{1}(\alpha^{0}) = 1\hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
g_{01} = u_{1}(\alpha^{1}) = 1\hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
g_{02} = u_{1}(\alpha^{2}) = 1\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die zweite Zeile ist gleich dem Codewort für das Informationswort $\underline {u}_2 = (0, 1)$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $u_2(x) = x$. Die Matrixelemente der zweiten Zeile lauten somit:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;g_{10} = u_{2}(\alpha^{0}) = \alpha^{0} = 1\hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
g_{11} = u_{2}(\alpha^{1}) =  \alpha \hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
g_{12} = u_{2}(\alpha^{2}) = \alpha^{2}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow\hspace{0.3cm}	 { \boldsymbol{\rm G} } = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1\\&lt;br /&gt;
		1 &amp;amp; \alpha &amp;amp; \alpha^2&lt;br /&gt;
\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für das Informationswort $\underline {u}= (u_0, u_1)$ mit den Symbolen $u_0, u_1 &amp;amp;#8712; \{0, \alpha^0, \alpha^1 = \alpha, \alpha^2\}$ erhält man unter Berücksichtigung der beiden Gleichungen $\alpha^2 = \alpha + 1$ sowie $\alpha^3 = \alpha^0 = 1$ wiederum die Codetabelle des RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt; auf Symbolebene.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2519 KC T 2 3 S2a v1.png|center|frame|Codetabelle des RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt; auf Symbolebene|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Man erhält natürlich mit der Generatormatrix genau die gleiche Codetabelle $\underline {u} &amp;amp;nbsp; &amp;amp;#8596; &amp;amp;nbsp; \underline {c}$ wie nach der Berechnung über die Funktion $u(x)$. Die entsprechende Codetabelle auf Bitebene (siehe Beispiel 2 auf der vorherigen Seite) ergibt sich wieder, wenn man die Elemente nicht in Exponentendarstellung angibt, sondern in Koeffizientenform:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;(0, \hspace{0.1cm}\alpha^{0}, \hspace{0.1cm}\alpha^{1}, \hspace{0.1cm}\alpha^{2}) \hspace{0.3cm}\Leftrightarrow\hspace{0.3cm}(00, \hspace{0.1cm}01, \hspace{0.1cm}10, \hspace{0.1cm}11) &lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Generatormatrix  und Prüfmatrix ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir verallgemeinern nun das Ergebnis der letzten Seite für einen Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code mit&lt;br /&gt;
*der Dimension $k$ (Symbolanzahl pro Informationsblock),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*der Codewortlänge $n$ (Symbolanzahl pro Codewort).&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Generatormatrix| Generatormatrix]] $\boldsymbol{\rm G}$ (mit $k$ Zeilen und $n$ Spalten) und die [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Pr.C3.BCfmatrix| Prüfmatrix]] $\boldsymbol{\rm H}$ ($n-k$ Zeilen, $n$ Spalten) müssen gemeinsam folgende Gleichung erfüllen:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm G}} \cdot { \boldsymbol{\rm H }}^{\rm T}= { \boldsymbol{\rm 0}}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hierbei bezeichnet $\boldsymbol{\rm 0}$ eine Nullmatrix (alle Elemente gleich $0$) mit $k$ Zeilen und $n-k$ Spalten.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Wir betrachten den '''RSC (7, 3, 5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt;''' &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; Codeparameter $n= 7$, $k= 3$, basierend auf dem Galoisfeld $\rm GF(2^3 = 8)$ mit der Nebenbedingung $\alpha^3 =\alpha + 1$. Beachten Sie hinsichtlich der Codebezeichnung:&lt;br /&gt;
*Der dritte Parameter der für Blockcodes üblichen Nomenklatur nennt die freie Distanz $d_{\rm min}= 5$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Anders als bei den im Kapitel [[Kanalcodierung/Beispiele_binärer_Blockcodes|Beispiele binärer Blockcodes]] behandelten binären Codes (Single Parity–check Code, Repetition Code, Hamming Code) wird bei den Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes noch der Hinweis $q$ zum Galoisfeld hinzugefügt (hier: $q = 8$).&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Alle Elemente der Generatormatrix und der Prüfmatrix&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;{ \boldsymbol{\rm G} } = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1\\&lt;br /&gt;
		1 &amp;amp; \alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4 &amp;amp; \alpha^5 &amp;amp; \alpha^6\\&lt;br /&gt;
		1 &amp;amp; \alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1 &amp;amp; \alpha^{3} &amp;amp; \alpha^{5}&lt;br /&gt;
\end{pmatrix}\hspace{0.05cm},\hspace{0.4cm}&lt;br /&gt;
	 { \boldsymbol{\rm H} } = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; \alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4 &amp;amp; \alpha^5 &amp;amp; \alpha^6\\&lt;br /&gt;
		1 &amp;amp; \alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1 &amp;amp; \alpha^{3} &amp;amp; \alpha^{5}\\&lt;br /&gt;
		1 &amp;amp; \alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^2 &amp;amp; \alpha^{5} &amp;amp; \alpha^{1} &amp;amp; \alpha^{4}\\&lt;br /&gt;
		1 &amp;amp; \alpha^4 &amp;amp; \alpha^1 &amp;amp; \alpha^{5} &amp;amp; \alpha^{2} &amp;amp; \alpha^{6} &amp;amp; \alpha^{3}&lt;br /&gt;
\end{pmatrix} &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
entstammen dem Galoisfeld ${\rm GF}(2^3) \hspace{-0.01cm}\setminus \hspace{-0.01cm} \{0\} = \big \{\hspace{0.05cm} \alpha^{0}  \hspace{0.05cm},\hspace{0.1cm}\alpha^{1}\hspace{0.05cm},\hspace{0.1cm} \alpha^{2} \hspace{0.05cm} \alpha^{3}  \hspace{0.05cm},\hspace{0.1cm}\alpha^{4}\hspace{0.05cm},\hspace{0.1cm} \alpha^{5} \hspace{0.05cm},\hspace{0.1cm} \alpha^{6} \hspace{0.05cm}\big \}$. Für das Matrixprodukt gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm G} } \cdot { \boldsymbol{\rm H } }^{\rm T}= \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1\\&lt;br /&gt;
		1 &amp;amp; \alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4 &amp;amp; \alpha^5 &amp;amp; \alpha^6\\&lt;br /&gt;
		1 &amp;amp; \alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1 &amp;amp; \alpha^{3} &amp;amp; \alpha^{5}&lt;br /&gt;
\end{pmatrix}&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp; 1 &amp;amp; 1 &amp;amp; 1 \\&lt;br /&gt;
		\alpha^1 &amp;amp; \alpha^2 &amp;amp; \alpha^3 &amp;amp; \alpha^4\\&lt;br /&gt;
		\alpha^2 &amp;amp; \alpha^4 &amp;amp; \alpha^6 &amp;amp; \alpha^1\\&lt;br /&gt;
		\alpha^3 &amp;amp; \alpha^6 &amp;amp; \alpha^2 &amp;amp; \alpha^{5}\\&lt;br /&gt;
		\alpha^4 &amp;amp; \alpha^1 &amp;amp; \alpha^{5} &amp;amp; \alpha^{2}\\&lt;br /&gt;
		\alpha^5 &amp;amp; \alpha^{3} &amp;amp; \alpha^{1} &amp;amp; \alpha^{6}\\&lt;br /&gt;
		\alpha^6 &amp;amp; \alpha^{5} &amp;amp; \alpha^{4} &amp;amp; \alpha^{3}&lt;br /&gt;
\end{pmatrix} = &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 \\&lt;br /&gt;
		0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 \\&lt;br /&gt;
		0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 &lt;br /&gt;
\end{pmatrix} &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dies soll hier nur für zwei Elemente nachgewiesen werden:&lt;br /&gt;
*Erste Zeile, erste Spalte:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;1 \hspace{0.1cm}  \cdot  \hspace{0.1cm} \big [1 + \alpha^1 + \alpha^2 + \alpha^3 + \alpha^4 + \alpha^5 + \alpha^6 \big ] =   1 + \alpha + \alpha^2 + (\alpha + 1) + (\alpha^2 + \alpha)+ (\alpha^2 + \alpha +1)+ (\alpha^2 + 1) = 0 \hspace{0.05cm}; &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Letzte Zeile, letzte Spalte:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;1 \hspace{0.1cm}  \cdot  \hspace{0.1cm} 1 + \alpha^2 \cdot \alpha^4 + \alpha^4 \cdot \alpha^1&lt;br /&gt;
+ \alpha^6 \cdot \alpha^5+ \alpha^1 \cdot \alpha^2+ \alpha^3 \cdot \alpha^6+ \alpha^5 \cdot \alpha^3= 1 + \alpha^6 + \alpha^5 + \alpha^{11} + \alpha^{3}+ \alpha^{9}+ \alpha^{8} =&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{1.5cm}  =  \hspace{0.15cm} 1 + \alpha^6 + \alpha^5 + \alpha^{4} + \alpha^{3}+ \alpha^{2}+ \alpha^{1} =0 \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Singleton–Schranke und minimale Distanz ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Eine wichtige Kenngröße eines jeden Blockcodes ist die [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung| minimale  Distanz]] zwischen zwei beliebigen Codeworten $\underline {c}_i$ und $\underline {c}_j$. &lt;br /&gt;
*Die Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes gehören zur Klasse der &amp;lt;i&amp;gt;linearen&amp;lt;/i&amp;gt; und &amp;lt;i&amp;gt;zyklischen&amp;lt;/i&amp;gt; Codes. Bei diesen kann man vom Nullwort $\underline {c}_0 = (0,  0, \hspace{0.05cm} \text{...} \hspace{0.05cm},  0)$ als Bezugsgröße ausgehen. &lt;br /&gt;
*Aus der Anzahl der Nullen in den anderen Codeworten $\underline {c}_j &amp;amp;ne; \underline {c}_0$ lässt sich das [[Kanalcodierung/Schranken_f%C3%BCr_die_Blockfehlerwahrscheinlichkeit#Distanzspektrum_eines_linearen_Codes_.282.29| Distanzspektrum]] $\{ \hspace{0.05cm}W_j\hspace{0.05cm}\}$ angeben.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 5:}$&amp;amp;nbsp; Die Tabelle verdeutlicht die Bestimmung des Distanzspektrums für den '''RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;'''. &lt;br /&gt;
*Gegenüber den bisherigen Grafiken wird  die Symbolmenge vereinfachend mit $\{0, 1, 2, 3\}$ anstelle von $\{0, \alpha^0, \alpha^1, \alpha^2\}$ bezeichnet. &lt;br /&gt;
*Die Distanz $d$  zwischen $\underline {c}_j$ und dem Nullwort  &amp;amp;$\underline {c}_0$ ist identisch dem [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung|Hamming&amp;amp;ndash;Gewicht]] $w_{\rm H}(\underline {c}_j)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2520 KC T 2 3 S3 v1.png|center|frame|Zur Herleitung des Distanzspektrums für den RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Aus der oberen Tabelle kann unter anderem abgelesen werden:&lt;br /&gt;
*Neun der Codeworte unterscheiden sich vom Nullwort in zwei Symbolen und sechs Codeworte in drei Symbolen: &amp;amp;nbsp; $W_2 = 9$, $W_3 = 6$. &lt;br /&gt;
*Es gibt kein einziges Codewort mit nur einer Null. Das heißt: Die minimale Distanz beträgt hier $d_{\rm min} = 2$. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Aus der unteren Tabelle erkennt man, dass auch für die Binärdarstellung $d_{\rm min} = 2$ gilt.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dieses empirische Ergebnis soll nun verallgemeinert werden:&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Ohne Beweis:}$&amp;amp;nbsp; &lt;br /&gt;
*Die &amp;lt;i&amp;gt;minimale Distanz&amp;lt;/i&amp;gt; eines jeden $(n, k)$&amp;amp;ndash;Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes beträgt $d_{\rm min} =n-k+1$. Damit lassen sich $e = d_{\rm min} -1 =n-k$ Symbolfehler erkennen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei &amp;lt;i&amp;gt;fehlerkorrigierenden Codes&amp;lt;/i&amp;gt; wählt man meist ein $d_{\rm min} $ ungeradzahlig &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $n-k$ geradzahlig. Bei RS&amp;amp;ndash;Codes können dann bis zu $t =(n-k)/2$ Symbolfehler korrigiert werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die [https://de.wikipedia.org/wiki/Singleton-Schranke Singleton&amp;amp;ndash;Schranke] besagt, dass für alle linearen Codes $d_{\rm min} \le n-k+1$ gilt. RS&amp;amp;ndash;Codes erreichen diese Schranke mit Gleichheit; sie sind so genannte [https://de.wikipedia.org/wiki/MDS-Code MDS&amp;amp;ndash;Codes] (&amp;lt;i&amp;gt;Maximum Distance Separable&amp;lt;/i&amp;gt;).&lt;br /&gt;
&lt;br /&gt;
*Das [[Kanalcodierung/Schranken_f%C3%BCr_die_Blockfehlerwahrscheinlichkeit#Distanzspektrum_eines_linearen_Codes| Distanzspektrum]] setzt sich zusammen aus $W_0 = 1$ sowie weiteren Gewichtsfaktoren $W_i$ mit $d &amp;amp;#8804; i &amp;amp;#8804; n$, wobei in der folgenden Gleichung $d_{\rm min}$ mit $d$ abgekürzt ist:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;W_i =   {n \choose i} \cdot \sum_{j = 0}^{i-d}\hspace{0.15cm}(-1)^j \cdot {i \choose j} \cdot \bigg  [\hspace{0.03cm}q^{i\hspace{0.03cm}-\hspace{0.03cm}j\hspace{0.03cm}-\hspace{0.03cm}d\hspace{0.03cm}+\hspace{0.03cm}1}-1 \hspace{0.03cm} \bigg ]\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
== Codebezeichnung und Coderate ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die übliche Bezeichnung für die Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes ist &amp;amp;nbsp;&amp;lt;b&amp;gt;RSC&amp;amp;nbsp;(&amp;lt;i&amp;gt;n&amp;lt;/i&amp;gt;,&amp;amp;nbsp;&amp;lt;i&amp;gt;k&amp;lt;/i&amp;gt;,&amp;amp;nbsp;&amp;lt;i&amp;gt;d&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;min&amp;lt;/sub&amp;gt;)&amp;lt;sub&amp;gt;&amp;lt;i&amp;gt;q&amp;lt;/i&amp;gt;&amp;lt;/sub&amp;gt;&amp;lt;/b&amp;gt;&amp;amp;nbsp; mit&lt;br /&gt;
*der Länge $n$ des Codes (Symbolanzahl eines Codewortes),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*der Dimension $k$ des Codes (Symbolanzahl eines Informationswortes),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*der minimalen Distanz $d_{\rm min} = n-k+1$, maximal entsprechend der ''Singleton&amp;amp;ndash;Schranke'', und&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*der Größe $q = 2^m$ des Galoisfeldes ${\rm GF}(q)$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Alle Elemente $u_i$ des Informationswortes $\underline{u}= (u_0, \hspace{0.05cm}\text{...} \hspace{0.05cm}, u_i,  \hspace{0.05cm}\text{...} \hspace{0.05cm}, u_{k-1})$ und alle Elemente &amp;lt;i&amp;gt;c&amp;lt;sub&amp;gt;i&amp;lt;/sub&amp;gt;&amp;lt;/i&amp;gt; des Codewortes $\underline{c}= (c_0, \hspace{0.05cm}\text{...} \hspace{0.05cm}, c_i,  \hspace{0.05cm}\text{...} \hspace{0.05cm}, c_{n-1})$ sind nicht binäre Symbole und entstammen dem Galoisfeld ${\rm GF}(q)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für die Realisierung werden diese Symbole stets auch binär dargestellt und man kommt zum äquivalenten binären Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code &amp;amp;nbsp;&amp;lt;b&amp;gt;RSC (&amp;lt;i&amp;gt;n&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;bin&amp;lt;/sub&amp;gt;, &amp;lt;i&amp;gt;k&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;bin&amp;lt;/sub&amp;gt;, &amp;lt;i&amp;gt;d&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;min&amp;lt;/sub&amp;gt;)&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt; &amp;lt;/b&amp;gt;&amp;amp;nbsp; mit&lt;br /&gt;
*$n_{\rm bin} = n \cdot m$ Bit eines Codewortes,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*$k_{\rm bin} = k \cdot m$ Bit eines Informationswortes.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Coderate wird durch diese Maßnahme nicht verändert:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;R = \frac{k}{n}= \frac{k_{\rm bin}}{n_{\rm bin}} = \frac{k \cdot m}{n \cdot m} = \frac{k}{n}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ebenso ändert sich durch den Übergang von ${\rm GF}(q)$ auf ${\rm GF}(2)$ nichts an der minimalen Distanz $d_{\rm min}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 6:}$&amp;amp;nbsp; Wie im Beispiel 5 betrachten wir wieder den '''RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;''' und geben das &amp;lt;i&amp;gt;Distanzspektrum&amp;lt;/i&amp;gt; $\{ \hspace{0.05cm}W_j\hspace{0.05cm}\}$ nochmals an (obere Tabelle). Die untere Tabelle gilt für den äquivalenten binären Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code '''RSC (6, 4, 2)&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;'''.&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2521 KC T 2 3 S3 v1.png|center|frame|Herleitung der Distanzspektren von RSC (3, 2, 2)&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt; und RSC (6, 4, 2)&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;|class=fit]]&lt;br /&gt;
&lt;br /&gt;
*Beide Codes haben die gleiche Coderate $R = k/n =2/3$ und auch die gleiche minimale Distanz $d_{\rm min} = 2$.&lt;br /&gt;
*Die beiden Codes unterscheiden sich jedoch hinsichtlich dem Distanzspektrum $\{ \hspace{0.05cm}W_j\hspace{0.05cm}\}$ und der [[Kanalcodierung/Schranken_f%C3%BCr_die_Blockfehlerwahrscheinlichkeit#Distanzspektrum_eines_linearen_Codes|Gewichtsfunktion]] $W(X)$:&lt;br /&gt;
&lt;br /&gt;
::{RSC (3, 2, 2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt;: &amp;amp;nbsp; $W_0 =  1\hspace{0.05cm}, \hspace{0.2cm}W_2 =  9\hspace{0.05cm}, \hspace{0.2cm}W_3 =  6\hspace{0.3cm}\Rightarrow\hspace{0.3cm}W(X) = 1 + 9 \cdot X^2 + 6 \cdot X^3\hspace{0.05cm}.$&lt;br /&gt;
::{RSC (6, 4, 2)&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;: &amp;amp;nbsp; $W_0 =  1\hspace{0.05cm}, \hspace{0.2cm}W_2 =  3\hspace{0.05cm}, \hspace{0.2cm}W_3 =  8&lt;br /&gt;
\hspace{0.05cm}, \hspace{0.2cm}W_4 =  3\hspace{0.05cm}, \hspace{0.2cm}W_6 =  1&lt;br /&gt;
\hspace{0.3cm}\Rightarrow\hspace{0.3cm}W(X) = 1 + 3 \cdot X^2 + 8 \cdot X^3 + 4 \cdot X^4 + X^6 \hspace{0.05cm}.$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Bedeutung der Reed–Solomon–Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Anhand des hier oft beispielhaft betrachteten RSC&amp;amp;nbsp;(3,&amp;amp;nbsp;2,&amp;amp;nbsp;2)&amp;lt;sub&amp;gt;4&amp;lt;/sub&amp;gt; konnten wir viele Eigenschaften der Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes in überschaubarem Rahmen kennenlernen. Praxisrelevant ist dieser Code allerdings nicht, da wegen $d_{\rm min} = 2$ kein einziger Fehler korrigiert und auch nur ein einziger Fehler erkannt werden kann. Schon der nächstgrößere Code RSC&amp;amp;nbsp;(7,&amp;amp;nbsp;3,&amp;amp;nbsp;5)&amp;lt;sub&amp;gt;8&amp;lt;/sub&amp;gt;, der bis zu $t = 2$ Fehler korrigieren kann, weist bereits eine Codetabelle mit  $8^3 = 512$ Einträgen auf und ist zu Demonstrationszwecken weniger gut geeignet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In der Praxis werden meist sehr große RS&amp;amp;ndash;Codes eingesetzt, zum Beispiel der RSC (255, 223, 33)&amp;lt;sub&amp;gt;256&amp;lt;/sub&amp;gt; mit den folgenden Eigenschaften:&lt;br /&gt;
*Der Code basiert auf dem Galoisfeld $\rm GF(2^8)$. Jedes Symbol entspricht somit einem Byte. Die Coderate ist mit $R = 0.8745$ relativ groß.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Trotz dieser großen Coderate (also geringe Redundanz) können mit diesem Code bis zu $e = 32$ Fehler innerhalb eines Blocks aus $255$ Symbolen erkannt und $t = 16$ Fehler korrigiert werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Codetabelle würde allerdings $2^{8 \cdot 223}= 2^{8 \cdot 1784} &amp;amp;asymp; 10^{537}$ Einträge aufweisen und wird deshalb wahrscheinlich auch von niemanden tatsächlich erstellt.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der große Vorteil der Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes (und einer ganzen Reihe davon abgeleiteter weiterer Codes) ist zum einen, dass sie analytisch geschlossen konstruiert werden können und zum anderen ihre große Flexibilität hinsichtlich der Codeparameter. Meist geht man wie folgt vor:&lt;br /&gt;
*Man gibt die Korrekturfähigkeit in Form des Parameters $t$ vor. Daraus ergibt sich die minimale Distanz $d_{\rm min} = 2t + 1$ und die Differenz $n-k = 2t$ entsprechend der Singleton&amp;amp;ndash;Schranke. Einen besseren Wert gibt es nicht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ein weiterer Entwurfsparameter ist die Coderate $R=k/n$, wobei die Codewortlänge $n = 2^m -1$ nicht völlig frei wählbar ist. Durch Erweiterung, Verkürzung und Punktierung &amp;amp;ndash; siehe [[Aufgabe 1.9Z]] &amp;amp;ndash; kann die Vielzahl an möglichen Codes weiter vergrößert werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes ist die Gewichtsverteilung exakt bekannt und es ist eine Anpassung an die Fehlerstruktur des Kanals möglich. Diese Codes sind insbesondere für Bündelfehlerkanäle gut geeignet, die bei mobilen Funksystemen aufgrund von temporären Abschattungen häufig vorliegen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Im Falle statistisch unabhängiger Fehler sind [https://de.wikipedia.org/wiki/BCH-Code BCH&amp;amp;ndash;Codes] (von '''B'''ose&amp;amp;ndash;'''C'''haudhuri&amp;amp;ndash;'''H'''ocquenghem) besser geeignet. Diese sind eng verwandt mit den RS&amp;amp;ndash;Codes, allerdings erfüllen sie nicht immer das Singleton&amp;amp;ndash;Kriterium. Eine ausführliche Beschreibung finden Sie in [Fri96]&amp;lt;ref name='Fri96'&amp;gt;Friedrichs, B.: ''Kanalcodierung – Grundlagen und Anwendungen in modernen Kommunikations- systemen.'' Berlin – Heidelberg: Springer, 1996.&amp;lt;/ref&amp;gt;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Decodierung nach dem [https://en.wikipedia.org/wiki/Lattice_problem BDD&amp;amp;ndash;Prinzip] (&amp;lt;i&amp;gt;Bounded Distance Decoding&amp;lt;/i&amp;gt;) kann rechentechnisch sehr einfach erfolgen, zum Beispiel mit dem [https://de.wikipedia.org/wiki/Berlekamp-Massey-Algorithmus Berlekamp&amp;amp;ndash;Massey&amp;amp;ndash;Algorithmus]. Zudem kann im Decoder ohne wesentlichen Mehraufwand auch [https://en.wikipedia.org/wiki/Soft-decision_decoder Soft&amp;amp;ndash;Decision&amp;amp;ndash;Information] verarbeitet werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:2.07_Reed–Solomon–Code_(7,_3,_5)(Base_8)|Aufgabe 2.7: Reed–Solomon–Code (7, 3, 5)(Base 8)]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.07Z_Reed–Solomon–Code_(15,_5,_11)(Base_16)|Zusatzaufgabe 2.7Z: Reed–Solomon–Code (15, 5, 11)(Base 16)]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.08_RS–Generatorpolynome|Aufgaben:2.08_RS–Generatorpolynome|Aufgabe 2.8: RS–Generatorpolynome]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.08Z_„Plus”_und_„Mal”_in_GF(2%5E3)|Zusatzaufgabe 2.8Z: „Plus” und „Mal” in GF(2^3)]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.09_Reed–Solomon–Parameter|Aufgabe 2.9: Reed–Solomon–Parameter]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.10_Fehlererkennung_bei_RSC|Aufgabe 2.10: Fehlererkennung bei RSC]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.10Z_Coderate_und_minimale_Distanz|Zusatzaufgabe 2.10Z: Coderate und minimale Distanz]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Extension_Field&amp;diff=21280</id>
		<title>Channel Coding/Extension Field</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Extension_Field&amp;diff=21280"/>
		<updated>2018-01-02T19:07:12Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Reed–Solomon–Codes und deren Decodierung&lt;br /&gt;
|Vorherige Seite=Einige Grundlagen der Algebra&lt;br /&gt;
|Nächste Seite=Definition und Eigenschaften von Reed–Solomon–Codes&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== GF(2&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt;) – Beispiel eines Erweiterungskörpers==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Im Abschnitt [[Kanalcodierung/Einige_Grundlagen_der_Algebra#Beispiele_und_Eigenschaften_von_Galoisfeldern|Beispiel 2]] im Kapitel &amp;amp;bdquo;Einige_Grundlagen der Algebra&amp;amp;rdquo; wurde bereits gezeigt, dass die '''endliche Zahlenmenge''' $\{0, 1, 2, 3\}$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $q = 4$ nicht die Eigenschaften eines Galoisfeldes $\rm GF(4)$ erfüllt. Vielmehr ergeben sich für die ''Addition'' modulo 4 und die ''Multiplikation'' modulo 4 folgende Tabellen:&lt;br /&gt;
&lt;br /&gt;
:$$ \begin{array}{c} &lt;br /&gt;
		{\rm modulo}\hspace{0.15cm}{\it q} = 4\\&lt;br /&gt;
		\end{array}\hspace{0.25cm} \Rightarrow\hspace{0.25cm}\text{Addition:      } &lt;br /&gt;
\left[ \begin{array}{c|cccccc} + &amp;amp; 0 &amp;amp; 1 &amp;amp;2 &amp;amp; 3 \\ \hline &lt;br /&gt;
                                                          0 &amp;amp; 0 &amp;amp; 1 &amp;amp;2 &amp;amp; 3 \\ &lt;br /&gt;
                                                          1 &amp;amp; 1 &amp;amp; 2 &amp;amp;3 &amp;amp; 0  \\ &lt;br /&gt;
                                                          2 &amp;amp; 2 &amp;amp; 3 &amp;amp;0 &amp;amp; 1 \\ &lt;br /&gt;
                                                          3 &amp;amp; 3 &amp;amp; 0 &amp;amp;1 &amp;amp; 2&lt;br /&gt;
\end{array} \right] \hspace{-0.1cm} ,\hspace{0.25cm}\text{Multiplikation:      } &lt;br /&gt;
\left[ \begin{array}{c|cccccc} \cdot &amp;amp; 0 &amp;amp; 1 &amp;amp;2 &amp;amp; 3 \\ \hline &lt;br /&gt;
                                                          0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0  \\&lt;br /&gt;
		                                          1 &amp;amp; 0 &amp;amp; 1 &amp;amp; 2 &amp;amp; 3 \\&lt;br /&gt;
		                                          2 &amp;amp; 0 &amp;amp; 2 &amp;amp; 0 &amp;amp; 2 \\&lt;br /&gt;
		                                          3 &amp;amp; 0 &amp;amp; 3 &amp;amp; 2 &amp;amp; 1  \\&lt;br /&gt;
\end{array} \right] .&lt;br /&gt;
$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Für $z_i = 2$ gibt es keine multiplikative Inverse ${\rm Inv_M}(z_i)$. Dies erkennt man daran, dass kein einziges Element $z_j &amp;amp;#8712; \{0, 1, 2, 3\}$ die Bedingung $2 &amp;amp;middot; z_j = 1$ erfüllt. Geht man dagegen vom binären Galoisfeld ${\rm GF}(2) = \{0, 1\}$ aus und erweitert dieses entsprechend der Gleichung&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm GF}(2^2)=  \big\{k_0+k_1\cdot \alpha \ \big | \ k_0, k_1\in{\rm GF}(2) = \{ 0, 1\} \big \}\hspace{0.05cm}, &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
so ergibt sich die ebenfalls '''endliche &amp;lt;b&amp;gt;Menge''' $\{0, 1, \alpha, 1 + \alpha\}$&amp;lt;/b&amp;gt; &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; die Ordnung ist weiterhin $q=4$. Führt man die Rechenoperationen modulo $p(\alpha) = \alpha^2 + \alpha +  1$ durch, so erhält man das folgende Ergebnis:&lt;br /&gt;
&lt;br /&gt;
:$$ \begin{array}{c} &lt;br /&gt;
		{\rm modulo}\hspace{0.15cm}{\it p}(\alpha)= \alpha^2 + \alpha +  1\\&lt;br /&gt;
		\end{array}\hspace{0.25cm} \Rightarrow\hspace{0.25cm}&lt;br /&gt;
\left[ \begin{array}{c|cccccc} + &amp;amp; 0 &amp;amp; 1 &amp;amp; \alpha &amp;amp; 1\!+\!\alpha \\ \hline&lt;br /&gt;
			0 &amp;amp; 0 &amp;amp; 1 &amp;amp; \alpha &amp;amp; 1\!+\!\alpha \\&lt;br /&gt;
			1 &amp;amp; 1 &amp;amp; 0 &amp;amp; 1\!+\!\alpha &amp;amp; \alpha \\&lt;br /&gt;
			\alpha &amp;amp; \alpha &amp;amp; 1\!+\!\alpha &amp;amp; 0 &amp;amp; 1 \\&lt;br /&gt;
			1\!+\!\alpha &amp;amp; 1\!+\!\alpha &amp;amp; \alpha &amp;amp; 1 &amp;amp; 0&lt;br /&gt;
\end{array} \right] \hspace{-0.1cm} ,\hspace{0.5cm} &lt;br /&gt;
\left[ \begin{array}{c|cccccc} \cdot &amp;amp; 0 &amp;amp; 1 &amp;amp; \alpha &amp;amp; 1\!+\!\alpha \\&lt;br /&gt;
			\hline&lt;br /&gt;
			0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 \\&lt;br /&gt;
			1 &amp;amp; 0 &amp;amp; 1 &amp;amp; \alpha &amp;amp; 1\!+\!\alpha \\&lt;br /&gt;
			\alpha &amp;amp; 0 &amp;amp; \alpha &amp;amp; 1\!+\!\alpha &amp;amp; 1 \\&lt;br /&gt;
			1\!+\!\alpha &amp;amp; 0 &amp;amp; 1\!+\!\alpha &amp;amp; 1 &amp;amp; \alpha&lt;br /&gt;
\end{array} \right] .$$&lt;br /&gt;
&lt;br /&gt;
Hierzu ist anzumerken:&lt;br /&gt;
*Die neutralen Elemente der Addition bzw. Multiplikation sind weiterhin $N_{\rm A} = 0$ und  $N_{\rm M} = 1$ .&lt;br /&gt;
&lt;br /&gt;
*Da bei Modulo&amp;amp;ndash;Ausführung kein Unterschied zwischen Addition und Subtraktion besteht, ist $\alpha + \alpha = \alpha - \alpha = 0$. Für alle &amp;lt;i&amp;gt;z&amp;lt;sub&amp;gt;i&amp;lt;/sub&amp;gt;&amp;lt;/i&amp;gt; gilt somit: Die additive Inverse von $z_i$ ist das Element  $z_i$ selbst.&lt;br /&gt;
&lt;br /&gt;
*Die Einträge in der Multiplikationstabelle ergeben sich nach folgenden Berechnungen:&lt;br /&gt;
::&amp;lt;math&amp;gt;\big [ \alpha \cdot (1+\alpha) \big ] \hspace{0.15cm}{\rm mod} \hspace{0.15cm} p(\alpha) = (\alpha^2 + \alpha) \hspace{0.15cm}{\rm mod} \hspace{0.15cm} (\alpha^2 + \alpha + 1)= 1\hspace{0.05cm},&amp;lt;/math&amp;gt;  &lt;br /&gt;
::&amp;lt;math&amp;gt;\big [ \alpha \cdot \alpha \big ] \hspace{0.15cm}{\rm mod} \hspace{0.15cm} p(\alpha) = (\alpha^2 ) \hspace{0.15cm}{\rm mod} \hspace{0.15cm} (\alpha^2 + \alpha + 1)= 1+\alpha\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\big [ (1+\alpha) \cdot (1+\alpha) \big ] \hspace{0.15cm}{\rm mod} \hspace{0.15cm} p(\alpha) = (\alpha^2 + 1) \hspace{0.15cm}{\rm mod} \hspace{0.15cm} (\alpha^2 + \alpha + 1)= \alpha\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Damit existieren für alle Elemente mit Ausnahme des Nullelements die multiplikativen Inversen:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Inv_M}( 1) = 1 \hspace{0.05cm},\hspace{0.2cm}{\rm Inv_M}(\alpha) = 1+\alpha \hspace{0.05cm},\hspace{0.2cm}{\rm Inv_M}(1+\alpha) = \alpha \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Zwischenergebnis:}$&amp;amp;nbsp;  &lt;br /&gt;
*Die Menge $\{0, 1, \alpha, 1 + \alpha\}$ stellt zusammen mit den zwei Rechenoperationen &amp;lt;i&amp;gt;Addition&amp;lt;/i&amp;gt; und &amp;lt;i&amp;gt;Multiplikation&amp;lt;/i&amp;gt; modulo $p(\alpha)= \alpha^2 + \alpha +  1$ ein &amp;lt;i&amp;gt;Galoisfeld&amp;lt;/i&amp;gt; der Ordnung $q = 4$  dar. &lt;br /&gt;
*Dieses mit $\rm GF(2^2) = GF(4)$ bezeichnete  Galoisfeld  erfüllt alle im [[Kanalcodierung/Einige_Grundlagen_der_Algebra#Definition_eines_Galoisfeldes| vorherigen Kapitel ]] genannten Anforderungen.&amp;lt;br&amp;gt;&lt;br /&gt;
*Im Gegensatz zum Zahlenkörper §$\rm GF(3) = \{0, 1, 2\}$ mit der Eigenschaft, dass  $q = 3$ eine Primzahl ist, nennt man $\rm GF(2^2)$ einen &amp;lt;b&amp;gt;Erweiterungskörper &amp;lt;/b&amp;gt;(englisch: &amp;lt;i&amp;gt;Extension Field&amp;lt;/i&amp;gt;).}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Reduzible und irreduzible Polynome ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Das Polynom $p(\alpha)$ und damit die Bestimmungsgleichung $p(\alpha) = 0$ darf nicht beliebig vorgegeben werden. Das auf der letzten Seite verwendete Polynom  $p(\alpha)= \alpha^2 + \alpha +  1$ war geeignet. Nun versuchen wir es mit einem anderen Polynom, nämlich  $p(\alpha)= \alpha^2  +  1$.&lt;br /&gt;
&lt;br /&gt;
:$$ \begin{array}{c} &lt;br /&gt;
		{\rm modulo}\hspace{0.15cm}{\it p}(\alpha)= \alpha^2 +   1\\&lt;br /&gt;
		\end{array}\hspace{0.25cm} \Rightarrow\hspace{0.25cm}&lt;br /&gt;
\left[ \begin{array}{c|cccccc} + &amp;amp; 0 &amp;amp; 1 &amp;amp; \alpha &amp;amp; 1\!+\!\alpha \\ \hline&lt;br /&gt;
			0 &amp;amp; 0 &amp;amp; 1 &amp;amp; \alpha &amp;amp; 1\!+\!\alpha \\&lt;br /&gt;
			1 &amp;amp; 1 &amp;amp; 0 &amp;amp; 1\!+\!\alpha &amp;amp; \alpha \\&lt;br /&gt;
			\alpha &amp;amp; \alpha &amp;amp; 1\!+\!\alpha &amp;amp; 0 &amp;amp; 1 \\&lt;br /&gt;
			1\!+\!\alpha &amp;amp; 1\!+\!\alpha &amp;amp; \alpha &amp;amp; 1 &amp;amp; 0&lt;br /&gt;
\end{array} \right] \hspace{-0.1cm} ,\hspace{0.5cm} &lt;br /&gt;
\left[ \begin{array}{c|cccccc} \cdot &amp;amp; 0 &amp;amp; 1 &amp;amp; \alpha &amp;amp; 1\!+\!\alpha \\&lt;br /&gt;
			\hline&lt;br /&gt;
			0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 \\&lt;br /&gt;
			1 &amp;amp; 0 &amp;amp; 1 &amp;amp; \alpha &amp;amp; 1\!+\!\alpha \\&lt;br /&gt;
			\alpha &amp;amp; 0 &amp;amp; \alpha &amp;amp;  1 &amp;amp;1\!+\!\alpha  \\&lt;br /&gt;
			1\!+\!\alpha &amp;amp; 0 &amp;amp; 1\!+\!\alpha &amp;amp; 1\!+\!\alpha &amp;amp; 0&lt;br /&gt;
\end{array} \right] .$$ &lt;br /&gt;
&lt;br /&gt;
Die Additionstabelle ist in beiden Fällen identisch und auch die Multiplikationstabellen unterscheiden sich nur durch die vier Einträge in den beiden unteren Zeilen und den beiden hinteren Spalten:&lt;br /&gt;
*Aus $p(\alpha) = 0$ folgt nun für das Produkt $\alpha \cdot \alpha = 1$ und das Produkt $(1 +\alpha) \cdot (1 +\alpha) $ ergibt das Nullelement. Das gemischte Produkt $\alpha \cdot  (1 +\alpha)  =  (1 +\alpha) $.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*In der letzten Zeile der Multipliaktionstabelle und auch in der letzten Spalte steht nun keine &amp;amp;bdquo;$1$&amp;amp;rdquo; &amp;amp;#8658; Hinsichtlich der Bedingung $p(\alpha)= \alpha^2 +   1= 0$ existiert die multiplikative Inverse zu $1 +\alpha$ nicht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Damit erfüllt aber die endliche Menge $\{0, 1, \alpha, 1 + \alpha\}$ zusammen mit Rechenoperationen modulo $p(\alpha)= \alpha^2 +   1$ auch nicht die Voraussetzungen eines Erweiterungskörpers $\rm GF(2^2) $.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fassen wir zusammen:}$&amp;amp;nbsp;  Aus dem binären Galoisfeld $\rm GF(2) = \{0, 1\}$ lässt sich unter Zuhilfenahme eines Polynoms vom Grad $m = 2$ mit binären Koeffizienten,&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p(x) = x^2 + k_1 \cdot x + k_0 \hspace{0.05cm}, \hspace{0.45cm}k_0\hspace{0.05cm},\hspace{0.1cm}k_1 \in \{0, 1\} &lt;br /&gt;
\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
ein Erweiterungskörper $\rm GF(2^2)$ formulieren. &amp;lt;i&amp;gt;Anmerkung:&amp;lt;/i&amp;gt; Die Umbenennung der Funktionsvariablen $\alpha$ in $x$ hat nur formale Bedeutung im Hinblick auf spätere Seiten.&amp;lt;br&amp;gt;&lt;br /&gt;
*Im vorliegenden Fall gibt es nur ein geeignetes Polynom $p_1(x)= x^2 + x  1$. Alle anderen möglichen Polynome vom Grad $m = 2$, nämlich&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p_2(x) = x^2 + 1 \hspace{0.06cm} = (x+1) \cdot (x+1)\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;p_3(x) =x^2  \hspace{0.76cm} = x \cdot x \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;p_4(x) = x^2 + x = (x+1) \cdot x\hspace{0.05cm}, &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
lassen sich faktorisieren und ergeben keinen Erweiterungskörper. &lt;br /&gt;
*Man nennt die Polynome $p_2(x)$, $p_3(x)$ und $p_4(x)$ ''reduzibel''. Der Schluss liegt nahe, dass für einen Erweiterungskörper nur ''irreduzible Polynome'' wie $p_1(x)$ geeignet sind.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Interpretation des neuen Elementes $\alpha$ ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir betrachten weiterhin den Körper ${\rm GF}(2^2) =  \{0, 1, \alpha, 1 + \alpha\}$ entsprechend den beiden folgenden Operationstabellen, basierend auf der Nebenbedingung $p(\alpha)= \alpha^2 + \alpha +  1 = 0$ (irreduzibles Ploynom):&lt;br /&gt;
&lt;br /&gt;
:$$ \begin{array}{c} &lt;br /&gt;
		{\rm modulo}\hspace{0.15cm} p(\alpha)= \alpha^2 + \alpha +  1\\&lt;br /&gt;
		\end{array}\hspace{0.25cm} \Rightarrow\hspace{0.25cm}&lt;br /&gt;
\left[ \begin{array}{c|cccccc} + &amp;amp; 0 &amp;amp; 1 &amp;amp; \alpha &amp;amp; 1\!+\!\alpha \\ \hline&lt;br /&gt;
			0 &amp;amp; 0 &amp;amp; 1 &amp;amp; \alpha &amp;amp; 1\!+\!\alpha \\&lt;br /&gt;
			1 &amp;amp; 1 &amp;amp; 0 &amp;amp; 1\!+\!\alpha &amp;amp; \alpha \\&lt;br /&gt;
			\alpha &amp;amp; \alpha &amp;amp; 1\!+\!\alpha &amp;amp; 0 &amp;amp; 1 \\&lt;br /&gt;
			1\!+\!\alpha &amp;amp; 1\!+\!\alpha &amp;amp; \alpha &amp;amp; 1 &amp;amp; 0&lt;br /&gt;
\end{array} \right] \hspace{-0.1cm} ,\hspace{0.5cm} &lt;br /&gt;
\left[ \begin{array}{c|cccccc} \cdot &amp;amp; 0 &amp;amp; 1 &amp;amp; \alpha &amp;amp; 1\!+\!\alpha \\&lt;br /&gt;
			\hline&lt;br /&gt;
			0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 \\&lt;br /&gt;
			1 &amp;amp; 0 &amp;amp; 1 &amp;amp; \alpha &amp;amp; 1\!+\!\alpha \\&lt;br /&gt;
			\alpha &amp;amp; 0 &amp;amp; \alpha &amp;amp; 1\!+\!\alpha &amp;amp; 1 \\&lt;br /&gt;
			1\!+\!\alpha &amp;amp; 0 &amp;amp; 1\!+\!\alpha &amp;amp; 1 &amp;amp; \alpha&lt;br /&gt;
\end{array} \right] .$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Welche Bedeutung hat aber nun das neue Element $\alpha$?&lt;br /&gt;
[[File:P ID2552 KC T 2 2 S1 v2.png|right|frame|Übergang von GF(2) zu GF(2&amp;lt;sup&amp;gt;2&amp;lt;/sup&amp;gt;) |class=fit]]&lt;br /&gt;
*Das Polynom $p(\alpha)= \alpha^2 + \alpha +  1 $ hat keine Nullstelle in ${\rm GF}(2) =  \{0, 1\}$. Das bedeutet weiter, dass  $\alpha$ weder $0$ noch $1$ sein kann.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Wäre $\alpha= 0$ bzw. $\alpha= 1$, so wären zudem zwei der vier Mengenelemente $\{0, 1, \alpha, 1 + \alpha\}$jeweils identisch. Entweder &amp;amp;bdquo;$0$&amp;amp;rdquo; und &amp;amp;bdquo;$\alpha$&amp;amp;rdquo; sowie &amp;amp;bdquo;$1$&amp;amp;rdquo; und &amp;amp;bdquo;$1+\alpha$&amp;amp;rdquo; oder &amp;amp;bdquo;$1$&amp;amp;rdquo; und &amp;amp;bdquo;$\alpha$&amp;amp;rdquo; sowie &amp;amp;bdquo;$0$&amp;amp;rdquo; und &amp;amp;bdquo;$1+\alpha$&amp;amp;rdquo;.&lt;br /&gt;
&lt;br /&gt;
*Vielmehr erhält der eindimensionale Körper ${\rm GF}(2)$ durch die Einführung des Elementes $\alpha$ eine zweite Dimension. Er wird also zum Galoisfeld ${\rm GF}(2^2)$ erweitert, wie die nebenstehende Grafik zeigt.&lt;br /&gt;
&lt;br /&gt;
*Das Element $\alpha$ hat ähnliche Bedeutung wie die imaginäre Einheit ${\rm j}$, durch die man die Menge der reellen Zahlen unter der Nebenbedingung ${\rm j}^2 + 1 = 0$ zur Menge der komplexen Zahlen erweitert.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Übliche Darstellung des binären Erweiterungskörpers}\ {\rm GF}(2^2)\text{:}$&lt;br /&gt;
 &lt;br /&gt;
Aufgrund der Identität $\alpha^2 = 1 + \alpha$,  die aus der Nebenbedingung $p(\alpha) = 0$ folgt,  kann man in gleicher Weise ${\rm GF}(2^2) =  \{0, 1, \alpha, \alpha^2\}$schreiben, wobei nun folgende Operationstabellen gelten:&lt;br /&gt;
&lt;br /&gt;
:$$ \begin{array}{c} &lt;br /&gt;
		{\rm modulo}\hspace{0.15cm} p(\alpha)= \alpha^2 + \alpha +  1\\&lt;br /&gt;
		\end{array}\hspace{0.25cm} \Rightarrow\hspace{0.25cm}&lt;br /&gt;
\left[ \begin{array}{c {{!}} cccccc} + &amp;amp; 0 &amp;amp; 1 &amp;amp; \alpha &amp;amp; \alpha^2 \\ \hline&lt;br /&gt;
			0 &amp;amp; 0 &amp;amp; 1 &amp;amp; \alpha &amp;amp; \alpha^2 \\&lt;br /&gt;
			1 &amp;amp; 1 &amp;amp; 0 &amp;amp; \alpha^2 &amp;amp; \alpha \\&lt;br /&gt;
			\alpha &amp;amp; \alpha &amp;amp; \alpha^2 &amp;amp; 0 &amp;amp; 1 \\&lt;br /&gt;
			\alpha^2 &amp;amp; \alpha^2 &amp;amp; \alpha &amp;amp; 1 &amp;amp; 0&lt;br /&gt;
\end{array} \right] \hspace{-0.1cm} ,\hspace{0.5cm} &lt;br /&gt;
\left[ \begin{array}{c {{!}} cccccc} \cdot &amp;amp; 0 &amp;amp; 1 &amp;amp; \alpha &amp;amp; \alpha^2 \\&lt;br /&gt;
			\hline&lt;br /&gt;
			0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 \\&lt;br /&gt;
			1 &amp;amp; 0 &amp;amp; 1 &amp;amp; \alpha &amp;amp; \alpha^2 \\&lt;br /&gt;
			\alpha &amp;amp; 0 &amp;amp; \alpha &amp;amp;\alpha^2 &amp;amp; 1 \\&lt;br /&gt;
			\alpha^2 &amp;amp; 0 &amp;amp; \alpha^2 &amp;amp; 1 &amp;amp; \alpha&lt;br /&gt;
\end{array} \right] .$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Polynome über einem endlichen Körper ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ein '''Polynom''' in einem endlichen Körper ${\rm GF}(P)$, wobei $P$ eine Primzahl angibt, hat folgende Form:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;a(x) = \sum_{i = 0}^{m} a_i \cdot x^{i}  = a_0 + a_1 \cdot x + a_2 \cdot x^2 + \hspace{0.1cm}... \hspace{0.1cm} + a_m \cdot x^{m}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
Anzumerken ist:&lt;br /&gt;
*Alle Koeffizienten $a_i $ sind Elemente des Körpers: &amp;amp;nbsp; $a_i \in {\rm GF}(P)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ist der führende Koeffizient $a_m &amp;amp;ne; 0$, so gibt $m$ den '''Grad''' des Polynoms an.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Betrachten wir ein dazu zweites Polynom mit Grad $M$,&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;b(x) = \sum_{i = 0}^{M} b_i \cdot x^{i}  = b_0 + b_1 \cdot x + b_2 \cdot x^2 + \hspace{0.1cm}... \hspace{0.1cm} + b_M \cdot x^{M}&lt;br /&gt;
\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
so erhält man für die Summe (bzw. Differenz) und das Produkt jeweils in ${\rm GF}(P)$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;a(x) \pm b(x)  = \sum_{i = 0}^{{\rm max}\hspace{0.05cm}(m, \hspace{0.05cm}M)} \hspace{0.15cm}(a_i \pm b_i) \cdot x^{i} \hspace{0.05cm},&amp;lt;/math&amp;gt;  &lt;br /&gt;
::&amp;lt;math&amp;gt;a(x) \cdot b(x)   =  \sum_{i = 0}^{m + M} \hspace{0.15cm}c_i \cdot x^{i}\hspace{0.05cm},\hspace{0.5cm} &lt;br /&gt;
c_i = \sum_{j = 0}^{i}\hspace{0.15cm}a_j \cdot b_{i-j}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; Es gelte $a(x) = x^3 + x + 1$ und $b(x) = x^2 + x + 1$. Im binären Galoisfeld &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; ${\rm GF}(2)$ ergibt sich nach den obigen Gleichungen für die Summe, die Differenz und das Produkt der beiden Polynome:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;s(x)  = a(x) + b(x) = x^3 + x^2 \hspace{0.05cm}, \hspace{0.5cm} &lt;br /&gt;
d(x)  = a(x) - b(x) = x^3 + x^2 = s(x)\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;c(x) = a(x) \cdot b(x)  =\sum_{i = 0}^{3 + 2} \hspace{0.15cm}c_i \cdot x^{i}\hspace{0.05cm},\hspace{0.5cm} &lt;br /&gt;
c_i = \sum_{j = 0}^{i}\hspace{0.15cm}a_j \cdot b_{i-j}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Mit $a_0 =  a_1 = a_3 = b_0 =  b_1 =b_2 = 1$ und  $a_2 =  a_4 = a_5 = b_3 =  b_4 =b_5 = 0$  erhält man:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;c_0 = a_0 \cdot b_0 = 1 \cdot 1 = 1 \hspace{0.05cm},&amp;lt;/math&amp;gt;  &lt;br /&gt;
::&amp;lt;math&amp;gt;c_1 = a_0 \cdot b_1 + a_1 \cdot b_0 = 1 \cdot 1 + 1 \cdot 1 = 0 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;c_2 =a_0 \cdot b_2 + a_1 \cdot b_1 + a_2 \cdot b_0 = 1 \cdot 1 + 1 \cdot 1 +  0 \cdot 1 = 0 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;c_3 = a_0 \cdot b_3 + a_1 \cdot b_2 + a_2 \cdot b_1 + a_3 \cdot b_0 &lt;br /&gt;
= 1 \cdot 0 + 1 \cdot 1 +  0 \cdot 1 + 1 \cdot 1 = 0 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;c_4=a_0 \cdot b_4 + a_1 \cdot b_3 +   \hspace{0.05cm}...+   \hspace{0.05cm}a_4 \cdot b_0&lt;br /&gt;
=1 \cdot 0 + 1 \cdot 0 + 0 \cdot 1 +  1 \cdot 1 + 0 \cdot 1 = 1 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;c_5 = a_0 \cdot b_5 + a_1 \cdot b_4 + \hspace{0.05cm}...+   \hspace{0.05cm}  a_5 \cdot b_0&lt;br /&gt;
=1 \cdot 0 + 1 \cdot 0 + 0 \cdot 0 +  1 \cdot 1 + 0 \cdot 1 + 0 \cdot 1= 1 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow  \hspace{0.3cm} c(x) = x^5 + x^4 +1 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Galoisfeld ${\rm GF}(3)$ erhält man aufgrund der Modulo&amp;amp;ndash;3&amp;amp;ndash;Operationen andere Ergebnisse:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;s(x)  = (x^3 + x + 1) + (x^2 + x + 1) = x^3 + x^2 + 2x + 2\hspace{0.05cm},&amp;lt;/math&amp;gt;  &lt;br /&gt;
::&amp;lt;math&amp;gt;d(x)  = (x^3 + x + 1) - (x^2 + x + 1) = x^3 + 2x^2 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;c(x)  = (x^3 + x + 1) \cdot  (x^2 + x + 1) = x^5 + x^4 + 2x^3 + 2x^2 + 2x +1\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ein Polynom $a(x)$ bezeichnet man als '''reduzibel''' (englisch: &amp;lt;i&amp;gt;reducible&amp;lt;/i&amp;gt;), wenn es als Produkt zweier Polynome $p(x)$ und $q(x)$ mit jeweils niedrigerem Grad dargestellt werden kann:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;a(x) = p(x) \cdot q(x)&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ist diese Faktorisierung nicht möglich, das heißt, wenn&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;a(x) = p(x) \cdot q(x) + r(x)\hspace{0.05cm},\hspace{0.5cm} r(x) \ne 0&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gilt, so spricht man von einem '''irreduziblen''' (englisch: &amp;lt;i&amp;gt;irreducible&amp;lt;/i&amp;gt; oder &amp;lt;i&amp;gt;prime&amp;lt;/i&amp;gt;) Polynom.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp; Es gelte $b(x) = x^3 + x + 1$, $p_1(x) = x^2 + x + 1$ und $p_2(x) = x^2 + 1$. Die Grafik verdeutlicht links die Modulo&amp;amp;ndash;2&amp;amp;ndash;Multiplikation $a(x)= b(x) \cdot p_1(x)$. Das Ergebnis ist $a(x) = x^5 + x^4 + 1$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2538 KC T 2 2 S2 v2.png|center|frame|Beispiel für Polynom–Multiplikation und –Division|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Im rechten Teil der obigen Grafik ist die Modulo&amp;amp;ndash;2&amp;amp;ndash;Division $q(x)= a(x)/ p_2(x)$ mit dem Ergebnis $q(x) = x^3 + x^2 + x + 1$ dargestellt. Es verbleibt der Rest $r(x) = x$. Allein nach dieser Rechnung könnte $a(x) = x^5 + x^4 + 1$ durchaus ein irreduzibles Polynom sein.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der Nachweis, dass das Polynom $a(x) = x^5 + x^4 + 1$ tatsächlich irreduzibel ist, wäre allerdings erst dann erbracht, wenn $a(x)/p(x)$ für alle&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p(x) = \sum_{i = 0}^{m} a_i \cdot x^{i}  = a_m \cdot x^{m} + a_{m-1} \cdot x^{m-1} + \hspace{0.1cm}... \hspace{0.1cm}+ a_2 \cdot x^2  + a_1 \cdot x +  a_0 \hspace{0.05cm}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
einen Rest $r(x)  &amp;amp;ne; 0$ liefert. Dies würde im vorliegenden Beispiel (nahezu) $2^5 = 32$ Divisionen erfordern.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aufgrund unserer linken Berechnung können wir hier sofort erkennen, dass  $a(x)$ mit Sicherheit kein irreduzibles Polynom ist, da zum Beispiel $a(x) = x^5 + x^4 + 1$ dividiert durch $p_1(x) = x^2 + x + 1$ das Polynom $b(x) = x^3 + x + 1$ ohne Rest ergibt.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Verallgemeinerte Definition eines Erweiterungskörpers ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir gehen von folgenden Voraussetzungen aus:&lt;br /&gt;
*einem Galoisfeld ${\rm GF}(P)$, wobei $P$ eine Primzahl angibt,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*einem irreduziblen Polynom $p(x)$ über ${\rm GF}(P)$ mit dem Grad $m$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p(x) = a_m \cdot x^{m} + a_{m-1} \cdot x^{m-1} + \hspace{0.1cm}... \hspace{0.1cm}+ a_2 \cdot x^2  + a_1 \cdot x +  a_0 \hspace{0.05cm}, \hspace{0.3cm}&lt;br /&gt;
a_i \in {\rm G}(P)\hspace{0.05cm}, \hspace{0.15cm}a_m \ne 0\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Mit den genannten Voraussetzungen gilt allgemein:&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;  Es sei $P$ eine Primzahl, $m$ ganzzahlig, $p(x)$ ein irreduzibles Polynom vom Grad $m$ und es gelte $p(\alpha) = 0$. Ein &amp;lt;b&amp;gt;Erweiterungskörper&amp;lt;/b&amp;gt; lässt sich dann wie folgt beschreiben.&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm GF}(P^m)=  \Big\{ k_{m-1} \hspace{0.01cm}\cdot \hspace{0.02cm}\alpha^{m-1} \hspace{0.05cm}+ \hspace{0.05cm}\text{...} \hspace{0.05cm}+ \hspace{0.05cm}k_1 \hspace{0.01cm}\cdot \hspace{0.02cm} \alpha \hspace{0.05cm}+ \hspace{0.05cm} k_0\hspace{0.05cm} 		\Big{\vert}\hspace{0.02cm} \ k_i\in{\rm GF}(P) = \{ 0, 1, \hspace{0.05cm}\text{...} \hspace{0.05cm}, P-1\}\Big \}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Addition und Multiplikation in diesem Erweiterungskörper entspricht dann der Polynomaddition und Polynommultiplikation modulo $p(\alpha)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ein Galoisfeld ${\rm GF}(q)$ mit $q$ Elementen lässt sich also immer dann angeben, wenn die Elementenanzahl in der Form $q = P^m$  geschrieben werden kann ($P$ kennzeichnet eine Primzahl, $m$ sei ganzzahlig).}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt, für welche $q$&amp;amp;ndash;Werte sich jeweils ein Galoisfeld konstruieren lässt. Für die schraffiert eingezeichneten Werte ist kein endlicher Körper angebbar. Weiter ist anzumerken:&lt;br /&gt;
*Die gelb hinterlegten Positionen $q=P$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $m = 1$ markieren Zahlenmengen $\{0, 1,\text{ ...} , q- 1\}$ mit Galoiseigenschaften, siehe Seite  [[Kanalcodierung/Einige_Grundlagen_der_Algebra#Definition_eines_Galoisfeldes| Definition eines Galoisfeldes]].&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die anderen farblich hinterlegten Positionen markieren Erweiterungskörper mit $q=P^m$, $m &amp;amp;#8805; 2$. Für $q &amp;amp;#8804; 64$ basieren diese auf den Primzahlen $2$, $3$, $5$ und $7$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Mit roter Schrift hervorgehoben sind binäre Körper &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $q=2^m$, $m &amp;amp;#8805; 1$, die auf der nächsten Seite noch genauer betrachtet werden. Alle anderen Erweiterungskörper sind blau beschriftet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2500 KC T 2 2 S3 v2.png|center|frame|Mögliche Galoisfelder GF(&amp;lt;i&amp;gt;q&amp;lt;/i&amp;gt;), &amp;lt;i&amp;gt;q&amp;lt;/i&amp;gt; ≤ 64 |class=fit]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Binäre Erweiterungskörper &amp;amp;ndash; Primitive Polynome==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Im Folgenden betrachten wir binäre Erweiterungskörper mit&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;q = 2^m \hspace{0.15cm}(m \ge 2)  \hspace{0.3cm} \Rightarrow\hspace{0.3cm} q = 4, 8, 16, 32, 64, \text{...}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Elementen. In der Tabelle sind für $2 &amp;amp;#8804; m &amp;amp;#8804; 6$ alle irreduziblen Polynome des Galoisfeldes ${\rm GF}(2)$ angegeben. Die Polynome in Spalte 2 und 3 sind nicht nur irreduzibel, sondern zusätzlich auch primitiv.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;i&amp;gt;Hinweis:&amp;lt;/i&amp;gt; Primitive Polynome liefern auch die Grundlage für die [[Stochastische_Signaltheorie/Erzeugung_von_diskreten_Zufallsgr%C3%B6%C3%9Fen#Realisierung_von_PN-Generatoren| Realisierung von Pseudo&amp;amp;ndash;Noise&amp;amp;ndash;Generatoren]].&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2501 KC T 2 2 S4 v4.png|center|frame|Irreduzible und primitive Polynome|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Bevor wir uns der Definition eines primitiven Polynoms zuwenden, sollen zunächst die Besonderheiten solcher primitiver Elemente am Beispiel von&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm GF}(q) = \{\hspace{0.05cm}z_0 = 0,\hspace{0.1cm} z_1 = 1,\hspace{0.1cm}  ... , \hspace{0.05cm}z_{q-1}\}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
genannt werden. Das Element $z_i = \beta$ wird dann als primitiv bezeichnet,&lt;br /&gt;
*wenn die Potenz $\beta^{i}$ modulo $q$ zum ersten Mal für $i = q-1$ das Ergebnis &amp;amp;bdquo;$1$&amp;amp;rdquo;  liefert, so dass &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*$\beta^{i}$  für $1 &amp;amp;#8804; i &amp;amp;#8804; q- 1$ genau die Elemente $z_1$, ... , $z_{q-1}$ liefert, also alle Elemente von ${\rm GF}(q)$ mit Ausnahme des Nullelementes $z_0 = 0$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; Von der Zahlenmenge $Z_5  = \{0, 1, 2, 3, 4\}$ sind &amp;amp;bdquo;$2$&amp;amp;rdquo; und &amp;amp;bdquo;$3$&amp;amp;rdquo; primitive Elemente wegen&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;2^1 \hspace{-0.1cm}  =  \hspace{-0.1cm} 2\hspace{0.05cm},\hspace{0.2cm} 2^2 = 4\hspace{0.05cm},\hspace{0.2cm} 2^3 = 8 \hspace{0.1cm}{\rm mod} \hspace{0.1cm} 5 = 3\hspace{0.05cm},\hspace{0.2cm} 2^4 = 16 \hspace{0.1cm}{\rm mod} \hspace{0.1cm} 5 = 1\hspace{0.05cm},&amp;lt;/math&amp;gt; &lt;br /&gt;
::&amp;lt;math&amp;gt;3^1 \hspace{-0.1cm}  =  \hspace{-0.1cm} 3\hspace{0.05cm},\hspace{0.2cm} 3^2 = 9\hspace{0.1cm}{\rm mod} \hspace{0.1cm} 5 = 4\hspace{0.05cm},\hspace{0.2cm} 3^3 = 27 \hspace{0.1cm}{\rm mod} \hspace{0.1cm} 5 = 2\hspace{0.05cm},\hspace{0.2cm} 3^4 = 81 \hspace{0.1cm}{\rm mod} \hspace{0.1cm} 5 = 1&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Dagegen ist &amp;amp;bdquo;$4$&amp;amp;rdquo; kein primitives Element, weil bereits $4^2 = 1$ ist:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;4^1 = 4\hspace{0.05cm},\hspace{0.2cm} 4^2 = 16 \hspace{0.1cm}{\rm mod} \hspace{0.1cm} 5 = 1\hspace{0.05cm},\hspace{0.2cm} 4^3 = 64 \hspace{0.1cm}{\rm mod} \hspace{0.1cm} 5 = 4\hspace{0.05cm},\hspace{0.2cm} 4^4 = 256 \hspace{0.1cm}{\rm mod} \hspace{0.1cm} 5 = 1\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;  Ein irreduzibles Polynom bezeichnet man gleichzeitig als ein '''primitives Polynom''', wenn die Wurzel $\alpha$ bezüglich des Polynoms $p(x)$ ein primitives Element von ${\rm GF}(q)$ ist. Dann gilt&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm GF}(q) = \{\hspace{0.1cm}\alpha^{-\infty} = 0\hspace{0.05cm},\hspace{0.1cm} \alpha^{0}  = 1,\hspace{0.05cm}\hspace{0.1cm}&lt;br /&gt;
\alpha\hspace{0.05cm},\hspace{0.1cm} \alpha^{2},\hspace{0.1cm}  ... \hspace{0.1cm}  , \hspace{0.1cm}\alpha^{q-2}\hspace{0.1cm}\}\hspace{0.05cm}.  &amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Alle in Spalte 2 der obigen Tabelle angegebenen Polynome sind sowohl irreduzibel als auch primitiv. Ist $p_1(x)$ ein primitives Polynom, so ist auch das dazu reziproke Polynom $p_2 (x) = x^m \cdot p_1(x^{-1})$ primitiv. &lt;br /&gt;
*Alle Polynome in Spalte 3 sind reziprok zum Polynom in Spalte 2. Beispielsweise gilt für $m = 3$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p_1(x) = x^3 + x + 1 \hspace{0.3cm} \Rightarrow\hspace{0.3cm}p_2(x) = x^3 \cdot [x^{-3} + x^{-1} + 1 ]= x^3 + x^2 + 1 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die irreduziblen Polynome der Spalte 4 sind dagegen nicht primitiv; sie spielen nur eine untergeordnete Rolle zur Beschreibung von Fehlerkorrekturverfahren.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Zur Verdeutlichung dieser Aussagen betrachten wir beispielhaft&lt;br /&gt;
*das Galoisfeld $\rm GF(2^3) = GF(8)$, sowie &amp;lt;br&amp;gt;&lt;br /&gt;
*das Polynom $p(x) = x^3 +  x + 1$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aus der Bedingung $p(\alpha) = 0$ erhält man in $\rm GF(2^3)$ weiter:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\alpha^3 + \alpha + 1 = 0 \hspace{0.3cm} \Rightarrow\hspace{0.3cm}\alpha^3 = \alpha + 1 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
und damit für die Potenzen $\alphaî$ der Wurzel für $i &amp;amp;#8805; 4$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\alpha^4 = \alpha \cdot \alpha^3 = \alpha \cdot (\alpha + 1) = \alpha^2 + \alpha \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\alpha^5 = \alpha^2 \cdot \alpha^3 = \alpha^2 \cdot (\alpha + 1) = \alpha^3 + \alpha^2 = \alpha^2 + \alpha + 1&lt;br /&gt;
\hspace{0.05cm},&amp;lt;/math&amp;gt; &lt;br /&gt;
::&amp;lt;math&amp;gt;\alpha^6 = \alpha^3 \cdot \alpha^3 = (\alpha + 1) \cdot (\alpha + 1) = \alpha^2 + \alpha + \alpha + 1= \alpha^2  + 1 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\alpha^7 = \alpha^4 \cdot \alpha^3 = (\alpha^2 + \alpha) \cdot (\alpha + 1) = \alpha^3 + \alpha^2 +  \alpha^2 + \alpha  =  \alpha  + 1 + \alpha = 1 = \alpha^0 \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 5:}$&amp;amp;nbsp; Die Elemente $z_0$, $z_1$, ... , $z_7$ des Galoisfeldes $\rm GF(2^3)$ lassen sich entsprechend der nebenstehenden Tabelle wie folgt darstellen:&lt;br /&gt;
[[File:P ID2568 KC T 2 2 S4b.png|right|frame|Elemente von GF(2&amp;lt;sup&amp;gt;3&amp;lt;/sup&amp;gt;) in drei verschiedenen Darstellungen]]&lt;br /&gt;
*als Potenzen von $\alpha$  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''Exponentendarstellung''',&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*als Polynome der Form $k_2 \cdot \alpha^2 + k_1 \cdot \alpha + k_0$ mit binären Koeffizienten  $k_2$, $k_1$, $k_0$ (jeweils $0$ oder $1$)   &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''Polynomdarstellung''',&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*als Vektoren der Koeffizienten $(k_2, \ k_1, \ k_0)$  &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; '''Koeffizientendarstellung'''.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für Addition (oder Subtraktion) zweier Elemente eignen sich Polynom&amp;amp;ndash; und Vektordarstellung gleichermaßen, wobei die Komponenten modulo 2 zu addieren sind, zum Beispiel:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;z_5 + z_7  =(\alpha^2 + \alpha) + (\alpha^2 + 1)  = \alpha + 1 = \alpha^3 = z_4 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
:::&amp;lt;math&amp;gt;{\rm oder}\hspace{0.15cm} z_5 + z_7  =(110) + (101) = (011) = z_4 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\hspace{0.15cm} z_1 + z_2 + z_3 =(001) + (010) + (100)= (111) = z_6 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für Multiplikationen ist die Exponentendarstellung gut geeignet, wie folgende Beispiele zeigen:&lt;br /&gt;
[[File:P ID2577 KC T 2 2 S4c.png|right|frame|GF(2&amp;lt;sup&amp;gt;3&amp;lt;/sup&amp;gt;) in 3D–Darstellung]]&lt;br /&gt;
::&amp;lt;math&amp;gt;z_3 \cdot z_4  =\alpha^2 \cdot \alpha^3 =  \alpha^{2+3}=  \alpha^{5} = z_6 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;z_0 \cdot z_5  =\alpha^{-\infty} \cdot \alpha^4 =  \alpha^{-\infty} = z_0 \hspace{0.05cm},&amp;lt;/math&amp;gt;  &lt;br /&gt;
::&amp;lt;math&amp;gt;z_5 \cdot z_7  = \alpha^4 \cdot \alpha^6 =  \alpha^{10}=    \alpha^{7} \cdot \alpha^{3} &lt;br /&gt;
=  1 \cdot \alpha^{3}= z_4 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Man erkennt, dass sich die Exponenten modulo $q-1$ ergeben (im Beispiel modulo $7$).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt den endlichen Erweiterungskörper $\rm GF(2^3)$ in einer 3D&amp;amp;ndash;Darstellung: &lt;br /&gt;
*Die Achsen sind mit $\alpha^0 =1$, $\alpha^1$ und  $\alpha^2$ bezeichnet. &lt;br /&gt;
*Die $2^3 = 8$ Punkte im dreidimensionalen Raum sind mit den Koeffizientenvektoren beschriftet.&lt;br /&gt;
*Die Zuordnung der einzelnen Koeffizienten $k_2$, $k_1$, $k_0$ zu den Achsen ist farblich deutlich gemacht. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:2.3_Reduzible_und_irreduzible_Polynome|Aufgabe 2.3: Reduzible und irreduzible Polynome]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.3Z_Polynomdivision|Zusatzaufgabe 2.3Z: Polynomdivision]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.4_GF(2%5E2)–Darstellungsformen|Aufgabe 2.4: GF(2^2)–Darstellungsformen]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.4Z_Endliche_und_unendliche_Körper|Zusatzaufgabe 2.4Z: Endliche und unendliche Körper]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.5_Drei_Varianten_von_GF(2%5E4)|Aufgabe 2.5: Drei Varianten von GF(2^4)]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.5Z_Einige_Berechnungen_über_GF(2%5E3)|Zusatzaufgabe 2.5Z: Einige Berechnungen über GF(2^3)]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:A2.6_GF(P%5Em)._Welches_P,_welches_m|Aufgabe 2.6: GF(P^m). Welches P, welches m?]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Some_Basics_of_Algebra&amp;diff=21279</id>
		<title>Channel Coding/Some Basics of Algebra</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Some_Basics_of_Algebra&amp;diff=21279"/>
		<updated>2018-01-02T19:03:18Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Reed–Solomon–Codes und deren Decodierung&lt;br /&gt;
|Vorherige Seite=Informationstheoretische Grenzen der Kanalcodierung&lt;br /&gt;
|Nächste Seite=Erweiterungskörper&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== # ÜBERBLICK ZUM ZWEITEN HAUPTKAPITEL # ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Dieses Kapitel behandelt die ''Reed–Solomon–Codes'', die Anfang der 1960er Jahre von [https://de.wikipedia.org/wiki/Irving_Stoy_Reed Irving Stoy Reed] und [https://de.wikipedia.org/wiki/Gustave_Solomon Gustave Solomon] erfunden wurden. Im Gegensatz zu den binären Blockcodes basieren diese auf einem Galoisfeld ${\rm GF}(2^m)$ mit $m &amp;gt; 1$. Sie arbeiten also mit mehrstufigen Symbolen anstelle von Binärzeichen (Bit).&lt;br /&gt;
&lt;br /&gt;
Im Einzelnen werden in diesem Kapitel behandelt:&lt;br /&gt;
&lt;br /&gt;
*Die Grundlagen der linearen Algebra: Menge, Gruppe, Ring, Körper, endlicher Körper,&lt;br /&gt;
*die Definition von Erweiterungskörpern  &amp;amp;nbsp; ⇒  &amp;amp;nbsp; ${\rm GF}(2^m)$ und die zugehörigen Operationen,&lt;br /&gt;
*die Bedeutung von irreduziblen Polynomen und primitiven Elementen,&lt;br /&gt;
*die Beschreibungs– und Realisierungsmöglichkeiten eines Reed–Solomon–Codes,&lt;br /&gt;
*Fehlerkorrektur eines solchen Codes beim Auslöschungskanal (BEC),&lt;br /&gt;
*die Decodierung mit Hilfe des Error Locator Polynoms  ⇒  Bounded Distance Decoding,&lt;br /&gt;
*die Blockfehlerwahrscheinlichkeit der Reed–Solomon–Codes und typische Anwendungen.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Definition eines Galoisfeldes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Bevor wir uns der Beschreibung der Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes zuwenden können, benötigen wir einige algebraische Grundbegriffe. Beginnen wir mit den Eigenschaften eines  Galoisfeldes ${\rm GF}(q)$, benannt nach dem Franzosen [https://de.wikipedia.org/wiki/%C3%89variste_Galois Évariste Galois], dessen Biografie für einen Mathematiker eher ungewöhnlich ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;  Ein &amp;lt;b&amp;gt;Galoisfeld&amp;lt;/b&amp;gt; ${\rm GF}(q)$ ist ein [[Kanalcodierung/Einige_Grundlagen_der_Algebra#Algebraischer_Ring_und_Beispiele| endlicher Körper]] mit $q$ Elementen $z_0$, $z_1$, ... , $z_{q-1}$, wenn die acht nachfolgend aufgeführten Aussagen hinsichtlich ''Addition'' (&amp;amp;bdquo;$+$&amp;amp;rdquo;) und  ''Multiplikation'' (&amp;amp;bdquo;$\cdot $&amp;amp;rdquo;)  zutreffen.  &lt;br /&gt;
*Addition und Multiplikation sind hierbei modulo $q$ zu verstehen.&lt;br /&gt;
*Die '''Ordnung''' $q$ die Anzahl der Elemente des Galoisfeldes.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
$\rm (A)$&amp;amp;nbsp; ${\rm GF}(q)$ ist in sich abgeschlossen &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; '''Closure''':&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\forall \hspace{0.15cm}  z_i \in {\rm GF}(q),\hspace{0.15cm} z_j \in {\rm GF}(q)\text{:}&lt;br /&gt;
\hspace{0.25cm}(z_i + z_j)\in {\rm GF}(q),\hspace{0.15cm}(z_i \cdot z_j)\in {\rm GF}(q)&lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
$\rm (B)$&amp;amp;nbsp; Es gibt ein hinsichtlich der Addition neutrales Element $N_{\rm A}$, das so genannte &amp;lt;i&amp;gt;Nullelement&amp;lt;/i&amp;gt; &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;span style=&amp;quot;font-weight: bold;&amp;quot;&amp;gt;Identity for &amp;amp;bdquo;+&amp;amp;rdquo;&amp;lt;/span&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\exists \hspace{0.15cm} z_j \in {\rm GF}(q)\text{:}&lt;br /&gt;
\hspace{0.25cm}z_i + z_j  = z_i \hspace{0.25cm} \Rightarrow \hspace{0.25cm} z_j  = N_{\rm A} = {\rm &amp;quot;0&amp;quot;} \hspace{0.25cm}{\rm (Nullelement)}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
$\rm (C)$&amp;amp;nbsp; Es gibt ein hinsichtlich der Multiplikation neutrales Element $N_{\rm M}$, das  so genannte  &amp;lt;i&amp;gt;Einselement&amp;lt;/i&amp;gt;  &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;span style=&amp;quot;font-weight: bold;&amp;quot;&amp;gt;Identity for &amp;amp;bdquo;&amp;amp;middot;&amp;amp;rdquo;&amp;lt;/span&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\exists \hspace{0.15cm} z_j \in {\rm GF}(q)\text{:}&lt;br /&gt;
\hspace{0.25cm}z_i \cdot z_j = z_i \hspace{0.3cm}\Rightarrow \hspace{0.3cm} z_j  = N_{\rm M} = {\rm &amp;quot;1&amp;quot;} \hspace{0.25cm}{\rm (Einselement)}&lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
$\rm (D)$&amp;amp;nbsp; Für jedes $z_i$ existiert eine ''additive Inverse'' ${\rm Inv_A}(z_i)$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;span style=&amp;quot;font-weight: bold;&amp;quot;&amp;gt;Inverse for &amp;amp;bdquo;+&amp;amp;rdquo;&amp;lt;/span&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\forall \hspace{0.15cm}  z_i \in {\rm GF}(q),\hspace{0.15cm} \exists \hspace{0.15cm} {\rm Inv_A}(z_i) \in {\rm GF}(q)\text{:}&lt;br /&gt;
\hspace{0.25cm}z_i + {\rm Inv_A}(z_i) = N_{\rm A} = {\rm &amp;quot;0&amp;quot;}  \hspace{0.3cm}\Rightarrow \hspace{0.3cm}{\rm kurz:}\hspace{0.15cm}&lt;br /&gt;
{\rm Inv_A}(z_i) = - z_i \hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
$\rm (E)$&amp;amp;nbsp; Für jedes $z_i$ mit Ausnahme des Nullelements existiert die ''multiplikative Inverse'' ${\rm Inv_M}(z_i)$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;span style=&amp;quot;font-weight: bold;&amp;quot;&amp;gt;Inverse for &amp;amp;bdquo;&amp;amp;middot;&amp;amp;rdquo;&amp;lt;/span&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\forall \hspace{0.15cm}  z_i \in {\rm GF}(q),\hspace{0.15cm} z_i \ne N_{\rm A}, \hspace{0.15cm} \exists \hspace{0.15cm} {\rm Inv_M}(z_i) \in {\rm GF}(q)\text{:}&lt;br /&gt;
\hspace{0.25cm}z_i \cdot {\rm Inv_M}(z_i) = N_{\rm M} = {\rm &amp;quot;1&amp;quot;}\hspace{0.3cm}\Rightarrow \hspace{0.3cm}{\rm kurz:}\hspace{0.15cm}&lt;br /&gt;
{\rm Inv_M}(z_i) = z_i^{-1}&lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
$\rm (F)$&amp;amp;nbsp; Für Addition und Multiplikation gilt jeweils das ''Kommutativgesetz'' &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;span style=&amp;quot;font-weight: bold;&amp;quot;&amp;gt;Commutative Law&amp;lt;/span&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\forall \hspace{0.15cm}  z_i \in {\rm GF}(q),\hspace{0.15cm} z_j \in {\rm GF}(q)\text{:}&lt;br /&gt;
\hspace{0.25cm}z_i + z_j = z_j + z_i ,\hspace{0.15cm}z_i \cdot z_j = z_j \cdot z_i&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
$\rm (G)$&amp;amp;nbsp; Für Addition und Multiplikation gilt jeweils das ''Assoziativgesetz'' &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;span style=&amp;quot;font-weight: bold;&amp;quot;&amp;gt;Associative Law&amp;lt;/span&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\forall \hspace{0.15cm}  z_i,\hspace{0.1cm} z_j ,\hspace{0.1cm} z_k \in {\rm GF}(q)\text{:}&lt;br /&gt;
\hspace{0.25cm}(z_i + z_j) + z_k = z_i + (z_j + z_k ),\hspace{0.15cm}(z_i \cdot z_j) \cdot z_k = z_i \cdot (z_j \cdot z_k )&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
$\rm (H)$&amp;amp;nbsp; Für die Kombination &amp;amp;bdquo;Addition &amp;amp;ndash; Multiplikation&amp;amp;rdquo; gilt das ''Distributivgesetz'' &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;span style=&amp;quot;font-weight: bold;&amp;quot;&amp;gt;Distributive Law&amp;lt;/span&amp;gt;:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\forall \hspace{0.15cm}  z_i,\hspace{0.15cm} z_j ,\hspace{0.15cm} z_k \in {\rm GF}(q)\text{:}&lt;br /&gt;
\hspace{0.25cm}(z_i + z_j) \cdot z_k = z_i \cdot z_k + z_j \cdot z_k &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Beispiele und Eigenschaften von Galoisfeldern ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir überprüfen zunächst, ob für die binäre Zahlenmenge $Z_2 = \{0, 1\}$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $q=2$ (gültig für den einfachen Binärcode) die auf der letzten Seite genannten acht Kriterien erfüllt werden, so dass man tatsächlich von &amp;amp;bdquo;${\rm GF}(2)$&amp;amp;rdquo; sprechen kann. Sie sehen nachfolgend die Additions&amp;amp;ndash; und Multiplikationstabelle:&lt;br /&gt;
&lt;br /&gt;
:$$Z_2 = \{0, 1\}\hspace{0.25cm} \Rightarrow\hspace{0.25cm}\text{Addition:      } &lt;br /&gt;
\left[ \begin{array}{c|cccccc} + &amp;amp; 0 &amp;amp; 1  \\ \hline &lt;br /&gt;
                                                          0 &amp;amp; 0 &amp;amp; 1  \\ &lt;br /&gt;
                                                          1 &amp;amp; 1 &amp;amp; 0   &lt;br /&gt;
\end{array} \right] \hspace{-0.1cm} ,\hspace{0.25cm}\text{Multiplikation:      } &lt;br /&gt;
\left[ \begin{array}{c|cccccc} \cdot &amp;amp; 0 &amp;amp; 1 \\ \hline &lt;br /&gt;
                                                          0 &amp;amp; 0 &amp;amp; 0   \\&lt;br /&gt;
		                                          1 &amp;amp; 0 &amp;amp; 1  &lt;br /&gt;
\end{array} \right]\hspace{0.25cm} \Rightarrow\hspace{0.25cm}{\rm GF}(2) .&lt;br /&gt;
$$&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus dieser Darstellung:&lt;br /&gt;
*Jedes Element der Additions&amp;amp;ndash; und der Multiplikationstabelle von $Z_2$ ist wieder $z_0 = 0$ oder $z_0 = 1$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; das Kriterium $\rm (A)$ ist erfüllt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Zahlenmenge  $Z_2$ enthält das Nullelement $(\hspace{-0.05cm}N_{\rm A} = z_0 = 0)$ und das Einselement  $(\hspace{-0.05cm}N_{\rm M} = z_1 = 1)$ &amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp; die Kriterien $\rm (B)$ und $\rm (C)$ sind erfüllt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die additiven Inversen ${\rm Inv_A}(0) = 0$ und ${\rm Inv_A}(1) = -1 \ {\rm mod}\  2 = 1$ existieren und gehören zu  $Z_2$. Ebenso gibt es die multiplikative Inverse ${\rm Inv_M}(1) = 1$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; die Kriterien $\rm (D)$ und $\rm (E)$ sind erfüllt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Gültigkeit des Kommutativgesetzes $\rm (F)$ in der Menge $Z_2$ erkennt man an der Symmetrie bezüglich der Tabellendiagonalen. Die Kriterien $\rm (G)$ und $\rm (H)$ werden hier ebenfalls erfüllt &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp;  alle acht Kriterien sind erfüllt &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp;  $Z_2 = \rm GF(2)$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp;  Die Zahlenmenge $Z_3 = \{0, 1, 2\}$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $q = 3$ erfüllt alle acht Kriterien und ist somit ein Galoisfeld $\rm GF(3)$:&lt;br /&gt;
&lt;br /&gt;
:$$Z_3 = \{0, 1, 2\}\hspace{0.25cm} \Rightarrow\hspace{0.25cm}\text{Addition:      } &lt;br /&gt;
\left[ \begin{array}{c {{!}} cccccc} + &amp;amp; 0 &amp;amp; 1  &amp;amp; 2\\ \hline &lt;br /&gt;
                                                          0 &amp;amp; 0 &amp;amp; 1 &amp;amp; 2 \\ &lt;br /&gt;
                                                          1 &amp;amp; 1 &amp;amp; 2 &amp;amp; 0 \\ &lt;br /&gt;
                                                          2 &amp;amp; 2 &amp;amp; 0 &amp;amp; 1  &lt;br /&gt;
\end{array} \right] \hspace{-0.1cm} ,\hspace{0.25cm}\text{Multiplikation:      } &lt;br /&gt;
\left[ \begin{array}{c {{!}} cccccc} \cdot &amp;amp; 0 &amp;amp; 1  &amp;amp; 2\\ \hline &lt;br /&gt;
                                                          0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 \\ &lt;br /&gt;
                                                          1 &amp;amp; 0 &amp;amp; 1 &amp;amp; 2 \\ &lt;br /&gt;
                                                          2&amp;amp; 0 &amp;amp; 2 &amp;amp; 1 &lt;br /&gt;
\end{array} \right]\hspace{0.25cm} \Rightarrow\hspace{0.25cm}{\rm GF}(3) .&lt;br /&gt;
$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp;  Dagegen ist die Zahlenmenge $Z_4 = \{0, 1, 2, 3\}$  &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $q = 4$  kein Galoisfeld. &lt;br /&gt;
*Der Grund hierfür ist, dass es hier zum Element $z_2 = 2$ keine multiplikative Inverse gibt. Bei einem Galoisfeld müsste nämlich gelten: $2 \cdot {\rm Inv_M}(2) = 1$&lt;br /&gt;
*In nachfolgender Multiplikationstabelle gibt es aber in der dritten Zeile und dritten Spalte  (jeweils gültig für den Multiplikanden $z_2 = 2$ keinen Eintrag mit &amp;amp;bdquo;$1$&amp;amp;rdquo;.&lt;br /&gt;
&lt;br /&gt;
:$$Z_4 = \{0, 1, 2, 3\}\hspace{0.25cm} \Rightarrow\hspace{0.25cm}\text{Addition:      } &lt;br /&gt;
\left[ \begin{array}{c {{!}} cccccc} + &amp;amp; 0 &amp;amp; 1  &amp;amp; 2 &amp;amp; 3\\ \hline &lt;br /&gt;
                                                          0 &amp;amp; 0 &amp;amp; 1 &amp;amp; 2 &amp;amp; 3\\ &lt;br /&gt;
                                                          1 &amp;amp; 1 &amp;amp; 2 &amp;amp; 3 &amp;amp; 0\\ &lt;br /&gt;
                                                          2 &amp;amp; 2 &amp;amp; 3 &amp;amp; 0 &amp;amp; 1\\ &lt;br /&gt;
                                                          3 &amp;amp; 3 &amp;amp; 0 &amp;amp; 1 &amp;amp; 2 &lt;br /&gt;
\end{array} \right] \hspace{-0.1cm} ,\hspace{0.25cm}\text{Multiplikation:      } &lt;br /&gt;
\left[ \begin{array}{c {{!}} cccccc} \cdot&amp;amp; 0 &amp;amp; 1  &amp;amp; 2 &amp;amp; 3\\ \hline &lt;br /&gt;
                                                          0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0 &amp;amp; 0\\ &lt;br /&gt;
                                                          1 &amp;amp; 0 &amp;amp; 1 &amp;amp; 2 &amp;amp; 3\\ &lt;br /&gt;
                                                          2 &amp;amp; 0 &amp;amp; 2 &amp;amp; 0 &amp;amp; 2\\ &lt;br /&gt;
                                                          3 &amp;amp; 0 &amp;amp; 3 &amp;amp; 2 &amp;amp; 1 &lt;br /&gt;
\end{array} \right]\hspace{0.25cm} \Rightarrow\hspace{0.25cm}\text{kein }{\rm GF}(4) .&lt;br /&gt;
$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Verallgemeinerung (vorerst) ohne Beweis:}$&lt;br /&gt;
*Ein Galoisfeld ${\rm GF}(q)$ kann in der hier beschriebenen Weise als [[Kanalcodierung/Einige_Grundlagen_der_Algebra#Algebraischer_Ring_und_Beispiele| Ring]] von Integergrößen modulo $q$ nur dann gebildet werden, wenn $q$ eine Primzahl ist: $q = 2$, $q = 3$, $q = 5$, $q = 7$, $q = 11$, ...&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Kann man aber die Ordnung $q$ in der Form $q = P^m$ mit einer Primzahl $P$ und ganzzahligem $m$ ausdrücken, so lässt sich das Galoisfeld ${\rm GF}(q)$ über einen [[Kanalcodierung/Erweiterungskörper#Verallgemeinerte_Definition_eines_Erweiterungsk.C3.B6rpers|Erweiterungskörper]] finden.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Gruppe, Ring, Körper – algebraische Grundbegriffe ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Auf den beiden ersten Seiten sind bereits einige algebraische Grundbegriffe gefallen, ohne dass deren Bedeutungen genauer erläutert wurden. Dies soll nun in aller Kürze aus Sicht eines Nachrichtentechnikers nachgeholt werden, wobei wir uns vorwiegend auf die Darstellung in [Fri96]&amp;lt;ref name='Fri96'&amp;gt;Friedrichs, B.: ''Kanalcodierung – Grundlagen und Anwendungen in modernen Kommunikationssystemen.'' Berlin – Heidelberg: Springer, 1996.&amp;lt;/ref&amp;gt; und  [KM+08]&amp;lt;ref name='KM+08'&amp;gt;Kötter, R.; Mayer, T.; Tüchler, M.; Schreckenbach, F.; Brauchle, J.: ''Channel Coding.'' Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, TU München, 2008.&amp;lt;/ref&amp;gt; beziehen. Zusammenfassend lässt sich sagen:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;  Ein &amp;lt;b&amp;gt;Galoisfeld&amp;lt;/b&amp;gt; ${\rm GF}(q)$ ist ein ''Körper'' (englisch: &amp;lt;i&amp;gt;Field&amp;lt;/i&amp;gt;) mit einer begrenzten Anzahl $(q)$ an Elementen &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;i&amp;gt;endlicher Körper&amp;lt;/i&amp;gt;. Jeder Körper ist wieder ein Sonderfall eines ''Rings'' (gleichlautende englische Bezeichnung), der sich selbst wieder als Spezialfall einer ''Abelschen Gruppe'' (englisch: &amp;lt;i&amp;gt;Abelian Group&amp;lt;/i&amp;gt;) darstellen lässt.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:KC_T_2_1_S2_version2.png|right|frame|Algebraische Zusammenhänge zwischen Gruppe, Ring und Körper|class=fit]]&lt;br /&gt;
Die folgende Grafik verdeutlicht schrittweise, wie sich aus einer Menge durch Definition von Additition, Multiplikation und Division innerhalb dieser Menge $\mathcal{M}$ folgende untergeordnete Mengen ergeben:&lt;br /&gt;
*Abelsche Gruppe $\mathcal{G}$  (englisch: &amp;lt;i&amp;gt;Field&amp;lt;/i&amp;gt;) , &lt;br /&gt;
*Ring $\mathcal{R}$, &lt;br /&gt;
*Körper $\mathcal{K}$  (englisch: &amp;lt;i&amp;gt;Field&amp;lt;/i&amp;gt; $\mathcal{F}$),&lt;br /&gt;
*endlicher Körper $\mathcal{F}_q$ oder Galoisfeld ${\rm GF}(q)$.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Auf den beiden nächsten Seiten werden die hier genannten algebraischen Begriffe noch etwas genauer behandelt. Zum Verstehen der Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes sind diese Kenntnisse allerdings nicht unbedingt erforderlich. Sie könnten also auch direkt zum Kapitel [[Kanalcodierung/Erweiterungskörper| Erweiterungskörper]] springen.&amp;lt;br&amp;gt; &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Definition und  Beispiele einer algebraischen Gruppe ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Für die allgemeinen Definitionen von Gruppe (und später Ring) gehen wir von einer Menge mit unendlich vielen Elementen aus:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{M} = \{\hspace{0.1cm}z_1,\hspace{0.1cm} z_2,\hspace{0.1cm} z_3 ,\hspace{0.1cm}\text{ ...} \hspace{0.1cm}\}\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;  Eine &amp;lt;b&amp;gt;algebraische Gruppe&amp;lt;/b&amp;gt; $(\mathcal{G}, +)$ ist eine (beliebige) Teilmenge $\mathcal{G} &amp;amp;#8834; \mathcal{M})$ zusammen mit einer zwischen allen Elementen definierten additiven Verknüpfung (&amp;amp;bdquo;$+$&amp;amp;rdquo;), allerdings nur dann, wenn die folgenden Eigenschaften zwingend erfüllt sind:&lt;br /&gt;
*Für alle $z_i, z_j &amp;amp;#8712; \mathcal{G}$ gilt $(z_i + z_j) &amp;amp;#8712; \mathcal{G}$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;i&amp;gt;Closure&amp;lt;/i&amp;gt;&amp;amp;ndash;Kriterium für &amp;amp;bdquo;$+$&amp;amp;rdquo;.&amp;lt;br&amp;gt;&lt;br /&gt;
*Es gibt stets ein hinsichtlich der Addition neutrales Element $N_{\rm A} &amp;amp;#8712; \mathcal{G}$, so dass für alle $z_i &amp;amp;#8712; \mathcal{G}$ gilt: &amp;amp;nbsp; $z_i +N_{\rm A} = z_i$. Bei einer Zahlengruppe ist $N_{\rm A} \equiv 0$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Für alle $z_i &amp;amp;#8712; \mathcal{G}$ gibt es zudem ein hinsichtlich der Addition inverses Element ${\rm Inv_A}(z_i) &amp;amp;#8712; \mathcal{G}$ mit der Eigenschaft $z_i + {\rm Inv_A}(z_i)= N_{\rm A} $. Bei einer Zahlengruppe ist ${\rm Inv_A}(z_i) =- z_i$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Für alle $z_i, z_j, z_k &amp;amp;#8712; \mathcal{G}$ gilt: $z_i + (z_j + z_k)= (z_i + z_j) + z_k)$ &amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp; ''Assoziativgesetz'' für &amp;amp;bdquo;$+$&amp;amp;rdquo;.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wird zusätzlich für alle  $z_i, z_j &amp;amp;#8712; \mathcal{G}$ das ''Kommutativgesetz'' $z_i + z_j= z_j + z_i$ erfüllt, so spricht man von einer ''kommutativen Gruppe'' oder einer '''Abelschen Gruppe''', benannt nach dem norwegischen Mathematiker [https://de.wikipedia.org/wiki/Niels_Henrik_Abel Niels Hendrik Abel].}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiele für algebraische Gruppen:}$&lt;br /&gt;
&lt;br /&gt;
'''(1)'''&amp;amp;nbsp; Die &amp;lt;i&amp;gt;Menge der rationalen Zahlen&amp;lt;/i&amp;gt; ist definiert als die Menge aller Quotienten $I/J$ mit ganzen Zahlen $I$ und $J &amp;amp;ne; 0$. Diese Menge ist eine Gruppe $(\mathcal{G}, +)$ hinsichtlich der Addition, da &lt;br /&gt;
*für alle $a &amp;amp;#8712; \mathcal{G}$ und $b &amp;amp;#8712; \mathcal{G}$ auch die Summe $a+b$ wieder zu $\mathcal{G}$ gehört,&amp;lt;br&amp;gt;&lt;br /&gt;
*das Assozitativgesetz gilt,&amp;lt;br&amp;gt;&lt;br /&gt;
*mit $ N_{\rm A} = 0$ das neutrale Element der Addition in $\mathcal{G}$ enthalten ist, und&amp;lt;br&amp;gt;&lt;br /&gt;
*es für jedes $a$ die additive Inverse ${\rm Inv_A}(a) = -a$ existiert.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Da zudem das Kommutativgesetz erfüllt ist, handelt es sich um eine &amp;lt;i&amp;gt;abelsche Gruppe&amp;lt;/i&amp;gt;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''(2)'''&amp;amp;nbsp; Die &amp;lt;i&amp;gt;Menge der natürlichen Zahlen&amp;lt;/i&amp;gt;, $\{0, 1, 2, \text{...}\}$, ist hinsichtlich Addition keine algebraische Gruppe, da es für kein einziges Element $z_i$ die additive Inverse ${\rm Inv_A}(z_i) = -z_i$ gibt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''(3)'''&amp;amp;nbsp; Die &amp;lt;i&amp;gt;begrenzte natürliche Zahlenmenge&amp;lt;/i&amp;gt;, $\{0, 1, 2, \text{...}\hspace{0.05cm}, q_{i-1}\}$,  erfüllt dagegen dann die Bedingungen an eine Gruppe $(\mathcal{G}, +)$, wenn man die Addition modulo $q$ definiert. &lt;br /&gt;
&lt;br /&gt;
'''(4)'''&amp;amp;nbsp; Dagegen ist $\{1, 2, 3, \text{...}\hspace{0.05cm},q\}$ keine Gruppe, da das neutrale Element der Addition $(N_{\rm A} = 0)$ fehlt.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Definition und  Beispiele eines algebraischen Rings  ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Entsprechend der [[Kanalcodierung/Einige_Grundlagen_der_Algebra#Gruppe.2C_Ring.2C_K.C3.B6rper_.E2.80.93_algebraische_Grundbegriffe |Übersichtsgrafik]] kommt man von der Gruppe $(\mathcal{G}, +)$ durch Definition einer zweiten Rechenoperation &amp;amp;ndash; der Multiplikation (&amp;amp;bdquo;$\cdot$&amp;amp;rdquo;) &amp;amp;ndash; zum Ring $(\mathcal{R}, +, \cdot)$. Man benötigt hierfür also neben einer Additionstabelle auch eine Multiplikationstabelle.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;  Eine &amp;lt;b&amp;gt;algebraischer Ring&amp;lt;/b&amp;gt; $(\mathcal{R}, +, \cdot)$ ist eine Teilmenge $\mathcal{R} &amp;amp;#8834; \mathcal{G} &amp;amp;#8834; \mathcal{M})$ zusammen mit zwei in dieser Menge definierten Rechenoperationen, der Addition (&amp;amp;bdquo;$+$&amp;amp;rdquo;) und der Multiplikation (&amp;amp;bdquo;$&amp;amp;middot;$&amp;amp;rdquo;). Dabei müssen die folgenden Eigenschaften erfüllt werden:&lt;br /&gt;
*Hinsichtlich der Addition ist  der Ring$(\mathcal{R}, +, \cdot)$ eine [[Kanalcodierung/Einige_Grundlagen_der_Algebra#Definition_und_Beispiele_einer_algebraischen_Gruppe|Abelsche Gruppe]] $(\mathcal{G}, +)$.&amp;lt;br&amp;gt;&lt;br /&gt;
*Zusätzlich gilt für alle $z_i, z_j &amp;amp;#8712; \mathcal{R}$ auch $(z_i \cdot z_j) &amp;amp;#8712; \mathcal{R}$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;i&amp;gt;Closure&amp;lt;/i&amp;gt;&amp;amp;ndash;Kriterium für &amp;amp;bdquo;$\cdot$&amp;amp;rdquo;.&amp;lt;br&amp;gt;&lt;br /&gt;
*Es gibt stets auch ein hinsichtlich der Multiplikation neutrales Element $N_{\rm M} &amp;amp;#8712; \mathcal{R}$, so dass für alle $z_i &amp;amp;#8712; \mathcal{R}$ gilt: &amp;amp;nbsp; $z_i \cdot N_{\rm N} = z_i$. Bei einer Zahlengruppe ist $N_{\rm M} \equiv 1$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Für alle $z_i, z_j, z_k &amp;amp;#8712; \mathcal{R}$ gilt: $z_i + (z_j + z_k)= (z_i + z_j) + z_k)$ &amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp; ''Assoziativgesetz'' für &amp;amp;bdquo;$\cdot $&amp;amp;rdquo;.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Für alle $z_i, z_j, z_k &amp;amp;#8712; \mathcal{R}$ gilt: $z_i \cdot (z_j + z_k) = z_i \cdot z_j + z_i \cdot z_k$ &amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp; ''Distributivgesetz'' für &amp;amp;bdquo;$\cdot $&amp;amp;rdquo;.}}&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Weiter sollen die folgenden Vereinbarungen gelten:&lt;br /&gt;
*Ein Ring $(\mathcal{R}, +, \cdot)$ ist nicht notwendigerweise kommutativ. Gilt tatsächlich auch für alle Elemente $z_i, z_j &amp;amp;#8712; \mathcal{R}$ das ''Kommutativgesetz'' $z_i \cdot z_j= z_j \cdot z_i$ hinsichtlich der Multiplikation, so spricht man in der Fachliteratur von einem '''kommutativen Ring'''. &lt;br /&gt;
*Existiert für jedes Element $z_i &amp;amp;#8712; \mathcal{R}$ mit Ausnahme von $N_{\rm A}$ (neutrales Element der Addition, Nullelement) ein hinsichtlich der Multiplikation inverses Element ${\rm Inv_M}(z_i)$, so dass $z_i \cdot {\rm Inv_M}(z_i) = 1$ gilt, so liegt ein &amp;lt;b&amp;gt;Divisionsring&amp;lt;/b&amp;gt; (englisch: &amp;lt;i&amp;gt;Division Ring&amp;lt;/i&amp;gt;) vor.&amp;lt;br&amp;gt;&lt;br /&gt;
*Der Ring ist &amp;lt;b&amp;gt;nullteilerfrei&amp;lt;/b&amp;gt; (englisch: &amp;lt;i&amp;gt;free of zero devisors&amp;lt;/i&amp;gt;), wenn aus $z_i \cdot  z_j  = 0$ zwingend $z_i = 0$ oder $z_j = 0$ folgt. In der abstrakten Algebra ist ein Nullteiler eines Ringes ein vom Nullelement verschiedenes Element $z_i$, falls es ein Element $z_j \ne 0$ gibt, so dass das Produkt  $z_i \cdot  z_j  = 0$ ist.&amp;lt;br&amp;gt;&lt;br /&gt;
*Ein kommutativer nullteilerfreier Ring wird als &amp;lt;b&amp;gt;Integritätsring&amp;lt;/b&amp;gt; oder &amp;lt;b&amp;gt;Integritätsbereich&amp;lt;/b&amp;gt; (englisch: &amp;lt;i&amp;gt;Integral Domain&amp;lt;/i&amp;gt;) bezeichnet.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp;  Vergleicht man die Definitionen von [[Kanalcodierung/Einige_Grundlagen_der_Algebra#Definition_und_Beispiele_einer_algebraischen_Gruppe| Gruppe]], Ring (siehe oben), [[Aufgaben:2.1_Gruppe,_Ring,_Körper|Körper]] und [[Kanalcodierung/Einige_Grundlagen_der_Algebra#Definition_eines_Galoisfeldes| Galoisfeld]], so erkennt man, dass ein Galoisfeld ${\rm GF}(q)$&lt;br /&gt;
*ein endlicher Körper (englisch: &amp;lt;i&amp;gt;Field&amp;lt;/i&amp;gt;) mit $q$ Elementen ist,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*gleichzeitig als &amp;lt;i&amp;gt;Commutative Division Ring&amp;lt;/i&amp;gt; aufgefasst werden kann, und auch &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*einen Integritätsbereich (englisch: &amp;lt;i&amp;gt;Integral Domain&amp;lt;/i&amp;gt;) beschreibt.}}&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:2.1_Gruppe,_Ring,_Körper|Aufgabe 2.1: Gruppe, Ring, Körper]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.1Z_Welche_Tabellen_beschreiben_Gruppen|Zusatzaufgabe 2.1Z: Welche Tabellen beschreiben Gruppen]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.2_Eigenschaften_von_Galoisfeldern|Aufgabe 2.2: Eigenschaften von Galoisfeldern]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:2.2Z_Galoisfeld_GF(5)|Zusatzaufgabe 2.2Z: Galoisfeld GF(5)]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Information_Theoretical_Limits_of_Channel_Coding&amp;diff=21278</id>
		<title>Channel Coding/Information Theoretical Limits of Channel Coding</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Information_Theoretical_Limits_of_Channel_Coding&amp;diff=21278"/>
		<updated>2018-01-02T18:52:36Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Binäre Blockcodes zur Kanalcodierung&lt;br /&gt;
|Vorherige Seite=Schranken für die Blockfehlerwahrscheinlichkeit&lt;br /&gt;
|Nächste Seite=Einige Grundlagen der Algebra&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Kanalcodierungstheorem und Kanalkapazität ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir betrachten weiterhin einen binären Blockcode mit $k$ Informationsbits pro Block und Codeworte der Länge $n$, woraus sich die Coderate $R=k/n$ mit der Einheit &amp;amp;bdquo;Informationsbit/Codesymbol&amp;amp;rdquo; ergibt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der geniale Informationstheoretiker [https://de.wikipedia.org/wiki/Claude_Shannon Claude E. Shannon] hat sich schon 1948 sehr intensiv mit der Korrekturfähigkeit solcher Codes beschäftigt und hierfür für jeden Kanal eine Grenze angegeben, die sich allein aus informationstheoretischen Überlegungen ergibt. Bis heute wurde noch kein Code gefunden, der diese Grenze übersteigt, und dies wird auch so bleiben.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Shannons Kanalcodierungstheorem:}$&amp;amp;nbsp;  Zu jedem Kanal mit der Kanalkapazität $C &amp;gt; 0$ existiert stets (mindestens) ein Code, dessen Fehlerwahrscheinlichkeit gegen Null geht, so lange die Coderate $R$ kleiner als die Kanalkapazität $C$ ist. Voraussetzung hierfür ist allerdings, dass für die Blocklänge dieses Codes gilt: &amp;amp;nbsp; $n \to \infty$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Umkehrung ist ebenfalls zutreffend und besagt:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Umkehrschluss:}$&amp;amp;nbsp;  &amp;lt;b&amp;gt;Umkehrschluss&amp;lt;/b&amp;gt;: Ist die Coderate $R$ größer als die Kanalkapazität $C$, so kann eine beliebig kleine Fehlerwahrscheinlichkeit auf keinen Fall erreicht werden.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zur Herleitung und Berechnung der Kanalkapazität gehen wir zunächst von einem digitalen Kanal mit $M_x$ möglichen Eingangswerten $x$ und $M_y$ möglichen Ausgangswerten $y$ aus.  Dann gilt für den mittleren Transinformationsgehalt  &amp;amp;ndash; kurz die [[Informationstheorie/Verschiedene_Entropien_zweidimensionaler_Zufallsgrößen#Transinformation_zwischen_zwei_Zufallsgr.C3.B6.C3.9Fen|Transinformation]] (englisch: &amp;lt;i&amp;gt;Mutual Information&amp;lt;/i&amp;gt;)  &amp;amp;ndash; zwischen der Zufallsgröße $x$  am Kanaleingang und der Zufallsgröße $y$ am Ausgang:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;I(x; y) =\sum_{i= 1 }^{M_X} \hspace{0.15cm}\sum_{j= 1 }^{M_Y} \hspace{0.15cm}{\rm Pr}(x_i, y_j) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i)}{{\rm Pr}(y_j)} =  \sum_{i= 1 }^{M_X} \hspace{0.15cm}\sum_{j= 1 }^{M_Y}\hspace{0.15cm}{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i) \cdot {\rm Pr}(x_i) \cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_i)}{\sum_{k= 1}^{M_X} {\rm Pr}(y_j \hspace{0.05cm}| \hspace{0.05cm}x_k) \cdot {\rm Pr}(x_k)}&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Beim Übergang von der ersten zur zweiten Gleichung wurden dabei der [[Stochastische_Signaltheorie/Statistische_Abh%C3%A4ngigkeit_und_Unabh%C3%A4ngigkeit#Bedingte_Wahrscheinlichkeit_.281.29| Satz von Bayes]] sowie der [[Stochastische_Signaltheorie/Statistische_Abh%C3%A4ngigkeit_und_Unabh%C3%A4ngigkeit#R.C3.BCckschlusswahrscheinlichkeit| Satz von der totalen Wahrscheinlichkeit]] berücksichtigt. Weiter ist anzumerken: &lt;br /&gt;
*Der &amp;lt;i&amp;gt;Logarithmus dualis&amp;lt;/i&amp;gt; ist hier mit &amp;amp;bdquo;log&amp;lt;sub&amp;gt;2&amp;lt;/sub&amp;gt;&amp;amp;rdquo; bezeichnet ist. Teilweise verwenden wir hierfür in unserem  Lerntutorial  auch &amp;amp;bdquo;ld&amp;amp;rdquo;. &lt;br /&gt;
*Im Gegensatz zum Buch [[Informationstheorie]] unterscheiden wir im Folgenden nicht zwischen der Zufallsgröße  (Großbuchstaben, $X$ bzw. $Y$) und den Realisierungen (Kleinbuchstaben, $x$ bzw. $y$).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;  Die von Shannon eingeführte '''Kanalkapazität''' gibt die maximale Transinformation $I(x; y)$ zwischen der Eingangsgröße $x$ und der Ausgangsgröße $y$ an:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;C = \max_{{{\rm Pr}(x_i)}} \hspace{0.1cm} I(X; Y) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hinzugefügt werden muss die Pseudo&amp;amp;ndash;Einheit &amp;amp;bdquo;bit/Kanalzugriff&amp;amp;rdquo;.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Da die Maximierung der Transinformation über alle möglichen (diskreten) Eingangsverteilungen ${\rm Pr}(x_i)$ erfolgen muss, ist die Kanalkapazität unabhängig vom Eingang und damit eine reine Kanalkenngröße.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Kanalkapazität des BSC–Modells ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wenden wir diese Definitionen auf das [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen#Binary_Symmetric_Channel_.E2.80.93_BSC|BSC&amp;amp;ndash;Modell]] (''Binary Symmetric Channel'') an:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;I(x; y) = {\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 0) \cdot {\rm Pr}(x = 0) &lt;br /&gt;
\cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 0)}{{\rm Pr}(y = 0)}&lt;br /&gt;
+ {\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 0) \cdot {\rm Pr}(x = 0) &lt;br /&gt;
\cdot {\rm log_2  } \hspace{0.15cm}\frac{{\rm Pr}(Y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 0)}{{\rm Pr}(y = 1)}&lt;br /&gt;
+ &amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\hspace{1.45cm}  +  \hspace{0.15cm}{\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 1) \cdot {\rm Pr}(x = 1) &lt;br /&gt;
\cdot {\rm  log_2  } \hspace{0.15cm}\frac{{\rm Pr}(Y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 1)}{{\rm Pr}(y = 0)}&lt;br /&gt;
+ {\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 1) \cdot {\rm Pr}(x = 1) &lt;br /&gt;
\cdot {\rm log_2 } \hspace{0.15cm}\frac{{\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 1)}{{\rm Pr}(y = 1)}&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:KC_T_1_7_Zusatz_version2.png|right|frame|BSC–Kanalmodell|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Zur Kanalkapazität gelangt man durch folgende Überlegungen:&lt;br /&gt;
*Die Maximierung bezüglich der Eingangsverteilung führt auf gleichwahrscheinliche Symbole:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}(x = 0) = {\rm Pr}(x = 1) = 1/2&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Aufgrund der aus dem Modell erkennbaren Symmetrie gilt dann gleichzeitig:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}(y = 0) = {\rm Pr}(y = 1) = 1/2&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Wir berücksichtigen zudem die BSC&amp;amp;ndash;Übergangswahrscheinlichkeiten:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 0) \hspace{-0.15cm}  =  \hspace{-0.15cm} {\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 1) = \varepsilon \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}(y = 0 \hspace{0.05cm}| \hspace{0.05cm}x = 0) \hspace{-0.15cm}  =  \hspace{-0.15cm} {\rm Pr}(y = 1 \hspace{0.05cm}| \hspace{0.05cm}x = 1) = 1-\varepsilon  \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Nach Zusammenfassen je zweier Terme erhält man somit:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;C \hspace{0.15cm}  =  \hspace{0.15cm} 2 \cdot 1/2 \cdot \varepsilon \cdot {\rm log_2 } \hspace{0.15cm}\frac{\varepsilon}{1/2 }+ &lt;br /&gt;
2 \cdot 1/2 \cdot (1- \varepsilon)  \cdot {\rm log_2 } \hspace{0.15cm}\frac{1- \varepsilon}{1/2 }&lt;br /&gt;
\varepsilon \cdot {\rm ld } \hspace{0.15cm}2  - \varepsilon \cdot {\rm log_2 } \hspace{0.15cm} \frac{1}{\varepsilon }+  (1- \varepsilon) \cdot {\rm ld } \hspace{0.15cm} 2 - (1- \varepsilon) \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{1- \varepsilon} = 1 - H_{\rm bin}(\varepsilon) &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Verwendet ist hier die ''binäre Entropiefunktion'':&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;H_{\rm bin}(\varepsilon) =  \varepsilon \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{\varepsilon}+ &lt;br /&gt;
(1- \varepsilon)  \cdot {\rm log_2 } \hspace{0.15cm}\frac{1}{1- \varepsilon}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die rechte Grafik zeigt die BSC&amp;amp;ndash;Kanalkapazität abhängig von der Verfälschungswahrscheinlichkeit $\varepsilon$. Links ist zum Vergleich die binäre Entropiefunktion dargestellt, die bereits im Kapitel [[Informationstheorie/Ged%C3%A4chtnislose_Nachrichtenquellen#Bin.C3.A4re_Entropiefunktion|Gedächtnislose Nachrichtenquellen]] des Buches &amp;amp;bdquo;Informationstheorie&amp;amp;rdquo; definiert wurde.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2379 KC T 1 7 S2 v2.png|center|frame|Kanalkapazität des BSC–Modells|class=fit]]&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus dieser Darstellung:&lt;br /&gt;
*Die Verfälschungswahrscheinlichkeit $\varepsilon$ führt zur Kanalkapazität $C(\varepsilon)$. Eine fehlerfreie Decodierung nach bestmöglicher Codierung ist nach dem [[Kanalcodierung/Informationstheoretische_Grenzen_der_Kanalcodierung#Kanalcodierungstheorem_und_Kanalkapazit.C3.A4t |Kanalcodierungstheorem]] nur dann möglich, wenn die Coderate $R$ kleiner als $C(\varepsilon)$ ist.&lt;br /&gt;
&lt;br /&gt;
*Mit $\varepsilon = 10\%$ ist wegen $C(0.1) = 0.531$ eine fehlerfreie Decodierung nicht möglich, wenn die Coderate $R \ge 0.531$ beträgt. Bei 50&amp;amp;ndash;prozentiger Verfälschung ist eine fehlerfreie Decodierung auch bei beliebig kleiner Coderate unmöglich: &amp;amp;nbsp; $C(0.5) = 0$ .&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Aus informationstheoretischer Sicht ist $\varepsilon = 1$ (Invertierung aller Bits) gleich gut wie $\varepsilon = 0$ (fehlerfreie Übertragung). Ebenso ist $\varepsilon = 0.9$ äquivalent zu $\varepsilon = 0.1$. Eine fehlerfreie Decodierung erzielt man hier durch Vertauschen der Nullen und Einsen, also durch ein  so genanntes &amp;lt;i&amp;gt;Mapping&amp;lt;/i&amp;gt;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Kanalkapazität des AWGN–Modells==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:P ID2372 KC T 1 7 S3a.png|right|frame|BSC–Kanalmodell|class=fit]]&lt;br /&gt;
Wir betrachten nun den [[Digitalsignalübertragung/Systemkomponenten_eines_Basisbandübertragungssystems#.C3.9Cbertragungskanal_und_St.C3.B6rungen|AWGN&amp;amp;ndash;Kanal]] (&amp;lt;i&amp;gt;Additive White Gaussian Noise&amp;lt;/i&amp;gt;). Hier gilt für das Ausgangssignal $y = x + n$, wobei $n$ eine [[Stochastische_Signaltheorie/Gaußverteilte_Zufallsgrößen|gaußverteilte Zufallsgröße]] beschreibt, und es gilt für deren Erwartungswerte (Momente):&lt;br /&gt;
:$${\rm E}[n] = 0,$$ &lt;br /&gt;
:$${\rm E}[n^2] = P_n.$$&lt;br /&gt;
&lt;br /&gt;
Damit ergibt sich unabhängig vom Eingangssignal $x$ (analog oder digital) stets ein kontinuierliches Ausgangssignal $y$, und in der [[Kanalcodierung/Informationstheoretische_Grenzen_der_Kanalcodierung#Kanalcodierungstheorem_und_Kanalkapazit.C3.A4t|Gleichung für die Transinformation]] ist $M_y \to\infty$ einzusetzen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Berechnung der Kanalkapazität für den AWGN&amp;amp;ndash;Kanal wird hier nur in Stichworten angegeben. Die genaue Herleitung finden Sie im vierten Hauptkapitel &amp;amp;bdquo;Wertdiskrete Informationstheorie&amp;amp;rdquo; des Buches [[Informationstheorie]]:&lt;br /&gt;
*Die im Hinblick auf maximale Transinformation optimierte Eingangsgröße $x$ wird mit Sicherheit wertkontinuierlich sein, das heißt, beim AWGN&amp;amp;ndash;Kanal gilt außer $M_y \to\infty$ auch $M_x \to\infty$.&lt;br /&gt;
&lt;br /&gt;
*Während bei wertdiskretem Eingang über alle ${\rm Pr}(x_i)$ zu optimieren ist, erfolgt nun die Optimierung anhand der [[Stochastische_Signaltheorie/Gau%C3%9Fverteilte_Zufallsgr%C3%B6%C3%9Fe#Wahrscheinlichkeitsdichte-_und_Verteilungsfunktion| WDF]] $f_x(x)$  des Eingangssignals unter der Nebenbedingung [[Digitalsignal%C3%BCbertragung/Optimierung_der_Basisband%C3%BCbertragungssysteme#Leistungs.E2.80.93_und_Spitzenwertbegrenzung_.281.29| Leistungsbegrenzung]]:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;C = \max_{f_x(x)} \hspace{0.1cm} I(x; y)\hspace{0.05cm},\hspace{0.3cm}{\rm wobei \hspace{0.15cm} gelten  \hspace{0.15cm} muss:}\hspace{0.15cm} {\rm E} \left [ x^2 \right ] \le P_x   \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Optimierung liefert für die Eingangs&amp;amp;ndash;WDF ebenfalls eine Gaußverteilung &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp;  $x$, $n$ und $y$ sind gaußverteilt gemäß den Dichtefunktionen $f_x(x)$, $f_n(n)$ und  $f_y(y)$ sowie den Leistungen $P_x$, $P_n$ und $P_y$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Nach längerer Rechnung erhält man für die Kanalkapazität unter Verwendung des &amp;lt;i&amp;gt;Logarithmus dualis&amp;lt;/i&amp;gt;  $\log_2(\cdot)$ &amp;amp;ndash; wiederum mit der Pseudo&amp;amp;ndash;Einheit &amp;amp;bdquo;bit/Kanalzugriff&amp;amp;rdquo;:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;C = {\rm log_2 } \hspace{0.15cm} \sqrt{\frac{P_y}{P_n }} = {\rm log_2 } \hspace{0.15cm} \sqrt{\frac{P_x + P_n}{P_n }} =  \frac{1}{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + \frac{P_x}{P_n } \right )\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Beschreibt $x$ ein zeitdiskretes Signal mit der Symbolrate $1/T_{\rm S}$, so muss dieses auf $B = 1/(2T_{\rm S})$ bandbegrenzt sein, und die gleiche Bandbreite $B$ muss man für das Rauschsignal $n$  ansetzen &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;amp;bdquo;Rauschbandbreite&amp;amp;rdquo;:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;P_X  = \frac{E_{\rm S}}{T_{\rm S} } \hspace{0.05cm}, \hspace{0.4cm} P_N  = \frac{N_0}{2T_{\rm S} }\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Somit lässt sich die AWGN&amp;amp;ndash;Kanalkapazität auch durch die '''Sendeenergie pro Symbol''' $(E_{\rm S})$ und die '''Rauschleistungsdichte''' $(N_0)$ ausdrücken:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;C =  {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + \frac{2 E_{\rm S}}{N_0 } \right )\hspace{0.05cm}, \hspace{1.9cm}&lt;br /&gt;
{\rm Einheit:} \hspace{0.3cm} \frac{\rm bit}{\rm Kanalzugriff}\hspace{0.05cm},&amp;lt;/math&amp;gt; &lt;br /&gt;
::&amp;lt;math&amp;gt;C^{\star} = \frac{C}{T_{\rm S} } =    B \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 + \frac{2  E_{\rm S}}{N_0 } \right )\hspace{0.05cm}, \hspace{0.8cm}&lt;br /&gt;
{\rm Einheit:} \hspace{0.3cm} \frac{\rm bit}{\rm Zeiteinheit}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp;  &lt;br /&gt;
*Für $E_{\rm S}/N_0  = 7.5$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $10 \cdot \lg \, E_{\rm S}/N_0 = 8.75 \, \rm dB$ erhält man die Kanalkapazität $C =  {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm} (16) = 2 \, \rm  bit/Kanalzugriff$. &lt;br /&gt;
*Bei einem Kanal mit der (physikalischen) Bandbreite $B = 4 \, \rm  kHz$, was der Abtastrate $f_{\rm A} = 8\, \rm  kHz$ entspricht, gilt zudem $C^\star = 16 \, \rm  kbit/s$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ein Vergleich verschiedener Codierverfahren bei konstantem $E_{\rm S}$ (Energie ''pro übertragenem Symbol'') ist nicht fair. Vielmehr sollte man für diesen Vergleich die Energie $E_{\rm B}$ ''pro Nutzbit'' fest vorgeben. Dabei gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;E_{\rm S} = R \cdot E_{\rm B}  \hspace{0.3cm} \Rightarrow \hspace{0.3cm}&lt;br /&gt;
E_{\rm B} = E_{\rm S} / R \hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition für den AWGN&amp;amp;ndash;Kanal:}$&amp;amp;nbsp; Damit lautet das '''Kanalcodierungstheorem''': Eine fehlerfreie Decodierung (bei unendlich langen Blöcken &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp;  $n \to \infty$) ist möglich, falls die Coderate $R$ kleiner ist als die Kanalkapazität $C$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;R &amp;lt; C =  {1}/{2 } \cdot {\rm log_2 } \hspace{0.05cm}\left ( 1 +2 \cdot R\cdot E_{\rm B}/{N_0 } \right )\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für jede Coderate $R$ lässt sich damit  das erforderliche $E_{\rm B}/N_0$ des AWGN&amp;amp;ndash;Kanals ermitteln, damit eine fehlerfreie Decodierung möglich ist. Man erhält für den Grenzfall $R = C$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{E_{\rm B} }/{N_0} &amp;gt;  \frac{2^{2R}-1}{2R } \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Grafik fasst das Ergebnis zusammen, wobei die Ordinate $R$ im linearen Maßstab und die Abszisse $E_{\rm B}/{N_0 }$ logarithmisch aufgetragen ist. &lt;br /&gt;
*Außerhalb der blauen Fläche ist eine fehlerfreie Codierung nicht möglich. &lt;br /&gt;
*Die blaue Grenzkurve gibt die Kanalkapazität $C$ des AWGN&amp;amp;ndash;Kanals an.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2373 KC T 1 7 S3b v3.png|center|frame|Kanalkapazität des AWGN–Kanals|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Aus dieser Grafik und obiger Gleichung lässt sich Folgendes ableiten:&lt;br /&gt;
*Die Kanalkapazität $C$ steigt etwas weniger als linear mit $10 \cdot \lg \, E_{\rm B}/N_0 $ an. In der Grafik sind einige ausgewählte Funktionswerte als blaue Kreuze angegeben.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ist $10 \cdot \lg \, E_{\rm B}/N_0  &amp;lt; -1.59 \, \rm dB$, so ist eine fehlerfreie Decodierung prinzipiell unmöglich. Beträgt die Coderate $R = 0.5$, so muss $10 \cdot \lg \, E_{\rm B}/N_0  &amp;gt; 0 \, \rm dB$ sein &amp;amp;nbsp;&amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp;&amp;amp;nbsp; $E_{\rm B} &amp;gt; N_0$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Für alle binären Codes gilt per se $0 &amp;amp;#8804; R &amp;amp;#8804; 1$. Coderaten $R &amp;gt;  1$ sind nur mit &amp;lt;i&amp;gt;nichtbinären&amp;lt;/i&amp;gt; Codes möglich. Beispielsweise beträgt die maximal mögliche Coderate eines quaternären Codes $R = \log_2 \, M_y = 2$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Alle eindimensionalen Modulationsarten &amp;amp;ndash; also solche Verfahren, die nur die Inphase&amp;amp;ndash; oder nur die Quadraturkomponente nutzen wie [[Digitalsignalübertragung/Trägerfrequenzsysteme_mit_kohärenter_Demodulation#On.E2.80.93Off.E2.80.93Keying_.282.E2.80.93ASK.29|2&amp;amp;ndash;ASK]], [[Digitalsignalübertragung/Trägerfrequenzsysteme_mit_kohärenter_Demodulation#Binary_Phase_Shift_Keying_.28BPSK.29|BPSK]] und [[Digitalsignalübertragung/Trägerfrequenzsysteme_mit_nichtkohärenter_Demodulation#Nichtkoh.C3.A4rente_Demodulation_von_bin.C3.A4rer_FSK_.282.E2.80.93FSK.29|2&amp;amp;ndash;FSK]] &amp;amp;ndash; müssen im blauen Bereich liegen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== AWGN–Kanalkapazität für binäre Eingangssignale ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
In diesem Buch beschränken wir uns vorwiegend auf binäre Codes, also auf das Galoisfeld ${\rm GF}(2^n)$. Damit ist&lt;br /&gt;
[[File:P ID2374 KC T 1 7 S4a.png|right|frame|Bedingte WDF des binären AWGN–Kanals]]&lt;br /&gt;
*zum einen die Coderate auf den Bereich $R &amp;amp;#8804; 1$ begrenzt,&amp;lt;br&amp;gt;&lt;br /&gt;
*zum zweiten auch für $R &amp;amp;#8804; 1$ nicht die gesamte blaue Region verfügbar  (siehe vorherige Seite) .&lt;br /&gt;
&lt;br /&gt;
Die nun gültige Region ergibt sich aus der [[Kanalcodierung/Informationstheoretische_Grenzen_der_Kanalcodierung#Kanalcodierungstheorem_und_Kanalkapazit.C3.A4t|allgemeinen Gleichung]] der Transinformation durch&lt;br /&gt;
*die Parameter $M_x = 2$ und $M_y \to \infty$,&amp;lt;br&amp;gt;&lt;br /&gt;
*bipolare Signalisierung &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $x=0$ &amp;amp;#8594; $\tilde{x} = +1$ und $x=1$ &amp;amp;#8594; $\tilde{x} = -1$,&amp;lt;br&amp;gt;&lt;br /&gt;
*den Übergang von bedingten Wahrscheinlichkeiten ${\rm Pr}(\tilde{x}_i)$ zu bedingten Wahrscheinlichkeitsdichtefunktionen,&amp;lt;br&amp;gt;&lt;br /&gt;
*Ersetzen der Summe durch eine Integration.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Optimierung der Quelle führt auf gleichwahrscheinliche Symbole:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}(\tilde{x} = +1) = {\rm Pr}(\tilde{x} = -1) = 1/2  \hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit erhält man  für $\tilde{x} = \pm 1$ für das Maximum der Transinformation hinsichtlich ${\rm Pr}(\tilde{x}_i)$, also für die Kanalkapazität: &lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;C \hspace{-0.15cm} = {1}/{2} \cdot \int_{-\infty }^{+ \infty}&lt;br /&gt;
\left [ f_{y\hspace{0.05cm} |\hspace{0.05cm}\tilde{x} = +1}(y)\cdot {\rm log_2 } \hspace{0.15cm}\frac {f_{y\hspace{0.05cm} |\hspace{0.05cm}\tilde{x} = +1}(y)}{f_y(y)} + &lt;br /&gt;
f_{y\hspace{0.05cm} |\hspace{0.05cm}\tilde{x} = -1}(y)\cdot {\rm log_2 } \hspace{0.15cm}\frac {f_{y\hspace{0.05cm} |\hspace{0.05cm}\tilde{x} = -1}(y)}{f_y(y)}&lt;br /&gt;
\right ]\hspace{0.1cm}{\rm d}y&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Integral lässt sich nicht in mathematisch&amp;amp;ndash;geschlossener Form lösen, sondern kann nur numerisch ausgewertet werden. Die grüne Kurve zeigt das Ergebnis. Die blaue Kurve gibt zum Vergleich die auf der letzten Seite hergeleitete Kanalkapazität für gaußverteilte Eingangssignale an. &lt;br /&gt;
&lt;br /&gt;
[[File:P ID2375 KC T 1 7 S4b v3.png|center|frame|AWGN–Kanalkapazität für binäre Eingangssignale|class=fit]]&lt;br /&gt;
Man erkennt:&lt;br /&gt;
*Für $10 \cdot \lg \, E_{\rm B}/N_0  &amp;lt; 0  \, \rm dB$ unterscheiden sich die beiden Kapazitätskurven nur geringfügig. So muss man bei binärem bipolaren Eingang gegenüber dem Optimum (Gaußscher Eingang) die Kenngröße  $10 \cdot \lg \, E_{\rm B}/N_0$ nur etwa um $0.1 \, \rm dB$ erhöhen, um ebenfalls die Coderate $R = 0.5$ zu ermöglichen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ab etwa $10 \cdot \lg \, E_{\rm B}/N_0  =6  \, \rm dB$ ist die Kanalkapazität $C = 1 \, \rm bit/Kanalzugriff$ für binären Eingang (fast) erreicht. Dazwischen verläuft die grüne Grenzkurve annähernd  exponentiell ansteigend.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Gebräuchliche Kanalcodes im Vergleich zur Kanalkapazität ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Nun soll gezeigt werden, in wie weit sich etablierte Kanalcodes der BPSK&amp;amp;ndash;Kanalkapazität (grüne Kurve) annähern. In der Grafik ist als Ordinate die Rate $R=k/n$ dieser Codes bzw. die Kapazität $C$ (mit der zusätzlichen Pseudo&amp;amp;ndash;Einheit &amp;amp;bdquo;bit/Kanalzugriff&amp;amp;rdquo;) aufgetragen. Weiter ist vorausgesetzt:&lt;br /&gt;
*der AWGN&amp;amp;ndash;Kanal, gekennzeichnet durch $10 \cdot \lg \, E_{\rm B}/N_0$ in dB, und&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*für die durch Kreuze markierten Codes eine Bitfehlerrate (BER) von $10^{-5}$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Bitte beachten Sie:}$&amp;amp;nbsp; &lt;br /&gt;
*Die Kanalkapazitätskurven gelten stets für $n \to \infty$  und $\rm BER = 0$ gelten. &lt;br /&gt;
*Würde man diese strenge Forderung &amp;amp;bdquo;feherfrei&amp;amp;rdquo; auch an die betrachteten Kanalcodes endlicher Codelänge $n$ anlegen, so wäre hierfür stets $10 \cdot \lg \, E_{\rm B}/N_0 \to \infty$  erforderlich. &lt;br /&gt;
*Dies ist aber ein akademisches Problem, das für die Praxis wenig Bedeutung hat. Für $\rm BER = 10^{-10}$ ergäbe sich eine qualitativ ähnliche Grafik.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es folgen einige Erläuterungen zu den Daten, die der Vorlesung [Liv10]&amp;lt;ref name='Liv10'&amp;gt;Liva, G.: Channel Coding. Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010.&amp;lt;/ref&amp;gt; entnommen wurden:&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2968 KC T 1 7 S5a v3.png|center|frame|Raten und erforderliches $E_{\rm B}/N_0$ verschiedener Kanalcodes|class=fit]]&lt;br /&gt;
&lt;br /&gt;
*Die Punkte &amp;lt;b&amp;gt;A&amp;lt;/b&amp;gt;, &amp;lt;b&amp;gt;B&amp;lt;/b&amp;gt; und &amp;lt;b&amp;gt;C&amp;lt;/b&amp;gt; markieren [[Kanalcodierung/Beispiele_binärer_Blockcodes#Hamming.E2.80.93Codes|Hamming&amp;amp;ndash;Codes]] unterschiedlicher Rate. Sie alle benötigen für $\rm BER = 10^{-5}$ mindestens $10 \cdot \lg \, E_{\rm B}/N_0  = 8  \, \rm dB$.&lt;br /&gt;
*'''D''' kennzeichnet den binären [https://de.wikipedia.org/wiki/Golay-Code Golay&amp;amp;ndash;Code] mit der Rate $1/2$ und '''E''' einen [https://de.wikipedia.org/wiki/Reed-Muller-Code Reed&amp;amp;ndash;Muller&amp;amp;ndash;Code]. Dieser sehr niederratige Code kam  bereits 1971 bei der Raumsonde Mariner 9 zum Einsatz.&lt;br /&gt;
*Die [[Kanalcodierung/Definition_und_Eigenschaften_von_Reed–Solomon–Codes|Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Codes]] (RS&amp;amp;ndash;Codes) werden im zweiten Hauptkapitel noch ausführlich behandelt. Mit &amp;lt;b&amp;gt;F&amp;lt;/b&amp;gt; markiert ist ein hochratiger RS&amp;amp;ndash;Code $(R = 223/255 &amp;gt; 0.9$ und einem erforderlichen $10 \cdot \lg \, E_{\rm B}/N_0  &amp;lt; 6  \, \rm dB$. &lt;br /&gt;
*Die Markierungen &amp;lt;b&amp;gt;G&amp;lt;/b&amp;gt; und &amp;lt;b&amp;gt;H&amp;lt;/b&amp;gt; bezeichnen beispielhafte [[Kanalcodierung/Grundlagen_der_Faltungscodierung|Faltungscodes]] (englisch: &amp;lt;i&amp;gt;Convolutional Codes&amp;lt;/i&amp;gt;, CC) mittlerer Rate. Der Code &amp;lt;b&amp;gt;G&amp;lt;/b&amp;gt; wurde schon 1972 bei der Pioneer10&amp;amp;ndash;Mission eingesetzt.&lt;br /&gt;
*Die Kanalcodierung der Voyager&amp;amp;ndash;Mission Ende der 1970er Jahre ist mit &amp;lt;b&amp;gt;I&amp;lt;/b&amp;gt; markiert. Es handelt sich um die Verkettung eines (2, 1, 7)&amp;amp;ndash;Faltungscodes mit einem Reed&amp;amp;ndash;Solomon&amp;amp;ndash;Code, wie im vierten Hauptkapitel beschrieben..&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
''Anmerkung'': Bei den Faltungscodes hat insbesondere der dritte Kennungsparameter eine andere Bedeutung als bei den Blockcodes. (2, 1, 32) weist beispielsweise auf das Memory $m = 32$ hin.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Mit iterativer Decodierung lassen sich deutlich bessere Ergebnisse erzielen, wie die folgende Grafik zeigt. Das heißt: Die einzelnen Markierungspunkte liegen sehr viel näher an der Kapazitätskurve.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2377 KC T 1 7 S5b v4.png|center|frame|Raten und erforderliches $E_{\rm B}/N_0$  für iterative Codierverfahren |class=fit]]&lt;br /&gt;
Die bisher mit &amp;amp;bdquo;Gauß&amp;amp;ndash;Kapazität&amp;amp;rdquo; beschriftete durchgezogene blaue Kurve wird hier &amp;amp;bdquo;Gauß (reell)&amp;amp;rdquo; genannt. Hier noch einige weitere Erläuterungen zu dieser Grafik:&lt;br /&gt;
* Rote Kreuze markieren sogenannte [[Kanalcodierung/Grundlegendes_zu_den_Turbocodes|Turbocodes]] nach [https://en.wikipedia.org/wiki/Consultative_Committee_for_Space_Data_Systems CCSDS] (&amp;lt;i&amp;gt;Consultative Committee for Space Data Systems&amp;lt;/i&amp;gt;) mit jeweils $k = 6920$ Informationsbits und unterschiedlichen Codelängen $n$. Diese von [http://perso.telecom-bretagne.eu/claudeberrou/ Claude Berrou] um 1990 erfundenen Codes können iterativ decodiert werden. Die (roten) Markierungen liegen jeweils weniger als $1 \, \rm dB$ von der Shannon&amp;amp;ndash;Grenze entfernt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ähnliches Verhalten zeigen die durch weiße Rechtecke gekennzeichneten [[Kanalcodierung/Grundlegendes_zu_den_Low–density_Parity–check_Codes|LDPC&amp;amp;ndash;Codes]] (&amp;lt;i&amp;gt;Low Density Parity&amp;amp;ndash;check Codes&amp;lt;/i&amp;gt;), die seit 2006 bei [https://de.wikipedia.org/wiki/DVB-SDVB&amp;amp;ndash;S2] (&amp;lt;i&amp;gt;Digital Video Broadcast over Satellite&amp;lt;/i&amp;gt;) eingesetzt werden. Diese eignen sich aufgrund der spärlichen Belegung der Prüfmatrix $\boldsymbol {\rm H}$ (mit Einsen) sehr gut für die iterative Decodierung mittels ''Faktor&amp;amp;ndash;Graphen'' und ''Exit Charts''. Siehe  [Hag02]&amp;lt;ref name='Hag02'&amp;gt;Hagenauer, J.: ''The Turbo Principle in Mobile Communications''. In: Int. Symp. on Information Theory and Its Applications, Oct.2010,  [http://wwwmayr.in.tum.de/konferenzen/Jass05/courses/4/papers/prof_hagenauer.pdf PDF&amp;amp;ndash;Dokument.]&amp;lt;/ref&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die schwarzen Punkte markieren die von CCSDS spezifizierten [[Kanalcodierung/Grundlegendes_zu_den_Low–density_Parity–check_Codes|LDPC&amp;amp;ndash;Codes]], die alle von einer konstanten Anzahl von Informationsbits ausgehen $(k = 16384)$. Dagegen ist bei allen weißen Rechtecken die Codelänge $n = 64800$ konstant, während sich die Anzahl $k$ der Informationsbits entsprechend der Rate $R = k/n$ ändert.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Um das Jahr 2000 hatten viele Forscher den Ehrgeiz, sich der Shannon&amp;amp;ndash;Grenze bis auf Bruchteile von einem dB anzunähern. Das gelbe Kreuz markiert ein solches Ergebnis aus [CFRU01]&amp;lt;ref name='CFRU01'&amp;gt;Chung S.Y; Forney Jr., G.D.; Richardson, T.J.; Urbanke, R.: ''On the Design of Low-Density Parity- Check Codes within 0.0045 dB of the Shannon Limit''. – In: IEEE Communications Letters, vol. 5, no. 2 (2001), pp. 58–60.''&amp;lt;/ref&amp;gt;[CFRU01]. Verwendet wurde ein irregulärer Rate&amp;amp;ndash;1/2&amp;amp;ndash;LDPC&amp;amp;ndash;Code der Codelänge $n = 2 \cdot10^g$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; Festzuhalten ist, dass Shannon bereits 1948 erkannt und nachgewiesen hat, dass kein eindimensionales Modulationsverfahren links von der durchgehend eingezeichneten AWGN&amp;amp;ndash;Grenzkurve &amp;amp;bdquo;Gauß (reell)&amp;amp;rdquo; liegen kann.  &lt;br /&gt;
*Für zweidimensionale Verfahren wie QAM und mehrstufige PSK gilt dagegen die Grenzkurve &amp;amp;bdquo;Gauß (komplex)&amp;amp;rdquo;, die hier gestrichelt gezeichnet ist und stets links von der durchgezogenen Kurve liegt. &lt;br /&gt;
*Näheres hierzu finden Sie im Abschnitt im [[Informationstheorie/AWGN%E2%80%93Kanalkapazit%C3%A4t_bei_wertdiskretem_Eingang#Maximale_Coderate_f.C3.BCr_QAM.E2.80.93Strukturen|Maximale Coderate für QAM&amp;amp;ndash;Strukturen]] des Buches &amp;amp;bdquo;Informationstheorie&amp;amp;rdquo;.&amp;lt;br&amp;gt;&lt;br /&gt;
*Auch diese Grenzkurve wurde mit QAM&amp;amp;ndash;Verfahren und sehr langen Kanalcodes inzwischen nahezu erreicht, ohne dass sie jemals überschritten werden wird.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:1.17 Coderate vs. EB/N0|A1.17 Coderate vs. EB/N0]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.17Z_BPSK–Kanalkapazität|Zusatzaufgabe 1.17: BPSK–Kanalkapazität]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Bounds_for_Block_Error_Probability&amp;diff=21277</id>
		<title>Channel Coding/Bounds for Block Error Probability</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Bounds_for_Block_Error_Probability&amp;diff=21277"/>
		<updated>2018-01-02T18:51:59Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Binäre Blockcodes zur Kanalcodierung&lt;br /&gt;
|Vorherige Seite=Decodierung linearer Blockcodes&lt;br /&gt;
|Nächste Seite=Informationstheoretische Grenzen der Kanalcodierung&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Distanzspektrum eines linearen Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir gehen weiterhin von einem linearen und binären $(n, \hspace{0.05cm} k)$&amp;amp;ndash;Blockcode $\mathcal{C}$ aus. Ein wesentliches Ziel des Codedesigns ist es, die [[Kanalcodierung/Decodierung_linearer_Blockcodes#Blockschaltbild_und_Voraussetzungen| Blockfehlerwahrscheinlichkeit]] ${\rm Pr}(\underline{u} \ne  \underline{v}) = {\rm Pr}(\underline{z} \ne  \underline{x})$ möglichst gering zu halten. Dies erreicht man unter anderem dadurch, dass&lt;br /&gt;
&lt;br /&gt;
*die minimale Distanz $d_{\rm min}$ zwischen zwei Codeworten $\underline{x}$ und $\underline{x}'$ möglichst groß ist, so dass man bis zu $t = &amp;amp;lfloor;(d_{\rm min}-1)/2&amp;amp;rfloor;$ Bitfehler richtig korrigieren kann;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*gleichzeitig die minimale Distanz $d_{\rm min}$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;i&amp;gt;worst&amp;amp;ndash;case&amp;lt;/i&amp;gt;  möglichst selten auftritt, wenn man alle zulässigen Codeworte berücksichtigt.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;  Wir benennen die '''Anzahl''' der Codeworte $\underline{x}' \in \mathcal{C}$ mit der Hamming&amp;amp;ndash;Distanz $i$ vom betrachteten Codewort $\underline{x}$ des gleichen Codes $\mathcal{C}$ mit $W_i(\underline{x})$, wobei gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;W_i(\underline{x}) = \left \vert \hspace{0.05cm} \left \{ &lt;br /&gt;
\underline{x}  \hspace{0.05cm}, \underline{x}{\hspace{0.03cm}' \in \hspace{0.05cm} \mathcal{C} } \hspace{0.1cm}\vert\hspace{0.1cm}&lt;br /&gt;
d_{\rm H}(\underline{x}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}'&lt;br /&gt;
) = i  \right \} \hspace{0.05cm} \right \vert\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Betragsstriche kennzeichnen hierbei die Anzahl der Codeworte $\underline{x}'$, die die Bedingung $d_{\rm H}(\underline{x}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}'&lt;br /&gt;
) = i $ erfüllen.&lt;br /&gt;
*Man bezeichnet diesen Wert auch als '''Vielfachheit''' (englisch: &amp;lt;i&amp;gt;Multiplicity&amp;lt;/i&amp;gt;).}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2365 KC T 1 6 S1 neu.png|right|frame|Hamming–Distanzen zwischen allen Codeworten|class=fit]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp;  Wir betrachten den $(5, \, 2)$&amp;amp;ndash;Blockcode $\mathcal{C}$ mit der Generatormatrix &lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;{ \boldsymbol{\rm G} } &lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;1 &amp;amp;1 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;1&lt;br /&gt;
	\end{pmatrix} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Tabelle zeigt die Hamming&amp;amp;ndash;Distanzen zwischen allen Codeworten $\underline{x}_i$ zu den Bezugsworten $\underline{x}_0$, ... , $\underline{x}_3$.&lt;br /&gt;
&lt;br /&gt;
Man erkennt, dass unabhängig vom Bezugswort $\underline{x}_i$ gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;W_0 = 1 \hspace{0.05cm}, \hspace{0.5cm}W_1 = W_2 = 0 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; W_3 = 2 \hspace{0.05cm},\hspace{0.5cm} W_4 = 1&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \Rightarrow\hspace{0.3cm} d_{\rm min} = 3\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nicht nur in diesem Beispiel, sondern bei jedem linearen Code ergeben sich für jedes Codewort die gleichen Vielfachheiten $W_i$. Da zudem das Nullwort $\underline{0} = (0, 0,\text{ ...} \hspace{0.05cm}, 0)$ Bestandteil eines jeden linearen Binärcodes ist, lässt sich die obige Definition auch wie folgt formulieren:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;  Das '''Distanzspektrum''' eines linearen binären $(n, \hspace{0.03cm} k)$&amp;amp;ndash;Blockcodes ist die Menge $\{W_i \}$ mit $i = 0, 1,$ ... , $n$. Hierbei gibt $W_i$ die Anzahl der Codeworte $\underline{x} \in \mathcal{C}$ mit Hamming&amp;amp;ndash;Gewicht $w_{\rm H}(\underline{x}) = i$ an. &lt;br /&gt;
&lt;br /&gt;
Oft beschreibt man die Menge $\hspace{0.05cm}\{W_i \}\hspace{0.05cm}$ auch als Polynom mit einer Pseudovariablen $X$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\left \{ \hspace{0.05cm} W_i \hspace{0.05cm} \right \} \hspace{0.3cm} \Leftrightarrow \hspace{0.3cm}&lt;br /&gt;
W(X) = \sum_{i=0  }^{n}  W_i \cdot Xi^{i} = W_0 + W_1 \cdot X + W_2 \cdot X^{2} + ... \hspace{0.05cm} + W_n \cdot X^{n}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Man bezeichnet  $W(X)$  auch als '''Gewichtsfunktion''' (englisch: &amp;lt;i&amp;gt;Weight Enumerator Function&amp;lt;/i&amp;gt;, WEF).}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Beispielsweise lautet die Gewichtsfunktion des $(5, \hspace{0.02cm} 2)$&amp;amp;ndash;Codes $\mathcal{C} = \left  \{ \hspace{0.05cm}(0, 0, 0, 0, 0) \hspace{0.05cm},\hspace{0.15cm} (0, 1, 0, 1, 1) \hspace{0.05cm},\hspace{0.15cm}(1, 0, 1, 1, 0) \hspace{0.05cm},\hspace{0.15cm}(1, 1, 1, 0, 1) \hspace{0.05cm} \right \}$ von Beispiel 1:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;W(X) = 1 + 2 \cdot X^{3} + X^{4}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wie aus der [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Einige_Eigenschaften_des_.287.2C_4.2C_3.29.E2.80.93Hamming.E2.80.93Codes |Tabelle seiner Codeworte]] hervorgeht, erhält man für den $(7, \hspace{0.02cm}4, \hspace{0.02cm}3)$&amp;amp;ndash;Hamming&amp;amp;ndash;Code:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;W(X) = 1 + 7 \cdot X^{3} + 7 \cdot X^{4} + X^{7}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Überführung des Distanzspektrums $\hspace{0.01cm}\{W_i \}\hspace{0.01cm}$ in die Gewichtsfunktion $W(X)$ bietet zudem bei manchen Aufgabenstellungen große numerische Vorteile. Ist beispielsweise die &amp;lt;i&amp;gt;Weight Enumerator Function&amp;lt;/i&amp;gt; $W(X)$ eines $(n, \hspace{0.03cm} k)$&amp;amp;ndash;Blockcodes $\mathcal{C}$ bekannt, so gilt für den hierzu [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Darstellung_von_SPC_und_RC_als_duale_Codes|dualen]] $(n, \hspace{0.03cm} n-k)$&amp;amp;ndash;Code $\mathcal{C}_{\rm Dual}$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;W_{\rm Dual}(X) = \frac{(1+X)^n}{2^k} \cdot W \left ( \frac{1-X}{1+X} \right )\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp;  Gesucht ist die Gewichtsfunktion $W(X)$ des [[Kanalcodierung/Beispiele_bin%C3%A4rer_Blockcodes#Single_Parity.E2.80.93check_Codes|Single Parity&amp;amp;ndash;check Codes]] mit $n = 6$, $k = 5$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;b&amp;gt;SPC (6, 5)&amp;lt;/b&amp;gt;. Man erhält diese durch Vergleich aller $2^5 = 32$ Codeworte mit dem Nullwort: &lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;W_{\rm SPC\hspace{0.03cm}(6,\hspace{0.08cm}5)}(X) = 1 + 15 \cdot X^{2} + 15 \cdot X^{4} + X^{6}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Unter Berücksichtigung obiger Gleichung kommt man sehr viel schneller zum gleichen Ergebnis:&lt;br /&gt;
*Der zu SPC (6, 5) duale Code ist der [[Kanalcodierung/Beispiele_bin%C3%A4rer_Blockcodes#Wiederholungscodes_.281.29| Repetition Code]] '''RC (6, 1)''' mit nur zwei Codeworten $(0, 0, 0, 0, 0, 0)$ und $(1, 1, 1, 1, 1, 1)$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;W_{\rm RC\hspace{0.03cm}(6,\hspace{0.08cm}1)}(X) = 1 + X^{6}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Daraus folgt für die Gewichtsfunktion des  SPC (6, 5) nach obiger Gleichung mit $k = 1$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;W_{\rm SPC\hspace{0.03cm}(6,\hspace{0.08cm}5)}(X) = \frac{(1+X)^6}{2^1} \cdot W \left [1 + \left ( (1-X)/(1+X)\right )^6 \right ] =  1/2 \cdot \left [( 1+X) ^6 + ( 1-X) ^6 \right ] = 1 + 15 \cdot X^{2} + 15 \cdot X^{4} + X^{6}\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Union Bound der Blockfehlerwahrscheinlichkeit ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir betrachten wie im  Beispiel 1 zum Distanzspektrum] den  $(5, \hspace{0.02cm} 2)$&amp;amp;ndash;Blockcode $\mathcal{C} = (\underline{x}_0, \underline{x}_1, \underline{x}_2, \underline{x}_3)$ und setzen voraus, dass das Codewort $\underline{x}_0$ gesendet wurde. Die Grafik verdeutlicht den Sachverhalt).&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2366 KC T 1 6 S2b v2.png|center|frame|Zur Herleitung der Union Bound |class=fit]]&lt;br /&gt;
&lt;br /&gt;
Im fehlerfreien Fall würde dann der Codewortschätzer $\underline{z} = \underline{x}_0$ liefern. Andernfalls käme es zu einem Blockfehler (das heißt  $\underline{z} \ne \underline{x}_0$ und dementsprechend $\underline{v} \ne \underline{u}_0$ mit der Wahrscheinlichkeit&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr(Blockfehler)} = {\rm Pr}\left ([\underline{x}_{\hspace{0.02cm}0} \mapsto \underline{x}_{\hspace{0.02cm}1}] \hspace{0.05cm}\cup\hspace{0.05cm}[\underline{x}_{\hspace{0.02cm}0} \mapsto \underline{x}_{\hspace{0.02cm}2}] \hspace{0.05cm}\cup\hspace{0.05cm}[\underline{x}_{\hspace{0.02cm}0} \mapsto \underline{x}_{\hspace{0.02cm}3}] \right )&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Ereignis &amp;amp;bdquo;Verfälschung von $\underline{x}_0$ nach $\underline{x}_1$&amp;amp;rdquo; tritt für ein gegebenes Empfangswort $\underline{y}$ entsprechend der [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen#Definitionen_der_verschiedenen_Optimalempf.C3.A4nger|Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Entscheidungsregel]] (block–wise ML) genau dann ein, wenn für die bedingte Wahrscheinlichkeitsdichtefunktion gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;[\underline{x}_{\hspace{0.02cm}0} \mapsto \underline{x}_{\hspace{0.02cm}1}] \hspace{0.3cm} \Longleftrightarrow \hspace{0.3cm}&lt;br /&gt;
f(\underline{x}_{\hspace{0.02cm}0}\hspace{0.02cm} | \hspace{0.05cm}\underline{y}) &amp;lt; f(\underline{x}_{\hspace{0.02cm}1}\hspace{0.02cm} | \hspace{0.05cm}\underline{y})&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Da  $[\underline{x}_{\hspace{0.02cm}0} \mapsto \underline{x}_{\hspace{0.02cm}1}] $, $[\underline{x}_{\hspace{0.02cm}0} \mapsto \underline{x}_{\hspace{0.02cm}2}] $, $[\underline{x}_{\hspace{0.02cm}0} \mapsto \underline{x}_{\hspace{0.02cm}3}] $nicht notwendigerweise &amp;lt;i&amp;gt;disjunkte Ereignisse&amp;lt;/i&amp;gt; sind (die sich somit gegenseitig ausschließen würden), ist die [[Stochastische_Signaltheorie/Mengentheoretische_Grundlagen#Vereinigungsmenge| Wahrscheinlichkeit der Vereinigungsmenge]] kleiner oder gleich der Summe der Einzelwahrscheinlichkeiten:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;{\rm Pr(Blockfehler)} \le {\rm Pr}[\underline{x}_{\hspace{0.02cm}0} \mapsto \underline{x}_{\hspace{0.02cm}1}] \hspace{0.05cm}+\hspace{0.05cm}{\rm Pr}[\underline{x}_{\hspace{0.02cm}0} \mapsto \underline{x}_{\hspace{0.02cm}2}] \hspace{0.05cm}+ \hspace{0.05cm}{\rm Pr}[\underline{x}_{\hspace{0.02cm}0} \mapsto \underline{x}_{\hspace{0.02cm}3}] &lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Man nennt diese obere Schranke für die (Block&amp;amp;ndash;)Fehlerwahrscheinlichkeit die '''Union Bound'''. Diese wurde bereits im Kapitel [[Digitalsignal%C3%BCbertragung/Approximation_der_Fehlerwahrscheinlichkeit#Union_Bound_-_Obere_Schranke_f.C3.BCr_die_Fehlerwahrscheinlichkeit|Approximation_der_Fehlerwahrscheinlichkeit]] des Buches &amp;amp;bdquo;Digitalsignalübertragung&amp;amp;rdquo; verwendet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Verallgemeinern und formalisieren wir diese Ergebnisse unter der Voraussetzung, dass sowohl $\underline{x}$ als auch $\underline{x}'$  zum Code $\mathcal{C}$ gehören. Dann gelten folgende Berechnungsvorschriften:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definitionen:}$&amp;amp;nbsp;  &lt;br /&gt;
*'''Blockfehlerwahrscheinlichkeit''':&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr(Blockfehler)} = {\rm Pr} \left ( \bigcup_{\underline{x}' \ne \underline{x} } \hspace{0.15cm} [\underline{x} \mapsto \underline{x}'] \right )\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Obere Schranke nach der '''Union Bound''':&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr(Union \hspace{0.15cm}Bound)} \le \sum_{\underline{x}' \ne \underline{x} } \hspace{0.15cm} {\rm Pr}[\underline{x} \mapsto \underline{x}'] \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
* '''Paarweise Fehlerwahrscheinlichkeit''' (nach dem MAP&amp;amp;ndash; bzw. ML&amp;amp;ndash;Kriterium):&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}\hspace{0.02cm}[\underline{x} \mapsto \underline{x}'] = {\rm Pr} \left [&lt;br /&gt;
f(\underline{x}\hspace{0.05cm}\vert \hspace{0.05cm}\underline{y}) \le f(\underline{x}'\hspace{0.05cm} \vert \hspace{0.05cm}\underline{y}) \right ]&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
Auf den nächsten Seiten werden diese Ergebnisse auf verschiedene Kanäle angewendet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Union Bound für das BSC–Modell ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir betrachten weiterhin den beispielhaften $(5, \hspace{0.02cm} 2)$&amp;amp;ndash;Code: $\mathcal{C} = \left  \{ \hspace{0.05cm}(0, 0, 0, 0, 0) \hspace{0.05cm},\hspace{0.15cm} (0, 1, 0, 1, 1) \hspace{0.05cm},\hspace{0.15cm}(1, 0, 1, 1, 0) \hspace{0.05cm},\hspace{0.15cm}(1, 1, 1, 0, 1) \hspace{0.05cm} \right \}$ und für den digitalen Kanal verwenden wir das [[Kanalcodierung/Klassifizierung_von_Signalen#Binary_Symmetric_Channel_.E2.80.93_BSC| BSC&amp;amp;ndash;Modell]] (&amp;lt;i&amp;gt;Binary Symmetric Channel&amp;lt;/i&amp;gt;):&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}(y = 1 \hspace{0.05cm} | \hspace{0.05cm}x = 0 ) \hspace{-0.15cm} =  {\rm Pr}(y = 0 \hspace{0.05cm} | \hspace{0.05cm}x = 1 ) = {\rm Pr}(e = 1) = \varepsilon \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}(y = 0 \hspace{0.05cm} | \hspace{0.05cm}x = 0 ) \hspace{-0.15cm} =  {\rm Pr}(y = 1 \hspace{0.05cm} | \hspace{0.05cm}x = 1 ) = {\rm Pr}(e = 0) = 1 -\varepsilon \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2406 KC T 1 6 S2 v2.png|right|frame|BSC–Modell und ML–Detektion|class=fit]]&lt;br /&gt;
Dann gilt: &lt;br /&gt;
*Die beiden Codeworte $\underline{x}_0 = (0, 0, 0, 0, 0)$ und $\underline{x}_1 = (0, 1, 0, 1, 1)$ unterscheiden sich in genau $d = 3$ Bitpositionen, wobei $d$ die [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung|Hamming&amp;amp;ndash;Distanz]] zwischen $\underline{x}_0$ und $\underline{x}_1$ angibt. &lt;br /&gt;
*Ein falsches Decodierergebnis $[\underline{x}_{\hspace{0.02cm}0} \mapsto \underline{x}_{\hspace{0.02cm}1}] $ erhält man immer dann, wenn mindestens zwei der drei Bit an den Bitpositionen 2, 4 und 5 verfälscht werden. &lt;br /&gt;
*Die Bitpositionen 1 und 3 spielen hier dagegen keine Rolle, da diese für $\underline{x}_0$ und $\underline{x}_1$ gleich sind. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Da der betrachtete Code $t = &amp;amp;lfloor;(d-1)/2&amp;amp;rfloor; = 1$ Fehler korrigieren kann, gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}[\underline{x}_{\hspace{0.02cm}0} \mapsto \underline{x}_{\hspace{0.02cm}1}]  \hspace{-0.1cm} =  \hspace{-0.1cm}    \sum_{i=t+1  }^{d} {d \choose i} \cdot \varepsilon^{i} \cdot (1 - \varepsilon)^{d-i} =  {3 \choose 2} \cdot \varepsilon^{2} \cdot (1 - \varepsilon) + &lt;br /&gt;
{3 \choose 3} \cdot \varepsilon^{3} =3 \cdot \varepsilon^2 \cdot (1 - \varepsilon)  + \varepsilon^3  = {\rm Pr}[\underline{x}_{\hspace{0.02cm}0} \mapsto \underline{x}_{\hspace{0.02cm}2}]\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hierbei ist berücksichtigt, dass sich $\underline{x}_0 = (0, 0, 0, 0, 0)$ und $\underline{x}_2 = (1, 0, 1, 1, 0)$ ebenfalls in drei Bitpositionen unterscheiden.&lt;br /&gt;
&lt;br /&gt;
Die Codeworte $\underline{x}_0 = (0, 0, 0, 0, 0)$ und $\underline{x}_3 = (1, 1, 1, 0, 1)$ unterscheiden sich dagegen in vier Bitpositionen: &lt;br /&gt;
*Zu einer falschen Decodierung des Blocks kommt es deshalb mit Sicherheit, wenn vier oder drei Bit verfälscht werden. &lt;br /&gt;
*Eine Verfälschung von zwei Bit hat mit 50&amp;amp;ndash;prozentiger Wahrscheinlichkeit ebenfalls einen Blockfehler zur Folge, wenn man hierfür eine Zufallsentscheidung voraussetzt.&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}[\underline{x}_{\hspace{0.02cm}0} \mapsto \underline{x}_{\hspace{0.02cm}3}]  = \varepsilon^4 + 4 \cdot \varepsilon^3 \cdot (1 - \varepsilon)    +  {1}/{2} \cdot 6 \cdot \varepsilon^2 \cdot (1 - \varepsilon)^2 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Daraus ergibt sich für die &amp;amp;bdquo;Union Bound&amp;amp;rdquo;:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;{\rm Pr(Union \hspace{0.15cm}Bound)} = {\rm Pr}[\underline{x}_{\hspace{0.02cm}0} \hspace{-0.02cm}\mapsto \hspace{-0.02cm}\underline{x}_{\hspace{0.02cm}1}] +{\rm Pr}[\underline{x}_{\hspace{0.02cm}0} \hspace{-0.02cm}\mapsto \hspace{-0.02cm} \underline{x}_{\hspace{0.02cm}2}] +{\rm Pr}[\underline{x}_{\hspace{0.02cm}0} \hspace{-0.02cm}\mapsto \hspace{-0.02cm} \underline{x}_{\hspace{0.02cm}3}] \ge {\rm Pr(Blockfehler)}&lt;br /&gt;
.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2367 KC T 1 6 S3 neu.png|right|frame|Zahlenmäßige Union Bound für den (5, 2)–Code|class=fit]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp;  In der Tabelle sind die Ergebnisse für verschiedene Werte des BSC&amp;amp;ndash;Parameters $\varepsilon$ zusammengefasst.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Zu erwähnen ist, dass die völlig unterschiedlich zu berechnenden Wahrscheinlichkeiten ${\rm Pr}[\underline{x}_{\hspace{0.02cm}0} \hspace{-0.02cm}\mapsto \hspace{-0.02cm}\underline{x}_{\hspace{0.02cm}1}]$  und ${\rm Pr}[\underline{x}_{\hspace{0.02cm}0} \hspace{-0.02cm}\mapsto \hspace{-0.02cm}\underline{x}_{\hspace{0.02cm}3}]$ genau das gleiche Ergebnis liefern.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Die obere Schranke nach Bhattacharyya ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Eine weitere obere Schranke für die Blockfehlerwahrscheinlichkeit wurde von [https://en.wikipedia.org/wiki/Anil_Kumar_Bhattacharya Bhattacharyya] angegeben:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr(Blockfehler)} \le W(X = \beta) -1 = {\rm Pr(Bhattacharyya)}&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hierzu ist anzumerken:&lt;br /&gt;
*$W(X)$ ist die oben definierte [[Kanalcodierung/Schranken_f%C3%BCr_die_Blockfehlerwahrscheinlichkeit#Distanzspektrum_eines_linearen_Codes|Gewichtsfunktion]], die den verwendeten Kanalcode charakterisiert.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der &amp;lt;i&amp;gt;Bhattacharyya&amp;amp;ndash;Parameter&amp;lt;/i&amp;gt; $\beta$ kennzeichnet den digitalen Kanal. Beispielsweise gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\beta = \left\{ \begin{array}{c} \lambda \\  \sqrt{4 \cdot \varepsilon \cdot (1- \varepsilon)}\\ &lt;br /&gt;
 {\rm exp}[- R \cdot E_{\rm B}/N_0]   \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{1}c} {\rm f\ddot{u}r\hspace{0.15cm} das \hspace{0.15cm}BEC-Modell},\\ &lt;br /&gt;
  {\rm f\ddot{u}r\hspace{0.15cm} das \hspace{0.15cm}BSC-Modell}, \\   {\rm f\ddot{u}r\hspace{0.15cm} das \hspace{0.15cm}AWGN-Modell}. \end{array}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Bhattacharyya&amp;amp;ndash;Schranke liegt stets (und meist deutlich) oberhalb der Kurve für die &amp;amp;bdquo;Union Bound&amp;amp;rdquo;. Mit dem Ziel, eine für alle Kanäle einheitliche Schranke zu finden, müssen hier sehr viel gröbere Abschätzungen vorgenommen werden als für die Herleitung der &amp;amp;bdquo;Union Bound&amp;amp;rdquo;.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wir beschränken uns hier auf die &amp;lt;b&amp;gt;Bhattacharyya&amp;amp;ndash;Schranke für das BSC&amp;amp;ndash;Modell&amp;lt;/b&amp;gt;. Für dessen paarweise Verfälschungswahrscheinlichkeit wurde vorne hergeleitet:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}[\underline{x}_{\hspace{0.02cm}0} \mapsto \underline{x}_{\hspace{0.02cm}1}]  =    \sum_{i= \left\lfloor (d-1)/2 \right\rfloor}^{d} {d \choose i} \cdot \varepsilon^{i} \cdot (1 - \varepsilon)^{d-i}  =    \sum_{i= \left\lceil d/2 \right\rceil }^{d} {d \choose i} \cdot \varepsilon^{i} \cdot (1 - \varepsilon)^{d-i}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hierbei kennzeichnet $\varepsilon = {\rm Pr}(y = 1\hspace{0.04cm}|\hspace{0.04cm} x = 0) = {\rm Pr}(y = 0\hspace{0.04cm}|\hspace{0.04cm} x = 1)&amp;lt; 0.5$ das Kanalmodell und $d = d_{\rm H}(\underline{x}_0,\, \underline{x}_1)$ gibt die Hamming&amp;amp;ndash;Distanz der betrachteten Codeworte an.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um zur Bhattacharyya&amp;amp;ndash;Schranke zu kommen, müssen folgende Abschätzungen getroffen werden:&lt;br /&gt;
*Für alle$i &amp;lt; d$ gilt $\varepsilon^{i} \cdot  (1 - \varepsilon)^{d-i} \le  (1 - \varepsilon)^{d/2}$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}[\underline{x}_{\hspace{0.02cm}0} \mapsto \underline{x}_{\hspace{0.02cm}1}]  \le  [\varepsilon \cdot (1 - \varepsilon)]^{d/2} \cdot \sum_{i= \left\lceil d/2 \right\rceil }^{d} {d \choose i}   \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Änderung bezüglich der unteren Grenze der Laufvariablen $i$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\sum_{i= \left\lceil d/2 \right\rceil }^{d} {d \choose i} \hspace{0.15cm} &amp;lt; \hspace{0.15cm} \sum_{i= 0 }^{d} {d \choose i}  = 2^d\hspace{0.05cm},&lt;br /&gt;
\hspace{0.2cm}\beta = 2 \cdot  \sqrt{\varepsilon \cdot (1 - \varepsilon)} &lt;br /&gt;
\hspace{0.3cm} \Rightarrow \hspace{0.3cm} {\rm Pr}[\underline{x}_{\hspace{0.02cm}0} \mapsto \underline{x}_{\hspace{0.02cm}1}] = \beta^{d}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Umsortierung gemäß den Hamming&amp;amp;ndash;Gewichten $W_i$ (Hamming&amp;amp;ndash;Distanz $d = i$ kommt $W_i$ mal vor):&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr(Blockfehler)} \hspace{0.1cm} \le \hspace{0.1cm} \sum_{i= 1 }^{n} W_i \cdot \beta^{i} = 1 +  W_1 \cdot \beta + W_2 \cdot \beta^2 + ... \hspace{0.05cm}+ W_n \cdot \beta^n&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Mit der Gewichtsfunktion $W(X)= 1 + W_1 \cdot  X + W_2 \cdot  X^2 + \text{...} + W_n \cdot  X^n$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr(Blockfehler)} \le W(X = \beta) -1= {\rm Pr(Bhattacharyya)} &lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2370 KC T 1 6 S4.png|right|frame|Vergleich Union Bound vs. Bhattacharyya–Schranke (BSC–Modell)|class=fit]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp;  In der Tabelle sind die Bhattacharyya–Ergebnisse für verschiedene Werte des BSC&amp;amp;ndash;Parameters $\varepsilon$ zusammengefasst, gültig für den [[Kanalcodierung/Schranken_f%C3%BCr_die_Blockfehlerwahrscheinlichkeit#Distanzspektrum_eines_linearen_Codes|beispielhaften (5, 2)&amp;amp;ndash;Code]]. &lt;br /&gt;
Für diesen gilt: &lt;br /&gt;
:$$W_0 = 1, \ \ W_1 = W_2 = 0,  \ \ W_3 = 2,   \ \ W_4 = 1$$&lt;br /&gt;
:$$\Rightarrow\hspace{0.3cm} W(X) = 1 +  2 \cdot X^3 +  X^4.$$&lt;br /&gt;
&lt;br /&gt;
Damit kann die Bhattacharyya&amp;amp;ndash;Schranke berechnet werden:&lt;br /&gt;
::&amp;lt;math&amp;gt;  {\rm Pr(Bhattacharyya)} = W(\beta) -1 = 2 \cdot \beta^3 + \beta^4\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Diese stellt eine (oft grobe) Schranke für die Blockfehlerwahrscheinlichkeit dar:&lt;br /&gt;
::&amp;lt;math&amp;gt; {\rm Pr(Blockfehler)}  &lt;br /&gt;
 \le {\rm Pr(Bhattacharyya)}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp;  Basierend auf [[Kanalcodierung/Schranken_für_die_Blockfehlerwahrscheinlichkeit#Union_Bound_f.C3.BCr_das_BSC.E2.80.93Modell|Beispiel 3]] und Beispiel 4 (auf dieser Seite) für den einfachen (5, 2)&amp;amp;ndash;Bolckcode, der allerdings wenig praxisrelevant ist, sowie im Vorgriff aufdas Beispiel 5 (auf der folgenden  Seite) für den (7,&amp;amp;nbsp;4,&amp;amp;nbsp;3)&amp;amp;ndash;Hamming&amp;amp;ndash;Code kann man zusammenfassen:&lt;br /&gt;
*Die Blockfehlerwahrscheinlichkeit eines Codiersystems ist oft analytisch nicht angebbar und muss per Simulation ermittelt werden. Gleiches gilt für die Bitfehlerwahrscheinlichkeit.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die &amp;lt;i&amp;gt;Union Bound&amp;lt;/i&amp;gt; liefert eine obere Schranke für die Blockfehlerwahrscheinlichkeit. Bei vielen Anwendungen (insbesondere bei kurzen Codes) liegt sie nur geringfügig über dieser.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Bhattacharyya&amp;amp;ndash;Schranke liegt beim BEC&amp;amp;ndash;Kanal etwa um den Faktor 2 oberhalb der &amp;lt;i&amp;gt;Union Bound&amp;lt;/i&amp;gt; &amp;amp;ndash; siehe [[Aufgabe 1.14]]. Beim BSC&amp;amp;ndash; und beim AWGN&amp;amp;ndash;Kanal ist der Abstand zwischen beiden Schranken deutlich größer. Der Faktor 10 (oder mehr) ist keine Seltenheit.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Bhattacharyya&amp;amp;ndash;Schranke $W(\beta) - 1$ wirkt auf den ersten Blick sehr einfach. Es sind aber einige Vereinfachungsschritte erforderlich, um  auf diese Form zu kommen. Trotzdem benötigt man auch hier Kenntnis über die genaue  Gewichtsfunktion $W(\xi)$  des Codes.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei Kenntnis des Übertragungskanals (BEC, BSC, AWGN oder Abwandlungen hiervon) und dessen Parameter spricht vom Aufwand her nichts dagegen, die &amp;lt;i&amp;gt;Union Bound&amp;lt;/i&amp;gt; als obere Schranke für die Blockfehlerwahrscheinlichkeit zu verwenden.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Schranken für den (7, 4, 3)–Hamming–Code beim AWGN–Kanal ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Abschließend betrachten wir die Blockfehlerwahrscheinlichkeit und deren Schranken (&amp;lt;i&amp;gt;Union Bound&amp;lt;/i&amp;gt; und &amp;lt;i&amp;gt;Bhattacharyya&amp;amp;ndash;Schranke&amp;lt;/i&amp;gt;) für die folgende Konfiguration:&lt;br /&gt;
*AWGN&amp;amp;ndash;Kanal, gekennzeichnet durch den Quotienten $E_{\rm B}/N_0$,&amp;lt;br&amp;gt;&lt;br /&gt;
*Hamming&amp;amp;ndash;Code (7, 4) &amp;amp;nbsp;&amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp;&amp;amp;nbsp; $R = 4/7$, &amp;amp;nbsp; $W(X)-1 =  &amp;amp;ndash; 1 = 7 \cdot X^3 +  7 \cdot X^4 + X^7$,&amp;lt;br&amp;gt;&lt;br /&gt;
*&amp;lt;i&amp;gt;Soft&amp;amp;ndash;Decision&amp;lt;/i&amp;gt; nach dem ML&amp;amp;ndash;Kriterium.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2369 KC T 1 6 S5 v3.png|right|frame|Blockfehlerwahrscheinlichkeit und Schranken des HC (7, 4, 3)|class=fit]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 5:}$&amp;amp;nbsp;  Die Ergebnisse sind in der Grafik zusammengefasst. &lt;br /&gt;
*Im Gegensatz zur Grafik im Abschnitt [[Kanalcodierung/Decodierung_linearer_Blockcodes#Codiergewinn_.E2.80.93_Bitfehlerrate_bei_AWGN| Codiergewinn &amp;amp;ndash; Bitfehlerrate bei AWGN]] ist hier die Blockfehlerrate angegeben und nicht die Bitfehlerrate. &lt;br /&gt;
*Näherungsweise ist Letztere um den Faktor $d_{\rm min}/k$ kleiner, falls wie hier $d_{\rm min}&amp;lt; k$  ist. Im vorliegenden Beispiel gilt $d_{\rm min}/k = 0.75$.&amp;lt;br&amp;gt;&lt;br /&gt;
*Berechnet wurden nur die Punkte für ganzzahlige dB&amp;amp;ndash;Werte. Die gestrichelten Linien wurden interpoliert.&lt;br /&gt;
*Die rechts  angegebenen (blauen) Zahlenwerte gelten für $10 \cdot \lg \, E_{\rm B}/N_0 = 8 \, \rm dB$ &amp;amp;nbsp;&amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp;&amp;amp;nbsp; $E_{\rm B}/N_0  \approx 6.31$ (blaue Vertikale).&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Die grünen Kreuze markieren die &amp;lt;i&amp;gt;Union Bound&amp;lt;/i&amp;gt;. Nach dieser gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr(Blockfehler)}   \le  \sum_{i= d_{\rm min} }^{n} W_i \cdot {\rm Q} \left ( \sqrt{i \cdot {2R \cdot E_{\rm B} }/{N_0} } \right ) =&lt;br /&gt;
7 \cdot {\rm Q} (4.65) + 7 \cdot {\rm Q} (5.37) + {\rm Q} (7.10) &amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} {\rm Pr(Blockfehler)} \approx  &lt;br /&gt;
7 \cdot 1.66 \cdot 10^{-6} + 7 \cdot 3.93 \cdot 10^{-8}+ 10^{-9} = 1.2 \cdot 10^{-5}&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
*Die Zahlenwerte machen deutlich, dass die Union Bound durch den ersten Term bestimmt wird:&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr(Union\hspace{0.15cm} Bound)} \approx W_{d_{\rm min} } \cdot {\rm Q} \left ( \sqrt{d_{\rm min} \cdot {2R \cdot E_{\rm B} }/{N_0} } \right ) = 1.16 \cdot 10^{-5}&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
*Allerdings ist diese so genannte  &amp;lt;i&amp;gt;Truncated Union Bound&amp;lt;/i&amp;gt; nicht mehr bei allen Anwendungen eine echte Schranke für die Blockfehlerwahrscheinlichkeit, sondern ist als Näherung  zu verstehen.&amp;lt;br&amp;gt;&lt;br /&gt;
*Die &amp;lt;i&amp;gt;Bhattacharyya&amp;amp;ndash;Schranke&amp;lt;/i&amp;gt; ist in der Grafik durch rote Punkte markiert. Diese Schranke liegt aufgrund der stark vereinfachten [https://en.wikipedia.org/wiki/Chernoff_bound Chernoff&amp;amp;ndash;Rubin Bound] ${\rm Q}(x) \le  {\rm e}^{-x^2/2}$ deutlich über der ''Union Bound''. &lt;br /&gt;
*Für $10 \cdot \lg \, E_{\rm B}/N_0 = 8 \, \rm dB$ erhält man mit $\beta = {\rm e}^{-R \hspace{0.03cm}\cdot \hspace{0.03cm}E_{\rm B}/N_0} \approx 0.027$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr(Bhattacharyya)} = W(\beta) -1 = 7 \cdot \beta^3 + 7 \cdot \beta^4 + \beta^7 \approx 1.44 \cdot 10^{-4}&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:1.14 Bhattacharyya–Schranke für BEC|A1.14 Bhattacharyya–Schranke für BEC]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.15 Distanzspektren|A1.15 Distanzspektren]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.16 Schranken für AWGN|A1.16 Schranken für AWGN]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.16Z_Schranken_für_Q(x)|Zusatzaufgabe 1.16: Schranken für Q(x)]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/Decoding_of_Linear_Block_Codes&amp;diff=21276</id>
		<title>Channel Coding/Decoding of Linear Block Codes</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/Decoding_of_Linear_Block_Codes&amp;diff=21276"/>
		<updated>2018-01-02T18:51:13Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Binäre Blockcodes zur Kanalcodierung&lt;br /&gt;
|Vorherige Seite=Allgemeine Beschreibung linearer Blockcodes&lt;br /&gt;
|Nächste Seite=Schranken für die Blockfehlerwahrscheinlichkeit&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Blockschaltbild und Voraussetzungen ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir gehen von dem bereits im Kapitel [[Kanalcodierung/Kanalmodelle_und Entscheiderstrukturen|Kanalmodelle und Entscheiderstrukturen]] gezeigten Blockschaltbild aus, wobei als Kanalmodell meist der &amp;lt;i&amp;gt;Binary Symmetric Channel&amp;lt;/i&amp;gt; (BSC) verwendet wird. Zur Codewortschätzung verwenden wir den &amp;lt;i&amp;gt;Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Entscheider&amp;lt;/i&amp;gt; (ML), der für binäre Codes &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $\underline{x}  \in {\rm GF}(2^n)$ auf Blockebene das gleiche Ergebnis liefert wie der [[Kanalcodierung/Kanalmodelle_und_Entscheiderstrukturen#Definitionen_der_verschiedenen_Optimalempf.C3.A4nger|MAP&amp;amp;ndash;Empfänger]].&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2360 KC T 1 5 S1 v2.png|center|frame|Blockschaltbild zur Decodierung von Blockcodes|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Die Aufgabe des Kanaldecoders kann wie folgt beschrieben werden:&lt;br /&gt;
*Der Vektor $\underline{v}$ nach der Decodierung (an der Sinke) soll möglichst gut mit dem Informationswort $\underline{u}$ übereinstimmen. Das heißt: Die '''Blockfehlerwahrscheinlichkeit''' soll möglichst klein sein:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \rm Pr(Blockfehler)} = { \rm Pr}( \underline{v} \ne \underline{u}) \stackrel{!}{=} { \rm Minimum}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Aufgrund der deterministischen Zuweisungen $\underline{x} = {\rm enc}(\underline{u})$ bzw. $\underline{v} = {\rm enc}^{-1}(\underline{z})$ gilt aber auch:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \rm Pr(Blockfehler)} = { \rm Pr}( \underline{z} \ne \underline{x}) \stackrel{!}{=} { \rm Minimum}\hspace{0.05cm}.&amp;lt;/math&amp;gt; &lt;br /&gt;
&lt;br /&gt;
*Gesucht ist somit das zum gegebenen Empfangswort $\underline{y} = \underline{x} +\underline{e}$ am wahrscheinlichsten gesendete Codewort $\underline{x}_i$, das als Ergebnis $\underline{z}$ weiter gegeben wird:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \max_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm} {\rm Pr}( \underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm}|\hspace{0.05cm} \underline{y} ) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Beim BSC&amp;amp;ndash;Kanal gilt sowohl $\underline{x}_i  \in {\rm GF}(2^n)$ als auch $\underline{y}  \in {\rm GF}(2^n)$, so dass die Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Regel auch mit der [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung |Hamming&amp;amp;ndash;Distanz]] $d_{\rm H}( \underline{y}, \, \underline{x}_i)$ geschrieben werden kann:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \min_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm}&lt;br /&gt;
d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Prinzip der Syndromdecodierung ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Vorausgesetzt wird hier ein $(n, \, k)$&amp;amp;ndash;Blockcode mit der Prüfmatrix $\boldsymbol{\rm H}$ und den systematischen Codeworten&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{x}\hspace{0.05cm} = (x_1, x_2, ... \hspace{0.05cm}, x_i, ... \hspace{0.05cm}, x_n)&lt;br /&gt;
 = (u_1, u_2, ... \hspace{0.05cm}, u_k, p_1, ... \hspace{0.05cm}, p_{n-k})\hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Mit dem Fehlervektor $\underline{e}$  gilt dann für das Empfangswort:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{y} = \underline{x} + \underline{e} \hspace{0.05cm}, \hspace{0.4cm} \underline{y} \in \hspace{0.1cm} {\rm GF}(2^n) \hspace{0.05cm}, \hspace{0.1cm} \underline{x} \in \hspace{0.1cm} {\rm GF}(2^n) \hspace{0.05cm}, \hspace{0.1cm} \underline{e} \in \hspace{0.1cm} {\rm GF}(2^n)&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ein Bitfehler an der Position $i$, das heißt $y_i &amp;amp;ne; x_i$, wird ausgedrückt durch den Fehlerkoeffizienten $e_i = 1$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Das '''Syndrom''' $\underline{s} = (s_0, s_1, \text{...} , s_{m-1})$ berechnet sich (als Zeilen&amp;amp;ndash; bzw. Spaltenvektor) aus dem Empfangswort $\underline{y}$ und der Prüfmatrix $\boldsymbol{\rm H}$ in folgender Weise:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{s} = \underline{y} \cdot { \boldsymbol{\rm H} }^{\rm T}\hspace{0.3cm}{\rm bzw.}\hspace{0.3cm} &lt;br /&gt;
\underline{s}^{\rm T} = { \boldsymbol{\rm H} } \cdot \underline{y}^{\rm T}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Vektorlänge von $\underline{s}$ ist gleich $m = n-k$ (Zeilenzahl von $\boldsymbol{\rm H}$).}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Syndrom $\underline{s}$ zeigt folgende Charakteristika:&lt;br /&gt;
*Wegen $\underline{x} \cdot { \boldsymbol{\rm H}}^{\rm T}  = \underline{0}$ hängt $\underline{s}$ nicht vom Codewort $\underline{x}$ ab, sondern allein vom Fehlervektor $\underline{e}$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{s} = \underline{y} \cdot { \boldsymbol{\rm H}}^{\rm T}&lt;br /&gt;
= \hspace{0.05cm} \underline{x} \cdot { \boldsymbol{\rm H}}^{\rm T} + \hspace{0.05cm} \underline{e} \cdot { \boldsymbol{\rm H}}^{\rm T}&lt;br /&gt;
= \hspace{0.05cm} \underline{e} \cdot { \boldsymbol{\rm H}}^{\rm T}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei hinreichend wenig Bitfehlern liefert $\underline{s}$ einen eindeutigen Hinweis auf die Fehlerpositionen und ermöglicht so eine vollständige Fehlerkorrektur.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; Ausgehend vom systematischen [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Einige_Eigenschaften_des_.287.2C_4.2C_3.29.E2.80.93Hamming.E2.80.93Codes|(7,&amp;amp;nbsp;4,&amp;amp;nbsp;3)&amp;amp;ndash;Hamming&amp;amp;ndash;Code]] erhält man beispielsweise für den Empfangsvektor $\underline{y} = (0, 1, 1, 1, 0, 0, 1)$ das folgende Ergebnis:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H} } \cdot \underline{y}^{\rm T}&lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp;1&lt;br /&gt;
	\end{pmatrix} \cdot \begin{pmatrix}&lt;br /&gt;
		0 \\&lt;br /&gt;
		1 \\&lt;br /&gt;
		1 \\&lt;br /&gt;
		1 \\&lt;br /&gt;
		0 \\&lt;br /&gt;
		0 \\&lt;br /&gt;
		1 &lt;br /&gt;
	\end{pmatrix} = \begin{pmatrix}&lt;br /&gt;
		0 \\&lt;br /&gt;
		1 \\&lt;br /&gt;
		1&lt;br /&gt;
	\end{pmatrix} = \underline{s}^{\rm T} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Vergleicht man das Syndrom mit den [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Pr.C3.BCfmatrix| Prüfgleichungen]] des Hamming&amp;amp;ndash;Codes, so erkennt man, dass&lt;br /&gt;
*am wahrscheinlichsten das vierte Symbol $(x_4 = u_4)$ des Codewortes verfälscht wurde,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*der Codewortschätzer somit das Ergebnis  $\underline{z} = (0, 1, 1, 0, 0, 0, 1)$ liefern wird.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*die Entscheidung nur dann richtig ist, wenn bei der Übertragung nur ein Bit verfälscht wurde.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nachfolgend sind die erforderlichen Korrekturen für den (7,&amp;amp;nbsp;4,&amp;amp;nbsp;3)&amp;amp;ndash;Hamming&amp;amp;ndash;Code angegeben, die sich aus dem errechneten Syndrom $\underline{s}$  entsprechend den Spalten der Prüfmatrix ergeben:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{s} = (0, 0, 0) \hspace{0.10cm} \Rightarrow\hspace{0.10cm}{\rm keine\hspace{0.15cm} Korrektur}\hspace{0.05cm};\hspace{0.4cm}\underline{s} = (1, 0, 0)\hspace{0.10cm} \Rightarrow\hspace{0.10cm}p_1{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{s} =(0, 0, 1)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} p_3{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};\hspace{0.82cm}\underline{s} = (1, 0, 1)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} u_1{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{s} =(0, 1, 0)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} p_2{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};\hspace{0.82cm}\underline{s} = (1, 1, 0)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} u_3{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{s} =(0, 1, 1)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} u_4{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm};\hspace{0.82cm}\underline{s} = (1, 1, 1)\hspace{0.10cm} \Rightarrow\hspace{0.10cm} u_2{\rm \hspace{0.15cm} invertieren}\hspace{0.05cm}. &amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Verallgemeinerung der Syndromdecodierung ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir fassen die Ergebnisse der letzten Seiten zusammen, wobei wir weiterhin vom BSC&amp;amp;ndash;Kanalmodell ausgehen. Das bedeutet: $\underline{y}$  und $\underline{e}$ sind Elemente von ${\rm GF}(2^n)$, während die möglichen Codeworte $\underline{x}_i$ zum Code $\mathcal{C}$ gehören, der einen $(n-k)$&amp;amp;ndash;dimensionalen Untervektorraum von ${\rm GF}(2^n)$ darstellt. Dann gilt:&lt;br /&gt;
&lt;br /&gt;
*Die Syndromdecodierung ist eine Realisierungsmöglichkeit der Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Detektion von Blockcodes. Man entscheidet sich für das Codewort  $\underline{x}_i$ mit der geringsten Hamming&amp;amp;ndash;Distanz zum Empfangswort  $\underline{y}$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = {\rm arg} \min_{\underline{x}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} \mathcal{C}} \hspace{0.1cm}&lt;br /&gt;
d_{\rm H}(\underline{y}  \hspace{0.05cm}, \hspace{0.1cm}\underline{x}_{\hspace{0.03cm}i})\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Syndromdecodierung  ist aber auch die Suche nach dem wahrscheinlichsten Fehlervektor $\underline{e}$, der die Bedingung $\underline{e} \cdot { \boldsymbol{\rm H}}^{\rm T}  = \underline{s}$ erfüllt. Das &amp;lt;i&amp;gt;Syndrom&amp;lt;/i&amp;gt; liegt dabei durch $\underline{s} = \underline{y} \cdot { \boldsymbol{\rm H}}^{\rm T}  $ fest.&lt;br /&gt;
&lt;br /&gt;
*Mit dem [[Kanalcodierung/Zielsetzung_der_Kanalcodierung#Einige_wichtige_Definitionen_zur_Blockcodierung| Hamming&amp;amp;ndash;Gewicht]] $w_{\rm H}(\underline{e})$ kann die zweite Interpretation auch wie folgt mathematisch formuliert werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = \underline{y} + {\rm arg} \min_{\underline{e}_{\hspace{0.03cm}i} \hspace{0.05cm} \in \hspace{0.05cm} {\rm GF}(2^n)} \hspace{0.1cm}&lt;br /&gt;
w_{\rm H}(\underline{e}_{\hspace{0.03cm}i})\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; Zu beachten ist, dass der Fehlervektor $\underline{e}$ ebenso wie der Empfangsvektor $\underline{y}$ ein Element von ${\rm GF}(2^n)$ ist im Gegensatz zum Syndrom $\underline{s} \in {\rm GF}(2^m)$  mit der Anzahl $m = n-k$ der Prüfgleichungen. Das bedeutet,&lt;br /&gt;
*dass die Zuordnung zwischen Syndrom $\underline{s}$ und Fehlervektor $\underline{e}$ nicht eindeutig ist, sondern&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*dass jeweils $2^k$ Fehlervektoren zum gleichen Syndrom $\underline{s}$ führen, die man zu einer '''Nebenklasse''' (englisch: &amp;lt;i&amp;gt;Coset&amp;lt;/i&amp;gt;) zusammenfasst.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2361 KC T 1 5 S3 v2.png|right|frame|Aufteilung der 2&amp;lt;sup&amp;gt;&amp;lt;i&amp;gt;k&amp;lt;/i&amp;gt;&amp;lt;/sup&amp;gt; Fehlervektoren in &amp;lt;i&amp;gt;Cosets&amp;lt;/i&amp;gt;|class=fit]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp; Der Sachverhalt soll hier am Beispiel $n = 5, k = 2$ &amp;amp;nbsp;  &amp;amp;#8658; &amp;amp;nbsp; $m = n-k = 3$ verdeutlicht  werden:&lt;br /&gt;
*Die $2^n = 32$ möglichen Fehlervektoren $\underline{e}$ werden in $2^m = 8$ &amp;lt;i&amp;gt;Cosets&amp;lt;/i&amp;gt; ${\it \Psi}_0$, ... ,  ${\it \Psi}_7$ aufgeteilt. Explizit gezeichnet sind hier nur die Cosets ${\it \Psi}_0$ und ${\it \Psi}_5$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Alle $2^k = 4$ Fehlervektoren des Cosets ${\it \Psi}_\mu$ führen zum gleichen Syndrom $\underline{s}_\mu$. &lt;br /&gt;
*Jede Nebenklasse ${\it \Psi}_\mu$ hat einen Anführer  $\underline{e}_\mu$, nämlich denjenigen mit dem minimalen Hamming&amp;amp;ndash;Gewicht.}}&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; Ausgehend von einem systematischen (5,&amp;amp;nbsp;2,&amp;amp;nbsp;3)&amp;amp;ndash;Code $\mathcal{C} = \{ (0, 0, 0, 0, 0) \hspace{0.05cm},\hspace{0.15cm}(0, 1, 0, 1, 1) \hspace{0.05cm},\hspace{0.15cm}(1, 0, 1, 1, 0)  \hspace{0.05cm},\hspace{0.15cm}(1, 1, 1, 0, 1) \}$ wird nun die Vorgehensweise bei der Syndromdecodierung im Detail  beschrieben.&lt;br /&gt;
[[File:P ID2362 KC T 1 5 S3b v2.png|right|frame|Beispielhafte (5, 2, 3)–Syndromtabelle  mit Nebenklassen|class=fit]]&lt;br /&gt;
Generatormatrix und Prüfmatrix lauten:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm G} } &lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;1 &amp;amp;1 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;1&lt;br /&gt;
	\end{pmatrix} \hspace{0.05cm},&amp;lt;/math&amp;gt; &lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H} } &lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp;1&lt;br /&gt;
	\end{pmatrix} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Tabelle fasst das Endergebnis zusammen. Beachten Sie:  Der Index $\mu$ ist nicht identisch mit dem Binärwert von $\underline{s}_\mu$: &lt;br /&gt;
*Die Reihenfolge ergibt sich vielmehr durch die Anzahl der Einsen im Nebenklassenanführer $\underline{e}_\mu$. &lt;br /&gt;
*Beispielsweise ist das Syndrom $\underline{s}_5 = (1, 1, 0)$ und  das Syndrom  $\underline{s}_6 =  (1, 0, 1)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Zur Herleitung dieser Tabelle ist anzumerken:&lt;br /&gt;
*Die Zeile 1 bezieht sich auf das Syndrom $\underline{s}_0 = (0, 0, 0)$ und die dazugehörige Nebenklasse ${\it \Psi}_0$. Am wahrscheinlichsten ist hier die Fehlerfolge $(0, 0, 0, 0, 0)$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; kein Bitfehler, die wir als Nebenklassenanführer $\underline{e}_0$ bezeichnen. Auch die weiteren Einträge in der ersten Zeile, nämlich $(1, 0, 1, 1, 0 )$,  $(0, 1, 0, 1, 1)$ und $(1, 1, 1, 0, 1 )$, liefern jeweils das Syndrom $\underline{s}_0 = (0, 0, 0)$, ergeben sich aber nur mit mindestens drei Bitfehlern und sind entsprechend unwahrscheinlich.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*In den Zeilen 2 bis 6 beinhaltet der jeweilige Nebenklassenanführer $\underline{e}_\mu$ genau eine einzige Eins ($\mu = 1$, ... , $5$). $\underline{e}_\mu$ ist stets das wahrscheinlichste Fehlermuster der Klasse ${\it \Psi}_\mu$. Die anderen Gruppenmitglieder ergeben sich erst bei mindestens zwei Bitfehlern.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Das Syndrom $\underline{s}_6 = (1, 0, 1)$ ist mit nur einem Bitfehler nicht möglich. Bei der Erstellung der Tabelle wurden daraufhin alle $5\text{ über }2 = 10$ Fehlermuster  $\underline{e}$ mit Gewicht $w_{\rm H}(\underline{e})  = 2$ betrachtet. Die zuerst gefundene Folge mit  Syndrom $\underline{s}_6 = (1, 0, 1)$ wurde als Nebenklassenanführer $\underline{e}_6 = (1, 1, 0, 0, 0)$   ausgewählt. Bei anderer Probierreihenfolge hätte sich auch die Folge $(0, 0, 1, 0, 1)$ aus ${\it \Psi}_6$ ergeben können.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ähnlich wurde bei der Bestimmung des Anführers $\underline{e}_7  = (0, 1, 1, 0, 0)$ der Nebenklasse ${\it \Psi}_7$ vorgegangen, die durch das einheitliche Syndrom $\underline{s}_7 = (1, 1, 1)$ gekennzeichnet ist. Auch in der Klasse ${\it \Psi}_7$ gibt es eine weitere Folge mit Hamming&amp;amp;ndash;Gewicht $w_{\rm H}(\underline{e})  = 2$, nämlich $(1, 0, 0, 0, 1)$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die obige Tabelle muss nur einmal erstellt und kann beliebig oft genutzt werden. Zunächst muss das Syndrom ermittelt werden. Dieses &lt;br /&gt;
lautet beispielsweise für den  Empfangsvektor  $\underline{y} = (0, 1, 0, 0, 1)$: &lt;br /&gt;
:&amp;lt;math&amp;gt;\underline{s} = \underline{y} \cdot { \boldsymbol{\rm H} }^{\rm T} = \begin{pmatrix}&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp;1&lt;br /&gt;
	\end{pmatrix} \cdot &lt;br /&gt;
	\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;1 \\&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 \\&lt;br /&gt;
	\end{pmatrix} = \begin{pmatrix}&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix}= \underline{s}_2&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Mit dem Nebenklassenanführer $\underline{e}_2 = (0, 0, 0, 1, 0)$ aus obiger Tabelle (roter Eintrag für Index 2) gelangt man schließlich zum Decodierergebnis:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} = \underline{y}  + \underline{e}_2  = (0,\hspace{0.05cm} 1,\hspace{0.05cm} 0,\hspace{0.05cm} 0,\hspace{0.05cm} 1) + (0,\hspace{0.05cm} 0,\hspace{0.05cm} 0,\hspace{0.05cm} 1,\hspace{0.05cm} 0) = (0,\hspace{0.05cm} 1,\hspace{0.05cm} 0,\hspace{0.05cm} 1,\hspace{0.05cm} 1)&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; Aus dieser Kurzzusammenfassung geht schon hervor, dass die '''Syndromdecodierung mit einem enormen Aufwand''' verbunden ist, wenn man nicht wie bei zyklischen Codes gewisse Eigenschaften nutzen kann: &lt;br /&gt;
*Bei großen Blockcodelängen versagt diese Methode vollständig. So müsste man zur Decodierung eines [https://de.wikipedia.org/wiki/BCH-Code BCH&amp;amp;ndash;Codes] &amp;amp;ndash; die Abkürzung steht für deren Erfinder Bose, Chaudhuri und  Hocquenghem &amp;amp;ndash; mit den Codeparametern $n =  511$, $k = 259$ und$d_{\rm min} = 61$ genau $2^{511-259} \approx 10^{76}$ Fehlermuster der Länge $511$ auswerten und abspeichern. &lt;br /&gt;
*Für diese Codes und auch für andere Codes großer Blocklänge gibt es aber spezielle Decodieralgorithmen, die mit weniger Aufwand zum Erfolg führen.}}&lt;br /&gt;
&lt;br /&gt;
== Codiergewinn – Bitfehlerrate bei AWGN ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wir betrachten nun die [[Digitalsignal%C3%BCbertragung/Fehlerwahrscheinlichkeit_bei_Basisband%C3%BCbertragung#Definition_der_Bitfehlerquote_.281.29| Bitfehlerrate]] (englisch: &amp;lt;i&amp;gt;Bit Error Rate&amp;lt;/i&amp;gt;, BER) für folgende Konstellationen:&lt;br /&gt;
[[File:P ID2364 KC T 1 5 S4 v2.png|right|frame|Bitfehlerrate bei (7, 4, 3)–Hamming–Codierung|class=fit]]&lt;br /&gt;
*Hamming&amp;amp;ndash;Code (7, 4, 3),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*AWGN&amp;amp;ndash;Kanal, gekennzeichnet durch den Quotienten $E_{\rm B}/N_0$/&amp;lt;i&amp;gt;N&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;0&amp;lt;/sub&amp;gt; (in dB),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Detektion (ML) mit &amp;lt;i&amp;gt;Hard Decision&amp;lt;/i&amp;gt; bzw. &amp;lt;i&amp;gt;Soft Decision&amp;lt;/i&amp;gt;.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Zu dieser Grafik ist anzumerken:&lt;br /&gt;
*Die schwarze Vergleichskurve gilt beispielsweise für die binäre Phasenmodulation (BPSK) ohne Codierung. Hierfür benötigt man für die Bitfehlerrate $10^{-5}$ etwa $10 \cdot  \lg \, E_{\rm B}/N_0 \approx 9.6 \, \rm dB$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die roten Kreise gelten für den [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Einige_Eigenschaften_des_.287.2C_4.2C_3.29.E2.80.93Hamming.E2.80.93Codes|(7,&amp;amp;nbsp;4,&amp;amp;nbsp;3)&amp;amp;ndash;Code]] und harte Entscheidungen des Maximum&amp;amp;ndash;Likelihood&amp;amp;ndash;Decoders (ML&amp;amp;ndash;HD). Die Syndromdecodierung ist hierfür eine mögliche Realisierungsform.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Diese Systemkonfiguration bringt erst für $10 \cdot  \lg \, E_{\rm B}/N_0  &amp;gt;6 \, \rm dB$  eine Verbesserung gegenüber dem Vergleichssystem. Für $\rm BER =10^{-5}$ benötigt man nur noch $10^{-5}$ etwa $10 \cdot  \lg \, E_{\rm B}/N_0 \approx 9.2 \, \rm dB$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die grünen Kreuze für den Hamming&amp;amp;ndash;Code mit [[Kanalcodierung/Klassifizierung_von_Signalen#ML.E2.80.93Entscheidung_beim_AWGN.E2.80.93Kanal| Soft&amp;amp;ndash;Decision]] (ML&amp;amp;ndash;SD) liegen im gesamten Bereich unterhalb der Vergleichskurve. Für $\rm BER =10^{-5}$ ergibt sich $10 \cdot  \lg \, E_{\rm B}/N_0 \approx 7.8 \, \rm dB$..&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Als '''Codiergewinn''' einer Systemkonfiguration (gekennzeichnet durch seinen Code und die Art der Decodierung) bezeichnen wir das gegenüber dem Vergleichssystem (ohne Codierung) kleinere $10 \cdot  \lg \, E_{\rm B}/N_0$, das für eine vorgegebene Bitfehlerrate (BER) erforderlich ist:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;G_{\rm Code} (\hspace{0.05cm}{\rm System}\hspace{0.05cm}\vert\hspace{0.05cm}{\rm BER}\hspace{0.05cm}) =10 \cdot {\rm lg}\hspace{0.1cm}{E}_{\rm B}/N_0&lt;br /&gt;
\hspace{0.15cm}(\hspace{0.05cm}{\rm ohne\hspace{0.1cm} Codierung}\hspace{0.05cm}\vert\hspace{0.05cm}{\rm BER}\hspace{0.05cm})-&lt;br /&gt;
10 \cdot {\rm lg}\hspace{0.1cm}{E}_{\rm B}/N_0&lt;br /&gt;
\hspace{0.15cm}(\hspace{0.05cm}{\rm System}\hspace{0.05cm}\vert\hspace{0.05cm}{\rm BER}\hspace{0.05cm})  &lt;br /&gt;
\hspace{0.05cm}. &amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Angewendet auf obige Grafik erhält man:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;G_{\rm Code} (\hspace{0.05cm}{\rm Hamming \hspace{0.1cm}(7,\hspace{0.02cm}4,\hspace{0.02cm}3), ML-HD}\hspace{0.05cm}|\hspace{0.05cm}{\rm BER} = 10^{-5}\hspace{0.05cm}) = 0.4\,{\rm dB}\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;G_{\rm Code} (\hspace{0.05cm}{\rm Hamming \hspace{0.1cm}(7,\hspace{0.02cm}4,\hspace{0.02cm}3), ML-SD}\hspace{0.05cm}|\hspace{0.05cm}{\rm BER} = 10^{-5}\hspace{0.05cm}) = 1.8\,{\rm dB}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Decodierung beim Binary Erasure Channel ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Abschließend soll noch gezeigt werden, in wie weit der Decoder zu modifizieren ist, wenn anstelle des [[Kanalcodierung/Klassifizierung_von_Signalen#Binary_Symmetric_Channel_.E2.80.93_BSC| BSC&amp;amp;ndash;Modells]] &amp;lt;i&amp;gt;(Binary Symmetrie Channel)&amp;lt;/i&amp;gt; das [[Kanalcodierung/Klassifizierung_von_Signalen#Binary_Erasure_Channel_.E2.80.93_BEC| BEC&amp;amp;ndash;Kanalmodell]] &amp;lt;i&amp;gt;(Binary Erasure Channel)&amp;lt;/i&amp;gt; zum Einsatz kommt, der keine Fehler produziert, sondern  unsichere Bit als Auslöschungen markiert.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Ohne Einschränkung der Allgemeingültigkeit betrachten wir wie im [[Kanalcodierung/Decodierung_linearer_Blockcodes#Verallgemeinerung_der_Syndromdecodierung|Beispiel 3]] wieder den systematischen (5, 2, 3)&amp;amp;ndash;Blockcode $\mathcal{C} = \{ (0, 0, 0, 0, 0) \hspace{0.05cm},\hspace{0.15cm}(0, 1, 0, 1, 1) \hspace{0.05cm},\hspace{0.15cm}(1, 0, 1, 1, 0)  \hspace{0.05cm},\hspace{0.15cm}(1, 1, 1, 0, 1) \}$&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2537 KC T 1 5 S5.png|right|frame|Zur Fehlerkorrektur bei BSC und BEC]] &lt;br /&gt;
Nebenstehende Grafik zeigt das Systemmodell und gibt beispielhafte Werte für die einzelnen Vektoren wider. &lt;br /&gt;
*Der linke Bildteil (blau hinterlegt) gilt für das BSC&amp;amp;ndash;Modell mit einem  Bitfehler $0 &amp;amp;#8594; 1$ beim dritten Bit.&lt;br /&gt;
*Der rechte Bildteil (grün hinterlegt) gilt für das BEC&amp;amp;ndash;Modell und zeigt zwei &amp;lt;i&amp;gt;Erasures&amp;lt;/i&amp;gt; $\rm 1 &amp;amp;#8594; E$ bei Bit 2 und 4.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Man erkennt:&lt;br /&gt;
*Bei BSC kann wegen $d_{\rm min} = 3$nur ein Bitfehler korrigiert werden  ($t = 1$, rot markiert).  Beschränkt man sich auf Fehlererkennung, so funktioniert diese bis zu $e= d_{\rm min} -1 = 2$ Bitfehler.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei BEC macht Fehlererkennung keinen Sinn, denn bereits der Kanal lokalisiert ein unsicheres Bit als &amp;lt;i&amp;gt;Erasure&amp;lt;/i&amp;gt; E (Auslöschung). Die Nullen und Einsen im BEC&amp;amp;ndash;Empfangswort $\underline{y}$ sind sicher. Deshalb funktioniert hier die Fehlerkorrektur bis zu $e = 2$ Auslöschungen mit Sicherheit.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Auch $e = 3$ Auslöschungen sind manchmal noch korrigierbar. So kann $\underline{y} \rm = (E, E, E, 1, 1)$ zu $\underline{z} \rm = (0, 1, 0, 1, 1)$  korrigiert werden, da kein zweites Codewort mit zwei Einsen endet. Dagegen ist $\underline{y} \rm = (0, E, 0, E, E)$ aufgrund des im Code erlaubten Nullwortes nicht korrigierbar.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Wird sichergestellt, dass in keinem Empfangswort mehr als zwei Auslöschungen vorkommen, so ist die BEC&amp;amp;ndash;Blockfehlerwahrscheinlichkeit ${\rm Pr}(\underline{z} \ne  \underline{x}) = {\rm Pr}(\underline{v} \ne  \underline{u}) \equiv 0$. Dagegen hat die entsprechende Blockfehlerwahrscheinlichkeit beim BSC&amp;amp;ndash;Modell stets einen Wert größer als $0$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Da nach dem BEC ein jedes Empfangswort entweder richtig oder gar nicht decodiert wird, nennen wir hier den Block $\underline{y} &amp;amp;#8594; \underline{z}$  zukünftig &amp;amp;bdquo;Codewortfinder&amp;amp;rdquo;. Eine &amp;amp;bdquo;Schätzung&amp;amp;rdquo; findet nur beim BSC&amp;amp;ndash;Modell statt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wie funktioniert aber nun die Decodierung eines Empfangswortes  $\underline{y}$  mit Auslöschungen algorithmisch? &lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 5:}$&amp;amp;nbsp;  Ausgehend vom Empfangswort $\underline{y} \rm = (0, E, 0, E, 1)$ im Beispiel 4 setzen wir den Ausgang des Codewortfinders formal zu $\underline{z} \rm = (0, z_2, 0, z_4, 1)$, wobei die Symbole $z_2 \in \{0, \, 1\}$ und $z_4 \in \{0, \, 1\}$ entsprechend folgender Gleichung zu bestimmen sind:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z} \cdot { \boldsymbol{\rm H} }^{\rm T}= \underline{0}&lt;br /&gt;
\hspace{0.3cm} \Rightarrow \hspace{0.3cm}&lt;br /&gt;
{ \boldsymbol{\rm H} } \cdot \underline{z}^{\rm T}= \underline{0}^{\rm T} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es geht nun darum, diese Bestimmungsgleichung möglichst effizient umzusetzen. Es ergeben sich folgende Rechenschritte:&lt;br /&gt;
*Mit der Prüfmatrix $\boldsymbol{\rm H}$ des (5, 2, 3)&amp;amp;ndash;Blockcodes und dem Vektor $\underline{z} \rm = (0, z_2, 0, z_4, 1)$ lautet die obige Bestimmungsgleichung:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H} } \cdot \underline{z}^{\rm T}&lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;0\\&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp;1&lt;br /&gt;
	\end{pmatrix} \cdot \begin{pmatrix}&lt;br /&gt;
		0 \\&lt;br /&gt;
		z_2 \\&lt;br /&gt;
		0 \\&lt;br /&gt;
		z_4 \\&lt;br /&gt;
		1 &lt;br /&gt;
	\end{pmatrix} = \begin{pmatrix}&lt;br /&gt;
		0 \\&lt;br /&gt;
		0 \\&lt;br /&gt;
		0&lt;br /&gt;
	\end{pmatrix}  &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Wir fassen die sicheren (korrekten) Bit zum Vektor $\underline{z}_{\rm K}$ zusammen und die ausgelöschten Bit zum Vektor $\underline{z}_{\rm E}$. Dann teilen wir die Prüfmatrix $\boldsymbol{\rm H}$ in die entsprechenden Teilmatrizen $\boldsymbol{\rm H}_{\rm K}$ und $\boldsymbol{\rm H}_{\rm E}$ auf:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z}_{\rm K} =(0, 0, 1)\hspace{0.05cm},\hspace{0.3cm} { \boldsymbol{\rm H} }_{\rm K}=  &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1&lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
\hspace{0.3cm}\Rightarrow\hspace{0.3cm}&lt;br /&gt;
{\rm Spalten\hspace{0.15cm} 1,\hspace{0.15cm}3 \hspace{0.15cm}und \hspace{0.15cm}5 \hspace{0.15cm}der \hspace{0.15cm}Pr\ddot{u}fmatrix} &lt;br /&gt;
\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{z}_{\rm E} = (z_2, z_4)\hspace{0.05cm},\hspace{0.35cm} { \boldsymbol{\rm H} }_{\rm E}=  &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		0 &amp;amp;0\\&lt;br /&gt;
		1 &amp;amp;1\\&lt;br /&gt;
		1 &amp;amp;0&lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
 \hspace{0.9cm}\Rightarrow\hspace{0.3cm}&lt;br /&gt;
{\rm Spalten\hspace{0.15cm} 2 \hspace{0.15cm}und \hspace{0.15cm}4 \hspace{0.15cm}der \hspace{0.15cm}Pr\ddot{u}fmatrix}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Unter Berücksichtigung der Tatsache, dass in $\rm GF(2)$ die Subtraktion gleich der Addition ist, lässt sich die obige Gleichung wie folgt darstellen:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H} }_{\rm K} \cdot \underline{z}_{\rm K}^{\rm T}&lt;br /&gt;
+ &lt;br /&gt;
{ \boldsymbol{\rm H} }_{\rm E} \cdot \underline{z}_{\rm E}^{\rm T}= \underline{0}^{\rm T} &lt;br /&gt;
\hspace{0.3cm} \Rightarrow \hspace{0.3cm}&lt;br /&gt;
{ \boldsymbol{\rm H} }_{\rm E} \cdot \underline{z}_{\rm E}^{\rm T}=&lt;br /&gt;
{ \boldsymbol{\rm H} }_{\rm K} \cdot \underline{z}_{\rm K}^{\rm T} \hspace{0.3cm}&lt;br /&gt;
\Rightarrow \hspace{0.3cm}&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		0 &amp;amp;0\\&lt;br /&gt;
		1 &amp;amp;1\\&lt;br /&gt;
		1 &amp;amp;0&lt;br /&gt;
	\end{pmatrix} \cdot  &lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		z_2 \\&lt;br /&gt;
		z_4  &lt;br /&gt;
	\end{pmatrix} =&lt;br /&gt;
	\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1&lt;br /&gt;
	\end{pmatrix} \cdot &lt;br /&gt;
	\begin{pmatrix}&lt;br /&gt;
		0 \\&lt;br /&gt;
		0 \\&lt;br /&gt;
		1  &lt;br /&gt;
	\end{pmatrix} = \begin{pmatrix}&lt;br /&gt;
		0 \\&lt;br /&gt;
		0 \\&lt;br /&gt;
		1  &lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
	\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Dies führt zu einem linearen Gleichungssystem mit zwei Gleichungen für die unbekannten $z_2$ und $z_4$ (jeweils $0$ oder $1$). Aus der letzten Zeile folgt $z_2 = 1$ und aus der zweiten Zeile  $z_2 + z_4 = 0$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $z_4 = 1$. Damit ergibt sich das zulässige Codewort $\underline{z} \rm = (0, 1, 0, 1, 1)$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:1.11_Syndromdecodierung|Aufgabe 1.11: Syndromdecodierung]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.11Z_Nochmals_Syndromdecodierung|Zusatzaufgabe 1.11: Nochmals Syndromdecodierung]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.12_Hard_/_Soft_Decision|Aufgabe 1.12: Hard / Soft Decision]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.12Z_Vergleich_(7,_4,_3)_und_(8,_4,_4)|Zusatzaufgaben:1.12 Vergleich (7, 4, 3) und (8, 4, 4)]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.13_BEC–Decodierung|Aufgabe 1.13: BEC–Decodierung]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.13Z_Nochmals_BEC–Decodierung|Zusatzaufgaben:1.13 Nochmals BEC–Decodierung]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/General_Description_of_Linear_Block_Codes&amp;diff=21275</id>
		<title>Channel Coding/General Description of Linear Block Codes</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/General_Description_of_Linear_Block_Codes&amp;diff=21275"/>
		<updated>2018-01-02T18:48:18Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Binäre Blockcodes zur Kanalcodierung&lt;br /&gt;
|Vorherige Seite=Beispiele binärer Blockcodes&lt;br /&gt;
|Nächste Seite=Decodierung linearer Blockcodes&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Lineare Codes und zyklische Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Alle bisher behandelten Codes &lt;br /&gt;
*&amp;lt;i&amp;gt;Single Parity&amp;amp;ndash;check Code&amp;lt;/i&amp;gt;, &lt;br /&gt;
*&amp;lt;i&amp;gt;Repetition Code&amp;lt;/i&amp;gt;,&lt;br /&gt;
* &amp;lt;i&amp;gt;Hamming&amp;amp;ndash;Code&amp;lt;/i&amp;gt;&lt;br /&gt;
&lt;br /&gt;
sind linear. Nun wird die für binäre Blockcodes gültige Definition von Linearität nachgereicht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ein '''linearer binärer Blockcode''' $\mathcal{C}$ ist ein Satz von $2^k$ Codeworten $\underline{x}= (x_1, x_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, x_n)$, wobei die (Modulo&amp;amp;ndash;2)&amp;amp;ndash;Summe zweier beliebiger Codeworte $\underline{x}$ und $\underline{x}'$ wiederum ein gültiges Codewort ergibt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{x}, \underline{x}\hspace{0.05cm}' \in {\rm GF}(2^n),\hspace{0.3cm} \underline{x}, \underline{x}\hspace{0.05cm}' \in  \mathcal{C} &lt;br /&gt;
 \hspace{0.3cm} \Rightarrow \hspace{0.3cm}\underline{x} + \underline{x}\hspace{0.05cm}' \in  \mathcal{C}&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Diese Bedingung muss auch für $\underline{x} = \underline{x}'$ erfüllt sein.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;i&amp;gt;Hinweis:&amp;lt;/i&amp;gt; Die Modulo&amp;amp;ndash;Addition wird für den Rest dieses Buches zur Vereinfachung der Schreibweise nicht mehr durch das Modulo&amp;amp;ndash;Additionszeichen ausgedrückt, sondern mit dem herkömmlichen Pluszeichen.}} &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; Wir betrachten zwei (3, 2)&amp;amp;ndash;Blockcodes:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C}_1 = \{ (0, 0, 0) \hspace{0.05cm}, (0, 1, 1) \hspace{0.05cm},(1, 0, 1) \hspace{0.05cm},(1, 1, 0) \}\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C}_2 = \{ (0, 0, 0) \hspace{0.05cm}, (0, 1, 1) \hspace{0.05cm},(1, 1, 0) \hspace{0.05cm},(1, 1, 1) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Man erkennt:&lt;br /&gt;
*Der Code $\mathcal{C}_1$ ist linear, da die Modulo&amp;amp;ndash;2&amp;amp;ndash;Addition zweier beliebiger Codeworte stets auch ein gültiges Codewort ergibt, zum Beispiel $(0, 1, 1) + (1, 0, 1) = (1, 1, 0)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die obige Definition gilt auch für die Modulo&amp;amp;ndash;2&amp;amp;ndash;Addition eines Codewortes mit sich selbst, zum Beispiel $(0, 1, 1) + (0, 1, 1) = (0, 0, 0)$ &amp;amp;nbsp;&amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp;&amp;amp;nbsp; Jeder lineare Code beinhaltet das Nullwort $\underline{0}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Obwohl die letzte Voraussetzung erfüllt wird, ist $\mathcal{C}_2$ kein linearer Code. Für diesen Code gilt nämlich beispielsweise:  $(0, 1, 1) + (1, 1, 0) = (1, 0, 1)$. Dies ist kein gültiges Codewort von $\mathcal{C}_2$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Folgenden beschränken wir uns ausschließlich auf lineare Codes, da nichtlineare Codes für die Praxis von untergeordneter Bedeutung sind.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ein linearer Blockcode $\mathcal{C}$ heißt '''zyklisch''', wenn eine jede zyklische Verschiebung eines Codewortes $\underline{x}$ (nach links oder rechts) wieder ein gültiges Codewort ergibt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{x}= (x_1, x_2, ... \hspace{0.05cm}, x_n) \in   \mathcal{C} &lt;br /&gt;
 \hspace{0.3cm} \Rightarrow \hspace{0.3cm}\underline{x}\hspace{0.05cm}'= (x_n, x_1,  ... \hspace{0.05cm}, x_{n-1}) \in   \mathcal{C}&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2354 KC T 1 3 S3c.png|right|frame|Codetabelle des systematischen (7, 4, 3)–Hamming–Codes&amp;lt;br&amp;gt;&lt;br /&gt;
schwarz: $k= 4$ Informationsbits, rot: $n-k = 3$ Prüfbits ]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp; &lt;br /&gt;
*Man erkennt aus der Tabelle für den [[Kanalcodierung/Beispiele_binärer_Blockcodes#Hamming.E2.80.93Codes|(7, 4, 3)&amp;amp;ndash;Hamming&amp;amp;ndash;Code]] , dass dieser linear und zyklisch ist.&lt;br /&gt;
*Es ergibt sich auch dann ein gültiges Codewort, wenn man alle Bit invertiert: $0 &amp;amp;#8596; 1$. &lt;br /&gt;
*Auch das $\underline{0}$&amp;amp;ndash;Wort ($n$ mal eine &amp;amp;bdquo;Null&amp;amp;rdquo;) und das $\underline{1}$&amp;amp;ndash;Wort ($n$ mal eine &amp;amp;bdquo;Eins&amp;amp;rdquo;) sind bei diesem Code zulässig.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Codefestlegung durch die Prüfmatrix ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:P ID2355 KC T 1 3 S3.png|right|frame|(7, 4, 3)–Hamming–Code]]&lt;br /&gt;
Wir betrachten den [[Kanalcodierung/Beispiele_binärer_Blockcodes#Hamming.E2.80.93Codes|(7, 4, 3)&amp;amp;ndash;Hamming&amp;amp;ndash;Code]] mit Codeworten $\underline{x}$ der Länge $n=7$, nämlich&lt;br /&gt;
*den $k = 4$ Informationsbits $x_1$&amp;gt;, $x_2$, $x_3$, $x_4$ , und&amp;lt;br&amp;gt;&lt;br /&gt;
*den  $m = 3$ Prüfbits $x_5$, $x_6$, $x_7$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Paritätsgleichungen lauten somit:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;x_1 + x_2 + x_3 + x_5    \hspace{-0.1cm} =  \hspace{-0.1cm} 0 \hspace{0.05cm},\hspace{0.5cm}&lt;br /&gt;
x_2 + x_3 + x_4 + x_6    \hspace{-0.1cm} =  \hspace{-0.1cm} 0 \hspace{0.05cm},\hspace{0.05cm}&lt;br /&gt;
x_1 + x_2 + x_4 + x_7    \hspace{-0.1cm} =  \hspace{-0.1cm}  0 \hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In Matrixschreibweise lautet dieser Gleichungssatz:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} \cdot \underline{x}^{\rm T}= \underline{0}^{\rm T} &lt;br /&gt;
 \hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In dieser Gleichung werden verwendet:&lt;br /&gt;
*die '''Prüfmatrix''' ${ \boldsymbol{\rm H}}$  mit $m = n-k = 3$ Zeilen und $n = 7$ Spalten:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} = \begin{pmatrix}&lt;br /&gt;
        1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp; 0 &amp;amp; 0\\&lt;br /&gt;
        0 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &amp;amp; 1 &amp;amp; 0\\&lt;br /&gt;
        1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp; 0 &amp;amp; 1&lt;br /&gt;
      \end{pmatrix}\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*das ''Codewort'' $\underline{x}= (x_1, x_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, x_7)$ der Länge $n = 7$,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*das ''Nullvektor'' $\underline{0} = (0, 0, 0)$ der Länge $m = 3$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Durch Transponieren werden aus den ''Zeilenvektoren'' $\underline{x}$ und $\underline{0}$ die entsprechenden ''Spaltenvektoren'' $\underline{x}^{\rm T}$ und $\underline{0}^{\rm T}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2356 KC T 1 4 S2.png|right|frame|(6, 3, 3)–Blockcode]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; Die Grafik illustriert die $m = 3$ Paritätsgleichungen eines Codes $\mathcal{C}$ mit den Codeparametern $n = 6$ und $k = 3$  in der Reihenfolge rot, grün und blau. Es handelt sich also nicht um einen Hamming–Code.&lt;br /&gt;
&lt;br /&gt;
Entsprechend $\boldsymbol{\rm H} \cdot \underline{x}^{\rm T}= \underline{0}^{\rm T}$ lautet die Prüfmatrix:&lt;br /&gt;
::&amp;lt;math&amp;gt; \boldsymbol{\rm H} = \begin{pmatrix}&lt;br /&gt;
			1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp; 0\\&lt;br /&gt;
			1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp; 0\\&lt;br /&gt;
			0 &amp;amp;1 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp; 1&lt;br /&gt;
      	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die $2^k = 8$ Codeworte bei systematischer Realisierung lauten (mit den Prüfbits rechts vom kleinen Pfeil):&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\underline{x}_0 = (0, 0, 0_{\hspace{0.01cm} \rightarrow} 0, 0, 0)\hspace{0.05cm}, \hspace{0.5cm} \underline{x}_1 = (0, 0, 1_{\hspace{0.01cm} \rightarrow}0, 1, 1)\hspace{0.05cm},\hspace{0.5cm} &lt;br /&gt;
\underline{x}_2 = (0, 1, 0_{\hspace{0.01cm} \rightarrow}1, 0, 1)\hspace{0.05cm},\hspace{0.5cm}\underline{x}_3 = (0, 1, 1_{\hspace{0.01cm} \rightarrow}1, 1, 0)\hspace{0.05cm}, &amp;lt;/math&amp;gt;&lt;br /&gt;
:&amp;lt;math&amp;gt;\underline{x}_4 = (1, 0, 0_{\hspace{0.01cm} \rightarrow} 1, 1, 0)\hspace{0.05cm}, \hspace{0.5cm} \underline{x}_5 = (1, 0, 1_{\hspace{0.01cm} \rightarrow}1, 0, 1)\hspace{0.05cm},\hspace{0.5cm} &lt;br /&gt;
\underline{x}_6 = (1, 1, 0_{\hspace{0.01cm} \rightarrow}0, 1, 1)\hspace{0.05cm}, \hspace{0.2cm} \underline{x}_7 = (1, 1, 1_{\hspace{0.01cm} \rightarrow}0, 0, 0)\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus diesen Angaben:&lt;br /&gt;
*Die Spaltenanzahl  $\boldsymbol{\rm H}$ ist gleich der Codelänge $n$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Zeilenanzahl von $\boldsymbol{\rm H}$ ist gleich der Anzahl $m = n-k$ der Prüfgleichungen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Aus $\boldsymbol{\rm H} \cdot \underline{x}^{\rm T}= \underline{0}^{\rm T} $ folgt nicht, dass alle Codeworte eine gerade Anzahl von Einsen beinhalten.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Codefestlegung durch die Generatormatrix ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Prüfmatrix $\boldsymbol{\rm H}$  eines $(n, k)$)&amp;amp;ndash;Blockcodes hat $m = n-k$ Zeilen und $n$ Spalten. Den gleichen Code kann man aber auch durch die $\boldsymbol{\rm G}$ mit ebenfalls $n$ Spalten, aber $k$ Zeilen beschreiben:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ein linearer binärer Blockcode $\mathcal{C}$ kann durch die '''Prüfmatrix''' $\boldsymbol{\rm H}$ bzw. mit der '''Generatormatrix''' $\boldsymbol{\rm G}$ wie folgt charakterisiert werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C} = \{ \underline{x} \in {\rm GF}(2^n)\text{:} \hspace{0.2cm}{ \boldsymbol{\rm H} } \cdot \underline{x}^{\rm T}= \underline{0}^{\rm T} \}\hspace{0.05cm},&amp;lt;/math&amp;gt; &lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C} = \{ \underline{x} \in {\rm GF}(2^n)\hspace{0.05cm}, \hspace{0.1cm}\underline{u} \in {\rm GF}(2^k)\text{:}&lt;br /&gt;
\hspace{0.2cm}\underline{x} = \underline{u} \cdot { \boldsymbol{\rm G} }  \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Bevor wir uns den Eigenschaften der Generatormatrix zuwenden, beschreiben wir an einem Beispiel die Erzeugung der Codeworte.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Wir betrachten einen linearen $(5, 3)$&amp;amp;ndash;Blockcode mit der Generatormatrix&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt; \boldsymbol{\rm G} = \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
	=&lt;br /&gt;
	\begin{pmatrix}&lt;br /&gt;
		\underline{g}_1\\&lt;br /&gt;
		\underline{g}_2\\&lt;br /&gt;
		\underline{g}_3\\&lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit werden die Informationsworte $\underline{u}= (u_1, u_2, u_3)$  den Codeworten $\underline{x}= (x_1, x_2, x_3, x_4, x_5)$ gemäß der folgenden Tabelle mit acht Einträgen zugeordnet. Es gilt $\underline{x} = \underline{u} \cdot  \boldsymbol{\rm G}$.&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_0 = (0, 0, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_0 = (0, 0, 0, 0, 0) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_1 = (0, 0, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_1 = (0, 1, 1, 1, 0) \hspace{0.1cm}= \hspace{0.1cm}\underline{g}_3\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_2 = (0, 1, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_2 = (0, 1, 0, 1, 0)\hspace{0.1cm}= \hspace{0.1cm} \underline{g}_2\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_3 = (0, 1, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_3 = (0, 0, 1, 0, 0) \hspace{0.1cm}= \hspace{0.1cm} \underline{g}_2+\underline{g}_3\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_4 = (1, 0, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_4 = (1, 1, 0, 1, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{g}_1 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_5 =(1, 0, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_5 = (1, 0, 1, 0, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{g}_1+\underline{g}_3\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_6 = (1, 1, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_6 = (1, 0, 0, 0, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{g}_1+\underline{g}_2\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_7 =(1, 1, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_7 = (1, 1, 1, 1, 1) \hspace{0.1cm}= \hspace{0.1cm} \underline{g}_1+ \underline{g}_2+\underline{g}_3\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
''Anmerkungen'':&lt;br /&gt;
*Die hier zur Berechnung herangezogenen Basisvektoren $\underline{g}_1$, $\underline{g}_2$ und  $\underline{g}_3$ &amp;amp;ndash; jeweils mit der Länge $n = 5$ &amp;amp;ndash; entsprechen den $k = 3$ Zeilen der Generatormatrix $\boldsymbol{\rm G}$. &lt;br /&gt;
*Dieser Code ist wegen $d_{\rm min} = 1$ weder zur Fehlerkorrektur noch zur Fehlererkennung geeignet ist. Trotzdem wird er auch auf den nächsten Seiten beispielhaft weiter betrachtet.&amp;lt;br&amp;gt;&lt;br /&gt;
* Wir möchten Sie an dieser Stelle auf das Applet [[Gram&amp;amp;ndash;Schmidt&amp;amp;ndash;Verfahren]] zum Buch &amp;amp;bdquo;Digitalsignalübertragung&amp;amp;rdquo; aufmerksam machen, das die Berechnung von Basisfunktionen vermittelt, wenn auch in völlig anderem Zusammenhang als im hier gebrauchten Zusammenhang.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Identische Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die im Beispiel 4 auf der letzten Seite verwendeten Vektoren $\underline{g}_1$, $\underline{g}_2$, ... , $\underline{g}_k$ sind die [[Digitalsignal%C3%BCbertragung/Signale,_Basisfunktionen_und_Vektorr%C3%A4ume#Orthonormale_Basisfunktionen| Basisvektoren]] des linearen Blockcodes $\mathcal{C}$. Der Code selbst kann als $k$&amp;amp;ndash;dimensionaler &amp;lt;i&amp;gt;Untervektorraum&amp;lt;/i&amp;gt; von $\text{GF}(2^n)$ angesehen werden. Die Basisvektoren $\underline{g}_1$, $\underline{g}_2$, ... , $\underline{g}_k$ sind linear unabhängig.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der Untervektorraum $\mathcal{C}$ wird aber nicht nur durch die Basisvektoren&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{g}_1 = (1, 1, 0, 1, 1) \hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
\underline{g}_2 = (0, 1, 0, 1, 0) \hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
\underline{g}_3 = (0, 1, 1, 1, 0) \hspace{0.05cm}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
aufgespannt, sondern andere Basisvektoren $\underline{g}_1'$, $\underline{g}_2'$ und $\underline{g}_3'$ sind ebenso geeignet, so lange zwischen diesen die lineare Unabhängigkeit gewährleistet ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 5:}$&amp;amp;nbsp; Wir vergleichen den Code $\mathcal{C}$ von Beispiel 4 mit einem zweiten Code $\mathcal{C}'$.  Die Generatormatrizen lauten:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; \boldsymbol{\rm G} = \begin{pmatrix}&lt;br /&gt;
		\underline{g}_1\\&lt;br /&gt;
		\underline{g}_2\\&lt;br /&gt;
		\underline{g}_3\\&lt;br /&gt;
	\end{pmatrix}=&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
	 \boldsymbol{\rm G}\hspace{0.05cm}' = \begin{pmatrix}&lt;br /&gt;
		\underline{g}\hspace{0.05cm}'_1\\&lt;br /&gt;
		\underline{g}\hspace{0.05cm}'_2\\&lt;br /&gt;
		\underline{g}\hspace{0.05cm}'_3\\&lt;br /&gt;
	\end{pmatrix}=&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die beiden Codes sind identisch: Sie beinhalten die genau gleichen Codeworte; es gilt nur eine andere Zuordnung. Bei dem Übergang von $\boldsymbol{\rm G}$ auf $\boldsymbol{\rm G}'$ wurden folgende erlaubte Operationen ausgeführt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{g}\hspace{0.05cm}'_1 = \underline{g}_1 + \underline{g}_2  \hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
\underline{g}\hspace{0.05cm}'_2 = \underline{g}_2  \hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
\underline{g}\hspace{0.05cm}'_3 = \underline{g}_2 + \underline{g}_3 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zum entsprechenden Code $\mathcal{C}'$ kommt man mit der Gleichung $\underline{x}' = \underline{u} \cdot  \boldsymbol{\rm G}'$.&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_0 = (0, 0, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_0 = &lt;br /&gt;
(0, 0, 0, 0, 0) \hspace{0.1cm}= \hspace{0.1cm} \underline{x}_0 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_1 = (0, 0, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_1 = &lt;br /&gt;
(0, 0, 1, 0, 0) \hspace{0.1cm}= \hspace{0.1cm}\underline{x}_3\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_2 \hspace{-0.15cm} =  \hspace{-0.15cm} (0, 1, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_2 = &lt;br /&gt;
(0, 1, 0, 1, 0) \hspace{0.1cm}= \hspace{0.1cm} \underline{x}_2\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_3 = (0, 1, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_3 = &lt;br /&gt;
(0, 1, 1, 1, 0) \hspace{0.1cm}= \hspace{0.1cm} \underline{x}_1\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_4 = (1, 0, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_4 = &lt;br /&gt;
(1, 0, 0, 0, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{x}_6 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_5 =(1, 0, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_5 = &lt;br /&gt;
(1, 0, 1, 0, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{x}_5\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_6 = (1, 1, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_6 = &lt;br /&gt;
(1, 1, 0, 1, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{x}_4\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_7 = (1, 1, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_7 = &lt;br /&gt;
(1, 1, 1, 1, 1) \hspace{0.1cm}= \hspace{0.1cm} \underline{x}_7\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die entsprechenden Codeworte $\underline{x}_i = \underline{u}_i \cdot  \boldsymbol{\rm G}$ des odes $\mathcal{C}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; Generatormatrix  $\boldsymbol{\rm G}$ sind im  [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Generatormatrix|Beispiel 4]] (vorherige Seite) angegeben.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; Die Codetabellen von Beispiel 4 und Beispiel 5 machen deutlich:&lt;br /&gt;
*$\mathcal{C}$ und $\mathcal{C}'$ beinhalten die genau gleichen Codeworte. Sie sind damit &amp;lt;i&amp;gt;identische Codes&amp;lt;/i&amp;gt; und besitzen beide die gleiche Korrekturfähigkeit (siehe nächste Seite).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*$\mathcal{C}'$ ist aber nun ein ''systematischer Code'', da die ersten $k$ Binärstellen eines jeden Codewortes $\underline{x}'_i$ mit den Binärstellen des Informationswortes $\underline{u}$  übereinstimmen.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Systematische Codes==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Eigenschaft &amp;amp;bdquo;systematisch&amp;amp;rdquo; soll nun noch in mathematischer Form angegeben werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Bei einem '''systematischen (n, k)&amp;amp;ndash;Blockcode''' $\mathcal{C}$ beinhaltet jedes Codewort $\underline{x}$ explizit das Informationswort $\underline{u}$. &lt;br /&gt;
*Das heißt, es gilt:&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u} =  (u_1, u_2, ... \hspace{0.05cm}, u_k) \hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm} = &lt;br /&gt;
(u_1, u_2, ... \hspace{0.05cm}, u_k, x_{k+1}, ... \hspace{0.05cm}, x_n)\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Generatormatrix hat in diesem Fall die Form $\boldsymbol{\rm G_{\rm sys} } =\left({ \boldsymbol{\rm I}_{\rm k} \ ; \{ \boldsymbol{\rm P} }\right)$ mit der $k&amp;amp;times;k$&amp;amp;ndash;Einheitsmatrix $\boldsymbol{\rm I}_{\rm k}$ und einer geeignet zu wählenden $(n-1)&amp;amp;times;k$&amp;amp;ndash;Matrix $\boldsymbol{\rm P}$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für das Beispiel 5 auf der letzten Seite kann also auch geschrieben werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; \boldsymbol{\rm G_{sys}} =\left({ \boldsymbol{\rm I}}_3 \: ; \: { \boldsymbol{\rm P}}\right)\hspace{0.3cm}{\rm mit}\hspace{0.3cm}&lt;br /&gt;
{ \boldsymbol{\rm I_{3}}} = \begin{pmatrix} &lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1  &lt;br /&gt;
	\end{pmatrix}\hspace{0.3cm}{\rm und}\hspace{0.3cm}&lt;br /&gt;
	{ \boldsymbol{\rm P}} = \begin{pmatrix} &lt;br /&gt;
		0 &amp;amp;1  \\&lt;br /&gt;
		1 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;0&lt;br /&gt;
		\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Erfreulich aus Sicht der Kanalcodierung ist, dass für jeden Code $\mathcal{C}$ ein systematischer (identischer oder zumindest äquivalenter) Code $\mathcal{C}_{\rm sys}$ gefunden werden kann.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Beim '''identischen systematischen Code''' beinhalten $\underline{x}$ und $\underline{x}_{\rm sys}$ die gleichen Codeworte, nur die Zuordnung $  &amp;amp;nbsp; &amp;amp;#8594; &amp;amp;nbsp; \underline{x}$ ist unterschiedlich. Man kommt durch folgende Manipulationen bezüglich $\boldsymbol{\rm G}$ von $\mathcal{C}$ zu $\mathcal{C}_{\rm sys}$:&lt;br /&gt;
*Vertauschen oder Permutieren der Zeilen,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Multiplizieren aller Zeilen mit einem konstanten Vektor ungleich $\underline{0}$,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ersetzen einer Zeile durch eine Linearkombination zwischen dieser Zeile und einer anderen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Ohne Beweis:}$&amp;amp;nbsp; Ein identischer systematischer Code $\mathcal{C}_{\rm sys}$ kann immer dann gefunden werden, wenn zu einer Generatormatrix $\boldsymbol{\rm G}$ eine Matrix $\boldsymbol{\rm A}$ existiert, so dass $\boldsymbol{\rm G}_{\rm sys} = \boldsymbol{\rm A} \cdot \boldsymbol{\rm G}$ gilt.}} &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ist dies nicht möglich, so findet man zumindest durch Vertauschen oder Permutieren der Spalten von $\boldsymbol{\rm G}$ einen '''äquivalenten systematischen Code''':&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C}_{\rm sys} = {\rm \pi} (\mathcal{C})\hspace{0.3cm}{\rm mit}\hspace{0.3cm}{\rm \pi}():\hspace{0.15cm}{\rm Permutationsoperator}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Codes $\mathcal{C}$ und $\mathcal{C}_{\rm sys}$ beinhalten dann zwar andere Codeworte, aber sie zeigen gleiche Eigenschaften. Beispielsweise weist $\mathcal{C}_{\rm sys}$ die gleiche minimale Hamming&amp;amp;ndash;Distanz $d_{\rm min}$ auf wie der Code $\mathcal{C}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 6:}$&amp;amp;nbsp; Wir betrachten die Generatormatrizen&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; \boldsymbol{\rm G} = \begin{pmatrix} &lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;1  &lt;br /&gt;
	\end{pmatrix}\hspace{0.3cm}{\rm und}\hspace{0.3cm}&lt;br /&gt;
	  \boldsymbol{\rm G_{sys} } = \begin{pmatrix} &lt;br /&gt;
		1 &amp;amp;0 &amp;amp;1 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1&lt;br /&gt;
		\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Analyse zeigt:&lt;br /&gt;
*Die zugehörigen Codes $\mathcal{C}$ und $\mathcal{C}_{\rm sys}$ beinhalten unterschiedliche Codeworte und sind somit auch &amp;lt;i&amp;gt;nicht identisch&amp;lt;/i&amp;gt;: &lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C} = \{ (0, 0, 0, 0) \hspace{0.05cm}, (0, 0, 1, 1) \hspace{0.05cm},(1, 1, 0, 0) \hspace{0.05cm},(1, 1, 1, 1) \}\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C}_{\rm sys}= \{ (0, 0, 0, 0) \hspace{0.05cm}, (0, 1, 0, 1) \hspace{0.05cm},(1, 0, 1, 0) \hspace{0.05cm},(1, 1, 1, 1) \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
*Aber sie sind &amp;lt;i&amp;gt;äquivalent&amp;lt;/i&amp;gt;: &amp;amp;nbsp; $\boldsymbol{\rm G}_{\rm sys}$  ergibt sich aus $\boldsymbol{\rm G}$}  durch Vertauschen der zweiten und dritten Spalte. &lt;br /&gt;
*Es handelt sich in beiden Fällen um einen (4, 2, 2)&amp;amp;ndash;Blockcode &amp;amp;nbsp;&amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp;&amp;amp;nbsp; $d_{\rm min} = 2$.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Zusammenhang zwischen Generator– und Prüfmatrix==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Zur Definition dieser beiden Beschreibungsmatrizen gehen wir von folgenden Gleichungen aus:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{x} = \underline{u} \cdot { \boldsymbol{\rm G}} \hspace{0.3cm} \Rightarrow \hspace{0.3cm} &lt;br /&gt;
\underline{x}^{\rm T} =  { \boldsymbol{\rm G}}^{\rm T} \cdot \underline{u}^{\rm T} \hspace{0.05cm}, \hspace{0.8cm}&lt;br /&gt;
{ \boldsymbol{\rm H}}  \cdot  \underline{x}^{\rm T} = { \boldsymbol{\rm 0}}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Verknüpft man diese zwei Gleichungen, so erhält man:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}}  \cdot  { \boldsymbol{\rm G}}^{\rm T} \cdot \underline{u}^{\rm T}  = \underline{0}\hspace{0.5cm}&lt;br /&gt;
 \forall \hspace{0.15cm}\underline{u} \in {\rm GF}(2^k)\hspace{0.3cm} &lt;br /&gt;
\Rightarrow \hspace{0.3cm} { \boldsymbol{\rm H}}  \cdot  { \boldsymbol{\rm G}}^{\rm T} = { \boldsymbol{\rm 0}} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Anzumerken ist, dass in diesen Gleichungen &lt;br /&gt;
*$\underline{0}$ einen Zeilenvektor mit $k$ Elementen bezeichnet&lt;br /&gt;
*$\boldsymbol{\rm 0}$ eine Matrix mit $m$ Zeilen und $k$ Spalten. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Alle Elemente von $\underline{0}$ und $\boldsymbol{\rm 0}$ sind identisch Null.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 7:}$&amp;amp;nbsp; Wir betrachten wie im [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Generatormatrix| Beispiel 3]] den (5, 3)&amp;amp;ndash;Blockcode&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathcal{C}  = \{  \hspace{0.15cm} (  \hspace{0.05cm}   0, 0, 0, 0, 0) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;  \hspace{0.6cm}(  \hspace{0.05cm}  0, 1, 1, 1, 0) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;  \hspace{0.6cm}( \hspace{0.05cm}0, 1, 0, 1, 0) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{0.6cm}( \hspace{0.05cm}0, 0, 1, 0, 0) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{0.6cm}( \hspace{0.05cm} 1, 1, 0, 1, 1) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{0.6cm}( \hspace{0.05cm}1, 0, 1, 0, 1) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{0.6cm}( \hspace{0.05cm}1, 0, 0, 0, 1) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{0.6cm}(\hspace{0.05cm}1, 1, 1, 1, 1) \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aus $n= 5$ und $k = 3$ folgt für die Anzahl der Prüfgleichungen $m = 2$. Durch Analyse der möglichen Codeworte erhält man folgende Ergebnisse:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;x_1 \oplus x_5 = 0 \hspace{0.05cm},\hspace{0.5cm}&lt;br /&gt;
x_2 \oplus x_4 = 0\hspace{1cm}&lt;br /&gt;
\Rightarrow \hspace{0.3cm}{ \boldsymbol{\rm H} } =  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0&lt;br /&gt;
	\end{pmatrix}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} { \boldsymbol{\rm H} }  \cdot  { \boldsymbol{\rm G} }^{\rm T} = &lt;br /&gt;
     \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0&lt;br /&gt;
	\end{pmatrix} &lt;br /&gt;
	\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;1 \\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 \\&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;1 \\&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
	=  \begin{pmatrix}&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Nullmatrix besteht hier aus $m = 2$ Zeilen und $k = 3$ Spalten. Beispielsweise gilt für das Element in der ersten Zeile und der ersten Spalte:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;1 \cdot 1 \hspace{0.05cm}\oplus \hspace{0.05cm}&lt;br /&gt;
0 \cdot 1 \hspace{0.05cm}\oplus \hspace{0.05cm}&lt;br /&gt;
0 \cdot 0 \hspace{0.05cm}\oplus \hspace{0.05cm}&lt;br /&gt;
0 \cdot 1 \hspace{0.05cm}\oplus \hspace{0.05cm}&lt;br /&gt;
1 \cdot 1  = 0&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Generatormatrix vs. Prüfmatrix bei systematischen Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Im allgemeinen Fall können $\boldsymbol{\rm G}$ und $\boldsymbol{\rm H}$  nicht direkt ineinander umgerechnet werden, schon allein aufgrund der unterschiedlichen Dimensionen von Generatormatrix  $(k \times n)$ und  Prüfmatrix $(m \times n)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der Rechengang vereinfacht sich, wenn die $(k \times n)$ &amp;amp;ndash;Generatormatrix in systematischer Form vorliegt: &amp;amp;nbsp; $ \boldsymbol{\rm G_{sys}} =\left({ \boldsymbol{\rm I}}_k \: ; \: { \boldsymbol{\rm P}}\right).$ Dann folgt aus $\boldsymbol{\rm H} \cdot \boldsymbol{\rm G}^{\rm T} = \boldsymbol{\rm 0}$ für die  $(m \times n)$&amp;amp;ndash;Prüfmatrix mit $m = n-k$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} =\left(-{ \boldsymbol{\rm P}}^{\rm T}  \: ; \: { \boldsymbol{\rm I}}_m \right)&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Diese Gleichung gilt allgemein, also auch im nichtbinären Fall. Da wir uns im gesamten ersten Hauptkapitel auf binäre Codes beschränken &amp;amp;#8658; &amp;amp;nbsp; $\mathcal{C} \in \text{GF}(2^n)$, gilt $-\boldsymbol{\rm P} = +\boldsymbol{\rm P}$, und man erhält die Form, die wir im Weiteren verwenden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} =\left(-{ \boldsymbol{\rm P}}^{\rm T}  \: ; \: { \boldsymbol{\rm I}}_m \right)&lt;br /&gt;
= \left [ \left({ \boldsymbol{\rm P}}^{\rm T}  \: ; \: { \boldsymbol{\rm I}}_m \right)\right ]_{{\rm bin\ddot{a}r}} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 8:}$&amp;amp;nbsp; Wir betrachten weiterhin den beispielhaften  (5,&amp;amp;nbsp;3)&amp;amp;ndash;Blockcode,  gehen aber nun von der systematischen Generatormatrix $\boldsymbol{\rm G}_{\rm sys}$ aus, die wir im  [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Identische_Codes|Beispiel 5]] ermittelt haben:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; \boldsymbol{\rm G_{sys} } = \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix} =\left({ \boldsymbol{\rm I} }_3 \: ; \: { \boldsymbol{\rm P} }\right)&lt;br /&gt;
\hspace{0.3cm} \Rightarrow&lt;br /&gt;
\hspace{0.3cm} { \boldsymbol{\rm I_3} }= \begin{pmatrix}&lt;br /&gt;
		 1 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		 0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		 0 &amp;amp;0 &amp;amp;1  &lt;br /&gt;
	\end{pmatrix}, &lt;br /&gt;
\hspace{0.3cm} { \boldsymbol{\rm P} }= \begin{pmatrix}&lt;br /&gt;
		0 &amp;amp;1 \\&lt;br /&gt;
		1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;0  &lt;br /&gt;
	\end{pmatrix} &lt;br /&gt;
\hspace{0.3cm}\Rightarrow\hspace{0.3cm}&lt;br /&gt;
	{ \boldsymbol{\rm P}^{\rm T} } = \begin{pmatrix}&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0&lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit erhält man für die Prüfmatrix&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H} } =\left({ \boldsymbol{\rm P} }^{\rm T}  \: ; \: { \boldsymbol{\rm I} }_2 \right)&lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1&lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
	\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
und es ergibt sich folgende Codetabelle:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_0 = (0, 0, 0)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_0 = &lt;br /&gt;
(0, 0, 0, 0, 0) \hspace{0.05cm},\hspace{0.8cm}\underline{u}_4 = (1, 0, 0)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_4 = &lt;br /&gt;
(1, 0, 0, 0, 1) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_1 = (0, 0, 1)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_1 = &lt;br /&gt;
(0, 0, 1, 0, 0) \hspace{0.05cm},\hspace{0.8cm}\underline{u}_5 =(1, 0, 1)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_5 = &lt;br /&gt;
(1, 0, 1, 0, 1)\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_2 =(0, 1, 0)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_2 = &lt;br /&gt;
(0, 1, 0, 1, 0) \hspace{0.05cm},\hspace{0.8cm}\underline{u}_6 =(1, 1, 0)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_6 = &lt;br /&gt;
(1, 1, 0, 1, 1)\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_3 = (0, 1, 1)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_3 = &lt;br /&gt;
(0, 1, 1, 1, 0) \hspace{0.05cm},\hspace{0.8cm}\underline{u}_7 = (1, 1, 1)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_7 = &lt;br /&gt;
(1, 1, 1, 1, 1) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zusammen mit dem Vektor $\underline{x} = (u_1, u_2, u_3, p_1, p_2) =  (x_1, x_2, x_3, x_4, x_5)$ lauten dann die Prüfbits:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p_1 = u_2	\hspace{0.05cm},\hspace{0.2cm}p_2 = u_1	\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
und die entsprechenden Prüfgleichungen des Decoders:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;x_2 + x_4 = 0	\hspace{0.05cm},\hspace{0.2cm}x_1 + x_5 = 0	\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus diesen Gleichungen und auch aus obiger Codetabelle: &lt;br /&gt;
*Dieser Code bietet gegenüber einem Übertragungsfehler hinsichtlich des dritten Bits $(x_3 = u_3)$ keinen Schutz. &lt;br /&gt;
*Damit ist natürlich weder eine Fehlererkennung und noch weniger Fehlerkorrektur möglich. &lt;br /&gt;
*Gleiches gilt aber auch für den nichtsystematischen Code auf der letzten Seite.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Darstellung von SPC und RC als duale Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Nun sollen für die bereits im Kapitel  [[Kanalcodierung/Beispiele_bin%C3%A4rer_BlockcodesBeispiele binärer Blockcodes]] behandelten Codes noch jeweils die Generatormatrix $\boldsymbol{\rm G}$ und die Prüfmatrix $\boldsymbol{\rm H}$ angegeben werden. Die Codelänge sei für die folgenden Beispiele stets $n = 5$, doch lassen sich die Ergebnisse auch für andere Codelängen in gleicher Weise interpretieren. Es gilt für&lt;br /&gt;
*den [[Kanalcodierung/Beispiele_bin%C3%A4rer_Blockcodes#Single_Parity.E2.80.93check_Codes|Single&amp;amp;ndash;Parity&amp;amp;ndash;check Code]] &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; SPC (5, 4):&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} &lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
	 1 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;1&lt;br /&gt;
	\end{pmatrix} &lt;br /&gt;
	\hspace{0.05cm},\hspace{0.5cm}{ \boldsymbol{\rm G}}&lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;0 &amp;amp;1 &amp;amp;1&lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
	\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*den [[Kanalcodierung/Beispiele_bin%C3%A4rer_Blockcodes#Wiederholungscodes|Wiederholungscode]] (&amp;lt;i&amp;gt;Repetition Code&amp;lt;/i&amp;gt;) &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; RC (5,1):&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm G}} &lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
	 1 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;1&lt;br /&gt;
	\end{pmatrix} &lt;br /&gt;
	\hspace{0.05cm},\hspace{0.5cm}{ \boldsymbol{\rm H}}&lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;0 &amp;amp;1 &amp;amp;1&lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
	\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die jeweils erste Gleichung lässt sich einfach aus der jeweiligen Definition herleiten und die abgeleitete Gleichung folgt aus der Beziehung $\boldsymbol{\rm H} \cdot \boldsymbol{\rm G}^{\rm T} = \boldsymbol{\rm 0}$. Aus den obigen Matrizen kann verallgemeinert werden:&lt;br /&gt;
*Die Generatormatrix des RC (5, 1) ist identisch mit der Prüfmatrix des SPC (5, 4). Es handelt sich jeweils um $(5 \times 1)$&amp;amp;ndash;Matrizen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Prüfmatrix des RC (5, 1) ist identisch mit der Generatormatrix des SPC (5, 4). Diese beiden Matrizen haben jeweils 5 Spalten und 4 Zeilen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Dieser Sachverhalt ergibt sich, weil es sich hier um '''duale Codes'''  handelt. Zur Erklärung benötigen wir noch zwei Definitionen:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Zwei lineare Codes $\mathcal{C}$ und $\mathcal{C}'$, beide aus ${\rm GF}(2^n)$, sind ''orthogonal'', wenn alle Codeworte $\underline{x} \in \mathcal{C}$ zu allen Codeworten $\underline{x}' \in \mathcal{C}'$ orthogonal sind. Man bezeichnet dann $\mathcal{C}$ und $\mathcal{C}'$ als '''duale Codes'''.}}&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Zwei Codeworte $\underline{x} \in{\rm GF}(2^n)$ und $\underline{x} \in {\rm GF}(2^n)$ sind immer dann zueinander '''orthogonal''', wenn das [[Digitalsignalübertragung/Signale,_Basisfunktionen_und_Vektorräume#Zur_Nomenklatur_im_vierten_Kapitel|innere Produkt]] verschwindet:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\left \langle \underline{x} \cdot \underline{x}' \right \rangle =   \sum_{i=1  }^{n} x_i \cdot x_i' = 0 \hspace{0.05cm}, \hspace{0.5cm}&lt;br /&gt;
\left \langle \underline{x} \cdot \underline{x}' \right \rangle \in {\rm GF}(2^n)&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wegen der Produktbildung in ${\rm GF}(2^n)$ sind auch folgende Codewort&amp;amp;ndash;Paare zueinander orthogonal:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\left \langle \hspace{0.05cm}(0, 1, 1, 0) \hspace{0.05cm}, \hspace{0.2cm} (1, 1, 1, 0) \hspace{0.05cm} \right \rangle = 0\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
\left \langle \hspace{0.1cm}(0, 1, 1, 0) \hspace{0.05cm}, \hspace{0.2cm} (0, 1, 1, 0) \hspace{0.1cm}\right \rangle = 0\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der Code $\mathcal{C}$ spannt einen $k$&amp;amp;ndash;dimensionalen Untervektorraum in ${\rm GF}(2^n)$ auf. Der Untervektorraum des dualen Codes $\mathcal{C}'$ ist zu diesem orthogonal und weist die Dimension $n-k$ auf. Damit gilt: &amp;amp;nbsp; ${\rm dim} \{ \mathcal{C} \} + {\rm dim} \{ \mathcal{C}' \} = n\hspace{0.05cm}.$&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einige Eigenschaften des (7, 4, 3)–Hamming–Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Fassen wir die bisherigen Ergebnisse dieses Kapitels am Beispiel des systematischen Hamming&amp;amp;ndash;Codes nochmals zusammen, der bereits im Kapitel [[Kanalcodierung/Beispiele_bin%C3%A4rer_Blockcodes#Hamming.E2.80.93Codes|Beispiele binärer Blockcodes]] ausführlich beschrieben wurde. Dieser (7,&amp;amp;nbsp;4,&amp;amp;nbsp;3)&amp;amp;ndash;Code ist gekennzeichnet durch&lt;br /&gt;
[[File:P ID2359 KC T 1 4 S7.png|right|frame|Codeworte des (7, 4, 3)–Hamming–Codes|class=fit]]&lt;br /&gt;
*die Anzahl der Prüfgleichungen $m = 3$,&amp;lt;br&amp;gt;&lt;br /&gt;
*die Codelänge $n = 2^m-1 = 7$,&amp;lt;br&amp;gt;&lt;br /&gt;
*die Informationswortlänge $k = n-m = 4$,&amp;lt;br&amp;gt;&lt;br /&gt;
*die Anzahl $2^k =16$ der Codeworte (Dimension),&amp;lt;br&amp;gt;&lt;br /&gt;
*die Rate $R= k/n = 4/7$,&amp;lt;br&amp;gt;&lt;br /&gt;
*die minimale Distanz $d_{\rm min} = 3$ (unabhängig von $m$, $n$ und$k$).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
In obiger Tabelle sind die $2^4 = 16$ Codeworte angegeben ( schwarz: vier Informationsbits, rot: dreiPrüfbits). &lt;br /&gt;
&lt;br /&gt;
Man erkennt daraus:&lt;br /&gt;
*Der Code  beinhaltet sowohl das Null&amp;amp;ndash;Wort $(0000000)$ als auch das Eins&amp;gt;&amp;amp;ndash;Wort  $(1111111)$.&lt;br /&gt;
*Es gibt sieben Codeworte, die sich aus $(0001011)$ jeweils durch zyklische Verschiebung ergeben (alle gelb hinterlegt).&lt;br /&gt;
*Es gibt sieben Codeworte, die sich aus $(0011101)$ jeweils durch zyklische Verschiebung ergeben (alle grün hinterlegt).&lt;br /&gt;
*Zu jedem Codewort  existiert auch das &amp;amp;bdquo;negierte&amp;amp;rdquo; Codewort, zum Beispiel gibt es neben $(0001011)$ auch das Codewort $(1110100)$.&lt;br /&gt;
*Die Prüfmatrix kann wie folgt geschrieben werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} =  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp;1&lt;br /&gt;
	\end{pmatrix}=\left({ \boldsymbol{\rm P}}^{\rm T}  \: ; \: { \boldsymbol{\rm I}}_3 \right)\hspace{0.8cm}&lt;br /&gt;
\Rightarrow\hspace{0.8cm}{ \boldsymbol{\rm P}}^{\rm T} =  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;1 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;1 &amp;amp;1 \\&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm},\hspace{0.2cm}{ \boldsymbol{\rm I}}_3  &lt;br /&gt;
	=  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0  \\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dementsprechend gilt für die Generatormatrix:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm G}} =\left({ \boldsymbol{\rm I}}_4 \: ; \: { \boldsymbol{\rm P}}\right)&lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp;1 &amp;amp;1 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;1&lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:1.07_Prüfmatrix_und_Generatormatrix_des_HC_(7,_4,_3)|Aufgabe 1.7:  Prüfmatrix und Generatormatrix des HC (7, 4, 3)]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.07Z_Klassifizierung_von_Blockcodes|Zusatzaufgaben 1.7: Klassifizierung von Blockcodes]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.08_Identische_Codes|Aufgabe 1.8: Identische Codes]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.08Z_Äquivalente_Codes|Zusatzaufgaben 1.8: Äquivalente Codes]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.09_Erweiterter_Hamming–Code|Aufgabe 1.9: Erweiterter Hamming–Code]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.09Z_Erweiterung_–_Punktierung|Zusatzaufgaben 1.9: Erweiterung – Punktierung]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.10_Einige_Generatormatrizen|Aufgabe 1.10: Einige Generatormatrizen]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/General_Description_of_Linear_Block_Codes&amp;diff=21274</id>
		<title>Channel Coding/General Description of Linear Block Codes</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/General_Description_of_Linear_Block_Codes&amp;diff=21274"/>
		<updated>2018-01-02T18:47:48Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Binäre Blockcodes zur Kanalcodierung&lt;br /&gt;
|Vorherige Seite=Beispiele binärer Blockcodes&lt;br /&gt;
|Nächste Seite=Decodierung linearer Blockcodes&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Lineare Codes und zyklische Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Alle bisher behandelten Codes &lt;br /&gt;
*&amp;lt;i&amp;gt;Single Parity&amp;amp;ndash;check Code&amp;lt;/i&amp;gt;, &lt;br /&gt;
*&amp;lt;i&amp;gt;Repetition Code&amp;lt;/i&amp;gt;,&lt;br /&gt;
* &amp;lt;i&amp;gt;Hamming&amp;amp;ndash;Code&amp;lt;/i&amp;gt;&lt;br /&gt;
&lt;br /&gt;
sind linear. Nun wird die für binäre Blockcodes gültige Definition von Linearität nachgereicht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ein '''linearer binärer Blockcode''' $\mathcal{C}$ ist ein Satz von $2^k$ Codeworten $\underline{x}= (x_1, x_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, x_n)$, wobei die (Modulo&amp;amp;ndash;2)&amp;amp;ndash;Summe zweier beliebiger Codeworte $\underline{x}$ und $\underline{x}'$ wiederum ein gültiges Codewort ergibt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{x}, \underline{x}\hspace{0.05cm}' \in {\rm GF}(2^n),\hspace{0.3cm} \underline{x}, \underline{x}\hspace{0.05cm}' \in  \mathcal{C} &lt;br /&gt;
 \hspace{0.3cm} \Rightarrow \hspace{0.3cm}\underline{x} + \underline{x}\hspace{0.05cm}' \in  \mathcal{C}&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Diese Bedingung muss auch für $\underline{x} = \underline{x}'$ erfüllt sein.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;i&amp;gt;Hinweis:&amp;lt;/i&amp;gt; Die Modulo&amp;amp;ndash;Addition wird für den Rest dieses Buches zur Vereinfachung der Schreibweise nicht mehr durch das Modulo&amp;amp;ndash;Additionszeichen ausgedrückt, sondern mit dem herkömmlichen Pluszeichen.}} &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; Wir betrachten zwei (3, 2)&amp;amp;ndash;Blockcodes:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C}_1 = \{ (0, 0, 0) \hspace{0.05cm}, (0, 1, 1) \hspace{0.05cm},(1, 0, 1) \hspace{0.05cm},(1, 1, 0) \}\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C}_2 = \{ (0, 0, 0) \hspace{0.05cm}, (0, 1, 1) \hspace{0.05cm},(1, 1, 0) \hspace{0.05cm},(1, 1, 1) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Man erkennt:&lt;br /&gt;
*Der Code $\mathcal{C}_1$ ist linear, da die Modulo&amp;amp;ndash;2&amp;amp;ndash;Addition zweier beliebiger Codeworte stets auch ein gültiges Codewort ergibt, zum Beispiel $(0, 1, 1) + (1, 0, 1) = (1, 1, 0)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die obige Definition gilt auch für die Modulo&amp;amp;ndash;2&amp;amp;ndash;Addition eines Codewortes mit sich selbst, zum Beispiel $(0, 1, 1) + (0, 1, 1) = (0, 0, 0)$ &amp;amp;nbsp;&amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp;&amp;amp;nbsp; Jeder lineare Code beinhaltet das Nullwort $\underline{0}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Obwohl die letzte Voraussetzung erfüllt wird, ist $\mathcal{C}_2$ kein linearer Code. Für diesen Code gilt nämlich beispielsweise:  $(0, 1, 1) + (1, 1, 0) = (1, 0, 1)$. Dies ist kein gültiges Codewort von $\mathcal{C}_2$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Folgenden beschränken wir uns ausschließlich auf lineare Codes, da nichtlineare Codes für die Praxis von untergeordneter Bedeutung sind.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ein linearer Blockcode $\mathcal{C}$ heißt '''zyklisch''', wenn eine jede zyklische Verschiebung eines Codewortes $\underline{x}$ (nach links oder rechts) wieder ein gültiges Codewort ergibt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{x}= (x_1, x_2, ... \hspace{0.05cm}, x_n) \in   \mathcal{C} &lt;br /&gt;
 \hspace{0.3cm} \Rightarrow \hspace{0.3cm}\underline{x}\hspace{0.05cm}'= (x_n, x_1,  ... \hspace{0.05cm}, x_{n-1}) \in   \mathcal{C}&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2354 KC T 1 3 S3c.png|right|frame|Codetabelle des systematischen (7, 4, 3)–Hamming–Codes&amp;lt;br&amp;gt;&lt;br /&gt;
schwarz: $k= 4$ Informationsbits, rot: $n-k = 3$ Prüfbits ]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp; &lt;br /&gt;
*Man erkennt aus der Tabelle für den [[Kanalcodierung/Beispiele_binärer_Blockcodes#Hamming.E2.80.93Codes|(7, 4, 3)&amp;amp;ndash;Hamming&amp;amp;ndash;Code]] , dass dieser linear und zyklisch ist.&lt;br /&gt;
*Es ergibt sich auch dann ein gültiges Codewort, wenn man alle Bit invertiert: $0 &amp;amp;#8596; 1$. &lt;br /&gt;
*Auch das $\underline{0}$&amp;amp;ndash;Wort ($n$ mal eine &amp;amp;bdquo;Null&amp;amp;rdquo;) und das $\underline{1}$&amp;amp;ndash;Wort ($n$ mal eine &amp;amp;bdquo;Eins&amp;amp;rdquo;) sind bei diesem Code zulässig.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Codefestlegung durch die Prüfmatrix ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:P ID2355 KC T 1 3 S3.png|right|frame|(7, 4, 3)–Hamming–Code]]&lt;br /&gt;
Wir betrachten den [[Kanalcodierung/Beispiele_binärer_Blockcodes#Hamming.E2.80.93Codes|(7, 4, 3)&amp;amp;ndash;Hamming&amp;amp;ndash;Code]] mit Codeworten $\underline{x}$ der Länge $n=7$, nämlich&lt;br /&gt;
*den $k = 4$ Informationsbits $x_1$&amp;gt;, $x_2$, $x_3$, $x_4$ , und&amp;lt;br&amp;gt;&lt;br /&gt;
*den  $m = 3$ Prüfbits $x_5$, $x_6$, $x_7$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Paritätsgleichungen lauten somit:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;x_1 + x_2 + x_3 + x_5    \hspace{-0.1cm} =  \hspace{-0.1cm} 0 \hspace{0.05cm},\hspace{0.5cm}&lt;br /&gt;
x_2 + x_3 + x_4 + x_6    \hspace{-0.1cm} =  \hspace{-0.1cm} 0 \hspace{0.05cm},\hspace{0.05cm}&lt;br /&gt;
x_1 + x_2 + x_4 + x_7    \hspace{-0.1cm} =  \hspace{-0.1cm}  0 \hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In Matrixschreibweise lautet dieser Gleichungssatz:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} \cdot \underline{x}^{\rm T}= \underline{0}^{\rm T} &lt;br /&gt;
 \hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In dieser Gleichung werden verwendet:&lt;br /&gt;
*die '''Prüfmatrix''' ${ \boldsymbol{\rm H}}$  mit $m = n-k = 3$ Zeilen und $n = 7$ Spalten:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} = \begin{pmatrix}&lt;br /&gt;
        1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp; 0 &amp;amp; 0\\&lt;br /&gt;
        0 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &amp;amp; 1 &amp;amp; 0\\&lt;br /&gt;
        1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp; 0 &amp;amp; 1&lt;br /&gt;
      \end{pmatrix}\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*das ''Codewort'' $\underline{x}= (x_1, x_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, x_7)$ der Länge $n = 7$,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*das ''Nullvektor'' $\underline{0} = (0, 0, 0)$ der Länge $m = 3$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Durch Transponieren werden aus den ''Zeilenvektoren'' $\underline{x}$ und $\underline{0}$ die entsprechenden ''Spaltenvektoren'' $\underline{x}^{\rm T}$ und $\underline{0}^{\rm T}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2356 KC T 1 4 S2.png|right|frame|(6, 3, 3)–Blockcode]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; Die Grafik illustriert die $m = 3$ Paritätsgleichungen eines Codes $\mathcal{C}$ mit den Codeparametern $n = 6$ und $k = 3$  in der Reihenfolge rot, grün und blau. Es handelt sich also nicht um einen Hamming–Code.&lt;br /&gt;
&lt;br /&gt;
Entsprechend $\boldsymbol{\rm H} \cdot \underline{x}^{\rm T}= \underline{0}^{\rm T}$ lautet die Prüfmatrix:&lt;br /&gt;
::&amp;lt;math&amp;gt; \boldsymbol{\rm H} = \begin{pmatrix}&lt;br /&gt;
			1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp; 0\\&lt;br /&gt;
			1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp; 0\\&lt;br /&gt;
			0 &amp;amp;1 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp; 1&lt;br /&gt;
      	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die $2^k = 8$ Codeworte bei systematischer Realisierung lauten (mit den Prüfbits rechts vom kleinen Pfeil):&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\underline{x}_0 = (0, 0, 0_{\hspace{0.01cm} \rightarrow} 0, 0, 0)\hspace{0.05cm}, \hspace{0.5cm} \underline{x}_1 = (0, 0, 1_{\hspace{0.01cm} \rightarrow}0, 1, 1)\hspace{0.05cm},\hspace{0.5cm} &lt;br /&gt;
\underline{x}_2 = (0, 1, 0_{\hspace{0.01cm} \rightarrow}1, 0, 1)\hspace{0.05cm},\hspace{0.5cm}\underline{x}_3 = (0, 1, 1_{\hspace{0.01cm} \rightarrow}1, 1, 0)\hspace{0.05cm}, &amp;lt;/math&amp;gt;&lt;br /&gt;
:&amp;lt;math&amp;gt;\underline{x}_4 = (1, 0, 0_{\hspace{0.01cm} \rightarrow} 1, 1, 0)\hspace{0.05cm}, \hspace{0.5cm} \underline{x}_5 = (1, 0, 1_{\hspace{0.01cm} \rightarrow}1, 0, 1)\hspace{0.05cm},\hspace{0.5cm} &lt;br /&gt;
\underline{x}_6 = (1, 1, 0_{\hspace{0.01cm} \rightarrow}0, 1, 1)\hspace{0.05cm}, \hspace{0.2cm} \underline{x}_7 = (1, 1, 1_{\hspace{0.01cm} \rightarrow}0, 0, 0)\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus diesen Angaben:&lt;br /&gt;
*Die Spaltenanzahl  $\boldsymbol{\rm H}$ ist gleich der Codelänge $n$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Zeilenanzahl von $\boldsymbol{\rm H}$ ist gleich der Anzahl $m = n-k$ der Prüfgleichungen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Aus $\boldsymbol{\rm H} \cdot \underline{x}^{\rm T}= \underline{0}^{\rm T} $ folgt nicht, dass alle Codeworte eine gerade Anzahl von Einsen beinhalten.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Codefestlegung durch die Generatormatrix ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Prüfmatrix $\boldsymbol{\rm H}$  eines $(n, k)$)&amp;amp;ndash;Blockcodes hat $m = n-k$ Zeilen und $n$ Spalten. Den gleichen Code kann man aber auch durch die $\boldsymbol{\rm G}$ mit ebenfalls $n$ Spalten, aber $k$ Zeilen beschreiben:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ein linearer binärer Blockcode $\mathcal{C}$ kann durch die '''Prüfmatrix''' $\boldsymbol{\rm H}$ bzw. mit der '''Generatormatrix''' $\boldsymbol{\rm G}$ wie folgt charakterisiert werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C} = \{ \underline{x} \in {\rm GF}(2^n)\text{:} \hspace{0.2cm}{ \boldsymbol{\rm H} } \cdot \underline{x}^{\rm T}= \underline{0}^{\rm T} \}\hspace{0.05cm},&amp;lt;/math&amp;gt; &lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C} = \{ \underline{x} \in {\rm GF}(2^n)\hspace{0.05cm}, \hspace{0.1cm}\underline{u} \in {\rm GF}(2^k)\text{:}&lt;br /&gt;
\hspace{0.2cm}\underline{x} = \underline{u} \cdot { \boldsymbol{\rm G} }  \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Bevor wir uns den Eigenschaften der Generatormatrix zuwenden, beschreiben wir an einem Beispiel die Erzeugung der Codeworte.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Wir betrachten einen linearen $(5, 3)$&amp;amp;ndash;Blockcode mit der Generatormatrix&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt; \boldsymbol{\rm G} = \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
	=&lt;br /&gt;
	\begin{pmatrix}&lt;br /&gt;
		\underline{g}_1\\&lt;br /&gt;
		\underline{g}_2\\&lt;br /&gt;
		\underline{g}_3\\&lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit werden die Informationsworte $\underline{u}= (u_1, u_2, u_3)$  den Codeworten $\underline{x}= (x_1, x_2, x_3, x_4, x_5)$ gemäß der folgenden Tabelle mit acht Einträgen zugeordnet. Es gilt $\underline{x} = \underline{u} \cdot  \boldsymbol{\rm G}$.&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_0 = (0, 0, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_0 = (0, 0, 0, 0, 0) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_1 = (0, 0, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_1 = (0, 1, 1, 1, 0) \hspace{0.1cm}= \hspace{0.1cm}\underline{g}_3\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_2 = (0, 1, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_2 = (0, 1, 0, 1, 0)\hspace{0.1cm}= \hspace{0.1cm} \underline{g}_2\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_3 = (0, 1, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_3 = (0, 0, 1, 0, 0) \hspace{0.1cm}= \hspace{0.1cm} \underline{g}_2+\underline{g}_3\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_4 = (1, 0, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_4 = (1, 1, 0, 1, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{g}_1 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_5 =(1, 0, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_5 = (1, 0, 1, 0, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{g}_1+\underline{g}_3\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_6 = (1, 1, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_6 = (1, 0, 0, 0, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{g}_1+\underline{g}_2\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_7 =(1, 1, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_7 = (1, 1, 1, 1, 1) \hspace{0.1cm}= \hspace{0.1cm} \underline{g}_1+ \underline{g}_2+\underline{g}_3\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
''Anmerkungen'':&lt;br /&gt;
*Die hier zur Berechnung herangezogenen Basisvektoren $\underline{g}_1$, $\underline{g}_2$ und  $\underline{g}_3$ &amp;amp;ndash; jeweils mit der Länge $n = 5$ &amp;amp;ndash; entsprechen den $k = 3$ Zeilen der Generatormatrix $\boldsymbol{\rm G}$. &lt;br /&gt;
*Dieser Code ist wegen $d_{\rm min} = 1$ weder zur Fehlerkorrektur noch zur Fehlererkennung geeignet ist. Trotzdem wird er auch auf den nächsten Seiten beispielhaft weiter betrachtet.&amp;lt;br&amp;gt;&lt;br /&gt;
* Wir möchten Sie an dieser Stelle auf das Applet [[Gram&amp;amp;ndash;Schmidt&amp;amp;ndash;Verfahren]] zum Buch &amp;amp;bdquo;Digitalsignalübertragung&amp;amp;rdquo; aufmerksam machen, das die Berechnung von Basisfunktionen vermittelt, wenn auch in völlig anderem Zusammenhang als im hier gebrauchten Zusammenhang.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Identische Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die im Beispiel 4 auf der letzten Seite verwendeten Vektoren $\underline{g}_1$, $\underline{g}_2$, ... , $\underline{g}_k$ sind die [[Digitalsignal%C3%BCbertragung/Signale,_Basisfunktionen_und_Vektorr%C3%A4ume#Orthonormale_Basisfunktionen| Basisvektoren]] des linearen Blockcodes $\mathcal{C}$. Der Code selbst kann als $k$&amp;amp;ndash;dimensionaler &amp;lt;i&amp;gt;Untervektorraum&amp;lt;/i&amp;gt; von $\text{GF}(2^n)$ angesehen werden. Die Basisvektoren $\underline{g}_1$, $\underline{g}_2$, ... , $\underline{g}_k$ sind linear unabhängig.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der Untervektorraum $\mathcal{C}$ wird aber nicht nur durch die Basisvektoren&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{g}_1 = (1, 1, 0, 1, 1) \hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
\underline{g}_2 = (0, 1, 0, 1, 0) \hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
\underline{g}_3 = (0, 1, 1, 1, 0) \hspace{0.05cm}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
aufgespannt, sondern andere Basisvektoren $\underline{g}_1'$, $\underline{g}_2'$ und $\underline{g}_3'$ sind ebenso geeignet, so lange zwischen diesen die lineare Unabhängigkeit gewährleistet ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 5:}$&amp;amp;nbsp; Wir vergleichen den Code $\mathcal{C}$ von Beispiel 4 mit einem zweiten Code $\mathcal{C}'$.  Die Generatormatrizen lauten:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; \boldsymbol{\rm G} = \begin{pmatrix}&lt;br /&gt;
		\underline{g}_1\\&lt;br /&gt;
		\underline{g}_2\\&lt;br /&gt;
		\underline{g}_3\\&lt;br /&gt;
	\end{pmatrix}=&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
	 \boldsymbol{\rm G}\hspace{0.05cm}' = \begin{pmatrix}&lt;br /&gt;
		\underline{g}\hspace{0.05cm}'_1\\&lt;br /&gt;
		\underline{g}\hspace{0.05cm}'_2\\&lt;br /&gt;
		\underline{g}\hspace{0.05cm}'_3\\&lt;br /&gt;
	\end{pmatrix}=&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die beiden Codes sind identisch: Sie beinhalten die genau gleichen Codeworte; es gilt nur eine andere Zuordnung. Bei dem Übergang von $\boldsymbol{\rm G}$ auf $\boldsymbol{\rm G}'$ wurden folgende erlaubte Operationen ausgeführt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{g}\hspace{0.05cm}'_1 = \underline{g}_1 + \underline{g}_2  \hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
\underline{g}\hspace{0.05cm}'_2 = \underline{g}_2  \hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
\underline{g}\hspace{0.05cm}'_3 = \underline{g}_2 + \underline{g}_3 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zum entsprechenden Code $\mathcal{C}'$ kommt man mit der Gleichung $\underline{x}' = \underline{u} \cdot  \boldsymbol{\rm G}'$.&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_0 = (0, 0, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_0 = &lt;br /&gt;
(0, 0, 0, 0, 0) \hspace{0.1cm}= \hspace{0.1cm} \underline{x}_0 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_1 = (0, 0, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_1 = &lt;br /&gt;
(0, 0, 1, 0, 0) \hspace{0.1cm}= \hspace{0.1cm}\underline{x}_3\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_2 \hspace{-0.15cm} =  \hspace{-0.15cm} (0, 1, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_2 = &lt;br /&gt;
(0, 1, 0, 1, 0) \hspace{0.1cm}= \hspace{0.1cm} \underline{x}_2\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_3 = (0, 1, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_3 = &lt;br /&gt;
(0, 1, 1, 1, 0) \hspace{0.1cm}= \hspace{0.1cm} \underline{x}_1\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_4 = (1, 0, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_4 = &lt;br /&gt;
(1, 0, 0, 0, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{x}_6 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_5 =(1, 0, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_5 = &lt;br /&gt;
(1, 0, 1, 0, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{x}_5\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_6 = (1, 1, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_6 = &lt;br /&gt;
(1, 1, 0, 1, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{x}_4\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_7 = (1, 1, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_7 = &lt;br /&gt;
(1, 1, 1, 1, 1) \hspace{0.1cm}= \hspace{0.1cm} \underline{x}_7\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die entsprechenden Codeworte $\underline{x}_i = \underline{u}_i \cdot  \boldsymbol{\rm G}$ des odes $\mathcal{C}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; Generatormatrix  $\boldsymbol{\rm G}$ sind im  [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Generatormatrix|Beispiel 4]] (vorherige Seite) angegeben.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; Die Codetabellen von Beispiel 4 und Beispiel 5 machen deutlich:&lt;br /&gt;
*$\mathcal{C}$ und $\mathcal{C}'$ beinhalten die genau gleichen Codeworte. Sie sind damit &amp;lt;i&amp;gt;identische Codes&amp;lt;/i&amp;gt; und besitzen beide die gleiche Korrekturfähigkeit (siehe nächste Seite).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*$\mathcal{C}'$ ist aber nun ein ''systematischer Code'', da die ersten $k$ Binärstellen eines jeden Codewortes $\underline{x}'_i$ mit den Binärstellen des Informationswortes $\underline{u}$  übereinstimmen.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Systematische Codes==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Eigenschaft &amp;amp;bdquo;systematisch&amp;amp;rdquo; soll nun noch in mathematischer Form angegeben werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Bei einem '''systematischen (n, k)&amp;amp;ndash;Blockcode''' $\mathcal{C}$ beinhaltet jedes Codewort $\underline{x}$ explizit das Informationswort $\underline{u}$. &lt;br /&gt;
*Das heißt, es gilt:&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u} =  (u_1, u_2, ... \hspace{0.05cm}, u_k) \hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm} = &lt;br /&gt;
(u_1, u_2, ... \hspace{0.05cm}, u_k, x_{k+1}, ... \hspace{0.05cm}, x_n)\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Generatormatrix hat in diesem Fall die Form $\boldsymbol{\rm G_{\rm sys} } =\left({ \boldsymbol{\rm I}_{\rm k} \ ; \{ \boldsymbol{\rm P} }\right)$ mit der $k&amp;amp;times;k$&amp;amp;ndash;Einheitsmatrix $\boldsymbol{\rm I}_{\rm k}$ und einer geeignet zu wählenden $(n-1)&amp;amp;times;k$&amp;amp;ndash;Matrix $\boldsymbol{\rm P}$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für das Beispiel 5 auf der letzten Seite kann also auch geschrieben werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; \boldsymbol{\rm G_{sys}} =\left({ \boldsymbol{\rm I}}_3 \: ; \: { \boldsymbol{\rm P}}\right)\hspace{0.3cm}{\rm mit}\hspace{0.3cm}&lt;br /&gt;
{ \boldsymbol{\rm I_{3}}} = \begin{pmatrix} &lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1  &lt;br /&gt;
	\end{pmatrix}\hspace{0.3cm}{\rm und}\hspace{0.3cm}&lt;br /&gt;
	{ \boldsymbol{\rm P}} = \begin{pmatrix} &lt;br /&gt;
		0 &amp;amp;1  \\&lt;br /&gt;
		1 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;0&lt;br /&gt;
		\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Erfreulich aus Sicht der Kanalcodierung ist, dass für jeden Code $\mathcal{C}$ ein systematischer (identischer oder zumindest äquivalenter) Code $\mathcal{C}_{\rm sys}$ gefunden werden kann.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Beim '''identischen systematischen Code''' beinhalten $\underline{x}$ und $\underline{x}_{\rm sys}$ die gleichen Codeworte, nur die Zuordnung $  &amp;amp;nbsp; &amp;amp;#8594; &amp;amp;nbsp; \underline{x}$ ist unterschiedlich. Man kommt durch folgende Manipulationen bezüglich $\boldsymbol{\rm G}$ von $\mathcal{C}$ zu $\mathcal{C}_{\rm sys}$:&lt;br /&gt;
*Vertauschen oder Permutieren der Zeilen,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Multiplizieren aller Zeilen mit einem konstanten Vektor ungleich $\underline{0}$,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ersetzen einer Zeile durch eine Linearkombination zwischen dieser Zeile und einer anderen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Ohne Beweis:}$&amp;amp;nbsp; Ein identischer systematischer Code $\mathcal{C}_{\rm sys}$ kann immer dann gefunden werden, wenn zu einer Generatormatrix $\boldsymbol{\rm G}$ eine Matrix $\boldsymbol{\rm A}$ existiert, so dass $\boldsymbol{\rm G}_{\rm sys} = \boldsymbol{\rm A} \cdot \boldsymbol{\rm G}$ gilt.}} &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ist dies nicht möglich, so findet man zumindest durch Vertauschen oder Permutieren der Spalten von $\boldsymbol{\rm G}$ einen '''äquivalenten systematischen Code''':&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C}_{\rm sys} = {\rm \pi} (\mathcal{C})\hspace{0.3cm}{\rm mit}\hspace{0.3cm}{\rm \pi}():\hspace{0.15cm}{\rm Permutationsoperator}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Codes $\mathcal{C}$ und $\mathcal{C}_{\rm sys}$ beinhalten dann zwar andere Codeworte, aber sie zeigen gleiche Eigenschaften. Beispielsweise weist $\mathcal{C}_{\rm sys}$ die gleiche minimale Hamming&amp;amp;ndash;Distanz $d_{\rm min}$ auf wie der Code $\mathcal{C}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 6:}$&amp;amp;nbsp; Wir betrachten die Generatormatrizen&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; \boldsymbol{\rm G} = \begin{pmatrix} &lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;1  &lt;br /&gt;
	\end{pmatrix}\hspace{0.3cm}{\rm und}\hspace{0.3cm}&lt;br /&gt;
	  \boldsymbol{\rm G_{sys} } = \begin{pmatrix} &lt;br /&gt;
		1 &amp;amp;0 &amp;amp;1 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1&lt;br /&gt;
		\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Analyse zeigt:&lt;br /&gt;
*Die zugehörigen Codes $\mathcal{C}$ und $\mathcal{C}_{\rm sys}$ beinhalten unterschiedliche Codeworte und sind somit auch &amp;lt;i&amp;gt;nicht identisch&amp;lt;/i&amp;gt;: &lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C} = \{ (0, 0, 0, 0) \hspace{0.05cm}, (0, 0, 1, 1) \hspace{0.05cm},(1, 1, 0, 0) \hspace{0.05cm},(1, 1, 1, 1) \}\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C}_{\rm sys}= \{ (0, 0, 0, 0) \hspace{0.05cm}, (0, 1, 0, 1) \hspace{0.05cm},(1, 0, 1, 0) \hspace{0.05cm},(1, 1, 1, 1) \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
*Aber sie sind &amp;lt;i&amp;gt;äquivalent&amp;lt;/i&amp;gt;: &amp;amp;nbsp; $\boldsymbol{\rm G}_{\rm sys}$  ergibt sich aus $\boldsymbol{\rm G}$}  durch Vertauschen der zweiten und dritten Spalte. &lt;br /&gt;
*Es handelt sich in beiden Fällen um einen (4, 2, 2)&amp;amp;ndash;Blockcode &amp;amp;nbsp;&amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp;&amp;amp;nbsp; $d_{\rm min} = 2$.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Zusammenhang zwischen Generator– und Prüfmatrix==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Zur Definition dieser beiden Beschreibungsmatrizen gehen wir von folgenden Gleichungen aus:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{x} = \underline{u} \cdot { \boldsymbol{\rm G}} \hspace{0.3cm} \Rightarrow \hspace{0.3cm} &lt;br /&gt;
\underline{x}^{\rm T} =  { \boldsymbol{\rm G}}^{\rm T} \cdot \underline{u}^{\rm T} \hspace{0.05cm}, \hspace{0.8cm}&lt;br /&gt;
{ \boldsymbol{\rm H}}  \cdot  \underline{x}^{\rm T} = { \boldsymbol{\rm 0}}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Verknüpft man diese zwei Gleichungen, so erhält man:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}}  \cdot  { \boldsymbol{\rm G}}^{\rm T} \cdot \underline{u}^{\rm T}  = \underline{0}\hspace{0.5cm}&lt;br /&gt;
 \forall \hspace{0.15cm}\underline{u} \in {\rm GF}(2^k)\hspace{0.3cm} &lt;br /&gt;
\Rightarrow \hspace{0.3cm} { \boldsymbol{\rm H}}  \cdot  { \boldsymbol{\rm G}}^{\rm T} = { \boldsymbol{\rm 0}} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Anzumerken ist, dass in diesen Gleichungen &lt;br /&gt;
*$\underline{0}$ einen Zeilenvektor mit $k$ Elementen bezeichnet&lt;br /&gt;
*$\boldsymbol{\rm 0}$ eine Matrix mit $m$ Zeilen und $k$ Spalten. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Alle Elemente von $\underline{0}$ und $\boldsymbol{\rm 0}$ sind identisch Null.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 7:}$&amp;amp;nbsp; Wir betrachten wie im [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Generatormatrix| Beispiel 3]] den (5, 3)&amp;amp;ndash;Blockcode&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathcal{C}  = \{  \hspace{0.15cm} (  \hspace{0.05cm}   0, 0, 0, 0, 0) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;  \hspace{0.6cm}(  \hspace{0.05cm}  0, 1, 1, 1, 0) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;  \hspace{0.6cm}( \hspace{0.05cm}0, 1, 0, 1, 0) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{0.6cm}( \hspace{0.05cm}0, 0, 1, 0, 0) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{0.6cm}( \hspace{0.05cm} 1, 1, 0, 1, 1) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{0.6cm}( \hspace{0.05cm}1, 0, 1, 0, 1) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{0.6cm}( \hspace{0.05cm}1, 0, 0, 0, 1) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{0.6cm}(\hspace{0.05cm}1, 1, 1, 1, 1) \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aus $n= 5$ und $k = 3$ folgt für die Anzahl der Prüfgleichungen $m = 2$. Durch Analyse der möglichen Codeworte erhält man folgende Ergebnisse:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;x_1 \oplus x_5 = 0 \hspace{0.05cm},\hspace{0.5cm}&lt;br /&gt;
x_2 \oplus x_4 = 0\hspace{1cm}&lt;br /&gt;
\Rightarrow \hspace{0.3cm}{ \boldsymbol{\rm H} } =  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0&lt;br /&gt;
	\end{pmatrix}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} { \boldsymbol{\rm H} }  \cdot  { \boldsymbol{\rm G} }^{\rm T} = &lt;br /&gt;
     \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0&lt;br /&gt;
	\end{pmatrix} &lt;br /&gt;
	\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;1 \\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 \\&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;1 \\&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
	=  \begin{pmatrix}&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Nullmatrix besteht hier aus $m = 2$ Zeilen und $k = 3$ Spalten. Beispielsweise gilt für das Element in der ersten Zeile und der ersten Spalte:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;1 \cdot 1 \hspace{0.05cm}\oplus \hspace{0.05cm}&lt;br /&gt;
0 \cdot 1 \hspace{0.05cm}\oplus \hspace{0.05cm}&lt;br /&gt;
0 \cdot 0 \hspace{0.05cm}\oplus \hspace{0.05cm}&lt;br /&gt;
0 \cdot 1 \hspace{0.05cm}\oplus \hspace{0.05cm}&lt;br /&gt;
1 \cdot 1  = 0&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Generatormatrix vs. Prüfmatrix bei systematischen Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Im allgemeinen Fall können $\boldsymbol{\rm G}$ und $\boldsymbol{\rm H}$  nicht direkt ineinander umgerechnet werden, schon allein aufgrund der unterschiedlichen Dimensionen von Generatormatrix  $(k \times n)$ und  Prüfmatrix $(m \times n)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der Rechengang vereinfacht sich, wenn die $(k \times n)$ &amp;amp;ndash;Generatormatrix in systematischer Form vorliegt: &amp;amp;nbsp; $ \boldsymbol{\rm G_{sys}} =\left({ \boldsymbol{\rm I}}_k \: ; \: { \boldsymbol{\rm P}}\right).$ Dann folgt aus $\boldsymbol{\rm H} \cdot \boldsymbol{\rm G}^{\rm T} = \boldsymbol{\rm 0}$ für die  $(m \times n)$&amp;amp;ndash;Prüfmatrix mit $m = n-k$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} =\left(-{ \boldsymbol{\rm P}}^{\rm T}  \: ; \: { \boldsymbol{\rm I}}_m \right)&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Diese Gleichung gilt allgemein, also auch im nichtbinären Fall. Da wir uns im gesamten ersten Hauptkapitel auf binäre Codes beschränken &amp;amp;#8658; &amp;amp;nbsp; $\mathcal{C} \in \text{GF}(2^n)$, gilt $-\boldsymbol{\rm P} = +\boldsymbol{\rm P}$, und man erhält die Form, die wir im Weiteren verwenden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} =\left(-{ \boldsymbol{\rm P}}^{\rm T}  \: ; \: { \boldsymbol{\rm I}}_m \right)&lt;br /&gt;
= \left [ \left({ \boldsymbol{\rm P}}^{\rm T}  \: ; \: { \boldsymbol{\rm I}}_m \right)\right ]_{{\rm bin\ddot{a}r}} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 8:}$&amp;amp;nbsp; Wir betrachten weiterhin den beispielhaften  (5,&amp;amp;nbsp;3)&amp;amp;ndash;Blockcode,  gehen aber nun von der systematischen Generatormatrix $\boldsymbol{\rm G}_{\rm sys}$ aus, die wir im  [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Identische_Codes|Beispiel 5]] ermittelt haben:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; \boldsymbol{\rm G_{sys} } = \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix} =\left({ \boldsymbol{\rm I} }_3 \: ; \: { \boldsymbol{\rm P} }\right)&lt;br /&gt;
\hspace{0.3cm} \Rightarrow&lt;br /&gt;
\hspace{0.3cm} { \boldsymbol{\rm I_3} }= \begin{pmatrix}&lt;br /&gt;
		 1 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		 0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		 0 &amp;amp;0 &amp;amp;1  &lt;br /&gt;
	\end{pmatrix}, &lt;br /&gt;
\hspace{0.3cm} { \boldsymbol{\rm P} }= \begin{pmatrix}&lt;br /&gt;
		0 &amp;amp;1 \\&lt;br /&gt;
		1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;0  &lt;br /&gt;
	\end{pmatrix} &lt;br /&gt;
\hspace{0.3cm}\Rightarrow\hspace{0.3cm}&lt;br /&gt;
	{ \boldsymbol{\rm P}^{\rm T} } = \begin{pmatrix}&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0&lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit erhält man für die Prüfmatrix&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H} } =\left({ \boldsymbol{\rm P} }^{\rm T}  \: ; \: { \boldsymbol{\rm I} }_2 \right)&lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1&lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
	\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
und es ergibt sich folgende Codetabelle:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_0 = (0, 0, 0)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_0 = &lt;br /&gt;
(0, 0, 0, 0, 0) \hspace{0.05cm},\hspace{0.8cm}\underline{u}_4 = (1, 0, 0)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_4 = &lt;br /&gt;
(1, 0, 0, 0, 1) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_1 = (0, 0, 1)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_1 = &lt;br /&gt;
(0, 0, 1, 0, 0) \hspace{0.05cm},\hspace{0.8cm}\underline{u}_5 =(1, 0, 1)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_5 = &lt;br /&gt;
(1, 0, 1, 0, 1)\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_2 =(0, 1, 0)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_2 = &lt;br /&gt;
(0, 1, 0, 1, 0) \hspace{0.05cm},\hspace{0.8cm}\underline{u}_6 =(1, 1, 0)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_6 = &lt;br /&gt;
(1, 1, 0, 1, 1)\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_3 = (0, 1, 1)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_3 = &lt;br /&gt;
(0, 1, 1, 1, 0) \hspace{0.05cm},\hspace{0.8cm}\underline{u}_7 = (1, 1, 1)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_7 = &lt;br /&gt;
(1, 1, 1, 1, 1) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zusammen mit dem Vektor $\underline{x} = (u_1, u_2, u_3, p_1, p_2) =  (x_1, x_2, x_3, x_4, x_5)$ lauten dann die Prüfbits:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p_1 = u_2	\hspace{0.05cm},\hspace{0.2cm}p_2 = u_1	\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
und die entsprechenden Prüfgleichungen des Decoders:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;x_2 + x_4 = 0	\hspace{0.05cm},\hspace{0.2cm}x_1 + x_5 = 0	\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus diesen Gleichungen und auch aus obiger Codetabelle: &lt;br /&gt;
*Dieser Code bietet gegenüber einem Übertragungsfehler hinsichtlich des dritten Bits $(x_3 = u_3)$ keinen Schutz. &lt;br /&gt;
*Damit ist natürlich weder eine Fehlererkennung und noch weniger Fehlerkorrektur möglich. &lt;br /&gt;
*Gleiches gilt aber auch für den nichtsystematischen Code auf der letzten Seite.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Darstellung von SPC und RC als duale Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Nun sollen für die bereits im Kapitel  [[Kanalcodierung/Beispiele_bin%C3%A4rer_BlockcodesBeispiele binärer Blockcodes]] behandelten Codes noch jeweils die Generatormatrix $\boldsymbol{\rm G}$ und die Prüfmatrix $\boldsymbol{\rm H}$ angegeben werden. Die Codelänge sei für die folgenden Beispiele stets $n = 5$, doch lassen sich die Ergebnisse auch für andere Codelängen in gleicher Weise interpretieren. Es gilt für&lt;br /&gt;
*den [[Kanalcodierung/Beispiele_bin%C3%A4rer_Blockcodes#Single_Parity.E2.80.93check_Codes|Single&amp;amp;ndash;Parity&amp;amp;ndash;check Code]] &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; SPC (5, 4):&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} &lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
	 1 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;1&lt;br /&gt;
	\end{pmatrix} &lt;br /&gt;
	\hspace{0.05cm},\hspace{0.5cm}{ \boldsymbol{\rm G}}&lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;0 &amp;amp;1 &amp;amp;1&lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
	\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*den [[Kanalcodierung/Beispiele_bin%C3%A4rer_Blockcodes#Wiederholungscodes|Wiederholungscode]] (&amp;lt;i&amp;gt;Repetition Code&amp;lt;/i&amp;gt;) &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; RC (5,1):&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm G}} &lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
	 1 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;1&lt;br /&gt;
	\end{pmatrix} &lt;br /&gt;
	\hspace{0.05cm},\hspace{0.5cm}{ \boldsymbol{\rm H}}&lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;0 &amp;amp;1 &amp;amp;1&lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
	\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die jeweils erste Gleichung lässt sich einfach aus der jeweiligen Definition herleiten und die abgeleitete Gleichung folgt aus der Beziehung $\boldsymbol{\rm H} \cdot \boldsymbol{\rm G}^{\rm T} = \boldsymbol{\rm 0}$. Aus den obigen Matrizen kann verallgemeinert werden:&lt;br /&gt;
*Die Generatormatrix des RC (5, 1) ist identisch mit der Prüfmatrix des SPC (5, 4). Es handelt sich jeweils um $(5 \times 1)$&amp;amp;ndash;Matrizen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Prüfmatrix des RC (5, 1) ist identisch mit der Generatormatrix des SPC (5, 4). Diese beiden Matrizen haben jeweils 5 Spalten und 4 Zeilen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Dieser Sachverhalt ergibt sich, weil es sich hier um '''duale Codes'''  handelt. Zur Erklärung benötigen wir noch zwei Definitionen:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Zwei lineare Codes $\mathcal{C}$ und $\mathcal{C}'$, beide aus ${\rm GF}(2^n)$, sind ''orthogonal'', wenn alle Codeworte $\underline{x} \in \mathcal{C}$ zu allen Codeworten $\underline{x}' \in \mathcal{C}'$ orthogonal sind. Man bezeichnet dann $\mathcal{C}$ und $\mathcal{C}'$ als '''duale Codes'''.}}&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Zwei Codeworte $\underline{x} \in{\rm GF}(2^n)$ und $\underline{x} \in {\rm GF}(2^n)$ sind immer dann zueinander '''orthogonal''', wenn das [[Digitalsignalübertragung/Signale,_Basisfunktionen_und_Vektorräume#Zur_Nomenklatur_im_vierten_Kapitel|innere Produkt]] verschwindet:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\left \langle \underline{x} \cdot \underline{x}' \right \rangle =   \sum_{i=1  }^{n} x_i \cdot x_i' = 0 \hspace{0.05cm}, \hspace{0.5cm}&lt;br /&gt;
\left \langle \underline{x} \cdot \underline{x}' \right \rangle \in {\rm GF}(2^n)&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wegen der Produktbildung in ${\rm GF}(2^n)$ sind auch folgende Codewort&amp;amp;ndash;Paare zueinander orthogonal:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\left \langle \hspace{0.05cm}(0, 1, 1, 0) \hspace{0.05cm}, \hspace{0.2cm} (1, 1, 1, 0) \hspace{0.05cm} \right \rangle = 0\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
\left \langle \hspace{0.1cm}(0, 1, 1, 0) \hspace{0.05cm}, \hspace{0.2cm} (0, 1, 1, 0) \hspace{0.1cm}\right \rangle = 0\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der Code $\mathcal{C}$ spannt einen $k$&amp;amp;ndash;dimensionalen Untervektorraum in ${\rm GF}(2^n)$ auf. Der Untervektorraum des dualen Codes $\mathcal{C}'$ ist zu diesem orthogonal und weist die Dimension $n-k$ auf. Damit gilt: &amp;amp;nbsp; ${\rm dim} \{ \mathcal{C} \} + {\rm dim} \{ \mathcal{C}' \} = n\hspace{0.05cm}.$&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einige Eigenschaften des (7, 4, 3)–Hamming–Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Fassen wir die bisherigen Ergebnisse dieses Kapitels am Beispiel des systematischen Hamming&amp;amp;ndash;Codes nochmals zusammen, der bereits im Kapitel [[Kanalcodierung/Beispiele_bin%C3%A4rer_Blockcodes#Hamming.E2.80.93Codes|Beispiele binärer Blockcodes]] ausführlich beschrieben wurde. Dieser (7,&amp;amp;nbsp;4,&amp;amp;nbsp;3)&amp;amp;ndash;Code ist gekennzeichnet durch&lt;br /&gt;
[[File:P ID2359 KC T 1 4 S7.png|right|frame|Codeworte des (7, 4, 3)–Hamming–Codes|class=fit]]&lt;br /&gt;
*die Anzahl der Prüfgleichungen $m = 3$,&amp;lt;br&amp;gt;&lt;br /&gt;
*die Codelänge $n = 2^m-1 = 7$,&amp;lt;br&amp;gt;&lt;br /&gt;
*die Informationswortlänge $k = n-m = 4$,&amp;lt;br&amp;gt;&lt;br /&gt;
*die Anzahl $2^k =16$ der Codeworte (Dimension),&amp;lt;br&amp;gt;&lt;br /&gt;
*die Rate $R= k/n = 4/7$,&amp;lt;br&amp;gt;&lt;br /&gt;
*die minimale Distanz $d_{\rm min} = 3$ (unabhängig von $m$, $n$ und$k$).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
In obiger Tabelle sind die $2^4 = 16$ Codeworte angegeben ( schwarz: vier Informationsbits, rot: dreiPrüfbits). &lt;br /&gt;
&lt;br /&gt;
Man erkennt daraus:&lt;br /&gt;
*Der Code  beinhaltet sowohl das Null&amp;amp;ndash;Wort $(0000000)$ als auch das Eins&amp;gt;&amp;amp;ndash;Wort  $(1111111)$.&lt;br /&gt;
*Es gibt sieben Codeworte, die sich aus $(0001011)$ jeweils durch zyklische Verschiebung ergeben (alle gelb hinterlegt).&lt;br /&gt;
*Es gibt sieben Codeworte, die sich aus $(0011101)$ jeweils durch zyklische Verschiebung ergeben (alle grün hinterlegt).&lt;br /&gt;
*Zu jedem Codewort  existiert auch das &amp;amp;bdquo;negierte&amp;amp;rdquo; Codewort, zum Beispiel gibt es neben $(0001011)$ auch das Codewort $(1110100)$.&lt;br /&gt;
*Die Prüfmatrix kann wie folgt geschrieben werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} =  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp;1&lt;br /&gt;
	\end{pmatrix}=\left({ \boldsymbol{\rm P}}^{\rm T}  \: ; \: { \boldsymbol{\rm I}}_3 \right)\hspace{0.8cm}&lt;br /&gt;
\Rightarrow\hspace{0.8cm}{ \boldsymbol{\rm P}}^{\rm T} =  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;1 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;1 &amp;amp;1 \\&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm},\hspace{0.2cm}{ \boldsymbol{\rm I}}_3  &lt;br /&gt;
	=  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0  \\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dementsprechend gilt für die Generatormatrix:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm G}} =\left({ \boldsymbol{\rm I}}_4 \: ; \: { \boldsymbol{\rm P}}\right)&lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp;1 &amp;amp;1 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;1&lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:1.07_Prüfmatrix_und_Generatormatrix_des_HC_(7,_4,_3)|Aufgabe 1.7: 1.07 Prüfmatrix und Generatormatrix des HC (7, 4, 3)]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.07Z_Klassifizierung_von_Blockcodes|Zusatzaufgaben 1.7: Klassifizierung von Blockcodes]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.08_Identische_Codes|Aufgabe 1.8: Identische Codes]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.08Z_Äquivalente_Codes|Zusatzaufgaben 1.8: Äquivalente Codes]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.09_Erweiterter_Hamming–Code|Aufgabe 1.9: Erweiterter Hamming–Code]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.09Z_Erweiterung_–_Punktierung|Zusatzaufgaben 1.9: Erweiterung – Punktierung]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.10_Einige_Generatormatrizen|Aufgabe 1.10: Einige Generatormatrizen]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Channel_Coding/General_Description_of_Linear_Block_Codes&amp;diff=21273</id>
		<title>Channel Coding/General Description of Linear Block Codes</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Channel_Coding/General_Description_of_Linear_Block_Codes&amp;diff=21273"/>
		<updated>2018-01-02T18:44:43Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Binäre Blockcodes zur Kanalcodierung&lt;br /&gt;
|Vorherige Seite=Beispiele binärer Blockcodes&lt;br /&gt;
|Nächste Seite=Decodierung linearer Blockcodes&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Lineare Codes und zyklische Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Alle bisher behandelten Codes &lt;br /&gt;
*&amp;lt;i&amp;gt;Single Parity&amp;amp;ndash;check Code&amp;lt;/i&amp;gt;, &lt;br /&gt;
*&amp;lt;i&amp;gt;Repetition Code&amp;lt;/i&amp;gt;,&lt;br /&gt;
* &amp;lt;i&amp;gt;Hamming&amp;amp;ndash;Code&amp;lt;/i&amp;gt;&lt;br /&gt;
&lt;br /&gt;
sind linear. Nun wird die für binäre Blockcodes gültige Definition von Linearität nachgereicht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ein '''linearer binärer Blockcode''' $\mathcal{C}$ ist ein Satz von $2^k$ Codeworten $\underline{x}= (x_1, x_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, x_n)$, wobei die (Modulo&amp;amp;ndash;2)&amp;amp;ndash;Summe zweier beliebiger Codeworte $\underline{x}$ und $\underline{x}'$ wiederum ein gültiges Codewort ergibt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{x}, \underline{x}\hspace{0.05cm}' \in {\rm GF}(2^n),\hspace{0.3cm} \underline{x}, \underline{x}\hspace{0.05cm}' \in  \mathcal{C} &lt;br /&gt;
 \hspace{0.3cm} \Rightarrow \hspace{0.3cm}\underline{x} + \underline{x}\hspace{0.05cm}' \in  \mathcal{C}&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Diese Bedingung muss auch für $\underline{x} = \underline{x}'$ erfüllt sein.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;i&amp;gt;Hinweis:&amp;lt;/i&amp;gt; Die Modulo&amp;amp;ndash;Addition wird für den Rest dieses Buches zur Vereinfachung der Schreibweise nicht mehr durch das Modulo&amp;amp;ndash;Additionszeichen ausgedrückt, sondern mit dem herkömmlichen Pluszeichen.}} &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; Wir betrachten zwei (3, 2)&amp;amp;ndash;Blockcodes:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C}_1 = \{ (0, 0, 0) \hspace{0.05cm}, (0, 1, 1) \hspace{0.05cm},(1, 0, 1) \hspace{0.05cm},(1, 1, 0) \}\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C}_2 = \{ (0, 0, 0) \hspace{0.05cm}, (0, 1, 1) \hspace{0.05cm},(1, 1, 0) \hspace{0.05cm},(1, 1, 1) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Man erkennt:&lt;br /&gt;
*Der Code $\mathcal{C}_1$ ist linear, da die Modulo&amp;amp;ndash;2&amp;amp;ndash;Addition zweier beliebiger Codeworte stets auch ein gültiges Codewort ergibt, zum Beispiel $(0, 1, 1) + (1, 0, 1) = (1, 1, 0)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die obige Definition gilt auch für die Modulo&amp;amp;ndash;2&amp;amp;ndash;Addition eines Codewortes mit sich selbst, zum Beispiel $(0, 1, 1) + (0, 1, 1) = (0, 0, 0)$ &amp;amp;nbsp;&amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp;&amp;amp;nbsp; Jeder lineare Code beinhaltet das Nullwort $\underline{0}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Obwohl die letzte Voraussetzung erfüllt wird, ist $\mathcal{C}_2$ kein linearer Code. Für diesen Code gilt nämlich beispielsweise:  $(0, 1, 1) + (1, 1, 0) = (1, 0, 1)$. Dies ist kein gültiges Codewort von $\mathcal{C}_2$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Folgenden beschränken wir uns ausschließlich auf lineare Codes, da nichtlineare Codes für die Praxis von untergeordneter Bedeutung sind.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ein linearer Blockcode $\mathcal{C}$ heißt '''zyklisch''', wenn eine jede zyklische Verschiebung eines Codewortes $\underline{x}$ (nach links oder rechts) wieder ein gültiges Codewort ergibt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{x}= (x_1, x_2, ... \hspace{0.05cm}, x_n) \in   \mathcal{C} &lt;br /&gt;
 \hspace{0.3cm} \Rightarrow \hspace{0.3cm}\underline{x}\hspace{0.05cm}'= (x_n, x_1,  ... \hspace{0.05cm}, x_{n-1}) \in   \mathcal{C}&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2354 KC T 1 3 S3c.png|right|frame|Codetabelle des systematischen (7, 4, 3)–Hamming–Codes&amp;lt;br&amp;gt;&lt;br /&gt;
schwarz: $k= 4$ Informationsbits, rot: $n-k = 3$ Prüfbits ]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp; &lt;br /&gt;
*Man erkennt aus der Tabelle für den [[Kanalcodierung/Beispiele_binärer_Blockcodes#Hamming.E2.80.93Codes|(7, 4, 3)&amp;amp;ndash;Hamming&amp;amp;ndash;Code]] , dass dieser linear und zyklisch ist.&lt;br /&gt;
*Es ergibt sich auch dann ein gültiges Codewort, wenn man alle Bit invertiert: $0 &amp;amp;#8596; 1$. &lt;br /&gt;
*Auch das $\underline{0}$&amp;amp;ndash;Wort ($n$ mal eine &amp;amp;bdquo;Null&amp;amp;rdquo;) und das $\underline{1}$&amp;amp;ndash;Wort ($n$ mal eine &amp;amp;bdquo;Eins&amp;amp;rdquo;) sind bei diesem Code zulässig.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Codefestlegung durch die Prüfmatrix ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:P ID2355 KC T 1 3 S3.png|right|frame|(7, 4, 3)–Hamming–Code]]&lt;br /&gt;
Wir betrachten den [[Kanalcodierung/Beispiele_binärer_Blockcodes#Hamming.E2.80.93Codes|(7, 4, 3)&amp;amp;ndash;Hamming&amp;amp;ndash;Code]] mit Codeworten $\underline{x}$ der Länge $n=7$, nämlich&lt;br /&gt;
*den $k = 4$ Informationsbits $x_1$&amp;gt;, $x_2$, $x_3$, $x_4$ , und&amp;lt;br&amp;gt;&lt;br /&gt;
*den  $m = 3$ Prüfbits $x_5$, $x_6$, $x_7$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Paritätsgleichungen lauten somit:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;x_1 + x_2 + x_3 + x_5    \hspace{-0.1cm} =  \hspace{-0.1cm} 0 \hspace{0.05cm},\hspace{0.5cm}&lt;br /&gt;
x_2 + x_3 + x_4 + x_6    \hspace{-0.1cm} =  \hspace{-0.1cm} 0 \hspace{0.05cm},\hspace{0.05cm}&lt;br /&gt;
x_1 + x_2 + x_4 + x_7    \hspace{-0.1cm} =  \hspace{-0.1cm}  0 \hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In Matrixschreibweise lautet dieser Gleichungssatz:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} \cdot \underline{x}^{\rm T}= \underline{0}^{\rm T} &lt;br /&gt;
 \hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In dieser Gleichung werden verwendet:&lt;br /&gt;
*die '''Prüfmatrix''' ${ \boldsymbol{\rm H}}$  mit $m = n-k = 3$ Zeilen und $n = 7$ Spalten:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} = \begin{pmatrix}&lt;br /&gt;
        1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp; 0 &amp;amp; 0\\&lt;br /&gt;
        0 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &amp;amp; 1 &amp;amp; 0\\&lt;br /&gt;
        1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp; 0 &amp;amp; 1&lt;br /&gt;
      \end{pmatrix}\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*das ''Codewort'' $\underline{x}= (x_1, x_2, \hspace{0.05cm}\text{...}\hspace{0.05cm}, x_7)$ der Länge $n = 7$,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*das ''Nullvektor'' $\underline{0} = (0, 0, 0)$ der Länge $m = 3$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Durch Transponieren werden aus den ''Zeilenvektoren'' $\underline{x}$ und $\underline{0}$ die entsprechenden ''Spaltenvektoren'' $\underline{x}^{\rm T}$ und $\underline{0}^{\rm T}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2356 KC T 1 4 S2.png|right|frame|(6, 3, 3)–Blockcode]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; Die Grafik illustriert die $m = 3$ Paritätsgleichungen eines Codes $\mathcal{C}$ mit den Codeparametern $n = 6$ und $k = 3$  in der Reihenfolge rot, grün und blau. Es handelt sich also nicht um einen Hamming–Code.&lt;br /&gt;
&lt;br /&gt;
Entsprechend $\boldsymbol{\rm H} \cdot \underline{x}^{\rm T}= \underline{0}^{\rm T}$ lautet die Prüfmatrix:&lt;br /&gt;
::&amp;lt;math&amp;gt; \boldsymbol{\rm H} = \begin{pmatrix}&lt;br /&gt;
			1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp; 0\\&lt;br /&gt;
			1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp; 0\\&lt;br /&gt;
			0 &amp;amp;1 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp; 1&lt;br /&gt;
      	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die $2^k = 8$ Codeworte bei systematischer Realisierung lauten (mit den Prüfbits rechts vom kleinen Pfeil):&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\underline{x}_0 = (0, 0, 0_{\hspace{0.01cm} \rightarrow} 0, 0, 0)\hspace{0.05cm}, \hspace{0.5cm} \underline{x}_1 = (0, 0, 1_{\hspace{0.01cm} \rightarrow}0, 1, 1)\hspace{0.05cm},\hspace{0.5cm} &lt;br /&gt;
\underline{x}_2 = (0, 1, 0_{\hspace{0.01cm} \rightarrow}1, 0, 1)\hspace{0.05cm},\hspace{0.5cm}\underline{x}_3 = (0, 1, 1_{\hspace{0.01cm} \rightarrow}1, 1, 0)\hspace{0.05cm}, &amp;lt;/math&amp;gt;&lt;br /&gt;
:&amp;lt;math&amp;gt;\underline{x}_4 = (1, 0, 0_{\hspace{0.01cm} \rightarrow} 1, 1, 0)\hspace{0.05cm}, \hspace{0.5cm} \underline{x}_5 = (1, 0, 1_{\hspace{0.01cm} \rightarrow}1, 0, 1)\hspace{0.05cm},\hspace{0.5cm} &lt;br /&gt;
\underline{x}_6 = (1, 1, 0_{\hspace{0.01cm} \rightarrow}0, 1, 1)\hspace{0.05cm}, \hspace{0.2cm} \underline{x}_7 = (1, 1, 1_{\hspace{0.01cm} \rightarrow}0, 0, 0)\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus diesen Angaben:&lt;br /&gt;
*Die Spaltenanzahl  $\boldsymbol{\rm H}$ ist gleich der Codelänge $n$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Zeilenanzahl von $\boldsymbol{\rm H}$ ist gleich der Anzahl $m = n-k$ der Prüfgleichungen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Aus $\boldsymbol{\rm H} \cdot \underline{x}^{\rm T}= \underline{0}^{\rm T} $ folgt nicht, dass alle Codeworte eine gerade Anzahl von Einsen beinhalten.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Codefestlegung durch die Generatormatrix ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Prüfmatrix $\boldsymbol{\rm H}$  eines $(n, k)$)&amp;amp;ndash;Blockcodes hat $m = n-k$ Zeilen und $n$ Spalten. Den gleichen Code kann man aber auch durch die $\boldsymbol{\rm G}$ mit ebenfalls $n$ Spalten, aber $k$ Zeilen beschreiben:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ein linearer binärer Blockcode $\mathcal{C}$ kann durch die '''Prüfmatrix''' $\boldsymbol{\rm H}$ bzw. mit der '''Generatormatrix''' $\boldsymbol{\rm G}$ wie folgt charakterisiert werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C} = \{ \underline{x} \in {\rm GF}(2^n)\text{:} \hspace{0.2cm}{ \boldsymbol{\rm H} } \cdot \underline{x}^{\rm T}= \underline{0}^{\rm T} \}\hspace{0.05cm},&amp;lt;/math&amp;gt; &lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C} = \{ \underline{x} \in {\rm GF}(2^n)\hspace{0.05cm}, \hspace{0.1cm}\underline{u} \in {\rm GF}(2^k)\text{:}&lt;br /&gt;
\hspace{0.2cm}\underline{x} = \underline{u} \cdot { \boldsymbol{\rm G} }  \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Bevor wir uns den Eigenschaften der Generatormatrix zuwenden, beschreiben wir an einem Beispiel die Erzeugung der Codeworte.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Wir betrachten einen linearen $(5, 3)$&amp;amp;ndash;Blockcode mit der Generatormatrix&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt; \boldsymbol{\rm G} = \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
	=&lt;br /&gt;
	\begin{pmatrix}&lt;br /&gt;
		\underline{g}_1\\&lt;br /&gt;
		\underline{g}_2\\&lt;br /&gt;
		\underline{g}_3\\&lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit werden die Informationsworte $\underline{u}= (u_1, u_2, u_3)$  den Codeworten $\underline{x}= (x_1, x_2, x_3, x_4, x_5)$ gemäß der folgenden Tabelle mit acht Einträgen zugeordnet. Es gilt $\underline{x} = \underline{u} \cdot  \boldsymbol{\rm G}$.&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_0 = (0, 0, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_0 = (0, 0, 0, 0, 0) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_1 = (0, 0, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_1 = (0, 1, 1, 1, 0) \hspace{0.1cm}= \hspace{0.1cm}\underline{g}_3\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_2 = (0, 1, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_2 = (0, 1, 0, 1, 0)\hspace{0.1cm}= \hspace{0.1cm} \underline{g}_2\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_3 = (0, 1, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_3 = (0, 0, 1, 0, 0) \hspace{0.1cm}= \hspace{0.1cm} \underline{g}_2+\underline{g}_3\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_4 = (1, 0, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_4 = (1, 1, 0, 1, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{g}_1 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_5 =(1, 0, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_5 = (1, 0, 1, 0, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{g}_1+\underline{g}_3\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_6 = (1, 1, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_6 = (1, 0, 0, 0, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{g}_1+\underline{g}_2\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_7 =(1, 1, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}_7 = (1, 1, 1, 1, 1) \hspace{0.1cm}= \hspace{0.1cm} \underline{g}_1+ \underline{g}_2+\underline{g}_3\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
''Anmerkungen'':&lt;br /&gt;
*Die hier zur Berechnung herangezogenen Basisvektoren $\underline{g}_1$, $\underline{g}_2$ und  $\underline{g}_3$ &amp;amp;ndash; jeweils mit der Länge $n = 5$ &amp;amp;ndash; entsprechen den $k = 3$ Zeilen der Generatormatrix $\boldsymbol{\rm G}$. &lt;br /&gt;
*Dieser Code ist wegen $d_{\rm min} = 1$ weder zur Fehlerkorrektur noch zur Fehlererkennung geeignet ist. Trotzdem wird er auch auf den nächsten Seiten beispielhaft weiter betrachtet.&amp;lt;br&amp;gt;&lt;br /&gt;
* Wir möchten Sie an dieser Stelle auf das Applet [[Gram&amp;amp;ndash;Schmidt&amp;amp;ndash;Verfahren]] zum Buch &amp;amp;bdquo;Digitalsignalübertragung&amp;amp;rdquo; aufmerksam machen, das die Berechnung von Basisfunktionen vermittelt, wenn auch in völlig anderem Zusammenhang als im hier gebrauchten Zusammenhang.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Identische Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die im Beispiel 4 auf der letzten Seite verwendeten Vektoren $\underline{g}_1$, $\underline{g}_2$, ... , $\underline{g}_k$ sind die [[Digitalsignal%C3%BCbertragung/Signale,_Basisfunktionen_und_Vektorr%C3%A4ume#Orthonormale_Basisfunktionen| Basisvektoren]] des linearen Blockcodes $\mathcal{C}$. Der Code selbst kann als $k$&amp;amp;ndash;dimensionaler &amp;lt;i&amp;gt;Untervektorraum&amp;lt;/i&amp;gt; von $\text{GF}(2^n)$ angesehen werden. Die Basisvektoren $\underline{g}_1$, $\underline{g}_2$, ... , $\underline{g}_k$ sind linear unabhängig.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der Untervektorraum $\mathcal{C}$ wird aber nicht nur durch die Basisvektoren&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{g}_1 = (1, 1, 0, 1, 1) \hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
\underline{g}_2 = (0, 1, 0, 1, 0) \hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
\underline{g}_3 = (0, 1, 1, 1, 0) \hspace{0.05cm}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
aufgespannt, sondern andere Basisvektoren $\underline{g}_1'$, $\underline{g}_2'$ und $\underline{g}_3'$ sind ebenso geeignet, so lange zwischen diesen die lineare Unabhängigkeit gewährleistet ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 5:}$&amp;amp;nbsp; Wir vergleichen den Code $\mathcal{C}$ von Beispiel 4 mit einem zweiten Code $\mathcal{C}'$.  Die Generatormatrizen lauten:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; \boldsymbol{\rm G} = \begin{pmatrix}&lt;br /&gt;
		\underline{g}_1\\&lt;br /&gt;
		\underline{g}_2\\&lt;br /&gt;
		\underline{g}_3\\&lt;br /&gt;
	\end{pmatrix}=&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
	 \boldsymbol{\rm G}\hspace{0.05cm}' = \begin{pmatrix}&lt;br /&gt;
		\underline{g}\hspace{0.05cm}'_1\\&lt;br /&gt;
		\underline{g}\hspace{0.05cm}'_2\\&lt;br /&gt;
		\underline{g}\hspace{0.05cm}'_3\\&lt;br /&gt;
	\end{pmatrix}=&lt;br /&gt;
\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die beiden Codes sind identisch: Sie beinhalten die genau gleichen Codeworte; es gilt nur eine andere Zuordnung. Bei dem Übergang von $\boldsymbol{\rm G}$ auf $\boldsymbol{\rm G}'$ wurden folgende erlaubte Operationen ausgeführt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{g}\hspace{0.05cm}'_1 = \underline{g}_1 + \underline{g}_2  \hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
\underline{g}\hspace{0.05cm}'_2 = \underline{g}_2  \hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
\underline{g}\hspace{0.05cm}'_3 = \underline{g}_2 + \underline{g}_3 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zum entsprechenden Code $\mathcal{C}'$ kommt man mit der Gleichung $\underline{x}' = \underline{u} \cdot  \boldsymbol{\rm G}'$.&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_0 = (0, 0, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_0 = &lt;br /&gt;
(0, 0, 0, 0, 0) \hspace{0.1cm}= \hspace{0.1cm} \underline{x}_0 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_1 = (0, 0, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_1 = &lt;br /&gt;
(0, 0, 1, 0, 0) \hspace{0.1cm}= \hspace{0.1cm}\underline{x}_3\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_2 \hspace{-0.15cm} =  \hspace{-0.15cm} (0, 1, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_2 = &lt;br /&gt;
(0, 1, 0, 1, 0) \hspace{0.1cm}= \hspace{0.1cm} \underline{x}_2\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_3 = (0, 1, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_3 = &lt;br /&gt;
(0, 1, 1, 1, 0) \hspace{0.1cm}= \hspace{0.1cm} \underline{x}_1\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_4 = (1, 0, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_4 = &lt;br /&gt;
(1, 0, 0, 0, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{x}_6 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_5 =(1, 0, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_5 = &lt;br /&gt;
(1, 0, 1, 0, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{x}_5\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_6 = (1, 1, 0)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_6 = &lt;br /&gt;
(1, 1, 0, 1, 1)\hspace{0.1cm}= \hspace{0.1cm} \underline{x}_4\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_7 = (1, 1, 1)\hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm}'_7 = &lt;br /&gt;
(1, 1, 1, 1, 1) \hspace{0.1cm}= \hspace{0.1cm} \underline{x}_7\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die entsprechenden Codeworte $\underline{x}_i = \underline{u}_i \cdot  \boldsymbol{\rm G}$ des odes $\mathcal{C}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; Generatormatrix  $\boldsymbol{\rm G}$ sind im  [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Generatormatrix|Beispiel 4]] (vorherige Seite) angegeben.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; Die Codetabellen von Beispiel 4 und Beispiel 5 machen deutlich:&lt;br /&gt;
*$\mathcal{C}$ und $\mathcal{C}'$ beinhalten die genau gleichen Codeworte. Sie sind damit &amp;lt;i&amp;gt;identische Codes&amp;lt;/i&amp;gt; und besitzen beide die gleiche Korrekturfähigkeit (siehe nächste Seite).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*$\mathcal{C}'$ ist aber nun ein ''systematischer Code'', da die ersten $k$ Binärstellen eines jeden Codewortes $\underline{x}'_i$ mit den Binärstellen des Informationswortes $\underline{u}$  übereinstimmen.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Systematische Codes==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Eigenschaft &amp;amp;bdquo;systematisch&amp;amp;rdquo; soll nun noch in mathematischer Form angegeben werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Bei einem '''systematischen (n, k)&amp;amp;ndash;Blockcode''' $\mathcal{C}$ beinhaltet jedes Codewort $\underline{x}$ explizit das Informationswort $\underline{u}$. &lt;br /&gt;
*Das heißt, es gilt:&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u} =  (u_1, u_2, ... \hspace{0.05cm}, u_k) \hspace{0.3cm} \rightarrow\hspace{0.3cm} \underline{x}\hspace{0.05cm} = &lt;br /&gt;
(u_1, u_2, ... \hspace{0.05cm}, u_k, x_{k+1}, ... \hspace{0.05cm}, x_n)\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Generatormatrix hat in diesem Fall die Form $\boldsymbol{\rm G_{\rm sys} } =\left({ \boldsymbol{\rm I}_{\rm k} \ ; \{ \boldsymbol{\rm P} }\right)$ mit der $k&amp;amp;times;k$&amp;amp;ndash;Einheitsmatrix $\boldsymbol{\rm I}_{\rm k}$ und einer geeignet zu wählenden $(n-1)&amp;amp;times;k$&amp;amp;ndash;Matrix $\boldsymbol{\rm P}$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für das Beispiel 5 auf der letzten Seite kann also auch geschrieben werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; \boldsymbol{\rm G_{sys}} =\left({ \boldsymbol{\rm I}}_3 \: ; \: { \boldsymbol{\rm P}}\right)\hspace{0.3cm}{\rm mit}\hspace{0.3cm}&lt;br /&gt;
{ \boldsymbol{\rm I_{3}}} = \begin{pmatrix} &lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1  &lt;br /&gt;
	\end{pmatrix}\hspace{0.3cm}{\rm und}\hspace{0.3cm}&lt;br /&gt;
	{ \boldsymbol{\rm P}} = \begin{pmatrix} &lt;br /&gt;
		0 &amp;amp;1  \\&lt;br /&gt;
		1 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;0&lt;br /&gt;
		\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Erfreulich aus Sicht der Kanalcodierung ist, dass für jeden Code $\mathcal{C}$ ein systematischer (identischer oder zumindest äquivalenter) Code $\mathcal{C}_{\rm sys}$ gefunden werden kann.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Beim '''identischen systematischen Code''' beinhalten $\underline{x}$ und $\underline{x}_{\rm sys}$ die gleichen Codeworte, nur die Zuordnung $  &amp;amp;nbsp; &amp;amp;#8594; &amp;amp;nbsp; \underline{x}$ ist unterschiedlich. Man kommt durch folgende Manipulationen bezüglich $\boldsymbol{\rm G}$ von $\mathcal{C}$ zu $\mathcal{C}_{\rm sys}$:&lt;br /&gt;
*Vertauschen oder Permutieren der Zeilen,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Multiplizieren aller Zeilen mit einem konstanten Vektor ungleich $\underline{0}$,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ersetzen einer Zeile durch eine Linearkombination zwischen dieser Zeile und einer anderen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Ohne Beweis:}$&amp;amp;nbsp; Ein identischer systematischer Code $\mathcal{C}_{\rm sys}$ kann immer dann gefunden werden, wenn zu einer Generatormatrix $\boldsymbol{\rm G}$ eine Matrix $\boldsymbol{\rm A}$ existiert, so dass $\boldsymbol{\rm G}_{\rm sys} = \boldsymbol{\rm A} \cdot \boldsymbol{\rm G}$ gilt.}} &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ist dies nicht möglich, so findet man zumindest durch Vertauschen oder Permutieren der Spalten von $\boldsymbol{\rm G}$ einen '''äquivalenten systematischen Code''':&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C}_{\rm sys} = {\rm \pi} (\mathcal{C})\hspace{0.3cm}{\rm mit}\hspace{0.3cm}{\rm \pi}():\hspace{0.15cm}{\rm Permutationsoperator}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Codes $\mathcal{C}$ und $\mathcal{C}_{\rm sys}$ beinhalten dann zwar andere Codeworte, aber sie zeigen gleiche Eigenschaften. Beispielsweise weist $\mathcal{C}_{\rm sys}$ die gleiche minimale Hamming&amp;amp;ndash;Distanz $d_{\rm min}$ auf wie der Code $\mathcal{C}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 6:}$&amp;amp;nbsp; Wir betrachten die Generatormatrizen&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; \boldsymbol{\rm G} = \begin{pmatrix} &lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;1  &lt;br /&gt;
	\end{pmatrix}\hspace{0.3cm}{\rm und}\hspace{0.3cm}&lt;br /&gt;
	  \boldsymbol{\rm G_{sys} } = \begin{pmatrix} &lt;br /&gt;
		1 &amp;amp;0 &amp;amp;1 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1&lt;br /&gt;
		\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Analyse zeigt:&lt;br /&gt;
*Die zugehörigen Codes $\mathcal{C}$ und $\mathcal{C}_{\rm sys}$ beinhalten unterschiedliche Codeworte und sind somit auch &amp;lt;i&amp;gt;nicht identisch&amp;lt;/i&amp;gt;: &lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C} = \{ (0, 0, 0, 0) \hspace{0.05cm}, (0, 0, 1, 1) \hspace{0.05cm},(1, 1, 0, 0) \hspace{0.05cm},(1, 1, 1, 1) \}\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\mathcal{C}_{\rm sys}= \{ (0, 0, 0, 0) \hspace{0.05cm}, (0, 1, 0, 1) \hspace{0.05cm},(1, 0, 1, 0) \hspace{0.05cm},(1, 1, 1, 1) \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
*Aber sie sind &amp;lt;i&amp;gt;äquivalent&amp;lt;/i&amp;gt;: &amp;amp;nbsp; $\boldsymbol{\rm G}_{\rm sys}$  ergibt sich aus $\boldsymbol{\rm G}$}  durch Vertauschen der zweiten und dritten Spalte. &lt;br /&gt;
*Es handelt sich in beiden Fällen um einen (4, 2, 2)&amp;amp;ndash;Blockcode &amp;amp;nbsp;&amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp;&amp;amp;nbsp; $d_{\rm min} = 2$.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Zusammenhang zwischen Generator– und Prüfmatrix==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Zur Definition dieser beiden Beschreibungsmatrizen gehen wir von folgenden Gleichungen aus:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{x} = \underline{u} \cdot { \boldsymbol{\rm G}} \hspace{0.3cm} \Rightarrow \hspace{0.3cm} &lt;br /&gt;
\underline{x}^{\rm T} =  { \boldsymbol{\rm G}}^{\rm T} \cdot \underline{u}^{\rm T} \hspace{0.05cm}, \hspace{0.8cm}&lt;br /&gt;
{ \boldsymbol{\rm H}}  \cdot  \underline{x}^{\rm T} = { \boldsymbol{\rm 0}}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Verknüpft man diese zwei Gleichungen, so erhält man:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}}  \cdot  { \boldsymbol{\rm G}}^{\rm T} \cdot \underline{u}^{\rm T}  = \underline{0}\hspace{0.5cm}&lt;br /&gt;
 \forall \hspace{0.15cm}\underline{u} \in {\rm GF}(2^k)\hspace{0.3cm} &lt;br /&gt;
\Rightarrow \hspace{0.3cm} { \boldsymbol{\rm H}}  \cdot  { \boldsymbol{\rm G}}^{\rm T} = { \boldsymbol{\rm 0}} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Anzumerken ist, dass in diesen Gleichungen &lt;br /&gt;
*$\underline{0}$ einen Zeilenvektor mit $k$ Elementen bezeichnet&lt;br /&gt;
*$\boldsymbol{\rm 0}$ eine Matrix mit $m$ Zeilen und $k$ Spalten. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Alle Elemente von $\underline{0}$ und $\boldsymbol{\rm 0}$ sind identisch Null.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 7:}$&amp;amp;nbsp; Wir betrachten wie im [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Codefestlegung_durch_die_Generatormatrix| Beispiel 3]] den (5, 3)&amp;amp;ndash;Blockcode&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathcal{C}  = \{  \hspace{0.15cm} (  \hspace{0.05cm}   0, 0, 0, 0, 0) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;  \hspace{0.6cm}(  \hspace{0.05cm}  0, 1, 1, 1, 0) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;  \hspace{0.6cm}( \hspace{0.05cm}0, 1, 0, 1, 0) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{0.6cm}( \hspace{0.05cm}0, 0, 1, 0, 0) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{0.6cm}( \hspace{0.05cm} 1, 1, 0, 1, 1) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{0.6cm}( \hspace{0.05cm}1, 0, 1, 0, 1) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{0.6cm}( \hspace{0.05cm}1, 0, 0, 0, 1) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \hspace{0.6cm}(\hspace{0.05cm}1, 1, 1, 1, 1) \}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aus $n= 5$ und $k = 3$ folgt für die Anzahl der Prüfgleichungen $m = 2$. Durch Analyse der möglichen Codeworte erhält man folgende Ergebnisse:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;x_1 \oplus x_5 = 0 \hspace{0.05cm},\hspace{0.5cm}&lt;br /&gt;
x_2 \oplus x_4 = 0\hspace{1cm}&lt;br /&gt;
\Rightarrow \hspace{0.3cm}{ \boldsymbol{\rm H} } =  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0&lt;br /&gt;
	\end{pmatrix}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} { \boldsymbol{\rm H} }  \cdot  { \boldsymbol{\rm G} }^{\rm T} = &lt;br /&gt;
     \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0&lt;br /&gt;
	\end{pmatrix} &lt;br /&gt;
	\begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;1 \\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 \\&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;1 \\&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
	=  \begin{pmatrix}&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Nullmatrix besteht hier aus $m = 2$ Zeilen und $k = 3$ Spalten. Beispielsweise gilt für das Element in der ersten Zeile und der ersten Spalte:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;1 \cdot 1 \hspace{0.05cm}\oplus \hspace{0.05cm}&lt;br /&gt;
0 \cdot 1 \hspace{0.05cm}\oplus \hspace{0.05cm}&lt;br /&gt;
0 \cdot 0 \hspace{0.05cm}\oplus \hspace{0.05cm}&lt;br /&gt;
0 \cdot 1 \hspace{0.05cm}\oplus \hspace{0.05cm}&lt;br /&gt;
1 \cdot 1  = 0&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Generatormatrix vs. Prüfmatrix bei systematischen Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Im allgemeinen Fall können $\boldsymbol{\rm G}$ und $\boldsymbol{\rm H}$  nicht direkt ineinander umgerechnet werden, schon allein aufgrund der unterschiedlichen Dimensionen von Generatormatrix  $(k \times n)$ und  Prüfmatrix $(m \times n)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der Rechengang vereinfacht sich, wenn die $(k \times n)$ &amp;amp;ndash;Generatormatrix in systematischer Form vorliegt: &amp;amp;nbsp; $ \boldsymbol{\rm G_{sys}} =\left({ \boldsymbol{\rm I}}_k \: ; \: { \boldsymbol{\rm P}}\right).$ Dann folgt aus $\boldsymbol{\rm H} \cdot \boldsymbol{\rm G}^{\rm T} = \boldsymbol{\rm 0}$ für die  $(m \times n)$&amp;amp;ndash;Prüfmatrix mit $m = n-k$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} =\left(-{ \boldsymbol{\rm P}}^{\rm T}  \: ; \: { \boldsymbol{\rm I}}_m \right)&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Diese Gleichung gilt allgemein, also auch im nichtbinären Fall. Da wir uns im gesamten ersten Hauptkapitel auf binäre Codes beschränken &amp;amp;#8658; &amp;amp;nbsp; $\mathcal{C} \in \text{GF}(2^n)$, gilt $-\boldsymbol{\rm P} = +\boldsymbol{\rm P}$, und man erhält die Form, die wir im Weiteren verwenden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} =\left(-{ \boldsymbol{\rm P}}^{\rm T}  \: ; \: { \boldsymbol{\rm I}}_m \right)&lt;br /&gt;
= \left [ \left({ \boldsymbol{\rm P}}^{\rm T}  \: ; \: { \boldsymbol{\rm I}}_m \right)\right ]_{{\rm bin\ddot{a}r}} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 8:}$&amp;amp;nbsp; Wir betrachten weiterhin den beispielhaften  (5,&amp;amp;nbsp;3)&amp;amp;ndash;Blockcode,  gehen aber nun von der systematischen Generatormatrix $\boldsymbol{\rm G}_{\rm sys}$ aus, die wir im  [[Kanalcodierung/Allgemeine_Beschreibung_linearer_Blockcodes#Identische_Codes|Beispiel 5]] ermittelt haben:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; \boldsymbol{\rm G_{sys} } = \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &lt;br /&gt;
	\end{pmatrix} =\left({ \boldsymbol{\rm I} }_3 \: ; \: { \boldsymbol{\rm P} }\right)&lt;br /&gt;
\hspace{0.3cm} \Rightarrow&lt;br /&gt;
\hspace{0.3cm} { \boldsymbol{\rm I_3} }= \begin{pmatrix}&lt;br /&gt;
		 1 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		 0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		 0 &amp;amp;0 &amp;amp;1  &lt;br /&gt;
	\end{pmatrix}, &lt;br /&gt;
\hspace{0.3cm} { \boldsymbol{\rm P} }= \begin{pmatrix}&lt;br /&gt;
		0 &amp;amp;1 \\&lt;br /&gt;
		1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;0  &lt;br /&gt;
	\end{pmatrix} &lt;br /&gt;
\hspace{0.3cm}\Rightarrow\hspace{0.3cm}&lt;br /&gt;
	{ \boldsymbol{\rm P}^{\rm T} } = \begin{pmatrix}&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0&lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit erhält man für die Prüfmatrix&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H} } =\left({ \boldsymbol{\rm P} }^{\rm T}  \: ; \: { \boldsymbol{\rm I} }_2 \right)&lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1&lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
	\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
und es ergibt sich folgende Codetabelle:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_0 = (0, 0, 0)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_0 = &lt;br /&gt;
(0, 0, 0, 0, 0) \hspace{0.05cm},\hspace{0.8cm}\underline{u}_4 = (1, 0, 0)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_4 = &lt;br /&gt;
(1, 0, 0, 0, 1) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_1 = (0, 0, 1)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_1 = &lt;br /&gt;
(0, 0, 1, 0, 0) \hspace{0.05cm},\hspace{0.8cm}\underline{u}_5 =(1, 0, 1)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_5 = &lt;br /&gt;
(1, 0, 1, 0, 1)\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_2 =(0, 1, 0)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_2 = &lt;br /&gt;
(0, 1, 0, 1, 0) \hspace{0.05cm},\hspace{0.8cm}\underline{u}_6 =(1, 1, 0)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_6 = &lt;br /&gt;
(1, 1, 0, 1, 1)\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\underline{u}_3 = (0, 1, 1)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_3 = &lt;br /&gt;
(0, 1, 1, 1, 0) \hspace{0.05cm},\hspace{0.8cm}\underline{u}_7 = (1, 1, 1)\hspace{0.2cm} \rightarrow\hspace{0.2cm} \underline{x}\hspace{0.05cm}_7 = &lt;br /&gt;
(1, 1, 1, 1, 1) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zusammen mit dem Vektor $\underline{x} = (u_1, u_2, u_3, p_1, p_2) =  (x_1, x_2, x_3, x_4, x_5)$ lauten dann die Prüfbits:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p_1 = u_2	\hspace{0.05cm},\hspace{0.2cm}p_2 = u_1	\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
und die entsprechenden Prüfgleichungen des Decoders:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;x_2 + x_4 = 0	\hspace{0.05cm},\hspace{0.2cm}x_1 + x_5 = 0	\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus diesen Gleichungen und auch aus obiger Codetabelle: &lt;br /&gt;
*Dieser Code bietet gegenüber einem Übertragungsfehler hinsichtlich des dritten Bits $(x_3 = u_3)$ keinen Schutz. &lt;br /&gt;
*Damit ist natürlich weder eine Fehlererkennung und noch weniger Fehlerkorrektur möglich. &lt;br /&gt;
*Gleiches gilt aber auch für den nichtsystematischen Code auf der letzten Seite.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Darstellung von SPC und RC als duale Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Nun sollen für die bereits im Kapitel  [[Kanalcodierung/Beispiele_bin%C3%A4rer_BlockcodesBeispiele binärer Blockcodes]] behandelten Codes noch jeweils die Generatormatrix $\boldsymbol{\rm G}$ und die Prüfmatrix $\boldsymbol{\rm H}$ angegeben werden. Die Codelänge sei für die folgenden Beispiele stets $n = 5$, doch lassen sich die Ergebnisse auch für andere Codelängen in gleicher Weise interpretieren. Es gilt für&lt;br /&gt;
*den [[Kanalcodierung/Beispiele_bin%C3%A4rer_Blockcodes#Single_Parity.E2.80.93check_Codes|Single&amp;amp;ndash;Parity&amp;amp;ndash;check Code]] &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; SPC (5, 4):&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} &lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
	 1 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;1&lt;br /&gt;
	\end{pmatrix} &lt;br /&gt;
	\hspace{0.05cm},\hspace{0.5cm}{ \boldsymbol{\rm G}}&lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;0 &amp;amp;1 &amp;amp;1&lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
	\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*den [[Kanalcodierung/Beispiele_bin%C3%A4rer_Blockcodes#Wiederholungscodes|Wiederholungscode]] (&amp;lt;i&amp;gt;Repetition Code&amp;lt;/i&amp;gt;) &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; RC (5,1):&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm G}} &lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
	 1 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;1&lt;br /&gt;
	\end{pmatrix} &lt;br /&gt;
	\hspace{0.05cm},\hspace{0.5cm}{ \boldsymbol{\rm H}}&lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;0 &amp;amp;1 &amp;amp;1&lt;br /&gt;
	\end{pmatrix}&lt;br /&gt;
	\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die jeweils erste Gleichung lässt sich einfach aus der jeweiligen Definition herleiten und die abgeleitete Gleichung folgt aus der Beziehung $\boldsymbol{\rm H} \cdot \boldsymbol{\rm G}^{\rm T} = \boldsymbol{\rm 0}$. Aus den obigen Matrizen kann verallgemeinert werden:&lt;br /&gt;
*Die Generatormatrix des RC (5, 1) ist identisch mit der Prüfmatrix des SPC (5, 4). Es handelt sich jeweils um $(5 \times 1)$&amp;amp;ndash;Matrizen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Prüfmatrix des RC (5, 1) ist identisch mit der Generatormatrix des SPC (5, 4). Diese beiden Matrizen haben jeweils 5 Spalten und 4 Zeilen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Dieser Sachverhalt ergibt sich, weil es sich hier um '''duale Codes'''  handelt. Zur Erklärung benötigen wir noch zwei Definitionen:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Zwei lineare Codes $\mathcal{C}$ und $\mathcal{C}'$, beide aus ${\rm GF}(2^n)$, sind ''orthogonal'', wenn alle Codeworte $\underline{x} \in \mathcal{C}$ zu allen Codeworten $\underline{x}' \in \mathcal{C}'$ orthogonal sind. Man bezeichnet dann $\mathcal{C}$ und $\mathcal{C}'$ als '''duale Codes'''.}}&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Zwei Codeworte $\underline{x} \in{\rm GF}(2^n)$ und $\underline{x} \in {\rm GF}(2^n)$ sind immer dann zueinander '''orthogonal''', wenn das [[Digitalsignalübertragung/Signale,_Basisfunktionen_und_Vektorräume#Zur_Nomenklatur_im_vierten_Kapitel|innere Produkt]] verschwindet:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\left \langle \underline{x} \cdot \underline{x}' \right \rangle =   \sum_{i=1  }^{n} x_i \cdot x_i' = 0 \hspace{0.05cm}, \hspace{0.5cm}&lt;br /&gt;
\left \langle \underline{x} \cdot \underline{x}' \right \rangle \in {\rm GF}(2^n)&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wegen der Produktbildung in ${\rm GF}(2^n)$ sind auch folgende Codewort&amp;amp;ndash;Paare zueinander orthogonal:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\left \langle \hspace{0.05cm}(0, 1, 1, 0) \hspace{0.05cm}, \hspace{0.2cm} (1, 1, 1, 0) \hspace{0.05cm} \right \rangle = 0\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
\left \langle \hspace{0.1cm}(0, 1, 1, 0) \hspace{0.05cm}, \hspace{0.2cm} (0, 1, 1, 0) \hspace{0.1cm}\right \rangle = 0\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der Code $\mathcal{C}$ spannt einen $k$&amp;amp;ndash;dimensionalen Untervektorraum in ${\rm GF}(2^n)$ auf. Der Untervektorraum des dualen Codes $\mathcal{C}'$ ist zu diesem orthogonal und weist die Dimension $n-k$ auf. Damit gilt: &amp;amp;nbsp; ${\rm dim} \{ \mathcal{C} \} + {\rm dim} \{ \mathcal{C}' \} = n\hspace{0.05cm}.$&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Einige Eigenschaften des (7, 4, 3)–Hamming–Codes ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Fassen wir die bisherigen Ergebnisse dieses Kapitels am Beispiel des systematischen Hamming&amp;amp;ndash;Codes nochmals zusammen, der bereits im Kapitel [[Kanalcodierung/Beispiele_bin%C3%A4rer_Blockcodes#Hamming.E2.80.93Codes|Beispiele binärer Blockcodes]] ausführlich beschrieben wurde. Dieser (7,&amp;amp;nbsp;4,&amp;amp;nbsp;3)&amp;amp;ndash;Code ist gekennzeichnet durch&lt;br /&gt;
[[File:P ID2359 KC T 1 4 S7.png|right|frame|Codeworte des (7, 4, 3)–Hamming–Codes|class=fit]]&lt;br /&gt;
*die Anzahl der Prüfgleichungen $m = 3$,&amp;lt;br&amp;gt;&lt;br /&gt;
*die Codelänge $n = 2^m-1 = 7$,&amp;lt;br&amp;gt;&lt;br /&gt;
*die Informationswortlänge $k = n-m = 4$,&amp;lt;br&amp;gt;&lt;br /&gt;
*die Anzahl $2^k =16$ der Codeworte (Dimension),&amp;lt;br&amp;gt;&lt;br /&gt;
*die Rate $R= k/n = 4/7$,&amp;lt;br&amp;gt;&lt;br /&gt;
*die minimale Distanz $d_{\rm min} = 3$ (unabhängig von $m$, $n$ und$k$).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
In obiger Tabelle sind die $2^4 = 16$ Codeworte angegeben ( schwarz: vier Informationsbits, rot: dreiPrüfbits). &lt;br /&gt;
&lt;br /&gt;
Man erkennt daraus:&lt;br /&gt;
*Der Code  beinhaltet sowohl das Null&amp;amp;ndash;Wort $(0000000)$ als auch das Eins&amp;gt;&amp;amp;ndash;Wort  $(1111111)$.&lt;br /&gt;
*Es gibt sieben Codeworte, die sich aus $(0001011)$ jeweils durch zyklische Verschiebung ergeben (alle gelb hinterlegt).&lt;br /&gt;
*Es gibt sieben Codeworte, die sich aus $(0011101)$ jeweils durch zyklische Verschiebung ergeben (alle grün hinterlegt).&lt;br /&gt;
*Zu jedem Codewort  existiert auch das &amp;amp;bdquo;negierte&amp;amp;rdquo; Codewort, zum Beispiel gibt es neben $(0001011)$ auch das Codewort $(1110100)$.&lt;br /&gt;
*Die Prüfmatrix kann wie folgt geschrieben werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm H}} =  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp;1&lt;br /&gt;
	\end{pmatrix}=\left({ \boldsymbol{\rm P}}^{\rm T}  \: ; \: { \boldsymbol{\rm I}}_3 \right)\hspace{0.8cm}&lt;br /&gt;
\Rightarrow\hspace{0.8cm}{ \boldsymbol{\rm P}}^{\rm T} =  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;1 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;1 &amp;amp;1 \\&lt;br /&gt;
		1 &amp;amp;1 &amp;amp;0 &amp;amp;1 &lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm},\hspace{0.2cm}{ \boldsymbol{\rm I}}_3  &lt;br /&gt;
	=  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 \\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0  \\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dementsprechend gilt für die Generatormatrix:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{ \boldsymbol{\rm G}} =\left({ \boldsymbol{\rm I}}_4 \: ; \: { \boldsymbol{\rm P}}\right)&lt;br /&gt;
=  \begin{pmatrix}&lt;br /&gt;
		1 &amp;amp;0 &amp;amp;0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;1 &amp;amp;0 &amp;amp;0 &amp;amp;1 &amp;amp;1 &amp;amp;1\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;1 &amp;amp;0\\&lt;br /&gt;
		0 &amp;amp;0 &amp;amp;0 &amp;amp;1 &amp;amp;0 &amp;amp;1 &amp;amp;1&lt;br /&gt;
	\end{pmatrix}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:1.7 H und G des (7, 4)–Hamming–Codes|A1.7 H und G des (7, 4)–Hamming–Codes]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.07Z_Klassifizierung_von_Blockcodes|Zusatzaufgaben:1.7 Klassifizierung von Blockcodes]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.8 Identische Codes|A1.8 Identische Codes]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.08Z_Äquivalente_Codes|Zusatzaufgaben:1.8 Äquivalente Codes]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.9 Erweiterter Hamming–Code|A1.9 Erweiterter Hamming–Code]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.09Z_Erweiterung_–_Punktierung|Zusatzaufgaben:1.9 Erweiterung – Punktierung]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.10 Einige Generatormatrizen|A1.10 Einige Generatormatrizen]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Mobile_Communications/Physical_Layer_for_LTE&amp;diff=21272</id>
		<title>Mobile Communications/Physical Layer for LTE</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Mobile_Communications/Physical_Layer_for_LTE&amp;diff=21272"/>
		<updated>2018-01-02T18:41:56Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=LTE – Long Term Evolution&lt;br /&gt;
|Vorherige Seite=Die Anwendung von OFDMA und SC-FDMA in LTE&lt;br /&gt;
|Nächste Seite=LTE–Advanced – eine Weiterentwicklung von LTE&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Allgemeine Beschreibung==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die physikalische Schicht (englisch: &amp;lt;i&amp;gt;Physical Layer&amp;lt;/i&amp;gt;) ist die unterste Schicht im OSI&amp;amp;ndash;Schichtenmodell der &amp;lt;i&amp;gt;Internationalen Organisation für Normung&amp;lt;/i&amp;gt; (ISO), die man auch als &amp;lt;i&amp;gt;Bitübertragungsschicht&amp;lt;/i&amp;gt; bezeichnet. Sie beschreibt die physikalische Übertragung der Bitfolgen bei LTE und die Funktionsweise der verschiedenen Kanäle gemäß der 3GPP&amp;amp;ndash;Spezifikation. Alle Spezifikationen sind dabei sowohl für ''Frequency Division Duplex'' (FDD) als auch für ''Time Division Duplex'' (TDD) gültig.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2284 LTE T 4 4 S1a v1.png|right|frame|Protokollarchitektur bei LTE|class=fit]]&lt;br /&gt;
Die Grafik zeigt die drei Schichten der LTE&amp;amp;ndash;Protokollarchitektur. Die Kommunikation zwischen den einzelnen Schichten findet über drei verschiedene Arten von Kanälen statt:&lt;br /&gt;
*Logische Kanäle,&amp;lt;br&amp;gt;&lt;br /&gt;
*Transportkanäle,&amp;lt;br&amp;gt;&lt;br /&gt;
*Physikalische Kanäle.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In diesem Kapitel geht es hauptsächlich um die Kommunikation zwischen Sender und Empfänger in der  untersten,   rot hervorgehobenen &amp;lt;i&amp;gt;physikalischen Schicht&amp;lt;/i&amp;gt;. Grundsätzlich ist anzumerken:&lt;br /&gt;
*Genau wie das Internet verwendet LTE ausschließlich eine paketbasierte Übertragung, ohne einem einzelnen Nutzer spezifisch Ressourcen zuzuweisen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Das Design der LTE&amp;amp;ndash;Bitübertragungsschicht wird demzufolge durch das Prinzip der dynamisch zugewiesenen Netzressourcen geprägt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Bitübertragungsschicht spielt eine Schlüsselrolle bei der effizienten Zuordnung und Ausnutzung der vorhandenen Systemressourcen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Entsprechend dieser Grafik kommuniziert die physikalische Schicht mit &lt;br /&gt;
*dem Block &amp;lt;i&amp;gt;Medium Access Control&amp;lt;/i&amp;gt; (MAC) und tauscht dabei über sogenannte Transportkanäle Informationen über die Benutzer und die Regelung bzw. Kontrolle des Netzes aus,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*dem Block &amp;lt;i&amp;gt;Radio Resource Control&amp;lt;/i&amp;gt; (RRC), wobei hier laufend Kontrollbefehle und Messungen ausgetauscht werden, um die Übertragung an die Kanalqualität anzupassen.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Komplexität der LTE&amp;amp;ndash;Übertragung soll durch die folgende Grafik angedeutet werden, die direkt vom &amp;lt;i&amp;gt;European Telecommunications Standards Institute&amp;lt;/i&amp;gt; (ETSI) übernommen wurde. Sie zeigt die Kommunikation zwischen den einzelnen Schichten (Kanälen) und gilt ausschließlich für den Downlink.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2285 LTE T 4 4 S1b v1.png|right|frame|Kommunikation zwischen den einzelnen Schichten im LTE-Downlink|class=fit]]&lt;br /&gt;
&lt;br /&gt;
*Auf den nächsten Seiten werden die physikalische Schicht und die physikalischen Kanäle etwas genauer betrachtet, wobei wir zwischen Uplink und Downlink unterscheiden, uns aber nur auf das Wesentliche beschränken. &lt;br /&gt;
*In Wirklichkeit übernehmen die einzelnen Kanäle noch eine Reihe weiterer Funktionen, deren Beschreibung aber den Umfang dieses Tutorials sprengen würde. &lt;br /&gt;
*Wer interessiert ist, findet zum Beispiel eine detaillierte Beschreibung in [HT09]&amp;lt;ref name= 'HT09'&amp;gt;Holma, H.; Toskala, A.: ''LTE for UMTS – OFDMA and SC–FDMA Based Radio Access.'' Wiley &amp;amp; Sons, 2009.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Physikalische Kanäle im Uplink==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
LTE verwendet im Uplink &amp;amp;ndash; Übertragung vom Endgerät zur Basisstation &amp;amp;ndash; das Vielfachzugriffsverfahren [[Mobile_Kommunikation/Die_Anwendung_von_OFDMA_und_SC-FDMA_in_LTE#Funktionsweise_von_SC.E2.80.93FDMA|SC&amp;amp;ndash;FDMA]]. Dementsprechend existieren in der 3GPP&amp;amp;ndash;Spezifikation folgende physikalische Kanäle:&lt;br /&gt;
*&amp;lt;i&amp;gt;Physical Uplink Shared Channel&amp;lt;/i&amp;gt; (PUSCH),&amp;lt;br&amp;gt;&lt;br /&gt;
*&amp;lt;i&amp;gt;Physical Random Access Channel&amp;lt;/i&amp;gt; (PRACH),&amp;lt;br&amp;gt;&lt;br /&gt;
*&amp;lt;i&amp;gt;Physical Uplink Control Channel&amp;lt;/i&amp;gt; (PUCCH).&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Nutzdaten werden im physikalischen Kanal '''PUSCH''' übertragen. Die Übertragungsgeschwindigkeit hängt davon ab, wie viel Bandbreite dem jeweiligen Nutzer in diesem Moment zur Verfügung steht. Die Übertragung basiert auf dynamisch zugeordneten Ressourcen in Zeit&amp;amp;ndash; und Frequenzbereich mit einer Auflösung von einer Millisekunde bzw. 180 kHz. Diese Zuordnung wird durch den [[Mobile_Kommunikation/Bit%C3%BCbertragungsschicht_bei_LTE#Scheduling_bei_LTE| Scheduler]] in der Basisstation (&amp;lt;i&amp;gt;eNodeB&amp;lt;/i&amp;gt;) vorgenommen. Ohne Anweisung der Basisstation kann ein Endgerät keinerlei Daten übertragen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Ausnahme bildet dabei die Verwendung des physikalischen Kanals '''PRACH''', dem einzigen Kanal im LTE&amp;amp;ndash;Uplink mit nicht&amp;amp;ndash;synchronisierter Übertragung. Eine wesentliche Aufgabe dieses Kanals ist die Anforderung einer Erlaubnis, über einen der beiden anderen physikalischen Kanäle Daten versenden zu dürfen. Durch das Versenden eines &amp;lt;i&amp;gt;Cyclic Prefix&amp;lt;/i&amp;gt; und einer Signatur auf dem PRACH werden Endgerät und Basisstation synchronisiert und sind damit bereit für weitere Übertragungen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der dritte Uplink&amp;amp;ndash;Kanal '''PUCCH''' wird ausschließlich zur Übertragung von Kontrollsignalen verwendet. Darunter versteht man &lt;br /&gt;
*positive und negative Empfangsbestätigungen (ACK/NACK),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Anfragen nach wiederholter Übertragung (im Falle eines NACK), sowie&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*den Austausch von Informationen über die Kanalqualität zwischen Endgerät und Basisstation.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Werden gleichzeitig Nutzdaten vom Endgerät zur Basisstation gesendet, so kann die Übertragung solcher Kontrollsignale ebenfalls über den PUSCH erfolgen. Sind keine Nutzdaten zu übertragen, wird dagegen PUCCH verwendet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Eine gleichzeitige Verwendung von PUSCH und PUCCH ist aufgrund von Einschränkungen durch das Einträger&amp;amp;ndash;Übertragungsschemas SC&amp;amp;ndash;FDMA nicht möglich. Hätte man für alle Kontrollinformationen nur einen &amp;lt;i&amp;gt;Shared Channel&amp;lt;/i&amp;gt; gewählt, so hätte man sich entscheiden müssen zwischen&lt;br /&gt;
*zwischenzeitlichen Problemen bei der Nutzdatenübertragung, oder&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*dauerhaft zu wenige Ressourcen für die Kontrollinformationen.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Informationen über die Kanalqualität werden mit Hilfe sogenannter Referenzsymbolen gewonnen. Als Indikatoren für die Kanalqualität werden diese Informationen dann versendet&lt;br /&gt;
*zum &amp;lt;i&amp;gt;Channel Quality Indicator&amp;lt;/i&amp;gt; (CQI), und&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*zum &amp;lt;i&amp;gt;Rank Indicator&amp;lt;/i&amp;gt; (RI).&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Eine detaillierte Erklärung zur Qualitätsgewährleistung findet sich zum Beispiel in [HR09]&amp;lt;ref name='HR09'&amp;gt;Homayounfar, K.; Rohani, B.: ''CQI Measurement and Reporting in LTE: A New Framework.'' &lt;br /&gt;
IEICE Technical Report, Vol. 108, No. 445, 2009.&amp;lt;/ref&amp;gt;. und [HT09]&amp;lt;ref name='HT09'&amp;gt;&amp;lt;/ref&amp;gt;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; Die Referenzsymbole bzw. Kanalqualitätsinformationen sind im PUSCH entsprechend der obigen Grafik verteilt. &lt;br /&gt;
&lt;br /&gt;
[[File:P ID2286 LTE T 4 4 S2 v2.png|center|frame|Verteilung von Referenzsymbolen und Nutzdaten im PUSCH|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Diese beschreibt die Anordnung der Nutzinformatiom und der Signalisierungsdaten in einem &amp;amp;bdquo;virtuellen&amp;amp;rdquo;  Unterträger.&lt;br /&gt;
*Virtuell deshalb, weil es ja bei SC&amp;amp;ndash;FDMA keine Unterträger gibt wie bei OFDMA.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Referenzsymbole sind notwendig, um die Kanalqualität zu schätzen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Diese Informationen werden dann als &amp;lt;i&amp;gt;Channel Quality Indicator&amp;lt;/i&amp;gt; (CQI) bzw. als &amp;lt;i&amp;gt;Rank Indicator&amp;lt;/i&amp;gt; (RI) ebenfalls über den PUSCH übertragen.}}&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Physikalische Kanäle im Downlink==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Im Gegensatz zum Uplink verwendet LTE im Downlink &amp;amp;ndash; also bei der Übertragung von der Basisstation zum Endgerät &amp;amp;ndash; das Vielfachzugriffsverfahren [[Mobile_Kommunikation/Die_Anwendung_von_OFDMA_und_SC-FDMA_in_LTE#Unterschiede_zwischen_OFDMA_und_SC.E2.80.93FDMA|OFDMA]]. Entsprechend wurden vom 3GPP&amp;amp;ndash;Konsortium hierfür folgende physikalische Kanäle spezifiziert:&lt;br /&gt;
*&amp;lt;i&amp;gt;Physical Downlink Shared Channel&amp;lt;/i&amp;gt; (PDSCH),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*&amp;lt;i&amp;gt;Physical Downlink Control Channel&amp;lt;/i&amp;gt; (PDCCH),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*&amp;lt;i&amp;gt;Physical Control Format Indicator Channel&amp;lt;/i&amp;gt; (PCFICH),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*&amp;lt;i&amp;gt;Physical Hybrid ARQ Indicator Channel&amp;lt;/i&amp;gt; (PHICH),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*&amp;lt;i&amp;gt;Physical Broadcast Channel&amp;lt;/i&amp;gt; (PBCH),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*&amp;lt;i&amp;gt;Physical Multicast Channel&amp;lt;/i&amp;gt; (PMCH).&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Nutzdaten werden über den '''PDSCH''' übertragen. Die Ressourcenzuweisung geschieht sowohl im Zeitbereich (mit einer Auflösung von einer Millisekunde) als auch im Frequenzbereich (Auflösung: 180 kHz). Aufgrund der Verwendung von OFDMA als Übertragungsverfahren hängt die individuelle Geschwindigkeit jedes Nutzers von der Anzahl der zugewiesenen Ressourcenblöcke (à 180 kHz) ab. Ein &amp;lt;i&amp;gt;eNodeB&amp;lt;/i&amp;gt; vergibt die Ressourcen bezogen auf die Kanalqualität jedes einzelnen Nutzers.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im  '''PDCCH''' sind alle Informationen bezüglich der Zuweisung von Ressourcenblöcken bzw. Bandbreite sowohl für den Uplink als auch für den Downlink enthalten. Ein Endgerät erhält dadurch Informationen, wie viele Ressourcen zur Verfügung stehen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2287 LTE T 4 4 S3a v2.png|right|frame|Aufteilung zwischen PDCCH und PDSCH im LTE-Downlink]]&lt;br /&gt;
Die Grafik zeigt beispielhaft die Aufteilung zwischen den Kanälen PDCCH und PDSCH:&lt;br /&gt;
*Der PDCCH kann pro Subframe bis zu vier Symbole belegen (in der Grafik:  zwei).&amp;lt;br&amp;gt;&lt;br /&gt;
*Somit verbleiben für die Nutzdaten (also für den Kanal PDSCH) zwölf Zeitschlitze.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Beschreibung der physikalischen Kanäle des LTE&amp;amp;ndash;Downlinks wird fortgesetzt: &lt;br /&gt;
&lt;br /&gt;
Über den Kanal '''PCFICH''' wird dem Endgerät mitgeteilt, wie viele Symbole den Kontrollinformationen des PDCCH zuzuordnen sind. Sinn dieser dynamischen Aufteilung zwischen Kontroll&amp;amp;ndash; und Nutzdaten ist folgender:&lt;br /&gt;
*Einerseits können auf diese Weise viele Nutzer mit jeweils nur geringer Datenrate  unterstützt werden. Dieses Szenario benötigt eine größere Abstimmung, das heißt, in diesem Fall müsste der PDCCH drei oder vier Symbole umfassen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Andererseits kann man den durch PDCCH  bedingten Overhead soweit reduzieren, dass bei wenigen gleichzeitigen Nutzern diesen eine hohe Datenrate gewährt werden kann.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Über den PDCCH hinaus werden auch im Downlink Referenzsymbole benötigt, um die Kanalqualität zu schätzen und den &amp;lt;i&amp;gt;Channel Quality Indicator&amp;lt;/i&amp;gt; (CQI) zu berechnen. Diese Referenzsymbole sind auf die Unterträger (verschiedene Frequenzen) bzw. Symbole (unterschiedliche Zeiten) verteilt, wie  die folgende Grafik zeigt.&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:P ID2288 LTE T 4 4 S3b v1.png|right|frame|Verteilung der Referenzsymbole im Downlink|class=fit]]&lt;br /&gt;
&amp;lt;br&amp;gt;Zu den anderen physikalischen Kanäle des LTE&amp;amp;ndash;Downlinks ist anzumerken:&lt;br /&gt;
*Die einzige Aufgabe des Downlink&amp;amp;ndash;Kanals '''PHICH''' (&amp;lt;i&amp;gt;Physical Hybrid ARQ Indicator Channel&amp;lt;/i&amp;gt;) ist es zu signalisieren, ob ein im Uplink verschicktes Paket angekommen ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Über den Broadcast&amp;amp;ndash;Kanal '''PBCH''' (&amp;lt;i&amp;gt;Physical Broadcast Channel&amp;lt;/i&amp;gt;) versenden die Basisstationen ungefähr alle 40 Millisekunden an alle mobilen Endgeräte in der Funkzelle Systeminformationen mit Betriebsparameter sowie Synchronisationssignale, die zur Anmeldung im Netz benötigt werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Einen ähnlichen Zweck hat der Multicast&amp;amp;ndash;Kanal '''PMCH''' (&amp;lt;i&amp;gt;Physical Multicast Channel&amp;lt;/i&amp;gt;), worüber Informationen für sogenannte Multicast&amp;amp;ndash;Übertragungen &amp;amp;ndash; zu mehreren Empfängern gleichzeitig &amp;amp;ndash; gesendet werden. &lt;br /&gt;
*Es kann sich zum Beispiel um das in einem zukünftigen Release geplanten mobilen Fernsehen via LTE oder um Ähnliches handeln.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Abläufe in der physikalischen Ebene==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Unter &amp;amp;bdquo;Abläufen in der physikalischen Ebene&amp;amp;rdquo; versteht man verschiedene Methoden und Verfahren, die in der Bitübertragungsschicht Anwendung finden. Darunter fallen unter anderem:&lt;br /&gt;
*&amp;lt;i&amp;gt;Timing Advance&amp;lt;/i&amp;gt;,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*&amp;lt;i&amp;gt;Paging&amp;lt;/i&amp;gt;,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*&amp;lt;i&amp;gt;Random Access&amp;lt;/i&amp;gt;,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*&amp;lt;i&amp;gt;Channel Feedback Reporting&amp;lt;/i&amp;gt;,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*&amp;lt;i&amp;gt;Power Control&amp;lt;/i&amp;gt;,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*&amp;lt;i&amp;gt;Hybrid Adaptive Repeat and Request&amp;lt;/i&amp;gt;.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Eine komplette Auflistung mit zugehöriger Beschreibung findet sich zum Beispiel in [HT09]&amp;lt;ref name='HT09'&amp;gt;&amp;lt;/ref&amp;gt;. Genauer eingegangen werden soll nur auf die beiden letztgenannten Verfahren .&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Leistungsregelung bei LTE==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Unter '''Leistungsregelung''' (englisch: &amp;lt;i&amp;gt;Power Control&amp;lt;/i&amp;gt;) versteht man im Allgemeinen die Regelung der Übertragungsleistung mit dem Ziel,&lt;br /&gt;
*die Übertragungsqualität zu verbessern,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*die Netzkapazität zu vergrößern, und&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*den Stromverbrauch zu verringern.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hinsichtlich des letzten Punktes war bei der Standardisierung von LTE zu berücksichtigen:&lt;br /&gt;
*Einerseits sollte der Stromverbrauch in den Endgeräten minimiert werden, um für diese längere Batterielaufzeiten zu gewährleisten.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Andererseits sollte verhindert werden, dass die Basisstationen eine zu große Leistungsspanne bereithalten müssen.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Bei LTE wird &amp;lt;i&amp;gt;Power Control&amp;lt;/i&amp;gt; nur im Uplink angewandt, wobei es sich eher um eine &amp;amp;bdquo;langsame&amp;amp;rdquo; Leistungsregelung handelt. Damit ist gemeint, dass das in LTE spezifizierte Verfahren nicht so schnell reagieren muss wie beispielsweise bei UMTS (&amp;lt;i&amp;gt;W&amp;amp;ndash;CDMA&amp;lt;/i&amp;gt;). Der Grund ist, dass  durch Verwendung des orthogonalen Trägersystems &amp;lt;i&amp;gt;SC&amp;amp;ndash;FMDA&amp;lt;/i&amp;gt; das sogenannte [http://en.lntwww.de/Beispiele_von_Nachrichtensystemen/Nachrichtentechnische_Aspekte_von_UMTS#Near.E2.80.93Far.E2.80.93Effekt Near&amp;amp;ndash;Far&amp;amp;ndash;Problem] nicht existiert.&lt;br /&gt;
&lt;br /&gt;
*Genau genommen wird bei LTE durch &amp;lt;i&amp;gt;Power Control&amp;lt;/i&amp;gt; nicht die absolute Leistung kontrolliert, sondern die spektrale Leistungsdichte, also die Leistung pro Bandbreite.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Anstatt zu versuchen, Leistungsspitzen durch zeitweiliges Reduzieren der Übertragungsleistung zu glätten, können Leistungsspitzen auch zur kurzzeitigen Erhöhung der Datenrate ausgenutzt werden.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Insgesamt soll durch die LTE&amp;amp;ndash;Leistungsregelung die optimale Balance gefunden werden zwischen einer möglichst geringen Leistung und gleichzeitig einer für die Übertragungsqualität (QoS) noch akzeptablen Interferenz. Dies wird konkret erreicht durch Abschätzen des Verlustes bei der Übertragung sowie durch die Berechnung eines Korrekturfaktors entsprechend den momentanen Standorteigenschaften. Die hier gemachten Aussagen stammen großteils aus [DFJ08]&amp;lt;ref name ='DFJ08'&amp;gt;Dahlman, E., Furuskär A., Jading Y., Lindström M., Parkvall, S.: ''Key Features of the LTE Radio Interface.'' Ericsson Review No. 2, 2008.&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Hybrid Adaptive Repeat and Request ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Jedes Kommunikationssystem benötigt zur Sicherstellung einer ausreichenden Übertragungsqualität ein Schema zur erneuten Übertragung verloren gegangener Daten aufgrund auftretender Übertragungsfehler. In LTE wurde hierfür &amp;lt;i&amp;gt;Hybrid Adaptive Repeat and Request&amp;lt;/i&amp;gt; (HARQ) spezifiziert. Dieses Verfahren wird auch bei [[Beispiele_von_Nachrichtensystemen/Weiterentwicklungen_von_UMTS#HARQ.E2.80.93Verfahren_und_Node_B_Scheduling| UMTS]] in ähnlicher Form eingesetzt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der auf der &amp;lt;i&amp;gt;Stop&amp;amp;ndash;and&amp;amp;ndash;wait&amp;lt;/i&amp;gt;&amp;amp;ndash;Technik basierende Ablauf ist Folgender:&lt;br /&gt;
*Nachdem ein Endgerät ein Paket von der Basisstation erhalten hat, wird es decodiert und es wird ein Feedback über den [[Mobile_Kommunikation/Bit%C3%BCbertragungsschicht_bei_LTE#Physikalische_Kan.C3.A4le_im_Uplink_.281.29| PUCCH]] gesendet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Im Falle einer fehlgeschlagenen Übertragung (&amp;amp;bdquo;NACK&amp;amp;rdquo;) wird das Paket erneut gesendet. Erst wenn die Übertragung erfolgreich war (Feedback: &amp;amp;bdquo;ACK&amp;amp;rdquo;), wird das  nächste Paket  verschickt.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um trotz der Stop&amp;amp;ndash;and&amp;amp;ndash;wait&amp;amp;ndash;Prozedur eine kontinuierliche Datenübertragung zu gewährleisten, benötigt LTE mehrere gleichzeitige HARQ&amp;amp;ndash;Prozesse. In LTE werden sowohl im Uplink als auch im Downlink jeweils acht parallele Prozesse verwendet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp; Die Grafik verdeutlicht die Funktionsweise bei acht gleichzeitigen HARQ&amp;amp;ndash;Prozessen: Der erste Prozess scheitert in diesem Beispiel im ersten Versuch bei der Übertragung von Paket 1. Der Empfänger teilt dieses &amp;amp;bdquo;Fail&amp;amp;rdquo; dem Sender durch ein &amp;amp;bdquo;NACK&amp;amp;rdquo; mit. Dagegen ist der zweite parallel ablaufende  Prozess mit seinem ersten Paket erfolgreich: &amp;amp;bdquo;Pass&amp;amp;rdquo;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2289 LTE T 4 4 S4a v4.png|center|frame|HARQ in LTE mit acht gleichzeitigen Prozessen|class=fit]]&lt;br /&gt;
&lt;br /&gt;
*Im nächsten Schritt (also nachdem die anderen sieben  HARQ&amp;amp;ndash;Prozesse gesendet haben) sendet der erste HARQ aufgrund der Quittierung &amp;amp;bdquo;NACK&amp;amp;rdquo; sein zuletzt verschicktes Paket nochmals.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der zweite Prozess sendet hingegen aufgrund der Quittierung &amp;amp;bdquo;ACK&amp;amp;rdquo; nun ein neues Paket.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ebenso verfahren die anderen Prozesse, die in diesem Beispiel außer Acht gelassen wurden.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Modulation bei LTE ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
LTE verwendet das Modulationsverfahren [[Modulationsverfahren/Quadratur%E2%80%93Amplitudenmodulation#Allgemeine_Beschreibung_und_Signalraumzuordnung_.281.29| Quadratur&amp;amp;ndash;Amplitudenmodulation]] (englisch: &amp;lt;i&amp;gt;Quadrature Amplitude Modulation&amp;lt;/i&amp;gt;, QAM). Dabei stehen sowohl im Uplink als auch im Downlink verschiedene Varianten zur Verfügung, nämlich&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2290 LTE T 4 4 S5a v2.png|right|frame|Mögliche QAM-Signalraumkonstellationen in LTE|class=fit]]&lt;br /&gt;
*4&amp;amp;ndash;QAM (identisch mit QPSK) &amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp; 2 bit pro Symbol,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*16&amp;amp;ndash;QAM  &amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp; 4 bit pro Symbol,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*64&amp;amp;ndash;QAM  &amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp; 6 bit pro Symbol.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
Signalraumkonstellationen dieser Varianten zeigt die nebenstehende Grafik.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;i&amp;gt;Hinweis:&amp;lt;/i&amp;gt; QAM ist keine LTE&amp;amp;ndash;spezifische Entwicklung, sondern wird auch bei vielen bereits etablierten kabelgebundenen Übertragungsverfahren verwendet, wie zum Beispiel von [[Beispiele_von_Nachrichtensystemen/Allgemeine_Beschreibung_von_DSL|DSL]] (''Digital Subscriber Line'').&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Je nach Umgebungsbeschaffenheit bzw. je nach Entfernung zur Basisstation wählt der [[Mobile_Kommunikation/Bitübertragungsschicht_bei_LTE#Scheduling_bei_LTE|Scheduler]] das passende QAM&amp;amp;ndash;Verfahren (siehe folgende Grafik):&lt;br /&gt;
[[File:P ID2291 LTE T 4 4 S5b v1.png|right|frame|Modulationsverfahren, je nach Abstand von der Basisstation]]&lt;br /&gt;
*64&amp;amp;ndash;QAM ermöglicht die besten Datenraten, ist aber auch am anfälligsten gegenüber Übertragungsstörungen und wird daher nur in der Nähe der Basisstationen verwendet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Je schwächer die Verbindung ist, desto einfacher muss das Modulationsverfahren sein, desto geringer wird aber auch die spektrale Effizienz (in bit/s pro Hertz).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Sehr robust ist 4&amp;amp;ndash;QAM mit nur zwei Bit pro Symbol (je eines für Real&amp;amp;ndash; und Imaginärteil). Diese kann man auch noch für deutlich größere Entfernungen anwenden als beispielsweise 16&amp;amp;ndash;QAM.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Aufgrund der genau gleichen Signalraumkonstellation  bezeichnet man die 4&amp;amp;ndash;QAM häufig auch als &amp;lt;i&amp;gt;Quaternary Phase Shift Keying&amp;lt;/i&amp;gt; (QPSK). Die vier Signalraumpunkte sind zum einen quadratisch angeordnet (QAM&amp;amp;ndash;Prinzip). Sie liegen aber auch auf einem Kreis (Kennzeichen der PSK).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die untere Grafik  aus [MG08]&amp;lt;ref name='MG08'&amp;gt;Myung, H.; Goodman, D.: ''Single Carrier FDMA – A New Air Interface for Long Term Evolution.''. West Sussex: John Wiley &amp;amp; Sons, 2008.&amp;lt;/ref&amp;gt; gibt folgenden Sachverhalt wieder:&lt;br /&gt;
*Mit 4&amp;amp;ndash;QAM bzw. QPSK (zwei bit/Symbol) erreicht man im LTE&amp;amp;ndash;Uplink bei den in [MG08] getroffenen Annahmen einen Durchsatz  (englisch: &amp;lt;i&amp;gt;Throughput&amp;lt;/i&amp;gt;) von knapp einem Mbit/s.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Erst ab einer gewissen Signalstärke (englisch: &amp;lt;i&amp;gt;Signal&amp;amp;ndash;to&amp;amp;ndash;Noise Ratio&amp;lt;/i&amp;gt;, SNR) verwendet man eine höherstufige QAM, zum Beispiel 16&amp;amp;ndash;QAM (4 bit/Symbol) oder 64&amp;amp;ndash;QAM (8 bit/Symbol).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ist das SNR hinreichend groß, so werden mit zunehmender Stufenzahl um so bessere Ergebnisse hinsichtlich des Datendurchsatzes erzielt.&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2292 LTE T 4 4 S5c v2.png|right|frame|Durchsatz in Abhängigkeit des SNR|class=fit]]&lt;br /&gt;
Anzumerken ist, dass in den Kontrollkanälen stets die niederratige QPSK (4&amp;amp;ndash;QAM) verwendet wird, da diese Informationen&lt;br /&gt;
*einerseits auf Grund ihrer geringen Größe keine hohen Datenraten benötigen, und&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*andererseits auf Grund ihrer Wichtigkeit (nahezu) fehlerfrei empfangen werden sollten.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Eine Ausnahme bildet der Kanal [[Mobile_Kommunikation/Bit%C3%BCbertragungsschicht_bei_LTE#Physikalische_Kan.C3.A4le_im_Uplink_.282.29| PUSCH]] im Uplink, der sowohl Nutz&amp;amp;ndash; als auch Kontrolldaten überträgt. Aus diesem Grund wird hier für beide Signale die gleiche Modulationsart verwendet.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Scheduling bei LTE ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Alle LTE&amp;amp;ndash;Basisstationen enthalten einen Scheduler, der zwischen&lt;br /&gt;
*einer möglichst großen Gesamtübertragungsrate&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*bei gleichzeitig ausreichend guter Übertragungsqualität (englisch: &amp;lt;i&amp;gt;Quality of Service&amp;lt;/i&amp;gt;, QoS)&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
abwägt. Ein QoS&amp;amp;ndash;Kriterium ist zum Beispiel die &amp;lt;i&amp;gt;Paketverzögerungsdauer&amp;lt;/i&amp;gt;. Der Scheduler versucht also, mit Hilfe von Algorithmen die Gesamtsituation zu optimieren.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Scheduling ist notwendig, um eine faire Ressourcenverteilung zu gewährleisten. Ein konkretes Beispiel ist, dass einem Nutzer, der momentan zwar einen schlechten Kanal und damit eine geringe Effizienz besitzt, trotzdem ausreichend viele Ressourcen zugeordnet werden müssen, da sonst die angestrebte (und ihm garantierte) Übertragungsqualität nicht eingehalten werden kann.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der Scheduler kontrolliert dazu einerseits die Auswahl des Modulationsverfahrens und andererseits das Subcarrier&amp;amp;ndash;Mapping. Die Funktionsweise des Schedulers wird anhand der folgenden Grafik für den Uplink verdeutlicht. Für den Downlink gelten ähnliche Aussagen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2293 LTE T 4 4 S6 v1.png|center|frame|Funktionsweise des Schedulers im LTE-Uplink|class=fit]]&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; Basierend auf [SABM06]&amp;lt;ref name ='SABM06'&amp;gt;Schmidt, M.; Ahn, N.; Braun, V.; Mayer, H.P.: ''Performance of QoS and Channel-aware Packet Scheduling for LTE Downlink.''  [http://www.ikr.uni-stuttgart.de/Content/itg/fg524/Meetings/2009-02-09-Aachen/05_ITG524_Aachen_Schmidt.pdf, Alcatel-Lucent, 2006. PDF-Dokument in Internet].&amp;lt;/ref&amp;gt;, [WGM07]&amp;lt;ref name ='WGM07'&amp;gt;Wang, X.; Giannakis, G.B.; Marques, A.G.: ''A Unified Approach to QoS – Guaranteed Scheduling or Channel-Adaptive Wireless Networks.'' Proceedings of the IEEE, Vol. 95, No. 12, Dec. 2007.&amp;lt;/ref&amp;gt; und [MG08]&amp;lt;ref name ='MG08'&amp;gt;&amp;lt;/ref&amp;gt; ist zusammenfassend zu vermerken:&lt;br /&gt;
*Scheduler&amp;amp;ndash;Algorithmen sind aufgrund der vielen Optimierungskriterien, Parameter und möglichen Szenarien oft sehr kompliziert. Beim Entwurf geht man daher meist von einem optimalen System aus, bei dem jede Basisstation die Kanalübertragungsfunktionen zu jeder Zeit ausreichend genau kennt und die Übertragungsverzögerung kein Problem darstellt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Aus diesen Randbedingungen werden mit Hilfe von mathematischer Analyse verschiedene Ansätze erstellt [WGM07]&amp;lt;ref name ='WGM07'&amp;gt;&amp;lt;/ref&amp;gt;, deren Effektivität allerdings nur über praktische Tests überprüft werden kann. Eine ausführliche Beschreibung solcher Tests findet sich beispielsweise in [MG08]&amp;lt;ref name ='MG08'&amp;gt;&amp;lt;/ref&amp;gt;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Prinzipiell kann die Gesamtübertragungsrate durch kanalabhängiges Scheduling (Ausnutzen von Frequenzselektivität) erhöht werden, allerdings verbunden mit großem Overhead, da Testsignale über die komplette Bandbreite gesendet werden müssen. Die Informationen sind an alle Endgeräte zu verteilen, wenn das komplette Optimierungspotential ausgenutzt werden soll.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*In verschiedenen Tests zeigten sich die eindeutigen und signifikanten Vorteile (Verdoppelung des Durchsatzes) von kanalbasiertem Scheduling, aber auch die zu erwartenden Verluste bei sich schneller bewegenden Nutzern. Mehr dazu in dem empfehlenswerten Dokument [SABM06]&amp;lt;ref name ='SABM06'&amp;gt;&amp;lt;/ref&amp;gt;.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aufgrund vieler Vorteile ist Scheduling fester Bestandteil des vom 3GPP spezifizierten LTE&amp;amp;ndash;Release 8.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:4.4 Zur Modulation bei LTE|Aufgabe 4.4: Zur Modulation bei LTE]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:4.4Z  Physikalische Kanäle bei LTE|Zusatzaufgabe 4.4Z: Physikalische Kanäle bei LTE]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Mobile_Communications/The_Application_of_OFDMA_and_SC-FDMA_in_LTE&amp;diff=21271</id>
		<title>Mobile Communications/The Application of OFDMA and SC-FDMA in LTE</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Mobile_Communications/The_Application_of_OFDMA_and_SC-FDMA_in_LTE&amp;diff=21271"/>
		<updated>2018-01-02T18:40:29Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=LTE – Long Term Evolution&lt;br /&gt;
|Vorherige Seite=Technische Neuerungen von LTE&lt;br /&gt;
|Nächste Seite=Bitübertragungsschicht bei LTE&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Allgemeines zur LTE–Übertragungstechnik ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Im Gegensatz zum Vorgänger  UMTS setzt &amp;lt;i&amp;gt;Long Term Evolution&amp;lt;/i&amp;gt; (LTE) eine Variante des auch von [https://de.wikipedia.org/wiki/Wireless_Local_Area_Network WLAN] genutzten OFDM&amp;amp;ndash;Konzepts ein, um die Übertragungsressourcen systematisch aufzuteilen. Das Mehrfachzugriffsverfahren [[Modulationsverfahren/Allgemeine_Beschreibung_von_OFDM#Das_Prinzip_von_OFDM_.E2.80.93_Systembetrachtung_im_Zeitbereich_.281.29| OFDM]] besitzt ebenso wie die UMTS&amp;amp;ndash;Grundlagentechnologie [[Beispiele_von_Nachrichtensystemen/Nachrichtentechnische_Aspekte_von_UMTS#Anwendung_des_CDMA.E2.80.93Verfahrens_in_UMTS| CDMA]] die Fähigkeit, das System gegen punktuell auftretende Übertragungsstörungen zu schützen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zwar wäre es prinzipiell möglich, die bei der zweiten und dritten Mobilfunkgeneration verwendeten Technologien so anzupassen und zu erweitern, dass sie auch die geforderten Vorgaben der vierten Generation erfüllen. Die schnell ansteigende Komplexität von CDMA beim Empfang von Signalen auf mehreren Pfaden lässt die technische Realisierung jedoch als wenig sinnvoll erscheinen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2297 Mob T 4 3 S1 v1.png|right|frame|Unterschied zwischen OFDM und CDMA|class=fit]]&lt;br /&gt;
Die stark abstrahierte Grafik zeigt die Aufteilung der kompletten Bandbreite für einzelne Unterträger und erklärt den Unterschied zwischen CDMA (UMTS) und OFDM (LTE).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
OFDM besitzt also im Gegensatz zu CDMA viele &amp;amp;ndash; typischerweise sogar mehrere hundert &amp;amp;ndash; Unterträger mit einer Bandbreite von jeweils nur einigen Kilohertz. Dazu wird der Datenstrom aufgeteilt und jeder der vielen Unterträger einzeln mit nur geringer Bandbreite moduliert.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In LTE benutzt man OFDMA, eine auf OFDM basierende Übertragungstechnik. Hierfür sprechen unter anderem folgende Gründe [HT09]&amp;lt;ref name='HT09'&amp;gt;Holma, H.; Toskala, A.: ''LTE for UMTS – OFDMA and SC–FDMA Based Radio Access.'' Wiley &amp;amp; Sons, 2009.&amp;lt;/ref&amp;gt;:&lt;br /&gt;
*Eine hohe Leistung in frequenzgesteuerten Kanälen,&amp;lt;br&amp;gt;&lt;br /&gt;
*die niedrige Komplexität im Empfänger,&amp;lt;br&amp;gt;&lt;br /&gt;
*gute Spektraleigenschaften und Bandbreitenflexibilität, sowie&amp;lt;br&amp;gt;&lt;br /&gt;
*Kompatibilität mit den neuesten Empfänger&amp;amp;ndash; und Multiantennentechnologien.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Auf der folgenden Seite werden die Unterschiede zwischen den Mehrfachzugriffsverfahren OFDM und OFDMA kurz erläutert.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Gemeinsamkeiten und Unterschiede von OFDM und OFDMA ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Das Prinzip von &amp;lt;i&amp;gt;Orthogonal Frequency Division Multiplexing&amp;lt;/i&amp;gt; (OFDM) wird ausführlich im Kapitel [[Beispiele_von_Nachrichtensystemen/Allgemeine_Beschreibung_von_DSL#Motivation_f.C3.BCr_xDSL|Motivation für xDSL]] des Buches &amp;amp;bdquo;Modulationsverfahren&amp;amp;rdquo; erklärt. OFDM teilt das zur Verfügung stehende Frequenzband in eine große Anzahl von schmalbandigen Unterträgern auf, wobei zu beachten ist:&lt;br /&gt;
*Damit die einzelnen Unterträger möglichst wenig Intercarrier&amp;amp;ndash;Interferenz aufweisen, werden die Frequenzen der Unterträger so gewählt, dass sie zueinander orthogonal sind.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Das bedeutet: Bei der Mittenfrequenz eines jeden Unterträgers weisen alle anderen Träger keine Spektralanteile auf. Ziel ist es, für jeden Nutzer die gegenwärtig günstigsten Ressourcen zu wählen, um ein in der Gesamtheit optimales Ergebnis zu erhalten.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Konkret bedeutet das weiterhin, dass &amp;amp;ndash; angepasst an die jeweilige Netzsituation &amp;amp;ndash; die verfügbaren Ressourcen demjenigen Nutzer zugeteilt werden, der momentan damit am meisten anfangen kann. Zu diesem Zweck misst die Basisstation für die Abwärtsstrecke (Downlink) zum Endgerät hin die Leitungsqualität mit Hilfe von Referenzsymbolen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2298 Mob T 4 3 S2 v1.png|right|frame|Aufteilung von Datenblöcken nach Frequenz und Zeit bei OFDM und  OFDMA|class=fit]]&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;Die Grafik zeigt oben die Frequenzzuteilung bei OFDM. &lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
Das untere Schaubild zeigt die Zuteilung bei &amp;lt;i&amp;gt;Orthogonal Frequency Division Multiple Access&amp;lt;/i&amp;gt; (OFDMA). &lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;Man erkennt:&lt;br /&gt;
*Bei OFDMA beschränkt sich die Ressourcenzuteilung nach Kanalschwankungen nicht wie bei OFDM nur auf den Zeitbereich, sondern es wird auch der Frequenzbereich optimal einbezogen.&lt;br /&gt;
&lt;br /&gt;
*Dadurch ist die OFDMA&amp;amp;ndash;Ressourcenzuteilung besser an die äußeren Umstände angepasst als bei OFDM. Um diese Flexibilität optimal nutzen zu können, ist allerdings eine Abstimmung zwischen der Basisstation (&amp;lt;i&amp;gt;eNodeB&amp;lt;/i&amp;gt;) und dem Endgerät notwendig. Mehr dazu später im Kapitel [[Beispiele_von_Nachrichtensystemen/Allgemeine_Beschreibung_von_DSL|Allgemeine Beschreibung von DSL]].&lt;br /&gt;
&lt;br /&gt;
== Unterschiede zwischen OFDMA und SC–FDMA==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Es gibt Übertragungsverfahren wie beispielsweise [https://de.wikipedia.org/wiki/WiMAX WiMAX], die OFDMA in beiden Richtungen nutzen. Die LTE&amp;amp;ndash;Spezifizierung durch das 3GPP&amp;amp;ndash;Konsortium legt dagegen fest:&lt;br /&gt;
*Im Downlink &amp;amp;ndash;  Übertragung von der Basisstation zum Endgerät &amp;amp;ndash; wird OFDMA eingesetzt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Im Uplink &amp;amp;ndash;  Übertragung vom Endgerät zur Basisstation  &amp;amp;ndash; verwendet man &amp;lt;i&amp;gt;Single Carrier Frequency Division Multiple Access&amp;lt;/i&amp;gt; (SC&amp;amp;ndash;FDMA).&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aus der Grafik erkennt man, dass die beiden Systeme &amp;amp;bdquo;SC&amp;amp;ndash;FDMA&amp;amp;rdquo; und &amp;amp;bdquo;OFDMA&amp;amp;rdquo; sehr ähnlich sind. Oder anders ausgedrückt: SC&amp;amp;ndash;FDMA baut auf OFDMA auf (oder umgekehrt).&lt;br /&gt;
*Verzichtet man auf die beiden rot hinterlegten Komponenten (DFT) und auf die beiden blau hinterlegten Komponenten (IDFT) von SC&amp;amp;ndash;FDMA, so erhält man das OFDMA&amp;amp;ndash;System.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die anderen hier verwendeten Symbole stehen für Seriell/Parallel&amp;amp;ndash;Wandler (S/P), Parallel/Seriell&amp;amp;ndash;Wandler (P/S), D/A&amp;amp;ndash;Wandler, A/D&amp;amp;ndash;Wandler sowie Hinzufügen/Entfernen des zyklischen Präfix'.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2300 Mob T 4 3 S3 v4.png|center|frame|Sender- und Empfängerstruktur eines SC-FDMA–Systems|class=fit]]&lt;br /&gt;
Die Signalerzeugung für SC&amp;amp;ndash;FDMA funktioniert ähnlich wie bei OFDMA, allerdings mit kleinen, für den Mobilfunk aber durchaus wichtigen Änderungen:&lt;br /&gt;
*Der Hauptunterschied liegt in der zusätzlichen [[Signaldarstellung/Diskrete_Fouriertransformation_(DFT)#Argumente_f.C3.BCr_die_diskrete_Realisierung_der_FT| diskreten Fouriertransformation]] (DFT).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Diese ist sendeseitig direkt nach der Seriell/Parallel&amp;amp;ndash;Wandlung durchzuführen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Es handelt sich somit nicht mehr um ein Mehrträgerverfahren, sondern um eine Einträger&amp;amp;ndash;FDMA.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Man spricht wegen der notwendigen DFT/IDFT&amp;amp;ndash;Operationen auch von &amp;amp;bdquo;DFT&amp;amp;ndash;spread OFDM&amp;amp;rdquo;.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; Fassen wir die obigen Aussagen nochmals kurz zusammen. SC&amp;amp;ndash;FDMA unterscheidet sich von OFDMA folgendermaßen:&lt;br /&gt;
*Die Datensymbole werden mit einer Gruppe gleichzeitig übertragener Unterträger gesendet und nicht jedes Symbol von einem einzelnen, orthogonalen Unterträger.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Diese Unterträgergruppe kann dann als ein separates Frequenzband betrachtet werden, das die Daten sequenziell überträgt. Darauf geht der Name &amp;amp;bdquo;Single Carrier FDMA&amp;amp;rdquo; zurück.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Während bei OFDMA die Datensymbole direkt die verschiedenen Unterträger erzeugen, durchlaufen sie bei SC&amp;amp;ndash;FDMA zuerst eine diskrete Fouriertransformation (DFT).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*So werden die Datensymbole aus dem Zeitbereich zuerst in den Frequenzbereich transformiert, bevor sie die OFDM&amp;amp;ndash;Prozedur durchlaufen [Ixi09]&amp;lt;ref name ='Ixi09'&amp;gt;''SC-FDMA – Single Carrier FDMA in LTE.''  PDF–Dokument im Internet, 2009.&amp;lt;/ref&amp;gt;. &amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Man kann den Unterschied zwischen OFDMA und SC&amp;amp;ndash;FDMA aber auch so beschreiben:&lt;br /&gt;
*Bei einer OFDMA&amp;amp;ndash;Übertragung enthält jeder orthogonale Unterträger nur die Informationen eines einzigen Signals.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Hingegen beinhaltet bei SC&amp;amp;ndash;FDMA jeder einzelne Unterträger Informationen über alle in dieser Periode übertragenen Signale.}}&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:P ID2301 Mob T 4 3 S3b v1.png|right|frame|Frequenzbandaufteilung bei OFDMA und SC–FDMA|class=fit]]&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
Dieser Unterschied und die quasi&amp;amp;ndash;sequentielle Übertragung bei SC&amp;amp;ndash;FDMA lassen sich aus diesem Schaubild besonders gut erkennen. Dieses stammt aus einem PDF&amp;amp;ndash;Dokument von [http://cp.literature.agilent.com/litweb/pdf/5991-2556EN.pdf Agilent&amp;amp;ndash;3GPP.]&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Funktionsweise von SC–FDMA==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Nun soll der SC&amp;amp;ndash;FDMA&amp;amp;ndash;Übertragungsvorgang genauer betrachtet werden. Die Informationen hierzu stammen großteils aus [MG08]&amp;lt;ref name='MG08'&amp;gt;Myung, H.; Goodman, D.: ''Single Carrier FDMA – A New Air Interface for Long Term Evolution.''. West Sussex: John Wiley &amp;amp; Sons, 2008.&amp;lt;/ref&amp;gt;. Auf den Zweck und die Funktion des &amp;lt;i&amp;gt;Cyclic Prefix&amp;lt;/i&amp;gt; wird hier nicht näher eingegangen. Die Gründe sind dieselben wie bei OFDM und können im Abschnitt [[Modulationsverfahren/Realisierung_von_OFDM-Systemen#Zyklisches_Pr.C3.A4fix_.281.29|Zyklisches Präfix]] des Buches &amp;amp;bdquo;Modulationsverfahren&amp;amp;rdquo; nachgelesen werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2304 Mob T 4 3 S4a v3.png|center|frame|Betrachteter SC-FDMA-Sender |class=fit]]&lt;br /&gt;
&lt;br /&gt;
Die folgende Beschreibung bezieht sich auf den hier gezeigten  SC&amp;amp;ndash;FDMA&amp;amp;ndash;Sender. Beachten Sie, dass bei LTE die Modulation an die Kanalqualität angepasst wird: In stark verrauschten Kanälen wird 4&amp;amp;ndash;QAM (&amp;lt;i&amp;gt;Quadrature Amplitude Modulation&amp;lt;/i&amp;gt; mit nur vier Signalraumpunkten) verwendet. Bei besseren Bedingungen wird dann auf eine höherstufige QAM bis hin zu 64&amp;amp;ndash;QAM umgeschaltet. &lt;br /&gt;
&lt;br /&gt;
Weiter gilt:&lt;br /&gt;
*Ein Eingangsdatenblock besteht aus $K$ komplexen Modulationssymbolen $x_\nu$, die mit einer Rate von $R_{\rm Q}$ [Symbole/s] erzeugt werden.&lt;br /&gt;
&lt;br /&gt;
*Die diskrete Fouriertransformation (DFT) erzeugt daraus $K$ Symbole $X_\mu$ im Frequenzbereich, die auf $K$ von insgesamt $N$ orthogonalen Unterträgern moduliert werden:  &lt;br /&gt;
::&amp;lt;math&amp;gt;X_\mu  =  \sum_{\nu = 0 }^{K-1}&lt;br /&gt;
  x_\nu \cdot  {\rm e}^{-{\rm j}  { 2 \pi \cdot \nu &lt;br /&gt;
 \cdot \mu }/{K}} \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
*Die Unterträger werden über eine größere Bandbreite von $B_{\rm K} = N \cdot f_0$ verteilt, wobei $f_0 = 15 \ \rm kHz$ die bei LTE kleinste adressierbare Bandbreite angibt. Nichtbelegte Kanäle sind in der Grafik gestrichelt gezeichnet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Kanalübertragungsrate ergibt sich zu $R_{\rm C} = J \cdot R_{\rm Q}$ mit dem Spreizfaktor $J = N/K$. Dieses SC&amp;amp;ndash;FDMA&amp;amp;ndash;System könnte dann gleichzeitig $J$ orthogonale Eingangssignale verarbeiten. Im Fall von LTE wäre zum Beispiel $K = 12$ (kleinster adressierbarer Block) und $N = 1024$. $J$ gibt folglich auch die Anzahl der Endgeräte an, die gleichzeitig mit dieser Basisstation verbunden sein können.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Nach dem so genannten &amp;lt;i&amp;gt;Subcarrier&amp;amp;ndash;Mapping&amp;lt;/i&amp;gt; &amp;amp;ndash; darunter versteht man die Zuordnung der von der DFT erzeugten Symbole auf die zur Verfügung stehenden Unterträger &amp;amp;ndash; sind die Symbole dann auf eine gewisse Bandbreite &amp;amp;bdquo;gemappt&amp;amp;rdquo;, zum Beispiel im Falle von $K = 12$ auf den Bereich von $0 \text{...} 180 \ \rm kHz$ oder von $180 \ \rm kHz \text{...} 360 \ \rm kHz$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die folgende IDFT&amp;amp;ndash;Transformation (oben blau markiert) generiert aus den Ausgangswerten $Y_\mu$ im Frequenzbereich anschließend die Zeitdarstellung $y_\nu$ dieses Mappings. Diese Symbole werden dann durch den Parallel/Seriell&amp;amp;ndash;Wandler in eine für die Übertragung geeignete Sequenz überführt.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Verschiedene Ansätze für das Subcarrier&amp;amp;ndash;Mapping==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die folgende Abbildung verdeutlicht drei Arten für das &amp;lt;i&amp;gt;Subcarrier&amp;amp;ndash;Mapping&amp;lt;/i&amp;gt;. Zur Vereinfachung der Darstellung beschränken wir uns hier auf die (sehr kleinen) Parameterwerten $K = 4$ und  $N = 12$.&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:P ID2305 Mob T 4 3 S4b v1.png|right|frame|Verschiedene Methoden des Subcarrier-Mappings|class=fit]]&lt;br /&gt;
*&amp;lt;b&amp;gt;DFDMA&amp;lt;/b&amp;gt; oder &amp;lt;i&amp;gt;Distributed Mapping&amp;lt;/i&amp;gt;: &amp;lt;br&amp;gt;Hier werden die Modulationssymbole auf einen gewissen Bereich der verfügbaren Kanalbandbreite verteilt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*&amp;lt;b&amp;gt;IFDMA&amp;lt;/b&amp;gt; oder &amp;lt;i&amp;gt;Interleaved FDMA&amp;lt;/i&amp;gt;: &amp;lt;br&amp;gt;Sonderform der DFDMA, wenn man die Modulationssymbole auf die komplette Bandbreite mit gleichen Abständen verteilt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*&amp;lt;b&amp;gt;LFDMA&amp;lt;/b&amp;gt;  oder &amp;lt;i&amp;gt;Localized Mapping&amp;lt;/i&amp;gt;: &amp;lt;br&amp;gt;Die $K$ Modulationssymbole werden direkt benachbarten Unterträgern zugeordnet. Dies entspricht der derzeitigen 3GPP&amp;amp;ndash;Spezifikation.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Es kann dabei gezeigt werden, dass der Sender bei SC&amp;amp;ndash;FDMA die drei Schritte&lt;br /&gt;
*Diskrete Fouriertransformation (DFT),&amp;lt;br&amp;gt;&lt;br /&gt;
*Subcarrier&amp;amp;ndash;Mapping, und&amp;lt;br&amp;gt;&lt;br /&gt;
*Inverse diskrete Fouriertransformation (IDFT) bzw. Fast&amp;amp;ndash;Fouriertransformation (IFFT)&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
gar nicht einzeln durchlaufen muss. Diese drei Operationen kann man vielmehr gemeinsam als eine einzige lineare Operation realisieren. Die vollständige und mathematisch nicht ganz einfache Herleitung findet sich zum Beispiel in [MG08]&amp;lt;ref name='MG08'&amp;gt; &amp;lt;/ref&amp;gt;. Jedes Element $y_\nu$ der Ausgangssequenz ist dann durch eine gewichtete Summe der Eingangssequenzelemente $x_\nu$ darstellbar, wobei die Gewichte komplexwertig sind.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Anstatt der vergleichsweise komplizierten Fouriertransformation reduziert sich die Operation somit&lt;br /&gt;
*auf eine Multiplikation mit einer komplexen Zahl, und&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*dem $J$&amp;amp;ndash;fachen Wiederholen der Eingangssequenz $\langle x_\nu \rangle $.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In [[Aufgabe 4.3]] wird das (sendeseitige) &amp;lt;i&amp;gt;Subcarrier&amp;amp;ndash;Mapping&amp;lt;/i&amp;gt; mit realistischeren Werten für $K$ und  $N$ betrachtet und auf die Unterschiede zum &amp;lt;i&amp;gt;Subcarrier&amp;amp;ndash;Demapping&amp;lt;/i&amp;gt; (am Empfänger) hingewiesen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Vorteile von SC–FDMA gegenüber OFDM==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Der entscheidende Vorteil von SC&amp;amp;ndash;FDMA gegenüber OFDMA ist auf Grund seiner Einzelträgerstruktur sein niedrigeres &amp;lt;i&amp;gt;Peak&amp;amp;ndash;to&amp;amp;ndash;Average Power&amp;amp;ndash;Ratio&amp;lt;/i&amp;gt; (PAPR). Darunter versteht man das Verhältnis von momentaner Spitzenleistung $P_{\rm max}$ zur mittleren Sendeleistung $P_{\rm S}$.  PAPR lässt sich auch durch den [[Digitalsignal%C3%BCbertragung/Optimierung_der_Basisband%C3%BCbertragungssysteme#Systemoptimierung_bei_Spitzenwertbegrenzung_.281.29| Crest&amp;amp;ndash;Faktor]] (Quotient der Signalamplituden) ausdrücken. Die beiden Größen sind also nicht identisch.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2308 Mob T 4 3 S5a v2.png|right|frame|(Komplementäre) Verteilungsfunktion des PAPR bei OFDM-Systemen]]&lt;br /&gt;
&lt;br /&gt;
Die Grafik aus dem Internet&amp;amp;ndash;Dokument [Wu09]&amp;lt;ref name ='Wu09'&amp;gt;Wu, B.: ''Analyzing WiMAX Modulation Quality.'' [http://mwrf.com/Articles/Print.cfm?Ad=1&amp;amp;ArticleID=22022 PDF–Internetdokument,] 2009.&amp;lt;/ref&amp;gt; zeigt in doppelt&amp;amp;ndash;logarithmischer Darstellung die Wahrscheinlichkeit dafür, dass bei 64&amp;amp;ndash;QAM&amp;amp;ndash;OFDM die momentane Leistung über der mittleren Leistung liegt. Man erkennt:&lt;br /&gt;
*Die Wahrscheinlichkeit für große &amp;amp;bdquo;Ausreißer&amp;amp;rdquo; ist zwar gering. Beispielsweise wird die mittlere Leistung nur in 0.1% der Zeit um mehr als 10 dB überschritten &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; rote Markierung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Auch wenn solche hohen Leistungsspitzen nur sehr selten sind, stellen sie trotzdem ein Problem für den Leistungsverstärker des Empfängers dar.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Leistungsverstärker  sollten im linearen Bereich betrieben werden, da ansonsten das Signal verzerrt wird. Nichtlinearitäten ergeben sich insbesondere auf Grund von&lt;br /&gt;
*Intercarrier&amp;amp;ndash;Interferenz innerhalb des Signals,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Interferenzen von benachbarten Kanälen aufgrund von Spektrumserweiterungen.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Daher muss bei OFDM der Verstärker die meiste Zeit mit einer niedrigeren Leistung als möglich betrieben werden, was seine Effizienz drastisch reduzieren kann.&lt;br /&gt;
&lt;br /&gt;
*Weil man SC&amp;amp;ndash;FDMA quasi als Einzelträger&amp;amp;ndash;Übertragungsverfahren betrachten kann, ist bei diesem das PAPR niedriger als bei OFDM(A). &lt;br /&gt;
*Dadurch kann zum Beispiel ein so genanntes &amp;lt;i&amp;gt;Pulse&amp;amp;ndash;shaping&amp;lt;/i&amp;gt;&amp;amp;ndash;Filter verwendet werden, der das PAPR reduziert.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das niedrigere PAPR ist der wesentliche Grund dafür, dass im LTE&amp;amp;ndash;Uplink SC&amp;amp;ndash;FDMA zum Einsatz kommt und nicht OFDMA. Ein niedriges PAPR bedeutet eine längere Batterielaufzeit, ein für Mobiltelefone &amp;amp;ndash; insbesondere Smartphones &amp;amp;ndash; äußerst wichtiges Kriterium. Gleichzeitig bietet SC&amp;amp;ndash;FDMA eine ähnliche Leistungsfähigkeit und Komplexität wie OFDMA. Da für den Downlink eine lange Batterielaufzeit weniger bedeutend ist, wird hier OFDMA.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; Wir betrachten ein OFDM&amp;amp;ndash;System mit &amp;lt;i&amp;gt;N&amp;lt;/i&amp;gt; Trägern, alle mit gleicher Signalamplitude &amp;lt;i&amp;gt;A&amp;lt;/i&amp;gt;. Dann ist nach einer stark vereinfachten Rechnung mit gleichem Proportionalitätsfaktor &lt;br /&gt;
&lt;br /&gt;
*die maximale Signalleistung proportional zu $(N \cdot  A)^2$, und&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*die mittlere Signalleistung proportional zu $N \cdot A^2$ .&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Daraus ergibt sich für &amp;lt;i&amp;gt;Peak&amp;amp;ndash;to&amp;amp;ndash;Average Power&amp;amp;ndash;Ratio&amp;lt;/i&amp;gt; als der Quotient dieser beiden Leistungen zu ${\rm PAPR} = N$. Schon bei nur zwei Trägern ergibt sich ${\rm PAPR} = 2$ entsprechend 3 dB.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Somit muss der Verstärker selbst bei nur zwei Trägern immer 3 dB unterhalb der maximalen Leistung arbeiten, um im Fall von Signalspitzen keine Signalverzerrungen zu produzieren. Wie anschließend gezeigt wird, bedeuten 3dB aber bereits einen Rückgang des Wirkungsgrads auf 85%.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Das &amp;lt;i&amp;gt;Peak&amp;amp;ndash;to&amp;amp;ndash;Average Power&amp;amp;ndash;Ratio&amp;lt;/i&amp;gt; (PAPR) steht in direkter Beziehung zur ''Sendeverstärkereffizienz''. Die maximale Effizienz wird erreicht, wenn der Verstärker in der Umgebung der Sättigungsgrenze arbeiten kann. &lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp; Die Grafik zeigt eine beispielhafte Verstärkerkennlinie, also die Ausgangsleistung aufgetragen über der Eingangsleistung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2309 Mob T 4 3 S5b v1.png|right|frame|Rückgang des Verstärkerwirkungsgrads bei steigendem „Back–off”]]&lt;br /&gt;
*Bei PAPR = 1  (also 0 dB) könnte man die mittlere Leistung $P_{\rm S}$ gleich der zulässigen Spitzenleistung $P_{\rm max}$ setzen. Entsprechend der  Kennlinie $P_{\rm out}/P_{\rm in}$ ergäbe sich (beispielhaft) der Verstärkerwirkungsgrad zu  95%.&amp;lt;br&amp;gt;&lt;br /&gt;
*Bei großem PAPR muss man den Verstärker aber unterhalb der Sättigungsgrenze betreiben, um zu starke Signalverzerrungen zu verhindern.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Hier einige numerische Beispiele:&lt;br /&gt;
*Bei einem PAPR = 2 entsprechend der Überschlagsrechnung auf der letzten Seite müsste man die mittlere Sendeleistung um 3 dB kleiner als zulässig wählen, damit $P_{\rm max}$ zu keinem Zeitpunkt überschritten würde. Der Wirkungsgrad würde so auf 85% zurückgehen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ein Back&amp;amp;ndash;off von 3 dB reicht aber meist nicht aus, vielmehr geht man in der Praxis von Werten zwischen 5 dB und 8 dB aus [Hin08]&amp;lt;ref name='Hin08'&amp;gt;Hindelang, T.: ''Mobile Communications. Vorlesungsmanuskript.'' Lehrstuhl für Nachrichtentechnik, TU München, 2008.&amp;lt;/ref&amp;gt;. Entsprechend obiger Kurve sinkt aber bereits bei 5&amp;amp;nbsp;dB der Wirkungsgrad auf nur mehr 70% (System &amp;lt;b&amp;gt;S1&amp;lt;/b&amp;gt;, grüne Linie).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Mit dem System &amp;lt;b&amp;gt;S2&amp;lt;/b&amp;gt; können zwar alle Signalspitzen  kleiner 8 dB vom Verstärker verzerrungsfrei übertragen werden, aber der Verstärkerwirkungsgrad  beträgt dann nur noch 40%. Wie aus der ersten Grafik auf dieser Seite zu ersehen ist, treten trotzdem noch in ca. 2% der Zeit starke Verzerrungen auf.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die mittlere Sendeleistung sei $P_{\rm S} = 100\, \rm  mW$. Dann muss bei einem PAPR = 9 (8 dB) der Verstärker bis zu $P_{\rm max} = 900\, \rm  mW$ 900 mW verzerrungsfrei arbeiten, bei PAPR = 2 (3 dB) dagegen nur bis $200 \, \rm mW$. Der Unterschied zwischen den beiden Verstärkern ist ein enormer Kostenfaktor.}}&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; Aufgrund dieser Angaben kann zusammengefasst werden:&lt;br /&gt;
*OFDM mit einem großen  Back&amp;amp;ndash;off im Uplink würde zu Problemen führen, nämlich zu extrem kurzen Batterielaufzeiten der mobilen Endgeräte. Daher wird im LTE&amp;amp;ndash;Uplink das konkurrierende Verfahren SC&amp;amp;ndash;FDMA verwendet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Zudem ist die Sender&amp;amp;ndash;Komplexität bei SC&amp;amp;ndash;FDMA allgemein niedriger als bei anderen Verfahren, was billigere Endgeräte bedeutet [MLG06]&amp;lt;ref name='MLG06'&amp;gt;Myung, H.; Lim, J.; ''Goodman, D.: Single Carrier FDMA for Uplink Wireless Transmission.'' IEEE Vehicular Technology Magazine, Vol. 1, No. 3, 2006.&amp;lt;/ref&amp;gt;. Würde man das bei UMTS genutzte CDMA auf den 4G&amp;amp;ndash;Standard erweitern, so würde demgegenüber auf Grund der hohen Frequenzdiversität im Kanal die Empfängerkomplexität stark ansteigen [IXIA09]&amp;lt;ref name='IXIA09'&amp;gt;''SC-FDMA – Single Carrier FDMA in LTE.'' [https://www.ixiacom.com/pdfs/library/white_papers/SC-FDMA-INDD.pdf PDF–Dokument im Internet,] 2009.&amp;lt;/ref&amp;gt;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Allerdings wird die Frequenzbereichsentzerrung bei SC&amp;amp;ndash;FDMA komplizierter als bei OFDMA. Dies ist der Hauptgrund, warum man SC&amp;amp;ndash;FDMA nur im Uplink verwendet. So müssen diese komplizierten Entzerrer nur in den Basisstationen eingebaut werden und nicht in den Endgeräten.}}&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:4.3 Subcarrier–Mapping|Aufgabe 4.3: Subcarrier–Mapping]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Aufgabe_4.3Z:_Zugriffsverfahren_bei_LTE|Zusatzaufgabe 4.3: Zugriffsverfahren bei LTE]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Mobile_Communications/Technical_Innovations_of_LTE&amp;diff=21270</id>
		<title>Mobile Communications/Technical Innovations of LTE</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Mobile_Communications/Technical_Innovations_of_LTE&amp;diff=21270"/>
		<updated>2018-01-02T18:38:59Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=LTE – Long Term Evolution&lt;br /&gt;
|Vorherige Seite=Allgemeines zum Mobilfunkstandard LTE&lt;br /&gt;
|Nächste Seite=Die Anwendung von OFDMA und SC-FDMA in LTE&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Zur Sprachübertragung bei LTE ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Anders als die bisherigen Mobilfunkstandards unterstützt LTE nur eine ''paketorientierte Übertragung''. Für die Sprachübertragung wäre jedoch eine verbindungsorientierte Übertragung mit fester Reservierung der Ressourcen besser, da eine &amp;amp;bdquo;gestückelte Übertragung&amp;amp;rdquo; &amp;amp;ndash; wie es beim paketorientierten Verfahren der Fall ist &amp;amp;ndash;  relativ kompliziert ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Das Problem der Einbindung von Sprachübertragungsverfahren war eine der großen Herausforderungen bei der Entwicklung von LTE, denn die Sprachübertragung ist für die Netzbetreiber weiterhin die größte Einnahmequelle. Es gab einige Ansätze, wie dem Internet&amp;amp;ndash;Artikel [Gut10]&amp;lt;ref name='Gut10'&amp;gt;Gutt, E.: ''LTE – eine neue Dimension mobiler Breitbandnutzung''. [http://www.ltemobile.de/uploads/media/LTE_Einfuehrung_V1.pdf PDF-Dokument im Internet], 2010.&amp;lt;/ref&amp;gt; entnommen werden kann.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''(1)''' &amp;amp;nbsp;Eine sehr einfache und nahe liegende Methode ist &amp;lt;i&amp;gt;Circuit Switched Fallback&amp;lt;/i&amp;gt; ('''CSFB'''). Hier wird für die Sprachübertragung eine leitungsgebundene Übertragung verwendet. Das Prinzip ist:&lt;br /&gt;
*Das Endgerät meldet sich im LTE&amp;amp;ndash;Netz an und parallel dazu auch noch in einem GSM&amp;amp;ndash; oder UMTS&amp;amp;ndash;Netz. Bei eingehendem Anruf erhält das Endgerät von der &amp;lt;i&amp;gt;Mobile Management Entity&amp;lt;/i&amp;gt; (MME,  Kontrollknoten im LTE&amp;amp;ndash;Netz zur Nutzer&amp;amp;ndash;Authentifizierung) eine Nachricht, woraufhin eine leitungsgebundene Übertragung über das GSM&amp;amp;ndash; oder das UMTS&amp;amp;ndash;Netz aufgebaut wird.&lt;br /&gt;
*Ein Nachteil dieser Lösung (eigentlich ist es eine &amp;amp;bdquo;Problemverschleierung&amp;amp;rdquo;) ist der stark verzögerte Verbindungsaufbau. Außerdem verhindert CSFB die komplette Umstellung des Netzes auf LTE.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''(2)''' &amp;amp;nbsp;Eine weitere Möglichkeit zur Integration von Sprache in ein paketorientes Übertragungssystem bietet &amp;lt;i&amp;gt;Voice over LTE via GAN&amp;lt;/i&amp;gt; ('''VoLGA'''), die auf der von [[Mobile_Kommunikation/Allgemeines_zum_Mobilfunkstandard_LTE#3GPP_.E2.80.93_Third_Generation_Partnership_Project| 3GPP]] entwickelten GAN-Technologie ([https://en.wikipedia.org/wiki/Generic_Access_Network Generic Access Network]) basiert. In aller Kürze lässt sich das Prinzip wie folgt darstellen:&lt;br /&gt;
* GAN ermöglicht leitungsbezogene Dienste über ein paketorientiertes Netzwerk (IP&amp;amp;ndash;Netzwerk), beispielsweise WLAN (&amp;lt;i&amp;gt;Wireless Local Area Network&amp;lt;/i&amp;gt;). Mit kompatiblen Endgeräten kann man sich so im GSM&amp;amp;ndash;Netz über eine WLAN&amp;amp;ndash;Verbindung registrieren lassen und  leitungsbasierte Dienste nutzen. VoLGA nutzt diese Funktionalität, in dem es WLAN durch LTE ersetzt.&amp;lt;br&amp;gt;&lt;br /&gt;
* Vorteilhaft ist die schnelle Implementierung von VoLGA, da keine langwierige Neuentwicklung und keine Änderungen am Kernnetz notwendig sind. Allerdings muss dem Netz als Hardware ein sogenannter &amp;lt;i&amp;gt;VoLGA Access Network Controller&amp;lt;/i&amp;gt;  (VANC) hinzugefügt werden. Dieser sorgt für die Kommunikation zwischen Endgerät und der &amp;lt;i&amp;gt;Mobile Management Entity&amp;lt;/i&amp;gt; bzw. dem Kernnetz.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Auch wenn VoLGA für Sprachverbindungen nicht auf ein GSM&amp;amp;ndash; oder UMTS&amp;amp;ndash;Netz zurückgreifen muss wie CSFB, wurde es auf Grund ihrer Benutzerunfreundlichkeit vom Großteil der Mobilfunkgemeinde auch nur als (unbefriedigende) Brückentechnologie betrachtet. T&amp;amp;ndash;Mobile war lange ein Verfechter der  VoLGA&amp;amp;ndash;Technologie, beendete im Februar 2011 jedoch ebenfalls die weitere Entwicklung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Folgenden beschreiben wir einen besseren Lösungsvorschlag. Stichworte sind &amp;lt;i&amp;gt;IP Multimedia Subsystem&amp;lt;/i&amp;gt; (IMS) sowie &amp;lt;i&amp;gt;Voice over LTE&amp;lt;/i&amp;gt; (VoLTE). Die Betreiber in Deutschland haben relativ spät auf diese Technologie umgestellt: Vodafone und O2 Telefonica Anfang 2015, die Telekom  Anfang 2016. Dies ist auch der Grund dafür, dass der Umstieg auf LTE in Deutschland (und in Europa allgemein) schleppender verlief als in den USA.  Viele Kunden wollten nicht die höheren Preise für LTE zahlen, so lange es keine gut funktionierende Lösung für die Integration der Sprachübertragung gab.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== VoLTE – Voice over LTE ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Der aus heutiger Sicht (2016) erfolgversprechendste, teilweise bereits etablierte Ansatz zur Integration der Sprachdienste in das LTE&amp;amp;ndash;Netz ist &amp;lt;i&amp;gt;Voice over LTE&amp;lt;/i&amp;gt; &amp;amp;ndash; kurz: '''VoLTE'''. Dieser offiziell von der [http://www.gsma.com/aboutus/ GSMA] &amp;amp;ndash; die weltweite Industrievereinigung von mehr als 800 Mobilfunkanbietern und  über 200 Herstellern von Mobiltelefonen  und Netzinfrastruktur &amp;amp;ndash; verabschiedete Standard ist ausschließlich IP&amp;amp;ndash;paketorientiert und basiert auf dem &amp;lt;i&amp;gt;IP Multimedia Subsystem&amp;lt;/i&amp;gt; ('''IMS'''), das bereits 2010 in der UMTS&amp;amp;ndash;Release 9 definiert wurde. Die technischen Fakten zu IMS sind:&lt;br /&gt;
*Das IMS&amp;amp;ndash;Basisprotokoll ist das von &amp;lt;i&amp;gt;Voice over IP&amp;lt;/i&amp;gt; bekannte [https://de.wikipedia.org/wiki/Session_Initiation_Protocol Session Initiation Protocol] (SIP).  Es handelt sich dabei um ein Netzprotokoll, mit dem Verbindungen zwischen zwei Teilnehmern aufgebaut und  gesteuert werden können. Dieses Protokoll ermöglicht die Entwicklung zu einem vollständig  (für Daten &amp;lt;u&amp;gt;und&amp;lt;/u&amp;gt; Sprache) IP&amp;amp;ndash;basierten Netzwerk und bietet damit Zukunftssicherheit.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der Grund, warum sich die Einführung von VoLTE gegenüber der LTE&amp;amp;ndash;Etablierung im Datenverkehr um  vier Jahre verzögert hat, liegt im schwierigen Zusammenspiel von &amp;amp;bdquo;4G&amp;amp;rdquo; mit den älteren Vorgängerstandards &amp;lt;i&amp;gt;GSM&amp;lt;/i&amp;gt; (&amp;amp;bdquo;2G&amp;amp;rdquo;) und &amp;lt;i&amp;gt;UMTS&amp;lt;/i&amp;gt; (&amp;amp;bdquo;3G&amp;amp;rdquo;). Hierzu ein Beispiel:&lt;br /&gt;
*Verlässt ein Mobilfunknutzer seine LTE&amp;amp;ndash;Zelle und wechselt in ein Gebiet ohne 4G&amp;amp;ndash;Versorgung, so muss ein unmittelbarer Wechsel zum nächstbesten Standard (3G) erfolgen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Sprache wird hier technisch völlig anders übermittelt, nicht mehr durch viele kleine Datenpakete &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;amp;bdquo;paketvermittelt&amp;amp;rdquo;, sondern sequentiell in den eigens für den Teilnehmer reservierten logischen und physikalischen Kanälen &amp;amp;nbsp; &amp;amp;#8658;&amp;amp;nbsp;  &amp;amp;bdquo;leitungsvermittelt&amp;amp;rdquo;.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Diese Umsetzung muss derart schnell und problemlos verlaufen, dass der Endkunde davon nichts merkt. Und diese Umsetzung muss für alle Mobilfunkstandards und Techniken funktionieren.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nach Ansicht aller Experten wird VoLTE das mobile Telefonieren ähnlich positiv beeinflussen, wie LTE das mobile Internet seit 2011 vorangebracht hat. Wesentliche Vorteile für die Nutzer sind:&lt;br /&gt;
*Eine &amp;lt;i&amp;gt;höhere Sprachqualität&amp;lt;/i&amp;gt;, da VoLTE [[Beispiele_von_Nachrichtensystemen/Nachrichtentechnische_Aspekte_von_UMTS#Sprachcodierung| AMR&amp;amp;ndash;Wideband Codecs]] mit 12.65 bzw. 23.85 kbit/s nutzt. Außerdem werden die VoLTE&amp;amp;ndash;Datenpakete für möglichst niedrige Latenzen priorisiert.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ein enorm &amp;lt;i&amp;gt;beschleunigter Verbindungaufbau&amp;lt;/i&amp;gt; innerhalb von einer oder zwei Sekunden, während es bei &amp;lt;i&amp;gt;Circuit Switched Fallback&amp;lt;/i&amp;gt; (CSFB) unangenehm lange  dauert,  bis eine  Verbindung steht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ein &amp;lt;i&amp;gt;niedriger Akkuverbrauch&amp;lt;/i&amp;gt;, deutlich geringer als bei &amp;amp;bdquo;2G&amp;amp;rdquo; und &amp;amp;bdquo;3G&amp;amp;rdquo;, damit verbunden eine längere Akkulaufzeit. Auch gegenüber gängigen VoIP&amp;amp;ndash;Diensten ist der Energiebedarf bis zu 40% geringer.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aus Sicht der Provider ergeben sich folgende Vorteile:&lt;br /&gt;
*Eine &amp;lt;i&amp;gt;bessere Spektraleffizienz&amp;lt;/i&amp;gt;: Doppelt so viele Gespräche im gleichen Frequenzband als bei &amp;amp;bdquo;3G&amp;amp;rdquo;. Oder: Bei gleichem Gesprächsaufkommen steht für Datendienste mehr Kapazität zur Verfügung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Eine einfache Implementierung von [https://de.wikipedia.org/wiki/Rich_Media Rich Media Services] (RCS), etwa für Videotelefonie oder zukünftige Anwendungen, durch die neue Kunden geworben werden können.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Eine &amp;lt;i&amp;gt;bessere Akzeptanz&amp;lt;/i&amp;gt; der höheren Bereitstellungskosten durch LTE&amp;amp;ndash;Kunden, wenn man nicht zum Telefonieren in ein &amp;amp;bdquo;niederwertiges&amp;amp;rdquo; Netz wie &amp;amp;bdquo;2G&amp;amp;rdquo; oder &amp;amp;bdquo;3G&amp;amp;rdquo; ausgelagert werden muss.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bandbreitenflexibilität ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
LTE lässt sich durch die Verwendung von [[Modulationsverfahren/Allgemeine_Beschreibung_von_OFDM#Das_Prinzip_von_OFDM_.E2.80.93_Systembetrachtung_im_Zeitbereich_.281.29 |OFDM]] mit relativ wenig Aufwand an unterschiedlich breite Frequenzbänder anpassen. Diese Tatsache ist eine aus verschiedenen Gründen &amp;amp;ndash; siehe [Mey10]&amp;lt;ref name='Mey10'&amp;gt;Meyer, M.: ''Siebenmeilenfunk.'' c't 2010, Heft 25, 2010.&amp;lt;/ref&amp;gt; &amp;amp;ndash; wichtige Eigenschaft, insbesondere für die Netzbetreiber:&lt;br /&gt;
*Abhängig von den gesetzlichen Vorgaben in verschiedenen Ländern können die Frequenzbänder für LTE unterschiedlich groß sein. Auch der Ausgang der staatenspezifischen Versteigerungen der LTE&amp;amp;ndash;Frequenzen (getrennt nach FDD und TDD) hat die Breite der Spektren beeinflusst.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Oft betreibt man LTE im Hinblick auf eine spätere Migration in der &amp;amp;bdquo;Frequenz&amp;amp;ndash;Nachbarschaft&amp;amp;rdquo; etablierter Funkübertragungssysteme, mit deren Abschaltung in Kürze gerechnet wird. Steigt die Nachfrage, so kann man LTE nach und nach auf den frei werdenden Frequenzbereich ausweiten.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Als Beispiel sei die Migration der Fernsehkanäle nach der Digitalisierung genannt: Im jetzt frei gewordenen VHF&amp;amp;ndash;Frequenzbereich um 800 MHz wird ein Teil des LTE&amp;amp;ndash;Netzwerks angesiedelt &amp;amp;ndash; siehe [[Mobile_Kommunikation/Allgemeines_zum_Mobilfunkstandard_LTE#LTE.E2.80.93Frequenzbandaufteilung| Grafik zur Frequenzbandaufteilung]].&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Eigentlich könnten die Bandbreiten mit einem Feinheitsgrad von bis zu 15 kHz (entsprechend  einem OFDMA&amp;amp;ndash;Unterträger) gewählt werden. Da dies jedoch unnötig Overhead produzieren würde, hat man als kleinste adressierbare LTE&amp;amp;ndash;Ressource eine Dauer von '''einer Millisekunde''' und eine Bandbreite von '''180 kHz''' festgelegt. Ein solcher Block entspricht zwölf Unterträgern (180 kHz geteilt durch 15 kHz).&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um die Komplexität und den Aufwand bei der Hardwarestandardisierung möglichst gering zu halten, hat man sich zudem auf eine ganze Reihe zulässiger Bandbreiten zwischen 1.4 MHz und 20 MHz geeinigt. Die folgende Auflistung &amp;amp;ndash;  entnommen aus [Ges08]&amp;lt;ref name='Ges08'&amp;gt;Gessner, C.: ''UMTS Long Term Evolution (LTE): Technology Introduction.'' Rohde&amp;amp;Schwarz, 2008.&amp;lt;/ref&amp;gt; &amp;amp;ndash; gibt die standarisierten Bandbreiten, die Anzahl der verfügbaren Blöcke sowie den &amp;amp;bdquo;Overhead&amp;amp;rdquo; an:&lt;br /&gt;
*6 verfügbare Blöcke in der Bandbreite 1.4 MHz &amp;amp;nbsp;&amp;amp;#8658;&amp;amp;nbsp; relativer Overhead ca. 22.8%,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*15 verfügbare Blöcke in der Bandbreite 3 MHz &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; relativer Overhead ca. 10%,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*25 verfügbare Blöcke in der Bandbreite 5 MHz &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; relativer Overhead ca. 10%,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*50 verfügbare Blöcke in der Bandbreite 10 MHz &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; relativer Overhead ca. 10%,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*75 verfügbare Blöcke in der Bandbreite 15 MHz &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; relativer Overhead ca. 10%,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*100 verfügbare Blöcke in der Bandbreite 20 MHz &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; relativer Overhead ca. 10%.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Da sonst einige LTE&amp;amp;ndash;spezifische Funktionen nicht funktionieren würden, müssen mindestens sechs Blöcke bereitgestellt werden. Der relative Overhead ist bei kleiner Kanalbandbreite (1.4 MHz) vergleichsweise hoch: (1.4 &amp;amp;ndash; 6 &amp;amp;middot; 0.18)/1.4 &amp;amp;asymp; 22.8%. Ab einer Bandbreite von 3 MHz beträgt der relative Overhead konstant 10%. Weiter gilt, dass alle Endgeräte auch die maximale Bandbreite von 20 MHz unterstützen müssen [Ges08]&amp;lt;ref name='Ges08'&amp;gt;&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== FDD, TDD und Halb–Duplex–Verfahren==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Eine weitere wichtige Neuerung von LTE ist das Halb&amp;amp;ndash;Duplex&amp;amp;ndash;Verfahren, welches eine Mischung aus den beiden bereits von UMTS bekannten [[Beispiele_von_Nachrichtensystemen/Allgemeine_Beschreibung_von_UMTS#Vollduplexverfahren|Duplexverfahren]] darstellt:&lt;br /&gt;
*'''Frequency Division Duplex''' (FDD), und&amp;lt;br&amp;gt;&lt;br /&gt;
*'''Time Division Duplex''' (TDD) .&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Solche Duplexverfahren sind erforderlich, damit Uplink und Downlink klar voneinander getrennt sind und die Übertragung reibungslos funktioniert. Die Grafik illustriert den Unterschied zwischen FDD&amp;amp;ndash; und TDD&amp;amp;ndash;basierter Übertragung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2281 Mob T 4 2 S4a v1.png|center|frame|Übertragungschema bei FDD (oben)  bzw. TDD (unten)|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Mit Hilfe der beiden Methoden FDD und TDD kann LTE sowohl in gepaarten, als auch in ungepaarten Frequenzbereichen betrieben werden. Die beiden Verfahren stellen gewissermaßen einen Gegensatz dar:&lt;br /&gt;
*FDD benötigt ein gepaartes Spektrum, also jeweils ein Frequenzband für die Übertragung von der Basisstation in Richtung Endgerät (Downlink) und eines für die Übertragung in umgekehrter Richtung (Uplink). Downlink sowie Uplink können dabei aber gleichzeitig übertragen werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*TDD wurde für ungepaarte Spektren konzipiert. Zwar benötigt man nun für Uplink und Downlink nur noch ein einziges Band. Sender und Empfänger müssen sich nun allerdings bei der Übertragung abwechseln. Das Hauptproblem von TDD ist die erforderliche Synchronität der Netze.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In obiger Grafik sind die Unterschiede zwischen FDD und TDD zu erkennen. Man sieht, dass man bei TDD beim Wechsel von Downlink zu Uplink (bzw. umgekehrt) eine Guard Period einfügen muss, damit es nicht zu einer Überlagerung der Signale kommt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Obwohl FDD in der Praxis voraussichtlich stärker genutzt werden wird (und die FDD&amp;amp;ndash;Frequenzen für die Provider auch sehr viel teuerer waren), gibt es durchaus auch einige Gründe, die für TDD sprechen:&lt;br /&gt;
*Frequenzen sind &amp;amp;ndash; wie sich bei der Versteigerung 2010 wieder gezeigt hat &amp;amp;ndash; ein rares und teures Gut. TDD benötigt aber nur die halbe Frequenzbandbreite.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die TDD&amp;amp;ndash;Technik ermöglicht verschiedene Modi, die festlegen, wie viel Zeit für Downlink bzw. Uplink verwendet werden soll und kann so auf individuelle Anforderungen abgestimmt werden.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für die eigentliche Neuerung, das '''Halb&amp;amp;ndash;Duplex&amp;amp;ndash;Verfahren''', benötigt man zwar wie bei FDD auch ein gepaartes Spektrum. Sender und Empfänger der Basisstation wechseln sich aber trotzdem wie bei TDD ab:  Jedes Endgerät kann gleichzeitig entweder nur Senden oder nur Empfangen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2276 Mob T 4 2 S4b v1.png|center|frame|Übertragungsschema bei Halb–Duplex|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Aus dieser Grafik erkennt man:&lt;br /&gt;
*Durch eine zweite Verbindung zu einem anderen Endgerät mit vertauschtem Downlink/Uplink&amp;amp;ndash;Raster kann trotzdem das gesamte zur Verfügung stehende Band voll genutzt werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der wesentliche Vorteil des Halb&amp;amp;ndash;Duplex&amp;amp;ndash;Verfahrens besteht aber darin, dass durch die Verwendung des TDD&amp;amp;ndash;Konzepts die Anforderungen an die Endgeräte stark sinken und sich diese einfacher und billiger produzieren lassen.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Dass diesem Aspekt in der Standardisierung große Bedeutung zugemessen wurde, lässt sich auch an der Verwendung von OFDMA im Downlink und SC&amp;amp;ndash;FDMA im Uplink erkennen: Dadurch erreicht man eine längere Batterielaufzeit der Endgeräte und es können günstigere Bauteile verwendet werden. Mehr dazu finden Sie im Kapitel [[Mobile_Kommunikation/Die_Anwendung_von_OFDMA_und_SC-FDMA_in_LTE#Allgemeines_zur_LTE.E2.80.93.C3.9Cbertragungstechnik|Die Anwendung von OFDMA und SC-FDMA in LTE]].&lt;br /&gt;
&lt;br /&gt;
== Mehrantennensysteme==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Verwendet ein Funksystem mehrere Sende&amp;amp;ndash; und Empfangsantennen, so spricht man von  '''Multiple Input Multiple Output''' (MIMO). Dabei handelt es sich nicht um eine LTE&amp;amp;ndash;spezifische Entwicklung. So nutzt beispielweise auch WLAN diese Technologie. Das Prinzip der Mehrantennensysteme wird in der folgenden Grafik am Beispiel von 2&amp;amp;times;2&amp;amp;ndash;MIMO (zwei Sende&amp;amp;ndash; und zwei Empfangsantennen) verdeutlicht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2277 Mob T 4 2 S5a v1.png|right|frame|Der Unterschied zwischen SISO und MIMO|class=fit]]&lt;br /&gt;
Das Neue an LTE ist nicht die eigentliche   Nutzung von  &amp;lt;i&amp;gt;Multiple Input Multiple Output&amp;lt;/i&amp;gt;, sondern die besonders intensive, nämlich 2&amp;amp;times;2&amp;amp;ndash;MIMO im Uplink und maximal 4&amp;amp;times;4&amp;amp;ndash;MIMO im Downlink. Beim Nachfolger [[Mobile_Kommunikation/LTE%E2%80%93Advanced_%E2%80%93_eine_Weiterentwicklung_von_LTE#Wie_schnell_ist_LTE_wirklich.3F|LTE&amp;amp;ndash;Advanced]] ist die Nutzung von MIMO noch ausgeprägter, nämlich  &amp;amp;bdquo;4&amp;amp;times;4&amp;amp;rdquo; im Uplink und &amp;amp;bdquo;8&amp;amp;times;8&amp;amp;rdquo; in Gegenrichtung.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Ein MIMO&amp;amp;ndash;System weist gegenüber ''Single Input Single Output'' (SISO, nur eine Sende&amp;amp;ndash; und eine Empfangsantennen) Vorteile auf. Man unterscheidet je nach Kanal zwischen mehreren Gewinnen:&lt;br /&gt;
*&amp;lt;b&amp;gt;Leistungsgewinn&amp;lt;/b&amp;gt; gemäß der Anzahl von Empfangsantennen: Kombiniert man die über mehrere Antennen  eintreffenden Funksignale in geeigneter Weise  ([https://en.wikipedia.org/wiki/Maximal-ratio_combining Spatial Combining]), so erhöht man die Empfangsleistung und verbessert so die Funkverbindung. Mit einer Verdoppelung der Antennen erreicht man einen Leistungsgewinn von maximal 3 dB.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*&amp;lt;b&amp;gt;Diversitätsgewinn&amp;lt;/b&amp;gt; durch Raumdiversität (englisch: [https://en.wikipedia.org/wiki/Antenna_diversity Spatial Diversity]): Verwendet man mehrere räumlich getrennte Empfangsantennen in einer Umgebung mit starker Mehrwegeausbreitung, so ist das Fading an den einzelnen Antennen meist unabhängig voneinander und die Wahrscheinlichkeit, dass alle Antennen gleichzeitig von Fading betroffen sind, ist sehr gering.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*&amp;lt;b&amp;gt;Datenratengewinn&amp;lt;/b&amp;gt;: Dieser steigert die Effizienz von MIMO vor allem in einer Umgebung mit erhöhter Mehrwegeausbreitung, insbesondere dann, wenn Sender und Empfänger keine direkte Sichtverbindung haben und die Übertragung über Reflexionen erfolgt. Die Verdreifachung der Antennenzahl bei Sender und Empfänger führt zu einer Verdoppelung der Datenrate.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nicht möglich ist jedoch, dass alle Vorteile gleichzeitig eintreten. Abhängig von der Kanalbeschaffenheit kann es auch passieren, dass man nicht einmal die Wahl hat, welchen Vorteil man nutzen will.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Neben den MIMO-Systemen gibt es auch noch folgende Zwischenstufen:&lt;br /&gt;
*MISO&amp;amp;ndash;Systeme (nur eine Empfangsantenne, somit ist kein Leistungsgewinn möglich), und&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*SIMO&amp;amp;ndash;Systeme  (nur eine Sendeantenne, nur kleiner Diversitätsgewinn).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; Der Begriff &amp;amp;bdquo;MIMO&amp;amp;rdquo; fasst Mehrantennenverfahren mit unterschiedlichen Eigenschaften zusammen, die jeweils in gewissen Situationen von Nutzen sein können. Vier davon sind in der Grafik veranschaulicht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2484 Mob T 4 2 S5b v1.png|center|frame|Vier Mehrantennenverfahren mit unterschiedlichen Eigenschaften|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Die folgende Beschreibung ist auf die vier hier gezeigten Schaubildern abgestimmt.&lt;br /&gt;
*Werden die weitgehend unabhängigen Kanäle eines MIMO&amp;amp;ndash;Systems einem einzigen Teilnehmer zugeteilt (Schaubild links oben), so spricht man von '''Single&amp;amp;ndash;User MIMO'''. Durch 2&amp;amp;times;2&amp;amp;ndash;MIMO verdoppelt sich die Datenrate gegenüber dem SISO&amp;amp;ndash;Betrieb und mit jeweils vier Sende&amp;amp;ndash; und Empfangsantennen kann die Datenrate bei guten Kanalbedingungen nochmals verdoppelt werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*LTE ermöglicht maximal 4&amp;amp;times;4&amp;amp;ndash;MIMO allerdings  nur im Downlink. Als Empfänger (Endgeräte) kommen bei 4&amp;amp;times;4&amp;amp;ndash;MIMO aufgrund der Komplexität von Mehrantennensystemen nur Laptops mit LTE&amp;amp;ndash;Modems in Frage. Bei einem Handy beschränkt man sich auf 2&amp;amp;times;2&amp;amp;ndash;MIMO.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Im Gegensatz zum Single&amp;amp;ndash;User MIMO ist das Ziel beim '''Multi&amp;amp;ndash;User MIMO''' nicht die maximale Datenrate für einen Empfänger, sondern die Maximierung der Anzahl der Endgeräte, die das Netz gleichzeitig nutzen können (Schaubild oben rechts). Dabei werden verschiedene Datenströme zu unterschiedlichen Nutzern übertragen. Dies ist besonders an Orten mit hoher Nachfrage nützlich, wie zum Beispiel an Flughäfen oder in Fußballstadien.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ein Mehrantennenbetrieb dient aber nicht nur der Maximierung von Nutzerzahl oder Datenrate, sondern im Falle von schlechten Übertragungsbedingungen können mehrere Antennen auch ihre Leistung bündeln und so gezielt Daten zu einem einzigen Nutzer übertragen, um dessen Empfangsqualität zu verbessern. Man spricht dann von '''Beamforming'''  (Schaubild unten links), wodurch auch die Reichweite einer Sendestation erhöht wird.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die vierte Möglichkeit ist '''Antennendiversität''' (Schaubild unten rechts). Dadurch erhöht man die Redundanz (hinsichtlich Systemauslegung) und macht die Übertragung robuster gegenüber Störungen. Ein einfaches Beispiel: Es gibt vier Kanäle, die alle die gleichen Daten übertragen. Fällt ein Kanal aus, so sind immer noch drei Kanäle vorhanden, die die Information transportieren können.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Systemarchitektur==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die LTE&amp;amp;ndash;Architektur ermöglicht ein vollständig auf dem IP&amp;amp;ndash;Protokoll basierendes Übertragungssystem. Um dieses Ziel zu erreichen, musste die für UMTS spezifizierte Systemarchitektur nicht nur im Detail verändert, sondern teilweise komplett neu konzipiert werden. Dabei wurden auch andere IP&amp;amp;ndash;basierte Technologien wie ''mobiles WiMAX'' oder ''WLAN'' integriert, um in diese Netze problemlos wechseln zu können.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In UMTS&amp;amp;ndash;Netzen (linke Grafik) ist zwischen einer Basisstation (''NodeB'') und dem Kernnetz noch der &amp;lt;i&amp;gt;Radio Network Controller&amp;lt;/i&amp;gt; (RNC) zwischengeschaltet, der für den Wechsel zwischen verschiedenen Zellen hauptverantwortlich ist und der zu Latenzzeiten von bis zu 100 Millisekunden führen kann.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2278 Mob T 4 2 S6 v2.png|center|frame|Systemarchitektur bei UMTS (UTRAN) und LTE (EUTRAN)|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Die Neukonzipierung der Basisstationen (&amp;amp;bdquo;eNodeB&amp;amp;rdquo; anstelle von &amp;amp;bdquo;NodeB&amp;amp;rdquo;) und die Schnittstelle &amp;amp;bdquo;X2&amp;amp;rdquo; sind die entscheidenden Weiterentwicklungen von UMTS hin zu LTE. Die rechte Grafik illustriert insbesondere die mit der neuen Technologie einhergegangene Reduzierung der Komplexität gegenüber UMTS (linke Grafik). &lt;br /&gt;
&lt;br /&gt;
Die '''LTE&amp;amp;ndash;Systemarchitektur''' lässt sich in zwei große Bereiche einteilen:&lt;br /&gt;
*das LTE&amp;amp;ndash;Kernnetz &amp;lt;i&amp;gt;Evolved Packet Core&amp;lt;/i&amp;gt; (EPC),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*die Luftschnittstelle &amp;lt;i&amp;gt;Evolved UMTS Terrestrial Radio Access Network&amp;lt;/i&amp;gt; (EUTRAN) &amp;amp;ndash; eine Weiterentwicklung von [[Beispiele_von_Nachrichtensystemen/UMTS%E2%80%93Netzarchitektur#Architektur_der_Zugangsebene|&amp;lt;i&amp;gt;UMTS Terrestrial Radio Access Network&amp;lt;/i&amp;gt;]] (UTRAN).&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
EUTRAN überträgt die Daten zwischen dem Endgerät und der LTE&amp;amp;ndash;Basisstation (&amp;amp;bdquo;eNodeB&amp;amp;rdquo;)  über die sogenannte S1&amp;amp;ndash;Schnittstelle mit zwei Verbindungen,  eine für die Übertragung von Nutzdaten und eine zweite für die Übertragung von Signalisierungsdaten.  Aus obiger Grafik erkennt man:&lt;br /&gt;
*Die Basisstationen sind außer mit dem EPC auch mit den benachbarten Basisstationen verbunden. Diese Verbindungen (X2&amp;amp;ndash;Schnittstellen) bewirken, dass  möglichst wenige Pakete verloren gehen, wenn sich das Endgerät aus dem Umkreis einer Basisstation in Richtung einer anderen bewegt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Dazu kann die Basisstation, deren Versorgungsgebiet der Nutzer gerade verlässt, eventuell noch zwischengespeicherte Daten direkt und schnell an die &amp;amp;bdquo;neue&amp;amp;rdquo; Basisstation weitergeben. Damit ist eine (weitgehend) durchgehende Übertragung sichergestellt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Funktionalität des RNC geht zum Teil in die Basisstation, zum anderen in die &amp;lt;i&amp;gt;Mobility Management Entity&amp;lt;/i&amp;gt; (MME) im Kernnetz über. Diese Reduktion der Schnittstellen verkürzt die Signaldurchlaufzeit im Netzwerk und das Handover signifikant auf 20 Millisekunden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die LTE&amp;amp;ndash;Systemarchitektur ist zudem so ausgelegt, dass sich zukünftig &amp;lt;i&amp;gt;Inter&amp;amp;ndash;NodeB&amp;amp;ndash;Verfahren&amp;lt;/i&amp;gt; (wie &amp;lt;i&amp;gt;Soft&amp;amp;ndash;Handover&amp;lt;/i&amp;gt; oder &amp;lt;i&amp;gt;Cooperative Interference Cancellation&amp;lt;/i&amp;gt;) einfach integrieren lassen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== LTE&amp;amp;ndash;Kernnetz:  Backbone und Backhaul ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Das LTE&amp;amp;ndash;Kernnetz &amp;lt;i&amp;gt;Evolved Packet Core&amp;lt;/i&amp;gt; (EPC) eines Netzbetreibers &amp;amp;ndash; in der Fachsprache  &amp;lt;i&amp;gt;Backbone&amp;lt;/i&amp;gt; &amp;amp;ndash; besteht aus verschiedenen Netzwerkkomponenten. Das EPC ist mit den Basisstationen über das &amp;lt;i&amp;gt;Backhaul&amp;lt;/i&amp;gt; (englische Bezeichnung für &amp;lt;i&amp;gt;Rücktransport&amp;lt;/i&amp;gt;) verbunden. Darunter versteht man die Anbindung eines vorgelagerten, meist hierarchisch untergeordneten Netzknotens an einen zentralen Netzknoten.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Momentan besteht das &amp;lt;i&amp;gt;Backhaul&amp;lt;/i&amp;gt; zum Großteil aus Richtfunk und sogenannten E1&amp;amp;ndash;Leitungen. Diese sind Kupferleitungen und erlauben einen Durchsatz von ca. 2 Mbit/s. Für GSM&amp;amp;ndash; und UMTS&amp;amp;ndash;Netzwerke waren diese Verbindungen noch ausreichend, aber bereits für großflächig vermarktetes [[Beispiele_von_Nachrichtensystemen/Weiterentwicklungen_von_UMTS#High.E2.80.93Speed_Downlink_Packet_Access| HSDPA]] reichen solche Datenraten nicht mehr. Für LTE ist ein solches &amp;lt;i&amp;gt;Backhaul&amp;lt;/i&amp;gt; komplett unbrauchbar:&lt;br /&gt;
*Das langsame Kabelnetzwerk würde die schnellen Funkverbindungen ausbremsen; insgesamt wäre kein Geschwindigkeitszuwachs festzustellen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Aufgrund der geringen Kapazitäten der Leitungen mit E1&amp;amp;ndash;Standard wäre auch ein Ausbau mit weiteren baugleichen Leitungen nicht wirtschaftlich.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Zuge der LTE&amp;amp;ndash;Einführung muss also das &amp;lt;i&amp;gt;Backhaul&amp;lt;/i&amp;gt; neu entworfen werden. Dabei war es wichtig, Zukunftssicherheit im Auge zu behalten, stand doch die nächste Generation LTE&amp;amp;ndash;Advanced bereits vor der Einführung. Schenkt man dem von Experten propagierten &amp;lt;i&amp;gt;Moore's Law&amp;lt;/i&amp;gt; für Mobilfunkbandbreiten Glauben, so ist die teure Neuverlegung von Kabeln  der wichtigste Faktor für die Zukunftssicherheit.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Aufgrund der rein paketorientierten Übertragungstechnik bietet sich für das LTE&amp;amp;ndash;Backhaul der ebenfalls IP&amp;amp;ndash;basierte Ethernet&amp;amp;ndash;Standard an, der mit Hilfe von Lichtwellenleitern realisiert wird. Die Firma Fujitsu stellte 2009 in der Studie  [Fuj09]&amp;lt;ref name='Fuj09'&amp;gt;Fujitsu Network Communications Inc.: ''4G Impacts to Mobile Backhaul.'' [http://www.fujitsu.com/downloads/TEL/fnc/whitepapers/4Gimpacts.pdf PDF–Internetdokument].&amp;lt;/ref&amp;gt; zudem die These auf, dass die momentane Infrastruktur noch für die nächsten zehn bis fünfzehn Jahre eine wichtige Rolle für das LTE&amp;amp;ndash;Backhaul spielen wird.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für den Generationenwechsel hin zu einem Ethernet&amp;amp;ndash;basierten &amp;lt;i&amp;gt;Backhaul&amp;lt;/i&amp;gt; gibt es zwei Ansätze:&lt;br /&gt;
*der parallele Betrieb der Leitungen mit E1 und Ethernet&amp;amp;ndash;Standard,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*die sofortige Migration zu einem auf Ethernet basierenden &amp;lt;i&amp;gt;Backhaul&amp;lt;/i&amp;gt;.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Ersteres hätte den Vorteil, dass die Netzbetreiber den Sprachverkehr weiterhin über die alten Leitungen laufen lassen könnten und ausschließlich den bandbreitenintensiven Datenverkehr über die leistungsfähigeren Leitungen abwickeln müssten. &lt;br /&gt;
&lt;br /&gt;
Die zweite Möglichkeit wirft einige technische Probleme auf:&lt;br /&gt;
*Die vorher durch die langsamen E1-Standard&amp;amp;ndash;Leitungen transportierten Dienste müssten sofort auf ein paketbasiertes Verfahren umgestellt werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ethernet bietet (anders als der jetzige Standard) bisher keine &amp;lt;i&amp;gt;End&amp;amp;ndash;to&amp;amp;ndash;End&amp;amp;ndash;Synchronisierung&amp;lt;/i&amp;gt;, was beim Funkzellenwechsel zu starken Verzögerungen bis hin zu Dienstunterbrechungen führen kann &amp;amp;ndash; also eine gewaltige Einbuße der Servicequalität. Im Konzept [https://en.wikipedia.org/wiki/Synchronous_Ethernet Synchronous Ethernet] (SyncE) wurden jedoch von der Fa. Cisco bereits Vorschläge unterbreitet, wie die Synchronisation realisiert werden könnte.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
*Für Ballungsgebiete wäre eine direkte Umstellung des Backhauls sicher lohnenswert, da für eine vergleichsweise hohe Zahl an neuen Nutzern nur relativ wenige neue Kabel verlegt werden müssten. &lt;br /&gt;
*Im ländlichen Raum ergäben sich aber durch größere Grabungsarbeiten schnell hohe Kosten. Dies ist aber genau der Bereich, der laut der [[Mobile_Kommunikation/Allgemeines_zum_Mobilfunkstandard_LTE#LTE.E2.80.93Frequenzbandaufteilung|getroffenen  Vereinbarung]] zwischen der Bundesregierung  und den (deutschen) Mobilfunkbetreibern als erstes abgedeckt werden muss. Hier müsste (und wird wohl) der meist vorhandene Richtfunk auf hohe Datenraten erweitert werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:4.2 FDD, TDD und Halb–Duplex|Aufgabe 4.2: FDD, TDD und Halb–Duplex]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Aufgabe_4.2Z:_MIMO–Anwendungen_bei_LTE|Zusatzaufgabe:4.2 MIMO–Anwendungen bei LTE]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Mobile_Communications/Characteristics_of_GSM&amp;diff=21269</id>
		<title>Mobile Communications/Characteristics of GSM</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Mobile_Communications/Characteristics_of_GSM&amp;diff=21269"/>
		<updated>2018-01-02T18:37:16Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Mobilfunksysteme der 2. und 3. Generation – eine Übersicht&lt;br /&gt;
|Vorherige Seite=Gemeinsamkeiten von GSM und UMTS&lt;br /&gt;
|Nächste Seite=Die Charakteristika von UMTS&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Systemarchitektur und Basiseinheiten von GSM ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
'''GSM''' (&amp;lt;i&amp;gt;&amp;lt;b&amp;gt;G&amp;lt;/b&amp;gt;lobal &amp;lt;b&amp;gt;S&amp;lt;/b&amp;gt;ystem for &amp;lt;b&amp;gt;M&amp;lt;/b&amp;gt;obile Communication&amp;lt;/i&amp;gt;) ist ein stark hierarchisch gegliedertes System verschiedener Netzkomponenten. Aus der Grafik erkennt man:&lt;br /&gt;
*Die Mobilstation (MS) kommuniziert über die Funkschnittstelle mit der nächstgelegenen &amp;lt;i&amp;gt;Base Transceiver Station&amp;lt;/i&amp;gt; (BTS, Sende&amp;amp;ndash; und Empfangsbasisstation).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Mehrere solcher BTS werden gebietsweise zusammengefasst und sind gemeinsam einem &amp;lt;i&amp;gt;Base Station Controller&amp;lt;/i&amp;gt; (BSC, Kontrollstation) unterstellt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Das &amp;lt;i&amp;gt;Base Station Subsystem&amp;lt;/i&amp;gt; (BSS) besteht aus einer Vielzahl von BTS und mehreren BSC. In der Grafik ist ein solches BSS blau umrandet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Jeder BSC ist mit einem &amp;lt;i&amp;gt;Mobile Switching Center&amp;lt;/i&amp;gt; (MSC, Vermittlungsrechner) verbunden, dessen Funktion mit einem Vermittlungsknoten im Festnetz vergleichbar ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Das &amp;lt;i&amp;gt;Gateway Mobile Switching Center&amp;lt;/i&amp;gt; (GMSC) ist für die Verbindung zwischen Fest&amp;amp;ndash; und Mobilfunknetz zuständig. Wird zum Beispiel ein Mobilfunkteilnehmer aus dem Festnetz angerufen, so ermittelt das GMSC das zuständige MSC und vermittelt den Ruf weiter.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Das &amp;lt;i&amp;gt;Operation and Maintenance Center&amp;lt;/i&amp;gt; (OMC) überwacht einen Teil des Mobilfunknetzes. Daneben übernimmt es auch organisatorische Aufgaben wie Steuerung des Verkehrsflusses, Gebührenerfassung, Sicherheitsmanagement, usw..&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2203 Mob T 3 3 S1 v1.png|right|frame|GSM–Systemarchitektur|class=fit]]&lt;br /&gt;
&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
Genauere Informationen zur GSM&amp;amp;ndash;Systemarchitektur und zu den einzelnen Netzkomponenten finden Sie im Kapitel [[Beispiele_von_Nachrichtensystemen/Allgemeine_Beschreibung_von_GSM|Allgemeine Beschreibung von GSM]] des Buches &amp;amp;bdquo;Beispiele von Nachrichtensystemen&amp;amp;rdquo;.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Vielfachzugriff bei GSM ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Bei GSM werden zwei Vielfachzugriffsverfahren parallel verwendet:&lt;br /&gt;
*'''Frequenzmultiplex''' (&amp;lt;i&amp;gt;Frequency Division Multiple Access&amp;lt;/i&amp;gt;, FDMA), und&amp;lt;br&amp;gt;&lt;br /&gt;
*'''Zeitmultiplex''' (&amp;lt;i&amp;gt;Time Division Multiple Access&amp;lt;/i&amp;gt;, TDMA).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2204 Mob T 3 3 S2 v2.png||center|frame|Realisierung von FDMA und TDMA bei GSM 900|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Die Grafik und die folgende Beschreibung gilt für das ursprüngliche System &amp;amp;bdquo;GSM 900&amp;amp;rdquo; (D&amp;amp;ndash;Netz). Für &amp;amp;bdquo;GSM/DCS 1800&amp;amp;rdquo; (E&amp;amp;ndash;Netz) gelten vergleichbare Aussagen.&lt;br /&gt;
*Im D&amp;amp;ndash;Netz werden für Uplink und Downlink jeweils eine Bandbreite von 25 MHz bereit gestellt (Duplexabstand: 45 MHz). Man spricht von &amp;lt;i&amp;gt;Frequency Division Duplex&amp;lt;/i&amp;gt; (FDD). Beim E&amp;amp;ndash;Netz beträgt die Bandbreite jeweils 75 MHz und der Duplexabstand 95 MHz.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Uplink&amp;amp;ndash; und Downlinkband werden in Frequenzbänder der Breite 200 kHz unterteilt. Unter Berücksichtigung von Schutzbereichen an den jeweiligen Rändern stehen somit &amp;lt;i&amp;gt;N&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;F&amp;lt;/sub&amp;gt; = 124 (D&amp;amp;ndash;Netz) bzw. &amp;lt;i&amp;gt;N&amp;lt;/i&amp;gt; = 374 (E&amp;amp;ndash;Netz) Frequenzkanäle zur Verfügung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Jeder Zelle wird  eine Teilmenge dieser Frequenzen zugewiesen &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;i&amp;gt;Cell Allocation&amp;lt;/i&amp;gt;. Benachbarte Zellen arbeiten meist bei unterschiedlichen Frequenzen, zum Beispiel mit dem Reuse&amp;amp;ndash;Faktor 3, wie im Abschnitt  [[Mobile_Kommunikation/Gemeinsamkeiten_von_GSM_und_UMTS#Zellulare_Architektur| Zellulare Architektur]] durch die Farben Weiß, Gelb und Blau angedeutet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die 124 GSM&amp;amp;ndash;Frequenzkanäle werden durch Zeitmultiplex (TDMA) weiter unterteilt. Jeder FDMA&amp;amp;ndash;Kanal wird in so genannte TDMA&amp;amp;ndash;Rahmen aufgeteilt, die ihrerseits jeweils &amp;lt;i&amp;gt;N&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;T&amp;lt;/sub&amp;gt; = 8 Zeitschlitze (&amp;lt;i&amp;gt;Time&amp;amp;ndash;Slots&amp;lt;/i&amp;gt;) umfassen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Slots werden periodisch den einzelnen GSM&amp;amp;ndash;Nutzern zugeordnet und beinhalten jeweils einen so genannten [[Mobile_Kommunikation/Die_Charakteristika_von_GSM#Daten.E2.80.93_und_Rahmenstruktur_bei_GSM| Burst]]. Jedem Nutzer steht in jedem TDMA&amp;amp;ndash;Rahmen ein Zeitschlitz zur Verfügung. Eine Bündelung (maximal sechs pro User) ist nur bei GPRS/EDGE möglich.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die TDMA&amp;amp;ndash;Rahmen des Uplinks werden gegenüber denen des Downlinks um drei Slots verzögert gesendet: &amp;amp;nbsp; &amp;lt;i&amp;gt;Time Division Duplex&amp;lt;/i&amp;gt; (TDD). Die Hardware der Mobilstation kann somit gleichermaßen zum Senden und Empfangen einer Nachricht verwendet werden.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Daten– und Rahmenstruktur bei GSM ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Durch die GSM&amp;amp;ndash;Rahmenstruktur erfolgt die Abbildung der logischen Kanäle auf physikalische Kanäle. Hier beschränken wir uns  auf Verkehrskanäle und auf die Abbildung in der Zeit. In diesem Fall wird jeder Multiframe von 120 ms Dauer in 26 TDMA&amp;amp;ndash;Rahmen (davon zwei für Kontrollkanäle) der Dauer 4.615 ms unterteilt. Damit ergibt sich für die Dauer eines Zeitschlitzes näherungsweise &amp;lt;i&amp;gt;T&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;Z&amp;lt;/sub&amp;gt; = 577 &amp;amp;mu;s.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2205 Mob T 3 3 S3a v2.png||center|frame|Daten– und Rahmenstruktur bei GSM|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus dieser Grafik:&lt;br /&gt;
*In jedem Zeitschlitz wird ein so genannter &amp;lt;i&amp;gt;Burst&amp;lt;/i&amp;gt; übertragen, dessen Zeitdauer einheitlich 156.25 Bitdauern entspricht. Daraus folgt für die Bitdauer &amp;lt;i&amp;gt;T&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;B&amp;lt;/sub&amp;gt; = 576.9 &amp;amp;mu;s/156.25 &amp;amp;asymp; 3.692 &amp;amp;mu;s und für die Gesamt&amp;amp;ndash;Bruttodatenrate&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;R_{\rm ges} = {1}/{T_{\rm B}}= 270.833\,{\rm kbit/s}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die '''Bruttodatenrate''' eines jeden Nutzers beträgt somit &amp;lt;i&amp;gt;R&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;Brutto&amp;lt;/sub&amp;gt; = 33.854 kbit/s. Da in jedem &amp;lt;i&amp;gt;Normal Burst&amp;lt;/i&amp;gt; aber nur 2 &amp;amp;middot; 57 = 114 Datenbit (in der Grafik blau hinterlegt) übertragen werden, ergibt sich für die '''Nettodatenrate''' mit  &amp;lt;i&amp;gt;R&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;Netto&amp;lt;/sub&amp;gt; = 22.8 kbit/s ein kleinerer Wert.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Diese Nettodatenrate berücksichtigt auch die Kanalcodierung. Bei einem Sprachsignal werden pro Sprachrahmen von 20 ms Dauer 456 Bit übertragen, woraus sich genau die Rate 22.8 kbit/s ergibt. Ohne Kanalcodierung wäre die Datenrate nur 13 kbit/s.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Neben den Verkehrsdaten enthält ein &amp;lt;i&amp;gt;Normal Burst&amp;lt;/i&amp;gt; noch zweimal drei Tailbits (rot, in dieser Zeit wird der Kanal neu vermessen), zwei Signalisierungsbits (grün), 26 Bit für die Trainingssequenz (erforderlich für die Kanalschätzung und Synchronisation) sowie die &amp;lt;i&amp;gt;Guard Period&amp;lt;/i&amp;gt; (GP)  mit 8.25 Bitdauern (grau, ca. 30.5 &amp;amp;mu;s), wodurch sich die Datenrate von 22.8 auf 33.854 kbit/s erhöht.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Anzumerken ist, dass bei GSM neben dem &amp;lt;i&amp;gt;Normal Burst&amp;lt;/i&amp;gt; auch noch andere [[Beispiele_von_Nachrichtensystemen/Funkschnittstelle#Die_verschiedenen_Arten_von_Bursts| Arten von Bursts]] (&amp;lt;i&amp;gt;Frequency Correction Burst&amp;lt;/i&amp;gt;, &amp;lt;i&amp;gt;Synchronization Burst&amp;lt;/i&amp;gt;, &amp;lt;i&amp;gt;Dummy Burst&amp;lt;/i&amp;gt;, &amp;lt;i&amp;gt;Access Burst&amp;lt;/i&amp;gt;) eine Rolle spielen. Alle haben eine einheitliche Länge von 156.25 Bitdauern. Hierauf wird in der [[Aufgabe 3.2]] genauer eingegangen.&lt;br /&gt;
&lt;br /&gt;
== Modulationsverfahren bei GSM==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Bei GSM steht pro Frequenzkanal lediglich eine Bandbreite von &amp;lt;i&amp;gt;B&amp;lt;/i&amp;gt; = 200 kHz zur Verfügung, in der eine Gesamtdatenrate (für 8 Nutzer) von &amp;lt;i&amp;gt;R&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;ges&amp;lt;/sub&amp;gt; &amp;amp;asymp; 270 kbit/s übertragen werden muss. Man benötigt deshalb ein Modulationsverfahren mit einer Bandbreiteneffizienz von&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\beta \ge {R_{\rm ges}}/{B} \approx 1.35 \,\,{\rm bit/s/Hz}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
GSM verwendet das sehr bandbreiteneffiziente Modulationsverfahren [[Modulationsverfahren/Nichtlineare_Modulationsverfahren#GMSK_.E2.80.93_Gaussian_Minimum_Shift_Keying|Gaussian Minimum Shift Keying]] (GMSK). Es sei nochmals ausdrücklich erwähnt, dass sich dieses Modulationsverfahren ebenso wie der FDMA/TDMA&amp;amp;ndash;Vielfachzugriff ausschließlich auf die Funkschnittstelle zwischen der &amp;lt;i&amp;gt;Mobile Station&amp;lt;/i&amp;gt; (MS) und der &amp;lt;i&amp;gt;Base Transceiver Station &amp;lt;/i&amp;gt; (BTS) bezieht, die in der [[Mobile_Kommunikation/Die_Charakteristika_von_GSM#Systemarchitektur_und_Basiseinheiten_von_GSM|Systemarchitektur&amp;amp;ndash;Grafik]] zu Beginn des Kapitels durch gelbe Hinterlegung hervorgehoben ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
GMSK wurde bereits im Kapitel  [[Modulationsverfahren/Nichtlineare_Modulationsverfahren#Eigenschaften_nichtlinearer_Verfahren| Eigenschaften nichtlinearer Verfahren]] des Buches &amp;amp;bdquo;Modulationsverfahren&amp;amp;rdquo; beschrieben. Hier werden nur die wesentlichen Eigenschaften kurz zusammengefasst.&lt;br /&gt;
*GMSK ist eine Sonderform von binärem [[Modulationsverfahren/Nichtlineare_digitale_Modulation#FSK_.E2.80.93_Frequency_Shift_Keying| Frequency Shift Keying]] (FSK). Voraussetzung für die Orthogonalität zwischen den beiden Signalformen ist, dass der Modulationsindex &amp;lt;i&amp;gt;h&amp;lt;/i&amp;gt; ein Vielfaches von 0.5 ist. Für ganzzahlige Werte von &amp;lt;i&amp;gt;h&amp;lt;/i&amp;gt; kann die Demodulation auch nichtkohärent erfolgen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei GSM verwendet man den kleinstmöglichen Modulationsindex &amp;lt;i&amp;gt;h&amp;lt;/i&amp;gt; = 0.5. Ein größerer Wert würde eine deutlich größere Bandbreite beanspruchen. Eine solche FSK mit &amp;lt;i&amp;gt;h&amp;lt;/i&amp;gt; = 0.5 nennt man auch [[Modulationsverfahren/Nichtlineare_Modulationsverfahren#MSK_.E2.80.93_Minimum_Shift_Keying| Minimum Shift Keying]] (MSK). Allerdings ist dann eine kohärente Demodulation erforderlich.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ein sehr schmales Spektrum ergibt sich allerdings erst dann, wenn die Phasenwerte   an den Symbolgrenzen aneinander angepasst und dadurch Phasensprünge vermieden werden, was bei  MSK gegeben ist. Man bezeichnet solche Verfahren als [[Modulationsverfahren/Nichtlineare_digitale_Modulation#Bin.C3.A4re_FSK_mit_kontinuierlicher_Phasenanpassung| Continuous Phase Frequency Shift Keying]] (CP&amp;amp;ndash;FSK).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Bei GSM wird vor dem Frequenzmodulator noch ein Tiefpass mit Gauß&amp;amp;ndash;Charakteristik eingefügt &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; [[Beispiele_von_Nachrichtensystemen/Funkschnittstelle#Modulation_bei_GSM.E2.80.93Systemen|Gaussian Minimum Shift Keying]] (GMSK), wodurch die Bandbreite weiter verringert und die Bandbreiteneffizienz verbessert wird.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hinsichtlich der hier behandelten Thematik (kohärente bzw. nichtkohärente Demodulation von FSK) verweisen wir auf folgende Aufgaben im Buch &amp;amp;bdquo;Digitalsignalübertragung&amp;amp;rdquo;:&lt;br /&gt;
*[[Aufgabe A4.16: Binary Frequency Shift Keying (Kapitel 4.4)]],&amp;lt;br&amp;gt;&lt;br /&gt;
*[[Aufgabe Z4.18: FSK kohärent/nichtkohärent (Kapitel 4.5)]].&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; Die Grafik am Seitenende soll die bisherigen Aussagen verdeutlichen:&lt;br /&gt;
*Ausgehend von einem diracförmigen Quellensignal &amp;lt;i&amp;gt;q&amp;lt;sub&amp;gt;&amp;amp;delta;&amp;lt;/sub&amp;gt;&amp;lt;/i&amp;gt;(&amp;lt;i&amp;gt;t&amp;lt;/i&amp;gt;) am Punkt '''(1)''' kommt man durch ein Filter mit der rechteckförmigen Impulsantwort &amp;lt;i&amp;gt;g&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;R&amp;lt;/sub&amp;gt;(&amp;lt;i&amp;gt;t&amp;lt;/i&amp;gt;) zum Rechtecksignal &amp;lt;i&amp;gt;q&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;R&amp;lt;/sub&amp;gt;(&amp;lt;i&amp;gt;t&amp;lt;/i&amp;gt;) am Punkt '''(2)'''.&lt;br /&gt;
&lt;br /&gt;
*Würde man auf den Gaußtiefpass mit der Impulsantwort &amp;lt;i&amp;gt;h&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;G&amp;lt;/sub&amp;gt;(&amp;lt;i&amp;gt;t&amp;lt;/i&amp;gt;) verzichten &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; &amp;lt;i&amp;gt;q&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;G&amp;lt;/sub&amp;gt;(&amp;lt;i&amp;gt;t&amp;lt;/i&amp;gt;) = &amp;lt;i&amp;gt;q&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;R&amp;lt;/sub&amp;gt;(&amp;lt;i&amp;gt;t&amp;lt;/i&amp;gt;), so ergäbe sich am Punkt '''(4)''' eine abschnittsweise lineare Phasenfunktion &amp;lt;i&amp;gt;&amp;amp;phi;&amp;lt;/i&amp;gt;(&amp;lt;i&amp;gt;t&amp;lt;/i&amp;gt;). Bei allen Vielfachen der Symboldauer &amp;lt;i&amp;gt;T&amp;lt;/i&amp;gt; wären damit alle Phasenwerte Vielfache von &amp;amp;pi;/2.&lt;br /&gt;
&lt;br /&gt;
*Nach dem Phasenmodulator würde dann am Punkt '''(5)''' ein binäres FSK&amp;amp;ndash;Signal &amp;lt;i&amp;gt;s&amp;lt;/i&amp;gt;(&amp;lt;i&amp;gt;t&amp;lt;/i&amp;gt;) mit nur zwei Frequenzen auftreten. Aufgrund des bei Orthogonalität minimalen Modulationsindex &amp;lt;i&amp;gt;h&amp;lt;/i&amp;gt; = 0.5 ist &amp;lt;i&amp;gt;s&amp;lt;/i&amp;gt;(&amp;lt;i&amp;gt;t&amp;lt;/i&amp;gt;) gleichzeitig ein MSK&amp;amp;ndash;Signal.&lt;br /&gt;
&lt;br /&gt;
*Durch den Gaußtiefpass &amp;lt;i&amp;gt;H&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;G&amp;lt;/sub&amp;gt;(&amp;lt;i&amp;gt;f&amp;lt;/i&amp;gt;) mit der Grenzfrequenz &amp;lt;i&amp;gt;f&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;G&amp;lt;/sub&amp;gt;  = 0.45/&amp;lt;i&amp;gt;T&amp;lt;/i&amp;gt; (gültig für GSM) ist der Frequenzimpuls &amp;lt;i&amp;gt;g&amp;lt;/i&amp;gt;(&amp;lt;i&amp;gt;t&amp;lt;/i&amp;gt;) nicht mehr rechteckförmig, sondern entspricht der Rechteckantwort von &amp;lt;i&amp;gt;H&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;G&amp;lt;/sub&amp;gt;(&amp;lt;i&amp;gt;f&amp;lt;/i&amp;gt;). Nach den Gesetzen der Fouriertransformation gilt &amp;lt;i&amp;gt;g&amp;lt;/i&amp;gt;(&amp;lt;i&amp;gt;t&amp;lt;/i&amp;gt;) = &amp;lt;i&amp;gt;g&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;R&amp;lt;/sub&amp;gt;(&amp;lt;i&amp;gt;t&amp;lt;/i&amp;gt;) &amp;amp;#8727; &amp;lt;i&amp;gt;h&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;G&amp;lt;/sub&amp;gt;(&amp;lt;i&amp;gt;t&amp;lt;/i&amp;gt;).&lt;br /&gt;
&lt;br /&gt;
*Somit steigt die Phasenfunktion &amp;lt;i&amp;gt;&amp;amp;phi;&amp;lt;/i&amp;gt;(&amp;lt;i&amp;gt;t&amp;lt;/i&amp;gt;) nicht mehr abschnittsweise linear an oder fällt linear ab, sondern die Ecken sind abgerundet, wie aus dem Signalverlauf am Punkt '''(4)''' zu ersehen ist. Die violett&amp;amp;ndash;gepunktete Kurve gilt für die am Punkt '''(1)''' angenommene Datenfolge.&lt;br /&gt;
&lt;br /&gt;
*Das GMSK&amp;amp;ndash;Signal &amp;lt;i&amp;gt;s&amp;lt;/i&amp;gt;(&amp;lt;i&amp;gt;t&amp;lt;/i&amp;gt;) beinhaltet nun deutlich mehr als nur zwei diskrete Frequenzen und das Leistungsdichtespektrum fällt schneller ab, wie das [http://en.lntwww.de/Beispiele_von_Nachrichtensystemen/Funkschnittstelle#Vor.E2.80.93_und_Nachteile_von_GMSK Diagramm] im Buch &amp;amp;bdquo;Beispiele von Nachrichtensystemen&amp;amp;rdquo; zeigt. Aus der obigen Zeitdarstellung des Sendesignals &amp;lt;i&amp;gt;s&amp;lt;/i&amp;gt;(&amp;lt;i&amp;gt;t&amp;lt;/i&amp;gt;) am Punkt '''(5)''' des Blockschaltbildes ist dieser Sachverhalt allerdings nur schwer zu erkennen.&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2206 Mob T 3 3 S4 v1.png|center|frame|Blockschaltbild und Signale bei GMSK|class=fit]]}}&lt;br /&gt;
&lt;br /&gt;
== GSM–Erweiterungen ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
GSM wurde als europäisches Mobilfunksystem für Telefongespräche konzipiert und entwickelt mit der Zusatzoption der Datenübertragung, aber nur mit geringer Datenrate (9.6 kbit/s). Die Standardisierung der GSM&amp;amp;ndash;Phase 2 ab 1995 beinhaltete aber bereits erste Weiterentwicklungen und einige neue, bereits von ISDN bekannte und von den Nutzern geschätzte Zusatzdienste.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In den Jahren von 1997 bis 2000 wurden neue Datendienste mit höheren Bitraten entwickelt, die man der '''GSM&amp;amp;ndash;Phase 2+''' (bzw. '''2.5''') zurechnet:&lt;br /&gt;
*[[Beispiele_von_Nachrichtensystemen/Weiterentwicklungen_des_GSM#High_Speed_Circuit.E2.80.93Switched_Data_.28HSCSD.29| High&amp;amp;ndash;Speed Circuit&amp;amp;ndash;Switched Data]] (HSCSD) bietet bei ausreichend gutem Kanal durch eine höhere Coderate (Punktierung des Faltungscodes) eine leitungsorientierte Übertragung mit 14.4 kbit/s (gegenüber 9.6 kbit/s). Es ermöglicht zudem eine Kanalbündelung durch die Kombination mehrerer Zeitschlitze &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp;  &amp;amp;bdquo;&amp;lt;i&amp;gt;Multislot Capability&amp;lt;/i&amp;gt;&amp;amp;rdquo;. Bei einer Bündelung von vier Zeitschlitzen kommt man so auf eine maximale Übertragungsrate von 57.6 kbit/s.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*[[Beispiele_von_Nachrichtensystemen/Weiterentwicklungen_des_GSM#General_Packet_Radio_Service_.28GPRS.29| General Packet Radio Service]] (GPRS) ermöglicht die Kommunikation mit anderen Netzen wie etwa dem Internet oder firmeninternen Intranets. Es ist paketorientiert (statt leitungsorientiert) und unterstützt viele Datenübertragungsprotokolle, zum Beispiel das Internet Protocol (IP), X.25 und Datex&amp;amp;ndash;P. Die Gebühren ergeben sich bei GPRS nicht aus der Verbindungsdauer, sondern aus der übertragenen Datenmenge. Ein GPRS&amp;amp;ndash;Nutzer profitiert von den kürzeren Zugriffszeiten und der höheren Datenrate bis 21.4 kbit/s. Durch die Bündelung von sechs Zeitschlitzen erreicht man so maximal 128.4 kbit/s.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*[[Beispiele_von_Nachrichtensystemen/Weiterentwicklungen_des_GSM#Enhanced_Data_Rates_for_GSM_Evolution| Enhanced Data Rates for GSM Evolution]] (EDGE) benutzt neben dem GSM&amp;amp;ndash;Standard GMSK als weiteres Modulationsverfahren [[Modulationsverfahren/Quadratur%E2%80%93Amplitudenmodulation#Weitere_Signalraumkonstellationen| 8&amp;amp;ndash;PSK,]] so dass mit jedem Symbol drei Datenbits übertragen werden und auf diese Weise die Datenrate (theoretisch) verdreifacht werden kann.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Bei der Kombination aus GPRS und EDGE &amp;amp;ndash; man spricht dann von '''E&amp;amp;ndash;GPRS''' &amp;amp;ndash; gibt es neun verschiedene [[Beispiele_von_Nachrichtensystemen/Weiterentwicklungen_des_GSM#Enhanced_Data_Rates_for_GSM_Evolution| Modulation and Coding Schemes]] (MCS), zwischen denen der Betreiber wählen kann:&lt;br /&gt;
*mit GMSK&amp;amp;ndash; oder 8&amp;amp;ndash;PSK&amp;amp;ndash;Modulation,&amp;lt;br&amp;gt;&lt;br /&gt;
*resultierende Coderaten zwischen 0.37 und 1, sowie&amp;lt;br&amp;gt;&lt;br /&gt;
*Datenraten zwischen 8.8 (für MCS&amp;amp;ndash;1) und 59.2 kbit/s (für MCS&amp;amp;ndash;9).&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In der Praxis maximal anwendbar sind  allerdings MCS&amp;amp;ndash;8 (54.4 kbit/s) und sieben Zeitschlitze. Damit erreicht man immerhin 380.8 kbit/s und damit die Größenordnung von UMTS (384 kbit/s).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Erwähnt werden soll noch [[Mobile_Kommunikation/Allgemeines_zum_Mobilfunkstandard_LTE#Entwicklung_der_UMTS-Mobilfunkstandards_hin_zu_LTE|EDGE Evolution]] oder &amp;amp;bdquo;Evolved EDGE&amp;amp;rdquo;, also die Weiterentwicklung der Weiterentwicklung von GSM in Release 7 (Dezember 2007). Hierfür werden von den Entwicklern Datenraten bis zu 1 Mbit/s und halbierte Latenzzeiten (10 ms statt 20 ms) angegeben. Man erreicht diese Werte unter Anderem durch 32&amp;amp;ndash;QAM&amp;amp;ndash; oder 16&amp;amp;ndash;QAM&amp;amp;ndash;Modulation anstelle von 8&amp;amp;ndash;PSK und eine verbesserte Fehlerkorrektur durch den Einsatz von Turbo&amp;amp;ndash;Codes. Außerdem wurde die Symbolrate von 270.833 ksymbol/s um 20% auf 325 ksymbol/s erhöht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:3.5_GMSK–Modulation|Aufgabe 3.5: GMSK–Modulation]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.5Z_GSM–Netzkomponenten|Zusatzaufgabe 3.5Z: GSM–Netzkomponenten]]&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Mobile_Communications/Non-Frequency-Selective_Fading_With_Direct_Component&amp;diff=21268</id>
		<title>Mobile Communications/Non-Frequency-Selective Fading With Direct Component</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Mobile_Communications/Non-Frequency-Selective_Fading_With_Direct_Component&amp;diff=21268"/>
		<updated>2018-01-02T18:32:35Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Zeitvariante Übertragungskanäle&lt;br /&gt;
|Vorherige Seite=Statistische Bindungen innerhalb des Rayleigh–Prozesses&lt;br /&gt;
|Nächste Seite=Allgemeine Beschreibung zeitvarianter Systeme&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Kanalmodell und Rice–WDF ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die [[Mobile_Kommunikation/Wahrscheinlichkeitsdichte_des_Rayleigh%E2%80%93Fadings#Allgemeine_Beschreibung_des_Mobilfunkkanals| Rayleigh&amp;amp;ndash;Verteilung]] beschreibt den Mobilfunkkanal unter der Annahme, dass kein direkter Pfad vorhanden ist und sich somit der multiplikative Faktor $z(t) = x(t) + {\rm j} \cdot y(t)$ allein aus diffus gestreuten Komponenten zusammensetzt. Bei Vorhandensein einer Direktkomponente (englisch: &amp;lt;i&amp;gt;Line of Sight&amp;lt;/i&amp;gt;, LoS) muss man im Modell zu den mittelwertfreien Gaußprozessen $x(t)$ und $y(t)$ noch Gleichkomponenten hinzufügen:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;x(t) \hspace{0.1cm} \Rightarrow \hspace{0.1cm} x(t) +x_0 \hspace{0.05cm}, \hspace{0.2cm} y(t) \hspace{0.1cm} \Rightarrow \hspace{0.1cm} y(t) +y_0\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;z(t) = x(t) + {\rm j} \cdot y(t) \hspace{0.1cm} \Rightarrow \hspace{0.1cm} z(t) +z_0 \hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
 z_0 = x_0 + {\rm j} \cdot y_0\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt diess '''Rice&amp;amp;ndash;Fading&amp;amp;ndash;Kanalmodell'''. Als Sonderfall ergibt sich daraus wieder  das Rayleigh&amp;amp;ndash;Modell, wenn man $x_0 =  y_0= 0$ setzt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2126 Mob T 1 4 S1 v3.png|center|frame|Rice-Fading-Kanalmodell|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Das Rice&amp;amp;ndash;Fading&amp;amp;ndash;Modell lässt sich wie folgt zusammenfassen:&lt;br /&gt;
*Der Realteil $x(t)$ ist gaußverteilt (Mittelwert $x_0$, Varianz $\sigma ^2$). Der Imaginärteil $y(t)$ ist ebenfalls gaußverteilt  (Mittelwert $y_0$, Varianz $\sigma ^2$)  sowie unabhängig von $x(t)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Für $z_0 \ne 0$ ist der Betrag $|z(t)|$ [[Stochastische_Signaltheorie/Weitere_Verteilungen#Riceverteilung| riceverteilt]], woraus die Bezeichnung &amp;amp;bdquo;&amp;lt;i&amp;gt;Rice&amp;amp;ndash;Fading&amp;lt;/i&amp;gt;&amp;amp;rdquo; herrührt. &lt;br /&gt;
*Zur Vereinfachung der Schreibweise setzen wir  $|z(t)| = a(t)$. Für $a &amp;lt; 0$ ist die Betrags&amp;amp;ndash;WDF $f_a(a) \equiv 0$, für $a \ge  0$ gilt folgende Gleichung ($I_0$ bezeichnetdie &amp;lt;i&amp;gt;modifizierte Bessel&amp;amp;ndash;Funktion&amp;lt;/i&amp;gt; nullter Ordnung):&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;f_a(a) = \frac{a}{\sigma^2} \cdot {\rm exp} [ -\frac{a^2 + |z_0|^2}{2\sigma^2}] \cdot {\rm I}_0 \left [ \frac{a \cdot |z_0|}{\sigma^2} \right ]\hspace{0.5cm}\text{mit}\hspace{0.5cm}{\rm I }_0 (u) = {\rm J }_0 ({\rm j} \cdot u) = &lt;br /&gt;
 \sum_{k = 0}^{\infty} \frac{ (u/2)^{2k}}{k! \cdot \Gamma (k+1)}&lt;br /&gt;
 \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der Mobilfunkkanal ist um so besser für die Digitalsignalübertragung geeignet, je größer die &amp;amp;bdquo;Direktpfadleistung&amp;amp;rdquo;   $(|z_0|^2)$  gegenüber den Leistungen der Streukomponenten $2\sigma^2)$ ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ist $|z_0| \gg \sigma$ (Faktor 3 oder mehr), so  kann die Rice&amp;amp;ndash;WDF mit guter Näherung durch eine Gaußverteilung mit dem Mittelwert $|z_0|$ und der Streuung $\sigma$ angenähert werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Im Gegensatz zum &amp;lt;i&amp;gt;Rayleigh&amp;amp;ndash;Fading&amp;lt;/i&amp;gt; &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; $z_0 \equiv 0$ ist die Phase bei &amp;lt;i&amp;gt;Rice&amp;amp;ndash;Fading&amp;lt;/i&amp;gt; nicht gleichverteilt, sondern es gibt eine Vorzugsrichtung $\phi_0 = \arctan(y_0/x_0)$. Oft setzt man $y_0 = 0$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; $\phi_0  = 0$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Beispielhafte Signalverläufe bei Rice–Fading==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Grafik zeigt Signalverläufe und Dichtefunktionen zweier Mobilfunkkanäle:&lt;br /&gt;
[[File:P ID2129 Mob T 1 4 S2 v1.png|right|frame|Vergleich von Rayleigh-Fading (blau) und Rice-Fading (rot)|class=fit]]&lt;br /&gt;
*Rayleigh&amp;amp;ndash;Fading mit ${\rm E}[|z(t))|^2] = 2 \cdot \sigma^2 = 1$ (blaue Kurven),&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Rice&amp;amp;ndash;Fading mit gleichem $\sigma$ sowie $x_0 = 0.707$ und $y_0 = -0.707$ (rote Kurven).&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für die Erzeugung der Signalausschnitte mit dem auf der letzten Seite gezeigten Modell wurde in beiden Fällen die [[Mobile_Kommunikation/Statistische_Bindungen_innerhalb_des_Rayleigh%E2%80%93Prozesses#Dopplerfrequenz_und_deren_Verteilung| maximale Dopplerfrequenz]] $f_\text{D, max} = 100 \ \rm Hz$ zugrundegelegt. &lt;br /&gt;
&lt;br /&gt;
AKF und LDS von Rayleigh&amp;amp;ndash; und Rice&amp;amp;ndash;Fading unterscheiden sich nur geringfügig. Es gilt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\varphi_z ({\rm \Delta}t)\Bigg |_{\hspace{0.1cm}{\rm Rice}}  \hspace{-0.5cm}  =  \varphi_z ({\rm \Delta}t)\Bigg |_{\hspace{0.1cm}{\rm Rayleigh}} \hspace{-0.8cm} + |z_0|^2 \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; {\it \Phi}_z(f_{\rm D})\Bigg |_{\hspace{0.1cm}{\rm Rice}} \hspace{-0.5cm}  =    {\it \Phi}_z(f_{\rm D})\Bigg |_{\hspace{0.1cm}{\rm Rayleigh}} \hspace{-0.8cm} + |z_0|^2 \cdot \delta (f_{\rm D}) \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Berücksichtigt ist, dass die Spektraldarstellung eines  Gleichanteils zu einer Diracfunktion führt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br clear= all&amp;gt;&lt;br /&gt;
Zu dieser Grafik ist anzumerken:&lt;br /&gt;
*Die Realteile $x(t)$ von Rayleigh (blau), Rice (rot)  unterscheiden sich durch die Konstante $x_0 = 0.707$. Die statistischen Eigenschaften sind ansonsten gleich: Gaußsche WDF $f_x(x)$ mit Streuung $\sigma = 0.707$, entweder mittelwertfrei (Rayleigh) oder mit Mittelwert $x_0$  (Rice).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Im Imaginärteil $y(t)$ erkennt man bei Rice zusätzlich die Gleichkomponente $y_0 = -0.707$. Die (in der Grafik nicht dargestellte) WDF $f_y(y)$ ist somit eine Gaußkurve mit der Streuung $\sigma = 0.707$ um den Mittelwert$ y_0 = -0.707$, also achsensymmetrisch zur skizzierten WDF $f_x(x)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die (logarithmische) Betragsdarstellung &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp;  $a(t) =|z(t)|$   zeigt, dass die rote Kurve meist oberhalb der blauen liegt. Dies wird auch aus der WDF deutlich. Beim Rice&amp;amp;ndash;Kanal ist die Fehlerwahrscheinlichkeit unter Berücksichtigung von AWGN&amp;amp;ndash;Rauschen niedriger als bei Rayleigh, da  der Empfänger über den Rice&amp;amp;ndash;Direktpfad viel nutzbare Energie erhält.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die WDF $f_\phi(\phi)$ zeigt den Vorzugswinkel  $\phi \approx 45^\circ$ des Rice&amp;amp;ndash;Kanals. Der komplexe Faktor $z(t)$ befindet sich  wegen $x_0 &amp;gt; 0$ und $y_0 &amp;lt; 0$ großteils im vierten Quadranten, während beim Rayleigh&amp;amp;ndash;Kanal alle Quadranten gleichwahrscheinlich sind.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:1.6 Rice–Fading – AKF/LDS|A1.6 Rice–Fading – AKF/LDS]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgabe_1.6Z:_Rayleigh_und_Rice_im_Vergleich|Zusatzaufgaben:1.6 Rayleigh und Rice im Vergleich]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.7 WDF des Rice–Fadings|A1.7 WDF des Rice–Fadings]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Digital_Signal_Transmission/Burst_Error_Channels&amp;diff=21267</id>
		<title>Digital Signal Transmission/Burst Error Channels</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Digital_Signal_Transmission/Burst_Error_Channels&amp;diff=21267"/>
		<updated>2018-01-02T18:29:28Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Digitale Kanalmodelle&lt;br /&gt;
|Vorherige Seite=Binary Symmetric Channel (BSC)&lt;br /&gt;
|Nächste Seite=Anwendungen bei Multimedia–Dateien&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Kanalmodell nach Gilbert–Elliott==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Dieses auf E.&amp;amp;nbsp;N. Gilbert [Gil60]&amp;lt;ref name='Gil60'&amp;gt;Gilbert, E. N.: ''Capacity of Burst–Noise Channel.'' In: Bell Syst. Techn. J. Vol. 39, 1960, pp. 1253–1266.&amp;lt;/ref&amp;gt; und E.&amp;amp;nbsp;O. Elliott [Ell63]&amp;lt;ref  name='Ell63'&amp;gt;Elliott, E.O.: ''Estimates of Error Rates for Codes on Burst–Noise Channels.'' In: Bell Syst. Techn. J., Vol. 42, (1963), pp. 1253 – 1266.&amp;lt;/ref&amp;gt; zurückgehende Kanalmodell eignet sich zur Beschreibung und Simulation von digitalen ''Übertragungssystemen mit Bündelfehlercharakteristik''.&lt;br /&gt;
&lt;br /&gt;
[[File:P ID1835 Dig T 5 3 S1 version1.png|center|frame|Gilbert–Elliott–Kanalmodell|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Das '''Gilbert&amp;amp;ndash;Elliott&amp;amp;ndash;Modell''' (Kurzbezeichnung: GE&amp;amp;ndash;Modell) lässt sich wie folgt charakterisieren:&lt;br /&gt;
*Die unterschiedliche Übertragungsqualität zu unterschiedlichen Zeiten wird durch eine endliche Anzahl $g$ von Kanalzuständen $(Z_1, Z_2, \text{...}, Z_g)$ ausgedrückt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die in Wirklichkeit fließenden Übergänge der Störintensität &amp;amp;ndash; im Extremfall von völlig fehlerfreier Übertragung bis hin zum Totalausfall &amp;amp;ndash; werden beim GE&amp;amp;ndash;Modell durch feste Wahrscheinlichkeiten in den einzelnen Kanalzuständen approximiert.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Übergänge zwischen den $g$ Zuständen erfolgen gemäß einem [[Stochastische_Signaltheorie/Markovketten|Markovprozess]] (1. Ordnung) und werden durch $g \cdot (g-1)$ Übergangswahrscheinlichkeiten gekennzeichnet. Zusammen mit den $g$ Fehlerwahrscheinlichkeiten in den einzelnen Zuständen gibt es somit $g^2$ freie Modellparameter.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Aus Gründen der mathematischen Handhabbarkeit beschränkt man sich meist auf $g = 2$ Zustände und bezeichnet diese mit $\rm G$ (&amp;amp;bdquo;GOOD&amp;amp;rdquo;) und $\rm B$ (&amp;amp;bdquo;BAD&amp;amp;rdquo;). Meist wird die Fehlerwahrscheinlichkeit im Zustand $\rm G$ sehr viel kleiner sein als im Zustand $\rm B$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Im Folgenden benutzen wir diese beiden Fehlerwahrscheinlichkeiten $p_{\rm G}$ und $p_{\rm B}$, wobei $p_{\rm G} &amp;lt; p_{\rm B}$ gelten soll, sowie die Übergangswahrscheinlichkeiten ${\rm Pr}({\rm B}\hspace{0.05cm}|\hspace{0.05cm}{\rm G})$ und ${\rm Pr}({\rm G}\hspace{0.05cm}|\hspace{0.05cm}{\rm B})$. Damit sind auch die beiden anderen Übergangswahrscheinlichkeiten festgelegt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} G) = 1 - {\rm&lt;br /&gt;
Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G), \hspace{0.2cm} {\rm&lt;br /&gt;
Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} B) = 1 - {\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}|\hspace{0.05cm} B)\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID1836 Dig T 5 3 S1a version1.png|right|frame|Betrachtetes GE–Modell|class=fit]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; Wir betrachten das GE&amp;amp;ndash;Modell mit den Parametern&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p_{\rm G} = 0.01, \hspace{0.2cm}p_{\rm B} = 0.4,&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B) =&lt;br /&gt;
0.1, \hspace{0.2cm} {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}&lt;br /&gt;
G) = 0.01\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die folgende Grafik zeigt eine dazugehörige (mögliche) Fehlerfolge der Länge $N = 800$.&lt;br /&gt;
&lt;br /&gt;
Befindet sich das GE&amp;amp;ndash;Modell im Zustand &amp;amp;bdquo;BAD&amp;amp;rdquo;, so erkennt man dies an der grauen Hinterlegung. &lt;br /&gt;
&lt;br /&gt;
[[File:P ID1837 Dig T 5 3 S1b version1.png|center|frame|Beispielhafte GE–Fehlerfolge|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Die Wahrscheinlichkeiten, dass sich die Markovkette im Zustand &amp;amp;bdquo;GOOD&amp;amp;rdquo; bzw. &amp;amp;bdquo;BAD&amp;amp;rdquo; befindet, lassen sich aus der vorausgesetzten Homogenität und Stationarität berechnen. Man erhält mit den obigen Zahlenwerten:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;w_{\rm G} =&lt;br /&gt;
{\rm Pr(im\hspace{0.15cm} Zustand \hspace{0.15cm}G)}=&lt;br /&gt;
\frac{ {\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}\vert\hspace{0.05cm} B)}{ {\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}\vert\hspace{0.05cm} B) + {\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}\vert\hspace{0.05cm} G)} = \frac{0.1}{0.1 + 0.01} =&lt;br /&gt;
{10}/{11}\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;w_{\rm B} =&lt;br /&gt;
{\rm Pr(im\hspace{0.15cm} Zustand \hspace{0.15cm}B)}=&lt;br /&gt;
 \frac{ {\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}\vert\hspace{0.05cm} G)}{ {\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}\vert\hspace{0.05cm} B) + {\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}\vert\hspace{0.05cm} G)} = \frac{0.11}{0.1 + 0.01} =&lt;br /&gt;
{1}/{11}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit kann auch die mittlere Fehlerwahrscheinlichkeit des GE&amp;amp;ndash;Modells ermittelt werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p_{\rm M} = w_{\rm G} \cdot p_{\rm G} + w_{\rm B} \cdot p_{\rm B}&lt;br /&gt;
=  \frac{p_{\rm G} \cdot {\rm Pr}({\rm&lt;br /&gt;
G\hspace{0.05cm}\vert\hspace{0.05cm} B)}+ p_{\rm B} \cdot {\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}\vert\hspace{0.05cm} G)}{ {\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}\vert\hspace{0.05cm} B) + {\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}\vert\hspace{0.05cm} G)} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Insbesondere gilt für das hier beispielhaft betrachtete Modell:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p_{\rm M} ={10}/{11} \cdot 0.01 +{1}/{11} \cdot 0.4 =&lt;br /&gt;
{1}/{22} \approx 4.55\%\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zur Simulation einer GE&amp;amp;ndash;Fehlerfolge wird zwischen den Zuständen &amp;amp;bdquo;GOOD&amp;amp;rdquo;  und &amp;amp;bdquo;BAD&amp;amp;rdquo; entsprechend den vier Übergangswahrscheinlichkeiten umgeschaltet. Beim ersten Aufruf erfolgt die Auswahl des Zustandes zweckmäßigerweise entsprechend den Wahrscheinlichkeiten $w_{\rm G}$ und $w_{\rm B}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zu jedem Taktzeitpunkt wird genau ein Element der Fehlerfolge $ \langle e_\nu  \rangle$ gemäß der aktuellen  Fehlerwahrscheinlichkeit ($p_{\rm G}$ bzw. $p_{\rm B}$) erzeugt. Die [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_McCullough|Fehlerabstandssimulation]] ist hier nicht anwendbar, da ein Zustandswechsel nach jedem Symbol (und nicht nur nach einem Fehler) möglich ist.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Fehlerabstandsverteilung des GE–Modells ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
In [Hub82]&amp;lt;ref name = 'Hub82'&amp;gt;Huber, J.: &amp;lt;i&amp;gt;Codierung für gedächtnisbehaftete Kanäle.&amp;lt;/i&amp;gt; Dissertation – Universität der Bundeswehr München, 1982.&amp;lt;/ref&amp;gt; finden sich die analytischen Berechnungen&lt;br /&gt;
*der Wahrscheinlichkeit des Fehlerabstandes $k$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}(a=k) = \alpha_{\rm G} \cdot \beta_{\rm&lt;br /&gt;
G}^{\hspace{0.05cm}k-1} \cdot (1- \beta_{\rm G}) + \alpha_{\rm B}&lt;br /&gt;
\cdot \beta_{\rm B}^{\hspace{0.05cm}k-1} \cdot (1- \beta_{\rm&lt;br /&gt;
B})\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*der [[Digitalsignalübertragung/Beschreibungsgrößen_digitaler_Kanalmodelle#Fehlerabstandsverteilung|Fehlerabstandsverteilung]]:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;V_a(k) = {\rm Pr}(a \ge k) =  \alpha_{\rm G} \cdot \beta_{\rm&lt;br /&gt;
G}^{\hspace{0.05cm}k-1}&lt;br /&gt;
 + \alpha_{\rm B} \cdot \beta_{\rm&lt;br /&gt;
B}^{\hspace{0.05cm}k-1} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hierbei sind folgende Hilfsgrößen verwendet:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;u_{\rm GG} ={\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\rm G})&lt;br /&gt;
\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
 {\it u}_{\rm GB} ={\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\hspace{0.03cm} \rm G})&lt;br /&gt;
\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;u_{\rm BB} ={\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm B})&lt;br /&gt;
\hspace{0.05cm},\hspace{0.29cm}&lt;br /&gt;
 {\it u}_{\rm BG} ={\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm&lt;br /&gt;
B})\hspace{0.05cm}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} \beta_{\rm G} =\frac{u_{\rm GG} + u_{\rm BB} + \sqrt{(u_{\rm GG} -&lt;br /&gt;
u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2}&lt;br /&gt;
\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\hspace{0.8cm}\beta_{\rm B} =\frac{u_{\rm&lt;br /&gt;
GG} + u_{\rm BB} - \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot&lt;br /&gt;
u_{\rm GB}\cdot u_{\rm BG}}}{2}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;x_{\rm G} =\frac{u_{\rm BG}}{\beta_{\rm G}-u_{\rm BB}}&lt;br /&gt;
\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
 x_{\rm B} =\frac{u_{\rm BG}}{\beta_{\rm B}-u_{\rm BB}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} \alpha_{\rm G} = \frac{(w_{\rm G} \cdot&lt;br /&gt;
p_{\rm G} + w_{\rm B} \cdot p_{\rm B}\cdot x_{\rm G})( x_{\rm&lt;br /&gt;
B}-1)}{p_{\rm M} \cdot( x_{\rm B}-x_{\rm G})} \hspace{0.05cm},&lt;br /&gt;
\hspace{0.2cm}\alpha_{\rm B} = 1-\alpha_{\rm G}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die angegebenen Gleichungen sind das Ergebnis umfangreicher Matrizenoperationen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID1838 Dig T 5 3 S2 version1.png|center|frame|Fehlerabstandsverteilung von GE– und BSC–Modell|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt die Fehlerabstandsverteilung (FAV) des GE&amp;amp;ndash;Modells (rote Kurve) in linearer und logarithmischer Darstellung für ${\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}|\hspace{0.05cm} B ) = 0.1 $, ${\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}|\hspace{0.05cm} G ) = 0.001 $  und $p_{\rm B} = 0.4$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zum Vergleich ist als blaue Kurve auch der entsprechende $V_a(k)$&amp;amp;ndash;Verlauf für das BSC&amp;amp;ndash;Modell mit der gleichen mittleren  Fehlerwahrscheinlichkeit $p_{\rm M} = 4.5\%$ eingezeichnet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Fehlerkorrelationsfunktion des GE–Modells ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Für die [[Digitalsignalübertragung/Beschreibungsgrößen_digitaler_Kanalmodelle#Fehlerkorrelationsfunktion|Fehlerkorrelationsfunktion]] (FKF) ergibt sich GE–Modell mit der mittleren Fehlerwahrscheinlichkeit $p_{\rm M}$, den Übergangswahrscheinlichkeiten ${\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G )$ und ${\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B )$ sowie den Fehlerwahrscheinlichkeiten $p_{\rm G}$ und $p_{\rm B}$ in den beiden Zuständen $\rm G$ und $\rm B$ nach umfangreichen Matrizenoperationen der relativ einfache Ausdruck&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\varphi_{e}(k) = {\rm E}[e_\nu  \cdot  e_{\nu +k}] =&lt;br /&gt;
 \left\{ \begin{array}{c} p_{\rm M} \\&lt;br /&gt;
 p_{\rm M}^2 + (p_{\rm B} - p_{\rm M})  (p_{\rm M} - p_{\rm G}) &lt;br /&gt;
 [1 - {\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}|\hspace{0.05cm} G )- {\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}|\hspace{0.05cm} B )]^k \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{1}c} f{\rm \ddot{u}r }\hspace{0.15cm}k = 0  \hspace{0.05cm},&lt;br /&gt;
\\  f{\rm \ddot{u}r }\hspace{0.15cm} k &amp;gt; 0 \hspace{0.05cm}.\\ \end{array}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Beim GE&amp;amp;ndash;Modell muss $\varphi_{e}(k)$ stets nach dieser Gleichung berechnet werden. Der nur für &amp;amp;bdquo;erneuernde Modelle&amp;amp;rdquo; gültige iterative Berechnungsalgorithmus $\varphi_{e}(k) = \sum_{\kappa = 1}^{k} {\rm Pr}(a = \kappa) \cdot&lt;br /&gt;
\varphi_{e}(k - \kappa) $ kann hier nicht angewendet werden,   da das GE&amp;amp;ndash;Modell nicht erneuernd ist &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; Die Fehlerabstände sind hier nicht statistisch voneinander unabhängig.&lt;br /&gt;
&lt;br /&gt;
[[File:P ID1839 Dig T 5 3 S3 version1.png|right|frame|Fehlerkorrelationsfunktion von &amp;amp;bdquo;GE&amp;amp;rdquo; (Kreise) und &amp;amp;bdquo;BSC&amp;amp;rdquo; (Kreuze)|class=fit]]&amp;lt;br&amp;gt;&lt;br /&gt;
In der Grafik ist ein beispielhafter FKF&amp;amp;ndash;Verlauf des GE&amp;amp;ndash;Modells mit roten Kreisen markiert eingetragen. Man erkennt aus dieser Darstellung:&lt;br /&gt;
*Während beim gedächtnislosen Kanal (BSC&amp;amp;ndash;Modell, blaue Kurve) alle FKF&amp;amp;ndash;Werte $\varphi_{e}(k \ne 0)= p_{\rm M}^2$ sind, nähern sich die FKF&amp;amp;ndash;Werte beim Bündelfehlerkanal diesem Endwert deutlich langsamer.&amp;lt;br&amp;gt;&lt;br /&gt;
*Beim Übergang von $k = 0$ nach $k = 1$ tritt eine gewisse Unstetigkeit auf. Während $\varphi_{e}(k = 0)= p_{\rm M}$ ist, ergibt sich mit der für $k &amp;gt; 0$ gültigen zweiten Gleichung für $k = 0$ folgender extrapolierter Wert:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\varphi_{e0} = p_{\rm M}^2 + (p_{\rm B} - p_{\rm M}) \cdot (p_{\rm&lt;br /&gt;
M} - p_{\rm G})\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ein quantitatives Maß für die Länge der statistischen Bindungen ist die Korrelationsdauer  $D_{\rm K}$, die allgemein als die Breite eines flächengleichen Rechtecks mit der Höhe $\varphi_{e0} - p_{\rm M}^2$ definiert ist:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;D_{\rm K} = \frac{1}{\varphi_{e0} - p_{\rm M}^2} \cdot \sum_{k = 1&lt;br /&gt;
}^{\infty}\hspace{0.1cm} [\varphi_{e}(k) - p_{\rm&lt;br /&gt;
M}^2]\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; Beim Gilbert&amp;amp;ndash;Elliott&amp;amp;ndash;Modell erhält man hierfür den einfachen, analytisch angebbaren Ausdruck&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;D_{\rm K} =\frac{1}{ {\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}&lt;br /&gt;
B ) + {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G )}-1&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*$D_{\rm K}$ ist umso größer, je kleiner ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}&lt;br /&gt;
G )$ und ${\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$ sind, also Zustandswechsel selten auftreten.  &lt;br /&gt;
*Für das BSC&amp;amp;ndash;Modell &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; $p_{\rm B}= p_{\rm G} = p_{\rm M}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp;  $D_{\rm K} = 0$ ist die Gleichung nicht anwendbar.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Kanalmodell nach McCullough==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Der wesentliche Nachteil des GE&amp;amp;ndash;Modells ist, dass damit eine Fehlerabstandssimulation nicht möglich ist. Wie in der [[Aufgabe 5.5]] herausgearbeitet wird, hat diese gegenüber der symbolweisen Generierung der Fehlerfolge $\langle e_\nu \rangle$ große Vorteile hinsichtlich Rechengeschwindigkeit und Speicherbedarf.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
McCullough [McC68]&amp;lt;ref name ='McC68'&amp;gt;McCullough, R.H.: ''The Binary Regenerative Channel.'' In: Bell Syst. Techn. J. (47), 1968.&amp;lt;/ref&amp;gt; hat das drei Jahre zuvor von Gilbert und Elliott entwickelte Modell dahingehend modifiziert, dass eine Fehlerabstandssimulation in den beiden Zustände &amp;amp;bdquo;GOOD&amp;amp;rdquo; und &amp;amp;bdquo;BAD&amp;amp;rdquo; jeweils für sich anwendbar ist. Die Grafik zeigt unten das Modell von McCullough, im Folgenden als '''MC&amp;amp;ndash;Modell''' bezeichnet, während oben das GE&amp;amp;ndash;Modell nach Umbenennung der Übergangswahrscheinlichkeiten &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp;   ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) \rightarrow {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$, ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) \rightarrow {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$, usw. dargestellt ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID1840 Dig T 5 3 S4a version1.png|center|frame|Kanalmodelle nach Gilbert–Elliott (oben) und McCullough (unten)|class=fit]&lt;br /&gt;
&lt;br /&gt;
Zwischen den beiden Modellen bestehen viele Gemeinsamkeiten und einige wenige Unterschiede:&lt;br /&gt;
*Das McCullough&amp;amp;ndash;Kanalmodell beruht wie das Gilbert&amp;amp;ndash;Elliott&amp;amp;ndash;Modell auf einem ''Markovprozess erster Ordnung'' mit den beiden Zuständen &amp;amp;bdquo;GOOD&amp;amp;rdquo; $(\rm G)$ und &amp;amp;bdquo;BAD&amp;amp;rdquo; $(\rm B)$. Hinsichtlich der Modellstruktur ist kein Unterschied feststellbar.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der wesentliche Unterschied zum GE&amp;amp;ndash;Modell besteht darin, dass ein Zustandswechsel zwischen &amp;amp;bdquo;GOOD&amp;amp;rdquo;  und &amp;amp;bdquo;BAD&amp;amp;rdquo; jeweils nur nach einem Fehler &amp;amp;ndash; also einer $1$ in der Fehlerfolge &amp;amp;ndash; möglich ist. Dies ermöglicht eine  Fehlerabstandssimulation.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die vier frei wählbaren GE&amp;amp;ndash;Parameter $p_{\rm G}$, $p_{\rm B}$, ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$ und ${\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$ können &amp;amp;ndash; wie auf der nächsten Seite gezeigt &amp;amp;ndash; so in die MC&amp;amp;ndash;Parameter $q_{\rm G}$, $q_{\rm B}$, ${\it q}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$ und ${\it q}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$umgerechnet werden, dass eine in ihren statistischen Eigenschaften gleiche Fehlerfolge wie beim GE&amp;amp;ndash;Modell erzeugt wird.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Beispielsweise bezeichnet ${\it q}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$ die Übergangswahrscheinlichkeit von dem Zustand &amp;amp;bdquo;GOOD&amp;amp;rdquo; in den Zustand &amp;amp;bdquo;BAD&amp;amp;rdquo; unter der Voraussetzung, dass im Zustand &amp;amp;bdquo;GOOD&amp;amp;rdquo; gerade ein Fehler aufgetreten ist. Der GE&amp;amp;ndash;Parameter ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$ kennzeichnet diese Übergangswahrscheinlichkeit ohne Zusatzbedingung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp; Die Abbildung zeigt oben eine beispielhafte Fehlerfolge des GE&amp;amp;ndash;Modells mit den Parametern $p_{\rm G} = 0.01$, $p_{\rm B} = 0.4$, ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.01$ und ${\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.1$. Man erkennt, dass ein Zustandswechsel von &amp;amp;bdquo;GOOD&amp;amp;rdquo; (ohne Hinterlegung) nach &amp;amp;bdquo;BAD&amp;amp;rdquo; (graue Hinterlegung) und umgekehrt zu jedem Zeitpunkt $\nu$ möglich ist &amp;amp;ndash; also auch dann, wenn $e_\nu = 0$ ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID1841 Dig T 5 3 S4 version1.png|center|frame|Fehlerfolge des GE–Modells (oben) und des MC–Modells (unten)|class=fit]]}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; Die Zusammenhänge zwischen den beiden Modellen lassen sich wie folgt zusammenfassen:&lt;br /&gt;
*Bei der unten dargestellten Fehlerfolge des McCullough&amp;amp;ndash;Modells ist im Gegensatz zur oberen Folge ein Zustandswechsel zum Zeitpunkt $\nu$ nur bei $e_\nu = 1$  möglich.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Dies hat den Vorteil, dass man bei einer Fehlerfolgensimulation die Fehler nicht &amp;amp;bdquo;step&amp;amp;ndash;by&amp;amp;ndash;step&amp;amp;rdquo; generieren muss, sondern die schnellere Fehlerabstandssimulation nutzen kann &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; siehe [[Aufgabe 5.5]].&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Parameter des GE&amp;amp;ndash;Modells können derart in entsprechende MC&amp;amp;ndash;Parameter umgerechnet werden, dass beide Modellen äquivalent sind &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; siehe nächste Seite.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Das bedeutet,  dass die MC&amp;amp;ndash;Fehlerfolge exakt gleiche statistische Eigenschaften besitzt wie die GE&amp;amp;ndash;Fehlerfolge. Es bedeutet aber nicht, dass die beiden Fehlerfolgen identisch sind.}}&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Umrechnung der GE&amp;amp;ndash;Parameter in die MC&amp;amp;ndash;Parameter ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Parameter des äquivalenten  MC&amp;amp;ndash;Modells sind aus den GE&amp;amp;ndash;Parametern wie folgt berechenbar:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;q_{\rm G} =1-\beta_{\rm&lt;br /&gt;
G}\hspace{0.05cm}, \hspace{0.2cm}q_{\rm&lt;br /&gt;
B} = 1-\beta_{\rm B}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;q(\rm B\hspace{0.05cm}|\hspace{0.05cm} G ) =\frac{\alpha_{\rm B} \cdot[{\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}|\hspace{0.05cm} G ) + {\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}|\hspace{0.05cm} B )]}{\alpha_{\rm G} \cdot q_{\rm&lt;br /&gt;
B} + \alpha_{\rm B} \cdot q_{\rm G}} \hspace{0.05cm},  \hspace{0.5cm}&lt;br /&gt;
q(\rm G\hspace{0.05cm}|\hspace{0.05cm} B ) =&lt;br /&gt;
\frac{\alpha_{\rm G}}{\alpha_{\rm B}} \cdot q(\rm&lt;br /&gt;
B\hspace{0.05cm}|\hspace{0.05cm} G )\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hierbei sind wieder die folgenden Hilfsgrößen verwendet:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;u_{\rm GG} = {\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\rm G})&lt;br /&gt;
\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
 {\it u}_{\rm GB} ={\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\hspace{0.03cm} \rm G})&lt;br /&gt;
\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;u_{\rm BB} = {\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm B})&lt;br /&gt;
\hspace{0.05cm},\hspace{0.29cm}&lt;br /&gt;
 {\it u}_{\rm BG} ={\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm&lt;br /&gt;
B})\hspace{0.05cm}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} \beta_{\rm G} = \frac{u_{\rm GG} + u_{\rm BB} + \sqrt{(u_{\rm GG} -&lt;br /&gt;
u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2}&lt;br /&gt;
\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\hspace{0.7cm}\beta_{\rm B} \hspace{-0.1cm}  =  \hspace{-0.1cm}\frac{u_{\rm&lt;br /&gt;
GG} + u_{\rm BB} - \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot&lt;br /&gt;
u_{\rm GB}\cdot u_{\rm BG}}}{2}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;x_{\rm G} =\frac{u_{\rm BG}}{\beta_{\rm G}-u_{\rm BB}}&lt;br /&gt;
\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
 x_{\rm B} =\frac{u_{\rm BG}}{\beta_{\rm B}-u_{\rm BB}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} \alpha_{\rm G} = \frac{(w_{\rm G} \cdot&lt;br /&gt;
p_{\rm G} + w_{\rm B} \cdot p_{\rm B}\cdot x_{\rm G})( x_{\rm&lt;br /&gt;
B}-1)}{p_{\rm M} \cdot( x_{\rm B}-x_{\rm G})} \hspace{0.05cm},&lt;br /&gt;
\hspace{0.2cm}\alpha_{\rm B} = 1-\alpha_{\rm G}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; Wie im [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_McCullough|Beispiel 2]] gelte für die GE&amp;amp;ndash;Parameter: &lt;br /&gt;
:$$p_{\rm G} = 0.01, \ p_{\rm B} = 0.4, \ p(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.01, \ {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.1.$$&lt;br /&gt;
Bei Anwendung obiger Gleichungen erhält man dann für die äquivalenten MC&amp;amp;ndash;Parameter: &lt;br /&gt;
:$$q_{\rm G} = 0.0186, \ q_{\rm B} = 0.4613, \ q(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.3602, \ {\it q}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.2240.$$&lt;br /&gt;
&lt;br /&gt;
*Vergleicht man im [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_McCullough|Beispiel 2]] die rote Fehlerfolge (GE, Zustandswechsel ist immer möglich) mit der blauen Folge (äquivalentes MC, Zustandswechsel nur bei $e_\nu = 1$), so erkennt gravierende Unterschiede.&lt;br /&gt;
* Aber die blaue Fehlerfolge des äquivalenten McCullough-Modells besitzt exakt gleiche statistische Eigenschaften wie die rote Fehlerfolge des Gilbert–Elliott–Modells.}}&lt;br /&gt;
&lt;br /&gt;
Die Umrechnung der GE&amp;amp;ndash; in die MC&amp;amp;ndash;Parameter wird in der [[Aufgabe 5.7]] an einem einfachen Beispiel verdeutlicht. In der [[Aufgabe 5.7Z]] wird weiter gezeigt, wie die mittlere Fehlerwahrscheinlichkeit, die Fehlerabstandsverteilung, die Fehlerkorrelationsfunktion und die Korrelationsdauer des MC&amp;amp;ndash;Modells direkt aus den &amp;lt;i&amp;gt;q&amp;lt;/i&amp;gt;&amp;amp;ndash;Parametern ermittelt werden können.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bündelfehlerkanalmodell nach Wilhelm ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Dieses Modell geht auf [[Biografien_und_Bibliografien/Externe_Beteiligte_am_LNTwww#Dr._sc._techn._Claus_Wilhelm|Claus Wilhelm]] zurück und wurde ab Mitte der 1960er Jahre aus empirischen Messungen zeitlicher Folgen von Bitfehlern entwickelt. Es beruht auf Tausenden von Messstunden in Übertragungskanälen ab 200 bit/s mit analogem Modem bis hin zu 2.048 Mbit/s über [[Beispiele_von_Nachrichtensystemen/Allgemeine_Beschreibung_von_ISDN|ISDN]]. Ebenso wurden Seefunkkanäle bis zu 7500 Kilometern im Kurzwellenbereich vermessen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2778 Dig T 5 3 S5.png|right|frame|Beispielhafte Funktionsverläufe &amp;lt;i&amp;gt;p&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;B&amp;lt;/sub&amp;gt;(&amp;lt;i&amp;gt;n&amp;lt;/i&amp;gt;)]]&lt;br /&gt;
Aufgezeichnet wurden Blöcke der Länge $n$. Daraus wurde die jeweilige Blockfehlerrate $h_{\rm B}(n)$ ermittelt. Ein Blockfehler liegt bereits dann vor, wenn auch nur eines der $n$ Symbole verfälscht wurde. Wohl wissend, dass die Blockfehlerrate $h_{\rm B}(n)$ nur für $n \to \infty$ exakt mit der Blockfehlerwahrscheinlichkeit $p_{\rm B}$ übereinstimmt, setzen wir bei der folgenden Beschreibung $p_{\rm B}(n) \approx h_{\rm B}(n)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Bei einer Vielzahl von Messungen wurde immer wieder die Tatsache bestätigt, dass der Verlauf $p_{\rm B}(n)$ in doppelt&amp;amp;ndash;logarithmischer Darstellung im unteren Bereich lineare Anstiege aufweisen (siehe Grafik). Es gilt also für $n \le n^\star$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm lg} \hspace{0.1cm}p_{\rm B}(n) = {\rm lg} \hspace{0.1cm}p_{\rm S} + \alpha \cdot {\rm lg} \hspace{0.1cm}n\hspace{0.3cm}&lt;br /&gt;
\Rightarrow \hspace{0.3cm}  p_{\rm B}(n) = p_{\rm S} \cdot n^{\alpha}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hierbei bezeichnet $p_{\rm S} = p_{\rm B}(n=1)$ die mittlere Symbolfehlerwahrscheinlichkeit und die empirisch gefundenen Werte von $\alpha$ liegen zwischen $0.5$ und $0.95$. Für $1-\alpha$ wird auch die Bezeichnung &amp;lt;i&amp;gt;Bündelungsfaktor&amp;lt;/i&amp;gt; verwendet.&lt;br /&gt;
&amp;lt;br clear = all&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Für das BSC&amp;amp;ndash;Modell gilt für den Verlauf der Blockfehlerwahrscheinlichkeit:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p_{\rm B}(n) =1 -(1 -p_{\rm S})^n \approx n \cdot p_{\rm S}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Daraus folgt $\alpha = 1$ bzw. der Bündelungsfaktor $1-\alpha = 0$. In diesem Fall (und nur in diesem) ergibt sich auch bei nicht&amp;amp;ndash;logarithmischer Darstellung ein linearer Verlauf.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es ist aber zu beachten, dass obige Näherung nur für $p_{\rm S}  \ll 1$ und nicht allzu großes $n$ zulässig ist, da sonst die Näherung $(1-p_{\rm S})^n \approx1 - n \cdot p_{\rm S}$ nicht anwendbar ist. Das heißt aber auch, dass die oben angegebene Gleichung auch nur für einen unteren Bereich (für $n &amp;lt; n^\star$) gilt. Ansonsten würde sich für $n \to \infty$  eine unendlich große Blockfehlerwahrscheinlichkeit ergeben.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Für die aus Messungen empirisch bestimmte Funktion $p_{\rm B}(n)$ muss nun die [[[Digitalsignalübertragung/Beschreibungsgrößen_digitaler_Kanalmodelle#Fehlerabstandsverteilung|Fehlerabstandsverteilung]] gefunden werden, aus der der Verlauf für $n &amp;gt; n^\star$ extrapoliert werden kann und der die Nebenbedingung&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\lim_{n \hspace{0.05cm} \rightarrow \hspace{0.05cm} \infty}  p_{\rm B}(n) = 1 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
erfüllt. Wir bezeichnen diesen Ansatz als das '''Wilhelm&amp;amp;ndash;Modell'''. Da das Gedächtnis nur bis zum letzten Symbolfehler reicht, wird dieses Modell erneuernd sein (englisch: &amp;lt;i&amp;gt;Renewal Model&amp;lt;/i&amp;gt;).}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Fehlerabstandsbetrachtung zum Wilhelm–Modell ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:P ID2807 Dig T 5 3 S5b.png|right|frame|Fehlerfolge und Fehlerabstandsfolge|class=fit]]&lt;br /&gt;
Wir betrachten nun die &amp;lt;i&amp;gt;Fehlerabstände&amp;lt;/i&amp;gt;. Eine Fehlerfolge $\langle e_\nu \rangle$ kann in äquivalenter Weise durch die Fehlerabstandsfolge $\langle a_{\nu\hspace{0.03cm}'} \rangle$ dargestellt werden, wie in der folgenden Grafik gezeigt. Man erkennt:&lt;br /&gt;
*Die Fehlerfolge $\text{...}\rm 1001\text{...}$ wird durch den Fehlerabstand $a= 3$ ausgedrückt.&amp;lt;br&amp;gt;&lt;br /&gt;
*Entsprechend bezeichnet der Fehlerabstand $a= 1$  die Fehlerfolge $\text{...}\rm 11\text{...}$ .&amp;lt;br&amp;gt;&lt;br /&gt;
*Die verschiedenen Indizes $\nu$ und $\nu\hspace{0.03cm}'$ berücksichtigen, dass die beiden Folgen nicht synchron laufen.&lt;br /&gt;
&lt;br /&gt;
Mit den Wahrscheinlichkeiten $p_a(k) = {\rm Pr}(a= k)$ für die einzelnen Fehlerabstände $k$ und der mittleren (Symbol&amp;amp;ndash;)Fehlerwahrscheinlichkeit $p_{\rm S}$ gelten  folgende Definitionen für&lt;br /&gt;
* die Fehlerabstandsverteilung (FAV): &lt;br /&gt;
::&amp;lt;math&amp;gt; V_a(k) =  {\rm Pr}(a \ge k)= \sum_{\kappa = k}^{\infty}p_a(\kappa) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
* den mittleren Fehlerabstand ${\rm E}[a]$:&lt;br /&gt;
::&amp;lt;math&amp;gt; V_a(k) =  {\rm E}[a] = \sum_{k = 1}^{\infty} k \cdot p_a(k)  = {1}/{p_{\rm S}}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 5:}$&amp;amp;nbsp; Wir betrachten nun einen Block mit $n$ Bit, beginnend bei der Bitposition $\nu + 1$. Ein Blockfehler tritt immer dann auf, wenn ein Bit an den Positionen $\nu + 1$, ... , $\nu + n$ verfälscht ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2808 Dig T 5 3 S5c neu.png|center|frame|Zur Herleitung des Wilhelm–Modells|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Die Verfälschungswahrscheinlichkeiten werden in der Grafik durch die Fehlerabstandsverteilung  ${V_a}'(k)$ ausgedrückt. Irgendwo vor dem Block der Länge $n = 3$&lt;br /&gt;
befindet sich der letzte Fehler, aber mindestens im Abstand $k$ vom ersten Fehler im Block entfernt. Also ist der Abstand gleich oder größer als $k$, was genau der Wahrscheinlichkeit ${V_a}'(k)$ entspricht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;i&amp;gt;Hinweis.&amp;lt;/i&amp;gt; Das Hochkomma soll anzeigen, dass wir später noch eine Korrektur vornehmen müssen, um von der empirisch gefundenen FAV  zur richtigen Funktion ${V_a}(k)$ zu kommen.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Für die Blockfehlerwahrscheinlichkeit $p_{\rm B}(n)$ haben wir nun verschiedene Gleichungen. &lt;br /&gt;
*Eine erste Gleichung stellt den Zusammenhang zwischen  $p_{\rm B}(n)$ und der (approximativen)  Fehlerabstandsverteilung ${V_a}'(k)$ her:  &lt;br /&gt;
::&amp;lt;math&amp;gt;(1)\hspace{0.2cm} p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k)  \hspace{0.05cm},&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
*Eine zweite Gleichung lieferte unsere empirische Untersuchung zu Beginn dieses Abschnitts:&lt;br /&gt;
::&amp;lt;math&amp;gt;(2)\hspace{0.2cm} p_{\rm B}(n) = p_{\rm S} \cdot n^{\alpha}&amp;lt;/math&amp;gt;&lt;br /&gt;
*Die dritte Gleichung ergibt sich aus Gleichsetzen von $(1)$ und $(2)$:&lt;br /&gt;
::&amp;lt;math&amp;gt;(3)\hspace{0.2cm}&lt;br /&gt;
\sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k) = n^{\alpha} \hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Durch sukzessives Einsetzen von $n = 1, 2, 3,$ ... in diese Gleichung erhalten wir mit ${V_a}'(k = 1) = 1$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;V_a\hspace{0.05cm}'(1)   =   1^{\alpha}&lt;br /&gt;
\hspace{0.05cm},\hspace{0.8cm}&lt;br /&gt;
V_a\hspace{0.05cm}'(1) + V_a\hspace{0.05cm}'(2)  =2^{\alpha}&lt;br /&gt;
\hspace{0.05cm},&lt;br /&gt;
\hspace{0.8cm}V_a\hspace{0.05cm}'(1) + V_a\hspace{0.05cm}'(2) + V_a\hspace{0.05cm}'(3)  = 3^{\alpha}&lt;br /&gt;
\hspace{0.35cm}\Rightarrow \hspace{0.3cm} V_a\hspace{0.05cm}'(k) = k^{\alpha}-(k-1)^{\alpha} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die aus empirischen Daten gewonnenen Koeffizienten ${V_a}'(k)$ erfüllen jedoch nicht notwendigerweise die Normierungsbedingung. Um den Sachverhalt zu korrigieren, verwendet Wilhelm folgenden Ansatz:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;V_a\hspace{0.05cm}(k) = V_a\hspace{0.05cm}'(k) \cdot {\rm e}^{- \beta \cdot (k-1)}\hspace{0.3cm}\Rightarrow \hspace{0.3cm}&lt;br /&gt;
V_a\hspace{0.05cm}(k) =  [k^{\alpha}-(k-1)^{\alpha} ] \cdot {\rm e}^{- \beta \cdot (k-1)}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wilhelm bezeichnet diese Darstellung als '''&amp;lt;i&amp;gt;L&amp;lt;/i&amp;gt;&amp;amp;ndash;Modell''', siehe [Wil11]&amp;lt;ref name='Wil11'&amp;gt;Wilhelm, C.: ''A-Model and L-Model, New Channel Models with Formulas for Probabilities of Error Structures. Neue Kanalmodelle mit Formeln für die Wahrscheinlichkeit von Fehlerstrukturen''. [http://www.channels-networks.net/ Internet-Veröffentlichungen zu Channels-Networks,] 2011ff.&amp;lt;/ref&amp;gt;. Die Konstante $\beta$ ist  in Abhängigkeit&lt;br /&gt;
*der Symbolfehlerwahrscheinlichkeit $p_{\rm S}$, und&amp;lt;br&amp;gt;&lt;br /&gt;
*des empirisch gefundenen Exponenten $\alpha$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; Bündelungsfaktor $1- \alpha$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
so zu bestimmen, dass die Blockfehlerwahrscheinlichkeit   bei unendlich großer Blocklänge gleich $1$ wird:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\lim_{n \hspace{0.05cm} \rightarrow \hspace{0.05cm} \infty}  p_B(n) =  p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}(k)&lt;br /&gt;
 =  p_{\rm S} \cdot \sum_{k = 1}^{n}  [k^{\alpha}-(k-1)^{\alpha} ] \cdot {\rm e}^{- \beta \cdot (k-1)}&lt;br /&gt;
=1 &lt;br /&gt;
\hspace{0.3cm} \Rightarrow \hspace{0.3cm} \sum_{k = 1}^{\infty}  [k^{\alpha}-(k-1)^{\alpha} ] \cdot {\rm e}^{- \beta \cdot (k-1)}&lt;br /&gt;
= {1}/{p_{\rm S}} &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um $\beta$ zu bestimmen, wird die [https://de.wikipedia.org/wiki/Erzeugende_Funktion erzeugende Funktion] von  ${V_a}(k)$ verwendet, die wir mit ${V_a}(z)$ benennen:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;V_a\hspace{0.05cm}(z) =  \sum_{k = 1}^{\infty}V_a\hspace{0.05cm}(k)  \cdot z^k = &lt;br /&gt;
  \sum_{k = 1}^{n}  [k^{\alpha}-(k-1)^{\alpha} ] \cdot {\rm e}^{- \beta \cdot (k-1)}&lt;br /&gt;
\cdot z^k &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In [Wil11]&amp;lt;ref name='Wil11'&amp;gt;&amp;lt;/ref&amp;gt; wird näherungsweise hergeleitet: &amp;amp;nbsp; $V_a\hspace{0.05cm}(z) = 1/{\left (1- {\rm e}^{- \beta }\cdot z \right )^\alpha}&lt;br /&gt;
\hspace{0.05cm}.$ Aus der Gleichung für den mittleren Fehlerabstand folgt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; {\rm E}[a] = \sum_{k = 1}^{\infty} k \cdot p_a(k)  = \sum_{k = 1}^{\infty} V_a(k)  = \sum_{k = 1}^{\infty} V_a(k) \cdot 1^k =  V_a(z=1) =&lt;br /&gt;
 1/p_{\rm S}&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \Rightarrow \hspace{0.3cm}{p_{\rm S}} = \left [V_a(z=1)\right]^{-1}=&lt;br /&gt;
 \left [1- {\rm e}^{- \beta }\cdot 1\right]^{\alpha}\hspace{0.3cm}&lt;br /&gt;
\Rightarrow \hspace{0.3cm}&lt;br /&gt;
{\rm e}^{- \beta } =1 - {p_{\rm S}}^{1/\alpha}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Numerischer Vergleich von BSC–Modell und Wilhelm–Modell==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; Fassen wir dieses Zwischenergebnis zusammen. Das '''L&amp;amp;ndash;Modell''' nach Wilhelm beschreibt die Fehlerabstandsverteilung in der Form&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;V_a\hspace{0.05cm}(k) = \left  [k^{\alpha}-(k-1)^{\alpha}\right ] \cdot &lt;br /&gt;
\left [ 1 - {p_{\rm S}^{1/\alpha} }\right ]^{k-1} &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dieses Modell soll nun anhand beispielhafter numerischer Ergebnisse erläutert werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 6:}$&amp;amp;nbsp; Wir gehen zunächst vom [[Digitalsignal%C3%BCbertragung/Binary_Symmetric_Channel_(BSC)#Fehlerkorrelationsfunktion_des_BSC.E2.80.93Modells|BSC&amp;amp;ndash;Modell]] aus. Die Verfälschungswahrscheinlichkeit setzen wir aus Darstellungsgründen sehr hoch auf $p_{\rm S} = 0.2$. In der zweiten Zeile der nachfolgenden Tabelle ist dessen Fehlerabstandsverteilung ${V_a}(k) = {\rm Pr}(a \ge k)$ für $k \le10$ eingetragen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2827 Dig T 5 3 S5d ganz neu.png|center|frame|Kenngrößen des BSC–Modells  für &amp;lt;i&amp;gt;p&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;S&amp;lt;/sub&amp;gt; = 0.2|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Das Wilhelm&amp;amp;ndash;Modell mit $p_{\rm S} = 0.2$ und $\alpha = 1$ weist genau die gleiche Fehlerabstandsverteilung ${V_a}(k)$ wie das entsprechende [[Digitalsignal%C3%BCbertragung/Binary_Symmetric_Channel_(BSC)#Fehlerabstandsverteilung_des_BSC.E2.80.93Modells| BSC&amp;amp;ndash;Modell]] auf. Dies zeigt auch die Rechnung. Mit $\alpha = 1$ erhält man aus der Gleichung auf der letzten Seite:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;V_a\hspace{0.05cm}(k) = \left  [k^{\alpha}-(k-1)^{\alpha}\right ] \cdot &lt;br /&gt;
\left [ 1 - {p_{\rm S}^{1/\alpha} }\right ]^{k-1}  =  (1 - p_{\rm S} )^{k-1}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit besitzen beide Modelle entsprechend den Zeilen 3 und 4 auch&lt;br /&gt;
*gleiche Wahrscheinlichkeiten ${\rm Pr}(a = k)= {V_a}(k-1) -   {V_a}(k)$der Fehlerabstände,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*gleiche Blockfehlerwahrscheinlichkeiten $ p_{\rm B}(n)$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Hinblick auf das folgende $\rm Beispiel 7$ mit  $\alpha \ne 1$ ist nochmals besonders zu erwähnen:&lt;br /&gt;
*Die Blockfehlerwahrscheinlichkeiten  $ p_{\rm B}(n)$ des Wilhelm&amp;amp;ndash;Modells ergeben sich grundsätzlich aus der Fehlerabstandsverteilung ${V_a}(k)$ entsprechend der Gleichung&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}(k) &lt;br /&gt;
\hspace{0.15cm}\Rightarrow  \hspace{0.15cm} p_{\rm B}( 1) = 0.2 \cdot 1 = 0.2&lt;br /&gt;
\hspace{0.05cm}, \hspace{0.5cm}p_{\rm B}(2) = 0.2 \cdot (1+0.8) = 0.36&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Im Sonderfall $\alpha \ne 1$  &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; BSC&amp;amp;ndash;Modell (und nur in diesem) kann $ p_{\rm B}(n)$ auch durch Summation über die Fehlerabstandswahrscheinlichkeiten ${\rm Pr}(a=k)$ ermittelt werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} {\rm Pr}(a=k)&lt;br /&gt;
\hspace{0.15cm}\Rightarrow  \hspace{0.15cm} p_{\rm B}( 1) = 0.2&lt;br /&gt;
\hspace{0.05cm}, \hspace{0.5cm}p_{\rm B}(2) = 0.2+ 0.16 = 0.36&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 7:}$&amp;amp;nbsp;  Betrachten wir nun einen Kanal mit Bündelfehlercharakteristik. Die Grafik zeigt als grüne Kreise die Ergebnisse für das Wilhelm&amp;amp;ndash;L&amp;amp;ndash;Modell mit $\alpha = 0.7$. Die rote Vergleichskurve gilt für $\alpha = 1$  (bzw. für den BSC&amp;amp;ndash;Kanal) bei gleicher mittlerer Symbolfehlerwahrscheinlichkeit  $p_{\rm S} = 0.2$. Unten rechts sind einige interessante Zahlenwerte angegeben.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2833 Dig T 5 3 S5h version2.png|center|frame|Ergebnisse des  Wilhelm–L–Modells mit &amp;lt;i&amp;gt;α&amp;lt;/i&amp;gt; = 0.7 und &amp;lt;i&amp;gt;p&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;S&amp;lt;/sub&amp;gt; = 0.2|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus diesen Darstellungen:&lt;br /&gt;
*Der Verlauf der Blockfehlerfehlerwahrscheinlichkeit beginnt jeweils mit $p_{\rm B}(n = 1) = p_{\rm S} = 0.2$, sowohl bei statistisch unabhängigen Fehlern (BSC) als auch bei Bündelfehlern (Wilhelm).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Beim Bündelfehlerkanal  ist ${\rm Pr}(a=1)= 0.438$ deutlich größer als beim vergleichbaren BSC &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; ${\rm Pr}(a=1)= 0.2$. Zudem erkennt man einen abgeknickten Verlauf im unteren Bereich.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der mittlere Fehlerabstand ${\rm E}[a] = 1/p_{\rm S} = 5$ ist aber bei gleicher Symbolfehlerwahrscheinlichkeit ebenfalls identisch. Der große Ausreiser bei $k=1$ wird durch kleinere Wahrscheinlichkeiten für $k=2$, $k=3$ und $k=4$ ausgeglichen, sowie durch die Tatsache, dass für große $k$ die grünen Kreise &amp;amp;ndash; wenn auch nur minimal &amp;amp;ndash; oberhalb der roten Vergleichskurve liegen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Das wichtigste Ergebnis ist aber, dass die Blockfehlerfehlerwahrscheinlichkeit  $n &amp;gt; 1$ beim Bündelfehlerkanal kleiner ist als beim vergleichbaren BSC&amp;amp;ndash;Modell, zum Beispiel: &amp;amp;nbsp; $p_{\rm B}(n = 1) = 20) = 0.859$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Fehlerabstandsbetrachtung nach dem Wilhelm–A–Modell ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Bevor wir dieses interessante Ergebnis interpretieren, beschreiben wie zunächst die endgültige Variante des Kanalmodells nach Wilhelm. Wir nennen es das &amp;lt;i&amp;gt;Wilhelm&amp;amp;ndash;A&amp;amp;ndash;Modell&amp;lt;/i&amp;gt;.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wilhelm hat aus der oben angegebenen [[Digitalsignalübertragung/Bündelfehlerkanäle#Fehlerabstandsbetrachtung_zum_Wilhelm.E2.80.93Modell|erzeugenden Funktion]] $V_a(z)$ eine weitere Näherung entwickelt, die er als das  &amp;amp;bdquo;A&amp;amp;ndash;Modell&amp;amp;rdquo; bezeichnet. Die Näherung basiert auf einer Taylorreihenentwicklung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Das '''A&amp;amp;ndash;Modell''' nach Wilhelm beschreibt die angenäherte Fehlerabstandsverteilung in der Form&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;V_a\hspace{0.05cm}(k) = \frac {1 \cdot \alpha \cdot (1+\alpha) \cdot \hspace{0.05cm} ... \hspace{0.05cm}\cdot  (k-2+\alpha) }{(k-1)\hspace{0.05cm}!}\cdot &lt;br /&gt;
\left [ 1 - {p_{\rm S}^{1/\alpha} }\right ]^{k-1} &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Insbesondere ergibt sich $V_a(k  = 1) = 1$  und $V_a(k  = 2)= \alpha \cdot  (1  - p_{\rm S}^{1/\alpha})$. Hierbei ist zu berücksichtigen, dass der Zähler des Vorfaktors aus $k$ Faktoren besteht. Für $k = 1$ ergibt sich dieser Vorfaktor demzufolge zu $1$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nun vergleichen wir die Unterschiede der beiden Wilhelm&amp;amp;ndash;Modelle ('''L''' bzw. '''A''') hinsichtlich resultierender Blockfehlerwahrscheinlichkeit.&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2831 Dig T 5 3 S5i version2.png|right|frame||Ergebnisse des Wilhelm–Modells für &amp;lt;i&amp;gt;p&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;S&amp;lt;/sub&amp;gt; = 0.2 und einige &amp;lt;i&amp;gt;α&amp;lt;/i&amp;gt; ]] &lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 7:}$&amp;amp;nbsp;   Nebenstehende Grafik zeigt den Verlauf der Blockfehlerwahrscheinlichkeiten $p_{\rm B}(n)$ für drei verschiedene $\alpha$&amp;amp;ndash;Werte, erkennbar an den Farben &lt;br /&gt;
*Rot:&amp;amp;nbsp;&amp;amp;nbsp; $\alpha = 1$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; BSC&amp;amp;ndash;Modell,&amp;lt;br&amp;gt;&lt;br /&gt;
*Blau:&amp;amp;nbsp; $\alpha = 0.95$ &amp;amp;nbsp;&amp;amp;#8658; &amp;amp;nbsp;  schwache Bündelung,&amp;lt;br&amp;gt;&lt;br /&gt;
*Grün:&amp;amp;nbsp; $\alpha = 0.7$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; starke Bündelung.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die durchgezogenen gelten für Linien das A&amp;amp;ndash;Modell und die gestrichelten für das L&amp;amp;ndash;Modell. Die im Bild angegebenen Zahlenwerte für $p_{\rm B}(n = 100)$ beziehen sich ebenfalls auf das A&amp;amp;ndash;Modell.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für $\alpha = 1$ geht sowohl das A&amp;amp;ndash;Modell als auch das L&amp;amp;ndash;Modell in das BSC&amp;amp;ndash;Modell (rote Kurve) über. Desweiteren ist anzumerken:&lt;br /&gt;
*Die Symbolfehlerwahrscheinlichkeit $p_{\rm S} = 0.01$  &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; ${\rm E}[a] = 100$ ist hier  (einigermaßen) realistisch angenommen. Alle Kurven starten so bei $p_{\rm B}(n=1) = 0.01$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; gelber Punkt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der Unterschied zwischen zwei gleichfarbigen Kurven ist gering (bei starker Bündelung etwas größer), wobei  die durchgezogene Kurve stets oberhalb der gestrichelten Kurve liegt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Auch dieses Beispiel zeigt: Je stärker die Bündelung (kleineres $\alpha$), desto kleiner ist die Blockfehlerwahrscheinlichkeit $p_{\rm B}(n)$. Dies gilt allerdings nur, wenn man wie hier von einer konstanten Symbolfehlerwahrscheinlichkeit $p_{\rm S}$ ausgeht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ein (dürftiger) Erklärungsversuch: Nehmen wir an, dass bei BSC mit sehr kleinem $p_{\rm S}$ jeder Blockfehler von genau einem Symbolfehler herrührt, dann gibt es bei gleicher Symbolfehleranzahl weniger Blockfehler, wenn zwei Symbolfehler in einen Block fallen (Bündelung).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Noch ein (passendes?) Beispiel aus dem täglichen Leben. Man kann eine Straße bei konstantem Verkehrsaufkommen leichter überqueren, wenn die Fahrzeuge &amp;amp;bdquo;irgendwie gebündelt&amp;amp;rdquo; kommen.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Fehlerkorrelationsfunktion des Wilhelm–A–Modells ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Eine weitere Beschreibungsform der digitalen Kanalmodelle ist neben der Fehlerabstandsverteilung $V_a(k)$ die [[Digitalsignalübertragung/Beschreibungsgrößen_digitaler_Kanalmodelle#Fehlerkorrelationsfunktion|Fehlerkorrelationsfunktion]] $\varphi_{e}(k)$ &amp;amp;ndash;  abgekürzt FKF. Geht man von der binären Fehlerfolge $\langle e_\nu \rangle$ mit $e_\nu \in  \{0, 1\}$ aus, wobei &lt;br /&gt;
*$e_\nu = 0$ eine richtige Übertragung, und &lt;br /&gt;
*$e_\nu = 1$ einen Symbolfehler (Bitfehler) hinsichtlich des $\nu$&amp;amp;ndash;ten Bits bezeichnet, so gilt folgende Definition:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\varphi_{e}(k) =  {\rm E}[e_{\nu} \cdot e_{\nu + k}] =&lt;br /&gt;
\overline{e_{\nu} \cdot e_{\nu + k}}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
$\varphi_{e}(k)$ gibt die (zeitdiskrete) [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Autokorrelationsfunktion_bei_ergodischen_Prozessen|Autokorrelationsfunktion]] der ebenfalls zeitdiskreten Zufallsgröße $e$ an. Die überstreichende Linie in der rechten Gleichung kennzeichnet die Zeitmittelung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der Fehlerkorrelationswert $\varphi_{e}(k)$ liefert statistische Aussagen bezüglich zwei um $k$ auseinander liegende Folgenelemente, zum Beispiel über $e_{\nu}$ und $e_{\nu +k}$. Die dazwischen liegenden Elemente $e_{\nu +1}$, ... , $e_{\nu +k-1}$ beeinflussen den $\varphi_{e}(k)$&amp;amp;ndash;Wert nicht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Ohne Beweis:}$&amp;amp;nbsp;   Die Fehlerkorrelationsfunktion des Wilhelm&amp;amp;ndash;A&amp;amp;ndash;Modells kann  wie folgt angenähert werden:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\varphi_e\hspace{0.05cm}(k) =  p_{\rm S} \hspace{-0.03cm}\cdot \hspace{-0.03cm} \left [ 1 \hspace{-0.03cm}-\hspace{-0.03cm}  \frac{\alpha}{1\hspace{0.03cm}!}  \hspace{-0.03cm}\cdot \hspace{-0.03cm} C \hspace{-0.03cm}-\hspace{-0.03cm}   \frac{\alpha \cdot (1\hspace{-0.03cm}-\hspace{-0.03cm} \alpha)}{2\hspace{0.03cm}!}  \hspace{-0.03cm}\cdot \hspace{-0.03cm} C^2 \hspace{-0.03cm}-\hspace{-0.03cm} \hspace{0.03cm} ... \hspace{0.03cm}\hspace{-0.03cm}-\hspace{-0.03cm} \frac {\alpha  \hspace{-0.03cm}\cdot \hspace{-0.03cm} (1\hspace{-0.03cm}-\hspace{-0.03cm}\alpha)  \hspace{-0.03cm}\cdot \hspace{-0.03cm} \hspace{0.03cm} ... \hspace{0.03cm} \hspace{-0.03cm}\cdot \hspace{-0.03cm}  (k\hspace{-0.03cm}-\hspace{-0.03cm}1\hspace{-0.03cm}-\hspace{-0.03cm}\alpha) }{k\hspace{0.03cm}!} \hspace{-0.03cm}\cdot \hspace{-0.03cm} C^k \right ]  &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zur Abkürzung ist hierbei  $C = (1-p_{\rm S})^{1/\alpha}$ verwendet. Auf die Herleitung wird hier verzichtet.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nachfolgend werden die Eigenschaften der Fehlerkorrelationsfunktion an einem Beispiel aufgezeigt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2834 Dig T 5 3 S5korr version2.png|right|frame||Fehlerkorrelationsfunktionen des Wilhelm–Modells]] &lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 8:}$&amp;amp;nbsp;   &lt;br /&gt;
Wie im [[Digitalsignalübertragung/Bündelfehlerkanäle#Fehlerabstandsbetrachtung_nach_dem_Wilhelm.E2.80.93A.E2.80.93Modell| Beispiel 7]] gelte $p_{\rm S} = 0.01$ und die hier dargestellten Fehlerkorrelationsfunktionen stehen wieder für&lt;br /&gt;
*Grün:&amp;amp;nbsp; $\alpha = 0.7$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; starke Bündelung.&amp;lt;br&amp;gt;&lt;br /&gt;
*Blau:&amp;amp;nbsp; $\alpha = 0.95$ &amp;amp;nbsp;&amp;amp;#8658; &amp;amp;nbsp;  schwache Bündelung,&amp;lt;br&amp;gt;&lt;br /&gt;
*Rot:&amp;amp;nbsp;&amp;amp;nbsp; $\alpha = 1$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; BSC&amp;amp;ndash;Modell,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die folgenden Aussagen lassen sich weitgehend verallgemeinern, siehe auch [[Digitalsignalübertragung/Binary_Symmetric_Channel_(BSC)#Binary_Symmetric_Channel_.E2.80.93_Modell_und_Fehlerkorrelationsfunktion| GE&amp;amp;ndash;Modell]]:&lt;br /&gt;
*Der FKF-Wert an der Stelle $k = 0$ ist bei allen Kanälen gleich $p_{\rm S} = 10^{-2}$ (markiert durch den Kreis mit grauer Füllung) und der Grenzwert für $k \to \infty$ liegt stets bei $p_{\rm S}^2 = 10^{-4}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Dieser Endwert wird beim BSC&amp;amp;ndash;Modell bereits bei $k = 1$  erreicht (rot gefüllte Markierung). Hier kann die FKF also nur die beiden Werte $p_{\rm S}$  und $p_{\rm S}^2$ annehmen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Auch für für $\alpha \ne 1$ (blaue und grüne Kurve) erkennt man einen Knick bei $k = 1$. Danach verläuft die FKF monoton fallend. Der Abfall ist umso langsamer, je kleiner $\alpha$ ist, also je gebündelter die Fehler auftreten.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Analyse von Fehlerstrukturen mit dem Wilhelm–A–Modell==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wilhelm hat sein Kanalmodell hauptsächlich deshalb entwickelt, um aus gemessenen Fehlerfolgen Rückschlüsse über die dabei auftretenden Fehler machen zu können. Aus der Vielzahl der Analysen in [Wil11]&amp;lt;ref name = 'Wil11'&amp;gt; &amp;lt;/ref&amp;gt; sollen hier nur einige wenige angeführt werden, wobei stets die Symbolfehlerwahrscheinlichkeit $p_{\rm S} = 10^{-3}$ zugrunde liegt. In den Grafiken gilt jeweils die rote Kurve für statistisch unabhängige Fehler (BSC bzw. $\alpha = 1$) und die grüne Kurve für einen Bündelfehlerkanal mit $\alpha = 0.7$. Zudem soll gelten:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;   Ein '''Fehlerburst''' (oder kurz &amp;lt;i&amp;gt;Burst&amp;lt;/i&amp;gt;) beginnt stets mit einem Symbolfehler und endet, wenn $k_{\rm Burst}- 1$ fehlerfreie Symbole aufeinanderfolgen. &lt;br /&gt;
*$k_{\rm Burst}$ bezeichnet den &amp;lt;i&amp;gt;Burst&amp;amp;ndash;Endeparameter&amp;lt;/i&amp;gt;. &lt;br /&gt;
*Das &amp;lt;i&amp;gt;Burstgewicht&amp;lt;/i&amp;gt; $G_{\rm Burst}$ entspricht der Anzahl aller Symbolfehler im Burst. &lt;br /&gt;
*Bei einem &amp;lt;i&amp;gt;Einzelfehler&amp;lt;/i&amp;gt; gilt $G_{\rm Burst}= 1$ und die &amp;lt;i&amp;gt;Burstlänge&amp;lt;/i&amp;gt; (bestimmt durch den ersten und letzten Fehler) ist ebenfalls $L_{\rm Burst}= 1$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2835 Dig T 5 3 S5 Analyse1 kleiner.png|right|frame|Einzelfehlerwahrscheinlichkeit in einem Block der Länge &amp;lt;i&amp;gt;n&amp;lt;/i&amp;gt;]] &lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 9:}\ \text{Wahrscheinlichkeit }p_1\text{ eines Einzelfehlers in einer Probe der Länge} \ n$&lt;br /&gt;
&lt;br /&gt;
Für den BSC&amp;amp;ndash;Kanal $(\alpha = 1)$ gilt $p_1 = n \cdot  0.001 \cdot 0.999^{n-1}$ &amp;amp;nbsp;&amp;amp; #8658; &amp;amp;nbsp; rote Kurve. Aufgrund der doppel&amp;amp;ndash;logarithmischen Darstellung ergibt sich mit diesen Zahlenwerten ein (nahezu) linearer Verlauf. Beim BSC&amp;amp;ndash;Modell treten also Einzelfehler in einer Probe der Länge $n = 100$ mit etwa $9\%$ Wahrscheinlichkeit auf.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Beim Bündelfehlerkanal mit $\alpha = 0.7$ (grüne Kurve) beträgt die entsprechende Wahrscheinlichkeit nur etwa $0.7\%$ und der Kurvenverlauf ist hier leicht gekrümmt. Bei der folgenden Rechnung gehen wir zunächst von der Annahme aus, dass der Einzelfehler  in der Probe der Länge $n$ an der Position $b$ auftritt:&lt;br /&gt;
&lt;br /&gt;
*Bei einem Einzelfehler müssen dann noch $n-b$ fehlerfreie Symbole folgen.  Nach Mittelung über die möglichen Fehlerpositionen $b$ erhält man somit:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p_1 =  p_{\rm S} \cdot \sum_{b = 1}^{n} \hspace{0.15cm}V_a (b) \cdot V_a (n+1-b)&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Wegen der Ähnlichkeit mit der Signaldarstellung eines [[Stochastische_Signaltheorie/Digitale_Filter|Digitalen Filters]] kann man die Summe als Faltung von $V_a(b)$ mit sich selbst bezeichnen. Für die erzeugende Funktion  $V_a(z)$ wird aus der Faltung ein Produkt (bzw. wegen $V_a(b) \star V_a(b)$ das Quadrat) und man erhält folgende Gleichung:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;V_a(z=1) \cdot V_a(z=1) = \left [ V_a(z=1) \right ]^2 = &lt;br /&gt;
{\left [ 1 -(1- {p_{\rm S} }^{1/\alpha})\right ]^{-2\alpha} } \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Mit der  [[Digitalsignalübertragung/Bündelfehlerkanäle#Fehlerabstandsbetrachtung_nach_dem_Wilhelm.E2.80.93A.E2.80.93Modell|spezifischen Fehlerabstandsverteilung]] $V_a(z)$ erhält man somit folgendes Endergebnis: &lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p_1 =  p_{\rm S}&lt;br /&gt;
\cdot \frac{2\alpha \cdot (2\alpha+1) \cdot  \hspace{0.05cm} \text{... } \hspace{0.05cm} \cdot (2\alpha+n-2)}&lt;br /&gt;
{(n-1)!}\cdot&lt;br /&gt;
(1- {p_{\rm S} }^{1/\alpha})^{n-1} \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2836 Dig T 5 3 S5 Analyse2 neu.png|right|frame|Mittlere Fehleranzahl im Burst der Länge &amp;lt;i&amp;gt;k&amp;lt;/i&amp;gt;]] &lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 10:}\ \text{Mittlere Fehleranzahl } {\rm E}[G_{\rm Burst}] \text{ in einem Burst mit Endeparameter }k_{\rm Burst}$&lt;br /&gt;
&lt;br /&gt;
Die mittlere Symbolfehlerwahrscheinlichkeit sei weiterhin $p_{\rm S} = 10^{-3}$, also (relativ) klein.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''(1) &amp;amp;nbsp; Rote Kurve für den BSC&amp;amp;ndash;Kanal (bzw. $\alpha = 1$)''':&lt;br /&gt;
* Der Parameter $k_{\rm Burst}= 10$ bedeutet beispielsweise, dass der Burst beendet ist, wenn nach einem Fehler neun fehlerfreie Symbole aufeinanderfolgenden. Die Wahrscheinlichkeit für einen Fehlerabstand $a \le 9$ ist bei kleinem $p_{\rm S}$ (hier: $10{-3}$) äußerst klein. Daraus folgt weiter, dass dann (fast) jeder Einzelfehler als ein &amp;amp;bdquo;Burst&amp;amp;rdquo; aufgefasst wird, und es gilt ${\rm E}[G_{\rm Burst}] \approx 1.01$ .&amp;lt;br&amp;gt;&lt;br /&gt;
* Bei größerem Burst&amp;amp;ndash;Endeparameter $k_{\rm Burst}$ nimmt auch die Wahrscheinlichkeit ${\rm Pr}(a \le k_{\rm Burst})$ deutlich zu und es kommt zu &amp;amp;bdquo;Bursts&amp;amp;rdquo; mit mehr als einem Fehler. Wählt man beispielsweise $k_{\rm Burst}= 100$, so beinhaltet ein &amp;amp;bdquo;Burst&amp;amp;rdquo; im Mittel 1.1 Symbolfehler.&amp;lt;br&amp;gt;&lt;br /&gt;
*Das bedeutet gleichzeitig, dass es auch beim BSC&amp;amp;ndash;Modell  zu langen Fehlerbursts (entsprechend unserer Definition) kommen kann, wenn bei gegebenem $p_{\rm S}$ der Burst&amp;amp;ndash;Endeparameter zu groß gewählt ist oder bei vorgegebenem $k_{\rm Burst}$  die mittlere Fehlerwahrscheinlichkeit  $p_{\rm S}$ zu groß ist.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''(2) &amp;amp;nbsp; Grüne Kurve für den Wilhelm&amp;amp;ndash;Kanal mit $\alpha = 0.7$''':&lt;br /&gt;
Das hier angegebene Verfahren zur numerischen Bestimmung der mittleren Fehleranzahl ${\rm E}[G_{\rm Burst}]$ eines Bursts kann unabhängig vom $\alpha$&amp;amp;ndash;Wert  angewendet werden. Man geht wie folgt vor:&lt;br /&gt;
&lt;br /&gt;
*Entsprechend den Fehlerabstandswahrscheinlichkeiten ${\rm Pr}(a=k)$ generiert man eine Fehlerfolge $e_1$, $e_2$, ... , $e_i$, ... mit den Fehlerabständen $a_1$, $a_2$, ... , $a_i$, ... &amp;lt;br&amp;gt;&lt;br /&gt;
*Ist ein Fehlerabstand $a_i \ge k_{\rm Burst}$, so kennzeichnet dieser das Ende eines Bursts.  Ein solches Ereignis tritt mit der Wahrscheinlichkeit ${\rm Pr}(a \ge k_{\rm Burst}) = V_a(k_{\rm Burst} )$ ein.&amp;lt;br&amp;gt;&lt;br /&gt;
*Wir zählen solche Ereignisse &amp;amp;bdquo;$a_i \ge k_{\rm Burst}$&amp;amp;rdquo; im gesamten Block der Länge $n$. Deren Anzahl ist gleichzeitig die Anzahl der Bursts im Block. Wir bezeichnen diese Anzahl mit   $N_{\rm Burst}$.&amp;lt;br&amp;gt;&lt;br /&gt;
*Gleichzeitig gilt die Beziehung $N_{\rm Burst} = N_{\rm Fehler} \cdot V_a(k_{\rm Burst} )$ , wobei $N_{\rm Fehler}$ die Anzahl aller Fehler im Block angibt. Daraus lässt sich die mittlere Fehlerzahl pro Burst in einfacher Weise berechnen:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm E}[G_{\rm Burst}] =\frac {N_{\rm Fehler} }{N_{\rm Burst} } =\frac {1}{V_a(k_{\rm Burst})}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Marker in der Grafik korrespondieren mit folgenden Zahlenwerten der [[Digitalsignal%C3%BCbertragung/B%C3%BCndelfehlerkan%C3%A4le#Fehlerabstandsbetrachtung_nach_dem_Wilhelm.E2.80.93A.E2.80.93Modell|Fehlerabstandsverteilung]]. &lt;br /&gt;
*Die grünen Kreise (Wilhelm&amp;amp;ndash;Kanal, $\alpha = 0.7$) ergeben sich aus $V_a(10) = 0.394$ und $V_a(100) = 0.193$. &lt;br /&gt;
*Die roten Kreise (BSC&amp;amp;ndash;Kanal, $\alpha = 1$) sind die Kehrwerte von $V_a(10) = 0.991$ und $V_a(100)  = 0906$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgaben:5.6:_Fehlerkorrelationsdauer|Aufgabe 5.6: Fehlerkorrelationsdauer]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:5.6Z_GE-Modelleigenschaften|Aufgabe 5.6Z: GE-Modelleigenschaften]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:5.7_McCullough-Parameter_aus_Gilbert-Elliott-Parameter|Aufgabe 5.7: McCullough-Parameter aus Gilbert-Elliott-Parameter]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:5.7Z_Nochmals_McCullough-Modell|Aufgabe 5.7Z: Nochmals McCullough-Modell]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Digital_Signal_Transmission/Burst_Error_Channels&amp;diff=21266</id>
		<title>Digital Signal Transmission/Burst Error Channels</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Digital_Signal_Transmission/Burst_Error_Channels&amp;diff=21266"/>
		<updated>2018-01-02T18:28:50Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Digitale Kanalmodelle&lt;br /&gt;
|Vorherige Seite=Binary Symmetric Channel (BSC)&lt;br /&gt;
|Nächste Seite=Anwendungen bei Multimedia–Dateien&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
== Kanalmodell nach Gilbert–Elliott==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Dieses auf E.&amp;amp;nbsp;N. Gilbert [Gil60]&amp;lt;ref name='Gil60'&amp;gt;Gilbert, E. N.: ''Capacity of Burst–Noise Channel.'' In: Bell Syst. Techn. J. Vol. 39, 1960, pp. 1253–1266.&amp;lt;/ref&amp;gt; und E.&amp;amp;nbsp;O. Elliott [Ell63]&amp;lt;ref  name='Ell63'&amp;gt;Elliott, E.O.: ''Estimates of Error Rates for Codes on Burst–Noise Channels.'' In: Bell Syst. Techn. J., Vol. 42, (1963), pp. 1253 – 1266.&amp;lt;/ref&amp;gt; zurückgehende Kanalmodell eignet sich zur Beschreibung und Simulation von digitalen ''Übertragungssystemen mit Bündelfehlercharakteristik''.&lt;br /&gt;
&lt;br /&gt;
[[File:P ID1835 Dig T 5 3 S1 version1.png|center|frame|Gilbert–Elliott–Kanalmodell|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Das '''Gilbert&amp;amp;ndash;Elliott&amp;amp;ndash;Modell''' (Kurzbezeichnung: GE&amp;amp;ndash;Modell) lässt sich wie folgt charakterisieren:&lt;br /&gt;
*Die unterschiedliche Übertragungsqualität zu unterschiedlichen Zeiten wird durch eine endliche Anzahl $g$ von Kanalzuständen $(Z_1, Z_2, \text{...}, Z_g)$ ausgedrückt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die in Wirklichkeit fließenden Übergänge der Störintensität &amp;amp;ndash; im Extremfall von völlig fehlerfreier Übertragung bis hin zum Totalausfall &amp;amp;ndash; werden beim GE&amp;amp;ndash;Modell durch feste Wahrscheinlichkeiten in den einzelnen Kanalzuständen approximiert.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Übergänge zwischen den $g$ Zuständen erfolgen gemäß einem [[Stochastische_Signaltheorie/Markovketten|Markovprozess]] (1. Ordnung) und werden durch $g \cdot (g-1)$ Übergangswahrscheinlichkeiten gekennzeichnet. Zusammen mit den $g$ Fehlerwahrscheinlichkeiten in den einzelnen Zuständen gibt es somit $g^2$ freie Modellparameter.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Aus Gründen der mathematischen Handhabbarkeit beschränkt man sich meist auf $g = 2$ Zustände und bezeichnet diese mit $\rm G$ (&amp;amp;bdquo;GOOD&amp;amp;rdquo;) und $\rm B$ (&amp;amp;bdquo;BAD&amp;amp;rdquo;). Meist wird die Fehlerwahrscheinlichkeit im Zustand $\rm G$ sehr viel kleiner sein als im Zustand $\rm B$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Im Folgenden benutzen wir diese beiden Fehlerwahrscheinlichkeiten $p_{\rm G}$ und $p_{\rm B}$, wobei $p_{\rm G} &amp;lt; p_{\rm B}$ gelten soll, sowie die Übergangswahrscheinlichkeiten ${\rm Pr}({\rm B}\hspace{0.05cm}|\hspace{0.05cm}{\rm G})$ und ${\rm Pr}({\rm G}\hspace{0.05cm}|\hspace{0.05cm}{\rm B})$. Damit sind auch die beiden anderen Übergangswahrscheinlichkeiten festgelegt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} G) = 1 - {\rm&lt;br /&gt;
Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G), \hspace{0.2cm} {\rm&lt;br /&gt;
Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} B) = 1 - {\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}|\hspace{0.05cm} B)\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID1836 Dig T 5 3 S1a version1.png|right|frame|Betrachtetes GE–Modell|class=fit]]&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; Wir betrachten das GE&amp;amp;ndash;Modell mit den Parametern&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p_{\rm G} = 0.01, \hspace{0.2cm}p_{\rm B} = 0.4,&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm} B) =&lt;br /&gt;
0.1, \hspace{0.2cm} {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}&lt;br /&gt;
G) = 0.01\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die folgende Grafik zeigt eine dazugehörige (mögliche) Fehlerfolge der Länge $N = 800$.&lt;br /&gt;
&lt;br /&gt;
Befindet sich das GE&amp;amp;ndash;Modell im Zustand &amp;amp;bdquo;BAD&amp;amp;rdquo;, so erkennt man dies an der grauen Hinterlegung. &lt;br /&gt;
&lt;br /&gt;
[[File:P ID1837 Dig T 5 3 S1b version1.png|center|frame|Beispielhafte GE–Fehlerfolge|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Die Wahrscheinlichkeiten, dass sich die Markovkette im Zustand &amp;amp;bdquo;GOOD&amp;amp;rdquo; bzw. &amp;amp;bdquo;BAD&amp;amp;rdquo; befindet, lassen sich aus der vorausgesetzten Homogenität und Stationarität berechnen. Man erhält mit den obigen Zahlenwerten:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;w_{\rm G} =&lt;br /&gt;
{\rm Pr(im\hspace{0.15cm} Zustand \hspace{0.15cm}G)}=&lt;br /&gt;
\frac{ {\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}\vert\hspace{0.05cm} B)}{ {\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}\vert\hspace{0.05cm} B) + {\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}\vert\hspace{0.05cm} G)} = \frac{0.1}{0.1 + 0.01} =&lt;br /&gt;
{10}/{11}\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;w_{\rm B} =&lt;br /&gt;
{\rm Pr(im\hspace{0.15cm} Zustand \hspace{0.15cm}B)}=&lt;br /&gt;
 \frac{ {\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}\vert\hspace{0.05cm} G)}{ {\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}\vert\hspace{0.05cm} B) + {\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}\vert\hspace{0.05cm} G)} = \frac{0.11}{0.1 + 0.01} =&lt;br /&gt;
{1}/{11}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit kann auch die mittlere Fehlerwahrscheinlichkeit des GE&amp;amp;ndash;Modells ermittelt werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p_{\rm M} = w_{\rm G} \cdot p_{\rm G} + w_{\rm B} \cdot p_{\rm B}&lt;br /&gt;
=  \frac{p_{\rm G} \cdot {\rm Pr}({\rm&lt;br /&gt;
G\hspace{0.05cm}\vert\hspace{0.05cm} B)}+ p_{\rm B} \cdot {\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}\vert\hspace{0.05cm} G)}{ {\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}\vert\hspace{0.05cm} B) + {\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}\vert\hspace{0.05cm} G)} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Insbesondere gilt für das hier beispielhaft betrachtete Modell:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p_{\rm M} ={10}/{11} \cdot 0.01 +{1}/{11} \cdot 0.4 =&lt;br /&gt;
{1}/{22} \approx 4.55\%\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zur Simulation einer GE&amp;amp;ndash;Fehlerfolge wird zwischen den Zuständen &amp;amp;bdquo;GOOD&amp;amp;rdquo;  und &amp;amp;bdquo;BAD&amp;amp;rdquo; entsprechend den vier Übergangswahrscheinlichkeiten umgeschaltet. Beim ersten Aufruf erfolgt die Auswahl des Zustandes zweckmäßigerweise entsprechend den Wahrscheinlichkeiten $w_{\rm G}$ und $w_{\rm B}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zu jedem Taktzeitpunkt wird genau ein Element der Fehlerfolge $ \langle e_\nu  \rangle$ gemäß der aktuellen  Fehlerwahrscheinlichkeit ($p_{\rm G}$ bzw. $p_{\rm B}$) erzeugt. Die [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_McCullough|Fehlerabstandssimulation]] ist hier nicht anwendbar, da ein Zustandswechsel nach jedem Symbol (und nicht nur nach einem Fehler) möglich ist.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Fehlerabstandsverteilung des GE–Modells ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
In [Hub82]&amp;lt;ref name = 'Hub82'&amp;gt;Huber, J.: &amp;lt;i&amp;gt;Codierung für gedächtnisbehaftete Kanäle.&amp;lt;/i&amp;gt; Dissertation – Universität der Bundeswehr München, 1982.&amp;lt;/ref&amp;gt; finden sich die analytischen Berechnungen&lt;br /&gt;
*der Wahrscheinlichkeit des Fehlerabstandes $k$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm Pr}(a=k) = \alpha_{\rm G} \cdot \beta_{\rm&lt;br /&gt;
G}^{\hspace{0.05cm}k-1} \cdot (1- \beta_{\rm G}) + \alpha_{\rm B}&lt;br /&gt;
\cdot \beta_{\rm B}^{\hspace{0.05cm}k-1} \cdot (1- \beta_{\rm&lt;br /&gt;
B})\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*der [[Digitalsignalübertragung/Beschreibungsgrößen_digitaler_Kanalmodelle#Fehlerabstandsverteilung|Fehlerabstandsverteilung]]:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;V_a(k) = {\rm Pr}(a \ge k) =  \alpha_{\rm G} \cdot \beta_{\rm&lt;br /&gt;
G}^{\hspace{0.05cm}k-1}&lt;br /&gt;
 + \alpha_{\rm B} \cdot \beta_{\rm&lt;br /&gt;
B}^{\hspace{0.05cm}k-1} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hierbei sind folgende Hilfsgrößen verwendet:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;u_{\rm GG} ={\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\rm G})&lt;br /&gt;
\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
 {\it u}_{\rm GB} ={\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\hspace{0.03cm} \rm G})&lt;br /&gt;
\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;u_{\rm BB} ={\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm B})&lt;br /&gt;
\hspace{0.05cm},\hspace{0.29cm}&lt;br /&gt;
 {\it u}_{\rm BG} ={\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm&lt;br /&gt;
B})\hspace{0.05cm}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} \beta_{\rm G} =\frac{u_{\rm GG} + u_{\rm BB} + \sqrt{(u_{\rm GG} -&lt;br /&gt;
u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2}&lt;br /&gt;
\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\hspace{0.8cm}\beta_{\rm B} =\frac{u_{\rm&lt;br /&gt;
GG} + u_{\rm BB} - \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot&lt;br /&gt;
u_{\rm GB}\cdot u_{\rm BG}}}{2}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;x_{\rm G} =\frac{u_{\rm BG}}{\beta_{\rm G}-u_{\rm BB}}&lt;br /&gt;
\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
 x_{\rm B} =\frac{u_{\rm BG}}{\beta_{\rm B}-u_{\rm BB}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} \alpha_{\rm G} = \frac{(w_{\rm G} \cdot&lt;br /&gt;
p_{\rm G} + w_{\rm B} \cdot p_{\rm B}\cdot x_{\rm G})( x_{\rm&lt;br /&gt;
B}-1)}{p_{\rm M} \cdot( x_{\rm B}-x_{\rm G})} \hspace{0.05cm},&lt;br /&gt;
\hspace{0.2cm}\alpha_{\rm B} = 1-\alpha_{\rm G}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die angegebenen Gleichungen sind das Ergebnis umfangreicher Matrizenoperationen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID1838 Dig T 5 3 S2 version1.png|center|frame|Fehlerabstandsverteilung von GE– und BSC–Modell|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt die Fehlerabstandsverteilung (FAV) des GE&amp;amp;ndash;Modells (rote Kurve) in linearer und logarithmischer Darstellung für ${\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}|\hspace{0.05cm} B ) = 0.1 $, ${\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}|\hspace{0.05cm} G ) = 0.001 $  und $p_{\rm B} = 0.4$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zum Vergleich ist als blaue Kurve auch der entsprechende $V_a(k)$&amp;amp;ndash;Verlauf für das BSC&amp;amp;ndash;Modell mit der gleichen mittleren  Fehlerwahrscheinlichkeit $p_{\rm M} = 4.5\%$ eingezeichnet.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Fehlerkorrelationsfunktion des GE–Modells ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Für die [[Digitalsignalübertragung/Beschreibungsgrößen_digitaler_Kanalmodelle#Fehlerkorrelationsfunktion|Fehlerkorrelationsfunktion]] (FKF) ergibt sich GE–Modell mit der mittleren Fehlerwahrscheinlichkeit $p_{\rm M}$, den Übergangswahrscheinlichkeiten ${\rm Pr}(\rm B\hspace{0.05cm}|\hspace{0.05cm} G )$ und ${\rm Pr}(\rm G\hspace{0.05cm}|\hspace{0.05cm} B )$ sowie den Fehlerwahrscheinlichkeiten $p_{\rm G}$ und $p_{\rm B}$ in den beiden Zuständen $\rm G$ und $\rm B$ nach umfangreichen Matrizenoperationen der relativ einfache Ausdruck&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\varphi_{e}(k) = {\rm E}[e_\nu  \cdot  e_{\nu +k}] =&lt;br /&gt;
 \left\{ \begin{array}{c} p_{\rm M} \\&lt;br /&gt;
 p_{\rm M}^2 + (p_{\rm B} - p_{\rm M})  (p_{\rm M} - p_{\rm G}) &lt;br /&gt;
 [1 - {\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}|\hspace{0.05cm} G )- {\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}|\hspace{0.05cm} B )]^k \end{array} \right.\quad&lt;br /&gt;
\begin{array}{*{1}c} f{\rm \ddot{u}r }\hspace{0.15cm}k = 0  \hspace{0.05cm},&lt;br /&gt;
\\  f{\rm \ddot{u}r }\hspace{0.15cm} k &amp;gt; 0 \hspace{0.05cm}.\\ \end{array}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Beim GE&amp;amp;ndash;Modell muss $\varphi_{e}(k)$ stets nach dieser Gleichung berechnet werden. Der nur für &amp;amp;bdquo;erneuernde Modelle&amp;amp;rdquo; gültige iterative Berechnungsalgorithmus $\varphi_{e}(k) = \sum_{\kappa = 1}^{k} {\rm Pr}(a = \kappa) \cdot&lt;br /&gt;
\varphi_{e}(k - \kappa) $ kann hier nicht angewendet werden,   da das GE&amp;amp;ndash;Modell nicht erneuernd ist &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; Die Fehlerabstände sind hier nicht statistisch voneinander unabhängig.&lt;br /&gt;
&lt;br /&gt;
[[File:P ID1839 Dig T 5 3 S3 version1.png|right|frame|Fehlerkorrelationsfunktion von &amp;amp;bdquo;GE&amp;amp;rdquo; (Kreise) und &amp;amp;bdquo;BSC&amp;amp;rdquo; (Kreuze)|class=fit]]&amp;lt;br&amp;gt;&lt;br /&gt;
In der Grafik ist ein beispielhafter FKF&amp;amp;ndash;Verlauf des GE&amp;amp;ndash;Modells mit roten Kreisen markiert eingetragen. Man erkennt aus dieser Darstellung:&lt;br /&gt;
*Während beim gedächtnislosen Kanal (BSC&amp;amp;ndash;Modell, blaue Kurve) alle FKF&amp;amp;ndash;Werte $\varphi_{e}(k \ne 0)= p_{\rm M}^2$ sind, nähern sich die FKF&amp;amp;ndash;Werte beim Bündelfehlerkanal diesem Endwert deutlich langsamer.&amp;lt;br&amp;gt;&lt;br /&gt;
*Beim Übergang von $k = 0$ nach $k = 1$ tritt eine gewisse Unstetigkeit auf. Während $\varphi_{e}(k = 0)= p_{\rm M}$ ist, ergibt sich mit der für $k &amp;gt; 0$ gültigen zweiten Gleichung für $k = 0$ folgender extrapolierter Wert:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\varphi_{e0} = p_{\rm M}^2 + (p_{\rm B} - p_{\rm M}) \cdot (p_{\rm&lt;br /&gt;
M} - p_{\rm G})\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ein quantitatives Maß für die Länge der statistischen Bindungen ist die Korrelationsdauer  $D_{\rm K}$, die allgemein als die Breite eines flächengleichen Rechtecks mit der Höhe $\varphi_{e0} - p_{\rm M}^2$ definiert ist:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;D_{\rm K} = \frac{1}{\varphi_{e0} - p_{\rm M}^2} \cdot \sum_{k = 1&lt;br /&gt;
}^{\infty}\hspace{0.1cm} [\varphi_{e}(k) - p_{\rm&lt;br /&gt;
M}^2]\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; Beim Gilbert&amp;amp;ndash;Elliott&amp;amp;ndash;Modell erhält man hierfür den einfachen, analytisch angebbaren Ausdruck&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;D_{\rm K} =\frac{1}{ {\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}&lt;br /&gt;
B ) + {\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm} G )}-1&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*$D_{\rm K}$ ist umso größer, je kleiner ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}&lt;br /&gt;
G )$ und ${\rm Pr}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$ sind, also Zustandswechsel selten auftreten.  &lt;br /&gt;
*Für das BSC&amp;amp;ndash;Modell &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp; $p_{\rm B}= p_{\rm G} = p_{\rm M}$ &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp;  $D_{\rm K} = 0$ ist die Gleichung nicht anwendbar.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Kanalmodell nach McCullough==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Der wesentliche Nachteil des GE&amp;amp;ndash;Modells ist, dass damit eine Fehlerabstandssimulation nicht möglich ist. Wie in der [[Aufgabe 5.5]] herausgearbeitet wird, hat diese gegenüber der symbolweisen Generierung der Fehlerfolge $\langle e_\nu \rangle$ große Vorteile hinsichtlich Rechengeschwindigkeit und Speicherbedarf.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
McCullough [McC68]&amp;lt;ref name ='McC68'&amp;gt;McCullough, R.H.: ''The Binary Regenerative Channel.'' In: Bell Syst. Techn. J. (47), 1968.&amp;lt;/ref&amp;gt; hat das drei Jahre zuvor von Gilbert und Elliott entwickelte Modell dahingehend modifiziert, dass eine Fehlerabstandssimulation in den beiden Zustände &amp;amp;bdquo;GOOD&amp;amp;rdquo; und &amp;amp;bdquo;BAD&amp;amp;rdquo; jeweils für sich anwendbar ist. Die Grafik zeigt unten das Modell von McCullough, im Folgenden als '''MC&amp;amp;ndash;Modell''' bezeichnet, während oben das GE&amp;amp;ndash;Modell nach Umbenennung der Übergangswahrscheinlichkeiten &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp;   ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) \rightarrow {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$, ${\rm Pr}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) \rightarrow {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$, usw. dargestellt ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID1840 Dig T 5 3 S4a version1.png|center|frame|Kanalmodelle nach Gilbert–Elliott (oben) und McCullough (unten)|class=fit]&lt;br /&gt;
&lt;br /&gt;
Zwischen den beiden Modellen bestehen viele Gemeinsamkeiten und einige wenige Unterschiede:&lt;br /&gt;
*Das McCullough&amp;amp;ndash;Kanalmodell beruht wie das Gilbert&amp;amp;ndash;Elliott&amp;amp;ndash;Modell auf einem ''Markovprozess erster Ordnung'' mit den beiden Zuständen &amp;amp;bdquo;GOOD&amp;amp;rdquo; $(\rm G)$ und &amp;amp;bdquo;BAD&amp;amp;rdquo; $(\rm B)$. Hinsichtlich der Modellstruktur ist kein Unterschied feststellbar.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der wesentliche Unterschied zum GE&amp;amp;ndash;Modell besteht darin, dass ein Zustandswechsel zwischen &amp;amp;bdquo;GOOD&amp;amp;rdquo;  und &amp;amp;bdquo;BAD&amp;amp;rdquo; jeweils nur nach einem Fehler &amp;amp;ndash; also einer $1$ in der Fehlerfolge &amp;amp;ndash; möglich ist. Dies ermöglicht eine  Fehlerabstandssimulation.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die vier frei wählbaren GE&amp;amp;ndash;Parameter $p_{\rm G}$, $p_{\rm B}$, ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$ und ${\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$ können &amp;amp;ndash; wie auf der nächsten Seite gezeigt &amp;amp;ndash; so in die MC&amp;amp;ndash;Parameter $q_{\rm G}$, $q_{\rm B}$, ${\it q}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$ und ${\it q}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B )$umgerechnet werden, dass eine in ihren statistischen Eigenschaften gleiche Fehlerfolge wie beim GE&amp;amp;ndash;Modell erzeugt wird.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Beispielsweise bezeichnet ${\it q}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$ die Übergangswahrscheinlichkeit von dem Zustand &amp;amp;bdquo;GOOD&amp;amp;rdquo; in den Zustand &amp;amp;bdquo;BAD&amp;amp;rdquo; unter der Voraussetzung, dass im Zustand &amp;amp;bdquo;GOOD&amp;amp;rdquo; gerade ein Fehler aufgetreten ist. Der GE&amp;amp;ndash;Parameter ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G )$ kennzeichnet diese Übergangswahrscheinlichkeit ohne Zusatzbedingung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp; Die Abbildung zeigt oben eine beispielhafte Fehlerfolge des GE&amp;amp;ndash;Modells mit den Parametern $p_{\rm G} = 0.01$, $p_{\rm B} = 0.4$, ${\it p}(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.01$ und ${\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.1$. Man erkennt, dass ein Zustandswechsel von &amp;amp;bdquo;GOOD&amp;amp;rdquo; (ohne Hinterlegung) nach &amp;amp;bdquo;BAD&amp;amp;rdquo; (graue Hinterlegung) und umgekehrt zu jedem Zeitpunkt $\nu$ möglich ist &amp;amp;ndash; also auch dann, wenn $e_\nu = 0$ ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID1841 Dig T 5 3 S4 version1.png|center|frame|Fehlerfolge des GE–Modells (oben) und des MC–Modells (unten)|class=fit]]}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; Die Zusammenhänge zwischen den beiden Modellen lassen sich wie folgt zusammenfassen:&lt;br /&gt;
*Bei der unten dargestellten Fehlerfolge des McCullough&amp;amp;ndash;Modells ist im Gegensatz zur oberen Folge ein Zustandswechsel zum Zeitpunkt $\nu$ nur bei $e_\nu = 1$  möglich.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Dies hat den Vorteil, dass man bei einer Fehlerfolgensimulation die Fehler nicht &amp;amp;bdquo;step&amp;amp;ndash;by&amp;amp;ndash;step&amp;amp;rdquo; generieren muss, sondern die schnellere Fehlerabstandssimulation nutzen kann &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; siehe [[Aufgabe 5.5]].&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Die Parameter des GE&amp;amp;ndash;Modells können derart in entsprechende MC&amp;amp;ndash;Parameter umgerechnet werden, dass beide Modellen äquivalent sind &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; siehe nächste Seite.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Das bedeutet,  dass die MC&amp;amp;ndash;Fehlerfolge exakt gleiche statistische Eigenschaften besitzt wie die GE&amp;amp;ndash;Fehlerfolge. Es bedeutet aber nicht, dass die beiden Fehlerfolgen identisch sind.}}&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Umrechnung der GE&amp;amp;ndash;Parameter in die MC&amp;amp;ndash;Parameter ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Die Parameter des äquivalenten  MC&amp;amp;ndash;Modells sind aus den GE&amp;amp;ndash;Parametern wie folgt berechenbar:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;q_{\rm G} =1-\beta_{\rm&lt;br /&gt;
G}\hspace{0.05cm}, \hspace{0.2cm}q_{\rm&lt;br /&gt;
B} = 1-\beta_{\rm B}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;q(\rm B\hspace{0.05cm}|\hspace{0.05cm} G ) =\frac{\alpha_{\rm B} \cdot[{\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}|\hspace{0.05cm} G ) + {\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}|\hspace{0.05cm} B )]}{\alpha_{\rm G} \cdot q_{\rm&lt;br /&gt;
B} + \alpha_{\rm B} \cdot q_{\rm G}} \hspace{0.05cm},  \hspace{0.5cm}&lt;br /&gt;
q(\rm G\hspace{0.05cm}|\hspace{0.05cm} B ) =&lt;br /&gt;
\frac{\alpha_{\rm G}}{\alpha_{\rm B}} \cdot q(\rm&lt;br /&gt;
B\hspace{0.05cm}|\hspace{0.05cm} G )\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hierbei sind wieder die folgenden Hilfsgrößen verwendet:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;u_{\rm GG} = {\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\rm G})&lt;br /&gt;
\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
 {\it u}_{\rm GB} ={\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}|\hspace{0.05cm} G ) \cdot (1-{\it p}_{\hspace{0.03cm} \rm G})&lt;br /&gt;
\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;u_{\rm BB} = {\rm Pr}(\rm&lt;br /&gt;
B\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm B})&lt;br /&gt;
\hspace{0.05cm},\hspace{0.29cm}&lt;br /&gt;
 {\it u}_{\rm BG} ={\rm Pr}(\rm&lt;br /&gt;
G\hspace{0.05cm}|\hspace{0.05cm} B ) \cdot (1-{\it p}_{\hspace{0.03cm}\rm&lt;br /&gt;
B})\hspace{0.05cm}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} \beta_{\rm G} = \frac{u_{\rm GG} + u_{\rm BB} + \sqrt{(u_{\rm GG} -&lt;br /&gt;
u_{\rm BB})^2 + 4 \cdot u_{\rm GB}\cdot u_{\rm BG}}}{2}&lt;br /&gt;
\hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt;\hspace{0.7cm}\beta_{\rm B} \hspace{-0.1cm}  =  \hspace{-0.1cm}\frac{u_{\rm&lt;br /&gt;
GG} + u_{\rm BB} - \sqrt{(u_{\rm GG} - u_{\rm BB})^2 + 4 \cdot&lt;br /&gt;
u_{\rm GB}\cdot u_{\rm BG}}}{2}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;x_{\rm G} =\frac{u_{\rm BG}}{\beta_{\rm G}-u_{\rm BB}}&lt;br /&gt;
\hspace{0.05cm},\hspace{0.2cm}&lt;br /&gt;
 x_{\rm B} =\frac{u_{\rm BG}}{\beta_{\rm B}-u_{\rm BB}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\Rightarrow \hspace{0.3cm} \alpha_{\rm G} = \frac{(w_{\rm G} \cdot&lt;br /&gt;
p_{\rm G} + w_{\rm B} \cdot p_{\rm B}\cdot x_{\rm G})( x_{\rm&lt;br /&gt;
B}-1)}{p_{\rm M} \cdot( x_{\rm B}-x_{\rm G})} \hspace{0.05cm},&lt;br /&gt;
\hspace{0.2cm}\alpha_{\rm B} = 1-\alpha_{\rm G}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; Wie im [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_McCullough|Beispiel 2]] gelte für die GE&amp;amp;ndash;Parameter: &lt;br /&gt;
:$$p_{\rm G} = 0.01, \ p_{\rm B} = 0.4, \ p(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.01, \ {\it p}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.1.$$&lt;br /&gt;
Bei Anwendung obiger Gleichungen erhält man dann für die äquivalenten MC&amp;amp;ndash;Parameter: &lt;br /&gt;
:$$q_{\rm G} = 0.0186, \ q_{\rm B} = 0.4613, \ q(\rm B\hspace{0.05cm}\vert\hspace{0.05cm}G ) = 0.3602, \ {\it q}(\rm G\hspace{0.05cm}\vert\hspace{0.05cm}B ) = 0.2240.$$&lt;br /&gt;
&lt;br /&gt;
*Vergleicht man im [[Digitalsignalübertragung/Bündelfehlerkanäle#Kanalmodell_nach_McCullough|Beispiel 2]] die rote Fehlerfolge (GE, Zustandswechsel ist immer möglich) mit der blauen Folge (äquivalentes MC, Zustandswechsel nur bei $e_\nu = 1$), so erkennt gravierende Unterschiede.&lt;br /&gt;
* Aber die blaue Fehlerfolge des äquivalenten McCullough-Modells besitzt exakt gleiche statistische Eigenschaften wie die rote Fehlerfolge des Gilbert–Elliott–Modells.}}&lt;br /&gt;
&lt;br /&gt;
Die Umrechnung der GE&amp;amp;ndash; in die MC&amp;amp;ndash;Parameter wird in der [[Aufgabe 5.7]] an einem einfachen Beispiel verdeutlicht. In der [[Aufgabe 5.7Z]] wird weiter gezeigt, wie die mittlere Fehlerwahrscheinlichkeit, die Fehlerabstandsverteilung, die Fehlerkorrelationsfunktion und die Korrelationsdauer des MC&amp;amp;ndash;Modells direkt aus den &amp;lt;i&amp;gt;q&amp;lt;/i&amp;gt;&amp;amp;ndash;Parametern ermittelt werden können.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Bündelfehlerkanalmodell nach Wilhelm ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Dieses Modell geht auf [[Biografien_und_Bibliografien/Externe_Beteiligte_am_LNTwww#Dr._sc._techn._Claus_Wilhelm|Claus Wilhelm]] zurück und wurde ab Mitte der 1960er Jahre aus empirischen Messungen zeitlicher Folgen von Bitfehlern entwickelt. Es beruht auf Tausenden von Messstunden in Übertragungskanälen ab 200 bit/s mit analogem Modem bis hin zu 2.048 Mbit/s über [[Beispiele_von_Nachrichtensystemen/Allgemeine_Beschreibung_von_ISDN|ISDN]]. Ebenso wurden Seefunkkanäle bis zu 7500 Kilometern im Kurzwellenbereich vermessen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2778 Dig T 5 3 S5.png|right|frame|Beispielhafte Funktionsverläufe &amp;lt;i&amp;gt;p&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;B&amp;lt;/sub&amp;gt;(&amp;lt;i&amp;gt;n&amp;lt;/i&amp;gt;)]]&lt;br /&gt;
Aufgezeichnet wurden Blöcke der Länge $n$. Daraus wurde die jeweilige Blockfehlerrate $h_{\rm B}(n)$ ermittelt. Ein Blockfehler liegt bereits dann vor, wenn auch nur eines der $n$ Symbole verfälscht wurde. Wohl wissend, dass die Blockfehlerrate $h_{\rm B}(n)$ nur für $n \to \infty$ exakt mit der Blockfehlerwahrscheinlichkeit $p_{\rm B}$ übereinstimmt, setzen wir bei der folgenden Beschreibung $p_{\rm B}(n) \approx h_{\rm B}(n)$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Bei einer Vielzahl von Messungen wurde immer wieder die Tatsache bestätigt, dass der Verlauf $p_{\rm B}(n)$ in doppelt&amp;amp;ndash;logarithmischer Darstellung im unteren Bereich lineare Anstiege aufweisen (siehe Grafik). Es gilt also für $n \le n^\star$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm lg} \hspace{0.1cm}p_{\rm B}(n) = {\rm lg} \hspace{0.1cm}p_{\rm S} + \alpha \cdot {\rm lg} \hspace{0.1cm}n\hspace{0.3cm}&lt;br /&gt;
\Rightarrow \hspace{0.3cm}  p_{\rm B}(n) = p_{\rm S} \cdot n^{\alpha}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Hierbei bezeichnet $p_{\rm S} = p_{\rm B}(n=1)$ die mittlere Symbolfehlerwahrscheinlichkeit und die empirisch gefundenen Werte von $\alpha$ liegen zwischen $0.5$ und $0.95$. Für $1-\alpha$ wird auch die Bezeichnung &amp;lt;i&amp;gt;Bündelungsfaktor&amp;lt;/i&amp;gt; verwendet.&lt;br /&gt;
&amp;lt;br clear = all&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Für das BSC&amp;amp;ndash;Modell gilt für den Verlauf der Blockfehlerwahrscheinlichkeit:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p_{\rm B}(n) =1 -(1 -p_{\rm S})^n \approx n \cdot p_{\rm S}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Daraus folgt $\alpha = 1$ bzw. der Bündelungsfaktor $1-\alpha = 0$. In diesem Fall (und nur in diesem) ergibt sich auch bei nicht&amp;amp;ndash;logarithmischer Darstellung ein linearer Verlauf.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Es ist aber zu beachten, dass obige Näherung nur für $p_{\rm S}  \ll 1$ und nicht allzu großes $n$ zulässig ist, da sonst die Näherung $(1-p_{\rm S})^n \approx1 - n \cdot p_{\rm S}$ nicht anwendbar ist. Das heißt aber auch, dass die oben angegebene Gleichung auch nur für einen unteren Bereich (für $n &amp;lt; n^\star$) gilt. Ansonsten würde sich für $n \to \infty$  eine unendlich große Blockfehlerwahrscheinlichkeit ergeben.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Für die aus Messungen empirisch bestimmte Funktion $p_{\rm B}(n)$ muss nun die [[[Digitalsignalübertragung/Beschreibungsgrößen_digitaler_Kanalmodelle#Fehlerabstandsverteilung|Fehlerabstandsverteilung]] gefunden werden, aus der der Verlauf für $n &amp;gt; n^\star$ extrapoliert werden kann und der die Nebenbedingung&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\lim_{n \hspace{0.05cm} \rightarrow \hspace{0.05cm} \infty}  p_{\rm B}(n) = 1 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
erfüllt. Wir bezeichnen diesen Ansatz als das '''Wilhelm&amp;amp;ndash;Modell'''. Da das Gedächtnis nur bis zum letzten Symbolfehler reicht, wird dieses Modell erneuernd sein (englisch: &amp;lt;i&amp;gt;Renewal Model&amp;lt;/i&amp;gt;).}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Fehlerabstandsbetrachtung zum Wilhelm–Modell ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[File:P ID2807 Dig T 5 3 S5b.png|right|frame|Fehlerfolge und Fehlerabstandsfolge|class=fit]]&lt;br /&gt;
Wir betrachten nun die &amp;lt;i&amp;gt;Fehlerabstände&amp;lt;/i&amp;gt;. Eine Fehlerfolge $\langle e_\nu \rangle$ kann in äquivalenter Weise durch die Fehlerabstandsfolge $\langle a_{\nu\hspace{0.03cm}'} \rangle$ dargestellt werden, wie in der folgenden Grafik gezeigt. Man erkennt:&lt;br /&gt;
*Die Fehlerfolge $\text{...}\rm 1001\text{...}$ wird durch den Fehlerabstand $a= 3$ ausgedrückt.&amp;lt;br&amp;gt;&lt;br /&gt;
*Entsprechend bezeichnet der Fehlerabstand $a= 1$  die Fehlerfolge $\text{...}\rm 11\text{...}$ .&amp;lt;br&amp;gt;&lt;br /&gt;
*Die verschiedenen Indizes $\nu$ und $\nu\hspace{0.03cm}'$ berücksichtigen, dass die beiden Folgen nicht synchron laufen.&lt;br /&gt;
&lt;br /&gt;
Mit den Wahrscheinlichkeiten $p_a(k) = {\rm Pr}(a= k)$ für die einzelnen Fehlerabstände $k$ und der mittleren (Symbol&amp;amp;ndash;)Fehlerwahrscheinlichkeit $p_{\rm S}$ gelten  folgende Definitionen für&lt;br /&gt;
* die Fehlerabstandsverteilung (FAV): &lt;br /&gt;
::&amp;lt;math&amp;gt; V_a(k) =  {\rm Pr}(a \ge k)= \sum_{\kappa = k}^{\infty}p_a(\kappa) \hspace{0.05cm},&amp;lt;/math&amp;gt;&lt;br /&gt;
* den mittleren Fehlerabstand ${\rm E}[a]$:&lt;br /&gt;
::&amp;lt;math&amp;gt; V_a(k) =  {\rm E}[a] = \sum_{k = 1}^{\infty} k \cdot p_a(k)  = {1}/{p_{\rm S}}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 5:}$&amp;amp;nbsp; Wir betrachten nun einen Block mit $n$ Bit, beginnend bei der Bitposition $\nu + 1$. Ein Blockfehler tritt immer dann auf, wenn ein Bit an den Positionen $\nu + 1$, ... , $\nu + n$ verfälscht ist.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2808 Dig T 5 3 S5c neu.png|center|frame|Zur Herleitung des Wilhelm–Modells|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Die Verfälschungswahrscheinlichkeiten werden in der Grafik durch die Fehlerabstandsverteilung  ${V_a}'(k)$ ausgedrückt. Irgendwo vor dem Block der Länge $n = 3$&lt;br /&gt;
befindet sich der letzte Fehler, aber mindestens im Abstand $k$ vom ersten Fehler im Block entfernt. Also ist der Abstand gleich oder größer als $k$, was genau der Wahrscheinlichkeit ${V_a}'(k)$ entspricht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;i&amp;gt;Hinweis.&amp;lt;/i&amp;gt; Das Hochkomma soll anzeigen, dass wir später noch eine Korrektur vornehmen müssen, um von der empirisch gefundenen FAV  zur richtigen Funktion ${V_a}(k)$ zu kommen.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Für die Blockfehlerwahrscheinlichkeit $p_{\rm B}(n)$ haben wir nun verschiedene Gleichungen. &lt;br /&gt;
*Eine erste Gleichung stellt den Zusammenhang zwischen  $p_{\rm B}(n)$ und der (approximativen)  Fehlerabstandsverteilung ${V_a}'(k)$ her:  &lt;br /&gt;
::&amp;lt;math&amp;gt;(1)\hspace{0.2cm} p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k)  \hspace{0.05cm},&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
*Eine zweite Gleichung lieferte unsere empirische Untersuchung zu Beginn dieses Abschnitts:&lt;br /&gt;
::&amp;lt;math&amp;gt;(2)\hspace{0.2cm} p_{\rm B}(n) = p_{\rm S} \cdot n^{\alpha}&amp;lt;/math&amp;gt;&lt;br /&gt;
*Die dritte Gleichung ergibt sich aus Gleichsetzen von $(1)$ und $(2)$:&lt;br /&gt;
::&amp;lt;math&amp;gt;(3)\hspace{0.2cm}&lt;br /&gt;
\sum_{k = 1}^{n} V_a\hspace{0.05cm}'(k) = n^{\alpha} \hspace{0.05cm}. &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Durch sukzessives Einsetzen von $n = 1, 2, 3,$ ... in diese Gleichung erhalten wir mit ${V_a}'(k = 1) = 1$:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;V_a\hspace{0.05cm}'(1)   =   1^{\alpha}&lt;br /&gt;
\hspace{0.05cm},\hspace{0.8cm}&lt;br /&gt;
V_a\hspace{0.05cm}'(1) + V_a\hspace{0.05cm}'(2)  =2^{\alpha}&lt;br /&gt;
\hspace{0.05cm},&lt;br /&gt;
\hspace{0.8cm}V_a\hspace{0.05cm}'(1) + V_a\hspace{0.05cm}'(2) + V_a\hspace{0.05cm}'(3)  = 3^{\alpha}&lt;br /&gt;
\hspace{0.35cm}\Rightarrow \hspace{0.3cm} V_a\hspace{0.05cm}'(k) = k^{\alpha}-(k-1)^{\alpha} \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die aus empirischen Daten gewonnenen Koeffizienten ${V_a}'(k)$ erfüllen jedoch nicht notwendigerweise die Normierungsbedingung. Um den Sachverhalt zu korrigieren, verwendet Wilhelm folgenden Ansatz:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;V_a\hspace{0.05cm}(k) = V_a\hspace{0.05cm}'(k) \cdot {\rm e}^{- \beta \cdot (k-1)}\hspace{0.3cm}\Rightarrow \hspace{0.3cm}&lt;br /&gt;
V_a\hspace{0.05cm}(k) =  [k^{\alpha}-(k-1)^{\alpha} ] \cdot {\rm e}^{- \beta \cdot (k-1)}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wilhelm bezeichnet diese Darstellung als '''&amp;lt;i&amp;gt;L&amp;lt;/i&amp;gt;&amp;amp;ndash;Modell''', siehe [Wil11]&amp;lt;ref name='Wil11'&amp;gt;Wilhelm, C.: ''A-Model and L-Model, New Channel Models with Formulas for Probabilities of Error Structures. Neue Kanalmodelle mit Formeln für die Wahrscheinlichkeit von Fehlerstrukturen''. [http://www.channels-networks.net/ Internet-Veröffentlichungen zu Channels-Networks,] 2011ff.&amp;lt;/ref&amp;gt;. Die Konstante $\beta$ ist  in Abhängigkeit&lt;br /&gt;
*der Symbolfehlerwahrscheinlichkeit $p_{\rm S}$, und&amp;lt;br&amp;gt;&lt;br /&gt;
*des empirisch gefundenen Exponenten $\alpha$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; Bündelungsfaktor $1- \alpha$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
so zu bestimmen, dass die Blockfehlerwahrscheinlichkeit   bei unendlich großer Blocklänge gleich $1$ wird:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\lim_{n \hspace{0.05cm} \rightarrow \hspace{0.05cm} \infty}  p_B(n) =  p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}(k)&lt;br /&gt;
 =  p_{\rm S} \cdot \sum_{k = 1}^{n}  [k^{\alpha}-(k-1)^{\alpha} ] \cdot {\rm e}^{- \beta \cdot (k-1)}&lt;br /&gt;
=1 &lt;br /&gt;
\hspace{0.3cm} \Rightarrow \hspace{0.3cm} \sum_{k = 1}^{\infty}  [k^{\alpha}-(k-1)^{\alpha} ] \cdot {\rm e}^{- \beta \cdot (k-1)}&lt;br /&gt;
= {1}/{p_{\rm S}} &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Um $\beta$ zu bestimmen, wird die [https://de.wikipedia.org/wiki/Erzeugende_Funktion erzeugende Funktion] von  ${V_a}(k)$ verwendet, die wir mit ${V_a}(z)$ benennen:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;V_a\hspace{0.05cm}(z) =  \sum_{k = 1}^{\infty}V_a\hspace{0.05cm}(k)  \cdot z^k = &lt;br /&gt;
  \sum_{k = 1}^{n}  [k^{\alpha}-(k-1)^{\alpha} ] \cdot {\rm e}^{- \beta \cdot (k-1)}&lt;br /&gt;
\cdot z^k &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
In [Wil11]&amp;lt;ref name='Wil11'&amp;gt;&amp;lt;/ref&amp;gt; wird näherungsweise hergeleitet: &amp;amp;nbsp; $V_a\hspace{0.05cm}(z) = 1/{\left (1- {\rm e}^{- \beta }\cdot z \right )^\alpha}&lt;br /&gt;
\hspace{0.05cm}.$ Aus der Gleichung für den mittleren Fehlerabstand folgt:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; {\rm E}[a] = \sum_{k = 1}^{\infty} k \cdot p_a(k)  = \sum_{k = 1}^{\infty} V_a(k)  = \sum_{k = 1}^{\infty} V_a(k) \cdot 1^k =  V_a(z=1) =&lt;br /&gt;
 1/p_{\rm S}&amp;lt;/math&amp;gt;&lt;br /&gt;
::&amp;lt;math&amp;gt; \Rightarrow \hspace{0.3cm}{p_{\rm S}} = \left [V_a(z=1)\right]^{-1}=&lt;br /&gt;
 \left [1- {\rm e}^{- \beta }\cdot 1\right]^{\alpha}\hspace{0.3cm}&lt;br /&gt;
\Rightarrow \hspace{0.3cm}&lt;br /&gt;
{\rm e}^{- \beta } =1 - {p_{\rm S}}^{1/\alpha}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Numerischer Vergleich von BSC–Modell und Wilhelm–Modell==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; Fassen wir dieses Zwischenergebnis zusammen. Das '''L&amp;amp;ndash;Modell''' nach Wilhelm beschreibt die Fehlerabstandsverteilung in der Form&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;V_a\hspace{0.05cm}(k) = \left  [k^{\alpha}-(k-1)^{\alpha}\right ] \cdot &lt;br /&gt;
\left [ 1 - {p_{\rm S}^{1/\alpha} }\right ]^{k-1} &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dieses Modell soll nun anhand beispielhafter numerischer Ergebnisse erläutert werden.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 6:}$&amp;amp;nbsp; Wir gehen zunächst vom [[Digitalsignal%C3%BCbertragung/Binary_Symmetric_Channel_(BSC)#Fehlerkorrelationsfunktion_des_BSC.E2.80.93Modells|BSC&amp;amp;ndash;Modell]] aus. Die Verfälschungswahrscheinlichkeit setzen wir aus Darstellungsgründen sehr hoch auf $p_{\rm S} = 0.2$. In der zweiten Zeile der nachfolgenden Tabelle ist dessen Fehlerabstandsverteilung ${V_a}(k) = {\rm Pr}(a \ge k)$ für $k \le10$ eingetragen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2827 Dig T 5 3 S5d ganz neu.png|center|frame|Kenngrößen des BSC–Modells  für &amp;lt;i&amp;gt;p&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;S&amp;lt;/sub&amp;gt; = 0.2|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Das Wilhelm&amp;amp;ndash;Modell mit $p_{\rm S} = 0.2$ und $\alpha = 1$ weist genau die gleiche Fehlerabstandsverteilung ${V_a}(k)$ wie das entsprechende [[Digitalsignal%C3%BCbertragung/Binary_Symmetric_Channel_(BSC)#Fehlerabstandsverteilung_des_BSC.E2.80.93Modells| BSC&amp;amp;ndash;Modell]] auf. Dies zeigt auch die Rechnung. Mit $\alpha = 1$ erhält man aus der Gleichung auf der letzten Seite:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;V_a\hspace{0.05cm}(k) = \left  [k^{\alpha}-(k-1)^{\alpha}\right ] \cdot &lt;br /&gt;
\left [ 1 - {p_{\rm S}^{1/\alpha} }\right ]^{k-1}  =  (1 - p_{\rm S} )^{k-1}&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Damit besitzen beide Modelle entsprechend den Zeilen 3 und 4 auch&lt;br /&gt;
*gleiche Wahrscheinlichkeiten ${\rm Pr}(a = k)= {V_a}(k-1) -   {V_a}(k)$der Fehlerabstände,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*gleiche Blockfehlerwahrscheinlichkeiten $ p_{\rm B}(n)$.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Im Hinblick auf das folgende $\rm Beispiel 7$ mit  $\alpha \ne 1$ ist nochmals besonders zu erwähnen:&lt;br /&gt;
*Die Blockfehlerwahrscheinlichkeiten  $ p_{\rm B}(n)$ des Wilhelm&amp;amp;ndash;Modells ergeben sich grundsätzlich aus der Fehlerabstandsverteilung ${V_a}(k)$ entsprechend der Gleichung&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} V_a\hspace{0.05cm}(k) &lt;br /&gt;
\hspace{0.15cm}\Rightarrow  \hspace{0.15cm} p_{\rm B}( 1) = 0.2 \cdot 1 = 0.2&lt;br /&gt;
\hspace{0.05cm}, \hspace{0.5cm}p_{\rm B}(2) = 0.2 \cdot (1+0.8) = 0.36&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Im Sonderfall $\alpha \ne 1$  &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; BSC&amp;amp;ndash;Modell (und nur in diesem) kann $ p_{\rm B}(n)$ auch durch Summation über die Fehlerabstandswahrscheinlichkeiten ${\rm Pr}(a=k)$ ermittelt werden:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt; p_{\rm B}(n) = p_{\rm S} \cdot \sum_{k = 1}^{n} {\rm Pr}(a=k)&lt;br /&gt;
\hspace{0.15cm}\Rightarrow  \hspace{0.15cm} p_{\rm B}( 1) = 0.2&lt;br /&gt;
\hspace{0.05cm}, \hspace{0.5cm}p_{\rm B}(2) = 0.2+ 0.16 = 0.36&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 7:}$&amp;amp;nbsp;  Betrachten wir nun einen Kanal mit Bündelfehlercharakteristik. Die Grafik zeigt als grüne Kreise die Ergebnisse für das Wilhelm&amp;amp;ndash;L&amp;amp;ndash;Modell mit $\alpha = 0.7$. Die rote Vergleichskurve gilt für $\alpha = 1$  (bzw. für den BSC&amp;amp;ndash;Kanal) bei gleicher mittlerer Symbolfehlerwahrscheinlichkeit  $p_{\rm S} = 0.2$. Unten rechts sind einige interessante Zahlenwerte angegeben.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2833 Dig T 5 3 S5h version2.png|center|frame|Ergebnisse des  Wilhelm–L–Modells mit &amp;lt;i&amp;gt;α&amp;lt;/i&amp;gt; = 0.7 und &amp;lt;i&amp;gt;p&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;S&amp;lt;/sub&amp;gt; = 0.2|class=fit]]&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus diesen Darstellungen:&lt;br /&gt;
*Der Verlauf der Blockfehlerfehlerwahrscheinlichkeit beginnt jeweils mit $p_{\rm B}(n = 1) = p_{\rm S} = 0.2$, sowohl bei statistisch unabhängigen Fehlern (BSC) als auch bei Bündelfehlern (Wilhelm).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Beim Bündelfehlerkanal  ist ${\rm Pr}(a=1)= 0.438$ deutlich größer als beim vergleichbaren BSC &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; ${\rm Pr}(a=1)= 0.2$. Zudem erkennt man einen abgeknickten Verlauf im unteren Bereich.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der mittlere Fehlerabstand ${\rm E}[a] = 1/p_{\rm S} = 5$ ist aber bei gleicher Symbolfehlerwahrscheinlichkeit ebenfalls identisch. Der große Ausreiser bei $k=1$ wird durch kleinere Wahrscheinlichkeiten für $k=2$, $k=3$ und $k=4$ ausgeglichen, sowie durch die Tatsache, dass für große $k$ die grünen Kreise &amp;amp;ndash; wenn auch nur minimal &amp;amp;ndash; oberhalb der roten Vergleichskurve liegen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Das wichtigste Ergebnis ist aber, dass die Blockfehlerfehlerwahrscheinlichkeit  $n &amp;gt; 1$ beim Bündelfehlerkanal kleiner ist als beim vergleichbaren BSC&amp;amp;ndash;Modell, zum Beispiel: &amp;amp;nbsp; $p_{\rm B}(n = 1) = 20) = 0.859$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Fehlerabstandsbetrachtung nach dem Wilhelm–A–Modell ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Bevor wir dieses interessante Ergebnis interpretieren, beschreiben wie zunächst die endgültige Variante des Kanalmodells nach Wilhelm. Wir nennen es das &amp;lt;i&amp;gt;Wilhelm&amp;amp;ndash;A&amp;amp;ndash;Modell&amp;lt;/i&amp;gt;.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Wilhelm hat aus der oben angegebenen [[Digitalsignalübertragung/Bündelfehlerkanäle#Fehlerabstandsbetrachtung_zum_Wilhelm.E2.80.93Modell|erzeugenden Funktion]] $V_a(z)$ eine weitere Näherung entwickelt, die er als das  &amp;amp;bdquo;A&amp;amp;ndash;Modell&amp;amp;rdquo; bezeichnet. Die Näherung basiert auf einer Taylorreihenentwicklung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Das '''A&amp;amp;ndash;Modell''' nach Wilhelm beschreibt die angenäherte Fehlerabstandsverteilung in der Form&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;V_a\hspace{0.05cm}(k) = \frac {1 \cdot \alpha \cdot (1+\alpha) \cdot \hspace{0.05cm} ... \hspace{0.05cm}\cdot  (k-2+\alpha) }{(k-1)\hspace{0.05cm}!}\cdot &lt;br /&gt;
\left [ 1 - {p_{\rm S}^{1/\alpha} }\right ]^{k-1} &lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Insbesondere ergibt sich $V_a(k  = 1) = 1$  und $V_a(k  = 2)= \alpha \cdot  (1  - p_{\rm S}^{1/\alpha})$. Hierbei ist zu berücksichtigen, dass der Zähler des Vorfaktors aus $k$ Faktoren besteht. Für $k = 1$ ergibt sich dieser Vorfaktor demzufolge zu $1$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nun vergleichen wir die Unterschiede der beiden Wilhelm&amp;amp;ndash;Modelle ('''L''' bzw. '''A''') hinsichtlich resultierender Blockfehlerwahrscheinlichkeit.&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2831 Dig T 5 3 S5i version2.png|right|frame||Ergebnisse des Wilhelm–Modells für &amp;lt;i&amp;gt;p&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;S&amp;lt;/sub&amp;gt; = 0.2 und einige &amp;lt;i&amp;gt;α&amp;lt;/i&amp;gt; ]] &lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 7:}$&amp;amp;nbsp;   Nebenstehende Grafik zeigt den Verlauf der Blockfehlerwahrscheinlichkeiten $p_{\rm B}(n)$ für drei verschiedene $\alpha$&amp;amp;ndash;Werte, erkennbar an den Farben &lt;br /&gt;
*Rot:&amp;amp;nbsp;&amp;amp;nbsp; $\alpha = 1$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; BSC&amp;amp;ndash;Modell,&amp;lt;br&amp;gt;&lt;br /&gt;
*Blau:&amp;amp;nbsp; $\alpha = 0.95$ &amp;amp;nbsp;&amp;amp;#8658; &amp;amp;nbsp;  schwache Bündelung,&amp;lt;br&amp;gt;&lt;br /&gt;
*Grün:&amp;amp;nbsp; $\alpha = 0.7$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; starke Bündelung.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die durchgezogenen gelten für Linien das A&amp;amp;ndash;Modell und die gestrichelten für das L&amp;amp;ndash;Modell. Die im Bild angegebenen Zahlenwerte für $p_{\rm B}(n = 100)$ beziehen sich ebenfalls auf das A&amp;amp;ndash;Modell.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Für $\alpha = 1$ geht sowohl das A&amp;amp;ndash;Modell als auch das L&amp;amp;ndash;Modell in das BSC&amp;amp;ndash;Modell (rote Kurve) über. Desweiteren ist anzumerken:&lt;br /&gt;
*Die Symbolfehlerwahrscheinlichkeit $p_{\rm S} = 0.01$  &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; ${\rm E}[a] = 100$ ist hier  (einigermaßen) realistisch angenommen. Alle Kurven starten so bei $p_{\rm B}(n=1) = 0.01$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; gelber Punkt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Der Unterschied zwischen zwei gleichfarbigen Kurven ist gering (bei starker Bündelung etwas größer), wobei  die durchgezogene Kurve stets oberhalb der gestrichelten Kurve liegt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Auch dieses Beispiel zeigt: Je stärker die Bündelung (kleineres $\alpha$), desto kleiner ist die Blockfehlerwahrscheinlichkeit $p_{\rm B}(n)$. Dies gilt allerdings nur, wenn man wie hier von einer konstanten Symbolfehlerwahrscheinlichkeit $p_{\rm S}$ ausgeht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Ein (dürftiger) Erklärungsversuch: Nehmen wir an, dass bei BSC mit sehr kleinem $p_{\rm S}$ jeder Blockfehler von genau einem Symbolfehler herrührt, dann gibt es bei gleicher Symbolfehleranzahl weniger Blockfehler, wenn zwei Symbolfehler in einen Block fallen (Bündelung).&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Noch ein (passendes?) Beispiel aus dem täglichen Leben. Man kann eine Straße bei konstantem Verkehrsaufkommen leichter überqueren, wenn die Fahrzeuge &amp;amp;bdquo;irgendwie gebündelt&amp;amp;rdquo; kommen.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Fehlerkorrelationsfunktion des Wilhelm–A–Modells ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Eine weitere Beschreibungsform der digitalen Kanalmodelle ist neben der Fehlerabstandsverteilung $V_a(k)$ die [[Digitalsignalübertragung/Beschreibungsgrößen_digitaler_Kanalmodelle#Fehlerkorrelationsfunktion|Fehlerkorrelationsfunktion]] $\varphi_{e}(k)$ &amp;amp;ndash;  abgekürzt FKF. Geht man von der binären Fehlerfolge $\langle e_\nu \rangle$ mit $e_\nu \in  \{0, 1\}$ aus, wobei &lt;br /&gt;
*$e_\nu = 0$ eine richtige Übertragung, und &lt;br /&gt;
*$e_\nu = 1$ einen Symbolfehler (Bitfehler) hinsichtlich des $\nu$&amp;amp;ndash;ten Bits bezeichnet, so gilt folgende Definition:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;\varphi_{e}(k) =  {\rm E}[e_{\nu} \cdot e_{\nu + k}] =&lt;br /&gt;
\overline{e_{\nu} \cdot e_{\nu + k}}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
$\varphi_{e}(k)$ gibt die (zeitdiskrete) [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Autokorrelationsfunktion_bei_ergodischen_Prozessen|Autokorrelationsfunktion]] der ebenfalls zeitdiskreten Zufallsgröße $e$ an. Die überstreichende Linie in der rechten Gleichung kennzeichnet die Zeitmittelung.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Der Fehlerkorrelationswert $\varphi_{e}(k)$ liefert statistische Aussagen bezüglich zwei um $k$ auseinander liegende Folgenelemente, zum Beispiel über $e_{\nu}$ und $e_{\nu +k}$. Die dazwischen liegenden Elemente $e_{\nu +1}$, ... , $e_{\nu +k-1}$ beeinflussen den $\varphi_{e}(k)$&amp;amp;ndash;Wert nicht.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Ohne Beweis:}$&amp;amp;nbsp;   Die Fehlerkorrelationsfunktion des Wilhelm&amp;amp;ndash;A&amp;amp;ndash;Modells kann  wie folgt angenähert werden:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\varphi_e\hspace{0.05cm}(k) =  p_{\rm S} \hspace{-0.03cm}\cdot \hspace{-0.03cm} \left [ 1 \hspace{-0.03cm}-\hspace{-0.03cm}  \frac{\alpha}{1\hspace{0.03cm}!}  \hspace{-0.03cm}\cdot \hspace{-0.03cm} C \hspace{-0.03cm}-\hspace{-0.03cm}   \frac{\alpha \cdot (1\hspace{-0.03cm}-\hspace{-0.03cm} \alpha)}{2\hspace{0.03cm}!}  \hspace{-0.03cm}\cdot \hspace{-0.03cm} C^2 \hspace{-0.03cm}-\hspace{-0.03cm} \hspace{0.03cm} ... \hspace{0.03cm}\hspace{-0.03cm}-\hspace{-0.03cm} \frac {\alpha  \hspace{-0.03cm}\cdot \hspace{-0.03cm} (1\hspace{-0.03cm}-\hspace{-0.03cm}\alpha)  \hspace{-0.03cm}\cdot \hspace{-0.03cm} \hspace{0.03cm} ... \hspace{0.03cm} \hspace{-0.03cm}\cdot \hspace{-0.03cm}  (k\hspace{-0.03cm}-\hspace{-0.03cm}1\hspace{-0.03cm}-\hspace{-0.03cm}\alpha) }{k\hspace{0.03cm}!} \hspace{-0.03cm}\cdot \hspace{-0.03cm} C^k \right ]  &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Zur Abkürzung ist hierbei  $C = (1-p_{\rm S})^{1/\alpha}$ verwendet. Auf die Herleitung wird hier verzichtet.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Nachfolgend werden die Eigenschaften der Fehlerkorrelationsfunktion an einem Beispiel aufgezeigt.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2834 Dig T 5 3 S5korr version2.png|right|frame||Fehlerkorrelationsfunktionen des Wilhelm–Modells]] &lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 8:}$&amp;amp;nbsp;   &lt;br /&gt;
Wie im [[Digitalsignalübertragung/Bündelfehlerkanäle#Fehlerabstandsbetrachtung_nach_dem_Wilhelm.E2.80.93A.E2.80.93Modell| Beispiel 7]] gelte $p_{\rm S} = 0.01$ und die hier dargestellten Fehlerkorrelationsfunktionen stehen wieder für&lt;br /&gt;
*Grün:&amp;amp;nbsp; $\alpha = 0.7$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; starke Bündelung.&amp;lt;br&amp;gt;&lt;br /&gt;
*Blau:&amp;amp;nbsp; $\alpha = 0.95$ &amp;amp;nbsp;&amp;amp;#8658; &amp;amp;nbsp;  schwache Bündelung,&amp;lt;br&amp;gt;&lt;br /&gt;
*Rot:&amp;amp;nbsp;&amp;amp;nbsp; $\alpha = 1$ &amp;amp;nbsp; &amp;amp;#8658; &amp;amp;nbsp; BSC&amp;amp;ndash;Modell,&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die folgenden Aussagen lassen sich weitgehend verallgemeinern, siehe auch [[Digitalsignalübertragung/Binary_Symmetric_Channel_(BSC)#Binary_Symmetric_Channel_.E2.80.93_Modell_und_Fehlerkorrelationsfunktion| GE&amp;amp;ndash;Modell]]:&lt;br /&gt;
*Der FKF-Wert an der Stelle $k = 0$ ist bei allen Kanälen gleich $p_{\rm S} = 10^{-2}$ (markiert durch den Kreis mit grauer Füllung) und der Grenzwert für $k \to \infty$ liegt stets bei $p_{\rm S}^2 = 10^{-4}$.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Dieser Endwert wird beim BSC&amp;amp;ndash;Modell bereits bei $k = 1$  erreicht (rot gefüllte Markierung). Hier kann die FKF also nur die beiden Werte $p_{\rm S}$  und $p_{\rm S}^2$ annehmen.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Auch für für $\alpha \ne 1$ (blaue und grüne Kurve) erkennt man einen Knick bei $k = 1$. Danach verläuft die FKF monoton fallend. Der Abfall ist umso langsamer, je kleiner $\alpha$ ist, also je gebündelter die Fehler auftreten.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Analyse von Fehlerstrukturen mit dem Wilhelm–A–Modell==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Wilhelm hat sein Kanalmodell hauptsächlich deshalb entwickelt, um aus gemessenen Fehlerfolgen Rückschlüsse über die dabei auftretenden Fehler machen zu können. Aus der Vielzahl der Analysen in [Wil11]&amp;lt;ref name = 'Wil11'&amp;gt; &amp;lt;/ref&amp;gt; sollen hier nur einige wenige angeführt werden, wobei stets die Symbolfehlerwahrscheinlichkeit $p_{\rm S} = 10^{-3}$ zugrunde liegt. In den Grafiken gilt jeweils die rote Kurve für statistisch unabhängige Fehler (BSC bzw. $\alpha = 1$) und die grüne Kurve für einen Bündelfehlerkanal mit $\alpha = 0.7$. Zudem soll gelten:&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=  &lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp;   Ein '''Fehlerburst''' (oder kurz &amp;lt;i&amp;gt;Burst&amp;lt;/i&amp;gt;) beginnt stets mit einem Symbolfehler und endet, wenn $k_{\rm Burst}- 1$ fehlerfreie Symbole aufeinanderfolgen. &lt;br /&gt;
*$k_{\rm Burst}$ bezeichnet den &amp;lt;i&amp;gt;Burst&amp;amp;ndash;Endeparameter&amp;lt;/i&amp;gt;. &lt;br /&gt;
*Das &amp;lt;i&amp;gt;Burstgewicht&amp;lt;/i&amp;gt; $G_{\rm Burst}$ entspricht der Anzahl aller Symbolfehler im Burst. &lt;br /&gt;
*Bei einem &amp;lt;i&amp;gt;Einzelfehler&amp;lt;/i&amp;gt; gilt $G_{\rm Burst}= 1$ und die &amp;lt;i&amp;gt;Burstlänge&amp;lt;/i&amp;gt; (bestimmt durch den ersten und letzten Fehler) ist ebenfalls $L_{\rm Burst}= 1$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2835 Dig T 5 3 S5 Analyse1 kleiner.png|right|frame|Einzelfehlerwahrscheinlichkeit in einem Block der Länge &amp;lt;i&amp;gt;n&amp;lt;/i&amp;gt;]] &lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 9:}\ \text{Wahrscheinlichkeit }p_1\text{ eines Einzelfehlers in einer Probe der Länge} \ n$&lt;br /&gt;
&lt;br /&gt;
Für den BSC&amp;amp;ndash;Kanal $(\alpha = 1)$ gilt $p_1 = n \cdot  0.001 \cdot 0.999^{n-1}$ &amp;amp;nbsp;&amp;amp; #8658; &amp;amp;nbsp; rote Kurve. Aufgrund der doppel&amp;amp;ndash;logarithmischen Darstellung ergibt sich mit diesen Zahlenwerten ein (nahezu) linearer Verlauf. Beim BSC&amp;amp;ndash;Modell treten also Einzelfehler in einer Probe der Länge $n = 100$ mit etwa $9\%$ Wahrscheinlichkeit auf.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Beim Bündelfehlerkanal mit $\alpha = 0.7$ (grüne Kurve) beträgt die entsprechende Wahrscheinlichkeit nur etwa $0.7\%$ und der Kurvenverlauf ist hier leicht gekrümmt. Bei der folgenden Rechnung gehen wir zunächst von der Annahme aus, dass der Einzelfehler  in der Probe der Länge $n$ an der Position $b$ auftritt:&lt;br /&gt;
&lt;br /&gt;
*Bei einem Einzelfehler müssen dann noch $n-b$ fehlerfreie Symbole folgen.  Nach Mittelung über die möglichen Fehlerpositionen $b$ erhält man somit:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p_1 =  p_{\rm S} \cdot \sum_{b = 1}^{n} \hspace{0.15cm}V_a (b) \cdot V_a (n+1-b)&lt;br /&gt;
\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Wegen der Ähnlichkeit mit der Signaldarstellung eines [[Stochastische_Signaltheorie/Digitale_Filter|Digitalen Filters]] kann man die Summe als Faltung von $V_a(b)$ mit sich selbst bezeichnen. Für die erzeugende Funktion  $V_a(z)$ wird aus der Faltung ein Produkt (bzw. wegen $V_a(b) \star V_a(b)$ das Quadrat) und man erhält folgende Gleichung:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;V_a(z=1) \cdot V_a(z=1) = \left [ V_a(z=1) \right ]^2 = &lt;br /&gt;
{\left [ 1 -(1- {p_{\rm S} }^{1/\alpha})\right ]^{-2\alpha} } \hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
*Mit der  [[Digitalsignalübertragung/Bündelfehlerkanäle#Fehlerabstandsbetrachtung_nach_dem_Wilhelm.E2.80.93A.E2.80.93Modell|spezifischen Fehlerabstandsverteilung]] $V_a(z)$ erhält man somit folgendes Endergebnis: &lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;p_1 =  p_{\rm S}&lt;br /&gt;
\cdot \frac{2\alpha \cdot (2\alpha+1) \cdot  \hspace{0.05cm} \text{... } \hspace{0.05cm} \cdot (2\alpha+n-2)}&lt;br /&gt;
{(n-1)!}\cdot&lt;br /&gt;
(1- {p_{\rm S} }^{1/\alpha})^{n-1} \hspace{0.05cm}.&amp;lt;/math&amp;gt;}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:P ID2836 Dig T 5 3 S5 Analyse2 neu.png|right|frame|Mittlere Fehleranzahl im Burst der Länge &amp;lt;i&amp;gt;k&amp;lt;/i&amp;gt;]] &lt;br /&gt;
{{GraueBox|TEXT=  &lt;br /&gt;
$\text{Beispiel 10:}\ \text{Mittlere Fehleranzahl } {\rm E}[G_{\rm Burst}] \text{ in einem Burst mit Endeparameter }k_{\rm Burst}$&lt;br /&gt;
&lt;br /&gt;
Die mittlere Symbolfehlerwahrscheinlichkeit sei weiterhin $p_{\rm S} = 10^{-3}$, also (relativ) klein.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''(1) &amp;amp;nbsp; Rote Kurve für den BSC&amp;amp;ndash;Kanal (bzw. $\alpha = 1$)''':&lt;br /&gt;
* Der Parameter $k_{\rm Burst}= 10$ bedeutet beispielsweise, dass der Burst beendet ist, wenn nach einem Fehler neun fehlerfreie Symbole aufeinanderfolgenden. Die Wahrscheinlichkeit für einen Fehlerabstand $a \le 9$ ist bei kleinem $p_{\rm S}$ (hier: $10{-3}$) äußerst klein. Daraus folgt weiter, dass dann (fast) jeder Einzelfehler als ein &amp;amp;bdquo;Burst&amp;amp;rdquo; aufgefasst wird, und es gilt ${\rm E}[G_{\rm Burst}] \approx 1.01$ .&amp;lt;br&amp;gt;&lt;br /&gt;
* Bei größerem Burst&amp;amp;ndash;Endeparameter $k_{\rm Burst}$ nimmt auch die Wahrscheinlichkeit ${\rm Pr}(a \le k_{\rm Burst})$ deutlich zu und es kommt zu &amp;amp;bdquo;Bursts&amp;amp;rdquo; mit mehr als einem Fehler. Wählt man beispielsweise $k_{\rm Burst}= 100$, so beinhaltet ein &amp;amp;bdquo;Burst&amp;amp;rdquo; im Mittel 1.1 Symbolfehler.&amp;lt;br&amp;gt;&lt;br /&gt;
*Das bedeutet gleichzeitig, dass es auch beim BSC&amp;amp;ndash;Modell  zu langen Fehlerbursts (entsprechend unserer Definition) kommen kann, wenn bei gegebenem $p_{\rm S}$ der Burst&amp;amp;ndash;Endeparameter zu groß gewählt ist oder bei vorgegebenem $k_{\rm Burst}$  die mittlere Fehlerwahrscheinlichkeit  $p_{\rm S}$ zu groß ist.&amp;lt;br&amp;gt;&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
'''(2) &amp;amp;nbsp; Grüne Kurve für den Wilhelm&amp;amp;ndash;Kanal mit $\alpha = 0.7$''':&lt;br /&gt;
Das hier angegebene Verfahren zur numerischen Bestimmung der mittleren Fehleranzahl ${\rm E}[G_{\rm Burst}]$ eines Bursts kann unabhängig vom $\alpha$&amp;amp;ndash;Wert  angewendet werden. Man geht wie folgt vor:&lt;br /&gt;
&lt;br /&gt;
*Entsprechend den Fehlerabstandswahrscheinlichkeiten ${\rm Pr}(a=k)$ generiert man eine Fehlerfolge $e_1$, $e_2$, ... , $e_i$, ... mit den Fehlerabständen $a_1$, $a_2$, ... , $a_i$, ... &amp;lt;br&amp;gt;&lt;br /&gt;
*Ist ein Fehlerabstand $a_i \ge k_{\rm Burst}$, so kennzeichnet dieser das Ende eines Bursts.  Ein solches Ereignis tritt mit der Wahrscheinlichkeit ${\rm Pr}(a \ge k_{\rm Burst}) = V_a(k_{\rm Burst} )$ ein.&amp;lt;br&amp;gt;&lt;br /&gt;
*Wir zählen solche Ereignisse &amp;amp;bdquo;$a_i \ge k_{\rm Burst}$&amp;amp;rdquo; im gesamten Block der Länge $n$. Deren Anzahl ist gleichzeitig die Anzahl der Bursts im Block. Wir bezeichnen diese Anzahl mit   $N_{\rm Burst}$.&amp;lt;br&amp;gt;&lt;br /&gt;
*Gleichzeitig gilt die Beziehung $N_{\rm Burst} = N_{\rm Fehler} \cdot V_a(k_{\rm Burst} )$ , wobei $N_{\rm Fehler}$ die Anzahl aller Fehler im Block angibt. Daraus lässt sich die mittlere Fehlerzahl pro Burst in einfacher Weise berechnen:&lt;br /&gt;
&lt;br /&gt;
::&amp;lt;math&amp;gt;{\rm E}[G_{\rm Burst}] =\frac {N_{\rm Fehler} }{N_{\rm Burst} } =\frac {1}{V_a(k_{\rm Burst})}\hspace{0.05cm}.&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Die Marker in der Grafik korrespondieren mit folgenden Zahlenwerten der [[Digitalsignal%C3%BCbertragung/B%C3%BCndelfehlerkan%C3%A4le#Fehlerabstandsbetrachtung_nach_dem_Wilhelm.E2.80.93A.E2.80.93Modell|Fehlerabstandsverteilung]]. &lt;br /&gt;
*Die grünen Kreise (Wilhelm&amp;amp;ndash;Kanal, $\alpha = 0.7$) ergeben sich aus $V_a(10) = 0.394$ und $V_a(100) = 0.193$. &lt;br /&gt;
*Die roten Kreise (BSC&amp;amp;ndash;Kanal, $\alpha = 1$) sind die Kehrwerte von $V_a(10) = 0.991$ und $V_a(100)  = 0906$.}}&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Aufgaben zum Kapitel ==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
[[Aufgabe:5.6:_Fehlerkorrelationsdauer|Aufgabe 5.6: Fehlerkorrelationsdauer]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgabe:5.6Z_GE-Modelleigenschaften|Aufgabe 5.6Z: GE-Modelleigenschaften]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgabe:5.7_McCullough-Parameter_aus_Gilbert-Elliott-Parameter|Aufgabe 5.7: McCullough-Parameter aus Gilbert-Elliott-Parameter]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgabe:5.7Z_Nochmals_McCullough-Modell|Aufgabe :5.7Z_Nochmals McCullough-Modell]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Modulation_Methods/Further_OFDM_Applications&amp;diff=21265</id>
		<title>Modulation Methods/Further OFDM Applications</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Modulation_Methods/Further_OFDM_Applications&amp;diff=21265"/>
		<updated>2018-01-02T18:22:30Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{LastPage}}&lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Vielfachzugriffsverfahren&lt;br /&gt;
|Vorherige Seite=OFDM für 4G–Netze&lt;br /&gt;
|Nächste Seite=&lt;br /&gt;
}}&lt;br /&gt;
==OFDM bei DVB–T==&lt;br /&gt;
DVB–T (''Digital Video Broadcasting Terrestrial'') ist eine von mehreren aus dem DVB–Standard von 1997 abgeleitete Variante für die Verbreitung von Fernsehsignalen in digitaler Form. Andere damit verwandte Standards sind: &lt;br /&gt;
*DVB–S  &amp;amp;nbsp; ⇒  &amp;amp;nbsp; für die Übertragung über '''S'''atellit, &lt;br /&gt;
*DVB–C  &amp;amp;nbsp; ⇒  &amp;amp;nbsp; für die Übertragung über das Kabelnetz ('''C'''able), &lt;br /&gt;
*DVB–H  &amp;amp;nbsp; ⇒  &amp;amp;nbsp; für mobile Geräte ('''H'''andhelds). &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
In Deutschland konnten ab Ende 2008 schon mehr als 90% der Bevölkerung zumindest eine Auswahl öffentlich–rechtlicher Sender über DVB–T empfangen. Seit 2017 ist der analoge Fernsehempfang über Antenne endgültig nicht mehr möglich. Die durch die Abschaltung der Analogübertragung frei gewordenen Frequenzbänder wurden durch DVB–T direkt wiederverwendet, so dass ein Parallelbetrieb und damit ein „sanfter” Übergang nicht möglich war. &lt;br /&gt;
&lt;br /&gt;
Bei DVB–T kommt das Modulationsverfahren ''Coded Orthogonal Frequency Division Multiplex'' – abgekürzt COFDM – zum Einsatz. Die Erweiterung um eine Vorwärtsfehlerkorrektur (''Forward Error Correction'', FEC) in Verbindung mit der bereits eingeführten Guard–Intervall–Technik ist notwendig, um den durch Echos (Mehrwegeempfang) und die Empfängerbewegung (Doppler–Effekt) entstandenen Störungen entgegenzuwirken. &lt;br /&gt;
&lt;br /&gt;
Grundsätzlich handelt es sich bei DVB–T um ein ''Gleichwellennetz''. Im Gegensatz zu klassischen Mobilfunknetzen – zum Beispiel dem GSM–Netz – werden hierbei selbst von direkt benachbarten Sendestationen die gleichen Frequenzen wiederverwendet. Dies führt an den Zellgrenzen zu Interferenzen zwischen ähnlich starken Signalen, die jedoch erhebliche Laufzeitunterschiede aufweisen können. &lt;br /&gt;
&lt;br /&gt;
Den Auswirkungen eines solchen frequenzselektiven Kanals kann zwar durch eine Verlängerung des Guard–Intervalls entgegengewirkt werden. Jedoch wird dadurch zum einen die Bandbreiteneffizienz verringert, zum anderen auch die Anfälligkeit gegenüber zeitvarianten Effekten erhöht. &lt;br /&gt;
&lt;br /&gt;
==Systemparameter von DVB–T==&lt;br /&gt;
Die alten, analog genutzten Fernsehkanäle hatten jeweils eine Bandbreite von 7 MHz (VHF, ''Very High Frequency''  ⇒  Ultrakurzwelle) bzw. von 8 MHz (UHF, ''Ultra High Frequency''  ⇒  Dezimeterwelle). Ein jeder dieser Kanäle wird bei DVB–T meist mit vier Programmen belegt. Dafür wird das zur Verfügung stehende Spektrum auf die OFDM–Unterträger aufgeteilt. &lt;br /&gt;
&lt;br /&gt;
Die folgende Tabelle zeigt mögliche Parameterkonstellationen eines DVB–T–Systems. Als „Modus” wird die Anzahl der für die FFT/IFFT verwendeten Stützstellen bezeichnet, also 2048 (2K) bzw. 8192 (8K). Es werden aber nicht alle Träger tatsächlich genutzt. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1654__Mod_T_5_8_S2a_ganz_neu.png |left|frame| Parameter bei DVB-T]]&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Ein Vergleich der beiden Modi zeigt, dass &lt;br /&gt;
*der 2K–Betrieb wegen der kürzeren Kernsymboldauer $T$ für zeitvariante Einsatzbedingungen zwar gut geeignet ist, &lt;br /&gt;
*aber aufgrund der recht kurzen Guard–Intervalldauer $T_{\rm G}$ der tolerierbaren Kanalimpulsantwort enge Grenzen gesetzt sind. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Im 8K–Modus ist dies genau umgekehrt. Wegen der Forderung eines Gleichwellennetzes ist demnach der 8K– dem 2K–Betrieb vorzuziehen, wobei jedoch der Nachteil einer aufwändigeren Implementierung der FFT/IFFT in Kauf genommen werden muss. &lt;br /&gt;
&lt;br /&gt;
Für die Modulation der Unterträger stehen bei DVB–T drei QAM–Varianten zur Verfügung: &lt;br /&gt;
*4–QAM (dieses Verfahren kann auch als eine 4–PSK aufgefasst werden), &lt;br /&gt;
*16–QAM (optional mit asymmetrischer Signalraumkonstellation), &lt;br /&gt;
*64–QAM (optional mit asymmetrischer Signalraumkonstellation). &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Eine asymmetrische Signalraumkonstellation erlaubt eine hierarchische Quellencodierung. Bei schlechten Übertragungsbedingungen kann statt dem exakten Signalraumpunkt lediglich der Quadrant detektiert werden. Damit ist der Empfang weiterhin möglich, wenn auch bei (stark) verminderter Bildqualität.&lt;br /&gt;
&lt;br /&gt;
In nebenstehender Tabelle aus [https://de.wikipedia.org/wiki/DVB-T#Technik WIKIPEDIA] sind einige resultierende Datenraten für DVB–T abhängig von der Kanalcodierungsrate $R_{\rm C}$ und der Dauer $T_{\rm G}$ des Guard–Intervalls angegeben. Die relative Coderedundanz beträgt $1 – R_{\rm C}$. Das heißt: Je größer die Coderate $R_{\rm C}$ ist, desto weniger Redundanz wird hinzugefügt. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1655__Mod_T_5_8_S2b_ganz_neu.png |right|frame| Nettobitraten bei DVB-T. Quelle: https://de.wikipedia.org/wiki/DVB-T#Technik]]&lt;br /&gt;
Die Zahlenwerte lassen sich wie folgt interpretieren: &lt;br /&gt;
*Die effektiven Nettobitraten variieren zwischen den einzelnen Sendegebieten stark, da je nach Region unterschiedliche Systemparameter verwendet werden müssen. Im Mittel werden in etwa 12 ... 20 Mbit/s erreicht. Damit wird nun ein MPEG-2-Transportstrom übertragen, der in der Regel vier Programme enthält. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Die Videodatenströme bei DVB–T sind in Deutschland ebenfalls MPEG–2 codiert und erreichen jeweils eine Datenrate von ca. 3.5 Mbit/s. Im Vergleich dazu würde ein digitalisiertes PAL–Signal bereits einer Datenrate von 3 ... 5 Mbit/s entsprechen. Eine DVD käme immerhin schon auf ca. 9.8 Mbit/s. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Seit 2009 gibt es mit DVB–T2 einen Standard, der neben anderen Modifikationen zum Beispiel auch MPEG–4 anstelle von MPEG–2 verwendet. DVB–T2 ereicht gegenüber DVB–T eine deutlich bessere Bildqualität.&lt;br /&gt;
&amp;lt;br clear=all&amp;gt; &lt;br /&gt;
&lt;br /&gt;
==Eine Kurzbeschreibung von DSL – Digital Subscriber Line==&lt;br /&gt;
Als ein weiteres Beispiel für den Einsatz von OFDM soll nun ein kurzer Überblick über DSL ''(Digital Subscriber Line'') gegeben werden: &lt;br /&gt;
*Die DSL–Technik ermöglicht eine erhebliche Erhöhung der Datenübertragungsrate im Vergleich zu herkömmlichen Telefonanschlüssen wie [https://de.wikipedia.org/wiki/Plain_old_telephone_service POTS] (''Plain Old Telephone Service'') oder [[Beispiele_von_Nachrichtensystemen/Allgemeine_Beschreibung_von_ISDN|ISDN]] (''Integrated Services Digital Network''), ohne dass für diese neue Technologie die Kupfer–Doppeladern der Teilnehmeranschlussleitung ausgetauscht werden mussten. &lt;br /&gt;
*POTS oder ISDN können auch ohne Einschränkungen parallel zu DSL betrieben werden, da sich die verwendeten Frequenzbänder bei entsprechender Anpassung nicht überschneiden (siehe Grafik). &lt;br /&gt;
&lt;br /&gt;
:[[File:P_ID2967__Mod_T_5_8_S3_Ganz_neu.png |left|frame| ADSL–over–ISDN]]&lt;br /&gt;
&amp;lt;br clear=all&amp;gt; &lt;br /&gt;
Es existieren folgende wesentliche xDSL–Varianten („x” ist hierbei als Platzhalter zu verstehen): &lt;br /&gt;
*ADSL (''Asymmetric Digital Subscriber Line''), &lt;br /&gt;
*ADSL2+, eine Erweiterung zu ADSL, &lt;br /&gt;
*VDSL/VDSL2 (''Very High Data Rate Digital Subscriber Line''). &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
VDSL2 ist auf maximale symmetrische Datenraten (jeweils 210 Mbit/s im Up– und Downstream) ausgelegt, aber nur über kurze Leitungen realisierbar. &lt;br /&gt;
&lt;br /&gt;
Als Modulationsverfahren wird bei allen diesen xDSL–Varianten stets OFDM verwendet, das in diesem Zusammenhang häufig auch den Namen '''DMT''' (''Discrete Multitone Transmission'') trägt. Betrachten wir beispielsweise die DMT bei ADSL mit folgenden Kenngrößen: &lt;br /&gt;
*Grundfrequenz $f_0 = 4.3125\ \rm  kHz$, &lt;br /&gt;
*maximale Nutzträgerzahl: $N = 255$, &lt;br /&gt;
*gleichsignalfrei, da $S(f = 0) = 0$ ist, &lt;br /&gt;
*der Nyquist-Tone $(S(256 · f_0))$ wird ebenfalls zu Null gesetzt, &lt;br /&gt;
*maximale Frequenz: $256 · 4.3125 \ \rm   kHz = 1104 \ \rm   kHz$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Es ergibt sich die in der obigen Abbildung gezeigte Belegung des Spektrums. Die Eine genaue Systembeschreibung findet man im Kapitel [[Beispiele_von_Nachrichtensystemen/Allgemeine_Beschreibung_von_DSL | DSL]] des LNTwww&amp;amp;ndash;Buches &amp;amp;bdquo;Beispiele von Nachrichtensystemen&amp;amp;rdquo;.&lt;br /&gt;
&lt;br /&gt;
Das dargestellte Sendespektrum von DSL lässt sich in aller Kürze wie folgt beschreiben:&lt;br /&gt;
*Die 224 für DMT verfügbaren Träger – diese bezeichnet man im Zusammenhang mit der DMT oft auch als ''Bins'' – werden entweder für den ''Upstream'' (Übertragung ins Netz, 32 Bins, 138 kHz) oder den ''Downstream'' (Übertragung aus dem Netz, 192 Bins, 828 kHz) verwendet.&lt;br /&gt;
*Alle ADSL–Anschlüsse der Deutschen Telekom sind nach dem Standard ''ADSL–over–ISDN'' geschaltet, so dass ein Parallelbetrieb zu ISDN möglich ist. Dafür wird der Frequenzbereich bis 138 kHz nicht für ADSL verwendet und die entsprechenden Bins zu Null gesetzt.&lt;br /&gt;
*Auch bei den analogen Anschlüssen wird ''ADSL–over–ISDN'' und nicht ''ADSL–over–POTS'' eingesetzt, obwohl dadurch gerade jener Frequenzbereich verschwendet wird, der eine besonders günstige Dämpfung aufweist.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Der wesentliche Vorteil von DSL bzw. DMT liegt wieder in der Anpassungsfähigkeit an den Kanal. Die im Zugangsnetz verwendeten Kupfer–Doppeladern haben unter anderem wegen des Skin–Effekts keinen idealen Dämpfungs– und Phasengang. Die DMT bietet wieder je nach Güte des Frequenzbereichs der Bins die Möglichkeit, das jeweilige Modulationsverfahren anzupassen oder sogar auf die Nutzung eines Trägers ganz zu verzichten.&lt;br /&gt;
&lt;br /&gt;
Auch bei DSL kommt die Guard–Intervall–Technik in Form des zyklischen Präfixes zum Einsatz. Zur Fehlervermeidung kann zusätzlich ''Interleaving'' verwendet werden, wodurch jedoch die Übertragung verzögert wird. Der Verzicht auf diese Technik wird mit dem Begriff ''Fast–Path'' bezeichnet.&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; Auch im Bereich der leitungsgebundenen Übertragungstechnik ermöglichte erst der Übergang vom Einträgersystem hin zu einem Mehrträgersystem die heute üblichen hohen Übertragungsraten.}}&lt;br /&gt;
&lt;br /&gt;
==Unterschiede zwischen DMT und dem beschriebenen OFDM==&lt;br /&gt;
Die OFDM–Systembeschreibungen in den Kapiteln [[Modulationsverfahren/Allgemeine_Beschreibung_von_OFDM |Allgemeine Beschreibung von OFDM]] sowie [[Modulationsverfahren/Realisierung_von_OFDM-Systemen | Realisierung von OFDM-Systemen]] gelten nur für Bandpass–Systeme, die hier stets im äquivalenten Tiefpassbereich betrachtet wurden: &lt;br /&gt;
*Durch die Tiefpass–Transformation werden alle Anteile bei negativen Frequenzen entfernt, was zu einer ''unsymmetrischen Spektralfunktion'' und damit zu einem ''komplexwertigen Zeitsignal'' führt. &lt;br /&gt;
*Bei DSL ist diese Tiefpass–Transformation nicht nötig, da es im Gegensatz zu Mobilfunksystemen im Basisband betrieben wird.&lt;br /&gt;
&lt;br /&gt;
Dies führt zu einer abweichenden Formelrepräsentation. Für eine klare Abgrenzung zwischen den beiden Betrachtungsweisen verwenden wir im Folgenden &amp;amp;bdquo;OFDM&amp;amp;rdquo; nur für ein Bandpass-System, während sich die Bezeichnung &amp;amp;bdquo;DMT&amp;amp;rdquo; stets auf ein Basisband–System bezieht.&lt;br /&gt;
&lt;br /&gt;
:[[File:P_ID1658__Mod_T_5_8_S4_neu.png |left|frame|DMT-Spektrum]]&lt;br /&gt;
&amp;lt;br clear=all&amp;gt;&lt;br /&gt;
Die Grafik zeigt das diskrete Spektrum eines DMT–Signals mit 255 verwendeten Trägern (Bins). Das Spektrum der Nutzträger von 1 bis 255 wird um die auch bei den entsprechenden negativen Frequenzen anliegenden Anteile nach der unten stehenden Gleichung ergänzt, um eine Periode des für die IDFT benötigten „finiten Spektrums” zu erhalten. Für dieses Spektrum gilt nach [Han08]&amp;lt;ref&amp;gt;Hanik, N.: ''Leitungsgebundene Übertragungstechnik''. Vorlesungsmanuskript. Lehrstuhl für Nachrichtentechnik, Technische Universität München, 2008.&amp;lt;/ref&amp;gt;:&lt;br /&gt;
:$$S(-\mu \cdot f_0 ) = S((N - \mu ) \cdot f_0 ) = S(\mu \cdot f_0)^*,$$&lt;br /&gt;
&lt;br /&gt;
wobei allgemein $0 &amp;lt; \mu &amp;lt; N/2$ und für die Grafik $N = 512$ gilt.&lt;br /&gt;
&lt;br /&gt;
Das somit rein reelle Zeitsignal ergibt sich nach der inversen diskreten Fouriertransformation an den Abtastzeitpunkten $ν · T_{\rm A}$ mit $0 ≤ ν &amp;lt; N$ und $T_{\rm A} = T/N$ zu:&lt;br /&gt;
:$$s_\nu = \sum\limits_{\mu = 0}^{N - 1} {S(\mu \cdot f_0 ) \cdot {\rm{e}}^{{\kern 1pt} {\rm j \hspace{0.03cm}\cdot \hspace{0.03cm}2\pi } \hspace{0.03cm}\cdot&lt;br /&gt;
 \hspace{0.03cm}\nu \hspace{0.03cm}\cdot \hspace{0.03cm}\mu /{N}} }.$$&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Fazit:}$&amp;amp;nbsp; Die benötigte Anzahl der Frequenzstützstellen und Abtastwerte der IDFT/DFT entspricht beim DMT–Verfahren dem Zweifachen der nutzbaren Träger, wenn der Gleichanteil sowie der ''Nyquistton'' vernachlässigt werden, und ist damit auch doppelt so groß wie bei einem OFDM–Bandpass–System.}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; &lt;br /&gt;
Es gelte $N = 512$ und $S(64 · f_0) = (a + {\rm j} · b)/2$ und $S(448 · f_0) = S^{\star}(64 · f_0) = (a – {\rm j} · b)/2$. Alle anderen Spektralkoeffizienten seien $0$.&lt;br /&gt;
 &lt;br /&gt;
'''(1)'''&amp;amp;nbsp; Wir berechnen nun nach der angegebenen Formel mittels IDFT die Zeitbereichskoeffizienten:&lt;br /&gt;
:$$\begin{align*}s_\nu  &amp;amp; = \sum\limits_{\mu = 0}^{N - 1} {S (\mu \cdot f_0 ) \cdot {\rm{e} }^{ {\rm{j \hspace{0.03cm}\cdot \hspace{0.03cm}2 \pi } }  \hspace{0.03cm}\cdot \hspace{0.03cm} \nu \hspace{0.03cm}\cdot \hspace{0.03cm}\mu /{N} } } =S( 64 \cdot f_0 ) \cdot {\rm{e} }^{ {\rm{j \hspace{0.03cm}\cdot \hspace{0.03cm}2 \pi } } \hspace{0.03cm}\cdot \hspace{0.03cm} \nu \hspace{0.03cm}\cdot \hspace{0.03cm}64 /512} + S( 448 \cdot f_0 ) \cdot {\rm{e} }^{ {\rm{j \hspace{0.03cm}\cdot \hspace{0.03cm}2 \pi } }  \hspace{0.03cm}\cdot \hspace{0.03cm} \nu \hspace{0.03cm}\cdot \hspace{0.03cm}448 /512} = \\ &amp;amp; = {1}/ {2} \cdot (a + {\rm{j} } \cdot b ) \cdot {\rm{e} }^{ {\rm{j \hspace{0.03cm}\cdot \hspace{0.03cm}2 \pi } }  \hspace{0.03cm}\cdot \hspace{0.03cm} \nu \hspace{0.03cm}\cdot \hspace{0.03cm}64 /512} + {1}/{2} \cdot (a - {\rm{j} } \cdot b ) \cdot {\rm{e} }^{ {\rm{j \hspace{0.03cm}\cdot \hspace{0.03cm}2 \pi } }  \hspace{0.03cm}\cdot \hspace{0.03cm} \nu \hspace{0.03cm}\cdot \hspace{0.03cm}448 /512}.\end{align*}$$&lt;br /&gt;
&lt;br /&gt;
'''(2)'''&amp;amp;nbsp; Wendet man hierauf den [[Signaldarstellung/Zum_Rechnen_mit_komplexen_Zahlen#Darstellung_nach_Betrag_und_Phase|Satz von Euler]] an, so erhält man:&lt;br /&gt;
:$$s_\nu   = \frac{a + {\rm{j} } \cdot b } {2}  \cdot \left[ {\rm{cos} } ( 2\pi \cdot  \frac{ {64} } { {512} }\cdot \nu  ) + {\rm{j} } \cdot {\rm{sin} } ( 2\pi \cdot  \frac{ {64} } { {512} }\cdot \nu  ) \right] + \frac{a - {\rm{j} } \cdot b } {2}  \cdot \left[ {\rm{cos} } ( 2\pi \cdot  \frac{ {448} } { {512} }\cdot \nu  ) + {\rm{j} } \cdot {\rm{sin} } ( 2\pi \cdot  \frac{ {448} } { {512} }\cdot \nu  )\right].$$&lt;br /&gt;
Dabei gilt:&lt;br /&gt;
:$${\rm{cos} } ( 2\pi \cdot  \frac{ {448} } { {512} }\cdot \nu  ) = {\rm{cos} } ( 2\pi \cdot  \frac{ {64} } { {512} }\cdot \nu  ), \qquad {\rm{sin} } ( 2\pi \cdot  \frac{ {448} } { {512} }\cdot \nu  ) = - {\rm{sin} } ( 2\pi \cdot  \frac{ {64} } { {512} }\cdot \nu  ).$$&lt;br /&gt;
&lt;br /&gt;
'''(3)'''&amp;amp;nbsp; Durch Zusammenfassen ergeben sich hier rein reelle Zeitsignalkoeffizienten:&lt;br /&gt;
:$$s_\nu = a \cdot {\rm{cos} } ( 2\pi \cdot  \frac{ {64} } { {512} }\cdot \nu  ) - b \cdot {\rm{sin} } ( 2\pi \cdot  \frac{ {64} } { {512} }\cdot \nu  ).$$&lt;br /&gt;
&lt;br /&gt;
*Der Parameter $a$ stellt dabei die ''Inphase–Komponente'' der QAM–Modulation des jeweiligen Trägers (Bins) dar.&lt;br /&gt;
* Der Parameter $b$ gibt die ''Quadratur–Komponente'' an. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
In gleicher Weise kann für die anderen „Trägerpaare” vorgegangen werden.}}&lt;br /&gt;
&lt;br /&gt;
==Aufgabe zum Kapitel==&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:5.10_DMT–Verfahren_bei_DSL|Aufgabe 5.10: &amp;amp;nbsp; DMT–Verfahren bei DSL]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Modulation_Methods/Influence_of_Noise_on_Systems_with_Angle_Modulation&amp;diff=21264</id>
		<title>Modulation Methods/Influence of Noise on Systems with Angle Modulation</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Modulation_Methods/Influence_of_Noise_on_Systems_with_Angle_Modulation&amp;diff=21264"/>
		<updated>2018-01-02T18:06:31Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Winkelmodulation und WM–Demodulation&lt;br /&gt;
|Vorherige Seite=Frequenzmodulation (FM)&lt;br /&gt;
|Nächste Seite=Pulscodemodulation&lt;br /&gt;
}}&lt;br /&gt;
==Signal–zu–Rausch–Leistungsverhältnis bei PM==&lt;br /&gt;
Zur Untersuchung des Rauschverhaltens gehen wir wieder vom so genannten [[Modulationsverfahren/Qualitätskriterien#Einige_Anmerkungen_zum_AWGN.E2.80.93Kanalmodell|AWGN–Kanal]] aus und berechnen das Sinken–SNR $ρ_v$ in Abhängigkeit &lt;br /&gt;
[[File:Mod_T_3_3_S1_version2.png|right|frame|Signal–zu–Rausch–Leistungsverhältnis bei Phasenmodulation]]&lt;br /&gt;
*der Frequenz (Bandbreite) $B_{\rm NF}$ des cosinusförmigen Quellensignals, &lt;br /&gt;
*der Sendeleistung $P_{\rm S}$, &lt;br /&gt;
*des Kanaldämpfungsfaktors $α_{\rm K}$, und &lt;br /&gt;
*der (einseitigen) Rauschleistungsdichte $N_0$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die prinzipielle Vorgehensweise wird im Abschnitt [[Modulationsverfahren/Qualitätskriterien#Untersuchungen_beim_AWGN.E2.80.93Kanal|Untersuchungen beim AWGN-Kanal]] ausführlich beschrieben. &lt;br /&gt;
&lt;br /&gt;
Ist die Leistungskenngröße&lt;br /&gt;
:$$\xi  =  \frac{\alpha_{\rm K}^2 \cdot P_{\rm S}}{N_0 \cdot B_{\rm NF}}$$&lt;br /&gt;
hinreichend groß, so erhält man bei Phasenmodulation mit dem Modulationsindex $η$ folgende Näherung: &lt;br /&gt;
$$\rho_{v  }  \approx {\eta^2}/{2}  \cdot\xi \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Das bedeutet, dass bei Phasenmodulation das Sinken–SNR mit wachsendem $η$ quadratisch zunimmt. &lt;br /&gt;
&lt;br /&gt;
Die exakte Berechnung von $ρ_v$ ist nicht ganz einfach und auch langwierig. Hier soll nur der Rechenweg kurz geschildert werden: &lt;br /&gt;
*Man approximiert das weiße Rauschen $n(t)$ mit der Bandbreite $B_{\rm HF}$ durch eine Summe von Sinusstörern im Abstand $f_{\rm St}$ (siehe Skizze im nächsten Abschnitt). &lt;br /&gt;
*Man berechnet für jeden einzelnen Sinusstörer das S/N–Verhältnis nach der Demodulation und addiert die einzelnen Beiträge, die nun alle im Tiefpassbereich $|f| &amp;lt; B_{\rm NF}$ liegen. &lt;br /&gt;
*Das obige einfache Ergebnis erhält man nach dem Grenzübergang $f_{\rm St} → 0$. Die Summe geht dann in ein Integral über und dieses kann unter Ausnutzung einiger Näherungen gelöst werden. &lt;br /&gt;
&lt;br /&gt;
==Signal–zu–Rausch–Leistungsverhältnis bei FM==&lt;br /&gt;
Zur Berechnung nutzt man hier die Tatsache, dass der FM–Demodulator mit einem PM–Demodulator und einem Differenzierer realisiert werden kann. &lt;br /&gt;
&lt;br /&gt;
[[File:Mod_T_3_3_S2a_version2.png|right|frame|FM–Demodulator, realisiert als PM–Demodulator und Differenzierer]]&lt;br /&gt;
&lt;br /&gt;
Das Blockschaltbild bezieht sich allein auf die Rauschsignale  &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $s(t) = 0$. Damit ist das Empfangssignal $r(t)$ gleich $n(t)$, wobei für $n(t)$ additives weißes Gaußsches Rauschen mit der Mittenfrequenz $f_{\rm T}$ und der Bandbreite $B_{\rm HF}$ anzusetzen ist. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Bei der Berechnung der Rauschleistungsdichte nach dem FM–Demodulator ist zu berücksichtigen: &lt;br /&gt;
*Die Rauschleistungsdichte ${\it Φ}_{v,\hspace{0.05cm}{\rm PM}}(f)$ nach dem PM–Demodulator liegt im Tiefpassbereich, besitzt die (einseitige) Bandbreite $B_{\rm NF}$ und ist ebenfalls „weiß” (siehe linke Skizze in der unteren Grafik). &lt;br /&gt;
*Die Leistungsdichte am Ausgang eines linearen Systems mit Frequenzgang $H(f)$ lautet allgemein, wenn am Eingang die Rauschleistungsdichte  ${\it Φ}_{v,\hspace{0.05cm}{\rm PM}}(f)$ anliegt: &lt;br /&gt;
:$${ \it \Phi}_{v {\rm , \hspace{0.05cm}FM} } (f) = { \it \Phi}_{v {\rm , \hspace{0.05cm}PM} } (f) \cdot&lt;br /&gt;
 |H(f)|^2  \hspace{0.05cm}.$$&lt;br /&gt;
*Der Differenzierer ist ein solches lineares System. Sein Frequenzgang $H(f)$ steigt linear mit $f$ an, und es gilt für die Rauschleistungsdichte am Ausgang des FM-Demodulators (siehe rechte Skizze  in der unteren Grafik):&lt;br /&gt;
:$${ \it \Phi}_{v {\rm , \hspace{0.05cm}FM} } (f) = {\rm const. } \cdot&lt;br /&gt;
 f^2 \cdot { \it \Phi}_{v {\rm , \hspace{0.05cm}PM} }(f) \hspace{0.05cm}.$$&lt;br /&gt;
*Berücksichtigt man dieses Ergebnis, so kommt man nach längerer Rechnung zum folgenden Sinken–SNR, falls die Leistungskenngröße $ξ$ hinreichend groß ist: &lt;br /&gt;
:$$\rho_{v  }  \approx  \frac{3\eta^2}{2} \cdot \frac{\alpha_{\rm K}^2 \cdot P_{\rm S}}{N_0 \cdot B_{\rm NF}} = 3/2 \cdot{\eta^2} \cdot\xi \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Grafik verdeutlicht, dass ${\it Φ}_{v,\hspace{0.05cm}{\rm FM}}(f)$ im Gegensatz zu ${\it Φ}_{v,\hspace{0.05cm}{\rm PM}}(f)$ nicht weiß ist, sondern zu den Grenzen hin quadratisch ansteigt. Bei der Frequenz $f = 0$ besitzt ${\it Φ}_{v,\hspace{0.05cm}{\rm FM}}(f)$ dagegen keine Rauschanteile. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1114__Mod_T_3_3_S2b_neu.png |center|frame| Rauschleistungsdichtespektren bei PM (links) und FM (rechts)]]&lt;br /&gt;
&lt;br /&gt;
==Systemvergleich von AM, PM und FM hinsichtlich Rauschen==&lt;br /&gt;
[[File:Mod_T_3_3_S3_version2.png|right|frame|Systemvergleich von AM, PM und FM hinsichtlich Rauschen]]&lt;br /&gt;
Wie schon im Abschnitt [[Modulationsverfahren/Qualitätskriterien#Untersuchungen_beim_AWGN.E2.80.93Kanal|Untersuchungen beim AWGN-Kanal]] ausführlich erläutert und im Abschnitt [[Modulationsverfahren/Synchrondemodulation#Sinken-SNR_und_Leistungskenngr.C3.B6.C3.9Fe|Sinken-SNR und Leistungskenngröße]] auf die Amplitudenmodulation angewandtt, betrachten wir wieder die doppelt-logarithmische Darstellung des Sinken–SNR $ρ_υ$ über der Kenngröße&lt;br /&gt;
:$$\xi  =  \frac{\alpha_{\rm K}^2 \cdot P_{\rm S}}{N_0 \cdot B_{\rm NF}}.$$&lt;br /&gt;
&lt;br /&gt;
Diese qualitativ zu verstehenden Kurven sind wie folgt zu interpretieren: &lt;br /&gt;
&lt;br /&gt;
*Die ''Vergleichskurve'' liefert die ZSB–AM ohne Träger, das heißt mit Modulationsgrad $m → ∞$. Hier gilt $ρ_υ = ξ$ und auch bei doppelt–logarithmischer Darstellung ergibt sich eine $45^\circ$–Gerade durch den Ursprung. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Die ''FM–Kurve'' mit $η = 3$ liegt um $10 · \lg \ 13.5 ≈ 11.3  \ \rm dB$ über der AM–Kurve. Anschaulich kann man das bessere Rauschverhalten der Frequenzmodulation dadurch erklären, dass ein additiver Rauschanteil die Lage der Nulldurchgänge weniger beeinflusst als er die Amplitudenwerte verändert. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Ist das wirksame Rauschen sehr groß und damit die Leistungskenngröße klein $(10 · \lg \ ξ ≤ 15  \ \rm dB)$, so ist Winkelmodulation nicht zu empfehlen. Aufgrund des Rauschens können Nulldurchgänge völlig verschwinden und so deren Detektion unmöglich machen. Man spricht vom ''FM–Knick''. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Hinsichtlich Rauschen ist ein ''möglichst großer Modulationsindex'' anzustreben. So liegt die Kurve für $η = 10$ um etwa $10.4 \ \rm dB$ über der Kurve für $η = 3$. Zu berücksichtigen ist allerdings, dass ein größeres $η$ auch eine größere Bandbreite erfordert oder – bei gegebener Kanalbandbreite – stärkere nichtlineare Verzerrungen hervorruft. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Bei gleichem Modulationsindex ist die Phasenmodulation stets um $10 \cdot \lg \ 3 ≈ 4.8 \ \rm dB$ schlechter als die Frequenzmodulation. Dies ist einer der Gründe, warum die analoge Phasenmodulation in der Praxis nur wenig Bedeutung hat. Dagegen wird bei digitaler Modulation die Variante ''Phase Shift Keying'' (PSK) aufgrund anderer Vorteile häufiger eingesetzt als ''Frequency Shift Keying'' (FSK). &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Alle angegebenen Kurven gelten quantitativ nur für eine harmonische Schwingung (eine Frequenz). Bei einem Frequenzgemisch – das in der Praxis stets vorliegt – gelten die Kurven nur qualitativ. &lt;br /&gt;
&lt;br /&gt;
==Preemphase und Deemphase==&lt;br /&gt;
Ein wichtiges Ergebnis der letzten Abschnitte war, dass das Sinken–SNR bei FM entsprechend $\rho_{v  }  \approx 1.5 \cdot{\eta^2} \cdot\xi \hspace{0.05cm}$ in guter Näherung quadratisch vom Modulationsindex abhängt. Da aber bei Frequenzmodulation der Modulationsindex $η$ umgekehrt proportional zur Nachrichtenfrequenz $f_{\rm N}$ ist, hängt auch das Sinken–SNR von $f_{\rm N}$ ab. Daraus ergeben sich folgende Konsequenzen: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Besteht das Nachrichtensignal aus mehreren Frequenzen, so weisen die höheren Frequenzen nach einer FM–Modulation einen kleineren Modulationsindex $η$ auf als die niedrigeren Frequenzen. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Die höheren Frequenzanteile (mit kleinerem $η$) sind entsprechend stärker verrauscht als niedrigere Frequenzen, wenn nicht besondere Maßnahmen getroffen werden.&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
*Eine solche Maßnahme ist beispielsweise eine ''Preemphase''. Dabei werden höhere Frequenzen durch ein Hochpass–Filternetzwerk $H_{\rm PE}(f)$ angehoben und für diese der Modulationsindex erhöht. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Die sendeseitige Preemphase muss beim Empfänger durch ein Netzwerk $H_{\rm DE}(f) = 1/H_{\rm PE}(f)$ rückgängig gemacht werden. Dieses Absenken der höheren Frequenzen nennt man ''Deemphase. &lt;br /&gt;
&lt;br /&gt;
[[File:Mod_T_3_3_S4_version2.png|right|frame| Preemphase und Deemphase]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt ein mögliches Beispiel für die Filterfunktionen von &lt;br /&gt;
*Preemphase (blau) &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp;  $|H_{{\rm PE} } (f)| \sqrt{1 + \left({f}/{f_{\rm G}}\right)^2}\hspace{0.05cm},$&lt;br /&gt;
*Deemphase (rot) &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp;  $|H_{{\rm DE} } (f)| = |H_{{\rm PE} } (f)|^{-1} \hspace{0.05cm}.$&lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel==&lt;br /&gt;
[[Aufgaben:3.10_Berechnung_der_Rauschleistungen|Aufgaben:3.10: &amp;amp;nbsp; Berechnung der Rauschleistungen]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.10Z_Amplituden-_und_Winkelmodulation_im_Vergleich|Zusatzaufgabe 3.10Z: &amp;amp;nbsp; Amplituden- und Winkelmodulation im Vergleich]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.11_Preemphase_und_Deemphase|Aufgaben:3.11: &amp;amp;nbsp; Preemphase und Deemphase]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Modulation_Methods/Frequency_Modulation_(FM)&amp;diff=21263</id>
		<title>Modulation Methods/Frequency Modulation (FM)</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Modulation_Methods/Frequency_Modulation_(FM)&amp;diff=21263"/>
		<updated>2018-01-02T18:00:22Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Winkelmodulation und WM–Demodulation&lt;br /&gt;
|Vorherige Seite=Phasenmodulation (PM)&lt;br /&gt;
|Nächste Seite=Rauscheinfluss bei Winkelmodulation&lt;br /&gt;
}}&lt;br /&gt;
==Augenblicksfrequenz==&lt;br /&gt;
Wir gehen wieder von einem winkelmodulierten Signal aus: &lt;br /&gt;
:$$s(t) =  A_{\rm T} \cdot \cos (\psi(t)).$$&lt;br /&gt;
Alle Informationen über das Quellensignal $q(t)$ &lt;br /&gt;
*sind damit ausschließlich in der Winkelfunktion $ψ(t)$ enthalten, &lt;br /&gt;
*während die Hüllkurve $a(t) = A_{\rm T}$ konstant ist. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definitionen:}$&amp;amp;nbsp; Die '''Augenblickskreisfrequenz''' ist die Ableitung der Winkelfunktion nach der Zeit:&lt;br /&gt;
:$$\omega_{\rm A}(t) = \frac{ {\rm d}\psi(t)}{ {\rm d}t}\hspace{0.05cm}.$$&lt;br /&gt;
Entsprechend gilt für die '''Augenblicksfrequenz''': &lt;br /&gt;
:$$f_{\rm A}(t) = \frac{\omega_{\rm A}(t)}{2\pi} = \frac{1}{2\pi} \cdot \frac{ {\rm d}\hspace{0.03cm}\psi(t)}{ {\rm d}t}\hspace{0.05cm}.$$&lt;br /&gt;
Der '''Frequenzhub''' ist die maximale Abweichung $Δf_{\rm A}$ der zeitabhängigen Augenblicksfrequenz $f_{\rm A}(t)$ von der konstanten Trägerfrequenz $f_{\rm T}$. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Bei einer Winkelmodulation mit der Trägerfrequenz $f_{\rm T}$ schwankt die Augenblicksfrequenz zwischen &lt;br /&gt;
:$$f_{\rm T} - \Delta f_{\rm A} \le f_{\rm A}(t) \le f_{\rm T} + \Delta f_{\rm A}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Hervorzuheben ist, dass ein grundsätzlicher Unterschied zwischen der Augenblicksfrequenz $f_{\rm A}(t)$ und dem mit einem Spektrum–Analyzer messbaren Spektrum $S(f)$ eines winkelmodulierten Signals $s(t)$ besteht, wie das nachfolgende Beispiel verdeutlichen soll. &lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; Die Grafik zeigt oben das phasenmodulierte Signal &lt;br /&gt;
:$$s(t) =  A_{\rm T} \cdot \cos (\psi(t)) = A_{\rm T} \cdot \cos(2 \pi  f_{\rm T}  \hspace{0.05cm}t + \eta \cdot \sin (2 \pi f_{\rm N} \hspace{0.05cm} t))$$&lt;br /&gt;
&lt;br /&gt;
sowie unten die Augenblicksfrequenz&lt;br /&gt;
:$$f_{\rm A}(t) = \frac{1}{2 \pi} \cdot \frac{ {\rm d}\hspace{0.03cm}\psi(t)}{ {\rm d}t} = f_{\rm T} + \Delta f_{\rm A}\cdot \cos (2 \pi  f_{\rm N} \hspace{0.05cm} t) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Die Systemparameter sind dabei $f_{\rm T} = 50 \ \rm kHz$, $f_{\rm N} = 5 \ \rm kHz$ und $η = 3$. Daraus ergibt sich der Frequenzhub zu $Δf_{\rm A} = η · f_{\rm N} = 15 \ \rm  kHz$. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1101__Mod_T_3_2_S1_neu.png |center|frame| Zur Verdeutlichung der Augenblicksfrequenz]]&lt;br /&gt;
&lt;br /&gt;
In der Mitte ist zur Orientierung der qualitative Verlauf des sinusförmigen Quellensignals $q(t)$ skizziert. Man erkennt aus diesen Grafiken: &lt;br /&gt;
*Die Augenblicksfrequenz $f_{\rm A}(t)$ kann alle beliebigen Werte zwischen $f_{\rm T} + Δf_{\rm A} = 65 \ \rm kHz$ (bei $t = 50\ \rm  μs, 250 \ μs$, usw.) und $f_{\rm T} \ – Δf_{\rm A} = 35 \ \rm kHz$ (bei $t = 150\ \rm  μs, 350 \ μs$, usw.) annehmen (siehe grüne Markierungen). Zur Zeit $t ≈ 16.7 \ \rm μs$ gilt beispielsweise $f_{\rm A}(t) = 57.5 \ \rm  kHz$ (violetter Pfeil). &lt;br /&gt;
*Dagegen besteht die Spektralfunktion $S(f)$ aus diskreten Bessellinien bei den Frequenzen ... , $30, 35, 40, 45, \mathbf{50}, 55, 60, 65, 70$, ... (jeweils in $\rm kHz$). Eine Spektrallinie bei $f = 57.5 \ \rm  kHz$ gibt es nicht im Gegensatz zu einer Spektrallinie bei $f = 70 \ \rm   kHz$. Dagegen gilt zu keinem Zeitpunkt $f_{\rm A}(t) = 70 \ \rm  kHz$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
$\text{Ergo:}$&amp;amp;nbsp; Die Augenblicksfrequenz $f_{\rm A}(t)$ ist also keine physikalisch messbare Frequenz im herkömmlichen Sinne, sondern nur eine fiktive, mathematische Größe, nämlich die Ableitung der Winkelfunktion $ψ(t)$.}} &lt;br /&gt;
&lt;br /&gt;
==Signalverläufe bei Frequenzmodulation==&lt;br /&gt;
Wie im Kapitel [[Modulationsverfahren/Phasenmodulation_(PM)|Phasenmodulation]] gehen wir weiterhin davon aus, dass das Trägersignal $z(t)$ cosinusförmig verläuft und das Quellensignal $q(t)$ spitzenwertbegrenzt ist.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ist bei einem Übertragungssystem die Augenblickskreisfrequenz $ω_{\rm A}(t)$ linear abhängig vom Momentanwert des Quellensignals $q(t)$, so spricht man von '''Frequenzmodulation''' (FM): &lt;br /&gt;
$$\omega_{\rm A}(t) = 2 \pi \cdot f_{\rm A}(t) = \omega_{\rm T} + K_{\rm FM} \cdot q(t)&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
Hierbei bezeichnet $K_{\rm FM}$ eine dimensionsbehaftete Konstante. Beschreibt $q(t)$ einen Spannungsverlauf, so hat $K_{\rm FM}$ die Einheit $\rm V^{–1}s^{–1}$. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Für die Winkelfunktion und das modulierte Signal erhält man bei Frequenzmodulation: &lt;br /&gt;
:$$\psi(t) = \omega_{\rm T} \cdot t + K_{\rm FM} \cdot \int q(t)\hspace{0.1cm}{\rm d}t \hspace{0.05cm}\hspace{0.3cm}\Rightarrow \hspace{0.3cm}s(t) = A_{\rm T} \cdot \cos (\psi(t)) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Aus dieser Gleichung lässt sich sofort ablesen: &lt;br /&gt;
*Auch bei der Frequenzmodulation bewegt sich das äquivalente T+iefpass–Signal wegen der konstanten Hüllkurve  ⇒  $a(t) = A_{\rm T}$ auf einem Kreisbogen. &lt;br /&gt;
*Ein Frequenzmodulator kann mit Hilfe eines Integrators und eines Phasenmodulators realisiert werden. Der FM–Demodulator besteht demzufolge aus PM–Demodulator und Differenzierer, wie im oberen Teil der folgenden Grafik dargestellt. &lt;br /&gt;
*Die zweite Darstellung zeigt den umgekehrten Zusammenhang, nämlich die mögliche Beschreibung von PM–Modulator und –Demodulator durch die entsprechenden FM–Komponenten. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1093__Mod_T_3_2_S2_neu.png |center|frame|Zusammenhang zwischen PM und FM]]&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus obiger Gleichung auch, dass die auf der Seite [[Modulationsverfahren/Allgemeines_Modell_der_Modulation#Eine_sehr_einfache.2C_leider_nicht_ganz_richtige_Modulatorgleichung|Eine sehr einfache, leider nicht ganz richtige Modulatorgleichung]] im ersten Kapitel dieses Buches angegebene Gleichung im Fall der Frequenzmodulation nur in Sonderfällen gültig sein wird. Die Umwandlung &lt;br /&gt;
:$$s(t) = a(t) \cdot \cos (\omega (t) \cdot t + \phi(t)) \hspace{0.3cm}\Rightarrow \hspace{0.3cm} s(t) = A_{\rm T} \cdot \cos (\omega (t) \cdot t + \phi_{\rm T})$$&lt;br /&gt;
ist bei Frequenzmodulation nur manchmal erlaubt, zum Beispiel beim nichtlinearen digitalen Modulationsverfahren [[Modulationsverfahren/Nichtlineare_Modulationsverfahren#FSK_.E2.80.93_Frequency_Shift_Keying|Frequency Shift Keying]] (FSK) mit rechteckförmigem Grundimpuls. &lt;br /&gt;
&lt;br /&gt;
==Frequenzmodulation eines Cosinussignals==&lt;br /&gt;
Bei cosinusförmigem Quellensignal $q(t)$ und Frequenzmodulation gilt für die Augenblickskreisfrequenz:&lt;br /&gt;
:$$q(t) = A_{\rm N} \cdot \cos (\omega_{\rm N} \cdot t)\hspace{0.3cm}\Rightarrow \hspace{0.3cm} \omega_{\rm A}(t) = \omega_{\rm T} + K_{\rm FM} \cdot A_{\rm N} \cdot \cos(\omega_{\rm N} \cdot t)\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Integriert man diese über die Zeit, so erhält man die Winkelfunktion:&lt;br /&gt;
:$$\psi(t) = \omega_{\rm T} \cdot t + \frac {K_{\rm FM} \cdot A_{\rm N}}{\omega_{\rm N}} \cdot \sin (\omega_{\rm N} \cdot t) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ein Vergleich mit den Aussagen im Kapitel [[Modulationsverfahren/Phasenmodulation_(PM)|Phasenmodulation]]  macht deutlich: &lt;br /&gt;
*Die Frequenzmodulation eines Cosinussignals ergibt qualitativ das gleiche Sendesignal $s(t)$ wie die Phasenmodulation eines sinusförmigen Quellensignals $q(t)$. &lt;br /&gt;
*Voraussetzung hierfür ist allerdings, dass die Modulatorkonstanten entsprechend dem Verhältnis $K_{\rm FM}/K_{\rm PM} = ω_{\rm N}$ aneinander angepasst sind. &lt;br /&gt;
*Das Sendesignal $s(t)$ lässt sich somit bei den beiden Konstellationen „PM – Sinussignal” sowie „FM – Cosinussignal” einheitlich beschreiben:&lt;br /&gt;
:$$s(t) = A_{\rm T} \cdot \cos (\omega_{\rm T} \cdot t + \eta \cdot \sin (\omega_{\rm N} \cdot t)) \hspace{0.05cm}.$$&lt;br /&gt;
*Allerdings sind bei Anwendung dieser Gleichung für den Modulationsindex $η$ bei Phasen– und Frequenzmodulation unterschiedliche Definitionsgleichungen zu verwenden: &lt;br /&gt;
:$$\eta_{\rm PM} = {K_{\rm PM} \cdot A_{\rm N}},\hspace{0.5cm}\eta_{\rm FM} = \frac {K_{\rm FM} \cdot A_{\rm N}}{\omega_{\rm N}} \hspace{0.05cm}.$$&lt;br /&gt;
*Ist das Quellensignal keine harmonische Schwingung, sondern setzt sich aus mehreren Frequenzen zusammen, so unterscheiden sich die Zeitsignale bei Phasen- und Frequenzmodulation auch qualitativ. Dies erkennt man beispielsweise beim [[Modulationsverfahren/Allgemeines_Modell_der_Modulation#Modulierte_Signale_bei_digitalem_Quellensignal|früheren Vergleich von PSK und FSK]]. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp; &lt;br /&gt;
Wir gehen nun von einem cosinusförmigen Quellensignal $q(t)$ mit der Amplitude $A_{\rm N} = 3 \ \rm V$ und der Frequenz $f_{\rm N} = 5  \ \rm kHz$ aus und betrachten die Signalverläufe von Phasenmodulation (PM) und Frequenzmodulation (FM) bei gleichem Modulationsindex $η = 1.5$. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1094__Mod_T_3_2_S3_neu.png|center|frame|PM und FM eines Cosinussignals mit η = 1.5]]&lt;br /&gt;
&lt;br /&gt;
Die mittlere Grafik zeigt das phasenmodulierte Signal für die Modulatorparameter $f_{\rm T} = 50  \ \rm kHz$ und $K_{\rm PM} = \rm 0.5 V^{–1}$ &lt;br /&gt;
:$$s_{\rm PM}(t) = A_{\rm T} \cdot \cos (\omega_{\rm T} \cdot t + \eta \cdot \cos (\omega_{\rm N} \cdot t)) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Bei PM ergibt sich mit $A_{\rm N} = 3 \ \rm V$ für den Modulationsindex (oder Phasenhub) $η = 1.5 ≈ π/2$. &lt;br /&gt;
*Die maximale Abweichung der Nulldurchgänge von ihren (äquidistanten) Solllagen beträgt somit etwa ein Viertel der Trägerperiode. &lt;br /&gt;
*Ist das Quellensignal $q(t) &amp;gt; 0$, so kommen die Nulldurchgänge verfrüht, bei $q(t) &amp;lt; 0$ verspätet. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die untere Grafik zeigt das frequenzmodulierte Signal mit gleichem Modulationsindex $η$:&lt;br /&gt;
:$$s_{\rm FM}(t) = A_{\rm T} \cdot \cos (\omega_{\rm T} \cdot t + \eta \cdot \sin (\omega_{\rm N} \cdot t)) \hspace{0.05cm}.$$ &lt;br /&gt;
&lt;br /&gt;
Erreicht wird in diesem Fall $η = 1.5$ beispielsweise durch die Modulatorkonstante&lt;br /&gt;
:$$K_{\rm FM} = \frac {\eta \cdot \omega_{\rm N} }{A_{\rm N} } = {K_{\rm PM} \cdot \omega_{\rm N} } = 0.5\,{\rm V}^{-1} \cdot 2 \pi \cdot 5\,{\rm kHz} = 15708\,{\rm V}^{-1}{\rm s}^{-1} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Der Frequenzhub beträgt hier $Δf_{\rm A} = η · f_{\rm N} = 7.5 \ \rm  kHz$, und es treten Augenblicksfrequenzen zwischen $42.5$ und $57.5 \ \rm kHz$ auf. &lt;br /&gt;
*Die Nulldurchgänge stimmen nun bei den Maxima und den Minima des Quellensignals $q(t)$ mit denen des Trägersignals $z(t)$ überein, während die maximalen Phasenabweichungen bei den Nulldurchgängen von $q(t)$ zu erkennen sind. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==WM–Spektrum einer harmonischen Schwingung==&lt;br /&gt;
Nun setzen wir für das Quellensignal allgemein eine harmonische Schwingung mit der Phase $ϕ_{\rm N}$ voraus: &lt;br /&gt;
:$$q(t) = A_{\rm N} \cdot \cos(2 \pi f_{\rm N} \cdot t + \phi_{\rm N}).$$&lt;br /&gt;
Uns interessiert die Spektralfunktion $S(f)$. Zur einfacheren Darstellung betrachten wir im Folgenden das Betragsspektrum $|S_+(f)|$ des analytischen Signals, aus dem $|S(f)|$ in der bekannten Weise hergeleitet werden kann. Für jede Art von Winkelmodulation in der hier beschriebenen Weise – egal, ob Phasen– oder Frequenzmodulation – und auch unabhängig von der Phase $ϕ_{\rm N}$ des Quellensignals gilt: &lt;br /&gt;
:$$|S_{\rm +}(f)| = A_{\rm T} \cdot \sum_{n = - \infty}^{+\infty}|{\rm J}_n (\eta)| \cdot \delta [f -  (f_{\rm T} + n \cdot f_{\rm N})]\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Diese Gleichung lässt sich wie folgt begründen: &lt;br /&gt;
*Auf der Seite [[Modulationsverfahren/Phasenmodulation_(PM)#.C3.84quivalentes_TP.E2.80.93Signal_bei_Phasenmodulation|Äquivalentes TP-Signal bei PM]] wurde diese Gleichung für ein phasenmoduliertes Sinussignal abgeleitet, wobei $η = A_{\rm N} · K_{\rm PM}$ den Modulationsindex angibt und ${\rm J}_n(η)$ die Besselfunkton erster Art und $n$–ter Ordnung bezeichnet. $K_{\rm PM}$ ist die Modulatorkonstante. &lt;br /&gt;
*Durch eine andere Nachrichtenphase $ϕ_{\rm N}$ ändert sich nur die Phasenfunktion ${\rm arc} \ S_+(f)$, nicht aber das Betragsspektrum $|S_+(f)|$. Dieses wichtige Ergebnis wurde auch durch die [[Aufgaben:3.3Z_Kenngrößenbestimmung|Aufgabe 3.3Z]] bestätigt.&lt;br /&gt;
*Auf der Seite [[Modulationsverfahren/Frequenzmodulation_(FM)#Frequenzmodulation_eines_Cosinussignals|Frequenzmodulation eines Cosinussignals]] dieses Kapitels wurde gezeigt, dass ein FM–Signal in gleicher Weise wie ein PM–Signal dargestellt werden kann, wenn der Modulationsindex $η = K_{\rm FM} · A_{\rm N}/ω_{\rm N}$ verwendet wird. Folgerichtig sind auch die Betragsspektren bei Phasen- und Frequenzmodulation in gleicher Form darstellbar. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wir verweisen hier gerne auch auf den zweiten Teil des Lernvideos [[Winkelmodulation_-_Frequenz-_und_Phasenmodulation_(Lernvideo)|Winkelmodulation - Frequenz- und Phasenmodulation]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; &lt;br /&gt;
Wir betrachten wieder eine harmonische Schwingung mit der Amplitude $A_{\rm N} = 3 \ \rm V$ nach &lt;br /&gt;
*einer Phasenmodulation mit $K_{\rm PM} = \rm 0.5 \ \rm  V^{–1}$, &lt;br /&gt;
*einer Frequenzmodulation mit $K_{\rm FM} = \rm 15708 \ \rm V^{–1}s^{–1}$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die zugehörigen Signalverläufe sind im [[Modulationsverfahren/Frequenzmodulation_(FM)#Frequenzmodulation_eines_Cosinussignals|Beispiel 2]] dargestellt. &lt;br /&gt;
*Bei beiden Systemen ergibt sich für $f_{\rm N} = 5  \ \rm kHz$ ein Besselspektrum mit dem Modulationsindex $η = 1.5$. &lt;br /&gt;
*Die identischen Betragsspektren des analytischen Signals (nur positive Frequenzen) sind in der oberen Bildhälfte dargestellt. Bessellinien mit Werten kleiner als $0.03$ sind hierbei vernachlässigt. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1095__Mod_T_3_2_S4_neu.png|center|frame|Diskrete Spektren bei Phasen– und Frequenzmodulation]]&lt;br /&gt;
&lt;br /&gt;
Die unteren Grafiken gelten für die Nachrichtenfrequenz $f_{\rm N} = 3 \ \rm kHz$. Man erkennt: &lt;br /&gt;
*Bei der Phasenmodulation ergibt sich gegenüber $f_{\rm N} = 5 \ \rm kHz$ eine schmalere Spektralfunktion, da nun der Abstand der Bessellinien nur mehr $3 \ \rm kHz$ beträgt. Da sich der Modulationsindex $η = 1.5$ nicht ändert, ergeben sich die gleichen Besselgewichte wie bei $f_{\rm N} = 5 \ \rm kHz$. &lt;br /&gt;
*Auch bei der Frequenzmodulation treten nun die Bessellinien im Abstand von $3 \ \rm kHz$ auf. Es gibt aber nun aufgrund des größeren Modulationsindex $η = 2.5$  deutlich mehr Bessellinien als im rechten oberen (für $η = 1.5$ gültigen) Diagramm. Bei Frequenzmodulation ist $η$ umgekehrt proportional zu $f_{\rm N}$.}}&lt;br /&gt;
&lt;br /&gt;
==Einfluss einer Bandbegrenzung bei Winkelmodulation==&lt;br /&gt;
Fassen wir einige Resultate dieses Abschnittss kurz zusammen, wobei wir beispielhaft die Trägerfrequenz $f_{\rm T} = 100 \ \rm kHz$, die Nachrichtenfrequenz $f_{\rm N} = 5  \ \rm kHz$ und den Modulationsindex $η = π/2$ voraussetzen: &lt;br /&gt;
&lt;br /&gt;
*Das Spektrum einer winkelmodulierten Schwingung besteht aus Bessellinien um den Träger $f_{\rm T}$ im Abstand $f_{\rm N}$ der Nachrichtenfrequenz und ist theoretisch unendlich weit ausgedehnt. &lt;br /&gt;
&lt;br /&gt;
*Selbst wenn man alle Spektrallinien mit Beträgen kleiner als  $0.01$ vernachlässigt, beträgt die dann endliche Bandbreite für $η = π/2$ noch immer $B_{\rm HF} = 8 · f_{\rm N} = 40  \ \rm kHz$. &lt;br /&gt;
&lt;br /&gt;
*Die Ortskurve – also der Verlauf des äquivalenten Tiefpass–Signals in der komplexen Ebene – ist im Idealfall ein Kreisbogen mit einem Öffnungswinkel von $±1.57 \ {\rm rad} = ±90^\circ$. &lt;br /&gt;
&lt;br /&gt;
*Dieser Kreisbogen nach der vektoriellen Addition ergibt sich allerdings nur dann, wenn alle Bessellinien in der Ortskurve mit den richtigen Zeigerlängen, Phasenlagen und Kreisfrequenzen rotieren. &lt;br /&gt;
&lt;br /&gt;
*Logischerweise wird die kreisbogenförmige Ortskurve verändert, wenn Spektrallinien verfälscht werden (z. B. durch lineare Kanalverzerrungen) oder ganz fehlen (z. B. durch eine Bandbegrenzung). &lt;br /&gt;
&lt;br /&gt;
*Da der ideale Winkeldemodulator die Phase $ϕ_r(t)$ des Empfangssignals detektiert und daraus das Sinkensignal $v(t)$ gewinnt, wird dieses verfälscht und zwar sogar nichtlinear &amp;amp;nbsp; ⇒  &amp;amp;nbsp; irreversibel. &lt;br /&gt;
&lt;br /&gt;
*Das bedeutet gleichzeitig: Aufgrund linearer Verzerrungen im Kanal kommt es zu nichtlinearen Verzerrungen im demodulierten Signal   &amp;amp;nbsp; ⇒  &amp;amp;nbsp;   es entstehen dadurch neue Frequenzen (Oberwellen). &lt;br /&gt;
&lt;br /&gt;
*Je kleiner die zur Verfügung stehende Bandbreite $B_{\rm HF}$ ist und je größer der Modulationsindex $η$ gewählt wird, desto größer wird der die nichtlinearen Verzerrungen beschreibende Klirrfaktor $K$. &lt;br /&gt;
&lt;br /&gt;
*Als Faustformel für die erforderliche HF–Bandbreite für einen geforderten Klirrfaktor $K$ &amp;amp;nbsp; ⇒  &amp;amp;nbsp; ''Carson–Regel'' gilt: &lt;br /&gt;
:$$K &amp;lt; 10\%: B_{\rm HF}  \ge  2 \cdot f_{\rm N} \cdot (\eta +1)\hspace{0.05cm},$$&lt;br /&gt;
:$$K &amp;lt; 1\%\hspace{0.12cm}: B_{\rm HF} \ge 2 \cdot f_{\rm N} \cdot(\eta +2)\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Wir gehen weiterhin von den Systemparametern $f_{\rm T} = 100 \ \rm kHz$, $f_{\rm N} = 5 \ \rm kHz$ und $η =  π/2$ aus. Die Grafik zeigt für diesen Fall links das Betragsspektrum $ \vert S_{\rm TP}(f) \vert$ des äquivalenten Tiefpass–Signals und rechts die zugehörige komplexe Zeitfunktion $s_{\rm TP}(t)$. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1104__Mod_T_3_2_S5_neu.png|right|frame| Einfluss einer Bandbegrenzung bei Winkelmodulation]]&lt;br /&gt;
*Um den Klirrfaktor  auf Werte $K &amp;lt; 1\%$ zu begrenzen, ist nach der sog. Carson–Regel die HF–Bandbreite $B_{1 \%} ≈ 36 \ \rm  kHz$ erforderlich. &lt;br /&gt;
*In diesem Fall setzt sich das äquivalente Tiefpass–Signal aus der Konstanten $D_0$ und je drei entgegen dem Uhrzeigersinn $(D_1, D_2, D_3)$ bzw. im Uhrzeigersinn $(D_{-1}, D_{-2}, D_{-3})$ drehenden Zeigern zusammen:&lt;br /&gt;
:$$\begin{align*}r_{\rm TP}(t) &amp;amp; =  \sum_{n = - 3}^{+3}D_n  \cdot{\rm e}^{\hspace{0.05cm}{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm}n \hspace{0.05cm}\cdot \hspace{0.05cm}\omega_{\rm N} \hspace{0.02cm}\cdot \hspace{0.05cm} t }\end{align*}$$&lt;br /&gt;
*Die ockerfarbene Kurve in der Zeitbereichsdarstellung macht deutlich, dass sich das äquivalente Tiefpass-Signal durch diese Bandbegrenzung nur geringfügig vom (verzerrungsfreien) Halbkreis unterscheidet. &lt;br /&gt;
&lt;br /&gt;
Gibt man sich mit einem Klirrfaktor $K &amp;lt; 10\%$ zufrieden, so ist die HF–Bandbreite $B_{10 \%} ≈ 26\ \rm  kHz$ ausreichend. &lt;br /&gt;
*Damit werden auch die Fourierkoeffizienten $D_3$ und $D_{-3}$ abgeschnitten und die violett dargestellte Ortskurve beschreibt einen Parabelabschnitt. &lt;br /&gt;
*Die Simulation dieses Fallbeispiels liefert den Klirrfaktor $K ≈ 6\%$. Daran erkennt man, dass die Carson–Regel oft ein etwas zu pessimistisches Ergebnis liefert. }}&lt;br /&gt;
&lt;br /&gt;
==Realisierung eines FM–Modulators==&lt;br /&gt;
Eine Frequenzmodulation erhält man dann, wenn die Schwingfrequenz eines Oszillators im Rhythmus des modulierenden Signals verändert wird. Als frequenzbestimmende Elemente dienen meist RC–Glieder oder Schwingkreise. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1097__Mod_T_3_2_S6_neu.png |center|frame| Realisierung eines FM–Modulators und dessen Kennlinie]]&lt;br /&gt;
&lt;br /&gt;
Die linke Grafik zeigt eine schaltungstechnische Realisierungsform; die genaue Schaltungsbeschreibung finden Sie in [Mäu 88]&amp;lt;ref name= &amp;quot;Mäu 88&amp;quot;&amp;gt;Mäusl, R.: ''Analoge Modulationsverfahren.''  Heidelberg: Dr. Hüthig, 1988.&amp;lt;/ref&amp;gt;.  Rechts ist die idealisierte Frequenz–Spannungskennlinie dargestellt. An dieser Stelle sollen nur einige wenige Anmerkungen gemacht werden: &lt;br /&gt;
*Die anliegende Spannung $u(t)$ setzt sich additiv aus dem Quellensignal $q(t)$ und einem Gleichanteil $A_0$ zusammen, der den ''Arbeitspunkt'' festlegt. &lt;br /&gt;
*Die Kapazität $C$ der ''Kapazitätsdiode'' ist näherungsweise proportional zu $1/u^{2}(t)$, so dass sich die Schwingfrequenz des LC–Oszillators abhängig von $q(t)$ verändert. &lt;br /&gt;
*Bei nur kleiner Frequenzänderung hängen $u(t)$ und die Schwingfrequenz linear zusammen. Damit beträgt die ''Augenblickskreisfrequenz'' mit der Steigung $K_{\rm FM}$ der Modulatorkennlinie:  &amp;amp;nbsp; $\omega_{\rm A}(t) = \omega_{\rm T} + K_{\rm FM} \cdot q(t) \hspace{0.05cm}.$&lt;br /&gt;
*Die ''Gegentaktschaltung'' aus den beiden Kapazitätsdioden dient unter Anderem zur Kompensation von Unsymmetrien und damit zur Verminderung der quadratischen Verzerrungen. &lt;br /&gt;
*Legt man am Eingang die Summe aus dem Gleichanteil $A_0$ und dem differenzierten Quellensignal – also ${\rm d}q(t)/{\rm d}t$ – an, so erhält man am Ausgang das frequenzmodulierte Signal $s(t)$. &lt;br /&gt;
&lt;br /&gt;
==PLL–Realisierung eines FM–Demodulators==&lt;br /&gt;
Die Grafik zeigt eine Realisierungsmöglichkeit des FM–Demodulators. Weitere FM–Demodulatoren – zum Beispiel mittels Flankendiskriminator – werden in [Mäu 88]&amp;lt;ref name=&amp;quot;Mäu 88&amp;quot;/&amp;gt; ausführlich behandelt. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1098__Mod_T_3_2_S7_neu.png  |center|frame| PLL – Realisierung eines FM–Demodulators]]&lt;br /&gt;
&lt;br /&gt;
In Stichpunkten lässt sich diese Schaltung, die als Phasenregelschleife (''Phase–Locked–Loop'', PLL) arbeitet, wie folgt beschreiben: &lt;br /&gt;
*Der Phasendetektor ermittelt die Phasenunterschiede (Abstände der Nulldurchgänge) zwischen dem Empfangssignal $r(t)$ und dem vom VCO bereitgestellten Vergleichssignal. &lt;br /&gt;
*Das Ausgangssignal $v(t)$ nach Tiefpass–Filterung und Verstärkung ist dann näherungsweise gleich dem Quellensignal $q(t)$, wenn dieses sendeseitig FM–moduliert wurde. &lt;br /&gt;
*Das Ausgangssignal $v(t)$ wird gleichzeitig an den Eingang des spannungsgesteuerten Oszillators angelegt. Man bezeichnet diesen auch als ''Voltage Controlled Oscillator,'' abgekürzt VCO. &lt;br /&gt;
*Das Ausgangssignal des VCO wird permanent in der Weise nachgeregelt, dass dessen Frequenz der Augenblicksfrequenz $f_{\rm A}(t)$ des Empfangssignals entspricht. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Eine detaillierte Schaltungsbeschreibung des PLL–FM–Demodulators finden Sie ebenfalls in [Mäu 88]&amp;lt;ref name=&amp;quot;Mäu 88&amp;quot;/&amp;gt;. &lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel==&lt;br /&gt;
[[Aufgaben:3.5_PM_und_FM_bei_Rechtecksignalen|Aufgabe 3.5: &amp;amp;nbsp; PM und FM bei Rechtecksignalen]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.5Z_Phasenmodulation_eines_Trapezsignals|Zusatzaufgabe 3.5Z: &amp;amp;nbsp; Phasenmodulation eines Trapezsignals]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.6_PM_oder_FM%3F_Oder_AM%3F|Aufgabe 3.6: &amp;amp;nbsp; PM oder FM? Oder AM?]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.7_Winkelmodulation_einer_harmonischen_Schwingung|Aufgabe 3.7: &amp;amp;nbsp; Winkelmodulation einer harmonischen Schwingung]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.8_Modulationsindex_und_Bandbreite|Aufgabe 3.8: &amp;amp;nbsp; Modulationsindex und Bandbreite]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.9_Kreisbogen_und_Parabel|Aufgabe 3.9: &amp;amp;nbsp; Kreisbogen und Parabel]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Modulation_Methods/Influence_of_Noise_on_Systems_with_Angle_Modulation&amp;diff=21262</id>
		<title>Modulation Methods/Influence of Noise on Systems with Angle Modulation</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Modulation_Methods/Influence_of_Noise_on_Systems_with_Angle_Modulation&amp;diff=21262"/>
		<updated>2018-01-02T17:59:32Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Winkelmodulation und WM–Demodulation&lt;br /&gt;
|Vorherige Seite=Frequenzmodulation (FM)&lt;br /&gt;
|Nächste Seite=Pulscodemodulation&lt;br /&gt;
}}&lt;br /&gt;
==Signal–zu–Rausch–Leistungsverhältnis bei PM==&lt;br /&gt;
Zur Untersuchung des Rauschverhaltens gehen wir wieder vom so genannten [[Modulationsverfahren/Qualitätskriterien#Einige_Anmerkungen_zum_AWGN.E2.80.93Kanalmodell|AWGN–Kanal]] aus und berechnen das Sinken–SNR $ρ_v$ in Abhängigkeit &lt;br /&gt;
[[File:Mod_T_3_3_S1_version2.png|right|frame|Signal–zu–Rausch–Leistungsverhältnis bei Phasenmodulation]]&lt;br /&gt;
*der Frequenz (Bandbreite) $B_{\rm NF}$ des cosinusförmigen Quellensignals, &lt;br /&gt;
*der Sendeleistung $P_{\rm S}$, &lt;br /&gt;
*des Kanaldämpfungsfaktors $α_{\rm K}$, und &lt;br /&gt;
*der (einseitigen) Rauschleistungsdichte $N_0$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die prinzipielle Vorgehensweise wird im Abschnitt [[Modulationsverfahren/Qualitätskriterien#Untersuchungen_beim_AWGN.E2.80.93Kanal|Untersuchungen beim AWGN-Kanal]] ausführlich beschrieben. &lt;br /&gt;
&lt;br /&gt;
Ist die Leistungskenngröße&lt;br /&gt;
:$$\xi  =  \frac{\alpha_{\rm K}^2 \cdot P_{\rm S}}{N_0 \cdot B_{\rm NF}}$$&lt;br /&gt;
hinreichend groß, so erhält man bei Phasenmodulation mit dem Modulationsindex $η$ folgende Näherung: &lt;br /&gt;
$$\rho_{v  }  \approx {\eta^2}/{2}  \cdot\xi \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Das bedeutet, dass bei Phasenmodulation das Sinken–SNR mit wachsendem $η$ quadratisch zunimmt. &lt;br /&gt;
&lt;br /&gt;
Die exakte Berechnung von $ρ_v$ ist nicht ganz einfach und auch langwierig. Hier soll nur der Rechenweg kurz geschildert werden: &lt;br /&gt;
*Man approximiert das weiße Rauschen $n(t)$ mit der Bandbreite $B_{\rm HF}$ durch eine Summe von Sinusstörern im Abstand $f_{\rm St}$ (siehe Skizze im nächsten Abschnitt). &lt;br /&gt;
*Man berechnet für jeden einzelnen Sinusstörer das S/N–Verhältnis nach der Demodulation und addiert die einzelnen Beiträge, die nun alle im Tiefpassbereich $|f| &amp;lt; B_{\rm NF}$ liegen. &lt;br /&gt;
*Das obige einfache Ergebnis erhält man nach dem Grenzübergang $f_{\rm St} → 0$. Die Summe geht dann in ein Integral über und dieses kann unter Ausnutzung einiger Näherungen gelöst werden. &lt;br /&gt;
&lt;br /&gt;
==Signal–zu–Rausch–Leistungsverhältnis bei FM==&lt;br /&gt;
Zur Berechnung nutzt man hier die Tatsache, dass der FM–Demodulator mit einem PM–Demodulator und einem Differenzierer realisiert werden kann. &lt;br /&gt;
&lt;br /&gt;
[[File:Mod_T_3_3_S2a_version2.png|right|frame|FM–Demodulator, realisiert als PM–Demodulator und Differenzierer]]&lt;br /&gt;
&lt;br /&gt;
Das Blockschaltbild bezieht sich allein auf die Rauschsignale  &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $s(t) = 0$. Damit ist das Empfangssignal $r(t)$ gleich $n(t)$, wobei für $n(t)$ additives weißes Gaußsches Rauschen mit der Mittenfrequenz $f_{\rm T}$ und der Bandbreite $B_{\rm HF}$ anzusetzen ist. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Bei der Berechnung der Rauschleistungsdichte nach dem FM–Demodulator ist zu berücksichtigen: &lt;br /&gt;
*Die Rauschleistungsdichte ${\it Φ}_{v,\hspace{0.05cm}{\rm PM}}(f)$ nach dem PM–Demodulator liegt im Tiefpassbereich, besitzt die (einseitige) Bandbreite $B_{\rm NF}$ und ist ebenfalls „weiß” (siehe linke Skizze in der unteren Grafik). &lt;br /&gt;
*Die Leistungsdichte am Ausgang eines linearen Systems mit Frequenzgang $H(f)$ lautet allgemein, wenn am Eingang die Rauschleistungsdichte  ${\it Φ}_{v,\hspace{0.05cm}{\rm PM}}(f)$ anliegt: &lt;br /&gt;
:$${ \it \Phi}_{v {\rm , \hspace{0.05cm}FM} } (f) = { \it \Phi}_{v {\rm , \hspace{0.05cm}PM} } (f) \cdot&lt;br /&gt;
 |H(f)|^2  \hspace{0.05cm}.$$&lt;br /&gt;
*Der Differenzierer ist ein solches lineares System. Sein Frequenzgang $H(f)$ steigt linear mit $f$ an, und es gilt für die Rauschleistungsdichte am Ausgang des FM-Demodulators (siehe rechte Skizze  in der unteren Grafik):&lt;br /&gt;
:$${ \it \Phi}_{v {\rm , \hspace{0.05cm}FM} } (f) = {\rm const. } \cdot&lt;br /&gt;
 f^2 \cdot { \it \Phi}_{v {\rm , \hspace{0.05cm}PM} }(f) \hspace{0.05cm}.$$&lt;br /&gt;
*Berücksichtigt man dieses Ergebnis, so kommt man nach längerer Rechnung zum folgenden Sinken–SNR, falls die Leistungskenngröße $ξ$ hinreichend groß ist: &lt;br /&gt;
:$$\rho_{v  }  \approx  \frac{3\eta^2}{2} \cdot \frac{\alpha_{\rm K}^2 \cdot P_{\rm S}}{N_0 \cdot B_{\rm NF}} = 3/2 \cdot{\eta^2} \cdot\xi \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Grafik verdeutlicht, dass ${\it Φ}_{v,\hspace{0.05cm}{\rm FM}}(f)$ im Gegensatz zu ${\it Φ}_{v,\hspace{0.05cm}{\rm PM}}(f)$ nicht weiß ist, sondern zu den Grenzen hin quadratisch ansteigt. Bei der Frequenz $f = 0$ besitzt ${\it Φ}_{v,\hspace{0.05cm}{\rm FM}}(f)$ dagegen keine Rauschanteile. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1114__Mod_T_3_3_S2b_neu.png |center|frame| Rauschleistungsdichtespektren bei PM (links) und FM (rechts)]]&lt;br /&gt;
&lt;br /&gt;
==Systemvergleich von AM, PM und FM hinsichtlich Rauschen==&lt;br /&gt;
[[File:Mod_T_3_3_S3_version2.png|right|frame|Systemvergleich von AM, PM und FM hinsichtlich Rauschen]]&lt;br /&gt;
Wie schon im Abschnitt [[Modulationsverfahren/Qualitätskriterien#Untersuchungen_beim_AWGN.E2.80.93Kanal|Untersuchungen beim AWGN-Kanal]] ausführlich erläutert und im Abschnitt [[Modulationsverfahren/Synchrondemodulation#Sinken-SNR_und_Leistungskenngr.C3.B6.C3.9Fe|Sinken-SNR und Leistungskenngröße]] auf die Amplitudenmodulation angewandtt, betrachten wir wieder die doppelt-logarithmische Darstellung des Sinken–SNR $ρ_υ$ über der Kenngröße&lt;br /&gt;
:$$\xi  =  \frac{\alpha_{\rm K}^2 \cdot P_{\rm S}}{N_0 \cdot B_{\rm NF}}.$$&lt;br /&gt;
&lt;br /&gt;
Diese qualitativ zu verstehenden Kurven sind wie folgt zu interpretieren: &lt;br /&gt;
&lt;br /&gt;
*Die ''Vergleichskurve'' liefert die ZSB–AM ohne Träger, das heißt mit Modulationsgrad $m → ∞$. Hier gilt $ρ_υ = ξ$ und auch bei doppelt–logarithmischer Darstellung ergibt sich eine $45^\circ$–Gerade durch den Ursprung. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Die ''FM–Kurve'' mit $η = 3$ liegt um $10 · \lg \ 13.5 ≈ 11.3  \ \rm dB$ über der AM–Kurve. Anschaulich kann man das bessere Rauschverhalten der Frequenzmodulation dadurch erklären, dass ein additiver Rauschanteil die Lage der Nulldurchgänge weniger beeinflusst als er die Amplitudenwerte verändert. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Ist das wirksame Rauschen sehr groß und damit die Leistungskenngröße klein $(10 · \lg \ ξ ≤ 15  \ \rm dB)$, so ist Winkelmodulation nicht zu empfehlen. Aufgrund des Rauschens können Nulldurchgänge völlig verschwinden und so deren Detektion unmöglich machen. Man spricht vom ''FM–Knick''. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Hinsichtlich Rauschen ist ein ''möglichst großer Modulationsindex'' anzustreben. So liegt die Kurve für $η = 10$ um etwa $10.4 \ \rm dB$ über der Kurve für $η = 3$. Zu berücksichtigen ist allerdings, dass ein größeres $η$ auch eine größere Bandbreite erfordert oder – bei gegebener Kanalbandbreite – stärkere nichtlineare Verzerrungen hervorruft. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Bei gleichem Modulationsindex ist die Phasenmodulation stets um $10 \cdot \lg \ 3 ≈ 4.8 \ \rm dB$ schlechter als die Frequenzmodulation. Dies ist einer der Gründe, warum die analoge Phasenmodulation in der Praxis nur wenig Bedeutung hat. Dagegen wird bei digitaler Modulation die Variante ''Phase Shift Keying'' (PSK) aufgrund anderer Vorteile häufiger eingesetzt als ''Frequency Shift Keying'' (FSK). &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Alle angegebenen Kurven gelten quantitativ nur für eine harmonische Schwingung (eine Frequenz). Bei einem Frequenzgemisch – das in der Praxis stets vorliegt – gelten die Kurven nur qualitativ. &lt;br /&gt;
&lt;br /&gt;
==Preemphase und Deemphase==&lt;br /&gt;
Ein wichtiges Ergebnis der letzten Abschnitte war, dass das Sinken–SNR bei FM entsprechend $\rho_{v  }  \approx 1.5 \cdot{\eta^2} \cdot\xi \hspace{0.05cm}$ in guter Näherung quadratisch vom Modulationsindex abhängt. Da aber bei Frequenzmodulation der Modulationsindex $η$ umgekehrt proportional zur Nachrichtenfrequenz $f_{\rm N}$ ist, hängt auch das Sinken–SNR von $f_{\rm N}$ ab. Daraus ergeben sich folgende Konsequenzen: &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Besteht das Nachrichtensignal aus mehreren Frequenzen, so weisen die höheren Frequenzen nach einer FM–Modulation einen kleineren Modulationsindex $η$ auf als die niedrigeren Frequenzen. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Die höheren Frequenzanteile (mit kleinerem $η$) sind entsprechend stärker verrauscht als niedrigere Frequenzen, wenn nicht besondere Maßnahmen getroffen werden.&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
*Eine solche Maßnahme ist beispielsweise eine ''Preemphase''. Dabei werden höhere Frequenzen durch ein Hochpass–Filternetzwerk $H_{\rm PE}(f)$ angehoben und für diese der Modulationsindex erhöht. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
*Die sendeseitige Preemphase muss beim Empfänger durch ein Netzwerk $H_{\rm DE}(f) = 1/H_{\rm PE}(f)$ rückgängig gemacht werden. Dieses Absenken der höheren Frequenzen nennt man ''Deemphase. &lt;br /&gt;
&lt;br /&gt;
[[File:Mod_T_3_3_S4_version2.png|right|frame| Preemphase und Deemphase]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt ein mögliches Beispiel für die Filterfunktionen von &lt;br /&gt;
*Preemphase (blau) &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp;  $|H_{{\rm PE} } (f)| \sqrt{1 + \left({f}/{f_{\rm G}}\right)^2}\hspace{0.05cm},$&lt;br /&gt;
*Deemphase (rot) &amp;amp;nbsp; &amp;amp;rArr; &amp;amp;nbsp;  $|H_{{\rm DE} } (f)| = |H_{{\rm PE} } (f)|^{-1} \hspace{0.05cm}.$&lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Modulation_Methods/Frequency_Modulation_(FM)&amp;diff=21261</id>
		<title>Modulation Methods/Frequency Modulation (FM)</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Modulation_Methods/Frequency_Modulation_(FM)&amp;diff=21261"/>
		<updated>2018-01-02T17:55:37Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Winkelmodulation und WM–Demodulation&lt;br /&gt;
|Vorherige Seite=Phasenmodulation (PM)&lt;br /&gt;
|Nächste Seite=Rauscheinfluss bei Winkelmodulation&lt;br /&gt;
}}&lt;br /&gt;
==Augenblicksfrequenz==&lt;br /&gt;
Wir gehen wieder von einem winkelmodulierten Signal aus: &lt;br /&gt;
:$$s(t) =  A_{\rm T} \cdot \cos (\psi(t)).$$&lt;br /&gt;
Alle Informationen über das Quellensignal $q(t)$ &lt;br /&gt;
*sind damit ausschließlich in der Winkelfunktion $ψ(t)$ enthalten, &lt;br /&gt;
*während die Hüllkurve $a(t) = A_{\rm T}$ konstant ist. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definitionen:}$&amp;amp;nbsp; Die '''Augenblickskreisfrequenz''' ist die Ableitung der Winkelfunktion nach der Zeit:&lt;br /&gt;
:$$\omega_{\rm A}(t) = \frac{ {\rm d}\psi(t)}{ {\rm d}t}\hspace{0.05cm}.$$&lt;br /&gt;
Entsprechend gilt für die '''Augenblicksfrequenz''': &lt;br /&gt;
:$$f_{\rm A}(t) = \frac{\omega_{\rm A}(t)}{2\pi} = \frac{1}{2\pi} \cdot \frac{ {\rm d}\hspace{0.03cm}\psi(t)}{ {\rm d}t}\hspace{0.05cm}.$$&lt;br /&gt;
Der '''Frequenzhub''' ist die maximale Abweichung $Δf_{\rm A}$ der zeitabhängigen Augenblicksfrequenz $f_{\rm A}(t)$ von der konstanten Trägerfrequenz $f_{\rm T}$. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Bei einer Winkelmodulation mit der Trägerfrequenz $f_{\rm T}$ schwankt die Augenblicksfrequenz zwischen &lt;br /&gt;
:$$f_{\rm T} - \Delta f_{\rm A} \le f_{\rm A}(t) \le f_{\rm T} + \Delta f_{\rm A}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Hervorzuheben ist, dass ein grundsätzlicher Unterschied zwischen der Augenblicksfrequenz $f_{\rm A}(t)$ und dem mit einem Spektrum–Analyzer messbaren Spektrum $S(f)$ eines winkelmodulierten Signals $s(t)$ besteht, wie das nachfolgende Beispiel verdeutlichen soll. &lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; Die Grafik zeigt oben das phasenmodulierte Signal &lt;br /&gt;
:$$s(t) =  A_{\rm T} \cdot \cos (\psi(t)) = A_{\rm T} \cdot \cos(2 \pi  f_{\rm T}  \hspace{0.05cm}t + \eta \cdot \sin (2 \pi f_{\rm N} \hspace{0.05cm} t))$$&lt;br /&gt;
&lt;br /&gt;
sowie unten die Augenblicksfrequenz&lt;br /&gt;
:$$f_{\rm A}(t) = \frac{1}{2 \pi} \cdot \frac{ {\rm d}\hspace{0.03cm}\psi(t)}{ {\rm d}t} = f_{\rm T} + \Delta f_{\rm A}\cdot \cos (2 \pi  f_{\rm N} \hspace{0.05cm} t) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Die Systemparameter sind dabei $f_{\rm T} = 50 \ \rm kHz$, $f_{\rm N} = 5 \ \rm kHz$ und $η = 3$. Daraus ergibt sich der Frequenzhub zu $Δf_{\rm A} = η · f_{\rm N} = 15 \ \rm  kHz$. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1101__Mod_T_3_2_S1_neu.png |center|frame| Zur Verdeutlichung der Augenblicksfrequenz]]&lt;br /&gt;
&lt;br /&gt;
In der Mitte ist zur Orientierung der qualitative Verlauf des sinusförmigen Quellensignals $q(t)$ skizziert. Man erkennt aus diesen Grafiken: &lt;br /&gt;
*Die Augenblicksfrequenz $f_{\rm A}(t)$ kann alle beliebigen Werte zwischen $f_{\rm T} + Δf_{\rm A} = 65 \ \rm kHz$ (bei $t = 50\ \rm  μs, 250 \ μs$, usw.) und $f_{\rm T} \ – Δf_{\rm A} = 35 \ \rm kHz$ (bei $t = 150\ \rm  μs, 350 \ μs$, usw.) annehmen (siehe grüne Markierungen). Zur Zeit $t ≈ 16.7 \ \rm μs$ gilt beispielsweise $f_{\rm A}(t) = 57.5 \ \rm  kHz$ (violetter Pfeil). &lt;br /&gt;
*Dagegen besteht die Spektralfunktion $S(f)$ aus diskreten Bessellinien bei den Frequenzen ... , $30, 35, 40, 45, \mathbf{50}, 55, 60, 65, 70$, ... (jeweils in $\rm kHz$). Eine Spektrallinie bei $f = 57.5 \ \rm  kHz$ gibt es nicht im Gegensatz zu einer Spektrallinie bei $f = 70 \ \rm   kHz$. Dagegen gilt zu keinem Zeitpunkt $f_{\rm A}(t) = 70 \ \rm  kHz$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
$\text{Ergo:}$&amp;amp;nbsp; Die Augenblicksfrequenz $f_{\rm A}(t)$ ist also keine physikalisch messbare Frequenz im herkömmlichen Sinne, sondern nur eine fiktive, mathematische Größe, nämlich die Ableitung der Winkelfunktion $ψ(t)$.}} &lt;br /&gt;
&lt;br /&gt;
==Signalverläufe bei Frequenzmodulation==&lt;br /&gt;
Wie im Kapitel [[Modulationsverfahren/Phasenmodulation_(PM)|Phasenmodulation]] gehen wir weiterhin davon aus, dass das Trägersignal $z(t)$ cosinusförmig verläuft und das Quellensignal $q(t)$ spitzenwertbegrenzt ist.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ist bei einem Übertragungssystem die Augenblickskreisfrequenz $ω_{\rm A}(t)$ linear abhängig vom Momentanwert des Quellensignals $q(t)$, so spricht man von '''Frequenzmodulation''' (FM): &lt;br /&gt;
$$\omega_{\rm A}(t) = 2 \pi \cdot f_{\rm A}(t) = \omega_{\rm T} + K_{\rm FM} \cdot q(t)&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
Hierbei bezeichnet $K_{\rm FM}$ eine dimensionsbehaftete Konstante. Beschreibt $q(t)$ einen Spannungsverlauf, so hat $K_{\rm FM}$ die Einheit $\rm V^{–1}s^{–1}$. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Für die Winkelfunktion und das modulierte Signal erhält man bei Frequenzmodulation: &lt;br /&gt;
:$$\psi(t) = \omega_{\rm T} \cdot t + K_{\rm FM} \cdot \int q(t)\hspace{0.1cm}{\rm d}t \hspace{0.05cm}\hspace{0.3cm}\Rightarrow \hspace{0.3cm}s(t) = A_{\rm T} \cdot \cos (\psi(t)) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Aus dieser Gleichung lässt sich sofort ablesen: &lt;br /&gt;
*Auch bei der Frequenzmodulation bewegt sich das äquivalente T+iefpass–Signal wegen der konstanten Hüllkurve  ⇒  $a(t) = A_{\rm T}$ auf einem Kreisbogen. &lt;br /&gt;
*Ein Frequenzmodulator kann mit Hilfe eines Integrators und eines Phasenmodulators realisiert werden. Der FM–Demodulator besteht demzufolge aus PM–Demodulator und Differenzierer, wie im oberen Teil der folgenden Grafik dargestellt. &lt;br /&gt;
*Die zweite Darstellung zeigt den umgekehrten Zusammenhang, nämlich die mögliche Beschreibung von PM–Modulator und –Demodulator durch die entsprechenden FM–Komponenten. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1093__Mod_T_3_2_S2_neu.png |center|frame|Zusammenhang zwischen PM und FM]]&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus obiger Gleichung auch, dass die auf der Seite [[Modulationsverfahren/Allgemeines_Modell_der_Modulation#Eine_sehr_einfache.2C_leider_nicht_ganz_richtige_Modulatorgleichung|Eine sehr einfache, leider nicht ganz richtige Modulatorgleichung]] im ersten Kapitel dieses Buches angegebene Gleichung im Fall der Frequenzmodulation nur in Sonderfällen gültig sein wird. Die Umwandlung &lt;br /&gt;
:$$s(t) = a(t) \cdot \cos (\omega (t) \cdot t + \phi(t)) \hspace{0.3cm}\Rightarrow \hspace{0.3cm} s(t) = A_{\rm T} \cdot \cos (\omega (t) \cdot t + \phi_{\rm T})$$&lt;br /&gt;
ist bei Frequenzmodulation nur manchmal erlaubt, zum Beispiel beim nichtlinearen digitalen Modulationsverfahren [[Modulationsverfahren/Nichtlineare_Modulationsverfahren#FSK_.E2.80.93_Frequency_Shift_Keying|Frequency Shift Keying]] (FSK) mit rechteckförmigem Grundimpuls. &lt;br /&gt;
&lt;br /&gt;
==Frequenzmodulation eines Cosinussignals==&lt;br /&gt;
Bei cosinusförmigem Quellensignal $q(t)$ und Frequenzmodulation gilt für die Augenblickskreisfrequenz:&lt;br /&gt;
:$$q(t) = A_{\rm N} \cdot \cos (\omega_{\rm N} \cdot t)\hspace{0.3cm}\Rightarrow \hspace{0.3cm} \omega_{\rm A}(t) = \omega_{\rm T} + K_{\rm FM} \cdot A_{\rm N} \cdot \cos(\omega_{\rm N} \cdot t)\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Integriert man diese über die Zeit, so erhält man die Winkelfunktion:&lt;br /&gt;
:$$\psi(t) = \omega_{\rm T} \cdot t + \frac {K_{\rm FM} \cdot A_{\rm N}}{\omega_{\rm N}} \cdot \sin (\omega_{\rm N} \cdot t) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ein Vergleich mit den Aussagen im Kapitel [[Modulationsverfahren/Phasenmodulation_(PM)|Phasenmodulation]]  macht deutlich: &lt;br /&gt;
*Die Frequenzmodulation eines Cosinussignals ergibt qualitativ das gleiche Sendesignal $s(t)$ wie die Phasenmodulation eines sinusförmigen Quellensignals $q(t)$. &lt;br /&gt;
*Voraussetzung hierfür ist allerdings, dass die Modulatorkonstanten entsprechend dem Verhältnis $K_{\rm FM}/K_{\rm PM} = ω_{\rm N}$ aneinander angepasst sind. &lt;br /&gt;
*Das Sendesignal $s(t)$ lässt sich somit bei den beiden Konstellationen „PM – Sinussignal” sowie „FM – Cosinussignal” einheitlich beschreiben:&lt;br /&gt;
:$$s(t) = A_{\rm T} \cdot \cos (\omega_{\rm T} \cdot t + \eta \cdot \sin (\omega_{\rm N} \cdot t)) \hspace{0.05cm}.$$&lt;br /&gt;
*Allerdings sind bei Anwendung dieser Gleichung für den Modulationsindex $η$ bei Phasen– und Frequenzmodulation unterschiedliche Definitionsgleichungen zu verwenden: &lt;br /&gt;
:$$\eta_{\rm PM} = {K_{\rm PM} \cdot A_{\rm N}},\hspace{0.5cm}\eta_{\rm FM} = \frac {K_{\rm FM} \cdot A_{\rm N}}{\omega_{\rm N}} \hspace{0.05cm}.$$&lt;br /&gt;
*Ist das Quellensignal keine harmonische Schwingung, sondern setzt sich aus mehreren Frequenzen zusammen, so unterscheiden sich die Zeitsignale bei Phasen- und Frequenzmodulation auch qualitativ. Dies erkennt man beispielsweise beim [[Modulationsverfahren/Allgemeines_Modell_der_Modulation#Modulierte_Signale_bei_digitalem_Quellensignal|früheren Vergleich von PSK und FSK]]. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp; &lt;br /&gt;
Wir gehen nun von einem cosinusförmigen Quellensignal $q(t)$ mit der Amplitude $A_{\rm N} = 3 \ \rm V$ und der Frequenz $f_{\rm N} = 5  \ \rm kHz$ aus und betrachten die Signalverläufe von Phasenmodulation (PM) und Frequenzmodulation (FM) bei gleichem Modulationsindex $η = 1.5$. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1094__Mod_T_3_2_S3_neu.png|center|frame|PM und FM eines Cosinussignals mit η = 1.5]]&lt;br /&gt;
&lt;br /&gt;
Die mittlere Grafik zeigt das phasenmodulierte Signal für die Modulatorparameter $f_{\rm T} = 50  \ \rm kHz$ und $K_{\rm PM} = \rm 0.5 V^{–1}$ &lt;br /&gt;
:$$s_{\rm PM}(t) = A_{\rm T} \cdot \cos (\omega_{\rm T} \cdot t + \eta \cdot \cos (\omega_{\rm N} \cdot t)) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Bei PM ergibt sich mit $A_{\rm N} = 3 \ \rm V$ für den Modulationsindex (oder Phasenhub) $η = 1.5 ≈ π/2$. &lt;br /&gt;
*Die maximale Abweichung der Nulldurchgänge von ihren (äquidistanten) Solllagen beträgt somit etwa ein Viertel der Trägerperiode. &lt;br /&gt;
*Ist das Quellensignal $q(t) &amp;gt; 0$, so kommen die Nulldurchgänge verfrüht, bei $q(t) &amp;lt; 0$ verspätet. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die untere Grafik zeigt das frequenzmodulierte Signal mit gleichem Modulationsindex $η$:&lt;br /&gt;
:$$s_{\rm FM}(t) = A_{\rm T} \cdot \cos (\omega_{\rm T} \cdot t + \eta \cdot \sin (\omega_{\rm N} \cdot t)) \hspace{0.05cm}.$$ &lt;br /&gt;
&lt;br /&gt;
Erreicht wird in diesem Fall $η = 1.5$ beispielsweise durch die Modulatorkonstante&lt;br /&gt;
:$$K_{\rm FM} = \frac {\eta \cdot \omega_{\rm N} }{A_{\rm N} } = {K_{\rm PM} \cdot \omega_{\rm N} } = 0.5\,{\rm V}^{-1} \cdot 2 \pi \cdot 5\,{\rm kHz} = 15708\,{\rm V}^{-1}{\rm s}^{-1} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Der Frequenzhub beträgt hier $Δf_{\rm A} = η · f_{\rm N} = 7.5 \ \rm  kHz$, und es treten Augenblicksfrequenzen zwischen $42.5$ und $57.5 \ \rm kHz$ auf. &lt;br /&gt;
*Die Nulldurchgänge stimmen nun bei den Maxima und den Minima des Quellensignals $q(t)$ mit denen des Trägersignals $z(t)$ überein, während die maximalen Phasenabweichungen bei den Nulldurchgängen von $q(t)$ zu erkennen sind. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==WM–Spektrum einer harmonischen Schwingung==&lt;br /&gt;
Nun setzen wir für das Quellensignal allgemein eine harmonische Schwingung mit der Phase $ϕ_{\rm N}$ voraus: &lt;br /&gt;
:$$q(t) = A_{\rm N} \cdot \cos(2 \pi f_{\rm N} \cdot t + \phi_{\rm N}).$$&lt;br /&gt;
Uns interessiert die Spektralfunktion $S(f)$. Zur einfacheren Darstellung betrachten wir im Folgenden das Betragsspektrum $|S_+(f)|$ des analytischen Signals, aus dem $|S(f)|$ in der bekannten Weise hergeleitet werden kann. Für jede Art von Winkelmodulation in der hier beschriebenen Weise – egal, ob Phasen– oder Frequenzmodulation – und auch unabhängig von der Phase $ϕ_{\rm N}$ des Quellensignals gilt: &lt;br /&gt;
:$$|S_{\rm +}(f)| = A_{\rm T} \cdot \sum_{n = - \infty}^{+\infty}|{\rm J}_n (\eta)| \cdot \delta [f -  (f_{\rm T} + n \cdot f_{\rm N})]\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Diese Gleichung lässt sich wie folgt begründen: &lt;br /&gt;
*Auf der Seite [[Modulationsverfahren/Phasenmodulation_(PM)#.C3.84quivalentes_TP.E2.80.93Signal_bei_Phasenmodulation|Äquivalentes TP-Signal bei PM]] wurde diese Gleichung für ein phasenmoduliertes Sinussignal abgeleitet, wobei $η = A_{\rm N} · K_{\rm PM}$ den Modulationsindex angibt und ${\rm J}_n(η)$ die Besselfunkton erster Art und $n$–ter Ordnung bezeichnet. $K_{\rm PM}$ ist die Modulatorkonstante. &lt;br /&gt;
*Durch eine andere Nachrichtenphase $ϕ_{\rm N}$ ändert sich nur die Phasenfunktion ${\rm arc} \ S_+(f)$, nicht aber das Betragsspektrum $|S_+(f)|$. Dieses wichtige Ergebnis wurde auch durch die [[Aufgaben:3.3Z_Kenngrößenbestimmung|Aufgabe 3.3Z]] bestätigt.&lt;br /&gt;
*Auf der Seite [[Modulationsverfahren/Frequenzmodulation_(FM)#Frequenzmodulation_eines_Cosinussignals|Frequenzmodulation eines Cosinussignals]] dieses Kapitels wurde gezeigt, dass ein FM–Signal in gleicher Weise wie ein PM–Signal dargestellt werden kann, wenn der Modulationsindex $η = K_{\rm FM} · A_{\rm N}/ω_{\rm N}$ verwendet wird. Folgerichtig sind auch die Betragsspektren bei Phasen- und Frequenzmodulation in gleicher Form darstellbar. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wir verweisen hier gerne auch auf den zweiten Teil des Lernvideos [[Winkelmodulation_-_Frequenz-_und_Phasenmodulation_(Lernvideo)|Winkelmodulation - Frequenz- und Phasenmodulation]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; &lt;br /&gt;
Wir betrachten wieder eine harmonische Schwingung mit der Amplitude $A_{\rm N} = 3 \ \rm V$ nach &lt;br /&gt;
*einer Phasenmodulation mit $K_{\rm PM} = \rm 0.5 \ \rm  V^{–1}$, &lt;br /&gt;
*einer Frequenzmodulation mit $K_{\rm FM} = \rm 15708 \ \rm V^{–1}s^{–1}$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die zugehörigen Signalverläufe sind im [[Modulationsverfahren/Frequenzmodulation_(FM)#Frequenzmodulation_eines_Cosinussignals|Beispiel 2]] dargestellt. &lt;br /&gt;
*Bei beiden Systemen ergibt sich für $f_{\rm N} = 5  \ \rm kHz$ ein Besselspektrum mit dem Modulationsindex $η = 1.5$. &lt;br /&gt;
*Die identischen Betragsspektren des analytischen Signals (nur positive Frequenzen) sind in der oberen Bildhälfte dargestellt. Bessellinien mit Werten kleiner als $0.03$ sind hierbei vernachlässigt. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1095__Mod_T_3_2_S4_neu.png|center|frame|Diskrete Spektren bei Phasen– und Frequenzmodulation]]&lt;br /&gt;
&lt;br /&gt;
Die unteren Grafiken gelten für die Nachrichtenfrequenz $f_{\rm N} = 3 \ \rm kHz$. Man erkennt: &lt;br /&gt;
*Bei der Phasenmodulation ergibt sich gegenüber $f_{\rm N} = 5 \ \rm kHz$ eine schmalere Spektralfunktion, da nun der Abstand der Bessellinien nur mehr $3 \ \rm kHz$ beträgt. Da sich der Modulationsindex $η = 1.5$ nicht ändert, ergeben sich die gleichen Besselgewichte wie bei $f_{\rm N} = 5 \ \rm kHz$. &lt;br /&gt;
*Auch bei der Frequenzmodulation treten nun die Bessellinien im Abstand von $3 \ \rm kHz$ auf. Es gibt aber nun aufgrund des größeren Modulationsindex $η = 2.5$  deutlich mehr Bessellinien als im rechten oberen (für $η = 1.5$ gültigen) Diagramm. Bei Frequenzmodulation ist $η$ umgekehrt proportional zu $f_{\rm N}$.}}&lt;br /&gt;
&lt;br /&gt;
==Einfluss einer Bandbegrenzung bei Winkelmodulation==&lt;br /&gt;
Fassen wir einige Resultate dieses Abschnittss kurz zusammen, wobei wir beispielhaft die Trägerfrequenz $f_{\rm T} = 100 \ \rm kHz$, die Nachrichtenfrequenz $f_{\rm N} = 5  \ \rm kHz$ und den Modulationsindex $η = π/2$ voraussetzen: &lt;br /&gt;
&lt;br /&gt;
*Das Spektrum einer winkelmodulierten Schwingung besteht aus Bessellinien um den Träger $f_{\rm T}$ im Abstand $f_{\rm N}$ der Nachrichtenfrequenz und ist theoretisch unendlich weit ausgedehnt. &lt;br /&gt;
&lt;br /&gt;
*Selbst wenn man alle Spektrallinien mit Beträgen kleiner als  $0.01$ vernachlässigt, beträgt die dann endliche Bandbreite für $η = π/2$ noch immer $B_{\rm HF} = 8 · f_{\rm N} = 40  \ \rm kHz$. &lt;br /&gt;
&lt;br /&gt;
*Die Ortskurve – also der Verlauf des äquivalenten Tiefpass–Signals in der komplexen Ebene – ist im Idealfall ein Kreisbogen mit einem Öffnungswinkel von $±1.57 \ {\rm rad} = ±90^\circ$. &lt;br /&gt;
&lt;br /&gt;
*Dieser Kreisbogen nach der vektoriellen Addition ergibt sich allerdings nur dann, wenn alle Bessellinien in der Ortskurve mit den richtigen Zeigerlängen, Phasenlagen und Kreisfrequenzen rotieren. &lt;br /&gt;
&lt;br /&gt;
*Logischerweise wird die kreisbogenförmige Ortskurve verändert, wenn Spektrallinien verfälscht werden (z. B. durch lineare Kanalverzerrungen) oder ganz fehlen (z. B. durch eine Bandbegrenzung). &lt;br /&gt;
&lt;br /&gt;
*Da der ideale Winkeldemodulator die Phase $ϕ_r(t)$ des Empfangssignals detektiert und daraus das Sinkensignal $v(t)$ gewinnt, wird dieses verfälscht und zwar sogar nichtlinear &amp;amp;nbsp; ⇒  &amp;amp;nbsp; irreversibel. &lt;br /&gt;
&lt;br /&gt;
*Das bedeutet gleichzeitig: Aufgrund linearer Verzerrungen im Kanal kommt es zu nichtlinearen Verzerrungen im demodulierten Signal   &amp;amp;nbsp; ⇒  &amp;amp;nbsp;   es entstehen dadurch neue Frequenzen (Oberwellen). &lt;br /&gt;
&lt;br /&gt;
*Je kleiner die zur Verfügung stehende Bandbreite $B_{\rm HF}$ ist und je größer der Modulationsindex $η$ gewählt wird, desto größer wird der die nichtlinearen Verzerrungen beschreibende Klirrfaktor $K$. &lt;br /&gt;
&lt;br /&gt;
*Als Faustformel für die erforderliche HF–Bandbreite für einen geforderten Klirrfaktor $K$ &amp;amp;nbsp; ⇒  &amp;amp;nbsp; ''Carson–Regel'' gilt: &lt;br /&gt;
:$$K &amp;lt; 10\%: B_{\rm HF}  \ge  2 \cdot f_{\rm N} \cdot (\eta +1)\hspace{0.05cm},$$&lt;br /&gt;
:$$K &amp;lt; 1\%\hspace{0.12cm}: B_{\rm HF} \ge 2 \cdot f_{\rm N} \cdot(\eta +2)\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Wir gehen weiterhin von den Systemparametern $f_{\rm T} = 100 \ \rm kHz$, $f_{\rm N} = 5 \ \rm kHz$ und $η =  π/2$ aus. Die Grafik zeigt für diesen Fall links das Betragsspektrum $ \vert S_{\rm TP}(f) \vert$ des äquivalenten Tiefpass–Signals und rechts die zugehörige komplexe Zeitfunktion $s_{\rm TP}(t)$. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1104__Mod_T_3_2_S5_neu.png|right|frame| Einfluss einer Bandbegrenzung bei Winkelmodulation]]&lt;br /&gt;
*Um den Klirrfaktor  auf Werte $K &amp;lt; 1\%$ zu begrenzen, ist nach der sog. Carson–Regel die HF–Bandbreite $B_{1 \%} ≈ 36 \ \rm  kHz$ erforderlich. &lt;br /&gt;
*In diesem Fall setzt sich das äquivalente Tiefpass–Signal aus der Konstanten $D_0$ und je drei entgegen dem Uhrzeigersinn $(D_1, D_2, D_3)$ bzw. im Uhrzeigersinn $(D_{-1}, D_{-2}, D_{-3})$ drehenden Zeigern zusammen:&lt;br /&gt;
:$$\begin{align*}r_{\rm TP}(t) &amp;amp; =  \sum_{n = - 3}^{+3}D_n  \cdot{\rm e}^{\hspace{0.05cm}{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm}n \hspace{0.05cm}\cdot \hspace{0.05cm}\omega_{\rm N} \hspace{0.02cm}\cdot \hspace{0.05cm} t }\end{align*}$$&lt;br /&gt;
*Die ockerfarbene Kurve in der Zeitbereichsdarstellung macht deutlich, dass sich das äquivalente Tiefpass-Signal durch diese Bandbegrenzung nur geringfügig vom (verzerrungsfreien) Halbkreis unterscheidet. &lt;br /&gt;
&lt;br /&gt;
Gibt man sich mit einem Klirrfaktor $K &amp;lt; 10\%$ zufrieden, so ist die HF–Bandbreite $B_{10 \%} ≈ 26\ \rm  kHz$ ausreichend. &lt;br /&gt;
*Damit werden auch die Fourierkoeffizienten $D_3$ und $D_{-3}$ abgeschnitten und die violett dargestellte Ortskurve beschreibt einen Parabelabschnitt. &lt;br /&gt;
*Die Simulation dieses Fallbeispiels liefert den Klirrfaktor $K ≈ 6\%$. Daran erkennt man, dass die Carson–Regel oft ein etwas zu pessimistisches Ergebnis liefert. }}&lt;br /&gt;
&lt;br /&gt;
==Realisierung eines FM–Modulators==&lt;br /&gt;
Eine Frequenzmodulation erhält man dann, wenn die Schwingfrequenz eines Oszillators im Rhythmus des modulierenden Signals verändert wird. Als frequenzbestimmende Elemente dienen meist RC–Glieder oder Schwingkreise. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1097__Mod_T_3_2_S6_neu.png |center|frame| Realisierung eines FM–Modulators und dessen Kennlinie]]&lt;br /&gt;
&lt;br /&gt;
Die linke Grafik zeigt eine schaltungstechnische Realisierungsform; die genaue Schaltungsbeschreibung finden Sie in [Mäu 88]&amp;lt;ref name= &amp;quot;Mäu 88&amp;quot;&amp;gt;Mäusl, R.: ''Analoge Modulationsverfahren.''  Heidelberg: Dr. Hüthig, 1988.&amp;lt;/ref&amp;gt;.  Rechts ist die idealisierte Frequenz–Spannungskennlinie dargestellt. An dieser Stelle sollen nur einige wenige Anmerkungen gemacht werden: &lt;br /&gt;
*Die anliegende Spannung $u(t)$ setzt sich additiv aus dem Quellensignal $q(t)$ und einem Gleichanteil $A_0$ zusammen, der den ''Arbeitspunkt'' festlegt. &lt;br /&gt;
*Die Kapazität $C$ der ''Kapazitätsdiode'' ist näherungsweise proportional zu $1/u^{2}(t)$, so dass sich die Schwingfrequenz des LC–Oszillators abhängig von $q(t)$ verändert. &lt;br /&gt;
*Bei nur kleiner Frequenzänderung hängen $u(t)$ und die Schwingfrequenz linear zusammen. Damit beträgt die ''Augenblickskreisfrequenz'' mit der Steigung $K_{\rm FM}$ der Modulatorkennlinie:  &amp;amp;nbsp; $\omega_{\rm A}(t) = \omega_{\rm T} + K_{\rm FM} \cdot q(t) \hspace{0.05cm}.$&lt;br /&gt;
*Die ''Gegentaktschaltung'' aus den beiden Kapazitätsdioden dient unter Anderem zur Kompensation von Unsymmetrien und damit zur Verminderung der quadratischen Verzerrungen. &lt;br /&gt;
*Legt man am Eingang die Summe aus dem Gleichanteil $A_0$ und dem differenzierten Quellensignal – also ${\rm d}q(t)/{\rm d}t$ – an, so erhält man am Ausgang das frequenzmodulierte Signal $s(t)$. &lt;br /&gt;
&lt;br /&gt;
==PLL–Realisierung eines FM–Demodulators==&lt;br /&gt;
Die Grafik zeigt eine Realisierungsmöglichkeit des FM–Demodulators. Weitere FM–Demodulatoren – zum Beispiel mittels Flankendiskriminator – werden in [Mäu 88]&amp;lt;ref name=&amp;quot;Mäu 88&amp;quot;/&amp;gt; ausführlich behandelt. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1098__Mod_T_3_2_S7_neu.png  |center|frame| PLL – Realisierung eines FM–Demodulators]]&lt;br /&gt;
&lt;br /&gt;
In Stichpunkten lässt sich diese Schaltung, die als Phasenregelschleife (''Phase–Locked–Loop'', PLL) arbeitet, wie folgt beschreiben: &lt;br /&gt;
*Der Phasendetektor ermittelt die Phasenunterschiede (Abstände der Nulldurchgänge) zwischen dem Empfangssignal $r(t)$ und dem vom VCO bereitgestellten Vergleichssignal. &lt;br /&gt;
*Das Ausgangssignal $v(t)$ nach Tiefpass–Filterung und Verstärkung ist dann näherungsweise gleich dem Quellensignal $q(t)$, wenn dieses sendeseitig FM–moduliert wurde. &lt;br /&gt;
*Das Ausgangssignal $v(t)$ wird gleichzeitig an den Eingang des spannungsgesteuerten Oszillators angelegt. Man bezeichnet diesen auch als ''Voltage Controlled Oscillator,'' abgekürzt VCO. &lt;br /&gt;
*Das Ausgangssignal des VCO wird permanent in der Weise nachgeregelt, dass dessen Frequenz der Augenblicksfrequenz $f_{\rm A}(t)$ des Empfangssignals entspricht. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Eine detaillierte Schaltungsbeschreibung des PLL–FM–Demodulators finden Sie ebenfalls in [Mäu 88]&amp;lt;ref name=&amp;quot;Mäu 88&amp;quot;/&amp;gt;. &lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel==&lt;br /&gt;
[[Aufgaben:3.5_PM_und_FM_bei_Rechtecksignalen|Aufgabe 3.5: &amp;amp;nbsp; PM und FM bei Rechtecksignalen]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.5Z_Phasenmodulation_eines_Trapezsignals|Zusatzaufgabe 3.5Z: &amp;amp;nbsp; Phasenmodulation eines Trapezsignals]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.6_PM_oder_FM%3F_Oder_AM%3F|Aufgabe 3.6: &amp;amp;nbsp; PM oder FM? Oder AM?]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.7_Winkelmodulation_einer_harmonischen_Schwingung|Aufgabe 3.7: &amp;amp;nbsp; Winkelmodulation einer harmonischen Schwingung]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.8_Modulationsindex_und_Bandbreite|Aufgabe 3.8: &amp;amp;nbsp; Modulationsindex und Bandbreite]]&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Modulation_Methods/Frequency_Modulation_(FM)&amp;diff=21260</id>
		<title>Modulation Methods/Frequency Modulation (FM)</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Modulation_Methods/Frequency_Modulation_(FM)&amp;diff=21260"/>
		<updated>2018-01-02T17:54:01Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Winkelmodulation und WM–Demodulation&lt;br /&gt;
|Vorherige Seite=Phasenmodulation (PM)&lt;br /&gt;
|Nächste Seite=Rauscheinfluss bei Winkelmodulation&lt;br /&gt;
}}&lt;br /&gt;
==Augenblicksfrequenz==&lt;br /&gt;
Wir gehen wieder von einem winkelmodulierten Signal aus: &lt;br /&gt;
:$$s(t) =  A_{\rm T} \cdot \cos (\psi(t)).$$&lt;br /&gt;
Alle Informationen über das Quellensignal $q(t)$ &lt;br /&gt;
*sind damit ausschließlich in der Winkelfunktion $ψ(t)$ enthalten, &lt;br /&gt;
*während die Hüllkurve $a(t) = A_{\rm T}$ konstant ist. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definitionen:}$&amp;amp;nbsp; Die '''Augenblickskreisfrequenz''' ist die Ableitung der Winkelfunktion nach der Zeit:&lt;br /&gt;
:$$\omega_{\rm A}(t) = \frac{ {\rm d}\psi(t)}{ {\rm d}t}\hspace{0.05cm}.$$&lt;br /&gt;
Entsprechend gilt für die '''Augenblicksfrequenz''': &lt;br /&gt;
:$$f_{\rm A}(t) = \frac{\omega_{\rm A}(t)}{2\pi} = \frac{1}{2\pi} \cdot \frac{ {\rm d}\hspace{0.03cm}\psi(t)}{ {\rm d}t}\hspace{0.05cm}.$$&lt;br /&gt;
Der '''Frequenzhub''' ist die maximale Abweichung $Δf_{\rm A}$ der zeitabhängigen Augenblicksfrequenz $f_{\rm A}(t)$ von der konstanten Trägerfrequenz $f_{\rm T}$. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Bei einer Winkelmodulation mit der Trägerfrequenz $f_{\rm T}$ schwankt die Augenblicksfrequenz zwischen &lt;br /&gt;
:$$f_{\rm T} - \Delta f_{\rm A} \le f_{\rm A}(t) \le f_{\rm T} + \Delta f_{\rm A}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Hervorzuheben ist, dass ein grundsätzlicher Unterschied zwischen der Augenblicksfrequenz $f_{\rm A}(t)$ und dem mit einem Spektrum–Analyzer messbaren Spektrum $S(f)$ eines winkelmodulierten Signals $s(t)$ besteht, wie das nachfolgende Beispiel verdeutlichen soll. &lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; Die Grafik zeigt oben das phasenmodulierte Signal &lt;br /&gt;
:$$s(t) =  A_{\rm T} \cdot \cos (\psi(t)) = A_{\rm T} \cdot \cos(2 \pi  f_{\rm T}  \hspace{0.05cm}t + \eta \cdot \sin (2 \pi f_{\rm N} \hspace{0.05cm} t))$$&lt;br /&gt;
&lt;br /&gt;
sowie unten die Augenblicksfrequenz&lt;br /&gt;
:$$f_{\rm A}(t) = \frac{1}{2 \pi} \cdot \frac{ {\rm d}\hspace{0.03cm}\psi(t)}{ {\rm d}t} = f_{\rm T} + \Delta f_{\rm A}\cdot \cos (2 \pi  f_{\rm N} \hspace{0.05cm} t) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Die Systemparameter sind dabei $f_{\rm T} = 50 \ \rm kHz$, $f_{\rm N} = 5 \ \rm kHz$ und $η = 3$. Daraus ergibt sich der Frequenzhub zu $Δf_{\rm A} = η · f_{\rm N} = 15 \ \rm  kHz$. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1101__Mod_T_3_2_S1_neu.png |center|frame| Zur Verdeutlichung der Augenblicksfrequenz]]&lt;br /&gt;
&lt;br /&gt;
In der Mitte ist zur Orientierung der qualitative Verlauf des sinusförmigen Quellensignals $q(t)$ skizziert. Man erkennt aus diesen Grafiken: &lt;br /&gt;
*Die Augenblicksfrequenz $f_{\rm A}(t)$ kann alle beliebigen Werte zwischen $f_{\rm T} + Δf_{\rm A} = 65 \ \rm kHz$ (bei $t = 50\ \rm  μs, 250 \ μs$, usw.) und $f_{\rm T} \ – Δf_{\rm A} = 35 \ \rm kHz$ (bei $t = 150\ \rm  μs, 350 \ μs$, usw.) annehmen (siehe grüne Markierungen). Zur Zeit $t ≈ 16.7 \ \rm μs$ gilt beispielsweise $f_{\rm A}(t) = 57.5 \ \rm  kHz$ (violetter Pfeil). &lt;br /&gt;
*Dagegen besteht die Spektralfunktion $S(f)$ aus diskreten Bessellinien bei den Frequenzen ... , $30, 35, 40, 45, \mathbf{50}, 55, 60, 65, 70$, ... (jeweils in $\rm kHz$). Eine Spektrallinie bei $f = 57.5 \ \rm  kHz$ gibt es nicht im Gegensatz zu einer Spektrallinie bei $f = 70 \ \rm   kHz$. Dagegen gilt zu keinem Zeitpunkt $f_{\rm A}(t) = 70 \ \rm  kHz$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
$\text{Ergo:}$&amp;amp;nbsp; Die Augenblicksfrequenz $f_{\rm A}(t)$ ist also keine physikalisch messbare Frequenz im herkömmlichen Sinne, sondern nur eine fiktive, mathematische Größe, nämlich die Ableitung der Winkelfunktion $ψ(t)$.}} &lt;br /&gt;
&lt;br /&gt;
==Signalverläufe bei Frequenzmodulation==&lt;br /&gt;
Wie im Kapitel [[Modulationsverfahren/Phasenmodulation_(PM)|Phasenmodulation]] gehen wir weiterhin davon aus, dass das Trägersignal $z(t)$ cosinusförmig verläuft und das Quellensignal $q(t)$ spitzenwertbegrenzt ist.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ist bei einem Übertragungssystem die Augenblickskreisfrequenz $ω_{\rm A}(t)$ linear abhängig vom Momentanwert des Quellensignals $q(t)$, so spricht man von '''Frequenzmodulation''' (FM): &lt;br /&gt;
$$\omega_{\rm A}(t) = 2 \pi \cdot f_{\rm A}(t) = \omega_{\rm T} + K_{\rm FM} \cdot q(t)&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
Hierbei bezeichnet $K_{\rm FM}$ eine dimensionsbehaftete Konstante. Beschreibt $q(t)$ einen Spannungsverlauf, so hat $K_{\rm FM}$ die Einheit $\rm V^{–1}s^{–1}$. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Für die Winkelfunktion und das modulierte Signal erhält man bei Frequenzmodulation: &lt;br /&gt;
:$$\psi(t) = \omega_{\rm T} \cdot t + K_{\rm FM} \cdot \int q(t)\hspace{0.1cm}{\rm d}t \hspace{0.05cm}\hspace{0.3cm}\Rightarrow \hspace{0.3cm}s(t) = A_{\rm T} \cdot \cos (\psi(t)) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Aus dieser Gleichung lässt sich sofort ablesen: &lt;br /&gt;
*Auch bei der Frequenzmodulation bewegt sich das äquivalente T+iefpass–Signal wegen der konstanten Hüllkurve  ⇒  $a(t) = A_{\rm T}$ auf einem Kreisbogen. &lt;br /&gt;
*Ein Frequenzmodulator kann mit Hilfe eines Integrators und eines Phasenmodulators realisiert werden. Der FM–Demodulator besteht demzufolge aus PM–Demodulator und Differenzierer, wie im oberen Teil der folgenden Grafik dargestellt. &lt;br /&gt;
*Die zweite Darstellung zeigt den umgekehrten Zusammenhang, nämlich die mögliche Beschreibung von PM–Modulator und –Demodulator durch die entsprechenden FM–Komponenten. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1093__Mod_T_3_2_S2_neu.png |center|frame|Zusammenhang zwischen PM und FM]]&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus obiger Gleichung auch, dass die auf der Seite [[Modulationsverfahren/Allgemeines_Modell_der_Modulation#Eine_sehr_einfache.2C_leider_nicht_ganz_richtige_Modulatorgleichung|Eine sehr einfache, leider nicht ganz richtige Modulatorgleichung]] im ersten Kapitel dieses Buches angegebene Gleichung im Fall der Frequenzmodulation nur in Sonderfällen gültig sein wird. Die Umwandlung &lt;br /&gt;
:$$s(t) = a(t) \cdot \cos (\omega (t) \cdot t + \phi(t)) \hspace{0.3cm}\Rightarrow \hspace{0.3cm} s(t) = A_{\rm T} \cdot \cos (\omega (t) \cdot t + \phi_{\rm T})$$&lt;br /&gt;
ist bei Frequenzmodulation nur manchmal erlaubt, zum Beispiel beim nichtlinearen digitalen Modulationsverfahren [[Modulationsverfahren/Nichtlineare_Modulationsverfahren#FSK_.E2.80.93_Frequency_Shift_Keying|Frequency Shift Keying]] (FSK) mit rechteckförmigem Grundimpuls. &lt;br /&gt;
&lt;br /&gt;
==Frequenzmodulation eines Cosinussignals==&lt;br /&gt;
Bei cosinusförmigem Quellensignal $q(t)$ und Frequenzmodulation gilt für die Augenblickskreisfrequenz:&lt;br /&gt;
:$$q(t) = A_{\rm N} \cdot \cos (\omega_{\rm N} \cdot t)\hspace{0.3cm}\Rightarrow \hspace{0.3cm} \omega_{\rm A}(t) = \omega_{\rm T} + K_{\rm FM} \cdot A_{\rm N} \cdot \cos(\omega_{\rm N} \cdot t)\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Integriert man diese über die Zeit, so erhält man die Winkelfunktion:&lt;br /&gt;
:$$\psi(t) = \omega_{\rm T} \cdot t + \frac {K_{\rm FM} \cdot A_{\rm N}}{\omega_{\rm N}} \cdot \sin (\omega_{\rm N} \cdot t) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ein Vergleich mit den Aussagen im Kapitel [[Modulationsverfahren/Phasenmodulation_(PM)|Phasenmodulation]]  macht deutlich: &lt;br /&gt;
*Die Frequenzmodulation eines Cosinussignals ergibt qualitativ das gleiche Sendesignal $s(t)$ wie die Phasenmodulation eines sinusförmigen Quellensignals $q(t)$. &lt;br /&gt;
*Voraussetzung hierfür ist allerdings, dass die Modulatorkonstanten entsprechend dem Verhältnis $K_{\rm FM}/K_{\rm PM} = ω_{\rm N}$ aneinander angepasst sind. &lt;br /&gt;
*Das Sendesignal $s(t)$ lässt sich somit bei den beiden Konstellationen „PM – Sinussignal” sowie „FM – Cosinussignal” einheitlich beschreiben:&lt;br /&gt;
:$$s(t) = A_{\rm T} \cdot \cos (\omega_{\rm T} \cdot t + \eta \cdot \sin (\omega_{\rm N} \cdot t)) \hspace{0.05cm}.$$&lt;br /&gt;
*Allerdings sind bei Anwendung dieser Gleichung für den Modulationsindex $η$ bei Phasen– und Frequenzmodulation unterschiedliche Definitionsgleichungen zu verwenden: &lt;br /&gt;
:$$\eta_{\rm PM} = {K_{\rm PM} \cdot A_{\rm N}},\hspace{0.5cm}\eta_{\rm FM} = \frac {K_{\rm FM} \cdot A_{\rm N}}{\omega_{\rm N}} \hspace{0.05cm}.$$&lt;br /&gt;
*Ist das Quellensignal keine harmonische Schwingung, sondern setzt sich aus mehreren Frequenzen zusammen, so unterscheiden sich die Zeitsignale bei Phasen- und Frequenzmodulation auch qualitativ. Dies erkennt man beispielsweise beim [[Modulationsverfahren/Allgemeines_Modell_der_Modulation#Modulierte_Signale_bei_digitalem_Quellensignal|früheren Vergleich von PSK und FSK]]. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp; &lt;br /&gt;
Wir gehen nun von einem cosinusförmigen Quellensignal $q(t)$ mit der Amplitude $A_{\rm N} = 3 \ \rm V$ und der Frequenz $f_{\rm N} = 5  \ \rm kHz$ aus und betrachten die Signalverläufe von Phasenmodulation (PM) und Frequenzmodulation (FM) bei gleichem Modulationsindex $η = 1.5$. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1094__Mod_T_3_2_S3_neu.png|center|frame|PM und FM eines Cosinussignals mit η = 1.5]]&lt;br /&gt;
&lt;br /&gt;
Die mittlere Grafik zeigt das phasenmodulierte Signal für die Modulatorparameter $f_{\rm T} = 50  \ \rm kHz$ und $K_{\rm PM} = \rm 0.5 V^{–1}$ &lt;br /&gt;
:$$s_{\rm PM}(t) = A_{\rm T} \cdot \cos (\omega_{\rm T} \cdot t + \eta \cdot \cos (\omega_{\rm N} \cdot t)) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Bei PM ergibt sich mit $A_{\rm N} = 3 \ \rm V$ für den Modulationsindex (oder Phasenhub) $η = 1.5 ≈ π/2$. &lt;br /&gt;
*Die maximale Abweichung der Nulldurchgänge von ihren (äquidistanten) Solllagen beträgt somit etwa ein Viertel der Trägerperiode. &lt;br /&gt;
*Ist das Quellensignal $q(t) &amp;gt; 0$, so kommen die Nulldurchgänge verfrüht, bei $q(t) &amp;lt; 0$ verspätet. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die untere Grafik zeigt das frequenzmodulierte Signal mit gleichem Modulationsindex $η$:&lt;br /&gt;
:$$s_{\rm FM}(t) = A_{\rm T} \cdot \cos (\omega_{\rm T} \cdot t + \eta \cdot \sin (\omega_{\rm N} \cdot t)) \hspace{0.05cm}.$$ &lt;br /&gt;
&lt;br /&gt;
Erreicht wird in diesem Fall $η = 1.5$ beispielsweise durch die Modulatorkonstante&lt;br /&gt;
:$$K_{\rm FM} = \frac {\eta \cdot \omega_{\rm N} }{A_{\rm N} } = {K_{\rm PM} \cdot \omega_{\rm N} } = 0.5\,{\rm V}^{-1} \cdot 2 \pi \cdot 5\,{\rm kHz} = 15708\,{\rm V}^{-1}{\rm s}^{-1} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Der Frequenzhub beträgt hier $Δf_{\rm A} = η · f_{\rm N} = 7.5 \ \rm  kHz$, und es treten Augenblicksfrequenzen zwischen $42.5$ und $57.5 \ \rm kHz$ auf. &lt;br /&gt;
*Die Nulldurchgänge stimmen nun bei den Maxima und den Minima des Quellensignals $q(t)$ mit denen des Trägersignals $z(t)$ überein, während die maximalen Phasenabweichungen bei den Nulldurchgängen von $q(t)$ zu erkennen sind. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==WM–Spektrum einer harmonischen Schwingung==&lt;br /&gt;
Nun setzen wir für das Quellensignal allgemein eine harmonische Schwingung mit der Phase $ϕ_{\rm N}$ voraus: &lt;br /&gt;
:$$q(t) = A_{\rm N} \cdot \cos(2 \pi f_{\rm N} \cdot t + \phi_{\rm N}).$$&lt;br /&gt;
Uns interessiert die Spektralfunktion $S(f)$. Zur einfacheren Darstellung betrachten wir im Folgenden das Betragsspektrum $|S_+(f)|$ des analytischen Signals, aus dem $|S(f)|$ in der bekannten Weise hergeleitet werden kann. Für jede Art von Winkelmodulation in der hier beschriebenen Weise – egal, ob Phasen– oder Frequenzmodulation – und auch unabhängig von der Phase $ϕ_{\rm N}$ des Quellensignals gilt: &lt;br /&gt;
:$$|S_{\rm +}(f)| = A_{\rm T} \cdot \sum_{n = - \infty}^{+\infty}|{\rm J}_n (\eta)| \cdot \delta [f -  (f_{\rm T} + n \cdot f_{\rm N})]\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Diese Gleichung lässt sich wie folgt begründen: &lt;br /&gt;
*Auf der Seite [[Modulationsverfahren/Phasenmodulation_(PM)#.C3.84quivalentes_TP.E2.80.93Signal_bei_Phasenmodulation|Äquivalentes TP-Signal bei PM]] wurde diese Gleichung für ein phasenmoduliertes Sinussignal abgeleitet, wobei $η = A_{\rm N} · K_{\rm PM}$ den Modulationsindex angibt und ${\rm J}_n(η)$ die Besselfunkton erster Art und $n$–ter Ordnung bezeichnet. $K_{\rm PM}$ ist die Modulatorkonstante. &lt;br /&gt;
*Durch eine andere Nachrichtenphase $ϕ_{\rm N}$ ändert sich nur die Phasenfunktion ${\rm arc} \ S_+(f)$, nicht aber das Betragsspektrum $|S_+(f)|$. Dieses wichtige Ergebnis wurde auch durch die [[Aufgaben:3.3Z_Kenngrößenbestimmung|Aufgabe 3.3Z]] bestätigt.&lt;br /&gt;
*Auf der Seite [[Modulationsverfahren/Frequenzmodulation_(FM)#Frequenzmodulation_eines_Cosinussignals|Frequenzmodulation eines Cosinussignals]] dieses Kapitels wurde gezeigt, dass ein FM–Signal in gleicher Weise wie ein PM–Signal dargestellt werden kann, wenn der Modulationsindex $η = K_{\rm FM} · A_{\rm N}/ω_{\rm N}$ verwendet wird. Folgerichtig sind auch die Betragsspektren bei Phasen- und Frequenzmodulation in gleicher Form darstellbar. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wir verweisen hier gerne auch auf den zweiten Teil des Lernvideos [[Winkelmodulation_-_Frequenz-_und_Phasenmodulation_(Lernvideo)|Winkelmodulation - Frequenz- und Phasenmodulation]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; &lt;br /&gt;
Wir betrachten wieder eine harmonische Schwingung mit der Amplitude $A_{\rm N} = 3 \ \rm V$ nach &lt;br /&gt;
*einer Phasenmodulation mit $K_{\rm PM} = \rm 0.5 \ \rm  V^{–1}$, &lt;br /&gt;
*einer Frequenzmodulation mit $K_{\rm FM} = \rm 15708 \ \rm V^{–1}s^{–1}$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die zugehörigen Signalverläufe sind im [[Modulationsverfahren/Frequenzmodulation_(FM)#Frequenzmodulation_eines_Cosinussignals|Beispiel 2]] dargestellt. &lt;br /&gt;
*Bei beiden Systemen ergibt sich für $f_{\rm N} = 5  \ \rm kHz$ ein Besselspektrum mit dem Modulationsindex $η = 1.5$. &lt;br /&gt;
*Die identischen Betragsspektren des analytischen Signals (nur positive Frequenzen) sind in der oberen Bildhälfte dargestellt. Bessellinien mit Werten kleiner als $0.03$ sind hierbei vernachlässigt. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1095__Mod_T_3_2_S4_neu.png|center|frame|Diskrete Spektren bei Phasen– und Frequenzmodulation]]&lt;br /&gt;
&lt;br /&gt;
Die unteren Grafiken gelten für die Nachrichtenfrequenz $f_{\rm N} = 3 \ \rm kHz$. Man erkennt: &lt;br /&gt;
*Bei der Phasenmodulation ergibt sich gegenüber $f_{\rm N} = 5 \ \rm kHz$ eine schmalere Spektralfunktion, da nun der Abstand der Bessellinien nur mehr $3 \ \rm kHz$ beträgt. Da sich der Modulationsindex $η = 1.5$ nicht ändert, ergeben sich die gleichen Besselgewichte wie bei $f_{\rm N} = 5 \ \rm kHz$. &lt;br /&gt;
*Auch bei der Frequenzmodulation treten nun die Bessellinien im Abstand von $3 \ \rm kHz$ auf. Es gibt aber nun aufgrund des größeren Modulationsindex $η = 2.5$  deutlich mehr Bessellinien als im rechten oberen (für $η = 1.5$ gültigen) Diagramm. Bei Frequenzmodulation ist $η$ umgekehrt proportional zu $f_{\rm N}$.}}&lt;br /&gt;
&lt;br /&gt;
==Einfluss einer Bandbegrenzung bei Winkelmodulation==&lt;br /&gt;
Fassen wir einige Resultate dieses Abschnittss kurz zusammen, wobei wir beispielhaft die Trägerfrequenz $f_{\rm T} = 100 \ \rm kHz$, die Nachrichtenfrequenz $f_{\rm N} = 5  \ \rm kHz$ und den Modulationsindex $η = π/2$ voraussetzen: &lt;br /&gt;
&lt;br /&gt;
*Das Spektrum einer winkelmodulierten Schwingung besteht aus Bessellinien um den Träger $f_{\rm T}$ im Abstand $f_{\rm N}$ der Nachrichtenfrequenz und ist theoretisch unendlich weit ausgedehnt. &lt;br /&gt;
&lt;br /&gt;
*Selbst wenn man alle Spektrallinien mit Beträgen kleiner als  $0.01$ vernachlässigt, beträgt die dann endliche Bandbreite für $η = π/2$ noch immer $B_{\rm HF} = 8 · f_{\rm N} = 40  \ \rm kHz$. &lt;br /&gt;
&lt;br /&gt;
*Die Ortskurve – also der Verlauf des äquivalenten Tiefpass–Signals in der komplexen Ebene – ist im Idealfall ein Kreisbogen mit einem Öffnungswinkel von $±1.57 \ {\rm rad} = ±90^\circ$. &lt;br /&gt;
&lt;br /&gt;
*Dieser Kreisbogen nach der vektoriellen Addition ergibt sich allerdings nur dann, wenn alle Bessellinien in der Ortskurve mit den richtigen Zeigerlängen, Phasenlagen und Kreisfrequenzen rotieren. &lt;br /&gt;
&lt;br /&gt;
*Logischerweise wird die kreisbogenförmige Ortskurve verändert, wenn Spektrallinien verfälscht werden (z. B. durch lineare Kanalverzerrungen) oder ganz fehlen (z. B. durch eine Bandbegrenzung). &lt;br /&gt;
&lt;br /&gt;
*Da der ideale Winkeldemodulator die Phase $ϕ_r(t)$ des Empfangssignals detektiert und daraus das Sinkensignal $v(t)$ gewinnt, wird dieses verfälscht und zwar sogar nichtlinear &amp;amp;nbsp; ⇒  &amp;amp;nbsp; irreversibel. &lt;br /&gt;
&lt;br /&gt;
*Das bedeutet gleichzeitig: Aufgrund linearer Verzerrungen im Kanal kommt es zu nichtlinearen Verzerrungen im demodulierten Signal   &amp;amp;nbsp; ⇒  &amp;amp;nbsp;   es entstehen dadurch neue Frequenzen (Oberwellen). &lt;br /&gt;
&lt;br /&gt;
*Je kleiner die zur Verfügung stehende Bandbreite $B_{\rm HF}$ ist und je größer der Modulationsindex $η$ gewählt wird, desto größer wird der die nichtlinearen Verzerrungen beschreibende Klirrfaktor $K$. &lt;br /&gt;
&lt;br /&gt;
*Als Faustformel für die erforderliche HF–Bandbreite für einen geforderten Klirrfaktor $K$ &amp;amp;nbsp; ⇒  &amp;amp;nbsp; ''Carson–Regel'' gilt: &lt;br /&gt;
:$$K &amp;lt; 10\%: B_{\rm HF}  \ge  2 \cdot f_{\rm N} \cdot (\eta +1)\hspace{0.05cm},$$&lt;br /&gt;
:$$K &amp;lt; 1\%\hspace{0.12cm}: B_{\rm HF} \ge 2 \cdot f_{\rm N} \cdot(\eta +2)\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Wir gehen weiterhin von den Systemparametern $f_{\rm T} = 100 \ \rm kHz$, $f_{\rm N} = 5 \ \rm kHz$ und $η =  π/2$ aus. Die Grafik zeigt für diesen Fall links das Betragsspektrum $ \vert S_{\rm TP}(f) \vert$ des äquivalenten Tiefpass–Signals und rechts die zugehörige komplexe Zeitfunktion $s_{\rm TP}(t)$. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1104__Mod_T_3_2_S5_neu.png|right|frame| Einfluss einer Bandbegrenzung bei Winkelmodulation]]&lt;br /&gt;
*Um den Klirrfaktor  auf Werte $K &amp;lt; 1\%$ zu begrenzen, ist nach der sog. Carson–Regel die HF–Bandbreite $B_{1 \%} ≈ 36 \ \rm  kHz$ erforderlich. &lt;br /&gt;
*In diesem Fall setzt sich das äquivalente Tiefpass–Signal aus der Konstanten $D_0$ und je drei entgegen dem Uhrzeigersinn $(D_1, D_2, D_3)$ bzw. im Uhrzeigersinn $(D_{-1}, D_{-2}, D_{-3})$ drehenden Zeigern zusammen:&lt;br /&gt;
:$$\begin{align*}r_{\rm TP}(t) &amp;amp; =  \sum_{n = - 3}^{+3}D_n  \cdot{\rm e}^{\hspace{0.05cm}{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm}n \hspace{0.05cm}\cdot \hspace{0.05cm}\omega_{\rm N} \hspace{0.02cm}\cdot \hspace{0.05cm} t }\end{align*}$$&lt;br /&gt;
*Die ockerfarbene Kurve in der Zeitbereichsdarstellung macht deutlich, dass sich das äquivalente Tiefpass-Signal durch diese Bandbegrenzung nur geringfügig vom (verzerrungsfreien) Halbkreis unterscheidet. &lt;br /&gt;
&lt;br /&gt;
Gibt man sich mit einem Klirrfaktor $K &amp;lt; 10\%$ zufrieden, so ist die HF–Bandbreite $B_{10 \%} ≈ 26\ \rm  kHz$ ausreichend. &lt;br /&gt;
*Damit werden auch die Fourierkoeffizienten $D_3$ und $D_{-3}$ abgeschnitten und die violett dargestellte Ortskurve beschreibt einen Parabelabschnitt. &lt;br /&gt;
*Die Simulation dieses Fallbeispiels liefert den Klirrfaktor $K ≈ 6\%$. Daran erkennt man, dass die Carson–Regel oft ein etwas zu pessimistisches Ergebnis liefert. }}&lt;br /&gt;
&lt;br /&gt;
==Realisierung eines FM–Modulators==&lt;br /&gt;
Eine Frequenzmodulation erhält man dann, wenn die Schwingfrequenz eines Oszillators im Rhythmus des modulierenden Signals verändert wird. Als frequenzbestimmende Elemente dienen meist RC–Glieder oder Schwingkreise. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1097__Mod_T_3_2_S6_neu.png |center|frame| Realisierung eines FM–Modulators und dessen Kennlinie]]&lt;br /&gt;
&lt;br /&gt;
Die linke Grafik zeigt eine schaltungstechnische Realisierungsform; die genaue Schaltungsbeschreibung finden Sie in [Mäu 88]&amp;lt;ref name= &amp;quot;Mäu 88&amp;quot;&amp;gt;Mäusl, R.: ''Analoge Modulationsverfahren.''  Heidelberg: Dr. Hüthig, 1988.&amp;lt;/ref&amp;gt;.  Rechts ist die idealisierte Frequenz–Spannungskennlinie dargestellt. An dieser Stelle sollen nur einige wenige Anmerkungen gemacht werden: &lt;br /&gt;
*Die anliegende Spannung $u(t)$ setzt sich additiv aus dem Quellensignal $q(t)$ und einem Gleichanteil $A_0$ zusammen, der den ''Arbeitspunkt'' festlegt. &lt;br /&gt;
*Die Kapazität $C$ der ''Kapazitätsdiode'' ist näherungsweise proportional zu $1/u^{2}(t)$, so dass sich die Schwingfrequenz des LC–Oszillators abhängig von $q(t)$ verändert. &lt;br /&gt;
*Bei nur kleiner Frequenzänderung hängen $u(t)$ und die Schwingfrequenz linear zusammen. Damit beträgt die ''Augenblickskreisfrequenz'' mit der Steigung $K_{\rm FM}$ der Modulatorkennlinie:  &amp;amp;nbsp; $\omega_{\rm A}(t) = \omega_{\rm T} + K_{\rm FM} \cdot q(t) \hspace{0.05cm}.$&lt;br /&gt;
*Die ''Gegentaktschaltung'' aus den beiden Kapazitätsdioden dient unter Anderem zur Kompensation von Unsymmetrien und damit zur Verminderung der quadratischen Verzerrungen. &lt;br /&gt;
*Legt man am Eingang die Summe aus dem Gleichanteil $A_0$ und dem differenzierten Quellensignal – also ${\rm d}q(t)/{\rm d}t$ – an, so erhält man am Ausgang das frequenzmodulierte Signal $s(t)$. &lt;br /&gt;
&lt;br /&gt;
==PLL–Realisierung eines FM–Demodulators==&lt;br /&gt;
Die Grafik zeigt eine Realisierungsmöglichkeit des FM–Demodulators. Weitere FM–Demodulatoren – zum Beispiel mittels Flankendiskriminator – werden in [Mäu 88]&amp;lt;ref name=&amp;quot;Mäu 88&amp;quot;/&amp;gt; ausführlich behandelt. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1098__Mod_T_3_2_S7_neu.png  |center|frame| PLL – Realisierung eines FM–Demodulators]]&lt;br /&gt;
&lt;br /&gt;
In Stichpunkten lässt sich diese Schaltung, die als Phasenregelschleife (''Phase–Locked–Loop'', PLL) arbeitet, wie folgt beschreiben: &lt;br /&gt;
*Der Phasendetektor ermittelt die Phasenunterschiede (Abstände der Nulldurchgänge) zwischen dem Empfangssignal $r(t)$ und dem vom VCO bereitgestellten Vergleichssignal. &lt;br /&gt;
*Das Ausgangssignal $v(t)$ nach Tiefpass–Filterung und Verstärkung ist dann näherungsweise gleich dem Quellensignal $q(t)$, wenn dieses sendeseitig FM–moduliert wurde. &lt;br /&gt;
*Das Ausgangssignal $v(t)$ wird gleichzeitig an den Eingang des spannungsgesteuerten Oszillators angelegt. Man bezeichnet diesen auch als ''Voltage Controlled Oscillator,'' abgekürzt VCO. &lt;br /&gt;
*Das Ausgangssignal des VCO wird permanent in der Weise nachgeregelt, dass dessen Frequenz der Augenblicksfrequenz $f_{\rm A}(t)$ des Empfangssignals entspricht. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Eine detaillierte Schaltungsbeschreibung des PLL–FM–Demodulators finden Sie ebenfalls in [Mäu 88]&amp;lt;ref name=&amp;quot;Mäu 88&amp;quot;/&amp;gt;. &lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel==&lt;br /&gt;
[[Aufgaben:3.5_PM_und_FM_bei_Rechtecksignalen|Aufgabe 3.5: &amp;amp;nbsp; PM und FM bei Rechtecksignalen]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.5Z_Phasenmodulation_eines_Trapezsignals|Zusatzaufgabe 3.5Z: &amp;amp;nbsp; Phasenmodulation eines Trapezsignals]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.6_PM_oder_FM%3F_Oder_AM%3F|Aufgabe 3.6: &amp;amp;nbsp; PM oder FM? Oder AM?]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:3.7_Winkelmodulation_einer_harmonischen_Schwingung|Aufgabe 3.7: &amp;amp;nbsp; Winkelmodulation einer harmonischen Schwingung]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:Aufgaben:3.8_Modulationsindex_und_Bandbreite|Aufgabe 3.8: &amp;amp;nbsp; Modulationsindex und Bandbreite]]&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Modulation_Methods/Frequency_Modulation_(FM)&amp;diff=21259</id>
		<title>Modulation Methods/Frequency Modulation (FM)</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Modulation_Methods/Frequency_Modulation_(FM)&amp;diff=21259"/>
		<updated>2018-01-02T17:48:41Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Winkelmodulation und WM–Demodulation&lt;br /&gt;
|Vorherige Seite=Phasenmodulation (PM)&lt;br /&gt;
|Nächste Seite=Rauscheinfluss bei Winkelmodulation&lt;br /&gt;
}}&lt;br /&gt;
==Augenblicksfrequenz==&lt;br /&gt;
Wir gehen wieder von einem winkelmodulierten Signal aus: &lt;br /&gt;
:$$s(t) =  A_{\rm T} \cdot \cos (\psi(t)).$$&lt;br /&gt;
Alle Informationen über das Quellensignal $q(t)$ &lt;br /&gt;
*sind damit ausschließlich in der Winkelfunktion $ψ(t)$ enthalten, &lt;br /&gt;
*während die Hüllkurve $a(t) = A_{\rm T}$ konstant ist. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definitionen:}$&amp;amp;nbsp; Die '''Augenblickskreisfrequenz''' ist die Ableitung der Winkelfunktion nach der Zeit:&lt;br /&gt;
:$$\omega_{\rm A}(t) = \frac{ {\rm d}\psi(t)}{ {\rm d}t}\hspace{0.05cm}.$$&lt;br /&gt;
Entsprechend gilt für die '''Augenblicksfrequenz''': &lt;br /&gt;
:$$f_{\rm A}(t) = \frac{\omega_{\rm A}(t)}{2\pi} = \frac{1}{2\pi} \cdot \frac{ {\rm d}\hspace{0.03cm}\psi(t)}{ {\rm d}t}\hspace{0.05cm}.$$&lt;br /&gt;
Der '''Frequenzhub''' ist die maximale Abweichung $Δf_{\rm A}$ der zeitabhängigen Augenblicksfrequenz $f_{\rm A}(t)$ von der konstanten Trägerfrequenz $f_{\rm T}$. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Bei einer Winkelmodulation mit der Trägerfrequenz $f_{\rm T}$ schwankt die Augenblicksfrequenz zwischen &lt;br /&gt;
:$$f_{\rm T} - \Delta f_{\rm A} \le f_{\rm A}(t) \le f_{\rm T} + \Delta f_{\rm A}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Hervorzuheben ist, dass ein grundsätzlicher Unterschied zwischen der Augenblicksfrequenz $f_{\rm A}(t)$ und dem mit einem Spektrum–Analyzer messbaren Spektrum $S(f)$ eines winkelmodulierten Signals $s(t)$ besteht, wie das nachfolgende Beispiel verdeutlichen soll. &lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; Die Grafik zeigt oben das phasenmodulierte Signal &lt;br /&gt;
:$$s(t) =  A_{\rm T} \cdot \cos (\psi(t)) = A_{\rm T} \cdot \cos(2 \pi  f_{\rm T}  \hspace{0.05cm}t + \eta \cdot \sin (2 \pi f_{\rm N} \hspace{0.05cm} t))$$&lt;br /&gt;
&lt;br /&gt;
sowie unten die Augenblicksfrequenz&lt;br /&gt;
:$$f_{\rm A}(t) = \frac{1}{2 \pi} \cdot \frac{ {\rm d}\hspace{0.03cm}\psi(t)}{ {\rm d}t} = f_{\rm T} + \Delta f_{\rm A}\cdot \cos (2 \pi  f_{\rm N} \hspace{0.05cm} t) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Die Systemparameter sind dabei $f_{\rm T} = 50 \ \rm kHz$, $f_{\rm N} = 5 \ \rm kHz$ und $η = 3$. Daraus ergibt sich der Frequenzhub zu $Δf_{\rm A} = η · f_{\rm N} = 15 \ \rm  kHz$. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1101__Mod_T_3_2_S1_neu.png |center|frame| Zur Verdeutlichung der Augenblicksfrequenz]]&lt;br /&gt;
&lt;br /&gt;
In der Mitte ist zur Orientierung der qualitative Verlauf des sinusförmigen Quellensignals $q(t)$ skizziert. Man erkennt aus diesen Grafiken: &lt;br /&gt;
*Die Augenblicksfrequenz $f_{\rm A}(t)$ kann alle beliebigen Werte zwischen $f_{\rm T} + Δf_{\rm A} = 65 \ \rm kHz$ (bei $t = 50\ \rm  μs, 250 \ μs$, usw.) und $f_{\rm T} \ – Δf_{\rm A} = 35 \ \rm kHz$ (bei $t = 150\ \rm  μs, 350 \ μs$, usw.) annehmen (siehe grüne Markierungen). Zur Zeit $t ≈ 16.7 \ \rm μs$ gilt beispielsweise $f_{\rm A}(t) = 57.5 \ \rm  kHz$ (violetter Pfeil). &lt;br /&gt;
*Dagegen besteht die Spektralfunktion $S(f)$ aus diskreten Bessellinien bei den Frequenzen ... , $30, 35, 40, 45, \mathbf{50}, 55, 60, 65, 70$, ... (jeweils in $\rm kHz$). Eine Spektrallinie bei $f = 57.5 \ \rm  kHz$ gibt es nicht im Gegensatz zu einer Spektrallinie bei $f = 70 \ \rm   kHz$. Dagegen gilt zu keinem Zeitpunkt $f_{\rm A}(t) = 70 \ \rm  kHz$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
$\text{Ergo:}$&amp;amp;nbsp; Die Augenblicksfrequenz $f_{\rm A}(t)$ ist also keine physikalisch messbare Frequenz im herkömmlichen Sinne, sondern nur eine fiktive, mathematische Größe, nämlich die Ableitung der Winkelfunktion $ψ(t)$.}} &lt;br /&gt;
&lt;br /&gt;
==Signalverläufe bei Frequenzmodulation==&lt;br /&gt;
Wie im Kapitel [[Modulationsverfahren/Phasenmodulation_(PM)|Phasenmodulation]] gehen wir weiterhin davon aus, dass das Trägersignal $z(t)$ cosinusförmig verläuft und das Quellensignal $q(t)$ spitzenwertbegrenzt ist.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ist bei einem Übertragungssystem die Augenblickskreisfrequenz $ω_{\rm A}(t)$ linear abhängig vom Momentanwert des Quellensignals $q(t)$, so spricht man von '''Frequenzmodulation''' (FM): &lt;br /&gt;
$$\omega_{\rm A}(t) = 2 \pi \cdot f_{\rm A}(t) = \omega_{\rm T} + K_{\rm FM} \cdot q(t)&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
Hierbei bezeichnet $K_{\rm FM}$ eine dimensionsbehaftete Konstante. Beschreibt $q(t)$ einen Spannungsverlauf, so hat $K_{\rm FM}$ die Einheit $\rm V^{–1}s^{–1}$. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Für die Winkelfunktion und das modulierte Signal erhält man bei Frequenzmodulation: &lt;br /&gt;
:$$\psi(t) = \omega_{\rm T} \cdot t + K_{\rm FM} \cdot \int q(t)\hspace{0.1cm}{\rm d}t \hspace{0.05cm}\hspace{0.3cm}\Rightarrow \hspace{0.3cm}s(t) = A_{\rm T} \cdot \cos (\psi(t)) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Aus dieser Gleichung lässt sich sofort ablesen: &lt;br /&gt;
*Auch bei der Frequenzmodulation bewegt sich das äquivalente T+iefpass–Signal wegen der konstanten Hüllkurve  ⇒  $a(t) = A_{\rm T}$ auf einem Kreisbogen. &lt;br /&gt;
*Ein Frequenzmodulator kann mit Hilfe eines Integrators und eines Phasenmodulators realisiert werden. Der FM–Demodulator besteht demzufolge aus PM–Demodulator und Differenzierer, wie im oberen Teil der folgenden Grafik dargestellt. &lt;br /&gt;
*Die zweite Darstellung zeigt den umgekehrten Zusammenhang, nämlich die mögliche Beschreibung von PM–Modulator und –Demodulator durch die entsprechenden FM–Komponenten. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1093__Mod_T_3_2_S2_neu.png |center|frame|Zusammenhang zwischen PM und FM]]&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus obiger Gleichung auch, dass die auf der Seite [[Modulationsverfahren/Allgemeines_Modell_der_Modulation#Eine_sehr_einfache.2C_leider_nicht_ganz_richtige_Modulatorgleichung|Eine sehr einfache, leider nicht ganz richtige Modulatorgleichung]] im ersten Kapitel dieses Buches angegebene Gleichung im Fall der Frequenzmodulation nur in Sonderfällen gültig sein wird. Die Umwandlung &lt;br /&gt;
:$$s(t) = a(t) \cdot \cos (\omega (t) \cdot t + \phi(t)) \hspace{0.3cm}\Rightarrow \hspace{0.3cm} s(t) = A_{\rm T} \cdot \cos (\omega (t) \cdot t + \phi_{\rm T})$$&lt;br /&gt;
ist bei Frequenzmodulation nur manchmal erlaubt, zum Beispiel beim nichtlinearen digitalen Modulationsverfahren [[Modulationsverfahren/Nichtlineare_Modulationsverfahren#FSK_.E2.80.93_Frequency_Shift_Keying|Frequency Shift Keying]] (FSK) mit rechteckförmigem Grundimpuls. &lt;br /&gt;
&lt;br /&gt;
==Frequenzmodulation eines Cosinussignals==&lt;br /&gt;
Bei cosinusförmigem Quellensignal $q(t)$ und Frequenzmodulation gilt für die Augenblickskreisfrequenz:&lt;br /&gt;
:$$q(t) = A_{\rm N} \cdot \cos (\omega_{\rm N} \cdot t)\hspace{0.3cm}\Rightarrow \hspace{0.3cm} \omega_{\rm A}(t) = \omega_{\rm T} + K_{\rm FM} \cdot A_{\rm N} \cdot \cos(\omega_{\rm N} \cdot t)\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Integriert man diese über die Zeit, so erhält man die Winkelfunktion:&lt;br /&gt;
:$$\psi(t) = \omega_{\rm T} \cdot t + \frac {K_{\rm FM} \cdot A_{\rm N}}{\omega_{\rm N}} \cdot \sin (\omega_{\rm N} \cdot t) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ein Vergleich mit den Aussagen im Kapitel [[Modulationsverfahren/Phasenmodulation_(PM)|Phasenmodulation]]  macht deutlich: &lt;br /&gt;
*Die Frequenzmodulation eines Cosinussignals ergibt qualitativ das gleiche Sendesignal $s(t)$ wie die Phasenmodulation eines sinusförmigen Quellensignals $q(t)$. &lt;br /&gt;
*Voraussetzung hierfür ist allerdings, dass die Modulatorkonstanten entsprechend dem Verhältnis $K_{\rm FM}/K_{\rm PM} = ω_{\rm N}$ aneinander angepasst sind. &lt;br /&gt;
*Das Sendesignal $s(t)$ lässt sich somit bei den beiden Konstellationen „PM – Sinussignal” sowie „FM – Cosinussignal” einheitlich beschreiben:&lt;br /&gt;
:$$s(t) = A_{\rm T} \cdot \cos (\omega_{\rm T} \cdot t + \eta \cdot \sin (\omega_{\rm N} \cdot t)) \hspace{0.05cm}.$$&lt;br /&gt;
*Allerdings sind bei Anwendung dieser Gleichung für den Modulationsindex $η$ bei Phasen– und Frequenzmodulation unterschiedliche Definitionsgleichungen zu verwenden: &lt;br /&gt;
:$$\eta_{\rm PM} = {K_{\rm PM} \cdot A_{\rm N}},\hspace{0.5cm}\eta_{\rm FM} = \frac {K_{\rm FM} \cdot A_{\rm N}}{\omega_{\rm N}} \hspace{0.05cm}.$$&lt;br /&gt;
*Ist das Quellensignal keine harmonische Schwingung, sondern setzt sich aus mehreren Frequenzen zusammen, so unterscheiden sich die Zeitsignale bei Phasen- und Frequenzmodulation auch qualitativ. Dies erkennt man beispielsweise beim [[Modulationsverfahren/Allgemeines_Modell_der_Modulation#Modulierte_Signale_bei_digitalem_Quellensignal|früheren Vergleich von PSK und FSK]]. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp; &lt;br /&gt;
Wir gehen nun von einem cosinusförmigen Quellensignal $q(t)$ mit der Amplitude $A_{\rm N} = 3 \ \rm V$ und der Frequenz $f_{\rm N} = 5  \ \rm kHz$ aus und betrachten die Signalverläufe von Phasenmodulation (PM) und Frequenzmodulation (FM) bei gleichem Modulationsindex $η = 1.5$. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1094__Mod_T_3_2_S3_neu.png|center|frame|PM und FM eines Cosinussignals mit η = 1.5]]&lt;br /&gt;
&lt;br /&gt;
Die mittlere Grafik zeigt das phasenmodulierte Signal für die Modulatorparameter $f_{\rm T} = 50  \ \rm kHz$ und $K_{\rm PM} = \rm 0.5 V^{–1}$ &lt;br /&gt;
:$$s_{\rm PM}(t) = A_{\rm T} \cdot \cos (\omega_{\rm T} \cdot t + \eta \cdot \cos (\omega_{\rm N} \cdot t)) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Bei PM ergibt sich mit $A_{\rm N} = 3 \ \rm V$ für den Modulationsindex (oder Phasenhub) $η = 1.5 ≈ π/2$. &lt;br /&gt;
*Die maximale Abweichung der Nulldurchgänge von ihren (äquidistanten) Solllagen beträgt somit etwa ein Viertel der Trägerperiode. &lt;br /&gt;
*Ist das Quellensignal $q(t) &amp;gt; 0$, so kommen die Nulldurchgänge verfrüht, bei $q(t) &amp;lt; 0$ verspätet. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die untere Grafik zeigt das frequenzmodulierte Signal mit gleichem Modulationsindex $η$:&lt;br /&gt;
:$$s_{\rm FM}(t) = A_{\rm T} \cdot \cos (\omega_{\rm T} \cdot t + \eta \cdot \sin (\omega_{\rm N} \cdot t)) \hspace{0.05cm}.$$ &lt;br /&gt;
&lt;br /&gt;
Erreicht wird in diesem Fall $η = 1.5$ beispielsweise durch die Modulatorkonstante&lt;br /&gt;
:$$K_{\rm FM} = \frac {\eta \cdot \omega_{\rm N} }{A_{\rm N} } = {K_{\rm PM} \cdot \omega_{\rm N} } = 0.5\,{\rm V}^{-1} \cdot 2 \pi \cdot 5\,{\rm kHz} = 15708\,{\rm V}^{-1}{\rm s}^{-1} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Der Frequenzhub beträgt hier $Δf_{\rm A} = η · f_{\rm N} = 7.5 \ \rm  kHz$, und es treten Augenblicksfrequenzen zwischen $42.5$ und $57.5 \ \rm kHz$ auf. &lt;br /&gt;
*Die Nulldurchgänge stimmen nun bei den Maxima und den Minima des Quellensignals $q(t)$ mit denen des Trägersignals $z(t)$ überein, während die maximalen Phasenabweichungen bei den Nulldurchgängen von $q(t)$ zu erkennen sind. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==WM–Spektrum einer harmonischen Schwingung==&lt;br /&gt;
Nun setzen wir für das Quellensignal allgemein eine harmonische Schwingung mit der Phase $ϕ_{\rm N}$ voraus: &lt;br /&gt;
:$$q(t) = A_{\rm N} \cdot \cos(2 \pi f_{\rm N} \cdot t + \phi_{\rm N}).$$&lt;br /&gt;
Uns interessiert die Spektralfunktion $S(f)$. Zur einfacheren Darstellung betrachten wir im Folgenden das Betragsspektrum $|S_+(f)|$ des analytischen Signals, aus dem $|S(f)|$ in der bekannten Weise hergeleitet werden kann. Für jede Art von Winkelmodulation in der hier beschriebenen Weise – egal, ob Phasen– oder Frequenzmodulation – und auch unabhängig von der Phase $ϕ_{\rm N}$ des Quellensignals gilt: &lt;br /&gt;
:$$|S_{\rm +}(f)| = A_{\rm T} \cdot \sum_{n = - \infty}^{+\infty}|{\rm J}_n (\eta)| \cdot \delta [f -  (f_{\rm T} + n \cdot f_{\rm N})]\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Diese Gleichung lässt sich wie folgt begründen: &lt;br /&gt;
*Auf der Seite [[Modulationsverfahren/Phasenmodulation_(PM)#.C3.84quivalentes_TP.E2.80.93Signal_bei_Phasenmodulation|Äquivalentes TP-Signal bei PM]] wurde diese Gleichung für ein phasenmoduliertes Sinussignal abgeleitet, wobei $η = A_{\rm N} · K_{\rm PM}$ den Modulationsindex angibt und ${\rm J}_n(η)$ die Besselfunkton erster Art und $n$–ter Ordnung bezeichnet. $K_{\rm PM}$ ist die Modulatorkonstante. &lt;br /&gt;
*Durch eine andere Nachrichtenphase $ϕ_{\rm N}$ ändert sich nur die Phasenfunktion ${\rm arc} \ S_+(f)$, nicht aber das Betragsspektrum $|S_+(f)|$. Dieses wichtige Ergebnis wurde auch durch die [[Aufgaben:3.3Z_Kenngrößenbestimmung|Aufgabe 3.3Z]] bestätigt.&lt;br /&gt;
*Auf der Seite [[Modulationsverfahren/Frequenzmodulation_(FM)#Frequenzmodulation_eines_Cosinussignals|Frequenzmodulation eines Cosinussignals]] dieses Kapitels wurde gezeigt, dass ein FM–Signal in gleicher Weise wie ein PM–Signal dargestellt werden kann, wenn der Modulationsindex $η = K_{\rm FM} · A_{\rm N}/ω_{\rm N}$ verwendet wird. Folgerichtig sind auch die Betragsspektren bei Phasen- und Frequenzmodulation in gleicher Form darstellbar. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wir verweisen hier gerne auch auf den zweiten Teil des Lernvideos [[Winkelmodulation_-_Frequenz-_und_Phasenmodulation_(Lernvideo)|Winkelmodulation - Frequenz- und Phasenmodulation]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; &lt;br /&gt;
Wir betrachten wieder eine harmonische Schwingung mit der Amplitude $A_{\rm N} = 3 \ \rm V$ nach &lt;br /&gt;
*einer Phasenmodulation mit $K_{\rm PM} = \rm 0.5 \ \rm  V^{–1}$, &lt;br /&gt;
*einer Frequenzmodulation mit $K_{\rm FM} = \rm 15708 \ \rm V^{–1}s^{–1}$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die zugehörigen Signalverläufe sind im [[Modulationsverfahren/Frequenzmodulation_(FM)#Frequenzmodulation_eines_Cosinussignals|Beispiel 2]] dargestellt. &lt;br /&gt;
*Bei beiden Systemen ergibt sich für $f_{\rm N} = 5  \ \rm kHz$ ein Besselspektrum mit dem Modulationsindex $η = 1.5$. &lt;br /&gt;
*Die identischen Betragsspektren des analytischen Signals (nur positive Frequenzen) sind in der oberen Bildhälfte dargestellt. Bessellinien mit Werten kleiner als $0.03$ sind hierbei vernachlässigt. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1095__Mod_T_3_2_S4_neu.png|center|frame|Diskrete Spektren bei Phasen– und Frequenzmodulation]]&lt;br /&gt;
&lt;br /&gt;
Die unteren Grafiken gelten für die Nachrichtenfrequenz $f_{\rm N} = 3 \ \rm kHz$. Man erkennt: &lt;br /&gt;
*Bei der Phasenmodulation ergibt sich gegenüber $f_{\rm N} = 5 \ \rm kHz$ eine schmalere Spektralfunktion, da nun der Abstand der Bessellinien nur mehr $3 \ \rm kHz$ beträgt. Da sich der Modulationsindex $η = 1.5$ nicht ändert, ergeben sich die gleichen Besselgewichte wie bei $f_{\rm N} = 5 \ \rm kHz$. &lt;br /&gt;
*Auch bei der Frequenzmodulation treten nun die Bessellinien im Abstand von $3 \ \rm kHz$ auf. Es gibt aber nun aufgrund des größeren Modulationsindex $η = 2.5$  deutlich mehr Bessellinien als im rechten oberen (für $η = 1.5$ gültigen) Diagramm. Bei Frequenzmodulation ist $η$ umgekehrt proportional zu $f_{\rm N}$.}}&lt;br /&gt;
&lt;br /&gt;
==Einfluss einer Bandbegrenzung bei Winkelmodulation==&lt;br /&gt;
Fassen wir einige Resultate dieses Abschnittss kurz zusammen, wobei wir beispielhaft die Trägerfrequenz $f_{\rm T} = 100 \ \rm kHz$, die Nachrichtenfrequenz $f_{\rm N} = 5  \ \rm kHz$ und den Modulationsindex $η = π/2$ voraussetzen: &lt;br /&gt;
&lt;br /&gt;
*Das Spektrum einer winkelmodulierten Schwingung besteht aus Bessellinien um den Träger $f_{\rm T}$ im Abstand $f_{\rm N}$ der Nachrichtenfrequenz und ist theoretisch unendlich weit ausgedehnt. &lt;br /&gt;
&lt;br /&gt;
*Selbst wenn man alle Spektrallinien mit Beträgen kleiner als  $0.01$ vernachlässigt, beträgt die dann endliche Bandbreite für $η = π/2$ noch immer $B_{\rm HF} = 8 · f_{\rm N} = 40  \ \rm kHz$. &lt;br /&gt;
&lt;br /&gt;
*Die Ortskurve – also der Verlauf des äquivalenten Tiefpass–Signals in der komplexen Ebene – ist im Idealfall ein Kreisbogen mit einem Öffnungswinkel von $±1.57 \ {\rm rad} = ±90^\circ$. &lt;br /&gt;
&lt;br /&gt;
*Dieser Kreisbogen nach der vektoriellen Addition ergibt sich allerdings nur dann, wenn alle Bessellinien in der Ortskurve mit den richtigen Zeigerlängen, Phasenlagen und Kreisfrequenzen rotieren. &lt;br /&gt;
&lt;br /&gt;
*Logischerweise wird die kreisbogenförmige Ortskurve verändert, wenn Spektrallinien verfälscht werden (z. B. durch lineare Kanalverzerrungen) oder ganz fehlen (z. B. durch eine Bandbegrenzung). &lt;br /&gt;
&lt;br /&gt;
*Da der ideale Winkeldemodulator die Phase $ϕ_r(t)$ des Empfangssignals detektiert und daraus das Sinkensignal $v(t)$ gewinnt, wird dieses verfälscht und zwar sogar nichtlinear &amp;amp;nbsp; ⇒  &amp;amp;nbsp; irreversibel. &lt;br /&gt;
&lt;br /&gt;
*Das bedeutet gleichzeitig: Aufgrund linearer Verzerrungen im Kanal kommt es zu nichtlinearen Verzerrungen im demodulierten Signal   &amp;amp;nbsp; ⇒  &amp;amp;nbsp;   es entstehen dadurch neue Frequenzen (Oberwellen). &lt;br /&gt;
&lt;br /&gt;
*Je kleiner die zur Verfügung stehende Bandbreite $B_{\rm HF}$ ist und je größer der Modulationsindex $η$ gewählt wird, desto größer wird der die nichtlinearen Verzerrungen beschreibende Klirrfaktor $K$. &lt;br /&gt;
&lt;br /&gt;
*Als Faustformel für die erforderliche HF–Bandbreite für einen geforderten Klirrfaktor $K$ &amp;amp;nbsp; ⇒  &amp;amp;nbsp; ''Carson–Regel'' gilt: &lt;br /&gt;
:$$K &amp;lt; 10\%: B_{\rm HF}  \ge  2 \cdot f_{\rm N} \cdot (\eta +1)\hspace{0.05cm},$$&lt;br /&gt;
:$$K &amp;lt; 1\%\hspace{0.12cm}: B_{\rm HF} \ge 2 \cdot f_{\rm N} \cdot(\eta +2)\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Wir gehen weiterhin von den Systemparametern $f_{\rm T} = 100 \ \rm kHz$, $f_{\rm N} = 5 \ \rm kHz$ und $η =  π/2$ aus. Die Grafik zeigt für diesen Fall links das Betragsspektrum $ \vert S_{\rm TP}(f) \vert$ des äquivalenten Tiefpass–Signals und rechts die zugehörige komplexe Zeitfunktion $s_{\rm TP}(t)$. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1104__Mod_T_3_2_S5_neu.png|right|frame| Einfluss einer Bandbegrenzung bei Winkelmodulation]]&lt;br /&gt;
*Um den Klirrfaktor  auf Werte $K &amp;lt; 1\%$ zu begrenzen, ist nach der sog. Carson–Regel die HF–Bandbreite $B_{1 \%} ≈ 36 \ \rm  kHz$ erforderlich. &lt;br /&gt;
*In diesem Fall setzt sich das äquivalente Tiefpass–Signal aus der Konstanten $D_0$ und je drei entgegen dem Uhrzeigersinn $(D_1, D_2, D_3)$ bzw. im Uhrzeigersinn $(D_{-1}, D_{-2}, D_{-3})$ drehenden Zeigern zusammen:&lt;br /&gt;
:$$\begin{align*}r_{\rm TP}(t) &amp;amp; =  \sum_{n = - 3}^{+3}D_n  \cdot{\rm e}^{\hspace{0.05cm}{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm}n \hspace{0.05cm}\cdot \hspace{0.05cm}\omega_{\rm N} \hspace{0.02cm}\cdot \hspace{0.05cm} t }\end{align*}$$&lt;br /&gt;
*Die ockerfarbene Kurve in der Zeitbereichsdarstellung macht deutlich, dass sich das äquivalente Tiefpass-Signal durch diese Bandbegrenzung nur geringfügig vom (verzerrungsfreien) Halbkreis unterscheidet. &lt;br /&gt;
&lt;br /&gt;
Gibt man sich mit einem Klirrfaktor $K &amp;lt; 10\%$ zufrieden, so ist die HF–Bandbreite $B_{10 \%} ≈ 26\ \rm  kHz$ ausreichend. &lt;br /&gt;
*Damit werden auch die Fourierkoeffizienten $D_3$ und $D_{-3}$ abgeschnitten und die violett dargestellte Ortskurve beschreibt einen Parabelabschnitt. &lt;br /&gt;
*Die Simulation dieses Fallbeispiels liefert den Klirrfaktor $K ≈ 6\%$. Daran erkennt man, dass die Carson–Regel oft ein etwas zu pessimistisches Ergebnis liefert. }}&lt;br /&gt;
&lt;br /&gt;
==Realisierung eines FM–Modulators==&lt;br /&gt;
Eine Frequenzmodulation erhält man dann, wenn die Schwingfrequenz eines Oszillators im Rhythmus des modulierenden Signals verändert wird. Als frequenzbestimmende Elemente dienen meist RC–Glieder oder Schwingkreise. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1097__Mod_T_3_2_S6_neu.png |center|frame| Realisierung eines FM–Modulators und dessen Kennlinie]]&lt;br /&gt;
&lt;br /&gt;
Die linke Grafik zeigt eine schaltungstechnische Realisierungsform; die genaue Schaltungsbeschreibung finden Sie in [Mäu 88]&amp;lt;ref name= &amp;quot;Mäu 88&amp;quot;&amp;gt;Mäusl, R.: ''Analoge Modulationsverfahren.''  Heidelberg: Dr. Hüthig, 1988.&amp;lt;/ref&amp;gt;.  Rechts ist die idealisierte Frequenz–Spannungskennlinie dargestellt. An dieser Stelle sollen nur einige wenige Anmerkungen gemacht werden: &lt;br /&gt;
*Die anliegende Spannung $u(t)$ setzt sich additiv aus dem Quellensignal $q(t)$ und einem Gleichanteil $A_0$ zusammen, der den ''Arbeitspunkt'' festlegt. &lt;br /&gt;
*Die Kapazität $C$ der ''Kapazitätsdiode'' ist näherungsweise proportional zu $1/u^{2}(t)$, so dass sich die Schwingfrequenz des LC–Oszillators abhängig von $q(t)$ verändert. &lt;br /&gt;
*Bei nur kleiner Frequenzänderung hängen $u(t)$ und die Schwingfrequenz linear zusammen. Damit beträgt die ''Augenblickskreisfrequenz'' mit der Steigung $K_{\rm FM}$ der Modulatorkennlinie:  &amp;amp;nbsp; $\omega_{\rm A}(t) = \omega_{\rm T} + K_{\rm FM} \cdot q(t) \hspace{0.05cm}.$&lt;br /&gt;
*Die ''Gegentaktschaltung'' aus den beiden Kapazitätsdioden dient unter Anderem zur Kompensation von Unsymmetrien und damit zur Verminderung der quadratischen Verzerrungen. &lt;br /&gt;
*Legt man am Eingang die Summe aus dem Gleichanteil $A_0$ und dem differenzierten Quellensignal – also ${\rm d}q(t)/{\rm d}t$ – an, so erhält man am Ausgang das frequenzmodulierte Signal $s(t)$. &lt;br /&gt;
&lt;br /&gt;
==PLL–Realisierung eines FM–Demodulators==&lt;br /&gt;
Die Grafik zeigt eine Realisierungsmöglichkeit des FM–Demodulators. Weitere FM–Demodulatoren – zum Beispiel mittels Flankendiskriminator – werden in [Mäu 88]&amp;lt;ref name=&amp;quot;Mäu 88&amp;quot;/&amp;gt; ausführlich behandelt. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1098__Mod_T_3_2_S7_neu.png  |center|frame| PLL – Realisierung eines FM–Demodulators]]&lt;br /&gt;
&lt;br /&gt;
In Stichpunkten lässt sich diese Schaltung, die als Phasenregelschleife (''Phase–Locked–Loop'', PLL) arbeitet, wie folgt beschreiben: &lt;br /&gt;
*Der Phasendetektor ermittelt die Phasenunterschiede (Abstände der Nulldurchgänge) zwischen dem Empfangssignal $r(t)$ und dem vom VCO bereitgestellten Vergleichssignal. &lt;br /&gt;
*Das Ausgangssignal $v(t)$ nach Tiefpass–Filterung und Verstärkung ist dann näherungsweise gleich dem Quellensignal $q(t)$, wenn dieses sendeseitig FM–moduliert wurde. &lt;br /&gt;
*Das Ausgangssignal $v(t)$ wird gleichzeitig an den Eingang des spannungsgesteuerten Oszillators angelegt. Man bezeichnet diesen auch als ''Voltage Controlled Oscillator,'' abgekürzt VCO. &lt;br /&gt;
*Das Ausgangssignal des VCO wird permanent in der Weise nachgeregelt, dass dessen Frequenz der Augenblicksfrequenz $f_{\rm A}(t)$ des Empfangssignals entspricht. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Eine detaillierte Schaltungsbeschreibung des PLL–FM–Demodulators finden Sie ebenfalls in [Mäu 88]&amp;lt;ref name=&amp;quot;Mäu 88&amp;quot;/&amp;gt;. &lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel==&lt;br /&gt;
[[Aufgaben:3.5_PM_und_FM_bei_Rechtecksignalen|Aufgabe 3.5: &amp;amp;nbsp; PM und FM bei Rechtecksignalen]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Modulation_Methods/Frequency_Modulation_(FM)&amp;diff=21258</id>
		<title>Modulation Methods/Frequency Modulation (FM)</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Modulation_Methods/Frequency_Modulation_(FM)&amp;diff=21258"/>
		<updated>2018-01-02T17:48:03Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt; &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Winkelmodulation und WM–Demodulation&lt;br /&gt;
|Vorherige Seite=Phasenmodulation (PM)&lt;br /&gt;
|Nächste Seite=Rauscheinfluss bei Winkelmodulation&lt;br /&gt;
}}&lt;br /&gt;
==Augenblicksfrequenz==&lt;br /&gt;
Wir gehen wieder von einem winkelmodulierten Signal aus: &lt;br /&gt;
:$$s(t) =  A_{\rm T} \cdot \cos (\psi(t)).$$&lt;br /&gt;
Alle Informationen über das Quellensignal $q(t)$ &lt;br /&gt;
*sind damit ausschließlich in der Winkelfunktion $ψ(t)$ enthalten, &lt;br /&gt;
*während die Hüllkurve $a(t) = A_{\rm T}$ konstant ist. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definitionen:}$&amp;amp;nbsp; Die '''Augenblickskreisfrequenz''' ist die Ableitung der Winkelfunktion nach der Zeit:&lt;br /&gt;
:$$\omega_{\rm A}(t) = \frac{ {\rm d}\psi(t)}{ {\rm d}t}\hspace{0.05cm}.$$&lt;br /&gt;
Entsprechend gilt für die '''Augenblicksfrequenz''': &lt;br /&gt;
:$$f_{\rm A}(t) = \frac{\omega_{\rm A}(t)}{2\pi} = \frac{1}{2\pi} \cdot \frac{ {\rm d}\hspace{0.03cm}\psi(t)}{ {\rm d}t}\hspace{0.05cm}.$$&lt;br /&gt;
Der '''Frequenzhub''' ist die maximale Abweichung $Δf_{\rm A}$ der zeitabhängigen Augenblicksfrequenz $f_{\rm A}(t)$ von der konstanten Trägerfrequenz $f_{\rm T}$. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Bei einer Winkelmodulation mit der Trägerfrequenz $f_{\rm T}$ schwankt die Augenblicksfrequenz zwischen &lt;br /&gt;
:$$f_{\rm T} - \Delta f_{\rm A} \le f_{\rm A}(t) \le f_{\rm T} + \Delta f_{\rm A}\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Hervorzuheben ist, dass ein grundsätzlicher Unterschied zwischen der Augenblicksfrequenz $f_{\rm A}(t)$ und dem mit einem Spektrum–Analyzer messbaren Spektrum $S(f)$ eines winkelmodulierten Signals $s(t)$ besteht, wie das nachfolgende Beispiel verdeutlichen soll. &lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 1:}$&amp;amp;nbsp; Die Grafik zeigt oben das phasenmodulierte Signal &lt;br /&gt;
:$$s(t) =  A_{\rm T} \cdot \cos (\psi(t)) = A_{\rm T} \cdot \cos(2 \pi  f_{\rm T}  \hspace{0.05cm}t + \eta \cdot \sin (2 \pi f_{\rm N} \hspace{0.05cm} t))$$&lt;br /&gt;
&lt;br /&gt;
sowie unten die Augenblicksfrequenz&lt;br /&gt;
:$$f_{\rm A}(t) = \frac{1}{2 \pi} \cdot \frac{ {\rm d}\hspace{0.03cm}\psi(t)}{ {\rm d}t} = f_{\rm T} + \Delta f_{\rm A}\cdot \cos (2 \pi  f_{\rm N} \hspace{0.05cm} t) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Die Systemparameter sind dabei $f_{\rm T} = 50 \ \rm kHz$, $f_{\rm N} = 5 \ \rm kHz$ und $η = 3$. Daraus ergibt sich der Frequenzhub zu $Δf_{\rm A} = η · f_{\rm N} = 15 \ \rm  kHz$. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1101__Mod_T_3_2_S1_neu.png |center|frame| Zur Verdeutlichung der Augenblicksfrequenz]]&lt;br /&gt;
&lt;br /&gt;
In der Mitte ist zur Orientierung der qualitative Verlauf des sinusförmigen Quellensignals $q(t)$ skizziert. Man erkennt aus diesen Grafiken: &lt;br /&gt;
*Die Augenblicksfrequenz $f_{\rm A}(t)$ kann alle beliebigen Werte zwischen $f_{\rm T} + Δf_{\rm A} = 65 \ \rm kHz$ (bei $t = 50\ \rm  μs, 250 \ μs$, usw.) und $f_{\rm T} \ – Δf_{\rm A} = 35 \ \rm kHz$ (bei $t = 150\ \rm  μs, 350 \ μs$, usw.) annehmen (siehe grüne Markierungen). Zur Zeit $t ≈ 16.7 \ \rm μs$ gilt beispielsweise $f_{\rm A}(t) = 57.5 \ \rm  kHz$ (violetter Pfeil). &lt;br /&gt;
*Dagegen besteht die Spektralfunktion $S(f)$ aus diskreten Bessellinien bei den Frequenzen ... , $30, 35, 40, 45, \mathbf{50}, 55, 60, 65, 70$, ... (jeweils in $\rm kHz$). Eine Spektrallinie bei $f = 57.5 \ \rm  kHz$ gibt es nicht im Gegensatz zu einer Spektrallinie bei $f = 70 \ \rm   kHz$. Dagegen gilt zu keinem Zeitpunkt $f_{\rm A}(t) = 70 \ \rm  kHz$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
$\text{Ergo:}$&amp;amp;nbsp; Die Augenblicksfrequenz $f_{\rm A}(t)$ ist also keine physikalisch messbare Frequenz im herkömmlichen Sinne, sondern nur eine fiktive, mathematische Größe, nämlich die Ableitung der Winkelfunktion $ψ(t)$.}} &lt;br /&gt;
&lt;br /&gt;
==Signalverläufe bei Frequenzmodulation==&lt;br /&gt;
Wie im Kapitel [[Modulationsverfahren/Phasenmodulation_(PM)|Phasenmodulation]] gehen wir weiterhin davon aus, dass das Trägersignal $z(t)$ cosinusförmig verläuft und das Quellensignal $q(t)$ spitzenwertbegrenzt ist.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&lt;br /&gt;
$\text{Definition:}$&amp;amp;nbsp; Ist bei einem Übertragungssystem die Augenblickskreisfrequenz $ω_{\rm A}(t)$ linear abhängig vom Momentanwert des Quellensignals $q(t)$, so spricht man von '''Frequenzmodulation''' (FM): &lt;br /&gt;
$$\omega_{\rm A}(t) = 2 \pi \cdot f_{\rm A}(t) = \omega_{\rm T} + K_{\rm FM} \cdot q(t)&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
Hierbei bezeichnet $K_{\rm FM}$ eine dimensionsbehaftete Konstante. Beschreibt $q(t)$ einen Spannungsverlauf, so hat $K_{\rm FM}$ die Einheit $\rm V^{–1}s^{–1}$. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Für die Winkelfunktion und das modulierte Signal erhält man bei Frequenzmodulation: &lt;br /&gt;
:$$\psi(t) = \omega_{\rm T} \cdot t + K_{\rm FM} \cdot \int q(t)\hspace{0.1cm}{\rm d}t \hspace{0.05cm}\hspace{0.3cm}\Rightarrow \hspace{0.3cm}s(t) = A_{\rm T} \cdot \cos (\psi(t)) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Aus dieser Gleichung lässt sich sofort ablesen: &lt;br /&gt;
*Auch bei der Frequenzmodulation bewegt sich das äquivalente T+iefpass–Signal wegen der konstanten Hüllkurve  ⇒  $a(t) = A_{\rm T}$ auf einem Kreisbogen. &lt;br /&gt;
*Ein Frequenzmodulator kann mit Hilfe eines Integrators und eines Phasenmodulators realisiert werden. Der FM–Demodulator besteht demzufolge aus PM–Demodulator und Differenzierer, wie im oberen Teil der folgenden Grafik dargestellt. &lt;br /&gt;
*Die zweite Darstellung zeigt den umgekehrten Zusammenhang, nämlich die mögliche Beschreibung von PM–Modulator und –Demodulator durch die entsprechenden FM–Komponenten. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1093__Mod_T_3_2_S2_neu.png |center|frame|Zusammenhang zwischen PM und FM]]&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus obiger Gleichung auch, dass die auf der Seite [[Modulationsverfahren/Allgemeines_Modell_der_Modulation#Eine_sehr_einfache.2C_leider_nicht_ganz_richtige_Modulatorgleichung|Eine sehr einfache, leider nicht ganz richtige Modulatorgleichung]] im ersten Kapitel dieses Buches angegebene Gleichung im Fall der Frequenzmodulation nur in Sonderfällen gültig sein wird. Die Umwandlung &lt;br /&gt;
:$$s(t) = a(t) \cdot \cos (\omega (t) \cdot t + \phi(t)) \hspace{0.3cm}\Rightarrow \hspace{0.3cm} s(t) = A_{\rm T} \cdot \cos (\omega (t) \cdot t + \phi_{\rm T})$$&lt;br /&gt;
ist bei Frequenzmodulation nur manchmal erlaubt, zum Beispiel beim nichtlinearen digitalen Modulationsverfahren [[Modulationsverfahren/Nichtlineare_Modulationsverfahren#FSK_.E2.80.93_Frequency_Shift_Keying|Frequency Shift Keying]] (FSK) mit rechteckförmigem Grundimpuls. &lt;br /&gt;
&lt;br /&gt;
==Frequenzmodulation eines Cosinussignals==&lt;br /&gt;
Bei cosinusförmigem Quellensignal $q(t)$ und Frequenzmodulation gilt für die Augenblickskreisfrequenz:&lt;br /&gt;
:$$q(t) = A_{\rm N} \cdot \cos (\omega_{\rm N} \cdot t)\hspace{0.3cm}\Rightarrow \hspace{0.3cm} \omega_{\rm A}(t) = \omega_{\rm T} + K_{\rm FM} \cdot A_{\rm N} \cdot \cos(\omega_{\rm N} \cdot t)\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Integriert man diese über die Zeit, so erhält man die Winkelfunktion:&lt;br /&gt;
:$$\psi(t) = \omega_{\rm T} \cdot t + \frac {K_{\rm FM} \cdot A_{\rm N}}{\omega_{\rm N}} \cdot \sin (\omega_{\rm N} \cdot t) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ein Vergleich mit den Aussagen im Kapitel [[Modulationsverfahren/Phasenmodulation_(PM)|Phasenmodulation]]  macht deutlich: &lt;br /&gt;
*Die Frequenzmodulation eines Cosinussignals ergibt qualitativ das gleiche Sendesignal $s(t)$ wie die Phasenmodulation eines sinusförmigen Quellensignals $q(t)$. &lt;br /&gt;
*Voraussetzung hierfür ist allerdings, dass die Modulatorkonstanten entsprechend dem Verhältnis $K_{\rm FM}/K_{\rm PM} = ω_{\rm N}$ aneinander angepasst sind. &lt;br /&gt;
*Das Sendesignal $s(t)$ lässt sich somit bei den beiden Konstellationen „PM – Sinussignal” sowie „FM – Cosinussignal” einheitlich beschreiben:&lt;br /&gt;
:$$s(t) = A_{\rm T} \cdot \cos (\omega_{\rm T} \cdot t + \eta \cdot \sin (\omega_{\rm N} \cdot t)) \hspace{0.05cm}.$$&lt;br /&gt;
*Allerdings sind bei Anwendung dieser Gleichung für den Modulationsindex $η$ bei Phasen– und Frequenzmodulation unterschiedliche Definitionsgleichungen zu verwenden: &lt;br /&gt;
:$$\eta_{\rm PM} = {K_{\rm PM} \cdot A_{\rm N}},\hspace{0.5cm}\eta_{\rm FM} = \frac {K_{\rm FM} \cdot A_{\rm N}}{\omega_{\rm N}} \hspace{0.05cm}.$$&lt;br /&gt;
*Ist das Quellensignal keine harmonische Schwingung, sondern setzt sich aus mehreren Frequenzen zusammen, so unterscheiden sich die Zeitsignale bei Phasen- und Frequenzmodulation auch qualitativ. Dies erkennt man beispielsweise beim [[Modulationsverfahren/Allgemeines_Modell_der_Modulation#Modulierte_Signale_bei_digitalem_Quellensignal|früheren Vergleich von PSK und FSK]]. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 2:}$&amp;amp;nbsp; &lt;br /&gt;
Wir gehen nun von einem cosinusförmigen Quellensignal $q(t)$ mit der Amplitude $A_{\rm N} = 3 \ \rm V$ und der Frequenz $f_{\rm N} = 5  \ \rm kHz$ aus und betrachten die Signalverläufe von Phasenmodulation (PM) und Frequenzmodulation (FM) bei gleichem Modulationsindex $η = 1.5$. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1094__Mod_T_3_2_S3_neu.png|center|frame|PM und FM eines Cosinussignals mit η = 1.5]]&lt;br /&gt;
&lt;br /&gt;
Die mittlere Grafik zeigt das phasenmodulierte Signal für die Modulatorparameter $f_{\rm T} = 50  \ \rm kHz$ und $K_{\rm PM} = \rm 0.5 V^{–1}$ &lt;br /&gt;
:$$s_{\rm PM}(t) = A_{\rm T} \cdot \cos (\omega_{\rm T} \cdot t + \eta \cdot \cos (\omega_{\rm N} \cdot t)) \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Bei PM ergibt sich mit $A_{\rm N} = 3 \ \rm V$ für den Modulationsindex (oder Phasenhub) $η = 1.5 ≈ π/2$. &lt;br /&gt;
*Die maximale Abweichung der Nulldurchgänge von ihren (äquidistanten) Solllagen beträgt somit etwa ein Viertel der Trägerperiode. &lt;br /&gt;
*Ist das Quellensignal $q(t) &amp;gt; 0$, so kommen die Nulldurchgänge verfrüht, bei $q(t) &amp;lt; 0$ verspätet. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die untere Grafik zeigt das frequenzmodulierte Signal mit gleichem Modulationsindex $η$:&lt;br /&gt;
:$$s_{\rm FM}(t) = A_{\rm T} \cdot \cos (\omega_{\rm T} \cdot t + \eta \cdot \sin (\omega_{\rm N} \cdot t)) \hspace{0.05cm}.$$ &lt;br /&gt;
&lt;br /&gt;
Erreicht wird in diesem Fall $η = 1.5$ beispielsweise durch die Modulatorkonstante&lt;br /&gt;
:$$K_{\rm FM} = \frac {\eta \cdot \omega_{\rm N} }{A_{\rm N} } = {K_{\rm PM} \cdot \omega_{\rm N} } = 0.5\,{\rm V}^{-1} \cdot 2 \pi \cdot 5\,{\rm kHz} = 15708\,{\rm V}^{-1}{\rm s}^{-1} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Der Frequenzhub beträgt hier $Δf_{\rm A} = η · f_{\rm N} = 7.5 \ \rm  kHz$, und es treten Augenblicksfrequenzen zwischen $42.5$ und $57.5 \ \rm kHz$ auf. &lt;br /&gt;
*Die Nulldurchgänge stimmen nun bei den Maxima und den Minima des Quellensignals $q(t)$ mit denen des Trägersignals $z(t)$ überein, während die maximalen Phasenabweichungen bei den Nulldurchgängen von $q(t)$ zu erkennen sind. }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==WM–Spektrum einer harmonischen Schwingung==&lt;br /&gt;
Nun setzen wir für das Quellensignal allgemein eine harmonische Schwingung mit der Phase $ϕ_{\rm N}$ voraus: &lt;br /&gt;
:$$q(t) = A_{\rm N} \cdot \cos(2 \pi f_{\rm N} \cdot t + \phi_{\rm N}).$$&lt;br /&gt;
Uns interessiert die Spektralfunktion $S(f)$. Zur einfacheren Darstellung betrachten wir im Folgenden das Betragsspektrum $|S_+(f)|$ des analytischen Signals, aus dem $|S(f)|$ in der bekannten Weise hergeleitet werden kann. Für jede Art von Winkelmodulation in der hier beschriebenen Weise – egal, ob Phasen– oder Frequenzmodulation – und auch unabhängig von der Phase $ϕ_{\rm N}$ des Quellensignals gilt: &lt;br /&gt;
:$$|S_{\rm +}(f)| = A_{\rm T} \cdot \sum_{n = - \infty}^{+\infty}|{\rm J}_n (\eta)| \cdot \delta [f -  (f_{\rm T} + n \cdot f_{\rm N})]\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Diese Gleichung lässt sich wie folgt begründen: &lt;br /&gt;
*Auf der Seite [[Modulationsverfahren/Phasenmodulation_(PM)#.C3.84quivalentes_TP.E2.80.93Signal_bei_Phasenmodulation|Äquivalentes TP-Signal bei PM]] wurde diese Gleichung für ein phasenmoduliertes Sinussignal abgeleitet, wobei $η = A_{\rm N} · K_{\rm PM}$ den Modulationsindex angibt und ${\rm J}_n(η)$ die Besselfunkton erster Art und $n$–ter Ordnung bezeichnet. $K_{\rm PM}$ ist die Modulatorkonstante. &lt;br /&gt;
*Durch eine andere Nachrichtenphase $ϕ_{\rm N}$ ändert sich nur die Phasenfunktion ${\rm arc} \ S_+(f)$, nicht aber das Betragsspektrum $|S_+(f)|$. Dieses wichtige Ergebnis wurde auch durch die [[Aufgaben:3.3Z_Kenngrößenbestimmung|Aufgabe 3.3Z]] bestätigt.&lt;br /&gt;
*Auf der Seite [[Modulationsverfahren/Frequenzmodulation_(FM)#Frequenzmodulation_eines_Cosinussignals|Frequenzmodulation eines Cosinussignals]] dieses Kapitels wurde gezeigt, dass ein FM–Signal in gleicher Weise wie ein PM–Signal dargestellt werden kann, wenn der Modulationsindex $η = K_{\rm FM} · A_{\rm N}/ω_{\rm N}$ verwendet wird. Folgerichtig sind auch die Betragsspektren bei Phasen- und Frequenzmodulation in gleicher Form darstellbar. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wir verweisen hier gerne auch auf den zweiten Teil des Lernvideos [[Winkelmodulation_-_Frequenz-_und_Phasenmodulation_(Lernvideo)|Winkelmodulation - Frequenz- und Phasenmodulation]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 3:}$&amp;amp;nbsp; &lt;br /&gt;
Wir betrachten wieder eine harmonische Schwingung mit der Amplitude $A_{\rm N} = 3 \ \rm V$ nach &lt;br /&gt;
*einer Phasenmodulation mit $K_{\rm PM} = \rm 0.5 \ \rm  V^{–1}$, &lt;br /&gt;
*einer Frequenzmodulation mit $K_{\rm FM} = \rm 15708 \ \rm V^{–1}s^{–1}$. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die zugehörigen Signalverläufe sind im [[Modulationsverfahren/Frequenzmodulation_(FM)#Frequenzmodulation_eines_Cosinussignals|Beispiel 2]] dargestellt. &lt;br /&gt;
*Bei beiden Systemen ergibt sich für $f_{\rm N} = 5  \ \rm kHz$ ein Besselspektrum mit dem Modulationsindex $η = 1.5$. &lt;br /&gt;
*Die identischen Betragsspektren des analytischen Signals (nur positive Frequenzen) sind in der oberen Bildhälfte dargestellt. Bessellinien mit Werten kleiner als $0.03$ sind hierbei vernachlässigt. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1095__Mod_T_3_2_S4_neu.png|center|frame|Diskrete Spektren bei Phasen– und Frequenzmodulation]]&lt;br /&gt;
&lt;br /&gt;
Die unteren Grafiken gelten für die Nachrichtenfrequenz $f_{\rm N} = 3 \ \rm kHz$. Man erkennt: &lt;br /&gt;
*Bei der Phasenmodulation ergibt sich gegenüber $f_{\rm N} = 5 \ \rm kHz$ eine schmalere Spektralfunktion, da nun der Abstand der Bessellinien nur mehr $3 \ \rm kHz$ beträgt. Da sich der Modulationsindex $η = 1.5$ nicht ändert, ergeben sich die gleichen Besselgewichte wie bei $f_{\rm N} = 5 \ \rm kHz$. &lt;br /&gt;
*Auch bei der Frequenzmodulation treten nun die Bessellinien im Abstand von $3 \ \rm kHz$ auf. Es gibt aber nun aufgrund des größeren Modulationsindex $η = 2.5$  deutlich mehr Bessellinien als im rechten oberen (für $η = 1.5$ gültigen) Diagramm. Bei Frequenzmodulation ist $η$ umgekehrt proportional zu $f_{\rm N}$.}}&lt;br /&gt;
&lt;br /&gt;
==Einfluss einer Bandbegrenzung bei Winkelmodulation==&lt;br /&gt;
Fassen wir einige Resultate dieses Abschnittss kurz zusammen, wobei wir beispielhaft die Trägerfrequenz $f_{\rm T} = 100 \ \rm kHz$, die Nachrichtenfrequenz $f_{\rm N} = 5  \ \rm kHz$ und den Modulationsindex $η = π/2$ voraussetzen: &lt;br /&gt;
&lt;br /&gt;
*Das Spektrum einer winkelmodulierten Schwingung besteht aus Bessellinien um den Träger $f_{\rm T}$ im Abstand $f_{\rm N}$ der Nachrichtenfrequenz und ist theoretisch unendlich weit ausgedehnt. &lt;br /&gt;
&lt;br /&gt;
*Selbst wenn man alle Spektrallinien mit Beträgen kleiner als  $0.01$ vernachlässigt, beträgt die dann endliche Bandbreite für $η = π/2$ noch immer $B_{\rm HF} = 8 · f_{\rm N} = 40  \ \rm kHz$. &lt;br /&gt;
&lt;br /&gt;
*Die Ortskurve – also der Verlauf des äquivalenten Tiefpass–Signals in der komplexen Ebene – ist im Idealfall ein Kreisbogen mit einem Öffnungswinkel von $±1.57 \ {\rm rad} = ±90^\circ$. &lt;br /&gt;
&lt;br /&gt;
*Dieser Kreisbogen nach der vektoriellen Addition ergibt sich allerdings nur dann, wenn alle Bessellinien in der Ortskurve mit den richtigen Zeigerlängen, Phasenlagen und Kreisfrequenzen rotieren. &lt;br /&gt;
&lt;br /&gt;
*Logischerweise wird die kreisbogenförmige Ortskurve verändert, wenn Spektrallinien verfälscht werden (z. B. durch lineare Kanalverzerrungen) oder ganz fehlen (z. B. durch eine Bandbegrenzung). &lt;br /&gt;
&lt;br /&gt;
*Da der ideale Winkeldemodulator die Phase $ϕ_r(t)$ des Empfangssignals detektiert und daraus das Sinkensignal $v(t)$ gewinnt, wird dieses verfälscht und zwar sogar nichtlinear &amp;amp;nbsp; ⇒  &amp;amp;nbsp; irreversibel. &lt;br /&gt;
&lt;br /&gt;
*Das bedeutet gleichzeitig: Aufgrund linearer Verzerrungen im Kanal kommt es zu nichtlinearen Verzerrungen im demodulierten Signal   &amp;amp;nbsp; ⇒  &amp;amp;nbsp;   es entstehen dadurch neue Frequenzen (Oberwellen). &lt;br /&gt;
&lt;br /&gt;
*Je kleiner die zur Verfügung stehende Bandbreite $B_{\rm HF}$ ist und je größer der Modulationsindex $η$ gewählt wird, desto größer wird der die nichtlinearen Verzerrungen beschreibende Klirrfaktor $K$. &lt;br /&gt;
&lt;br /&gt;
*Als Faustformel für die erforderliche HF–Bandbreite für einen geforderten Klirrfaktor $K$ &amp;amp;nbsp; ⇒  &amp;amp;nbsp; ''Carson–Regel'' gilt: &lt;br /&gt;
:$$K &amp;lt; 10\%: B_{\rm HF}  \ge  2 \cdot f_{\rm N} \cdot (\eta +1)\hspace{0.05cm},$$&lt;br /&gt;
:$$K &amp;lt; 1\%\hspace{0.12cm}: B_{\rm HF} \ge 2 \cdot f_{\rm N} \cdot(\eta +2)\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{GraueBox|TEXT=&lt;br /&gt;
$\text{Beispiel 4:}$&amp;amp;nbsp; Wir gehen weiterhin von den Systemparametern $f_{\rm T} = 100 \ \rm kHz$, $f_{\rm N} = 5 \ \rm kHz$ und $η =  π/2$ aus. Die Grafik zeigt für diesen Fall links das Betragsspektrum $ \vert S_{\rm TP}(f) \vert$ des äquivalenten Tiefpass–Signals und rechts die zugehörige komplexe Zeitfunktion $s_{\rm TP}(t)$. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1104__Mod_T_3_2_S5_neu.png|right|frame| Einfluss einer Bandbegrenzung bei Winkelmodulation]]&lt;br /&gt;
*Um den Klirrfaktor  auf Werte $K &amp;lt; 1\%$ zu begrenzen, ist nach der sog. Carson–Regel die HF–Bandbreite $B_{1 \%} ≈ 36 \ \rm  kHz$ erforderlich. &lt;br /&gt;
*In diesem Fall setzt sich das äquivalente Tiefpass–Signal aus der Konstanten $D_0$ und je drei entgegen dem Uhrzeigersinn $(D_1, D_2, D_3)$ bzw. im Uhrzeigersinn $(D_{-1}, D_{-2}, D_{-3})$ drehenden Zeigern zusammen:&lt;br /&gt;
:$$\begin{align*}r_{\rm TP}(t) &amp;amp; =  \sum_{n = - 3}^{+3}D_n  \cdot{\rm e}^{\hspace{0.05cm}{\rm j} \hspace{0.05cm}\cdot \hspace{0.05cm}n \hspace{0.05cm}\cdot \hspace{0.05cm}\omega_{\rm N} \hspace{0.02cm}\cdot \hspace{0.05cm} t }\end{align*}$$&lt;br /&gt;
*Die ockerfarbene Kurve in der Zeitbereichsdarstellung macht deutlich, dass sich das äquivalente Tiefpass-Signal durch diese Bandbegrenzung nur geringfügig vom (verzerrungsfreien) Halbkreis unterscheidet. &lt;br /&gt;
&lt;br /&gt;
Gibt man sich mit einem Klirrfaktor $K &amp;lt; 10\%$ zufrieden, so ist die HF–Bandbreite $B_{10 \%} ≈ 26\ \rm  kHz$ ausreichend. &lt;br /&gt;
*Damit werden auch die Fourierkoeffizienten $D_3$ und $D_{-3}$ abgeschnitten und die violett dargestellte Ortskurve beschreibt einen Parabelabschnitt. &lt;br /&gt;
*Die Simulation dieses Fallbeispiels liefert den Klirrfaktor $K ≈ 6\%$. Daran erkennt man, dass die Carson–Regel oft ein etwas zu pessimistisches Ergebnis liefert. }}&lt;br /&gt;
&lt;br /&gt;
==Realisierung eines FM–Modulators==&lt;br /&gt;
Eine Frequenzmodulation erhält man dann, wenn die Schwingfrequenz eines Oszillators im Rhythmus des modulierenden Signals verändert wird. Als frequenzbestimmende Elemente dienen meist RC–Glieder oder Schwingkreise. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1097__Mod_T_3_2_S6_neu.png |center|frame| Realisierung eines FM–Modulators und dessen Kennlinie]]&lt;br /&gt;
&lt;br /&gt;
Die linke Grafik zeigt eine schaltungstechnische Realisierungsform; die genaue Schaltungsbeschreibung finden Sie in [Mäu 88]&amp;lt;ref name= &amp;quot;Mäu 88&amp;quot;&amp;gt;Mäusl, R.: ''Analoge Modulationsverfahren.''  Heidelberg: Dr. Hüthig, 1988.&amp;lt;/ref&amp;gt;.  Rechts ist die idealisierte Frequenz–Spannungskennlinie dargestellt. An dieser Stelle sollen nur einige wenige Anmerkungen gemacht werden: &lt;br /&gt;
*Die anliegende Spannung $u(t)$ setzt sich additiv aus dem Quellensignal $q(t)$ und einem Gleichanteil $A_0$ zusammen, der den ''Arbeitspunkt'' festlegt. &lt;br /&gt;
*Die Kapazität $C$ der ''Kapazitätsdiode'' ist näherungsweise proportional zu $1/u^{2}(t)$, so dass sich die Schwingfrequenz des LC–Oszillators abhängig von $q(t)$ verändert. &lt;br /&gt;
*Bei nur kleiner Frequenzänderung hängen $u(t)$ und die Schwingfrequenz linear zusammen. Damit beträgt die ''Augenblickskreisfrequenz'' mit der Steigung $K_{\rm FM}$ der Modulatorkennlinie:  &amp;amp;nbsp; $\omega_{\rm A}(t) = \omega_{\rm T} + K_{\rm FM} \cdot q(t) \hspace{0.05cm}.$&lt;br /&gt;
*Die ''Gegentaktschaltung'' aus den beiden Kapazitätsdioden dient unter Anderem zur Kompensation von Unsymmetrien und damit zur Verminderung der quadratischen Verzerrungen. &lt;br /&gt;
*Legt man am Eingang die Summe aus dem Gleichanteil $A_0$ und dem differenzierten Quellensignal – also ${\rm d}q(t)/{\rm d}t$ – an, so erhält man am Ausgang das frequenzmodulierte Signal $s(t)$. &lt;br /&gt;
&lt;br /&gt;
==PLL–Realisierung eines FM–Demodulators==&lt;br /&gt;
Die Grafik zeigt eine Realisierungsmöglichkeit des FM–Demodulators. Weitere FM–Demodulatoren – zum Beispiel mittels Flankendiskriminator – werden in [Mäu 88]&amp;lt;ref name=&amp;quot;Mäu 88&amp;quot;/&amp;gt; ausführlich behandelt. &lt;br /&gt;
&lt;br /&gt;
[[File:P_ID1098__Mod_T_3_2_S7_neu.png  |center|frame| PLL – Realisierung eines FM–Demodulators]]&lt;br /&gt;
&lt;br /&gt;
In Stichpunkten lässt sich diese Schaltung, die als Phasenregelschleife (''Phase–Locked–Loop'', PLL) arbeitet, wie folgt beschreiben: &lt;br /&gt;
*Der Phasendetektor ermittelt die Phasenunterschiede (Abstände der Nulldurchgänge) zwischen dem Empfangssignal $r(t)$ und dem vom VCO bereitgestellten Vergleichssignal. &lt;br /&gt;
*Das Ausgangssignal $v(t)$ nach Tiefpass–Filterung und Verstärkung ist dann näherungsweise gleich dem Quellensignal $q(t)$, wenn dieses sendeseitig FM–moduliert wurde. &lt;br /&gt;
*Das Ausgangssignal $v(t)$ wird gleichzeitig an den Eingang des spannungsgesteuerten Oszillators angelegt. Man bezeichnet diesen auch als ''Voltage Controlled Oscillator,'' abgekürzt VCO. &lt;br /&gt;
*Das Ausgangssignal des VCO wird permanent in der Weise nachgeregelt, dass dessen Frequenz der Augenblicksfrequenz $f_{\rm A}(t)$ des Empfangssignals entspricht. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Eine detaillierte Schaltungsbeschreibung des PLL–FM–Demodulators finden Sie ebenfalls in [Mäu 88]&amp;lt;ref name=&amp;quot;Mäu 88&amp;quot;/&amp;gt;. &lt;br /&gt;
&lt;br /&gt;
==Aufgaben zum Kapitel==&lt;br /&gt;
[[Aufgaben:3.5_PM_und_FM_bei_Rechtecksignalen|Aufgabe 5.1: &amp;amp;nbsp; PM und FM bei Rechtecksignalen]]&lt;br /&gt;
&lt;br /&gt;
==Quellenverzeichnis==&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Information_Theory/AWGN_Channel_Capacity_for_Discrete-Valued_Input&amp;diff=21257</id>
		<title>Information Theory/AWGN Channel Capacity for Discrete-Valued Input</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Information_Theory/AWGN_Channel_Capacity_for_Discrete-Valued_Input&amp;diff=21257"/>
		<updated>2018-01-02T17:40:39Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{LastPage}} &lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Wertkontinuierliche Informationstheorie&lt;br /&gt;
|Vorherige Seite=AWGN–Kanalkapazität bei wertkontinuierlichem Eingang&lt;br /&gt;
|Nächste Seite=&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==AWGN–Modell für zeitdiskrete bandbegrenzte Signale==  &lt;br /&gt;
&lt;br /&gt;
Am Ende des [[Informationstheorie/AWGN–Kanalkapazität_bei_wertkontinuierlichem_Eingang#Kanalkapazit.C3.A4t_des_AWGN.E2.80.93Kanals|letzten  Kapitels]] wurde das AWGN–Modell entsprechend der linken Grafik verwendet, gekennzeichnet durch die beiden Zufallsgrößen $X$ und $Y$ am Eingang und Ausgang sowie die stochastische Störung $N$ als das Ergebnis eines mittelwertfreien Gaußschen Zufallsprozesses  &amp;amp;nbsp; ⇒  &amp;amp;nbsp; „Weißes Rauschen” mit der Varianz $σ_N^2$. Die Störleistung $P_N$ ist ebenfalls gleich $σ_N^2$.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2931__Inf_T_4_3_S1a.png|center|frame|Zwei weitgehend äquivalente Modelle für den  AWGN–Kanal]]&lt;br /&gt;
&lt;br /&gt;
Die maximale Transinformation $I(X; Y)$ zwischen Eingang und Ausgang  ⇒  Kanalkapazität $C$ ergibt sich dann, wenn eine Gaußsche Eingangs–WDF $f_X(x)$ vorliegt. Mit der Sendeleistung $P_X = σ_X^2$ &amp;amp;nbsp; ⇒  &amp;amp;nbsp; Varianz der Zufallsgröße $X$ lautet die Kanalkapazitätsgleichung:&lt;br /&gt;
 &lt;br /&gt;
:$$C = 1/2 \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + {P_X}/{P_N}) &lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Nun beschreiben wir das AWGN–Kanalmodell gemäß dem rechts skizzierten Fall, dass am Kanaleingang die Folge $〈X_ν〉$ anliegt, wobei der Abstand zwischen aufeinander folgenden Werten $T_{\rm A}$ beträgt. Diese Folge ist das zeitdiskrete Äquivalent des zeitkontinuierlichen Signals $X(t)$ nach Bandbegrenzung und Abtastung.&lt;br /&gt;
Der Zusammenhang zwischen beiden Modellen kann anhand der folgenden Grafik hergestellt werden, die nachfolgend genauer beschrieben wird.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2932__Inf_T_4_3_S1b.png|center|frame| AWGN–Modell unter Berücksichtigung von Zeitdiskretisierung und Bandbegrenzung]]&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&amp;amp;nbsp; Die '''wesentlichen Erkenntnisse''' vorneweg:&lt;br /&gt;
*Beim rechten Modell gilt zu den Abtastzeitpunkten $ν·T_{\rm A}$ genau der gleiche Zusammenhang $Y_ν = X_ν + N_ν$ wie beim bisherigen (linken) Modell.&lt;br /&gt;
*Die Störkomponente $N_ν$ ist nun durch (auf $±B$) bandbegrenztes Weißes Rauschen mit zweiseitiger Leistungsdichte ${\it Φ}_N(f) = N_0/2$ zu modellieren, wobei $B = 1/(2T_{\rm A})$ gelten muss  ⇒  siehe [[Signaldarstellung/Zeitdiskrete_Signaldarstellung#Das_Abtasttheorem|Abtasttheorem]].}}	 	 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Interpretation''':&lt;br /&gt;
Beim Modell gemäß der oberen Grafik  gehen wir von einer unendlichen Folge $〈X_ν〉$ von Gaußschen Zufallsgrößen aus, die einem [[Signaldarstellung/Zeitdiskrete_Signaldarstellung#Zeitbereichsdarstellung|Diracpuls]] $p_δ(t)$ eingeprägt werden. Das resultierende zeitdiskrete Signal lautet somit:&lt;br /&gt;
 &lt;br /&gt;
:$$X_{\delta}(t) = T_{\rm A} \cdot \hspace{-0.1cm} \sum_{\nu = - \infty }^{+\infty} X_{\nu} \cdot&lt;br /&gt;
 \delta(t- \nu \cdot T_{\rm A}&lt;br /&gt;
 )\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Der Abstand aller (gewichteten) Diracfunktionen ist einheitlich $T_{\rm A}$.&lt;br /&gt;
&lt;br /&gt;
Durch das Interpolationsfilter mit der Impulsantwort $h(t)$ sowie dem Frequenzgang $H(f)$, wobei&lt;br /&gt;
 &lt;br /&gt;
:$$h(t) = 1/T_{\rm A} \cdot {\rm si}(\pi \cdot t/T_{\rm A}) \quad \circ\!\!\!-\!\!\!-\!\!\!-\!\!\bullet \quad H(f) =&lt;br /&gt;
\left\{ \begin{array}{c} 1 \\  0 \\  \end{array} \right. \begin{array}{*{20}c}   {\rm{f\ddot{u}r}} \hspace{0.3cm} |f| \le B, \\    {\rm{f\ddot{u}r}} \hspace{0.3cm} |f| &amp;gt; B, \\ \end{array}&lt;br /&gt;
\hspace{0.5cm} B = \frac{1}{T_{\rm A}}$$&lt;br /&gt;
&lt;br /&gt;
gelten muss, entsteht das zeitkontinuierliche Signal $X(t)$ mit folgenden Eigenschaften:&lt;br /&gt;
*Die Abtastwerte $X(ν·T_{\rm A})$ sind für alle ganzzahligen $ν$ identisch mit den Eingangswerten $X_ν$, was mit den äquidistanten Nullstellen der [[Signaldarstellung/Einige_Sonderfälle_impulsartiger_Signale#Rechteckimpuls|Spaltfunktion]] &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $\text{si}(x) = \sin(x)/x$ begründet werden kann.&lt;br /&gt;
*Gemäß dem Abtasttheorem ist $X(t)$ auf den Spektralbereich $±B$ ideal bandbegrenzt, wie die obige Rechnung gezeigt hat &amp;amp;nbsp; ⇒  &amp;amp;nbsp; rechteckförmiger Frequenzgang $H(f)$ der einseitigen Bandbreite $B$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{BlaueBox|TEXT=&amp;amp;nbsp; Nach der Addition der Störung $N(t)$ mit der (zweiseitigen) Leistungsdichte ${\it Φ}_N(t) = N_0/2$ folgt das Matched–Filter (MF) mit si–förmiger Impulsantwort. Für die '''Störleistung am MF–Ausgang''' erhält man:&lt;br /&gt;
 &lt;br /&gt;
:$$P_N = {\rm E}[N_\nu^2] = \frac{N_0}{2T_{\rm A} } = N_0 \cdot B\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
'''Beweis''': Mit $B = 1/(2T_{\rm A} )$ erhält man für die Impulsantwort $h_E(t)$ und die Spektralfunktion $H_E(f)$:&lt;br /&gt;
 &lt;br /&gt;
:$$h_{\rm E}(t) = 2B \cdot {\rm si}(2\pi \cdot B \cdot t) \quad \circ\!\!\!-\!\!\!-\!\!\!-\!\!\bullet \quad H_{\rm E}(f) =&lt;br /&gt;
\left\{ \begin{array}{c} 1 \\  0 \\  \end{array} \right. &lt;br /&gt;
\begin{array}{*{20}c} \text{für} \hspace{0.3cm} \vert f \vert \le B, \\    \text{für} \hspace{0.3cm} \vert f \vert  &amp;gt; B. \\ \end{array} &lt;br /&gt;
$$&lt;br /&gt;
&lt;br /&gt;
Daraus folgt entsprechend den Erkenntnissen der [[Stochastische_Signaltheorie/Stochastische_Systemtheorie#Problemstellung|Stochastischen Systemtheorie]]:&lt;br /&gt;
 &lt;br /&gt;
:$$P_N =&lt;br /&gt;
 \int_{-\infty}^{+\infty} &lt;br /&gt;
 \hspace{-0.3cm} {\it \Phi}_N (f) \cdot \vert H_{\rm E}(f)\vert^2&lt;br /&gt;
 \hspace{0.15cm}{\rm d}f = \int_{-B}^{+B} &lt;br /&gt;
 \hspace{-0.3cm} {\it \Phi}_N (f) &lt;br /&gt;
 \hspace{0.15cm}{\rm d}f = \frac{N_0}{2} \cdot 2B = N_0 \cdot B&lt;br /&gt;
\hspace{0.05cm}.$$}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Weiter gilt:&lt;br /&gt;
*Tastet man das MF–Ausgangssignal in äquidistanten Abständen $T_{\rm A}$ ab, so ergibt sich für die Zeitpunkte $ν ·T_{\rm A}$ die gleiche Konstellation wie bisher: &amp;amp;nbsp; $Y_ν = X_ν + N_ν$.&lt;br /&gt;
*Der Störanteil $N_ν$ im zeitdiskreten Ausgangssignal $Y_ν$ ist somit „bandbegrenzt” und „weiß”. Die Kanalkapazitätsgleichung muss somit nur geringfügig angepasst werden. &lt;br /&gt;
*Mit der '''Energie pro Symbol''' $E_S =  P_X \cdot T_{\rm A}$ &amp;amp;nbsp; ⇒ &amp;amp;nbsp; Sende–Energie innerhalb einer Symboldauer $T_{\rm A}$; &amp;amp;nbsp; gilt dann:&lt;br /&gt;
 &lt;br /&gt;
:$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac {P_X}{N_0 \cdot B}) &lt;br /&gt;
=  {1}/{2}  \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac {2 \cdot P_X \cdot T_{\rm A}}{N_0}) &lt;br /&gt;
= {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac {2 \cdot E_{\rm S}}{N_0}) &lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Die Kanalkapazität $C$ als Funktion von $E_{\rm S}/N_0$ ==  	 &lt;br /&gt;
&lt;br /&gt;
Die obere Grafik zeigt den Verlauf der AWGN–Kanalkapazität in Abhängigkeit des Quotienten $E_S/N_0$, wobei die linke Koordinatenachse und die roten Beschriftungen gültig sind:&lt;br /&gt;
 &lt;br /&gt;
:$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot E_{\rm S}}{N_0}) &lt;br /&gt;
\hspace{0.5cm}{\rm Einheit\hspace{-0.15cm}: \hspace{0.05cm}bit/Kanalzugriff\hspace{0.15cm} (englisch\hspace{-0.15cm}: \hspace{0.05cm}bit/channel\hspace{0.05cm}use)}&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Die Einheit wird manchmal auch mit „bit/Quellensymbol” oder kurz „bit/Symbol” bezeichnet.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2934__Inf_T_4_3_S2a.png|center|frame|Kanalkapazitäten &amp;lt;i&amp;gt;C&amp;lt;/i&amp;gt; und &amp;lt;i&amp;gt;C&amp;lt;/i&amp;gt; &amp;lt;sup&amp;gt;∗&amp;lt;/sup&amp;gt;  über &amp;lt;i&amp;gt;E&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;S&amp;lt;/sub&amp;gt;/&amp;lt;i&amp;gt;N&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;0&amp;lt;/sub&amp;gt;]]&lt;br /&gt;
&lt;br /&gt;
Die rechte (blaue) Achsenbeschriftung berücksichtigt die Beziehung $B = 1/(2T_{\rm A})$ und liefert somit eine obere Schranke für die Bitrate $R$ eines Digitalsystems, die bei diesem AWGN–Kanal noch möglich ist.&lt;br /&gt;
 &lt;br /&gt;
:$$C^{\hspace{0.05cm}*} = \frac{C}{T_{\rm A}}  = B \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac {  2 \cdot E_{\rm S}}{N_0}) &lt;br /&gt;
\hspace{1.0cm}{\rm Einheit\hspace{-0.15cm}: \hspace{0.05cm}bit/Sekunde}&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Meist gibt man den Quotienten aus Symbolenergie $(E_{\rm S})$ und AWGN–Rauschleistungsdichte $(N_0)$ in logarithmischer Form an. Die untere Grafik zeigt die Kanalkapazitäten $C$ bzw. $C*$ als Funktion von $10 · \lg (E_{\rm S}/N_0)$ im Bereich von –20 dB bis +30 dB. Ab etwa 10 dB ergibt sich ein (nahezu) linearer Verlauf.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2935__Inf_T_4_3_S2b.png|center|frame|AWGN–Kanalkapazitäten &amp;lt;i&amp;gt;C&amp;lt;/i&amp;gt; und &amp;lt;i&amp;gt;C&amp;lt;/i&amp;gt; &amp;lt;sup&amp;gt;∗&amp;lt;/sup&amp;gt; als Funktion von 10 · lg(&amp;lt;i&amp;gt;E&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;S&amp;lt;/sub&amp;gt;/&amp;lt;i&amp;gt;N&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;0&amp;lt;/sub&amp;gt;) ]]&lt;br /&gt;
	 &lt;br /&gt;
==Systemmodell zur Interpretation der AWGN–Kanalkapazität==  	&lt;br /&gt;
&lt;br /&gt;
Um das [[Informationstheorie/Anwendung_auf_die_Digitalsignalübertragung#Definition_und_Bedeutung_der_Kanalkapazit.C3.A4t|Kanalcodierungstheorem]] im Zusammenhang mit dem AWGN–Kanal besprechen zu können, benötigen wir noch eine &amp;amp;bdquo;Codiervorrichtung&amp;amp;rdquo;, die allerdings informationstheoretisch vollständig durch die Coderate $R$ gekennzeichnet wird.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2937__Inf_T_4_3_S3_neu.png|center|frame|Modell zur Interpretation der AWGN–Kanalkapazität]]&lt;br /&gt;
&lt;br /&gt;
Die Grafik beschreibt das von Shannon betrachtete Nachrichtensystem mit den Blöcken Quelle, Coder, (AWGN–)Kanal, Decoder und Empfänger. Im Hintergrund erkennt man ein Originalbild aus einem Shannon–Aufsatz zu diesem Thema. Rot eingezeichnet sind einige Bezeichnungen und Erläuterungen für den folgenden Text:&lt;br /&gt;
*Das Quellensymbol $U$ entstammt einem Alphabet mit $M_U = |U| = 2^k$ Symbolen und kann durch $k$ gleichwahrscheinliche statistisch unabhängige Binärsymbole repräsentiert werden.&lt;br /&gt;
*Das Alphabet des Codesymbols $X$ hat den Symbolumfang $M_X = |X| = 2^n$, wobei sich $n$ aus der Coderate $R = k/n$ ergibt. Für $R = 1$ gilt somit $n = k$.&lt;br /&gt;
*Der Fall $n &amp;gt; k$ führt zu einer Coderate $R &amp;lt; 1$ und aus $n &amp;lt; k$ folgt für die Coderate $R &amp;gt; 1$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Das '''Kanalcodierungstheorem''' besagt, dass es (mindestens) einen Code der Rate $R$ gibt, der zur Symbolfehlerwahrscheinlichkeit $p_S = \text{Pr}(V ≠ U) \equiv 0$ führt, falls folgende Bedingungen erfüllt sind:&lt;br /&gt;
*Die Coderate $R$ ist nicht größer als die Kanalkapazität $C$.&lt;br /&gt;
*Ein solcher geeigneter Code ist unendlich lang: $n → ∞$, das heißt, dass die Zufallsgröße $X$ am Kanaleingang wertkontinuierlich ist. Gleiches gilt für $U$ sowie für die Zufallsgrößen $Y$ und $V$ nach dem AWGN–Kanal.&lt;br /&gt;
*Wegen $n → ∞$ ist auch tatsächlich eine Gaußverteilung $f_X(x)$ am Kanaleingang möglich, die der bisherigen Berechnung der AWGN–Kanalkapazität stets zugrunde gelegt wurde:&lt;br /&gt;
 &lt;br /&gt;
:$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot E_{\rm S}}{N_0}) &lt;br /&gt;
\hspace{0.5cm}{\rm Einheit\hspace{-0.15cm}: \hspace{0.05cm}bit/Kanalzugriff\hspace{0.15cm} (englisch\hspace{-0.15cm}: \hspace{0.05cm}bit/channel \hspace{0.05cm}use)}&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Für einen Systemvergleich ist die Energie pro Symbol $(E_S)$ ungeeignet. Ein Vergleich sollte vielmehr auf der Energie $E_{\rm B}$ pro Informationsbit  &amp;amp;nbsp; ⇒ &amp;amp;nbsp;  kurz: '''Energie pro Bit'''; basieren. Mit $E_{\rm B} = E_{\rm S}/R$ gilt somit auch:&lt;br /&gt;
 &lt;br /&gt;
:$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot R  \cdot E_{\rm B}}{N_0}) &lt;br /&gt;
\hspace{0.2cm}{\rm Einheit\hspace{-0.15cm}: \hspace{0.05cm}bit/Kanalzugriff\hspace{0.1cm} (englisch\hspace{-0.15cm}: \hspace{0.05cm}bit/channel \hspace{0.05cm}use)}&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Diese beiden Gleichungen werden auf der nächsten Seite diskutiert. 	 &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Die Kanalkapazität $C$ als Funktion von $E_{\rm B}/N_0$==  	 	 &lt;br /&gt;
&lt;br /&gt;
Die folgende Grafik zeigt die AWGN–Kanalkapazität $C$ als Funktion &lt;br /&gt;
*von $10 · \lg (E_{\rm S}/N_0)$  ⇒  roter Kurvenverlauf:&lt;br /&gt;
:$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot E_{\rm S}}{N_0}) &lt;br /&gt;
\hspace{0.5cm}{\rm Einheit\hspace{-0.15cm}: \hspace{0.05cm}bit/Kanalzugriff\hspace{0.15cm} (oder\hspace{-0.15cm}: \hspace{0.05cm}bit/Symbol)}&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
:Rote Zahlen: Kapazität $C$ in „bit/Symbol” für $10 · \lg (E_{\rm S}/N_0) = –20 \ \rm dB, –15 \ \rm dB$, ... , $+30\ \rm dB$.&lt;br /&gt;
*von $10 · \lg (E_{\rm B}/N_0)$ ⇒  grüner Kurvenverlauf:&lt;br /&gt;
:$$C = {1}/{2} \cdot  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac { 2 \cdot R  \cdot E_{\rm B}}{N_0}) &lt;br /&gt;
\hspace{0.2cm}{\rm Einheit\hspace{-0.15cm}: \hspace{0.05cm}bit/Kanalzugriff\hspace{0.1cm} (oder \hspace{-0.15cm}: \hspace{0.05cm}bit/Symbol)}&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
:Grüne Zahlen: Erforderliches $10 · \lg (E_{\rm B}/N_0)$ in „dB” für $C = 0, 1$, ... , $5$ in „bit/Symbol”.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2938__Inf_T_4_3_S4.png|center|frame|Die AWGN–Kanalkapazität in zwei unterschiedlichen Darstellungen]]&lt;br /&gt;
&lt;br /&gt;
Die $C(E_{\rm B}/N_0)$–Berechnung finden Sie in der [[Aufgaben:4.8_Numerische_Auswertung_der_AWGN-Kanalkapazität|Aufgabe 4.8]] und der zugehörigen Musterlösung. Im Folgenden interpretieren wir das Ergebnis im Vergleich zur $C(E_{\rm S}/N_0)$–Kurve:&lt;br /&gt;
*Wegen $E_{\rm S} = R · E_{\rm B}$ liegt der Schnittpunkt beider Kurven bei $C (= R) = 1$ (bit/Symbol). Erforderlich sind dazu $10 · \lg (E_{\rm S}/N_0) = 1.76$ dB bzw. $10 · \lg (E_{\rm B}/N_0) = 1.76$ dB.&lt;br /&gt;
*Im Bereich $C &amp;gt; 1$ liegt die grüne Kurve stets über der roten. Beispielsweise ergibt sich für $10 · \lg (E_{\rm B}/N_0) = 20$ dB die Kanalkapazität $C ≈ 5$, für $10 · \lg (E_{\rm S}/N_0) = 20$dB nur $C = 3.83$.&lt;br /&gt;
*Ein Vergleich in horizontaler Richtung zeigt, dass die Kanalkapazität $C = 3$ bit/Symbol schon mit $10 · \lg (E_{\rm B}/N_0) \approx 10$ dB erreichbar ist, man aber $10 · \lg (E_{\rm S}/N_0) \approx 15$ dB benötigt.&lt;br /&gt;
*Im Bereich $C &amp;lt; 1$ liegt die rote Kurve stets über der grünen. Für $E_{\rm S}/N_0 &amp;gt; 0$ gilt auch $C &amp;gt; 0$. Bei logarithmischer Abszisse wie im obigen Bild reicht somit die rote Kurve bis ins „Minus–Unendliche”.&lt;br /&gt;
*Dagegen endet die grüne Kurve bei $E_{\rm B}/N_0 = \ln (2) = 0.693$ &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $10 · \lg (E_{\rm B}/N_0)= -1.59$  dB   &amp;amp;nbsp; ⇒ &amp;amp;nbsp;   absolute Grenze für die (fehlerfreie) Übertragung über den AWGN–Kanal.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==AWGN–Kanalkapazität für binäre Eingangssignale == &lt;br /&gt;
&lt;br /&gt;
Auf den bisherigen Seiten dieses Kapitels wurde stets entsprechend der Shannon–Theorie von einem gaußverteilten und damit wertkontinuierlichem AWGN–Eingang $X$ ausgegangen. Nun betrachten wir den binären Fall und werden somit der Kapitel&amp;amp;ndash;Überschrift „AWGN–Kanalkapazität bei wertdiskretem Eingang''” gerecht.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2941__Inf_T_4_3_S5a_neu.png|center|frame|Zur Berechnung der AWGN–Kanalkapazität für BPSK]]&lt;br /&gt;
&lt;br /&gt;
Die Grafik zeigt das zugrundeliegende Blockschaltbild für [[Digitalsignalübertragung/Lineare_digitale_Modulation_–_Kohärente_Demodulation#Gemeinsames_Blockschaltbild_f.C3.BCr_ASK_und_BPSK|Binary Phase Shift Keying]] (BPSK) mit binärem Eingang $U$ und ebenfalls binärem Ausgang $V$. Durch eine bestmögliche Codierung soll erreicht werden, dass die Fehlerwahrscheinlichkeit $\text{Pr}(V ≠ U)$ verschwindend klein wird.&lt;br /&gt;
*Der Coderausgang ist gekennzeichnet durch die binäre Zufallsgröße $X ' = \{0, 1\}$ &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $M_{X'} = 2$, während der Ausgang $Y$ des AWGN–Kanals weiterhin wertkontinuierlich ist: &amp;amp;nbsp; $M_Y → ∞$.&lt;br /&gt;
*Durch das Mapping $X = 1 – 2X '$ kommt man von der unipolaren Darstellung zu der für BPSK besser geeigneten bipolaren (antipodalen) Beschreibung: &amp;amp;nbsp; $X ' = 0 → \ X = +1; X ' = 1 → X = –1$.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2942__Inf_T_4_3_S5b_neu.png|right|frame|Bedingte WDF für &amp;amp;bdquo;-1&amp;amp;rdquo; undfür &amp;amp;bdquo;+1&amp;amp;rdquo; ]]&lt;br /&gt;
&lt;br /&gt;
*Der AWGN–Kanal ist hier durch die beiden bedingten Wahrscheinlichkeitsdichtefunktionen charakterisiert:&lt;br /&gt;
:$$f_{Y|\hspace{0.03cm}{X}}(y|\hspace{0.03cm}{X}=+1) =\frac{1}{\sqrt{2\pi\sigma^2}} \cdot {\rm exp}\left [-\frac{(y -  1)^2}   { 2 \sigma^2})\right ] \hspace{0.05cm}\hspace{0.05cm},$$&lt;br /&gt;
:$$f_{Y|\hspace{0.03cm}{X}}(y|\hspace{0.03cm}{X}=-1) = \frac{1}{\sqrt{2\pi\sigma^2}} \cdot {\rm exp}\left [-\frac{(y +  1)^2}   { 2 \sigma^2})\right ] \hspace{0.05cm}$$&lt;br /&gt;
&lt;br /&gt;
:In Kurzform: $f_{Y | X} (y | +1)$ bzw. $f_{Y | X} (y | –1)$.&lt;br /&gt;
*Da hier das Nutzsignal $X$ auf $±1$ normiert ist &amp;amp;nbsp; ⇒ &amp;amp;nbsp; Leistung 1 anstelle von $P_X$, muss die Varianz des AWGN–Rauschens $N$ in gleicher Weise normiert werden:   $σ^2 = P_N/P_X$.&lt;br /&gt;
*Der Empfänger trifft aus der reellwertigen Zufallsgröße $Y$ (am AWGN–Kanalausgang) eine [[Kanalcodierung/Klassifizierung_von_Signalen#ML.E2.80.93Entscheidung_beim_AWGN.E2.80.93Kanal|Maximum–Likelihood–Entscheidung]]. Der Empfängerausgang $V$ ist binär (0 oder 1).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Ausgehend von diesem Modell wird nun die Kanalkapazität  des AWGN–Kanals berechnet. Diese lautet  bei einer binären Eingangsgröße $X$ allgemein unter Berücksichtigung von $\text{Pr}(X = -1) = 1 - \text{Pr}(X = +1)$:&lt;br /&gt;
 &lt;br /&gt;
:$$C_{\rm BPSK} =  \max_{ {\rm Pr}({X} =+1)} \hspace{-0.15cm}  I(X;Y) &lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Aufgrund des symmetrischen Kanals ist offensichtlich, dass die Eingangswahrscheinlichkeiten&lt;br /&gt;
 &lt;br /&gt;
:$${\rm Pr}(X =+1) = {\rm Pr}(X =-1) = 0.5 $$&lt;br /&gt;
&lt;br /&gt;
zum Optimum führen werden. Gemäß der Seite [[Informationstheorie/AWGN–Kanalkapazität_bei_wertkontinuierlichem_Eingang#Transinformationsberechnung_bei_additiver_St.C3.B6rung|Transinformationsberechnung bei additiver Störung]] gibt es mehrere Berechnungsmöglichkeiten:&lt;br /&gt;
 &lt;br /&gt;
:$$ \begin{align*}C_{\rm BPSK} &amp;amp; =    h(X) + h(Y) - h(XY)\hspace{0.05cm},\\&lt;br /&gt;
C_{\rm BPSK} &amp;amp; =   h(Y) - h(Y|X)\hspace{0.05cm},\\&lt;br /&gt;
C_{\rm BPSK} &amp;amp; = h(X) - h(X|Y)\hspace{0.05cm}. \end{align*}$$&lt;br /&gt;
&lt;br /&gt;
Alle Ergebnisse sind noch um die Pseudo–Einheit „bit” zu ergänzen. Wir wählen hier die mittlere Gleichung:&lt;br /&gt;
*Die hierfür benötigte bedingte differentielle Entropie ist gleich&lt;br /&gt;
:$$h(Y|X) = h(N) = 1/2 \cdot {\rm log}_2 \hspace{0.1cm}(2\pi{\rm e}\cdot \sigma^2)&lt;br /&gt;
	\hspace{0.05cm}. $$&lt;br /&gt;
&lt;br /&gt;
*Die differentielle Entropie $h(Y)$ ist vollständig durch die WDF $f_Y(y)$ gegeben. Mit den vorne definierten und skizzierten bedingten Wahrscheinlichkeitsdichtefunktionen erhält man:&lt;br /&gt;
:$$f_Y(y) = {1}/{2} \cdot \left [ f_{Y|{X}}(y\hspace{0.05cm}|{X}=-1) + f_{Y|{X}}(y\hspace{0.05cm}|{X}=+1) \right  ]\hspace{0.3cm} &lt;br /&gt;
\Rightarrow \hspace{0.3cm}  h(Y) \hspace{-0.01cm}=\hspace{0.05cm}&lt;br /&gt;
-\hspace{-0.7cm}  \int\limits_{y \hspace{0.05cm}\in \hspace{0.05cm}{\rm supp}(f_Y)} \hspace{-0.65cm}  f_Y(y) \cdot {\rm log}_2 \hspace{0.1cm} [f_Y(y)] \hspace{0.1cm}{\rm d}y&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Es ist offensichtlich, dass $h(Y)$ nur durch numerische Integration ermittelt werden kann, insbesondere, wenn man berücksichtigt, dass sich im Überlappungsbereich $f_Y(y)$ aus der Summe der beiden bedingten Gauß–Funktionen ergibt.&lt;br /&gt;
&lt;br /&gt;
In der folgenden Grafik sind über der Abszisse $10 · \lg (E_{\rm B}/N_0)$ drei Kurven dargestellt:&lt;br /&gt;
*die blau gezeichnete Kanalkapazität $C_{\rm Gauß}$, gültig für eine Gaußsche Eingangsgröße $X$  &amp;amp;nbsp; ⇒ &amp;amp;nbsp;   $M_X → ∞$,&lt;br /&gt;
*die grün gezeichnete Kanalkapazität $C_{\rm BPSK}$ für die Zufallsgröße $X = (+1, –1)$, sowie&lt;br /&gt;
*die mit „BPSK ohne Codierung” bezeichnete rote Horizontale.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2946__Inf_T_4_3_S5c_neu.png|center|frame|Die Kanalkapazitätsgrenzen &amp;lt;i&amp;gt;C&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;BPSK&amp;lt;/sub&amp;gt;  und &amp;lt;i&amp;gt;C&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;Gauß&amp;lt;/sub&amp;gt;   im Vergleich]]&lt;br /&gt;
&lt;br /&gt;
Diese Kurvenverläufe sind wie folgt zu interpretieren:&lt;br /&gt;
*Die grüne Kurve $C_{\rm BPSK}$ gibt die maximal zulässige Coderate $R$ einer BPSK an, bei der für das gegebene $E_{\rm B}/N_0$ durch bestmögliche Codierung die Bitfehlerwahrscheinlichkeit $p_{\rm B} \equiv 0$ möglich ist.&lt;br /&gt;
*Für alle BPSK–Systeme mit den Koordinaten ($10 · \lg (E_{\rm B}/N_0)$, $R$) im „grünen Bereich” ist $p_{\rm B} \equiv 0$ prinzipiell erreichbar. Aufgabe der Nachrichtentechniker ist es, hierfür geeignete Codes zu finden.&lt;br /&gt;
*Die BPSK–Kurve liegt stets unter der absoluten Shannon–Grenzkurve $C_{\rm Gauß}$ für $M_X → ∞$. Im unteren Bereich gilt $C_{\rm BPSK} ≈ C_{\rm Gauß}$. Zum Beispiel muss ein BPSK–System mit $R = 1/2$ nur ein um $0.1$ dB größeres $E_{\rm B}/N_0$ bereitstellen, als es die (absolute) Kanalkapazität $C_{\rm Gauß}$ fordert.&lt;br /&gt;
*Ist $E_{\rm B}/N_0$ endlich, so gilt stets $C_{\rm BPSK} &amp;lt; 1$ &amp;amp;nbsp; ⇒ &amp;amp;nbsp;  siehe[[Aufgaben:4.9Z_Ist_bei_BPSK_die_Kanalkapazität_C_≡_1_möglich%3F|Zusatzaufgabe 4.9Z]]. Eine BPSK mit $R = 1$ (und somit ohne Codierung) wird also stets eine Bitfehlerwahrscheinlichkeit $p_{\rm B} &amp;gt; 0$ zur Folge haben.&lt;br /&gt;
*Die Fehlerwahrscheinlichkeiten eines solchen BPSK–Systems ohne Codierung (mit  $R = 1$) sind auf der roten Horizontalen angegeben. Um $p_{\rm B} ≤ 10^{–5}$ zu erreichen, benötigt man mindestens $10 · \lg (E_{\rm B}/N_0) = 9.6$ dB.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Wahrscheinlichkeiten ergeben sich gemäß Kapitel [[Digitalsignalübertragung/Lineare_digitale_Modulation_–_Kohärente_Demodulation#Fehlerwahrscheinlichkeit_des_optimalen_BPSK.E2.80.93Systems_.282.29|Fehlerwahrscheinlichkeit des optimalen BPSK-Systems]] im Buch &amp;amp;bdquo;Digitalsignalübertragung&amp;amp;rdquo; zu&lt;br /&gt;
&lt;br /&gt;
:$$p_{\rm B} = {\rm Q} \left ( \sqrt{S \hspace{-0.06cm}N\hspace{-0.06cm}R}\right ) \hspace{0.45cm} {\rm mit } \hspace{0.45cm} &lt;br /&gt;
S\hspace{-0.06cm}N\hspace{-0.06cm}R = 2\cdot E_{\rm B}/{N_0}&lt;br /&gt;
\hspace{0.05cm}. $$&lt;br /&gt;
&lt;br /&gt;
''Hinweis'': In obiger Grafik ist als zweite, zusätzliche Abszissenachse $10 · \lg (SNR)$ eingezeichnet. Die Funktion${\rm Q}(x)$ bezeichnet man als die [[Stochastische_Signaltheorie/Gaußverteilte_Zufallsgrößen#.C3.9Cberschreitungswahrscheinlichkeit|komplementäre Gaußsche Fehlerfunktion]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Vergleich zwischen Theorie und Praxis==  &lt;br /&gt;
&lt;br /&gt;
Anhand zweier Grafiken soll gezeigt werden, in wie weit sich etablierte Kanalcodes der BPSK–Kanalkapazität (grüne Kurve) annähern. Als Ordinate aufgetragen ist die Rate $R = k/n$ dieser Codes bzw. die Kapazität $C$ (wenn noch die Pseudo–Einheit „bit/Kanalzugriff” hinzugefügt wird). &lt;br /&gt;
Vorausgesetzt ist:&lt;br /&gt;
*der AWGN–Kanal, gekennzeichnet durch $10 · \lg (E_{\rm B}/N_0)$ in dB, und&lt;br /&gt;
*für die durch Kreuze markierten realisierten Codes eine [[Digitalsignalübertragung/Fehlerwahrscheinlichkeit_bei_Basisbandübertragung#Definition_der_Bitfehlerquote|Bitfehlerrate]] (BER) von $10^{–5}$.&lt;br /&gt;
&lt;br /&gt;
Zu beachten ist, dass die Kanalkapazitätskurven stets für $n → ∞$ und $\rm BER \equiv 0$ gelten. Würde man diese strenge Forderung „feherfrei” auch an die betrachteten Kanalcodes endlicher Codelänge $n$ anlegen, so wäre hierfür stets $10 · \lg (E_{\rm B}/N_0) \to \infty$  erforderlich. Dies ist aber ein eher akademisches Problem, das für die Praxis weniger Bedeutung hat. Für $\text{BER} = 10^{–10}$ ergäbe sich eine qualitativ ähnliche Grafik.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2949__Inf_T_4_3_S6a.png|center|frame|Raten und erforderliches &amp;lt;i&amp;gt;E&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;B&amp;lt;/sub&amp;gt;/&amp;lt;i&amp;gt;N&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;0&amp;lt;/sub&amp;gt; verschiedener Kanalcodes]]&lt;br /&gt;
&lt;br /&gt;
Es folgen einige Erläuterungen zu den Daten, die der Vorlesung [Liv10]&amp;lt;ref&amp;gt;Liva, G.: ''Channel Coding''. Vorlesungsmanuskript, Lehrstuhl für Nachrichtentechnik, TU München und DLR Oberpfaffenhofen, 2010.&amp;lt;/ref&amp;gt; entnommen wurden. Die folgenden Links beziehen sich oft auf das LNTwww&amp;amp;ndash;Buch [[Kanalcodierung]].&lt;br /&gt;
*Die Punkte '''A''', '''B''' und '''C''' markieren [[Kanalcodierung/Beispiele_binärer_Blockcodes#Hamming.E2.80.93Codes_.281.29|Hamming–Codes]] der Raten $R = 4/7 ≈ 0.57$, $R ≈ 0.73$ bzw. $R ≈ 0.84$. Für $\text{BER} = 10^{–5}$ benötigen diese sehr frühen Codes (aus dem Jahr 1950) alle $10 · \lg (E_{\rm B}/N_0) &amp;gt; 8$ dB.&lt;br /&gt;
*Die Markierung '''D''' kennzeichnet den binären [https://de.wikipedia.org/wiki/Golay-Code Golay–Code] mit der Rate $R = 1/2$ und der Punkt '''E''' einen [https://de.wikipedia.org/wiki/Reed-Muller-Code Reed–Muller–Code]. Dieser sehr niederratige Code kam bereits 1971 bei der Raumsonde Mariner 9 zum Einsatz.&lt;br /&gt;
*Die [[Kanalcodierung/Definition_und_Eigenschaften_von_Reed–Solomon–Codes#Konstruktion_von_Reed.E2.80.93Solomon.E2.80.93Codes_.281.29|Reed–Solomon–Codes]] (RS–Codes, ca. 1960) sind eine Klasse zyklischer Blockcodes. '''F''' markiert einen RS–Code der Rate $223/255 &amp;gt; 0.9$ und einem erforderlichen $E_{\rm B}/N_0 &amp;lt; 6 dB$.&lt;br /&gt;
*Die Punkte '''G''' und '''H''' bezeichnen zwei [[Kanalcodierung/Grundlagen_der_Faltungscodierung|Faltungscodes]] (englisch: ''Convolutional Codes'', CC) mittlerer Rate. Der Code '''G''' wurde schon 1972 bei der Pioneer10–Mission eingesetzt.&lt;br /&gt;
*Die Kanalcodierung der Voyager–Mission Ende der 1970er Jahre ist mit '''I''' markiert. Es handelt sich um die [[Kanalcodierung/Soft–in_Soft–out_Decoder#Grundstruktur_von_verketteten_Codiersystemen|Verkettung]] eines (2, 1, 7)–Faltungscodes mit einem RS–Code.&lt;br /&gt;
&lt;br /&gt;
Anzumerken ist, dass bei den Faltungscodes der dritte Kennungsparameter eine andere Bedeutung hat als bei den Blockcodes. Die Kennung (2, 1, 32) weist beispielsweise auf das Memory $m = 32$ hin.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Kenndaten von neueren Systemen mit iterativer Decodierung 	 &lt;br /&gt;
&lt;br /&gt;
Die gerade genannten frühen Kanalcodes liegen noch relativ weit von der Kanalkapazitätskurve entfernt. Dies war wahrscheinlich auch ein Grund, warum dem Autor dieses Lerntutorials die auch große praktische Bedeutung der Informationstheorie verschlossen blieb, als er diese Anfang der 1970er Jahre im Studium kennenlernte.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Diese Sichtweise hat sich deutlich verändert, als in den 1990er Jahren sehr lange Kanalcodes zusammen mit iterativer Decodierung aufkamen. Die neuen Markierungspunkte liegen näher an der Kapazitätsgrenz kurve.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2950__Inf_T_4_3_S6b.png|center|frame|Raten und erforderliches &amp;lt;i&amp;gt;E&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;B&amp;lt;/sub&amp;gt;/&amp;lt;i&amp;gt;N&amp;lt;/i&amp;gt;&amp;lt;sub&amp;gt;0&amp;lt;/sub&amp;gt;  für iterative Codierverfahren ]]&lt;br /&gt;
&lt;br /&gt;
Hier noch einige Erläuterungen zu dieser Grafik:&lt;br /&gt;
*Rote Kreuze markieren sog. [https://de.wikipedia.org/wiki/Turbo-Code Turbo–Codes] nach CCSDS (''Consultative Committee for Space Data Systems'') mit jeweils $k = 6920$ Informationsbits und unterschiedlichen Codelängen $n = k/R$. Diese von [https://de.wikipedia.org/wiki/Claude_Berrou Claude Berrou] um 1990 erfundenen Codes können iterativ decodiert werden. Die (roten) Markierungen liegen jeweils weniger als 1 dB von der Shannon–Grenze entfernt.&lt;br /&gt;
*Ähnlich verhalten sich die [https://en.wikipedia.org/wiki/Low-density_parity-check_code LDPC–Codes] (''Low Density Parity–check Codes'') mit konstanter Codelänge $n = 64800$ &amp;amp;nbsp;  ⇒ &amp;amp;nbsp; weiße Rechtecke). Sie werden seit 2006 bei [https://de.wikipedia.org/wiki/DVB-S DVB–S2] (''Digital Video Broadcast over Satellite'') eingesetzt und eignen sich aufgrund der spärlichen Einsen–Belegung der Prüfmatrix sehr gut für die iterative Decodierung mittels [https://en.wikipedia.org/wiki/Factor_graph Faktor–Graphen] und [https://en.wikipedia.org/wiki/EXIT_chart Exit Charts].&lt;br /&gt;
*Schwarze Punkte markieren die von CCSDS spezifizierten [https://de.wikipedia.org/wiki/Low-Density-Parity-Check-Code LDPC–Codes] mit konstanter Anzahl an Informationsbits ($k = 16384$) und variabler Codewortlänge $n = k/R$. Diese Codeklasse erfordert ein ähnliches $E_{\rm B}/N_0$ wie die roten Kreuze und die weißen Rechtecke.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Um die Jahrhundertwende hatten viele Forscher den Ehrgeiz, sich der Shannon–Grenze bis auf Bruchteile von einem dB anzunähern. Das gelbe Kreuz markiert ein derartiges Ergebnis (0.0045 dB) von Chung et al. aus dem Jahr 2001. Verwendet wurde ein irregulärer LDPC–Code mit Rate $1/2$ und Codelänge $10^7$.&lt;br /&gt;
&lt;br /&gt;
An dieser Stelle soll nochmals die Brillianz und der Weitblick von [https://de.wikipedia.org/wiki/Claude_Shannon Claude E. Shannon] hervorgehoben werden: &lt;br /&gt;
*Er hat 1948 eine bis dahin nicht bekannte Theorie entwickelt, mit der die Möglichkeiten, aber auch die Grenzen der Digitalsignalübertragung aufgezeigt werden. &lt;br /&gt;
*Zu dieser Zeit waren die ersten Überlegungen zur digitalen Nachrichtenübertragung gerade mal zehn Jahre alt  &amp;amp;nbsp; ⇒ &amp;amp;nbsp; Pulscodemodulation (Alec Reeves, 1938) und selbst der Taschenrechner kam erst mehr als zwanzig Jahre später. &lt;br /&gt;
*Shannon's Arbeiten zeigen uns, dass man auch ohne gigantische Computer Großes leisten kann.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Kanalkapazität des komplexen AWGN–Kanals==  	 &lt;br /&gt;
&lt;br /&gt;
Höherstufige Modulationsverfahren können jeweils durch eine Inphase– und eine Quadraturkomponente dargestellt werden. Hierzu gehören zum Beispiel&lt;br /&gt;
*die [[Modulationsverfahren/Quadratur–Amplitudenmodulation#QAM.E2.80.93Signalraumkonstellationen|M–QAM]] &amp;amp;nbsp; ⇒  &amp;amp;nbsp; Quadraturamplitudenmodulation; $M ≥ 4$ quadratisch angeordnete e Signalraumpunkte,&lt;br /&gt;
*die [[Modulationsverfahren/Quadratur–Amplitudenmodulation#Weitere_Signalraumkonstellationen|M–PSK]]  &amp;amp;nbsp; ⇒  &amp;amp;nbsp;   $M ≥ 4$ Signalraumpunkte in kreisförmiger Anordnung&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die beiden Komponenten lassen sich im [[Signaldarstellung/Äquivalentes_Tiefpass-Signal_und_zugehörige_Spektralfunktion#Motivation|äquivalenten Tiefpassbereich]] auch als ''Realteil'' bzw. ''Imaginärteil'' eines komplexen Rauschterms $N$ beschreiben.&lt;br /&gt;
Alle oben genannten Verfahren sind zweidimensional. Der (komplexe) AWGN–Kanal stellt somit $K = 2$ voneinander unabhängige Gaußkanäle zur Verfügung. Entsprechend der Seite  [[Informationstheorie/AWGN–Kanalkapazität_bei_wertkontinuierlichem_Eingang#Parallele_Gau.C3.9Fsche_Kan.C3.A4le|Parallele  Gaußsche Kanäle]] ergibt sich deshalb für die Kapazität eines solchen Kanals:&lt;br /&gt;
 &lt;br /&gt;
:$$C_{\rm Gauss, \hspace{0.1cm}komplex}= C_{\rm Gesamt} ( K=2) &lt;br /&gt;
=  {\rm log}_2 \hspace{0.1cm} ( 1 + \frac{P_X/2}{\sigma^2}) &lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Hierbei wird die gesamte Nutzleistung von Inphase– und Quadraturkomponente mit $P_X$ bezeichnet.&lt;br /&gt;
*Dagegen bezieht sich die Varianz $σ^2$ der Störung nur auf eine Dimension: &amp;amp;nbsp; $σ^2 = σ_I^2 = σ_Q^2$.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2955__Inf_T_4_3_S7.png|right|frame|2D–WDF des Komplexen Gaußschen Rauschens]]&lt;br /&gt;
Die Abbildung zeigt die 2D–WDF $f_N(n)$ des Gaußschen Rauschprozesses $N$ über den beiden Achsen&lt;br /&gt;
* $N_{\rm I}$ (Inphase–Anteil, Realteil) und&lt;br /&gt;
* $N_{\rm Q}$ (Quadraturanteil, Imaginärteil).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dunklere Bereiche der rotationssymmetrischen WDF $f_N(n)$ um den Nullpunkt weisen auf mehr Störanteile hin. Für die Varianz des komplexen Gaußschen Rauschens $N$ gilt aufgrund der Rotationsinvarianz $(σ_{\rm I} = σ_{\rm Q})$ folgender Zusammenhang:&lt;br /&gt;
:$$\sigma_N^2 = \sigma_{\rm I}^2 + \sigma_{\rm Q}^2 = 2\cdot \sigma^2 &lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Damit lässt sich die Kanalkapazität auch wie folgt ausdrücken:&lt;br /&gt;
 &lt;br /&gt;
:$$C_{\rm Gauss, \hspace{0.1cm}komplex}= {\rm log}_2 \hspace{0.1cm} ( 1 + \frac{P_X}{\sigma_N^2})  = {\rm log}_2 \hspace{0.1cm} ( 1 + SNR)&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Diese Gleichung wird auf der nächsten Seite numerisch ausgewertet. Bereits aus dieser Gleichung ist aber zu ersehen, dass für das Signal–zu–Störleistungsverhältnis gelen wird: &amp;amp;nbsp; $SNR = {P_X}/{\sigma_N^2}&lt;br /&gt;
\hspace{0.05cm}.$&lt;br /&gt;
&lt;br /&gt;
==Maximale Coderate für QAM–Strukturen==  	 	&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2956__Inf_T_4_3_S8_neu.png|right|frame|Kanalkapazität von BPSK und &amp;lt;i&amp;gt;M&amp;lt;/i&amp;gt;–QAM]]&lt;br /&gt;
Die Grafik zeigt die Kanalkapazität des komplexen AWGN–Kanals als rote Kurve:&lt;br /&gt;
:$$C_{\rm Gauss, \hspace{0.1cm}komplex}= {\rm log}_2 \hspace{0.1cm} ( 1 + SNR)&lt;br /&gt;
\hspace{0.05cm}.$$&lt;br /&gt;
*Die Einheit dieser Kanalkapazität ist „bit/Kanalzugriff” oder „bit/Quellensymbol”. &lt;br /&gt;
*Als Abszisse ist der Signal–zu–Störleistungsverhältnis $10 · \lg (SNR)$ mit ${SNR} = P_X/σ_N^2$ aufgetragen.&lt;br /&gt;
*Die Grafik wurde  [Göb10]&amp;lt;ref&amp;gt;Göbel, B.: ''Information–Theoretic Aspects of Fiber–Optic Communication Channels''. Dissertation. TU München. Verlag Dr. Hut, Reihe Informationstechnik, ISBN 978-3-86853-713-0, 2010.&amp;lt;/ref&amp;gt; entnommen. Wir danken [[Biografien_und_Bibliografien/An_LNTwww_beteiligte_Mitarbeiter_und_Dozenten#Dr.-Ing._Bernhard_G.C3.B6bel_.28am_LNT_von_2004-2010.29|Bernhard Göbel]], unserem ehemaligen Kollegen am LNT, für sein Einverständnis, diese Abbildung verwenden zu dürfen, sowie für seine Unterstützung unseres Lerntutorials.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die rote Kurve basiert entsprechend der Shannon–Theorie wieder auf einer Gaußverteilung $f_X(x)$ am Eingang. Zusätzlich eingezeichnet sind zehn weitere Kapazitätskurven für wertdiskreten Eingang:&lt;br /&gt;
*die Kurve für [[Modulationsverfahren/Lineare_digitale_Modulationsverfahren#BPSK_.E2.80.93_Binary_Phase_Shift_Keying|Binary Phase Shift Keying]] (BPSK,  mit „1” markiert &amp;amp;nbsp; &amp;amp;rArr;&amp;amp;nbsp;  $K = 1$),&lt;br /&gt;
*die [[Modulationsverfahren/Quadratur–Amplitudenmodulation#QAM.E2.80.93Signalraumkonstellationen|''M''&amp;amp;ndash;stufige Quadratur–Amplitudenmodulation]] (mit $M = 2^K, K  = 2$, ... , $10$).&lt;br /&gt;
&lt;br /&gt;
Man erkennt aus dieser Darstellung:&lt;br /&gt;
*Alle Kurven (BPSK und&amp;lt;i&amp;gt;M&amp;lt;/i&amp;gt;–QAM liegen rechts von der roten Shannon–Grenzkurve. Bei kleinem SNR sind allerdings alle Kurven von der roten Kurve fast nicht mehr zu unterscheiden.&lt;br /&gt;
*Der Endwert aller Kurven für wertdiskrete Eingangssignale ist $K = \log_2 (M)$. Für $SNR  \to ∞$ erhält man beispielsweise $C_{\rm BPSK} = 1$ bit/Symbol sowie $C_{\rm 4-QAM} = C_{\rm QPSK} = 2$ bit/Symbol.&lt;br /&gt;
*Die blauen Markierungen zeigen, dass eine $2^{10}$–QAM mit $10 · \lg (SNR) ≈ 27$ dB eine Coderate von $R ≈ 8.2$ ermöglicht. Der Abstand zur Shannon–Kurve beträgt hier $1.53$ dB.&lt;br /&gt;
*Man spricht hier von einem ''Shaping Gain'' von $10 · \lg (π{\rm e}e/6) = 1.53$ dB. Diese Verbesserung lässt sich erzielen, wenn man die Lage der $2^{10} = 32^2$ quadratisch angeordneten Signalraumpunkte so ändern würde, dass sich eine gaußähnliche Eingangs–WDF ergibt &amp;amp;nbsp; ⇒  &amp;amp;nbsp;''Signal Shaping''.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
In der [[Aufgaben:4.Zehn_QPSK–Kanalkapazität| Aufgabe 4.10]] werden die AWGN–Kapazitätskurven von BPSK und QPSK diskutiert:&lt;br /&gt;
*Ausgehend von der Abszisse $10 · \lg (E_{\rm B}/N_0)$ mit der Energie $E_{\rm B}$ pro Informationsbit kommt man zur QPSK–Kurve durch Verdopplung der BPSK–Kurve:&lt;br /&gt;
:$$C_{\rm QPSK}[10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm B}/{N_0})] &lt;br /&gt;
=&lt;br /&gt;
2 \cdot C_{\rm BPSK}[10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm B}/{N_0}) ] .$$&lt;br /&gt;
&lt;br /&gt;
*Vergleicht man aber BPSK und QPSK bei gleicher Energie $E_{\rm S}$ pro Informationssymbol , so gilt:&lt;br /&gt;
:$$C_{\rm QPSK}[10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm S}/{N_0})] &lt;br /&gt;
=&lt;br /&gt;
2 \cdot C_{\rm BPSK}[10 \cdot {\rm lg} \hspace{0.1cm}(E_{\rm S}/{N_0}) - 3\,{\rm dB}] .$$&lt;br /&gt;
 &lt;br /&gt;
:Hierbei ist berücksichtigt, dass bei QPSK die Energie in einer Dimension nur $E_{\rm S}$/2 beträgt.&lt;br /&gt;
 &lt;br /&gt;
== Aufgaben zum Kapitel == &lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:4.8 Numerische Auswertung der AWGN-Kanalkapazität|Aufgabe 4.8: &amp;amp;nbsp; Numerische Auswertung der AWGN-Kanalkapazität]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:4.8Z Was sagt die AWGN-Kanalkapazitätskurve aus?|Zusatzaufgabe 4.8Z: &amp;amp;nbsp; Was sagt die AWGN-Kanalkapazitätskurve aus?]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:4.9 Höherstufige Modulation|Aufgabe 4.9: &amp;amp;nbsp; Höherstufige Modulation]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:4.9Z Ist bei BPSK die Kanalkapazität C ≡ 1 möglich?|Zusatzaufgabe 4.9Z: &amp;amp;nbsp; 4.9Z Ist bei BPSK die Kanalkapazität C ≡ 1 möglich?]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:4.10 QPSK–Kanalkapazität|Aufgabe 4.10: &amp;amp;nbsp; QPSK–Kanalkapazität]]&lt;br /&gt;
&lt;br /&gt;
== Quellenverzeichnis== &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
	<entry>
		<id>https://en.lntwww.de/index.php?title=Information_Theory/Discrete_Sources_with_Memory&amp;diff=21251</id>
		<title>Information Theory/Discrete Sources with Memory</title>
		<link rel="alternate" type="text/html" href="https://en.lntwww.de/index.php?title=Information_Theory/Discrete_Sources_with_Memory&amp;diff=21251"/>
		<updated>2018-01-02T15:10:05Z</updated>

		<summary type="html">&lt;p&gt;Wael: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
{{Header&lt;br /&gt;
|Untermenü=Entropie wertdiskreter Nachrichtenquellen&lt;br /&gt;
|Vorherige Seite=Gedächtnislose Nachrichtenquellen&lt;br /&gt;
|Nächste Seite=Natürliche wertdiskrete Nachrichtenquellen&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
==Ein einfaches einführendes Beispiel  ==	&lt;br /&gt;
Zu Beginn des ersten Kapitels haben wir eine gedächtnislose Nachrichtenquelle mit dem Symbolvorrat $\rm \{A, B, C, D\}$ &amp;amp;nbsp;  ⇒ &amp;amp;nbsp; $M = 4$ betrachtet. Eine beispielhafte Symbolfolge ist in der nachfolgenden Grafik als Quelle $\rm Q1$ nochmals dargestellt. Mit den Symbolwahrscheinlichkeiten $p_{\rm A} = 0.4 \hspace{0.05cm},\hspace{0.2cm}p_{\rm B} = 0.3 \hspace{0.05cm},\hspace{0.2cm}p_{\rm C} = 0.2 \hspace{0.05cm},\hspace{0.2cm} &lt;br /&gt;
p_{\rm D} = 0.1\hspace{0.05cm}$ ergibt sich die Entropie zu&lt;br /&gt;
 &lt;br /&gt;
:$$H \hspace{-0.05cm}= 0.4 \cdot {\rm log}_2\hspace{0.05cm}\frac {1}{0.4} + 0.3 \cdot {\rm log}_2\hspace{0.05cm}\frac {1}{0.3} +0.2 \cdot {\rm log}_2\hspace{0.05cm}\frac {1}{0.2} +0.1 \cdot {\rm log}_2\hspace{0.05cm}\frac {1}{0.1} \approx 1.84 \hspace{0.05cm}{\rm bit/Symbol}&lt;br /&gt;
 \hspace{0.01cm}.$$&lt;br /&gt;
&lt;br /&gt;
Aufgrund der ungleichen Auftrittswahrscheinlichkeiten der Symbole ist die Entropie kleiner als der Entscheidungsgehalt $H_0 = \log_2 M = 2 \hspace{0.05cm} \rm bit/Symbol$.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2238__Inf_T_1_2_S1a_neu.png|frame|Quaternäre Nachrichtenquelle ohne/mit Gedächtnis]]&lt;br /&gt;
&lt;br /&gt;
Die Quelle $\rm Q2$ ist weitgehend identisch mit der Quelle $\rm Q1$, außer, dass jedes einzelne Symbol nicht nur einmal, sondern zweimal nacheinander ausgegeben wird: $\rm A ⇒ AA$, $\rm B ⇒ BB$, usw. &lt;br /&gt;
*Es ist offensichtlich, dass $\rm Q2$ eine kleinere Entropie (Unsicherheit) aufweist als $\rm Q1$. &lt;br /&gt;
*Aufgrund des einfachen Wiederholungscodes ist nun $H = 1.84/2 = 0.92 \hspace{0.05cm} \rm bit/Symbol$ nur halb so groß, obwohl sich an den Auftrittswahrscheinlichkeiten nichts geändert hat.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dieses Beispiel zeigt:&lt;br /&gt;
*Die Entropie einer gedächtnisbehafteten Quelle ist kleiner als die Entropie einer gedächtnislosen Quelle mit gleichen Symbolwahrscheinlichkeiten.&lt;br /&gt;
*Es müssen nun auch die statistischen Bindungen innerhalb der Folge $〈 q_ν 〉$ berücksichtigt werden, nämlich die Abhängigkeit des Symbols $q_ν$ von den Vorgängersymbolen $q_{ν–1}$, $q_{ν–2}$, ... &lt;br /&gt;
 &lt;br /&gt;
	 &lt;br /&gt;
==Entropie hinsichtlich Zweiertupel == &lt;br /&gt;
Wir betrachten weiterhin die Quellensymbolfolge $〈 q_1, \hspace{0.05cm} q_2$, ... , $q_{ν–1}, \hspace{0.05cm}q_ν, \hspace{0.05cm}\hspace{0.05cm}q_{ν+1}〉$, ..., interessieren uns aber nun für die Entropie zweier aufeinanderfolgender Quellensymbole. Alle Quellensymbole $q_ν$ entstammen einem Alphabet mit dem Symbolunfang $M$, so dass es für die Kombination  $(q_ν, \hspace{0.05cm}q_{ν+1})$ genau $M^2$ mögliche Symbolpaare mit folgenden [[Stochastische_Signaltheorie/Mengentheoretische_Grundlagen#Schnittmenge|Verbundwahrscheinlichkeiten]] gibt:&lt;br /&gt;
 &lt;br /&gt;
:$${\rm Pr}(q_{\nu}\cap q_{\nu+1})\le {\rm Pr}(q_{\nu}) \cdot {\rm Pr}( q_{\nu+1})&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Daraus ist die ''Verbundentropie'' eines Zweier–Tupels berechenbar:&lt;br /&gt;
 &lt;br /&gt;
:$$H_2' = \sum_{q_{\nu} \in \{ q_{\mu}\hspace{-0.08cm} \}} \sum_{q_{\nu+1} \in \{ q_{\mu}\hspace{-0.08cm} \}}\hspace{-0.1cm}{\rm Pr}(q_{\nu}\cap q_{\nu+1}) \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{{\rm Pr}(q_{\nu}\cap q_{\nu+1})} \hspace{0.4cm}({\rm Einheit\hspace{-0.1cm}: \hspace{0.1cm}bit/Zweiertupel})&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Der Index 2 symbolisiert, dass sich die so berechnete Entropie auf Zweiertupel bezieht. Um den mittleren Informationsgehalt pro Symbol zu erhalten, muss $H_2'$ noch halbiert werden:&lt;br /&gt;
 &lt;br /&gt;
:$$H_2 = {H_2'}/{2}  \hspace{0.5cm}({\rm Einheit\hspace{-0.1cm}: \hspace{0.1cm}bit/Symbol})&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Um eine konsistente Nomenklatur zu erreichen, benennen wir nun die im Kapitel [[Informationstheorie/Gedächtnislose_Nachrichtenquellen#Modell_und_Voraussetzungen|Gedächtnislose Nachrichtenquellen]] definierte Entropie mit $H_1$:&lt;br /&gt;
 &lt;br /&gt;
:$$H_1 = \sum_{q_{\nu}\in \{ q_{\mu}\hspace{-0.03cm} \}} {\rm Pr}(q_{\nu}) \cdot {\rm ld}\hspace{0.1cm}\frac {1}{{\rm Pr}(q_{\nu})} \hspace{0.5cm}({\rm Einheit\hspace{-0.1cm}: \hspace{0.1cm}bit/Symbol})&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Der Index 1 soll darauf hinweisen, dass $H_1$ ausschließlich die Symbolwahrscheinlichkeiten berücksichtigt und nicht statistischen Bindungen zwischen Symbolen innerhalb der Folge. Mit dem Entscheidungsgehalt $H_0 = \log_2 \ M$ ergibt sich dann folgende Größenbeziehung:&lt;br /&gt;
 &lt;br /&gt;
:$$H_0 \ge H_1 \ge H_2&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Bei statistischer Unabhängigkeit der Folgenelemente ist $H_2 = H_1$.&lt;br /&gt;
&lt;br /&gt;
Die bisherigen Gleichungen geben jeweils einen Scharmittelwert an. Die für die Berechnung von $H_1$ und $H_2$ benötigten Wahrscheinlichkeiten lassen sich aber auch als Zeitmittelwerte aus einer sehr langen Folge berechnen oder – etwas genauer ausgedrückt – durch die entsprechenden [[Stochastische_Signaltheorie/Wahrscheinlichkeit_und_relative_Häufigkeit#Bernoullisches_Gesetz_der_gro.C3.9Fen_Zahlen|relativen Häufigkeiten]] annähern.&lt;br /&gt;
&lt;br /&gt;
Verdeutlichen wir uns nun die Berechnung der Entropienäherungen $H_1$ und $H_2$ an drei Beispielen.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&amp;amp;nbsp; '''[A]'''&lt;br /&gt;
Wir betrachten zunächst die Folge $〈 q_1$, ... , $q_{50}$ 〉 gemäß der folgernden Grafik, wobei die Folgenelemente $q_ν$ dem Alphabet $\rm \{A, B, C \}$ entstammen   &amp;amp;nbsp; ⇒  &amp;amp;nbsp; Symbolumfang $M = 3$.&lt;br /&gt;
&lt;br /&gt;
[[File:Inf_T_1_2_S2_vers2.png|frame|Ternäre Symbolfolge und Bildung von Zweier–Tupeln]]&lt;br /&gt;
&lt;br /&gt;
Durch Zeitmittelung über die $50$ Symbole erhält man die Symbolwahrscheinlichkeiten $p_{\rm A} ≈ 0.5$, $p_{\rm B} ≈ 0.35$ und $p_{\rm C} ≈ 0.2$, womit man die Entropienäherung erster Ordnung berechnen kann:&lt;br /&gt;
 &lt;br /&gt;
:$$H_1 = 0.5 \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{0.5} + 0.3 \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{0.3} +0.2 \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{0.2}  \approx \, 1.486 \,{\rm bit/Symbol}&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Aufgrund der nicht gleichwahrscheinlichen Symbole ist $H_1 &amp;lt; H_0 = 1.585 \hspace{0.05cm} \rm  bit/Symbol$. Als Näherung für die Wahrscheinlichkeiten von Zweiertupeln erhält man aus der obigen Folge:&lt;br /&gt;
 &lt;br /&gt;
:$$\begin{align*}p_{\rm AA} \hspace{-0.1cm}&amp;amp; =  \hspace{-0.1cm} 14/49\hspace{0.05cm}, \hspace{0.2cm}p_{\rm AB} = 8/49\hspace{0.05cm}, \hspace{0.2cm}p_{\rm AC} = 3/49\hspace{0.05cm}, \\&lt;br /&gt;
 p_{\rm BA} \hspace{-0.1cm}&amp;amp; =  \hspace{0.07cm} 7/49\hspace{0.05cm}, \hspace{0.2cm}p_{\rm BB} = 2/49\hspace{0.05cm}, \hspace{0.2cm}p_{\rm BC} = 5/49\hspace{0.05cm}, \\&lt;br /&gt;
 p_{\rm CA} \hspace{-0.1cm}&amp;amp; =  \hspace{0.07cm} 4/49\hspace{0.05cm}, \hspace{0.2cm}p_{\rm CB} = 5/49\hspace{0.05cm}, \hspace{0.2cm}p_{\rm CC} = 1/49\hspace{0.05cm}.\end{align*}$$&lt;br /&gt;
&lt;br /&gt;
Beachten Sie, dass aus den $50$ Folgenelementen nur $49$ Zweiertupel $(\rm AA$, ... , $\rm AACC)$ gebildet werden können, die in der obigen Grafik farblich unterschiedlich markiert sind.&lt;br /&gt;
Die daraus berechenbare Entropienäherung $H_2$ sollte eigentlich gleich $H_1$ sein, da die gegebene Symbolfolge von einer gedächtnislosen Quelle stammt. Aufgrund der kurzen Folgenlänge $N = 50$ und der daraus resultierenden statistischen Ungenauigkeit ergibt sich ein etwas kleinerer Wert: &amp;amp;nbsp; $H_2 ≈ 1.39\hspace{0.05cm} \rm   bit/Symbol$.&lt;br /&gt;
{{end}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&amp;amp;nbsp; '''[B]'''&lt;br /&gt;
Nun betrachten wir eine ''gedächtnislose Binärquelle'' mit gleichwahrscheinlichen Symbolen, das heißt es gelte $p_{\rm A} = p_{\rm A} = 1/2$. Die ersten zwanzig Folgeelemente lauten: &amp;amp;nbsp; $〈 q_ν 〉 =\rm BBAAABAABBBBBAAAABAB$ ...&lt;br /&gt;
*Aufgrund der gleichwahrscheinlichen Binärsymbole ist $H_1 = H_0 = 1 \hspace{0.05cm} \rm bit/Symbol$.&lt;br /&gt;
*Die Verbundwahrscheinlichkeit $p_{\rm AB}$ der Kombination $\rm AB$ ist gleich $p_{\rm A} · p_{\rm B} = 1/4$. Ebenso gilt $p_{\rm AA} = p_{\rm BB} = p_{\rm BA} = 1/4$. Damit erhält man für die zweite Entropienäherung&lt;br /&gt;
 &lt;br /&gt;
:$$H_2 = {1}/{2} \cdot \left [ {1}/{4} \cdot {\rm log}_2\hspace{0.1cm}4 +  {1}/{4} \cdot {\rm log}_2\hspace{0.1cm}4 +{1}/{4} \cdot {\rm log}_2\hspace{0.1cm}4 +{1}/{4} \cdot {\rm log}_2\hspace{0.1cm}4 \right ] = 1 \,{\rm bit/Symbol} = H_1 = H_0&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
''Hinweis'': Aus der oben angegebenen Folge ergeben sich aufgrund der kurzen Länge etwas andere Verbundwahrscheinlichkeiten, nämlich $p_{\rm AA} = 6/19$, $p_{\rm BB} = 5/19$ und $p_{\rm AB} = p_{\rm BA} = 4/19$.&lt;br /&gt;
{{end}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&amp;amp;nbsp; '''[C]'''&lt;br /&gt;
Die dritte hier betrachtete Folge ergibt sich aus  der Folge von Beispiel [B] durch Anwendung eines einfachen Wiederholungscodes (wiederholte Symbole als Kleinbuchstaben): &amp;amp;nbsp; $〈 q_ν 〉 =\rm BbBbAaAaAaBbAaAaBbBb$ ...&lt;br /&gt;
*Aufgrund der gleichwahrscheinlichen Binärsymbole ergibt sich auch hier  $H_1 = H_0 = 1 \hspace{0.05cm} \rm bit/Symbol$.&lt;br /&gt;
*Wie in [[Aufgaben:1.3_Entropienäherungen|Aufgabe1.3]] gezeigt wird, gilt nun für die Verbundwahrscheinlichkeiten $p_{\rm AA}=p_{\rm BB} = 3/8$ und $p_{\rm ABA}=p_{\rm BAB} = 1/8$. Daraus folgt:&lt;br /&gt;
:$$\begin{align*}H_2 ={1}/{2} \cdot \left [ 2 \cdot {3}/{8} \cdot {\rm log}_2\hspace{0.1cm} {8}/{3} + &lt;br /&gt;
 2 \cdot {1}/{8} \cdot {\rm log}_2\hspace{0.1cm}8\right ] = {3}/{8} \cdot {\rm log}_2\hspace{0.1cm}8 - {3}/{8} \cdot{\rm log}_2\hspace{0.1cm}3 +   {1}/{8} \cdot {\rm log}_2\hspace{0.1cm}8 \approx= 0.906 \,{\rm bit/Symbol} &amp;lt; H_1 = H_0&lt;br /&gt;
 \hspace{0.05cm}.\end{align*}$$&lt;br /&gt;
&lt;br /&gt;
Betrachtet man sich die Aufgabenstellung genauer, so kommt man zu folgendem Schluss: &lt;br /&gt;
*Die Entropie müsste eigentlich $H = 0.5 \hspace{0.05cm} \rm bit/Symbol$ sein (jedes zweite Symbol liefert keine neue Information). &lt;br /&gt;
*Die zweite Entropienäherung $H_2 = 0.906 \hspace{0.05cm} \rm bit/Symbol$ ist aber deutlich größer als die Entropie $H$.&lt;br /&gt;
*Zur Entropiebestimmung reicht die Näherung zweiter Ordnung nicht aus. Vielmehr muss man größere zusammenhängende Blöcke mit $k &amp;gt; 2$ Symbolen betrachten. &lt;br /&gt;
*Einen solchen Block bezeichnen wir im Folgenden als $k$–Tupel.&lt;br /&gt;
{{end}}&lt;br /&gt;
&lt;br /&gt;
	 	 &lt;br /&gt;
==Verallgemeinerung auf ''k''–Tupel und Grenzübergang ==&lt;br /&gt;
&lt;br /&gt;
Zur Abkürzung schreiben wir mit der Verbundwahrscheinlichkeit $p_i^{(k)}$ eines $k$–Tupels allgemein:&lt;br /&gt;
 &lt;br /&gt;
:$$H_k = \frac{1}{k} \cdot \sum_{i=1}^{M^k} p_i^{(k)} \cdot {\rm log}_2\hspace{0.1cm} \frac{1}{p_i^{(k)}} \hspace{0.5cm}({\rm Einheit\hspace{-0.1cm}: \hspace{0.1cm}bit/Symbol})&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Die Laufvariable $i$ steht jeweils für eines der $M^k$ Tupel. Die vorher berechnete Näherung $H_2$ ergibt sich mit $k = 2$.&lt;br /&gt;
&lt;br /&gt;
{{Definition}}&lt;br /&gt;
Die '''Entropie''' einer Nachrichtenquelle '''mit Gedächtnis''' ist der folgende Grenzwert: &lt;br /&gt;
:$$H = \lim_{k \rightarrow \infty }H_k \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Für die ''Entropienäherungen'' $H_k$ gelten folgende Größenrelationen ($H_0$ ist der Entscheidungsgehalt):&lt;br /&gt;
:$$H \le \text{...} \le H_k \le \text{...} \le H_2 \le H_1 \le H_0 \hspace{0.05cm}.$${{end}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Der Rechenaufwand wird bis auf wenige Sonderfälle (siehe nachfolgendes Beispiel) mit zunehmendem $k$ immer größer und hängt natürlich auch vom Symbolumfang $M$ ab:&lt;br /&gt;
*Zur Berechnung von $H_{10}$ einer Binärquelle $(M = 2)$ ist über $2^{10} = 1024$ Terme zu mitteln. Mit jeder weiteren Erhöhung von $k$ um $1$ verdoppelt sich die Anzahl der Summenterme.&lt;br /&gt;
*Bei einer Quaternärquelle $(M = 42)$ muss zur $H_{10}$–Bestimmung bereits über $4^{10} = 1\hspace{0.05cm}048\hspace{0.05cm}.576$ Summenterme gemittelt werden.&lt;br /&gt;
*Berücksichtigt man, dass jedes dieser $4^{10} =2^{20} &amp;gt;10^6$ $k$–Tupel bei Simulation/Zeitmittelung etwa $100$ mal (statistischer Richtwert) vorkommen sollte, um ausreichende Simulationsgenauigkeit zu gewährleisten, so folgt daraus, dass die Folgenlänge größer als $N = 10^8$ sein sollte.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&lt;br /&gt;
Wir betrachten eine alternierende Binärfolge  ⇒  $〈 q_ν 〉 =\rm ABABABAB$ ... entsprechend $H_0 = H_1 = 1 \hspace{0.05cm} \rm bit/Symbol$. In diesem Sonderfall muss zur Bestimmung der $H_k$–Näherung unabhängig von $k$ stets nur über zwei Verbundwahrscheinlichkeiten gemittelt werden:&lt;br /&gt;
* $k = 2$: &amp;amp;nbsp;&amp;amp;nbsp;   $p_{\rm AB} = p_{\rm BA} = 1/2$           ⇒  $H_2 =  1/2 \hspace{0.05cm} \rm bit/Symbol$,&lt;br /&gt;
* $k = 3$:  &amp;amp;nbsp;&amp;amp;nbsp;   $p_{\rm ABA} = p_{\rm BAB} = 1/2$       ⇒  $H_3 =  1/3 \hspace{0.05cm} \rm bit/Symbol$,&lt;br /&gt;
* $k = 4$:  &amp;amp;nbsp;&amp;amp;nbsp;  $p_{\rm ABAB} = p_{\rm BABA} = 1/2$  ⇒  $H_4 =  1/4 \hspace{0.05cm} \rm bit/Symbol$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Entropie dieser alternierenden Binärfolge ist demzufolge&lt;br /&gt;
$H = \lim_{k \rightarrow \infty }{1}/{k} = 0 \hspace{0.05cm}.$&lt;br /&gt;
&lt;br /&gt;
Dieses Ergebnis war zu erwarten, da die betrachtete Folge nur minimale Information besitzt, die sich allerdings im Entropie–Endwert $H$ nicht auswirkt, nämlich die Information: &lt;br /&gt;
*„Tritt '''A''' zu den geraden oder ungeraden Zeitpunkten auf?”&lt;br /&gt;
*Man erkennt aber auch, dass $H_k$ diesem Endwert $H = 0$ nur sehr langsam näher kommt: Die zwanzigste Entropienäherung  liefert immer noch $H_{20} = 0.05 \hspace{0.05cm} \rm bit/Symbol$. &lt;br /&gt;
{{end}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Box}}'''Zusammenfassung''' der Ergebnisse der letzten Seiten:&lt;br /&gt;
&lt;br /&gt;
*Allgemein gilt für die Entropie einer Nachrichtenquelle:&lt;br /&gt;
:$$H \le \text{...} \le H_3 \le H_2 \le H_1 \le H_0 &lt;br /&gt;
 \hspace{0.05cm}.$$ &lt;br /&gt;
*Eine '''redundanzfreie Quelle''' liegt vor, falls alle $M$ Symbole gleichwahrscheinlich sind und es keine statistischen Bindungen innerhalb der Folge gibt. Für diese gilt ( $r$ bezeichnet die ''relative Redundanz'' ):&lt;br /&gt;
:$$H = H_0 = H_1 = H_2 = H_3 = \text{...}\hspace{0.5cm}&lt;br /&gt;
\Rightarrow \hspace{0.5cm} r = \frac{H - H_0}{H_0}= 0 \hspace{0.05cm}.$$ &lt;br /&gt;
*Eine '''gedächtnislose Quelle''' kann durchaus redundant sein $(r&amp;gt; 0)$. Diese Redundanz geht dann allerdings allein auf die Abweichung der Symbolwahrscheinlichkeiten von der Gleichverteilung zurück. Hier gelten folgende Relationen:&lt;br /&gt;
:$$H = H_1 = H_2 = H_3 = ... \le H_0 \hspace{0.5cm}\Rightarrow \hspace{0.5cm}0 \le r = \frac{H_1 - H_0}{H_0}&amp;lt; 1 \hspace{0.05cm}.$$ &lt;br /&gt;
*Die entsprechende Bedingung für eine '''gedächtnisbehaftete Quelle''' lautet:&lt;br /&gt;
:$$ H &amp;lt; ... &amp;lt; H_3 &amp;lt; H_2 &amp;lt; H_1 \le H_0 \hspace{0.5cm}\Rightarrow \hspace{0.5cm} 0 &amp;lt; r = \frac{H_1 - H_0}{H_0}\le1 \hspace{0.05cm}.$$&lt;br /&gt;
*Ist $H_2 &amp;lt; H_1$, dann gilt (nach Meinung des Autors) auch $H_3 &amp;lt; H_2$, $H_4 &amp;lt; H_3$, ... , also es ist das „≤”–Zeichen in der allgemeinen Gleichung durch das „&amp;lt;”–Zeichen zu ersetzen. Sind die Symbole gleichwahrscheinlich, so gilt wieder $H_1 = H_0$, bei nicht gleichwahrscheinlichen Symbolen $H_1 &amp;lt; H_0$.&lt;br /&gt;
{{end}}&lt;br /&gt;
	 	 &lt;br /&gt;
&lt;br /&gt;
==Die Entropie des AMI–Codes  ==	 	&lt;br /&gt;
&lt;br /&gt;
Im Kapitel [[Digitalsignalübertragung/Symbolweise_Codierung_mit_Pseudoternärcodes#Eigenschaften_des_AMI-Codes|Symbolweise Codierung mit Pseudoternärcodes]] des Buches „Digitalsignalübertragung” wird unter Anderem der AMI–Pseudoternärcode behandelt. &lt;br /&gt;
*Dieser wandelt die Binärfolge $〈 q_ν 〉$ mit $q_ν ∈ \{ \rm L, H \}$ in die Ternärfolge $〈 c_ν 〉$ mit $q_ν ∈ \{ \rm M, N, P \}$.&lt;br /&gt;
*Die Bezeichnungen der Quellensymbole stehen für „Low” und „High” und die der Codesymbole für „Minus”, „Null” und „Plus”. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die Codierregel des AMI–Codes (diese Kurzform steht für „Alternate Mark Inversion”) lautet:&lt;br /&gt;
*Jedes Binärsymbol $q_ν =\rm L$ wird durch das Codesymbol $c_ν =\rm N$ dargestellt.&lt;br /&gt;
*Dagegen wird $q_ν =\rm H$ abwechselnd mit $c_ν =\rm P$ und $c_ν =\rm M$ codiert   ⇒   Name „AMI”.&lt;br /&gt;
&lt;br /&gt;
:[[File:P_ID2240__Inf_T_1_2_S4_neu.png|frame|Signale und Symbolfolgen beim AMI–Code]]&lt;br /&gt;
&lt;br /&gt;
Durch die Codierung wird Redundanz hinzugefügt mit dem Ziel, dass die Codefolge keinen Gleichanteil beinhaltet. Wir betrachten hier jedoch nicht die spektralen Eigenschaften des AMI–Codes, sondern interpretieren diesen Code informationstheoretisch:&lt;br /&gt;
*Aufgrund der Stufenzahl $M = 3$ ist der Entscheidungsgehalt der (ternären) Codefolge gleich $H_0 = \log_2 \ 3 ≈ 1.585 \hspace{0.05cm} \rm  bit/Symbol$. Die erste Entropienäherung liefert $H_1 = 1.5 \hspace{0.05cm} \rm bit/Symbol$, wie nachfolgende Rechnung zeigt:&lt;br /&gt;
  &lt;br /&gt;
:$$p_{\rm H} = p_{\rm L} = 1/2 \hspace{0.3cm}\Rightarrow \hspace{0.3cm}&lt;br /&gt;
p_{\rm N} = p_{\rm L} = 1/2\hspace{0.05cm},\hspace{0.2cm}p_{\rm M} = p_{\rm P}= p_{\rm H}/2 = 1/4\hspace{0.3cm}&lt;br /&gt;
\Rightarrow \hspace{0.3cm} H_1 = 1/2 \cdot {\rm log}_2\hspace{0.1cm}2 + 2 \cdot  1/4 \cdot{\rm log}_2\hspace{0.1cm}4 = 1.5 \,{\rm bit/Symbol}&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Betrachten wir nun Zweiertupel. Beim AMI–Code kann $\rm P$ nicht auf $\rm P$ und $\rm M$ nicht auf $\rm M$ folgen. Die Wahrscheinlichkeit für $\rm NN$ ist gleich $p_{\rm L} · p_{\rm L} = 1/4$. Alle anderen (sechs) Zweiertupel treten mit der Wahrscheinlichkeit $1/8$ auf. Daraus folgt für die zweite Entropienäherung:&lt;br /&gt;
:$$H_2 = 1/2 \cdot [ 1/4 \cdot {\rm ld}\hspace{0.1cm}4 + 6 \cdot  1/8 \cdot {\rm ld}\hspace{0.1cm}8  ] = 1.375 \,{\rm bit/Symbol}&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Für die weiteren Entropienäherungen $H_3$, $H_43$, ...und die tatsächliche Entropie $H$ wird gelten:&lt;br /&gt;
:$$ H &amp;lt; ... &amp;lt; H_5 &amp;lt; H_4 &amp;lt; H_3 &amp;lt; H_2  = 1.375 \,{\rm bit/Symbol} \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Bei diesem Beispiel kennt man die tatsächliche Entropie $H$ der Codesymbolfolge $〈 c_ν 〉$. Da durch den Coder keine neue Information hinzukommt, aber auch keine verloren geht, ergibt sich die gleiche Entropie $H  = 1 \,{\rm bit/Symbol} $ wie für die redundanzfreie Binärfolge $〈 q_ν 〉$:&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die [[Aufgaben:1.4_Entropienäherungen_für_den_AMI-Code|Aufgabe 1.4]] zeigt den bereits beträchtlichen Aufwand zur Berechnung der Entropienäherung $H_3$; zudem weicht $H_3$ noch deutlich vom Endwert $H  = 1 \,{\rm bit/Symbol} $ ab. Schneller kommt man zum Ergebnis, wenn man den AMI–Code durch eine Markovkette entsprechend dem nächsten Abschnitt beschreibt.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Binärquellen mit Markoveigenschaften  ==	 &lt;br /&gt;
&lt;br /&gt;
[[File:Inf_T_1_2_S5_vers2.png|right|frame|Markovprozesse mit ''M'' = 2 Zuständen]]&lt;br /&gt;
&lt;br /&gt;
Folgen mit statistischen Bindungen zwischen den Folgenelementen (Symbolen) werden oft durch [[Stochastische_Signaltheorie/Markovketten|Markovprozesse]] modelliert, wobei wir uns hier auf Markovprozesse erster Ordnung beschränken. Zunächst betrachten wir einen binären Markovprozess ($(M = 2)$ mit den Zuständen (Symbolen) $\rm A$ und $\rm B$.&lt;br /&gt;
Rechts  sehen Sie das Übergangsdiagramm für einen binären Markovprozess erster Ordnung. Von den vier angegebenen Übertragungswahrscheinlichkeiten sind allerdings nur zwei frei wählbar, zum Beispiel&lt;br /&gt;
* $p_{\rm {A\hspace{0.01cm}|\hspace{0.01cm}B}} = \rm Pr(A\hspace{0.01cm}|\hspace{0.01cm}B)$   ⇒   bedingte Wahrscheinlichkeit, dass $\rm A$ auf $\rm B$ folgt.&lt;br /&gt;
* $p_{\rm {B\hspace{0.01cm}|\hspace{0.01cm}A}} = \rm Pr(B\hspace{0.01cm}|\hspace{0.01cm}A)$   ⇒   bedingte Wahrscheinlichkeit, dass $\rm A$ auf $\rm A$ folgt.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Für die beiden weiteren Übergangswahrscheinlichkeiten gilt dann $p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} = 1- p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}&lt;br /&gt;
 \hspace{0.05cm}, \hspace{0.2cm}p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B} = 1- p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B}&lt;br /&gt;
 \hspace{0.05cm}.$&lt;br /&gt;
&lt;br /&gt;
Aufgrund der vorausgesetzten Eigenschaften [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Station.C3.A4re_Zufallsprozesse|Stationarität]] und [[Stochastische_Signaltheorie/Autokorrelationsfunktion_(AKF)#Ergodische_Zufallsprozesse|Ergodizität]] gilt für die Zustands– bzw. Symbolwahrscheinlichkeiten:&lt;br /&gt;
 &lt;br /&gt;
:$$p_{\rm A} = {\rm Pr}({\rm A}) = \frac{p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B}}{p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} + p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}}&lt;br /&gt;
 \hspace{0.05cm}, \hspace{0.2cm}p_{\rm B} = {\rm Pr}({\rm B}) = \frac{p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}}{p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} + p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}}&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Diese Gleichungen erlauben erste informationstheoretische Aussagen über Markovprozesse:&lt;br /&gt;
* Für $p_{\rm {A\hspace{0.01cm}|\hspace{0.01cm}B}} = p_{\rm {B\hspace{0.01cm}|\hspace{0.01cm}A}}$ sind die Symbole gleichwahrscheinlich &amp;amp;nbsp; ⇒ &amp;amp;nbsp; $p_{\text{A}} = p_{\text{B}}= 0.5$. Die erste Entropienäherung liefert $H_1 = H_0 = 1 \hspace{0.05cm} \rm  bit/Symbol$, und zwar unabhängig von den tatsächlichen Werten der (bedingten) Übergangswahrscheinlichkeiten $p_{\text{A|B}}$ bzw. $p_{\text{B|A}}$.&lt;br /&gt;
*Die Quellenentropie $H$ als der Grenzwert der [[Informationstheorie/Nachrichtenquellen_mit_Gedächtnis#Verallgemeinerung_auf_k.E2.80.93Tupel_und_Grenz.C3.BCbergang|Entropienäherung $k$–ter Ordnung]] $H_k$ für $k \to \infty$  hängt aber sehr wohl von den tatsächlichen Werten von $p_{\text{A|B}}$ und $p_{\text{B|A}}$ ab und nicht nur von ihrem Quotienten. Dies zeigt das folgende Beispiel.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Beispiel}}&lt;br /&gt;
Wir betrachten drei binäre symmetrische Markovquellen, die sich durch die Zahlenwerte der symmetrischen Übergangswahrscheinlichkeiten $p_{\rm {A\hspace{0.01cm}|\hspace{0.01cm}B}} = p_{\rm {B\hspace{0.01cm}|\hspace{0.01cm}A}}$ unterscheiden. Für die  Symbolwahrscheinlichkeiten gilt somit:  $p_{\rm A} = p_{\rm B}= 0.5$ und die  anderen Übergangswahrscheinlichkeiten haben dann die Werte: $p_{\rm {A\hspace{0.01cm}|\hspace{0.01cm}A}} = 1 - p_{\rm {B\hspace{0.01cm}|\hspace{0.01cm}A}} =&lt;br /&gt;
p_{\rm {B\hspace{0.01cm}|\hspace{0.01cm}B}}.$&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2242__Inf_T_1_2_S5b_neu.png|frame|Drei Beispiele binärer Markovquellen]]&lt;br /&gt;
&lt;br /&gt;
*Die mittlere (blaue) Symbolfolge mit $p_{\rm {A\hspace{0.01cm}|\hspace{0.01cm}B}} = p_{\rm {B\hspace{0.01cm}|\hspace{0.01cm}A}} = 0.5$ besitzt die Entropie $H ≈ 1 \hspace{0.05cm}  \rm bit/Symbol$. Das heißt: In diesem Sonderfall gibt es keine statistischen Bindungen innerhalb der Folge.&lt;br /&gt;
*Die linke (rote) Folge mit $p_{\rm {A\hspace{0.01cm}|\hspace{0.01cm}B}} = p_{\rm {B\hspace{0.01cm}|\hspace{0.01cm}A}} = 0.25$ weist weniger Wechsel zwischen $\rm A$ und $\rm B$ auf. Aufgrund von statistischen Abhängigkeiten zwischen benachbarten Symbolen ist nun  $H ≈ 0.72 \hspace{0.05cm}  \rm bit/Symbol$ kleiner.&lt;br /&gt;
*Die rechte (grüne) Symbolfolge mit $p_{\rm {A\hspace{0.01cm}|\hspace{0.01cm}B}} = p_{\rm {B\hspace{0.01cm}|\hspace{0.01cm}A}} = 0.8$ hat die genau gleiche Entropie $H ≈ 0.72 \hspace{0.05cm}  \rm bit/Symbol$ wie die rote Folge. Hier erkennt man viele Bereiche mit sich stets abwechselnden Symbolen (... $\rm ABABAB$ ... ).&lt;br /&gt;
&lt;br /&gt;
{{end}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Zu diesem Beispiel ist noch anzumerken:&lt;br /&gt;
*Hätte man nicht die Markoveigenschaften der roten und der grünen Folge ausgenutzt, so hätte man das Ergebnis $H ≈ 0.72 \hspace{0.05cm}  \rm bit/Symbol$ erst nach langwierigen Berechnungen erhalten.&lt;br /&gt;
*Auf den nächsten Seiten wird gezeigt, dass bei einer Quelle mit Markoveigenschaften dieser Endwert $H$ allein aus den Entropienäherungen $H_1$ und $H_2$ ermittelt werden kann.&lt;br /&gt;
*Ebenso lassen sich aus $H_1$ und $H_2$ alle Entropienäherungen $H_k$ für $k$–Tupel in einfacher Weise berechnen   ⇒   $H_3$, $H_4$, $H_5$, ... , $H_{100}$, ...&lt;br /&gt;
	&lt;br /&gt;
 &lt;br /&gt;
==Vereinfachte Entropieberechnung bei Markovquellen  ==&lt;br /&gt;
[[File:Inf_T_1_2_S5_vers2.png|right|frame|Markovprozesse mit ''M'' = 2 Zuständen]]&lt;br /&gt;
Wir gehen weiterhin von der symmetrischen binären Markovquelle erster Ordnung aus. Wie auf der vorherigen Seite verwenden wir folgende Nomenklatur für&lt;br /&gt;
*die Übergangswahrscheinlichkeiten $p_{\rm {A\hspace{0.01cm}|\hspace{0.01cm}B}}$, ...&lt;br /&gt;
*die ergodischen Wahrscheinlichkeiten $p_{\text{A}}$ und $p_{\text{B}}$,&lt;br /&gt;
*die Verbundwahrscheinlichkeiten, zum Beispiel $p_{\text{AB}} = p_{\text{A}} · p_{\rm {B\hspace{0.01cm}|\hspace{0.01cm}A}}$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Wir berechnen nun die [[Informationstheorie/Nachrichtenquellen_mit_Gedächtnis#Entropie_hinsichtlich_Zweiertupel|Entropie eines Zweiertupels]] (mit der Einheit „bit/Zweiertupel”):&lt;br /&gt;
 &lt;br /&gt;
:$$H_2' = p_{\rm A}  \cdot p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{  p_{\rm A}  \cdot p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A}} + p_{\rm A}  \cdot p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm A}  \cdot  p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}} +  p_{\rm B}  \cdot p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B}  \cdot  p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B}} + p_{\rm B}  \cdot p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B}  \cdot p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B}}&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Ersetzt man nun die Logarithmen der Produkte durch entsprechende Summen von Logarithmen, so erhält man das Ergebnis $H_2' = H_1 + H_{\text{M}}$ mit  &lt;br /&gt;
:$$H_1 = p_{\rm A}  \cdot (p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} + p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A})\cdot {\rm log}_2\hspace{0.1cm}\frac {1}{p_{\rm A}} + p_{\rm B}  \cdot (p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} + p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B})\cdot {\rm log}_2\hspace{0.1cm}\frac {1}{p_{\rm B}} = p_{\rm A}  \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{p_{\rm A}} + p_{\rm B}  \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{p_{\rm B}} = H_{\rm bin} (p_{\rm A})= H_{\rm bin} (p_{\rm B})&lt;br /&gt;
 \hspace{0.05cm},$$&lt;br /&gt;
:$$H_{\rm M}= p_{\rm A}  \cdot p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}A}} + p_{\rm A}  \cdot p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}A}} + p_{\rm B}  \cdot p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm A\hspace{0.01cm}|\hspace{0.01cm}B}} + p_{\rm B}  \cdot p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B} \cdot {\rm log}_2\hspace{0.1cm}\frac {1}{ p_{\rm B\hspace{0.01cm}|\hspace{0.01cm}B}}&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Damit lautet die zweite Entropienäherung (mit der Einheit „bit/Symbol”):&lt;br /&gt;
:$$H_2 =  {1}/{2} \cdot {H_2'} = {1}/{2} \cdot [ H_{\rm 1} + H_{\rm M}] &lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Anzumerken ist:&lt;br /&gt;
*Der erste Summand wurde nicht zufällig mit $H_1$ abgekürzt, sondern ist tatsächlich gleich der ersten Entropienäherung, allein abhängig von den Symbolwahrscheinlichkeiten.&lt;br /&gt;
*Bei einem symmetrischen Markovprozess   ⇒     $p_{\rm {A\hspace{0.01cm}|\hspace{0.01cm}B}} = \rm Pr(A\hspace{0.01cm}|\hspace{0.01cm}B)$   ⇒   $p_{\text{A}} = p_{\text{B}} = 1/2$ &amp;amp;nbsp; ergibt sich für diesen ersten Summanden $H_1 = 1 \hspace{0.05cm} \rm bit/Symbol$.&lt;br /&gt;
*Der zweite Summand $H_{\text{M}}$  muss gemäß der zweiten der oberen Gleichungen berechnet werden. Bei einem symmetrischen Markovprozess erhält man $H_{\text{M}} = H_{\text{bin}}(p_{\rm {A\hspace{0.01cm}|\hspace{0.01cm}B}})$.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nun wird dieses Ergebnis auf die $k$–te Entropienäherung erweitert. Hierbei wird der Vorteil von Markovquellen gegenüber anderen Quellen ausgenutzt, dass sich die Entropieberechnung für $k$–Tupel sehr einfach gestaltet. Für jede Markovquelle gilt nämlich:&lt;br /&gt;
 &lt;br /&gt;
:$$H_k = \frac{1}{k} \cdot [ H_{\rm 1} + (k-1) \cdot H_{\rm M}] \hspace{0.3cm} \Rightarrow \hspace{0.3cm}&lt;br /&gt;
 H_2 =  \frac{1}{2} \cdot [ H_{\rm 1} +  H_{\rm M}]\hspace{0.05cm}, \hspace{0.3cm}&lt;br /&gt;
 H_3 =\frac{1}{3} \cdot [ H_{\rm 1} + 2 \cdot H_{\rm M}] \hspace{0.05cm},\hspace{0.3cm}&lt;br /&gt;
 H_4 =  \frac{1}{4} \cdot [ H_{\rm 1} + 3 \cdot H_{\rm M}] &lt;br /&gt;
 \hspace{0.05cm},\hspace{0.15cm}{\rm usw.}$$&lt;br /&gt;
&lt;br /&gt;
Bildet man den Grenzübergang für $k \to \infty$, so erhält man für die tatsächliche Quellenentropie:&lt;br /&gt;
:$$H = \lim_{k \rightarrow \infty } H_k = H_{\rm M} \hspace{0.05cm}.$$&lt;br /&gt;
Aus diesem einfachen Ergebnis folgen wichtige Erkenntnisse für die Entropieberechnung:&lt;br /&gt;
*Bei Markovquellen genügt die Bestimmung der Entropienäherungen $H_1$ und $H_2$. Damit lautet die Entropie einer Markovquelle: &lt;br /&gt;
:$$H = 2 \cdot H_2 -   H_{\rm 1}  \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Durch $H_1$ und $H_2$ liegen auch alle weiteren Entropienäherungen $H_k$ für $k \ge 3$ fest:&lt;br /&gt;
 &lt;br /&gt;
:$$H_k =  \frac{2-k}{k} \cdot  H_{\rm 1} + \frac{2\cdot (k-1)}{k} \cdot  H_{\rm 2}&lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
*Diese Näherungen haben allerdings keine große Bedeutung. Wichtig ist meist nur der Grenzwert $H$. Bei Quellen ohne Markoveigenschaften berechnet man die Näherungen $H_k$ nur deshalb, um den Grenzwert, also die tatsächliche Entropie, abschätzen zu können.&lt;br /&gt;
*Alle auf dieser Seite angegebenen Gleichungen gelten auch für nichtbinäre Markovquellen $(M &amp;gt; 2)$, wie auf der nächsten Seite gezeigt wird.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
''Hinweis'': In der [[Aufgaben:1.5_Binäre_Markovquelle|Aufgabe 1.5]] werden die obigen Gleichungen auf den allgemeineren Fall einer unsymmetrischen Binärquelle angewendet.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Nichtbinäre Markovquellen == 	&lt;br /&gt;
&lt;br /&gt;
Für jede Markovquelle gelten unabhängig vom Symbolumfang die folgenden Gleichungen:&lt;br /&gt;
 &lt;br /&gt;
:$$H = 2 \cdot H_2 -   H_{\rm 1}  \hspace{0.05cm},\hspace{0.3cm} H_k =  {1}/{k} \cdot [ H_{\rm 1} + (k-1) \cdot H_{\rm M}] \hspace{0.05cm},\hspace{0.3cm} \lim_{k \rightarrow \infty } H_k = H &lt;br /&gt;
 \hspace{0.05cm}.$$&lt;br /&gt;
&lt;br /&gt;
Diese ermöglichen die einfache Berechnung der Entropie $H$ aus den Näherungen $H_1$ und $H_2$.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2243__Inf_T_1_2_S6_neu.png|frame|Ternäre und quaternäre Markovquelle erster Ordnung]]&lt;br /&gt;
&lt;br /&gt;
Wir betrachten nun eine ternäre Markovquelle $\rm MQ3$ (Stufenzahl $M = 3$, blaue Farbgebung) und eine quaternäre Markovquelle $\rm MQ4$ ( $M = 4$, rot ) entsprechend den obigen Übergangsdiagrammen.&lt;br /&gt;
&lt;br /&gt;
In der [[Aufgaben:1.6_Nichtbinäre_Markovquellen|Aufgabe 1.6]] werden die Entropienäherungen $H_k$ und die jeweiligen Quellenentropien $H$ als der Grenzwert von $H_k$ für $k \to \infty$ berechnet. Die Ergebnisse sind in der folgenden Grafik zusammengestellt. Alle Entropien haben die Einheit „bit/Symbol”.&lt;br /&gt;
&lt;br /&gt;
[[File:P_ID2244__Inf_T_1_2_S6b_neu.png|frame|Entropien für MQ3, MQ4 und AMI–Code]]&lt;br /&gt;
&lt;br /&gt;
Diese Ergebnisse lassen sich wie folgt interpretieren:&lt;br /&gt;
*Bei der ternären Markovquelle $\rm MQ3$ nehmen die Entropienäherungen von $H_1 = 1.500$ über $H_2 = 1.375$ bis zum Grenzwert $H = 1.250$ kontinuierlich ab. Wegen $M = 3$ beträgt der Entscheidungsgehalt $H_0 = 1.585$.&lt;br /&gt;
*Für die quaternäre Markovquelle $\rm MQ4$ (rote Markierungen) erhält man $H_0 = H_1 = 2.000$ (wegen den vier gleichwahrscheinlichen Zuständen) und $H_2$ = 1.5. Aus dem $H_1$– und $H_2$–Wert lassen sich auch hier alle Entropienäherungen $H_k$ und auch der Endwert $H = 1.000$ berechnen.&lt;br /&gt;
*Die beiden Quellenmodelle $\rm MQ3$ und $\rm MQ4$ entstanden bei dem Versuch, den [[Informationstheorie/Nachrichtenquellen_mit_Gedächtnis#Die_Entropie_des_AMI.E2.80.93Codes|AMI–Code]] informationstheoretisch durch Markovquellen zu beschreiben. Die Symbole $\rm M$, $\rm N$ und $\rm PM$ stehen hierbei für „Minus”, „Null” und „Plus”.&lt;br /&gt;
*Die Entropienäherungen $H_1$, $H_2$ und $H_3$ des AMI–Codes (grüne Markierungen) wurden in [[Aufgaben:1.4_Entropienäherungen_Hk|Aufgabe A1.4]] berechnet. Auf die Berechnung von $H_4$, $H_5$, ... musste aus Aufwandsgründen verzichtet werden. Bekannt ist aber der Endwert von $H_k$ für $k \to \infty$    ⇒    $H = 1.000$.&lt;br /&gt;
*Man erkennt, dass das Markovmodell $\rm MQ3$ für $H_0 = 1.585$, $H_1 = 1.5$ und $H_2 = 1.375$ genau die gleichen Zahlenwerte liefert wie der AMI–Code. Dagegen unterscheiden sich $H_3$ ($1.333$ gegenüber $1.292$) und insbesondere der Endwert $H$ ($1.250$ gegenüber $1.000$).&lt;br /&gt;
*Das Modell $\rm MQ4$ ($M = 4$) unterscheidet sich vom AMI–Code ($M = 3$) hinsichtlich des Entscheidungsgehaltes $H_0$ und auch bezüglich aller Entropienäherungen $H_k$. Trotzdem ist $\rm MQ4$ das geeignete Modell für den AMI–Code, da der Endwert $H = 1.000$ übereinstimmt.&lt;br /&gt;
*Das [[Informationstheorie/Nachrichtenquellen_mit_Gedächtnis#Nichtbin.C3.A4re_Markovquellen|Modell MQ3]] liefert deshalb zu große Entropiewerte, da hier die Folgen '''PNP''' und '''MNM''' möglich sind, die beim AMI–Code nicht auftreten können. Bereits bei $H_3$ macht sich der Unterschied geringfügig bemerkbar, im Endwert $H$ deutlich (1.25 gegenüber 1).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Beim Modell $\rm MQ4$ wurde der Zustand „Null” aufgespalten in zwei Zustände $\rm N$ und $\rm O$ (siehe rechte obere Grafik auf dieser Seite):&lt;br /&gt;
*Hierbei gilt für den Zustand $\rm N$: Das aktuelle Binärsymbol $\rm L$ wird mit dem Amplitudenwert „0” dargestellt, wie es der AMI–Regel entspricht. Das nächste auftretende $\rm H$–Symbol wird als „-1” (Minus) dargestellt, weil das letzte $\rm H$–Symbol als „+1” (Plus) codiert wurde.&lt;br /&gt;
*Auch beim Zustand $\rm O$ wird das aktuelle Binärsymbol $\rm L$ mit dem Ternärwert „0” dargestellt. Im Unterschied zum Zustand $\rm N$ wird aber nun das nächste auftretende $\rm H$–Symbol als „+1” (Plus) dargestellt werden, da das letzte $\rm H$–Symbol als „-1” (Minus) codiert wurde.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Die von $\rm MQ4$ ausgegebene Symbolfolge entspricht tatsächlich den Regeln des AMI–Codes und weist die Entropie $H = 1.000 \hspace{0.05cm} \rm bit/Symbol$ auf. Aufgrund des neuen Zustandes $\rm O$ ist nun allerdings $H_0 = 2.000  \hspace{0.05cm} \rm bit/Symbol$ (gegenüber $1.585 \hspace{0.05cm} \rm bit/Symbol$) deutlich zu groß und auch alle $H_k$–Näherungen sind größer als beim AMI–Code. Erst für $k \to \infty$ stimmen $\rm MQ4$ und AMI-Code überein: &amp;amp;nbsp; $H = 1.000 \hspace{0.05cm} \rm bit/Symbol$.&lt;br /&gt;
&lt;br /&gt;
 	 &lt;br /&gt;
==Aufgaben zum Kapitel==&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.3 Entropienäherungen|Aufgabe 1.3: &amp;amp;nbsp; Entropienäherungen]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.4 Entropienäherungen für den AMI-Code|Aufgabe 1.4: &amp;amp;nbsp; Entropienäherungen für den AMI-Code]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.4Z Entropie der AMI-Codierung|Zusatzaufgabe 1.4Z: &amp;amp;nbsp; Entropie der AMI-Codierung]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.5 Binäre Markovquelle|Aufgabe 1.5: &amp;amp;nbsp; Binäre Markovquelle]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.5Z Symmetrische Markovquelle|Zusatzaufgabe 1.5Z: &amp;amp;nbsp; Symmetrische Markovquelle]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.6 Nichtbinäre Markovquellen|Aufgabe 1.6: &amp;amp;nbsp; Nichtbinäre Markovquellen]]&lt;br /&gt;
&lt;br /&gt;
[[Aufgaben:1.6Z Ternäre Markovquelle|Zusatzaufgabe 1.6Z: &amp;amp;nbsp; Ternäre Markovquelle]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Display}}&lt;/div&gt;</summary>
		<author><name>Wael</name></author>
		
	</entry>
</feed>