书目名称 | Grundlagen der digitalen Informationsübertragung | 编辑 | Peter Adam Höher | 视频video | | 图书封面 |  | 出版日期 | Textbook 2013Latest edition | 版次 | 2 | doi | https://doi.org/10.1007/978-3-8348-2214-7 | isbn_softcover | 978-3-8348-1784-6 | isbn_ebook | 978-3-8348-2214-7 |
1 |
Front Matter |
|
|
Abstract
|
2 |
|
|
|
Abstract
|
3 |
Einführung und Grundbegriffe |
Peter Adam Höher |
|
Abstract
Die Informationstheorie ist ein Zweig der angewandten Mathematik, Informatik und Ingenierswissenschaften, welcher sich mit der quantitativen Beschreibung von Information befasst. Die klassische Informationstheorie wurde 1948 in einem bahnbrechenden Aufsatz mit dem Titel „A Mathematical Theory of Communication“ von Claude Elwood Shannon begründet. Shannon hat es verstanden, die bis dato ad-hoc und unabhängig behandelten Teilgebiete der Quellencodierung (verlustlose bzw. verlustbehaftete Datenkompression), Kanalcodierung (Zuverlässigkeit durch Fehlererkennung und Fehlerkorrektur) und Kryptologie (Datensicherheit im Sinne von Verschlüsselung, Teilnehmer- und Nachrichtenauthentifizierung) mit den gleichen mathematischen Methoden zu beschreiben. Für jeden dieser drei Bereiche liefert uns die Informationstheorie fundamentale Schranken. Ein tiefes Verständnis dieser Schranken ist für den Ingenieur wichtig, um leistungsfähige Übertragungs- und Datenkompressionsverfahren unter realistischen Randbedingungen wie Aufwand und Verzögerung entwickeln und bewerten zu können. In diesem Lehrbuch werden alle drei Teilgebiete, d. h. Quellencodierung, Kanalcodierung und Kryptographie behandelt. Aktuell
|
4 |
Verlustlose Quellencodierung |
Peter Adam Höher |
|
Abstract
Die Quellencodierung hat die Aufgabe, ein beliebiges (analoges oder zeitdiskretes) Quellensignal in einen binären Datenstrom zu überführen, welcher möglichst kurz ist. Die Hauptaufgabe der Quellencodierung besteht in einer Reduzierung der Datenmenge, d. h. einer Datenkompression. Die Quellencodierung kann verlustlos oder verlustbehaftet sein. Man spricht von einer verlustlosen Quellencodierung, auch Entropiecodierung genannt, wenn das Quellensignal aus dem komprimierten Datenstrom verzerrungsfrei rekonstruiert werden kann. Ein verlustloser Quellencodierer bewirkt eine Redundanzreduktion, niemals jedoch auch eine Irrelevanzreduktion..Dieses Kapitel ist verlustlosen Quellencodierverfahren gewidmet. Für gedächtnisfreie Quellen wird zunächst Shannons Quellencodiertheorem hergeleitet, welches eine untere Schranke für die minimal benötigte Anzahl an Binärzeichen angibt. Darauf aufbauend werden praktische Verfahren wie Huffman-Algorithmus und algebraische Quellencodierung vorgestellt. Anschließend werden gedächtnisbehaftete Quellen betrachtet und es wird der Willems-Algorithmus vorgestellt, der eine universale Quellencodierung gedächtnisbehafteter Quellen ermöglicht.
|
5 |
Kanalcodierung |
Peter Adam Höher |
|
Abstract
In digitalen Kommunikationssystemen muss immer von Übertragungsfehlern ausgegangen werden, sei es aufgrund von Rauschen, Interferenzen oder anderen Störquellen. Die Aufgabe der Kanalcodierung besteht darin, Datensymbole gegen Übertragungsfehler zu schützen. Hierzu fügt man den Datensymbolen senderseitig gezielt Redundanz hinzu. Diese Redundanz kann empfängerseitig genutzt werden, um Übertragungsfehler erkennen und/oder korrigieren zu können. Insbesondere in Verbindung mit Quellencodierung ist eine Kanalcodierung wichtig, weil die von einem Quellencodierer produzierte Datensequenz typischerweise umso empfindlicher bezüglich Übertragungsfehlern ist, je geringer die im Datenstrom verbliebene Redundanz ist. Entsprechendes gilt für digitale Speichersysteme..In diesem Kapitel wird zunächst für wertdiskrete Kanalmodelle Shannons berühmtes Kanalcodiertheorem hergeleitet welches besagt, dass unter gewissen Randbedingungen durch Kanalcodierung theoretisch eine quasi-fehlerfreie Übertragung möglich ist. Die Beweisführung erfolgt für Zufallscodes. Anschließend werden die Ergebnisse auf wertkontinuierliche Kanalmodelle ausgedehnt, wobei der zeitdiskrete Gauß-Kanal, der bandbegrenzte Gauß-Kanal
|
6 |
Verlustbehaftete Quellencodierung und gemeinsame Quellen- & Kanalcodierung |
Peter Adam Höher |
|
Abstract
Shannons Quellencodiertheorem beantwortet die Frage, wie viele Binärzeichen pro Quellensymbol mindestens übertragen werden müssen, um empfängerseitig eine verzerrungsfreie Rekonstruktion der Quellensymbole zu ermöglichen. Doch was passiert, wenn weniger Binärzeichen pro Quellensymbol verwendet werden? In diesem Fall ist eine verzerrungsfreie Rekonstruktion der Quellensymbole nicht mehr möglich, man spricht von einer verlustbehafteten Quellencodierung. Je größer die zulässigen Verzerrungen sind, umso stärker kann ein Quellencodierer die Quellensymbolsequenz komprimieren. Die Effizienz eines verlustbehafteten Quellencodierers wächst mit der zulässigen mittleren Verzerrung. Zusätzlich zur Redundanzreduktion bewirkt die verlustbehaftete Quellencodierung eine Irrelevanzreduktion. Verlustbehaftete Verfahren zur Quellencodierung finden deshalb bevorzugt in Gebieten Anwendung, bei denen der subjektive Eindruck entscheidend ist, wie zum Beispiel bei der Codierung von Festbildern (JPEG), Bewegtbildern (MPEG) und in der Audiocodierung (MP3)..Die Rate-Distortion-Theorie beantwortet die fundamentale Frage, wie groß die minimale Anzahl an Bits/Quellensymbol am Ausgang eines verlustbehafteten Que
|
7 |
Mehrnutzer-Informationstheorie |
Peter Adam Höher |
|
Abstract
Bislang sind wir davon ausgegangen, dass ein Sender Nachrichten im Sinne einer Punkt-zu-Punkt-Kommunikation (d. h. einer Simplex-Übertragung) über einen gestörten Kanal an einen Empfänger überträgt. In der Praxis ist es jedoch häufig der Fall, dass viele Kommunikationsteilnehmer die gleichen Resourcen (Frequenz, Zeit, Raum) teilen müssen. Wenn mehr als ein Sender und/oder mehr als ein Empfänger beteiligt sind, spricht man von einer Mehrnutzer-Kommunikation oder Mehrbenutzer-Kommunikation. Die Mehrnutzer-Informationstheorie, auch Netzwerk-Informationstheorie genannt, stellt fundamentale Schranken für Mehrnutzer-Kommunikationsszenarien bereit..In diesem Kapitel werden fünf ausgewählte Kanalmodelle studiert: Der Vielfachzugriffskanal, der Rundfunkkanal, der Relaykanal, der Interferenzkanal und schließlich der Duplexkanal. Diese ausgewählten Beispiele sind sowohl von didaktischem als auch von praktischem Interesse. Das Kapitel wurde in der zweiten Auflage signifikant erweitert.
|
8 |
Netzwerkcodierung |
Peter Adam Höher |
|
Abstract
Netzwerkcodierung ist ein neues, populäres Forschungsgebiet der Informations- und Netzwerktheorie. Im Unterschied zum klassischen Routing, bei dem Nachrichten von verschiedenen Quellen getrennt voneinander in Form von Paketen durch ein Netzwerk (wie z. B. das Internet) geschleust werden, können bei der Netzwerkcodierung die Zwischenknoten empfangene Nachrichten kombinieren, um sie dann an benachbarte Knoten weiterzuleiten. Die Hauptvorteile der Netzwerkcodierung bestehen in einem erhöhten Datendurchsatz und/oder einer Erhöhung der Zuverlässigkeit, aber auch die Datensicherheit kann verbessert werden. Anwendungen der Netzwerkcodierung erschließen sich praktisch allen Netztypen. Dieses Kapitel widmet sich insbesondere den Grundlagen der Netzwerkcodierung. Auf jeglichen mathematischen Ballast wird im Sinne der Verständlichkeit bewusst verzichtet.
|
9 |
Kryptologie |
Peter Adam Höher |
|
Abstract
Die Kryptologie ist die Kunst oder Wissenschaft der Konstruktion und des Angreifens von Verfahren zur Geheimhaltung. Teilgebiete umfassen die Kryptographie (Kunst oder Wissenschaft der Verschlüsselung), Kryptoanalyse (Kunst oder Wissenschaft des Angreifens) und die Authentifizierung (Sicherstellung der Echtheit der Nachricht). Als Kunst wird die Kryptologie seit ein paar tausend Jahren vom Militär, von Diplomaten und Spionen benutzt. Ein bedeutendes Beispiel ist die Entwicklung der Rotor-Schlüsselmaschine ENIGMA zwischen 1918 und 1923 durch A. Scherbius, sowie deren Entschlüsselung durch A. Turing während des Zweiten Weltkriegs. Als Wissenschaft wurde die Kryptologie 1949 von C. E. Shannon etabliert. Der Bedarf an kryptologischen Verfahren ist in den letzten Jahrzehnten durch Mobilfunk, Internet, Online-Banking, elektronischen Handel, Abonnementfernsehen, usw. stark gestiegen..Dieses Kapitel ist in drei Abschnitte organisiert. Im ersten Abschnitt werden Grundbegriffe der Kryptologie definiert. Der zweite Abschnitt stellt Shannons Theorie zur Geheimhaltung vor. Für ein Chiffrierverfahren basierend auf einem privaten Schlüssel beweist Shannon, unter welchen Randbedingungen eine im Si
|
10 |
|
|
|
Abstract
|
11 |
Einführung und Grundbegriffe |
Peter Adam Höher |
|
Abstract
Als Kanalcodierung bezeichnet man Verfahren, um Daten vor Übertragungsfehlern oder Aufzeichnungsfehlern zu schützen. Eine Kanalcodierung ist nur in digitalen Übertragungssystemen und Speichersystemen möglich und wird nur bei gestörten Kanälen benötigt. Den Daten wird senderseitig kontrolliert Redundanz hinzugefügt, so dass bei der Übertragung bzw. Aufzeichnung entstandene Fehler empfängerseitig erkannt und/oder korrigiert werden können..Ohne Kanalcodierung wäre eine robuste Datenübertragung/-speicherung kaum denkbar. Sie ist die Schlüsseltechnologie, um die Kanalkapazität erreichen zu können. Die Kanalcodierung findet deshalb in vielen Gebieten Anwendung, insbesondere in der digitalen Übertragungstechnik (wie z. B. im Mobilfunk, bei Datenmodems, im Internet, bei der Satellitenkommunikation, bei Weltraumsonden, in der Unterwasserkommunikation, bei der digitalen Fernseh- und Rundfunkübertragung und in optischen Übertragungssystemen) und in der digitalen Speichertechnik (wie z. B. bei der Compact Disc (CD), der Digital Versatile Disc (DVD), der Blu-ray, bei Festplattenspeichern und bei der Magnetbandaufzeichnung)..Während in Kapitel 3 Shannons Kanalcodiertheorem in Verbindung mit Zufa
|
12 |
Blockcodes |
Peter Adam Höher |
|
Abstract
Blockcodes stellen eine wichtige Teilmenge von Kanalcodes dar und sind dadurch gekennzeichnet, dass die Codierung und somit auch die Decodierung blockweise erfolgt. Als einfache Beispiele seien der Wiederholungscode und die Familie der Parity-Check-Codes genannt. Bei Wiederholungscodes werden die informationstragenden Datensymbole, die sog. Infosymbole, ein- oder mehrfach wiederholt. Bei Parity-Check-Codes entstehen die redundanzbehafteten Datensymbole, die sog. Codesymbole, indem an die Infosymbole Prüfsymbole angehangen werden..In diesem umfangreichen Kapitel werden lineare Blockcodes (wie Hamming-Codes und Low-Density Parity-Check-Codes) und zyklische Blockcodes (wie Cyclic-Redundancy-Check-Codes und Reed-Solomon-Codes) vorgestellt, als auch klassische Decodierverfahren wie die Syndromdecodierung und die algebraische Decodierung. Aus Gründen der Aktualität wurde der Abschnitt zu Low-Density Parity-Check-Codes (LDPC-Codes) signifikant erweitert. Ferner werden irreguläre LDPC-Codes wie Tornado-Codes und Fountain-Codes eingeführt. Fountain-Codes sind ratenlose Codes, weil sie keine feste Coderate besitzen. Sie bilden eine Alternative zum klassischen ARQ-Konzept.
|
13 |
Faltungscodes |
Peter Adam Höher |
|
Abstract
Faltungscodes zeichnen sich im Gegensatz zu Blockcodes durch die Eigenschaft einer fortlaufenden Codierung aus. Sie bilden eine wichtige Teilmenge von Kanalcodes. Jeder Faltungscode kann durch ein Schieberegister realisiert werden, somit sind Faltungscodes immer linear..Dieses umfangreiche Kapitel widmet sich verschiedenen Darstellungen von Faltungscodes (wie Zustandsdiagramm, Trellisdiagramm und Codebaum), der Optimierung von Faltungscodes auf Basis des Distanzspektrums und der Decodierung von Faltungscodes. Aus praktischen Gründen ist insbesondere der Abschnitt zur Decodierung von Faltungscodes sehr umfangreich. Neben dem klassischen Viterbi-Algorithmus werden folgende Algorithmen vorgestellt: Der List-Viterbi-Algorithmus und der Soft-Output Viterbi-Algorithmus, der Bahl-Cocke-Jelinek-Raviv-Algorithmus, der Stack-Algorithmus, Sphere-Decodierung und der Dijkstra-Algorithmus. Das Kapitel schließt mit einer Analogie zwischen linearen Blockcodes und Faltungscodes, wobei gezeigt wird, dass Faltungscodes ebenso wie lineare Blockcodes durch eine Generatormatrix dargestellt werden können und umgekehrt eine Trellisdarstellung von linearen Blockcodes gefunden werden kann.
|
14 |
Interleaver |
Peter Adam Höher |
|
Abstract
Interleaver werden üblicherweise verwendet, um Bündelfehler in Einzelfehler umzuwandeln oder um verkette Codes zu trennen. Bündelfehler treten z. B. in Mobilfunkkanälen auf oder entstehen durch Kratzer auf optischen Speichermedien wie CD, DVD und Blu-ray. Interleaver haben dabei die Aufgabe, die zeitliche Reihenfolge einer Datensequenz zu verändern. Benachbarte Symbole am Interleavereingang sollten am Interleaverausgang (also auf dem Kanal) möglichst weit separiert sein. Der zugehörige Deinterleaver stellt die ursprüngliche Reihenfolge wieder her..Die Wirkungsweise von Interleaving/Deinterleaving wird zunächst an einer einfachen Ausführungsform, dem sog. Blockinterleaver, dargestellt. Im Weiteren werden dann effizientere Verfahren wie der Faltungsinterleaver und der Pseudo-Zufallsinterleaver vorgestellt.
|
15 |
Verkettete Codes und iterative Decodierung |
Peter Adam Höher |
|
Abstract
Das Prinzip der verketteten Codierung beruht darauf, mindestens zwei verschiedene Codierer, sog. Komponentencodierer, miteinander zu verketten. Auf der Empfängerseite realisiert man meist die zugehörigen Komponentendecodierer, wobei Zuverlässigkeitsinformation iterativ zwischen den Komponentendecodierern ausgetauscht wird. Bevorzugt trennt man die Komponentencodierer durch Interleaver, wodurch sich der empfängerseitige Aufwand vereinfacht. Produktcodes und Turbo-Codes sind zwei wichtige Ausführungsformen von verketteten Codes. Aber auch LDPC-Codes lassen sich ohne Codeverkettung iterativ decodieren, indem Zuverlässigkeitsinformation iterativ zwischen Variablenknoten und Prüfknoten ausgetauscht wird..Das vorliegende Kapitel ist wie folgt gegliedert: Nach einer Einführung in Grundlagen wie dem Wetterproblem und dem Umgang mit unkorrelierten bzw. korrelierten Log-Likelihood-Werten werden seriell und parallel verkettete Codes vorgestellt. Anschließend werden iterative Decodierverfahren (wie das Turbo-Prinzip und der Belief-Propagation-Algorithmus) sowie Analysemethoden zur Untersuchung des Konvergenzverhaltens iterativer Decodier- und Detektionsverfahren besprochen. Der Abschnitt zur E
|
16 |
|
|
|
Abstract
|
17 |
Einführung und Grundbegriffe |
Peter Adam Höher |
|
Abstract
Digitale Modulationsverfahren unterscheiden sich von analogen Modulationsverfahren durch die Eigenschaft, dass Datensymbole (wie beispielsweise Binärzeichen) in eine für die Eigenschaften des physikalischen Übertragungskanals (wie Funkfeld, Lichtwellenleiter oder Kabel) geeignete analoge Signalform umgewandelt werden. Analoge Signale (wie beispielsweise Audio- oder Videosignale) müssen zunächst digitalisiert werden. Bei analogen Modulationsverfahren werden analoge Signale ohne Digitalisierung in eine für die Eigenschaften des physikalischen Übertragungskanals geeignete Signalform umgewandelt. Mit digitalen Modulationsverfahren ist, in Verbindung mit einer Kanalcodierung, unter gewissen Voraussetzungen eine (quasi-)fehlerfreie Rekonstruktion der gesendeten Datensymbole möglich. Es werden im Rahmen des Lehrbuchs ausschließlich digitale Modulations- und Übertragungsverfahren behandelt..Dieses einführende Kapitel befasst sich zunächst mit Signalen im Zeit- und Frequenzbereich, Basisband- und Bandpasssignalen sowie der Quadraturmodulation und der Quadraturdemodulation. Es wird gezeigt, dass sich jedes Bandpasssignal und Bandpasssystem im äquivalenten Basisband darstellen lässt. Sehr aus
|
18 |
Lineare Modulationsverfahren |
Peter Adam Höher |
|
Abstract
Lineare Modulationsverfahren sind durch zwei Merkmale eindeutig charakterisiert: Einer eineindeutigen Abbildung der zu übertragenden Datensymbole auf die im Allgemeinen komplexe Signalkonstellation und einer Impulsformung. Die Anordnung der Datensymbole in der komplexen Ebene nennt man Mapping, die Bitzuweisung zu gegebenen Datensymbolen Labeling. Man unterscheidet zwischen trägermodulierter Übertragung und Basisband-Übertragung. Eine trägermodulierte Übertragung basiert immer auf Bandpasssignalen, eine Basisband-Übertragung auf Basisbandsignalen. Mobilfunk- und Rundfunksysteme arbeiten ausschließlich trägermoduliert, mit Ausnahme einiger Ultrabreitband-Verfahren..Dieses ausführliche Kapitel umfasst viele Facetten linearer Modulationsverfahren. Zunächst wird das Prinzip der Modulation anhand anschaulicher Beispiele illustriert. Anschließend wird das optimale Empfangsfilter, das sog. Matched-Filter, hergeleitet. Verfahren zur trägermodulierten und trägerlosen Übertragung werden verglichen. Danach werden kohärente, differentiell-kohärente und inkohärente Detektionsverfahren vorgestellt. Für das kohärente Detektionsverfahren wird die Fehlerwahrscheinlichkeit als Funktion des Signal/Ra
|
19 |
Duplex-, Mehrfachzugriffs- und Multiplexverfahren |
Peter Adam Höher |
|
Abstract
Diese Kapitel ist Duplex-, Mehrfachzugriffs- und Multiplexverfahren gewidmet. Als Duplexverfahren bezeichnet man Verfahren zur Trennung der Übertragungsrichtung bei der Duplexkommunikation. Im zellularen Mobilfunk ist das Duplexverfahren für die Trennung der Aufwärtsstrecke (von der Mobilstation zur Basisstation) und der Abwärtsstrecke (von der Basisstation zur Mobilstation) verantwortlich. Die beiden wichtigsten Duplexverfahren, Frequenzduplex (FDD) und Zeitduplex (TDD), werden vorgestellt..Als Mehrfachzugriffsverfahren, Vielfachzugriffsverfahren oder Kanalzugriffsverfahren werden Verfahren bezeichnet, die es ermöglichen, dass mehrere Nutzer Resourcen (wie Frequenz, Zeit, Codewörter, Raum) teilen können. Elementare Zugriffsverfahren wie Frequenzvielfachzugriff (FDMA), Zeitvielfachzugriff (TDMA), Codevielfachzugriff (CDMA), Raumvielfachzugriff (SDMA) und Leistungsvielfachzugriff (CSMA) werden diskutiert..Multiplexverfahren haben die Aufgabe, Datenströme eines einzelnen Nutzers vor dem Modulator zu bündeln. Betrachtet werden klassische Multiplexverfahren wie Frequenzmultiplex (FDM), Zeitmultiplex (TDM) und Codemultiplex (CDM). Diese Multiplexverfahren sind mit den entsprechenden Zug
|
20 |
Nichtlineare Verzerrungen |
Peter Adam Höher |
|
Abstract
Oftmals ist bei Modulationsverfahren, die keine konstante Einhüllende aufweisen, das Empfangssignal nichtlinear verzerrt, z. B. aufgrund des senderseitigen Leistungsverstärkers, da man häufig Begrenzungs- und Sättigungseffekte in Kauf nimmt um eine hohe Leistungseffizienz zu erzielen. Es ergibt sich folglich ein Abtausch zwischen dem Leistungsverlust durch eine kleine Aussteuerung des Verstärkers und dem Leistungsverlust durch nichtlineare Verzerrungen. Das Optimum hängt vom Modulationsverfahren ab. Zudem führen nichtlineare Verzerrungen, abhängig vom Modulationsverfahren, im Allgemeinen zu einer Verringerung der Bandbreiteneffizienz und zu einer Außerbandabstrahlung durch eine Aufweitung des Signalspektrums. Hierdurch können weitere Verluste hervorgerufen werden, insbesondere durch Nachbarkanal-Interferenz. Neben dem Leistungsverstärker führen auch Quantisierungseffekte aufgrund der A/D- und D/A-Wandler zu nichtlinearen Verzerrungen. In diesem Kapitel werden Nichtlinearitäten unter besonderer Berücksichtigung eines Leistungsverstärkers modelliert. Für lineare Modulationsverfahren werden die Auswirkungen nichtlinearer Verzerrungen auf das Leistungsdichtespektrum und die Fehlerwahrs
|
|
|