170 52 5MB
German Pages 444 [449] Year 2009
Springer-Lehrbuch
Jens-Rainer Ohm · Hans Dieter Lüke
Signalübertragung Grundlagen der digitalen und analogen Nachrichtenübertragungssysteme
10., neu bearbeitete und erweiterte Auflage Mit 252 Abbildungen
123
Professor Dr.-Ing. Jens-Rainer Ohm RWTH Aachen Lehrstuhl und Institut für Nachrichtentechnik Melatener Str. 23 52074 Aachen e-mail: [email protected]
Professor em. Dr.-Ing. Dr. E. h. Hans Dieter Lüke † RWTH Aachen ehem. Lehrstuhl für Elektrische Nachrichtentechnik
ISBN 978-3-540-69256-0 Springer Berlin Heidelberg New York Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Springer ist ein Unternehmen von Springer Science+Business Media springer.de © Springer-Verlag Berlin Heidelberg 1975, 1979, 1985, 1990, 1992, 1995, 1999, 2002, 2005, 2007 Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Text und Abbildungen wurden mit größter Sorgfalt erarbeitet. Verlag und Autor können jedoch für eventuell verbliebene fehlerhafte Angaben und deren Folgen weder eine juristische Verantwortung noch irgendeine Haftung übernehmen. Sollte in diesem Werk direkt oder indirekt auf Gesetze, Vorschriften oder Richtlinien (z. B. DIN, GEFMA, VDMA) Bezug genommen oder aus ihnen zitiert worden sein, so kann der Verlag keine Gewähr für die Richtigkeit, Vollständigkeit oder Aktualität übernehmen. Satz: Digitale Druckvorlage der Autoren Herstellung: LE-TEX Jelonek, Schmidt & Vöckler GbR, Leipzig Einbandgestaltung: WMXDesign GmbH, Heidelberg SPIN 11744153
7/3100/YL – 5 4 3 2 1 0
Gedruckt auf säurefreiem Papier
Vorwort zur zehnten Auflage
Das Lehrbuch Signal¨ ubertragung“ liegt nun bereits in der 10. Auflage vor. ” Bedauerlicherweise konnte der im vergangenen Jahr viel zu fr¨ uh verstorbene Hans Dieter L¨ uke dieses Jubil¨ aum seines Werkes nicht mehr erleben. Ge¨ gen¨ uber der Vorauflage wurden eine gr¨ oßere Anzahl von Anderungen und Erg¨ anzungen vorgenommen, um die Systematik der Darstellung weiter zu verbessern und neuere Entwicklungen der Nachrichtentechnik, so weit sie f¨ ur ein Grundlagenwerk wichtig sind, zu reflektieren. Vollst¨andig u ¨berarbeitet habe ich die Herleitungen zu Fehleranalysen in der Bin¨ar¨ ubertragung unter Einbeziehung mehrwertiger Modulationsverfahren. Neu hinzugekommen ist eine kurze Einf¨ uhrung zu den MIMO-Systemen, die in Zukunft bei der drahtlosen ¨ Ubertragung eine wichtige Rolle spielen werden. F¨ ur Anregungen besonders danken m¨ ochte ich den H¨ orern meiner Vorlesung Nachrichtentechnik“ an der ” RWTH Aachen, Herrn Dr.-Ing Peter Seidler und meinen wissenschaftichen Mitarbeitern. Ebenfalls unter der Federf¨ uhrung von Dr. Seidler und mit tatkr¨aftiger Hilfe von Frau Bratschke entstand wieder eine u ¨ berarbeitete Version der ¨ L¨ osungen zu den Ubungsaufgaben, die f¨ ur den Leser nach wie vor von der Website des Instituts f¨ ur Nachrichtentechnik in der Rubrik Ver¨ offentlichungen→B¨ ucher abrufbar ist: http://www.ient.rwth-aachen.de . Aachen, im Herbst 2006
Jens-Rainer Ohm
Vorwort zur siebten Auf lage
Das nun in der 7. Auflage vorliegende Lehrbuch Signal¨ ubertragung“ er” scheint seit der 4. Auflage in der Reihe Springer-Lehrbuch“. ” Als Autor bin ich erfreut u ¨ ber die seit 1975 gleichbleibend freundliche Aufnahme des Buches auch durch die Fachwelt außerhalb der RWTH Aachen. Das Verdienst daran geb¨ uhrt wesentlich meinen H¨orern in Aachen und in Fortbildungsseminaren der Industrie, die mitgeholfen haben, den von mir ¨ angestrebten Pfad zwischen theoretischer Uberfrachtung einerseits und zu starker Wichtung kurzfristig aktueller Techniken andererseits zu finden. In mehreren Leserumfragen des Springer-Verlags wurde immer wieder ¨ gew¨ unscht, dem Buch ausf¨ uhrlichere L¨ osungen der Ubungsaufgaben beizugeben. Diesem Wunsch bin ich in der 6. Auflage gern nachgekommen. Die umfangreichen Vorbereitungen hierzu und einige Korrekturen in der Neuauflage hat Herr Dr.-Ing. Peter Seidler, Akademischer Direktor am Institut f¨ ur Elektrische Nachrichtentechnik u ur seine engagierte und ¨bernommen. F¨ exakte Arbeit danke ich ihm sehr herzlich. Weiter danke ich Herrn Dr.-Ing. H. D. Schotten, der bei der Erweiterung des Abschnitts u ¨ ber Codemultiplex¨ ubertragung viele Hilfen gab und der die Zusatz¨ ubung 9.9 gestaltet hat. Aachen, November 1998
Hans Dieter L¨ uke
Inhaltsverzeichnis
1.
Determinierte Signale in linearen zeitinvarianten Systemen 1.1 Elementarsignale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Zum Begriff des Systems . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Lineare zeitinvariante Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Das Faltungsintegral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Beispiel zur Berechnung des Faltungsintegrals . . . . . . . . . . . . . . 1.6 Faltungsalgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7 Dirac-Impuls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7.1 Gewicht und Linearkombination von Dirac-Impulsen . . 1.7.2 Siebeigenschaft des Dirac-Impulses . . . . . . . . . . . . . . . . . 1.7.3 Dirac-Impuls mit Dehnungsfaktor . . . . . . . . . . . . . . . . . . 1.7.4 Verschiebung des Dirac-Impulses . . . . . . . . . . . . . . . . . . . 1.7.5 Integration des Dirac-Impulses . . . . . . . . . . . . . . . . . . . . . 1.8 Integration und Differentiation von Signalen . . . . . . . . . . . . . . . 1.9 Kausale und stabile Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.10 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.11 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1 1 5 6 7 10 13 16 16 17 19 19 20 21 23 24 24
2.
Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Eigenfunktionen von LTI-Systemen . . . . . . . . . . . . . . . . . . . . . . . 2.2 Das Fourier-Integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Beispiel Fourier-Transformation des Exponentialimpulses . . . . 2.4 Symmetrien im Signal und im Fourier-Spektrum . . . . . . . . . . . . 2.5 Theoreme zur Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . 2.5.1 Superpositionssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ 2.5.2 Ahnlichkeitssatz .................................. 2.5.3 Verschiebungssatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.4 Differentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.5 Symmetrie der Fourier-Transformation . . . . . . . . . . . . . . 2.5.6 Faltung und Multiplikation . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Beispiele zur Anwendung der Theoreme . . . . . . . . . . . . . . . . . . . 2.6.1 Die Fourier-Transformierte des rect-Impulses . . . . . . . . . 2.6.2 Die Fourier-Transformierte des Dreieckimpulses . . . . . .
29 29 30 33 36 39 39 41 42 42 43 44 44 44 46
X
Inhaltsverzeichnis
2.7
2.8 2.9 2.10 2.11 2.12
2.13 3.
4.
2.6.3 Berechnung des Faltungsproduktes der si-Funktion mit sich selbst . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Transformation singul¨ arer Signalfunktionen . . . . . . . . . . . . . . . . 2.7.1 Transformation von Dirac-Impulsen . . . . . . . . . . . . . . . . . 2.7.2 Transformation der Dirac-Impulsfolge . . . . . . . . . . . . . . . 2.7.3 Transformation der Sprungfunktion . . . . . . . . . . . . . . . . . Hilbert-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Kurzzeit-Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . Fourier- und Laplace-Transformation . . . . . . . . . . . . . . . . . . . . . . Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Anhang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.12.1 Tabellen zur Fourier-Transformation . . . . . . . . . . . . . . . . 2.12.2 Transformation der Dirac-Impulsfolge . . . . . . . . . . . . . . . 2.12.3 Mehrfache Faltung des Rechteckimpulses . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
47 47 47 49 51 54 56 58 61 62 62 64 66 67
Diskrete Signale und Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Abtastung im Zeitbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Abtastung im Frequenzbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Zeitdiskrete Signale und Systeme . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Diskrete Faltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Zeitdiskrete Elementarsignale . . . . . . . . . . . . . . . . . . . . . . 3.3.3 Lineare verschiebungsinvariante Systeme . . . . . . . . . . . . 3.3.4 Beispiel zur diskreten Faltung . . . . . . . . . . . . . . . . . . . . . . 3.3.5 Fourier-Transformation zeitdiskreter Signale . . . . . . . . . 3.3.6 Beispiel 1: Spektrum des zeitdiskreten Exponentialimpulses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ 3.3.7 Beispiel 2: Ubertragungsaufgabe .................... 3.3.8 Die diskrete Fourier-Transformation . . . . . . . . . . . . . . . . 3.3.9 Dezimation und Interpolation . . . . . . . . . . . . . . . . . . . . . . 3.3.10 z-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Anhang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
73 74 79 84 84 86 88 88 90 92 92 94 97 102 104 106 108
Korrelationsfunktionen determinierter Signale . . . . . . . . . . . . 4.1 Energie und Leistung von Signalen . . . . . . . . . . . . . . . . . . . . . . . 4.2 Impulskorrelationsfunktion f¨ ur Energiesignale . . . . . . . . . . . . . . 4.3 Korrelationsprodukt und Faltungsprodukt . . . . . . . . . . . . . . . . . 4.4 Fourier-Transformation der Impulskorrelationsfunktionen . . . . 4.5 Impulskorrelationsfunktionen und LTI-Systeme . . . . . . . . . . . . . 4.6 Impulskorrelationsfunktionen zeitdiskreter Signale . . . . . . . . . . 4.7 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.8 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
115 115 116 118 121 124 126 128 129
Inhaltsverzeichnis
5.
6.
Systemtheorie der Tiefpass- und Bandpasssysteme . . . . . . . . 5.1 Das verzerrungsfreie System . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Tiefpasssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 Der ideale Tiefpass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.2 Tiefpasssysteme mit nichtidealer ¨ Ubertragungsfunktion ............................. 5.3 Zeitdiskrete Tiefpasssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4 Bandpasssysteme und Bandpasssignale . . . . . . . . . . . . . . . . . . . . 5.4.1 Der ideale Bandpass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.2 Bandpasssystem und ¨ aquivalentes Tiefpasssystem . . . . 5.4.3 Komplexe Signaldarstellung . . . . . . . . . . . . . . . . . . . . . . . ¨ 5.4.4 Ubertragung von Bandpasssignalen u ¨ ber Bandpasssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ 5.4.5 Ubertragung des eingeschalteten cos-Signals u ¨ber den idealen Bandpass . . . . . . . . . . . . . . . . . . . . . . . . 5.4.6 Realisierung von Bandpasssystemen durch Tiefpasssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.7 Phasen- und Gruppenlaufzeit . . . . . . . . . . . . . . . . . . . . . . 5.4.8 Zeitdiskrete Bandpass- und Hochpasssysteme . . . . . . . . 5.5 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6 Anhang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.7 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Statistische Signalbeschreibung . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1 Beschreibung von Zufallssignalen durch Mittelwerte . . . . . . . . . 6.1.1 Der Zufallsprozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.2 Stationarit¨ at und Ergodizit¨ at . . . . . . . . . . . . . . . . . . . . . . 6.1.3 Mittelwerte 1. Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.4 Autokorrelationsfunktion station¨arer Prozesse . . . . . . . . 6.1.5 Kreuzkorrelationsfunktion station¨arer Prozesse . . . . . . . 6.2 Zufallssignale in LTI-Systemen . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.1 Linearer Mittelwert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.2 Quadratischer Mittelwert und Autokorrelationsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.3 Leistungsdichtespektrum . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.4 Weißes Rauschen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.5 Korrelationsfilter-Empfang gest¨orter Signale . . . . . . . . . 6.3 Verteilungsfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.1 Verteilungsfunktion und Wahrscheinlichkeit . . . . . . . . . . 6.3.2 Verteilungsdichtefunktion . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.3 Verbundverteilungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . 6.3.4 Statistische Unabh¨ angigkeit . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Gauß-Verteilungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.1 Verteilungsdichtefunktion der Summe von Zufallsgr¨ oßen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
XI
133 133 135 135 141 148 150 150 150 153 155 156 158 164 166 167 168 169 173 173 173 176 178 179 181 182 183 183 185 186 188 193 193 195 198 200 202 202
XII
Inhaltsverzeichnis
6.4.2 Gauß-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4.3 Gauß-Prozess und LTI-Systeme . . . . . . . . . . . . . . . . . . . . 6.4.4 Fehlerwahrscheinlichkeit bei KorrelationsfilterEmpfang gest¨ orter Bin¨ arsignale . . . . . . . . . . . . . . . . . . . . Zeitdiskrete Zufallssignale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.1 Abtastung von Zufallssignalen . . . . . . . . . . . . . . . . . . . . . 6.5.2 Der zeitdiskrete Zufallsprozess . . . . . . . . . . . . . . . . . . . . . 6.5.3 Zeitmittelwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5.4 Zeitdiskrete Zufallssignale in LSI-Systemen . . . . . . . . . . 6.5.5 Beispiel: Filterung von zeitdiskretem weißen Rauschen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Anhang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.7.1 Kennlinientransformationen von Amplitudenwerten . . . 6.7.2 Gauß-Verbundverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . 6.7.3 Fehlerfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
204 205
Bin¨ ar¨ ubertragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ 7.1 Allgemeine und digitale Ubertragungssysteme .............. 7.2 Bin¨ ar¨ ubertragung mit Tiefpasssignalen . . . . . . . . . . . . . . . . . . . . ¨ 7.2.1 Ubertragung von Bin¨ arsignalfolgen . . . . . . . . . . . . . . . . . 7.2.2 Das 1. Nyquist-Kriterium . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ 7.2.3 Bipolare Ubertragung ............................. 7.2.4 Korrelative Codierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ 7.2.5 Ubertragung mit zwei Tr¨ agersignalformen . . . . . . . . . . . ¨ 7.2.6 Fehlerwahrscheinlichkeit bei Ubertragung mit zwei orthogonalen Signalen . . . . . . . . . . . . . . . . . . . . . 7.2.7 Mehrpegel¨ ubertragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2.8 Adaptive Kanalentzerrung . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Bin¨ ar¨ ubertragung mit Bandpasssignalen . . . . . . . . . . . . . . . . . . . ¨ 7.3.1 Ubertragungsarten ............................... 7.3.2 Korrelationsfunktionen von Bandpasssignalen . . . . . . . . 7.3.3 Empfang von Bandpasssignalen im Tiefpassbereich . . . 7.3.4 Inkoh¨ arenter Empfang von Bandpasssignalen . . . . . . . . 7.3.5 Fehlerwahrscheinlichkeit bei inkoh¨arentem Empfang von Bandpasstr¨ agersignalen . . . . . . . . . . . . . . . . . . . . . . . . 7.3.6 Bandpassrauschen und Rayleigh-Verteilung . . . . . . . . . . 7.3.7 Phasenumtastung und Quadraturmodulation . . . . . . . . . 7.3.8 Synchronisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4 Pulscodemodulation (PCM) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4.1 Verfahren der Pulscodemodulation . . . . . . . . . . . . . . . . . . 7.4.2 Quantisierungsrauschen . . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ 7.4.3 Ubertragungsfehler in PCM-Systemen . . . . . . . . . . . . . . . 7.4.4 PCM-Codierung mit Ged¨ achtnis . . . . . . . . . . . . . . . . . . . .
235 237 238 238 242 245 248 249
6.5
6.6 6.7
6.8 7.
207 212 212 212 214 215 216 218 219 219 224 226 229
252 256 260 261 261 262 265 266 269 272 274 285 288 289 291 293 296
Inhaltsverzeichnis
XIII
7.5 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298 7.6 Anhang: Rice-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299 7.7 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 8.
Modulation, Multiplex und Codierung . . . . . . . . . . . . . . . . . . . . 8.1 Lineare Modulationsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1.1 Pulsamplitudenmodulation . . . . . . . . . . . . . . . . . . . . . . . . ¨ 8.1.2 PAM-Ubertragung mit Bandpasstr¨agersignalen . . . . . . . 8.1.3 Amplitudenmodulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1.4 Inkoh¨ arenter Empfang in AM-Systemen . . . . . . . . . . . . . 8.1.5 Einseitenband-Amplitudenmodulation . . . . . . . . . . . . . . . 8.1.6 St¨ orverhalten der linearen Modulationsverfahren . . . . . 8.2 Winkelmodulationsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2.1 Phasen- und Frequenzmodulation . . . . . . . . . . . . . . . . . . 8.2.2 Spektrum eines FM-Signals . . . . . . . . . . . . . . . . . . . . . . . . 8.2.3 Empfang von FM-Signalen . . . . . . . . . . . . . . . . . . . . . . . . ¨ 8.2.4 St¨ orverhalten der FM-Ubertragung ................. ¨ 8.3 Multiplex-Ubertragung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ¨ 8.3.1 Multiplex-Ubertragung mit Pulsamplitudenmodulation . . . . . . . . . . . . . . . . . . . . . . . . ¨ 8.3.2 Zeitmultiplex-Ubertragung ........................ ¨ 8.3.3 Frequenzmultiplex-Ubertragung .................... ¨ 8.3.4 Codemultiplex-Ubertragung ....................... 8.3.5 Raummultiplex-Verfahren, Diversit¨ats¨ ubertragung und MIMO-Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3.6 Vielfachtr¨ ager-Modulationsverfahren und OFDM . . . . . 8.4 Begriffe der Informationstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.1 Diskrete Nachrichtenquellen . . . . . . . . . . . . . . . . . . . . . . . 8.4.2 Kontinuierliche Nachrichtenquellen . . . . . . . . . . . . . . . . . 8.4.3 Kanalcodierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.4 Codierte Modulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.5 Kanalkapazit¨ at . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.6 Die Kanalkapazit¨ at des Gauß-Kanals . . . . . . . . . . . . . . . . ¨ 8.4.7 Die Shannon-Grenze bei digitaler Ubertragung ....... ¨ 8.4.8 Ideale Ubertragungssysteme mit Bandbreitedehnung . . 8.5 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.6 Anhang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.6.1 Mehrwegeempfang in Mobilfunkkan¨alen . . . . . . . . . . . . . 8.6.2 Zur Charakterisierung von MIMO-Kan¨alen . . . . . . . . . . 8.7 Aufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
305 306 306 308 308 311 314 316 318 319 321 324 325 329 329 332 333 335 349 354 360 360 365 366 370 372 373 376 378 382 382 382 386 388
XIV
9.
Inhaltsverzeichnis
Zusatz¨ ubungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1 Orthogonalentwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2 Signalraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3 Matched-Filter bei farbigem Rauschen . . . . . . . . . . . . . . . . . . . . 9.4 Frequenzumtastung mit nichtkoh¨ arentem Empfang . . . . . . . . . 9.5 Deltamodulation und Differenz-Pulscodemodulation . . . . . . . . 9.6 Optimaler Quantisierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.7 Radarempf¨ anger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.8 St¨ orverhalten von AM-Systemen . . . . . . . . . . . . . . . . . . . . . . . . . ¨ 9.9 Digitale Ubertragung mit M orthogonalen Tr¨agersignalen und die Shannon-Grenze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
395 395 397 401 403 405 406 409 412 414
10. Entwicklung der Nachrichtentechnik . . . . . . . . . . . . . . . . . . . . . . 423 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426 Symbolverzeichnis und Abk¨ urzungen . . . . . . . . . . . . . . . . . . . . . . . . . 435 Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
1. Determinierte Signale in linearen zeitinvarianten Systemen
Die Mehrzahl der in allen folgenden Kapiteln behandelten Themen l¨asst sich ¨ auf die Frage zur¨ uckf¨ uhren, wie sich ein Signal bei der Ubertragung u ¨ber ein System verh¨ alt. Im ersten Kapitel wird dieses Problem unter zun¨achst stark idealisierten Bedingungen betrachtet. Einfache, in ihrem Verlauf vollst¨andig bekannte Signale werden auf einfache Modellsysteme gegeben und der zeitliche Verlauf der Ausgangssignale wird berechnet.
1.1 Elementarsignale Ein Signal ist in der Nachrichtentechnik jede Darstellung einer Nachricht durch physikalische Gr¨ oßen, wie z. B. elektrische Spannungen, Feldst¨arken oder auch Schalldr¨ ucke, Helligkeitsverl¨ aufe, Lichtpegel usw. In der Nachrichten¨ ubertragungstechnik werden als Signale im Besonderen Zeitfunktionen solcher Gr¨ oßen benutzt. Als Tr¨ ager einer dem Empf¨anger unbekannten Nachricht hat das Signal zumeist Zufallscharakter. Sonderf¨alle oder Aufbauelemente solcher Zufallssignale sind die determinierten Signale, deren Verlauf zumindest im Prinzip durch einen geschlossenen Ausdruck vollst¨andig beschrieben werden kann. Von einem Elementarsignal spricht man, wenn diese Beschreibung eine besonders einfache Form hat. Elementarsignale k¨onnen auch technisch zumeist recht einfach erzeugt werden. Viele Elementarsignale lassen sich durch einen algebraischen Ausdruck beschreiben, wie beispielsweise das Sinussignal 1 s(t) = sin(2πt)
(1.1)
oder das Gauß-Signal (Abb. 1.1) 2
s(t) = e−πt
(1.2)
Andere wichtige Elementarsignale, wie z. B. ein Rechteckimpuls, m¨ ussen zun¨ achst etwas m¨ uhsamer st¨ uckweise beschrieben werden. Um den forma1
Auf die Besonderheiten der hier gew¨ ahlten normierten Darstellung wird auf der n¨ achsten Seite noch n¨ aher eingegangen.
2
1. Determinierte Signale in linearen zeitinvarianten Systemen
len Umgang mit derartigen Signalen zu erleichtern, sind f¨ ur eine Anzahl von Elementarsignalen Sonderzeichen gebr¨ auchlich.2
Abb. 1.1. Gauß-Signal
Einfachstes Beispiel ist die Sprungfunktion mit der Bezeichnung ε(t), definiert durch3 0 f¨ ur t < 0 ε(t) = (1.3) 1 f¨ ur t ≥ 0 . Die Sprungfunktion wird u ¨ blicherweise in der in Abb. 1.2 gezeigten Weise dargestellt.
Abb. 1.2. Sprungfunktion ε(t)
Anmerkung: Ein Beispiel f¨ ur eine Sprungfunktion ist der Spannungsverlauf an einem Ohm’schen Widerstand, der zur Zeit t = 0 an eine Gleichspannungsquelle geschaltet wird. 2
3
Sonderzeichen f¨ ur Elementarsignale wurden insbesondere von Woodward (1964) und Bracewell (1965, 1986) in die Signaltheorie eingef¨ uhrt. Abweichend von (1.3) kann auch ε(0) = 1/2 definiert werden. Die Differenz zwischen diesen verschieden definierten Sprungfunktionen ist eine sogenannte Nullfunktion mit verschwindender Energie - Nullfunktionen d¨ urfen fast immer vernachl¨ assigt werden. Eng verwandt mit der Sprungfunktion ist auch die Vorzeichen- oder Signum-funktion sgn(x) = 2ε(x) − 1.
1.1 Elementarsignale
3
F¨ ur den Rechteckimpuls wird das Zeichen rect(t) vereinbart und in normierter Form definiert als4 1 f¨ ur |t| ≤ 1/2 rect(t) = (1.4) 0 f¨ ur |t| > 1/2 . Abb. 1.3 zeigt die rect-Funktion als Rechteckimpuls der H¨ohe und Dauer 1.
Abb. 1.3. Rechteckimpuls rect(t)
Schließlich wird h¨ aufig der Dreieckimpuls (Abb. 1.4) verwendet, f¨ ur den gelten soll 1 − |t| f¨ ur |t| ≤ 1 Λ(t) = (1.5) 0 f¨ ur |t| > 1 .
Abb. 1.4. Dreieckimpuls Λ(t)
In der Signal- und Systemtheorie ist es u ¨ blich, mit dimensionslosen Gr¨oßen zu rechnen, also beispielsweise Zeitgr¨ oßen auf 1 s und Spannungsgr¨oßen auf 1 V zu normieren. Dadurch werden Gr¨ oßengleichungen zu Zahlenwertgleichungen. Die Rechnung wird nicht nur einfacher, sondern kann auch verschiedene ¨ physikalische Sachverhalte, wie z. B. die Ubertragung elektrischer und akustischer Signale, in u ¨ bereinstimmender Form beschreiben. Die M¨oglichkeit der Dimensionskontrolle geht allerdings verloren (Fritzsche, 1972). 4
In Analogie zur Bemerkung in Fußnote 3 kann auch hier rect(± 21 ) = werden.
1 2
definiert
4
1. Determinierte Signale in linearen zeitinvarianten Systemen
In diesem Sinn ist auch die normierte Darstellung der bisher vorgestellten Elementarsignale zu verstehen. Aus diesen Signalen k¨onnen zeitlich gedehnte und verschobene Signale durch einfache Koordinatentransformation der Zeitachse gebildet werden: a) Eine zeitliche Verschiebung um t0 nach rechts ergibt sich, wenn die Zeitkoordinate t durch t − t0 ersetzt wird. Positive t0 entsprechen also einer Verz¨ ogerung des Signals. b) Eine zeitliche Dehnung um den Faktor T resultiert, wenn die Zeitkoordinate t durch t/T ersetzt wird. Dabei wird f¨ ur |T | > 1 das Signal breiter, f¨ ur 0 < |T | < 1 schmaler. Negative Dehnfaktoren spiegeln das Signal zus¨ atzlich an der Ordinate, solche Signale werden auch zeitgespiegelt genannt. Beispiele: Das gedehnte Sinussignal (1.1) lautet s(t) = sin(2πt/T ) = sin(2πF t) .
(1.6)
Der Dehnfaktor T wird in diesem Beispiel Periodendauer, sein Reziprokwert F = 1/T Frequenz genannt. Als zweites Beispiel sei der in Abb. 1.5 dargestellte Rechteckimpuls beschrieben.
Abb. 1.5. Verz¨ ogerter Rechteckimpuls der Dauer T
In der Kombination von Verschiebung und Dehnung auf der Zeitachse und Dehnung der Ordinate um den Amplitudenfaktor a gilt f¨ ur dieses Signal t − t0 s(t) = a rect . (1.7) T Man u ultigkeit dieses Ausdrucks, wenn man ¨ berzeugt sich einfach von der G¨ ur t in (1.4) einsetzt das Argument (t − t0 )/T f¨ a rect
t − t0 T
=
a f¨ ur |(t − t0 )/T | ≤ 1/2 0
f¨ ur |(t − t0 )/T | > 1/2 .
(1.8)
Die Sprungstellen dieser Funktion liegen genau bei t0 − T /2 und t0 + T /2.
1.2 Zum Begriff des Systems
5
1.2 Zum Begriff des Systems ¨ Ein nachrichtentechnisches Ubertragungssystem ist i. Allg. ein recht kompli¨ ziertes Gebilde. Die Analyse der Eigenschaften des gesamten Ubertragungssystems z. B. mittels eines entsprechenden Differentialgleichungsansatzes oder mit Hilfe der Wechselstromrechnung ist h¨ aufig unanschaulich und von der ¨ Berechnung her gesehen ausgesprochen m¨ uhsam. Man teilt daher das Ubertragungssystem in einzelne einfache Teilsysteme auf, zu deren Beschreibung unter bestimmten idealisierenden Voraussetzungen nur noch die an ihren Einund Ausg¨ angen beobachtbaren Vorg¨ ange ben¨otigt werden. Abb. 1.6 zeigt ein RC-Zweitor als Beispiel f¨ ur ein derartiges Teilsystem.
Abb. 1.6. Beispiel zur Netzwerkanalyse
Die Verkn¨ upfungen, die zwischen den einzelnen Spannungen und Str¨omen bestehen und die das Zweitor kennzeichnen, lassen sich mit Hilfe der Netzwerkanalyse, einem Zweig der Netzwerktheorie, berechnen, wobei u ¨blicherweise entsprechend der Wechselstromrechnung sinusf¨ormige Anregung angenommen wird. Der Ansatz durch komplexe Drehzeiger f¨ uhrt dann auch zur L¨ osung der Probleme der Leistungsanpassung, der R¨ uckwirkungen bei Serien-, Ketten- oder Parallelschaltungen usw. In einem weiteren Schritt zur Abstraktion beschreibt man das Zweitor schließlich nur noch durch die Angabe eines Ausgangssignals g(t) als Reaktion auf das Anlegen eines bestimmten Eingangssignals s(t). Anmerkung: Als Beispiel zeigt Abb. 1.7 das Ausgangssignal des RC-Zweitors aus Abb. 1.6 bei einem rechteckf¨ ormigen Eingangssignal unter der speziellen Annahme, dass der Zweipol aus einer idealen Spannungsquelle gespeist wird und am Ausgang leerl¨ auft. Auf diesem Weg gelangt man schließlich zur eigentlichen Systemtheorie, bei der einem idealisierten Eingangssignal ein ebenfalls idealisiertes Ausgangssignal zugeordnet wird, ohne zun¨ achst auf die physikalische Realisierbarkeit eines so beschriebenen Systems R¨ ucksicht zu nehmen. Ein System wird also definiert durch die mathematisch eindeutige Zuordnung eines Ausgangssig-
6
1. Determinierte Signale in linearen zeitinvarianten Systemen
Abb. 1.7. Beispiel zur systemtheoretischen Betrachtungsweise
nals g(t) zu einem beliebigen Eingangssignal s(t)5 g(t) = Tr{s(t)} .
(1.9)
Eine solche Zuordnung von Funktionen wird auch eine Transformationsgleichung oder kurz Transformation genannt. Die Bedeutung dieser systemtheoretischen Betrachtungsweise liegt also darin, die Vielfalt der Eigenschaften realer Systeme an Hand der gut u ¨ bersehbaren Eigenschaften idealisierter Systeme einfacher u ¨berschauen zu k¨onnen.
1.3 Lineare zeitinvariante Systeme Unter den durch (1.9) beschriebenen Systemen sind die linearen zeitinvarianten Systeme besonders wichtig, da sie eine einfache Transformationsgleichung besitzen und sehr viele technische Systeme dieser Systemklasse angeh¨oren. Lineare zeitinvariante Systeme, kurz auch LTI-Systeme 6 genannt, k¨onnen ganz allgemein durch eine lineare Differentialgleichung mit konstanten Koeffizienten beschrieben werden. Die Eigenschaften dieser Systeme haben folgende Bedeutung: a) Linear heißt ein System, wenn jede Linearkombination von Eingangssignalen si (t) (i = 1, 2, 3, . . .) zu der entsprechenden Linearkombination vom Ausgangssignalen gi (t) f¨ uhrt. Es muss daher f¨ ur beliebige Konstanten ai der Superpositionssatz erf¨ ullt sein ai si (t) = ai Tr{si (t)} = ai gi (t) . (1.10) Tr i 5
6
i
i
Um mathematische Schwierigkeiten zu vermeiden, gen¨ ugt es i. Allg., als Signale Zeitfunktionen anzunehmen, die wenigstens n¨ aherungsweise physikalisch realisierbar sind. Insbesondere m¨ ussen diese Funktionen f¨ ur t → −∞ hinreichend schnell gegen Null gehen. Weiter wird stets angenommen, dass sich das System im Ruhezustand befindet, d. h. dass vor Anlegen des Eingangssignals alle Energiespeicher entladen sind, bzw. dass bei digitalen Systemen alle Signalspeicher den Wert Null haben. Englisch: Linear Time-Invariant systems.
1.4 Das Faltungsintegral
7
Anmerkung: Schaltet man Zweipole oder gesteuerte Strom- oder Spannungsquellen, bei denen Spannungen und/oder Str¨ome entsprechend (1.10) linear miteinander verkn¨ upft sind, in beliebiger Weise zu einem System zusammen, so ist auch dieses System linear. b) Zeitinvariant heißt ein System, wenn f¨ ur jede beliebige Zeitverschiebung um t0 gilt Tr{s(t − t0 )} = g(t − t0 ) .
(1.11)
Mit anderen Worten, die Form des Ausgangssignals muss von einer zeitlichen Verschiebung des Eingangssignals unabh¨angig sein. Anmerkung: Zeitinvariant sind beispielsweise alle Systeme, die aus zeitunabh¨ angigen Bauelementen bestehen und keine zeitlich ver¨anderlichen Strom- und Spannungsquellen enthalten. Als Beispiel f¨ ur die Reaktion eines LTI-Systems ist in Abb. 1.8 die Antwort des RC-Zweitors auf einen doppelten Rechteckimpuls dargestellt. Das Ergebnis folgt bei bekannter Antwort auf den einfachen Rechteckimpuls (Abb. 1.7) ¨ sofort mit Hilfe der Uberlagerungseigenschaft (1.10) und der Verschiebungseigenschaft (1.11).
t0
Abb. 1.8. Beispiele f¨ ur die Reaktion eines LTI-Systems
1.4 Das Faltungsintegral ¨ Das Beispiel in Abb. 1.8 zeigt, wie bei LTI-Systemen die Ubertragung eines zusammengesetzten Signals durch die bekannte Antwort auf ein Elementarsignal beschrieben werden kann. Durch Erweitern dieser Methode gelingt
8
1. Determinierte Signale in linearen zeitinvarianten Systemen
es, einen allgemeinen Ausdruck f¨ ur die Transformationsgleichung von LTISystemen abzuleiten. Ein LTI-System reagiere auf einen Rechteckimpuls s0 (t) der Dauer T0 und der H¨ ohe 1/T0 mit dem Ausgangssignal g0 (t) (Abb. 1.9).
Abb. 1.9. Reaktion g0 (t) eines LTI-Systems auf einen Rechteckimpuls s0 (t) der Fl¨ ache 1
Bei dieser Normierung auf konstante Fl¨ ache des Eingangssignals bleibt auch ur beliebige T0 konstant (vgl. Aufgadie Fl¨ ache des Ausgangssignals g0 (t) f¨ be 1.16). Von s0 (t) ausgehend, kann man die Reaktion g(t) dieses Systems auf ein beliebiges Eingangssignal s(t) zun¨ achst zwar nicht exakt, aber doch n¨aherungsweise bestimmen. Man approximiert dazu das vorgegebene Eingangssignal s(t) durch eine Treppenfunktion sa (t), die sich, wie Abb. 1.10a zeigt, aus entsprechend amplitudenbewerteten und zeitverschobenen Rechteckimpulsen zusammensetzt.
Abb. 1.10a, b. N¨ aherungsweise Bestimmung von g(t) durch Einf¨ uhren einer approximierenden Treppenfunktion sa (t)
Der verwendete Rechteckimpuls der H¨ ohe 1/T0 muss, wenn er zum Zeitpunkt nT0 die Amplitude s(nT0 ) der zu approximierenden Funktion annehmen soll, mit s(nT0 )T0 multipliziert werden. Damit ergibt sich als approximierende Treppenfunktion sa (t)
1.4 Das Faltungsintegral
s(t) ≈ sa (t) =
∞
s(nT0 )s0 (t − nT0 )T0 .
9
(1.12)
n=−∞
Entsprechend (1.10) (Superpositionssatz) und (1.11) (Zeitinvarianz) reagiert das LTI-System auf sa (t) mit (Abb. 1.10b) ga (t) =
∞
s(nT0 )g0 (t − nT0 )T0 ≈ g(t) .
(1.13)
n=−∞
Es ist unmittelbar einzusehen, dass sa (t) das Eingangssignal s(t) um so genauer approximiert, je geringer die Dauer T0 des Rechteckimpulses gew¨ahlt wird. Entsprechend wird sich bei Verkleinerung von T0 auch das Ausgangssignal ga (t) mehr und mehr der zu bestimmenden Reaktion g(t) n¨ahern. Die Besonderheiten des dazu erforderlichen Grenz¨ uberganges T0 → 0 werden zun¨ achst an Hand von Abb. 1.11 veranschaulicht.
Abb. 1.11. Reaktion g0 (t) eines RC-Systems (Zeitkonstante T = R · C) auf einen ache schmaler werdenden Rechteckimpuls s0 (t) konstanter Fl¨
Je geringer die Dauer T0 des Eingangssignals bei konstant gehaltener Fl¨ache wird, desto mehr n¨ ahert sich das Ausgangssignal einer Form an, die nur noch ¨ von den Eigenschaften des Ubertragungssystems und nicht mehr von der Dauer des Eingangssignals abh¨ angt. Im Grenz¨ ubergang T0 → 0, der technisch durch einen sehr schmalen Rechteckimpuls angen¨ahert werden kann, wird das Eingangssignal durch das mathematische Modell des Dirac-Impulses δ(t)
10
1. Determinierte Signale in linearen zeitinvarianten Systemen
beschrieben.7 Das zugeh¨ orige Ausgangssignal wird als Impulsantwort h(t) bezeichnet (s. untere Zeile in Abb. 1.11). F¨ uhrt man jetzt den Grenz¨ ubergang f¨ ur (1.12) und (1.13) durch, dann gehen die Summen in Integrale u ubergang ¨ber, und mit den nach dem Grenz¨ g¨ ultigen neuen Bezeichungen s0 (t) → δ(t)
nT0 → τ
g0 (t) → h(t)
T0 → dτ
ergeben sich die Faltungsintegrale ∞ s(t) =
s(τ )δ(t − τ )dτ ,
(1.14)
s(τ )h(t − τ )dτ .
(1.15)
−∞ ∞
g(t) = −∞
Das erste Faltungsintegral (1.14) beschreibt die Darstellung eines Signal s(t) durch eine nicht abz¨ ahlbar unendliche Reihe von Dirac-Impulsen, anschaulich als unendlich fein gestufte Treppenfunktion. Da (1.14) f¨ ur beliebige Signale gilt, definiert sie den Dirac-Impuls und kann, wie in Abschn. 1.7 gezeigt wird, zur Ableitung seiner Eigenschaften benutzt werden. Das zweite Faltungsintegral (1.15) beschreibt jetzt die exakte, in diesem Abschnitt gesuchte Antwort g(t) eines LTI-Systems auf ein Eingangssignal s(t). Das Faltungsintegral ist damit eine f¨ ur LTI-Systeme allgemein geltende Transformationsgleichung (s. aber Fußnote 5).
1.5 Beispiel zur Berechnung des Faltungsintegrals Im vorigen Abschnitt wurde abgeleitet, wie man mit Hilfe des Faltungsintegrals das Ausgangssignal eines LTI-Systems aus dem Eingangssignal und der Impulsantwort des Systems berechnen kann. Hierzu ein Beispiel. Gegeben sei wieder das RC-System aus Abb. 1.7. Die Impulsantwort dieses Systems hat, wie im n¨ achsten Kapitel noch gezeigt wird, die Form eines abfallenden Exponentialimpulses der Fl¨ ache 1 h(t) =
1 ε(t)e−t/T T
mit
T = RC .
(1.16)
Durch h(t) ist das RC-System vollst¨ andig beschrieben. Gesucht sei die Reaktion des RC-Systems auf einen Rechteckimpuls der Dauer T0 und der Amplitude a. Ausgehend vom Faltungsintegral (1.15) ist zu beachten, dass als 7
Der Rechteckimpuls ist im RC-System schmal genug, wenn T0 RC ist (vgl. Aufgabe 5.4). Eine n¨ ahere Diskussion der mathematischen Eigenschaften des Dirac-Impulses erfolgt in Abschn. 1.7.
1.5 Beispiel zur Berechnung des Faltungsintegrals
11
Integrationsvariable die Zeit τ l¨ auft, w¨ ahrend die Zeit t einen festen Parameter darstellt. Zur Berechnung des Faltungsintegrals sind daher die Funktionen s(τ ) und h(t − τ ) u ¨ ber der Zeit τ darzustellen. Der Verlauf von s(τ ) bzw. h(τ ) u ¨ ber τ folgt unmittelbar aus dem Verlauf von s(t) bzw. h(t) u ¨ ber t und ist in Abb. 1.12a wiedergegeben.
Abb. 1.12a–d. Beispiel zur Berechnung des Faltungsintegrals
Den Verlauf der zeitgespiegelten Impulsantwort h(t − τ ) u ¨ber τ kann man sich u ¨ ber den folgenden Zwischenschritt veranschaulichen: Zun¨ achst wird die Funktion h(t − τ ) f¨ ur den Spezialfall t = 0, also die Funktion h(−τ ) u ¨ ber τ dargestellt. Man gewinnt h(−τ ), indem man den Verlauf von h(τ ) an der Ordinate spiegelt.8 Abb. 1.12b zeigt den Verlauf von h(−τ ). 8
Diese Spiegelung oder Faltung (englisch: convolution) der Funktion h(τ ) begr¨ undet die Namensgebung Faltungsintegral f¨ ur (1.15).
12
1. Determinierte Signale in linearen zeitinvarianten Systemen
Den Verlauf von h(t − τ ) u ur positive Zeiten erh¨alt man jetzt aus ¨ber τ f¨ h(−τ ) durch Verschieben der Kurve h(−τ ) um die entsprechende Zeit t nach rechts, w¨ ahrend f¨ ur negative Zeiten h(−τ ) entsprechend nach links verschoben werden muss (Abb. 1.12c). Nachdem nun festliegt, wie s(τ ), h(t − τ ) und damit auch ihr Produkt u achstes gekl¨ art werden, f¨ ur welche Zeiten τ und t ¨ber τ verlaufen, soll als n¨ das Produkt s(τ ) · h(t − τ ) dieser zeitbegrenzten Signale ungleich Null ist und durch welche dementsprechenden Zeitwerte die allgemeinen Integrationsgrenzen −∞ bzw. +∞ des Faltungsintegrals ersetzt werden k¨onnen. Abb. 1.12d l¨ asst erkennen, dass in dem vorliegenden Beispiel das Produkt s(τ ) · h(t − τ ) als Funktion von τ f¨ ur alle Zeiten t < 0 identisch gleich Null ist. Da nach dem Faltungsintegral die Funktion g(t) der Fl¨ache unter dem Produkt s(τ ) · h(t − τ ) entspricht, folgt daraus g(t) = 0 f¨ ur
t T0 ist das Produkt s(τ ) · h(t − τ ) nur in dem festen Intervall 0 < τ < T0 von Null verschieden. Daher gilt hier T0 s(τ )h(t − τ )dτ
g(t) =
f¨ ur
t > T0 .
0
Wiederum s(τ ) und h(t − τ ) entsprechend eingesetzt, erh¨alt man nach Ausrechnung g(t) = a(eT0 /T − 1)e−t/T
f¨ ur
t > T0 .
Die gesuchte, auf die Konstante a bezogene Reaktion g(t) des Systems ist in Abb. 1.13 wiedergegeben (vgl. auch wieder Abb. 1.11).
1.6 Faltungsalgebra
13
Abb. 1.13. Reaktion g(t) eines RC-Systems der Zeitkonstante T = RC auf einen Rechteckimpuls der Dauer T0
1.6 Faltungsalgebra Das Faltungsintegral (1.15), das die zwischen der Reaktion g(t) eines LTISystems, seiner Impulsanwort h(t) und dem Eingangssignal s(t) bestehenden Verkn¨ upfungen beschreibt, kann man in symbolischer Schreibweise abk¨ urzend durch das folgende, sogenannte Faltungsprodukt 9 darstellen g(t) = s(t) ∗ h(t) .
(1.17)
Dieser Gleichung entspricht das in Abb. 1.14 gezeigte Blockschaltbild des LTISystems.
Abb. 1.14. Allgemeine Darstellung eines durch seine Impulsantwort h(t) charakterisierten LTI-Systems
Ebenso l¨ asst sich das den Dirac-Impuls definierende Faltungsintegral (1.14) durch das entsprechende Faltungsprodukt ausdr¨ ucken s(t) = s(t) ∗ δ(t) .
(1.18)
Man kann (1.18) durch ein LTI-System veranschaulichen, dessen Impulsantwort wieder ein Dirac-Impuls δ(t) ist (Abb. 1.15).
Abb. 1.15. Beispiel f¨ ur ein ideal verzerrungsfreies System
Wird ein solches System mit einem Eingangssignal s(t) angeregt, erscheint an seinem Ausgang wieder s(t). Man nennt ein System mit einer derartigen Eigenschaft ein ideal verzerrungsfreies System. 9
Lies: s(t) gefaltet mit h(t).
14
1. Determinierte Signale in linearen zeitinvarianten Systemen
Das in (1.17) und (1.18) benutzte Operationszeichen ∗“, der Faltungsstern, ” ¨ weist nicht ohne Grund eine große Ahnlichkeit mit dem Multiplikationszeichen ד auf. Wie im Folgenden gezeigt, gestattet es n¨amlich, Faltungs” operationen nach den gleichen Rechengesetzen abzuwickeln, wie sie bei der algebraischen Multiplikation verwendet werden. Die wichtigsten Regeln der entsprechenden Faltungsalgebra sollen an Hand einiger Beispiele betrachtet werden: a) Der Dirac-Impuls kann als das Einselement der Faltungsalgebra bezeichnet werden. Dies zeigt unmittelbar die Gleichung (1.18), die der Multiplikation mit Eins entspricht. b) Die Faktoren eines Faltungsproduktes d¨ urfen vertauscht werden: Kommutativgesetz der Faltung. Anmerkung: Der Beweis hierf¨ ur gelingt mit Hilfe des Faltungsintegrals (1.15). Substituiert man in (1.15) τ durch (t − θ), so erh¨alt man −∞ +∞ s(t − θ)h(θ)(−dθ) = h(θ)s(t − θ)dθ . g(t) = +∞
−∞
Es gilt also g(t) = s(t) ∗ h(t) = h(t) ∗ s(t) .
(1.19)
Abb. 1.16 gibt ein Beispiel hierzu.
Abb. 1.16. Beispiel zum Kommutativgesetz der Faltung
Die Antwort eines LTI-Systems mit der Impulsantwort h(t) auf ein Signal s(t) ist also immer identisch mit der Antwort eines Systems mit der Impulsantwort s(t) auf das Signal h(t). c) Sind drei Funktionen miteinander zu falten, so faltet man zun¨achst zwei von ihnen miteinander und dann das dabei entstehende Faltungsprodukt mit der dritten Funktion. Dabei ist die Reihenfolge der Zusammenfassung
1.6 Faltungsalgebra
15
ohne Einfluss auf das Ergebnis: Assoziativgesetz der Faltung.10 f (t) ∗ s(t) ∗ h(t) = [f (t) ∗ s(t)] ∗ h(t) = f (t) ∗ [s(t) ∗ h(t)] .
(1.20)
Abb. 1.17 zeigt wiederum ein entsprechendes Systembeispiel.
Abb. 1.17. Beispiel zum Assoziativgesetz der Faltung
d) Das Faltungsprodukt einer Funktion f (t) mit der Summe der Funktionen s(t) und h(t) ist gleich der Summe der beiden Faltungsprodukte f (t) ∗ s(t) und f (t) ∗ h(t): Distributivgesetz der Faltung zur Addition10 . f (t) ∗ [s(t) + h(t)] = [f (t) ∗ s(t)] + [f (t) ∗ h(t)] .
(1.21)
Abb. 1.18 gibt diesen Zusammenhang anschaulich wieder.
Abb. 1.18. Beispiel zum Distributivgesetz der Faltung
Die Faltung eines komplexen Signals s(t) mit einer komplexen Impulsantwort h(t) folgt exakt den Regeln der komplexen Multiplikation. Es ergibt sich das ebenfalls komplexe Ausgangssignal g(t) = s(t) ∗ h(t) = [Re{s(t)} ∗ Re{h(t)} − Im{s(t)} ∗ Im{h(t)}]
Re{g(t)}
+ j[Re{s(t)} ∗ Im{h(t)} + Im{s(t)} ∗ Re{h(t)}] . (1.22)
Im{g(t)} 10
S. Aufgabe 1.18. Bez¨ uglich der Kombination mit Addition/Subtraktion gelten f¨ ur die Faltung dieselben Regeln wie bei Multiplikation ( Sternrechnung vor Strich” rechnung“). Man beachte, dass f¨ ur die Bildung des Faltungsproduktes in Kombination mit anderen Rechenoperationen (z. B. Multiplikation zeitabh¨ angiger Signale) keine verbindliche Reihenfolge vereinbart ist. Daher m¨ ussen in solchen F¨ allen stets Klammern gesetzt werden.
16
1. Determinierte Signale in linearen zeitinvarianten Systemen
1.7 Dirac-Impuls In Abschn. 1.4 war gezeigt worden, wie eine beliebige Signalfunktion s(t) n¨ aherungsweise als Summe von Rechteckimpulsen dargestellt werden kann. Es war plausibel einzusehen, dass die Approximation um so besser ist, je schmaler die einzelnen Rechteckimpulse werden. Der Grenz¨ ubergang, formal durchgef¨ uhrt, ergab dann die Darstellung des Signals s(t) durch eine nicht abz¨ ahlbar unendliche Reihe von Dirac-Impulsen in Form des Faltungsintegrals (1.14) s(t) =
+∞ s(τ )δ(t − τ )dτ . −∞
F¨ ur messtechnische Zwecke kann der so eingef¨ uhrte Dirac-Impuls δ(t) als gen¨ ugend kurzer Rechteckimpuls hoher Amplitude befriedigend gedeutet werden. Mathematisch ist dagegen Vorsicht geboten, da ein Grenz¨ ubergang der Form 1 1 lim rect T0 →0 T0 T0 nicht als Funktion, sondern nur als sog. Distribution existiert.11 Da der Dirac-Impuls in seinen Anwendungen als Signal immer in Integralausdr¨ ucken der Form (1.14) erscheint, wird dieses Integral zur Definition des Dirac-Impulses benutzt. Alle im Folgenden ben¨otigten Eigenschaften des Dirac-Impulses k¨ onnen aus (1.14) abgeleitet werden. 1.7.1 Gewicht und Linearkombination von Dirac-Impulsen Die Faltung des mit einem Faktor a multiplizierten Dirac-Impulses aδ(t) mit einer Funktion s(t) ergibt entsprechend dem Faltungsintegral (1.14) ∞ s(τ )aδ(t − τ )dτ
[aδ(t)] ∗ s(t) = −∞
(1.23)
∞
=a
s(τ )δ(t − τ )dτ = as(t) .
−∞ 11
Mathematisch geh¨ ort der durch diesen Grenz¨ ubergang oder das Faltungsintegral (1.14) definierte Dirac-Impuls zu den sog. verallgemeinerten Funktionen oder Distributionen, die alle durch ¨ ahnliche Integralausdr¨ ucke definiert werden. Die exakte Impulsantwort eines linearen Netzwerkes wurde erstmals 1855 von William Thomson, dem sp¨ ateren Lord Kelvin (1824–1907), in seiner Theorie des Seekabels berechnet (Anhang zum Literaturverzeichnis). Der engl. Physiker Paul A.M. Dirac (1902–1984) f¨ uhrte den Dirac-Impuls“ 1927 in die Quantentheorie ” ein. Die Theorie der Distributionen (Lighthill, 1966; Babovsky, 1987) wurde 1952 von Laurent Schwartz ver¨ offentlicht.
1.7 Dirac-Impuls
17
Ein hierdurch definierter Faktor vor einem Dirac-Impuls wird als Gewicht des Dirac-Impulses bezeichnet (Aufgabe 1.14). Symbolisch wird ein Dirac-Impuls mit dem Gewicht a wie in Abb. 1.19 dargestellt.
Abb. 1.19. Dirac-Impuls mit dem Gewicht a
In gleicher Weise gilt f¨ ur die Faltung einer Linearkombination von DiracImpulsen mit einer Funktion s(t) [a1 δ(t) + a2 δ(t)] ∗ s(t) = (a1 + a2 )s(t) . Damit l¨ asst sich eine Linearkombination von Dirac-Impulsen auch schreiben als a1 δ(t) + a2 δ(t) = (a1 + a2 )δ(t) . 1.7.2 Siebeigenschaft des Dirac-Impulses Mit Hilfe des kommutativen Gesetzes der Faltungsalgebra (1.19) kann (1.14) umgeschrieben werden, es gilt mit (1.18) s(t) = s(t) ∗ δ(t) = δ(t) ∗ s(t) und damit auch als andere Form der Definitionsgleichung ∞ δ(τ )s(t − τ )dτ .
s(t) =
(1.24)
−∞
Die beiden Faltungsintegrale (1.14) und (1.24) machen die Interpretation des Dirac-Impulses als sogenanntes Zeitsieb deutlich. Als Ergebnis der Integratiur on erscheint ein diskreter Wert der Funktion s(τ ) mit dem Argument τ0 , f¨ das das Argument des Dirac-Impulses Null ist: In (1.14) verschwindet das Argument des Dirac-Impulses f¨ ur τ0 = t, also erscheint als Ergebnis s(τ0 ) = s(t); ebenso verschwindet in (1.24) das Argument des Dirac-Impulses f¨ ur τ0 = 0, damit ergibt sich hier ebenfalls s(t − τ0 ) = s(t).12 Im Sonderfall t = 0 folgt aus (1.14) und (1.24) 12
Diese Auswertung des Faltungsintegrals setzt voraus, dass das Signal s(t) an der herausgesiebten Stelle stetig ist.
18
1. Determinierte Signale in linearen zeitinvarianten Systemen
∞
∞ δ(τ )s(−τ )dτ =
−∞
δ(−τ )s(τ )dτ = s(0) .
(1.25)
−∞
Es wird also hier der Wert der Funktion s(τ ) an der Stelle τ = 0 herausge” siebt“. Verallgemeinert l¨ asst sich die Siebeigenschaft des Dirac-Impulses auch in Form eines Produktes des Dirac-Impulses mit einem Signal s(t) definieren. Hierzu wird zun¨ achst das Faltungsprodukt von s(t)·δ(t) mit einem beliebigen Signal g(t) gebildet, also ∞ [s(τ )δ(τ )]g(t − τ )dτ
[s(t)δ(t)] ∗ g(t) = −∞ ∞
δ(τ )[s(τ )g(t − τ )]dτ = s(0)g(t) ,
= −∞
wobei das letzte Integral wieder mit Hilfe der Siebeigenschaft berechnet werden kann. Mit (1.18) l¨ asst sich dieses Ergebnis auch als Faltungsprodukt in der Form schreiben s(0)g(t) = [s(0)δ(t)] ∗ g(t) . Durch Vergleich mit dem oben angesetzten Faltungsprodukt folgt dann als Ergebnis s(t)δ(t) = s(0)δ(t) ,
(1.26)
oder allgemeiner s(t)δ(t − T ) = s(T )δ(t − T ) . Mit Hilfe dieses Zusammenhangs kann beispielsweise die Darstellung eines kontinuierlichen Signals durch diskrete Werte, wie sie in Kap. 3 bei der Behandlung der Abtasttheoreme benutzt wird, sehr einfach beschrieben werden. Die bei den Ableitungen (1.23) und (1.26) benutzte Methode, Eigenschaften des Dirac-Impulses u ¨ ber einen Ansatz in Form eines Faltungsintegrals herzuleiten, wird im Folgenden weiter ausgebaut, um wichtige Aussagen u ¨ ber Dehnung, Verschiebung und Integration des Dirac-Impulses zu erhalten. So folgt z.B. f¨ ur den Sonderfall eines konstanten Signals s(t) = s(t − τ ) = a die Fl¨ ache unter dem Dirac-Impuls : +∞ +∞ aδ(t)dτ = a δ(t)dτ = a . −∞
−∞
=1
Es ist aber zu beachten, dass viele Operationen, wie z. B. die Quadrierung, f¨ ur Dirac-Impulse nicht definiert sind.
1.7 Dirac-Impuls
19
1.7.3 Dirac-Impuls mit Dehnungsfaktor Zur Ableitung der Eigenschaften des gedehnten“ Dirac-Impulses δ(bt) wird ” wieder ein Faltungsprodukt mit einem beliebigen Signal s(t) gebildet +∞ δ(bτ )s(t − τ )dτ . δ(bt) ∗ s(t) =
(1.27)
−∞
Die Substitution bτ = θ ergibt f¨ ur positive b 1 δ(bt) ∗ s(t) = b
∞ −∞
θ 1 δ(θ)s t − dθ = s(t) , b b
wie mit der Siebeigenschaft folgt. In gleicher Weise ergibt sich f¨ ur negative b unter Ber¨ ucksichtigung der durch die Substitution umgekehrten Integrationsrichtung 1 δ(bt) ∗ s(t) = − s(t) . b Da der vor diesen Ausdr¨ ucken stehende Faktor f¨ ur positive b den positiven Wert 1/b aufweist und f¨ ur negative b ebenfalls den positiven Wert −1/b hat, kann man f¨ ur positive und negative b allgemein schreiben δ(bt) ∗ s(t) =
1 s(t) . |b|
(1.28)
F¨ ur die rechte Seite von (1.28) kann auch geschrieben werden
1 1 s(t) = δ(t) ∗ s(t) , |b| |b| damit folgt f¨ ur den gedehnten Dirac-Impuls δ(bt) =
1 δ(t) . |b|
(1.29)
Setzt man in dieser Gleichung b = −1 , dann ergibt sich auch die Symmetrie des Dirac-Impulses δ(−t) = δ(t) .
(1.30)
1.7.4 Verschiebung des Dirac-Impulses Faltet man die Signalfunktion s(t) mit dem um t0 verschobenen Dirac-Impuls, erh¨ alt man, wiederum ausgehend von der Definitionsgleichung (1.24) und mit Hilfe der Zeitsiebeigenschaft
20
1. Determinierte Signale in linearen zeitinvarianten Systemen
∞ δ(t − t0 ) ∗ s(t) =
δ(τ − t0 )s(t − τ )dτ = s(t − t0 ) .
(1.31)
−∞
Fasst man s(t − t0 ) als Ausgangssignal eines LTI-Systems auf, dann stellt (1.31) die Beschreibungsgleichung f¨ ur ein LTI-System dar, f¨ ur dessen Impulsantwort h(t) gilt h(t) = δ(t − t0 ) .
(1.32)
LTI-Systeme mit einer solchen Impulsantwort werden ideale Laufzeitglieder 13 genannt, da an ihrem Ausgang gem¨ aß (1.31) beliebige Eingangssignale um die Zeit t0 verz¨ ogert erscheinen (Abb. 1.20).
Abb. 1.20. Ideales Laufzeitglied
1.7.5 Integration des Dirac-Impulses Die Eigenschaften eines Integrals u ¨ ber den Dirac-Impuls k¨onnen an Hand des Faltungsproduktes ε(t) ∗ δ(t) erkl¨ art werden. Es gilt ∞ ε(t) = δ(t) ∗ ε(t) =
δ(τ )ε(t − τ )dτ .
(1.33)
−∞
Da die Sprungfunktion ε(t−τ ) f¨ ur τ ≤ t den Wert 1 und f¨ ur τ > t den Wert 0 aufweist, kann das Faltungsintegral (1.33) vereinfacht geschrieben werden als t ε(t) =
δ(τ )dτ .
(1.34)
−∞
Die Sprungfunktion ergibt sich in diesem Sinn aus der Integration des DiracImpulses mit der Zeit t als Obergrenze, auch laufende Integration genannt.14 In Umkehrung von (1.34) kann man schreiben d ε(t) = δ(t) . dt 13 14
(1.35)
Auch Verz¨ ogerungsglieder, in der Regelungstechnik Totzeitglieder. Der Differentiator ist ein bzgl. der Faltung inverses System zum Integrator, dies setzt Signale s(t) gem¨ aß Fußnote 5 voraus (Aufgabe 1.15). Inverse Systeme sind nur selten exakt realisierbar; technische N¨ aherungen werden als Entzerrer bezeichnet.
1.8 Integration und Differentiation von Signalen
21
Durch Einf¨ uhren des Dirac-Impulses lassen sich also auch Funktionen mit Sprungstellen differenzieren, hierf¨ ur ist die Bezeichnung verallgemeinerte Differentiation gebr¨ auchlich.
1.8 Integration und Differentiation von Signalen Der folgende Abschnitt baut den zwischen Dirac-Impuls und Sprungfunktion gefundenen Zusammenhang weiter aus und veranschaulicht die Ergebnisse an Hand von Systembeispielen. Ersetzt man in (1.33) δ(t) durch s(t), so erh¨alt man in gleicher Rechnung (vgl. Aufgabe 1.3) t s(t) ∗ ε(t) =
s(τ )dτ .
(1.36)
−∞
Interpretiert man ε(t) als Impulsantwort eines LTI-Systems, dann erscheint am Ausgang das laufende Integral des Eingangssignals, ein solches System nennt man Integrator (Abb. 1.21).
Abb. 1.21. Systembeispiele zu (1.36) und (1.37)
Mit Hilfe des kommutativen Gesetzes der Faltungsalgebra l¨asst sich (1.36) umschreiben zu t ε(t) ∗ s(t) =
s(τ )dτ .
(1.37)
−∞
Das heißt, die Antwort eines Systems auf einen Sprung ε(t), die sogenannte Sprungantwort, ergibt sich als laufendes Integral der Impulsantwort s(t). Als Gegenst¨ uck zum Integrator, dessen Impulsantwort die Sprungfunktion ist, kann man auch ein LTI-System definieren, dessen Sprungantwort der ¨ Dirac-Impuls ist. In Ubereinstimmung mit (1.35) wird dieses System Differentiator genannt. Die Kettenschaltung beider Systeme ergibt ein ideal verzerrungsfreies System mit der Impulsantwort δ(t), wie aus Abb. 1.22 sofort verst¨ andlich wird14 . Offen blieb bisher noch die Frage nach der Impulsantwort des Differentiators. Auch dieses Problem soll mit Hilfe eines Systembeispiels behandelt
22
1. Determinierte Signale in linearen zeitinvarianten Systemen
Abb. 1.22. Kettenschaltung von Integrator und Differentiator als ideal verzerrungsfreies System
Abb. 1.23a–c. Kettenschaltung des Systems s(t) mit Integrator und Differentiator
werden: Die Zusammenschaltung des Systems aus Abb. 1.22 mit einem beliebigen System s(t) muss als Impulsantwort wieder s(t) ergeben (Abb. 1.23a). Vertauscht man nun die Reihenfolge der Systeme, wie Abb. 1.23b zeigt, dann muss wegen der G¨ ultigkeit des kommutativen Gesetzes der Faltung am Ausgang des Gesamtsystems wieder s(t) erscheinen. Das ist aber nur m¨oglich, wenn am Eingang des Integrators das differenzierte Signal s (t) liegt. Weiter erscheint jetzt am Ausgang des Differentiators seine gesuchte Impulsantur das mittlere System in wort, die als δ (t) bezeichnet wird. Es muss also f¨ Abb. 1.23b gelten δ (t) ∗ s(t) = s (t) .
(1.38)
Gleichung (1.38) ist in gleicher Weise Definitionsgleichung f¨ ur δ (t), wie es (1.18) oder (1.14) f¨ ur δ(t) war. Die Impulsantwort des Differentiators ist demnach ebenfalls eine verallgemeinerte Funktion oder Distribution, sie wird Doppelimpuls oder Dirac-Impuls 2. Ordnung genannt. Anmerkung: Angen¨ ahert kann der Doppelimpuls durch einen gen¨ ugend schmalen Doppelrechteckimpuls mit H¨ ohen 1/T02 dargestellt werden, wie er zusammen mit dem grafischen Symbol f¨ ur den Doppelimpuls in Abb. 1.24 dargestellt ist. Sprungfunktion, Dirac-Impuls und Doppelimpuls werden zusammen mit weiteren Signalen, die durch n-faches Integrieren oder Differenzieren aus dem Dirac-Impuls ableitbar sind, mit dem Namen singul¨are Signale bezeichnet (Aufgabe 1.10). Eine weitere Umstellung der Systeme zeigt Abb. 1.23c. Am Ausgang des Systems s(t) erscheint die Sprungantwort g(t) nach (1.37). Durch Differen-
1.9 Kausale und stabile Systeme
23
Abb. 1.24. Doppelrechteckfunktion als Approximation des Doppelimpulses und grafische Darstellung von δ (t)
tiation der Sprungantwort ergibt sich wieder die Impulsantwort s(t). Diese Methode ist besonders zur messtechnischen Bestimmung der Impulsantwort geeignet, da sich ein Spannungssprung als Testfunktion gut und genau erzeugen l¨ asst.
1.9 Kausale und stabile Systeme Ein System ist kausal, wenn das Ausgangssignal nicht vor Beginn des Eingangssignals erscheint. Dieser Bedingung, die alle physikalisch realisierbaren Systeme erf¨ ullen m¨ ussen, entspricht bei quellenfreien LTI-Systemen eine Impulsantwort mit der Eigenschaft h(t) = 0
f¨ ur
t0 ⎨1 (2.75) sgn(t) = 2ε(t) − 1 = 0 f¨ ur t=0 . ⎪ ⎩ −1 t 0 .
(2.98)
−∞
Damit sind Signale transformierbar, die mit einer beliebigen Potenz von t, aber nicht exponentiell anwachsen. Die Laplace-Transformation ist besonders dann n¨ utzlich, wenn die analytischen Eigenschaften der Frequenzfunktionen interessieren. Weiter ist f¨ ur Signale und Systeme mit rationalen LaplaceTransformierten (z. B. RLCM-Systeme) die Beschreibung durch die Lage der Pole und Nullstellen in der p-Ebene ein f¨ ur Analyse, Synthese und Stabilit¨atsbetrachtungen gern benutztes Werkzeug. F¨ ur den Umgang mit der LaplaceTransformation muss hier auf die Literatur verwiesen werden (Doetsch, 1989). Da die Fourier-Transformierte als Funktion einer einzigen reellen Ver¨anderlichen, der Frequenz, zur Beschreibung des Frequenzverhaltens in der Signal¨ ubertragung in der Regel ausreichend, dar¨ uber hinaus physikalisch anschaulicher und auch einfach messbar ist, wird sie in den folgenden Kapiteln ausschließlich benutzt.
2.11 Zusammenfassung
61
2.11 Zusammenfassung In diesem Kapitel wurde die Fourier-Transformation als Hilfsmethode zur Berechnung von Faltungsprodukten eingef¨ uhrt. Bildet man durch Fourier¨ Transformation der Impulsanwort die Ubertragungsfunktion eines Systems und aus einem Signal sein Spektrum, so ergibt das Produkt dieser beiden Frequenzfunktionen das Spektrum des Ausgangssignals. Das Ausgangssignal selbst kann dann durch inverse Fourier-Transformation wieder zur¨ uckgewonnen werden. Die mathematischen Vorteile dieses Verfahrens haben dazu gef¨ uhrt, dass die Behandlung von Systemaufgaben im Frequenzbereich ein Eigenleben entwickelt hat. H¨ aufig beschreibt man Signale und Systeme nur durch ihre Fourier-Transformierten und fragt erst an zweiter Stelle nach ihrer Form im Zeitbereich. Der praktische Umgang mit der Methode der Fourier-Transformation wird sehr erleichtert durch die Kenntnis der Spektren einiger elementarer Funktionen und die Kenntnis einiger Theoreme u ¨ ber elementare Operationen mit Signalen und ihren Spektren. Die Theoreme und einige Transformationspaare sind daher am Schluß dieses Kapitels in zwei Tabellen zusammengefasst dargestellt. Starker Wert wurde auch der Bedeutung verallgemeinerter Funktionen im Zeit- und Frequenzbereich beigelegt, durch deren Einf¨ uhrung viele Schwierigkeiten der klassischen Theorie der Fourier-Transformation entfallen. In allen folgenden Kapiteln wird das Werkzeug Fourier-Transformation“ ” ausgiebig angewandt. Besonders deutlich werden die Vorteile dieser Methode bei der folgenden Behandlung der Abtasttheoreme.
62
2. Fourier-Transformation
2.12 Anhang 2.12.1 Tabellen zur Fourier-Transformation
Tabelle 2.1. Theoreme der Fourier-Transformation Theorem
s(t)
F-Transformation
s(t) +∞ R
S(f ) +∞ R
Gl.
s(t)e−j2πf t dt
(2.8)
−∞
inverse F − Transformation
−∞
Zeitspiegelung
s(−t)
Konjugiert komplexe Zeitfunktionen Symmetrie
s∗ (t) s∗ (−t)
S ∗ (−f ) S ∗ (f )
(2.38)
S(t)
s(−f )
(2.48)
Faltung
s(t) ∗ h(t)
S(f ) · H(f )
(2.12)
S(f )e j2πf t df
S(f ) 8 < S(−f ), bei reellen Zeit: funktionen auch S ∗ (f )
(2.9) (2.41)
Multiplikation
s(t) · h(t)
S(f ) ∗ H(f )
(2.51)
Superposition
a1 s(t) + a2 h(t)
(2.34)
¨ Ahnlichkeit
s(bt), b = 0
a1 S(f ) + a2 H(f ) ` ´ 1 S fb |b| −j2πf t0
Verschiebung
s(t − t0 )
S(f )e
Differentiation
dn s(t) dtn
(j2πf ) · S(f )
Integration
Rt
s(τ )dτ
−∞
Frequenzverschiebung Fl¨ ache
s(t)e R∞ s(t)dt
j2πF t
−∞
s(0) Parseval’sches Theorem
R∞ −∞
|s(t)|2 dt
n
S(f ) j2πf
+ 12 S(0)δ(f )
S(f − F ) S(0) R∞ −∞ R∞ −∞
(2.40) (2.42) (2.45) (2.74) (Aufgabe 2.6) (Aufgabe 2.24)
S(f )df |S(f )|2 df
((4.22) u. Aufg. 2.17)
2.12 Anhang Tabelle 2.2. Signalfunktionen im Zeit- und Frequenzbereich
63
64
2. Fourier-Transformation
Tabelle 2.3. Komponentenzerlegungen von Zeitfunktionen gerade/ungerade s(t) = sg (t) + su (t) ∗
sg (t) = s(t) + s (−t) ∗
su (t) = s(t) − s (−t)
S(f ) = Re{S(f )} + j Im{S(f )}
(2.32)
Re{S(f )}
(2.26)
j Im{S(f )
(2.27)
reell/imagin¨ ar s(t) = sr (t) + jsi (t)
S(f ) = Sr (f ) + Si (f )
sr (t) = Re{s(t)}
Sr (f ) = Sr∗ (−f )
si (t) = Im{s(t)}
(2.33)
−Si∗ (−f )
Si (f ) =
Aufg. 2.19c
analytisch +/− s(t) = s+ (t) + s− (t)
S(f ) = S+ (f ) + S− (f )
(2.82)
∗
1 πt
S+ (f ) = S(f ) · ε(f )
(2.79)
s− (t) = 12 s(t) − 2j s(t) ∗
1 πt
S− (f ) = S(f ) · ε(−f )
s+ (t) =
1 s(t) 2
+
j s(t) 2
Re{s+ (t)} = − Im{s+ (t)} ∗ Re{s− (t)} = Im{s− (t)} ∗
1 πt
Im{s+ (t)} = Re{s+ (t)} ∗
1 πt
Im{s− (t)} = − Re{s− (t)} ∗
1 πt
(2.79) u. Aufg. 2.19 (2.81) u. Aufg. 2.19 1 πt
kausal/linksseitig s(t) = sk (t) + sl (t)
S(f ) = Sk (f ) + Sl (f )
sk (t) = s(t) · ε(t) sl (t) = s(t) · ε(−t) Re{Sk (f )} = Im{Sk (f )} ∗ Re{Sl (f )} = − Im{Sl (f )}
1 πf 1 ∗ πf
Sk (f ) =
1 S(f ) 2
Sl (f ) =
1 S(f ) 2
− +
vgl. (2.77)
j S(f ) 2
∗
j S(f ) 2
∗
1 πf 1 πf
Im{Sk (f )} = − Re{Sk (f )} ∗ Im{Sl (f )} = Re{Sl (f )} ∗
1 πf
1 πf
2.12.2 Transformation der Dirac-Impulsfolge Die Fourier-Transformierte der periodischen Dirac-Impulsfolge lautet nach (2.66)
III − (t) =
∞
δ(t − n)
S(f ) =
n=−∞
∞
e−j2πnf ,
n=−∞
oder als Grenz¨ ubergang geschrieben S(f ) = lim SM (f ) = lim M→∞
M→∞
M n=−M
e−j2πnf .
(2.99)
2.12 Anhang
65
Eine dieser Teilsummen SM (f ) zeigt Abb. 2.16 (f¨ ur M = 3). Mit der Summenformel f¨ ur die geometrische Reihe M
qn =
n=−M
q −(M+1/2) − q M+1/2 q −M − q M+1 = 1−q q −1/2 − q 1/2
(2.100)
(wobei der rechte Ausdruck mit q −1/2 erweitert wurde), erh¨alt man f¨ ur die Teilsumme in (2.99) exp[j2πf (M + 1/2)] − exp[−j2πf (M + 1/2)] exp(j2πf /2) − exp(−j2πf /2) sin[2πf (M + 1/2)] 2(M + 1/2)si[2πf (M + 1/2)] = = . sin(πf ) si(πf )
SM (f ) =
(2.101)
Da nach (2.67) das Spektrum S(f ) und auch alle Teilsummen SM (f ) periodisch mit der Periode 1 sind, gen¨ ugt es, den Grenz¨ ubergang (2.99) im Intervall |f | < 1/2 auszuf¨ uhren. Die Teilsummen (2.101) lauten dann nach Begrenzung mit rect(f ) SM (f )rect =
rect(f ) · 2(M + 1/2)si[2πf (M + 1/2)] si(πf ) f¨ ur |f | < 1/2 .
(2.102)
Die Fensterfunktion“ rect(f )/si(πf ) enth¨ alt im Intervall |f | < 1/2 keine Pol” stellen, sie darf daher bei Einsetzen von (2.102) in (2.99) vor den Grenz¨ ubergang gezogen werden. Also ist S(f )rect =
rect(f ) lim 2(M + 1/2)si[2πf (M + 1/2)] si(πf ) M→∞ f¨ ur |f | < 1/2 .
(2.103)
Der Grenz¨ ubergang wird nun im Zeitbereich betrachtet, mit (2.54) ist
t rect 2(M + 1/2)si[2πf (M + 1/2)] . 2(M + 1/2) Im Zeitbereich erh¨ alt man im Grenz¨ ubergang
t =1, lim rect M→∞ 2(M + 1/2) also einen Rechteckimpuls der H¨ ohe 1 mit u ¨ ber alle Grenzen wachsender Breite. Im Frequenzbereich entspricht dieser Konstanten aber nach (2.59) der Dirac-Impuls δ(f ). Damit folgt u ¨ ber die Siebeigenschaft (1.26) aus (2.103) S(f )rect =
rect(f ) δ(f ) = δ(f ) f¨ ur |f | < 1/2 . si(πf )
66
2. Fourier-Transformation
Schließlich ergibt sich u ¨ ber den gesamten Frequenzbereich durch periodische Wiederholung S(f ) =
∞
δ(f − n) = III − (f )
n=−∞
und damit (2.69)
III − (t)
III − (f ) .
2.12.3 Mehrfache Faltung des Rechteckimpulses Betrachtet wird das M -fache Faltungsprodukt sM (t) = rect(t) ∗ rect(t) ∗ rect(t) ∗ . . . ,
(2.104)
im Frequenzbereich ist dann mit dem Faltungstheorem (2.12) (Abb. 2.21) SM (f ) = [si(πf )]
M
.
(2.105)
Mit Entwicklung der sin-Funktion in eine Taylor-Reihe um f = 0 sin x = x − x3 /3! + x5 /5! − . . . und Logarithmieren ergibt sich aus (2.105) f¨ ur M gerade sin πf (πf )2 (πf )4 ln SM (f ) = M ln = M ln 1 − + − ... . πf 6 120 Beschr¨ ankt man sich f¨ ur |f | 1 auf die ersten beiden Glieder und benutzt weiter die N¨ aherung ln(1 + w) ≈ w
f¨ ur w 1
so erh¨ alt man ln SM (f ) ≈ −M (πf )2 /6 oder nach Entlogarithmieren SM (f ) ≈ exp −M (πf )2 /6
f¨ ur |f | 1 .
(2.106)
Die inverse Fourier-Transformation von SM (f ) zur¨ uck in den Zeitbereich ist nur f¨ ur große M erlaubt, da sie sich u ¨ber den gesamten Frequenzbereich erstrecken muss und die N¨ aherung gem¨ aß Abb. 2.21 nur im Fall großer M die uhrt zu wesentlichen Anteile von SM (f ) beschreibt. Dies f¨
2.13 Aufgaben
67
Abb. 2.21. Spektrum des M -fach gefalteten Rechteckimpulses
! sM (t) ≈
6 −6t2 /M e Mπ
f¨ ur große M .
(2.107)
Die mehrfache Faltung des Rechteckimpulses mit sich selbst tendiert also gegen einen Gauß-Impuls (Aufgabe 1.5). Ein praktisches Beispiel ist die Impulsantwort einer Kette von Kurzzeitintegratoren. Dieses Ergebnis gilt recht allgemein f¨ ur die mehrfache Faltung positivwertiger Impulse beschr¨ ankter Fl¨ ache und spielt verallgemeinert als zentraler ” Grenzwertsatz“ in der Statistik eine wichtige Rolle (Abschn. 6.4). (Allgemeine und exaktere Ableitung: Davenport und Root, 1968.)
2.13 Aufgaben 2.1 Versuchen Sie, die Faltungsprodukte rect(t) ∗ rect(t)
und si(πt) ∗ si(πt)
sowohl direkt im Zeitbereich als auch mit Hilfe des Faltungstheorems der Fourier-Transformation zu l¨ osen, und vergleichen Sie die Schwierigkeit der L¨ osungswege. 2.2 Skizzieren Sie Realteil, Betrag und Phase des Spektrums des Signals rect(t − t0 ) f¨ ur t0 = 0 und t0 = 0, 1. 2.3 Wie lautet die Fourier-Transformierte des Signals t − t0 a·s ? T 2.4 Berechnen Sie die Fourier-Transformierten SD (f ) der Doppelsignale sD (t) = s(t + t0 ) ± s(t − t0 ), und skizzieren Sie SD (f ) f¨ ur s(t) = rect(t) und t0 = 1/2. 2.5 Bilden Sie die Fourier-Transformierte Su (f ) der ungeraden Komponente des Exponentialimpulses s(t) = (1/T )ε(t) exp(−t/T ). Skizzieren Sie Su (t)
68
2. Fourier-Transformation
und bilden seine Fourier-Transformierte mit Hilfe des Symmetrietheorems (Skizze entsprechend Abb. 2.8). 2.6 Beweisen Sie die G¨ ultigkeit des Verschiebungstheorems im Frequenzbereich S(f − F )
s(t)e j2πF t .
2.7 Transformieren Sie den Gauß-Impuls nach (1.2). Hinweis: Benutzen Sie (2.33) und das bestimmte Integral √
∞ 2 2
exp(−a x ) cos(bx)dx =
π exp(−b2 /4a2 ) 2a
(f¨ ur a > 0) .
0
2.8 Berechnen Sie das n-fache Faltungsprodukt des Gauß-Impulses (1.2) mit sich selbst. 2.9 Eine reale Sprungfunktion mit endlicher Anstiegszeit ta = 1 µs werde durch das Faltungsprodukt ε(t) ∗ rect(t/T ) beschrieben. Skizzieren Sie das Spektrum. 2.10 Transformieren Sie s(t) = ε(t) exp(−t/T ) cos(2πF t). 2.11 Berechnen und skizzieren Sie die Fourier-Transformierte der endlichen Dirac-Impulsfolge f¨ ur K = 1 und K = 10 s(t) =
K
δ(t − nT ) .
n=−K
Hinweis: Schreiben Sie s(t) als Produkt von III − (t) mit einer rect-Funktion geeigneter Dauer. 2.12 Berechnen und skizzieren Sie die Fourier-Transformierte des ”raised cosine“-Impulses 12 rect Tt 1 + cos 2π Tt = rect Tt cos2 π Tt . 2.13 Ein Mittelwellensender u agt einen Tonfrequenzimpuls in der ¨ bertr¨ Form s(t) = rect(f1 t){[1 + 0, 5 cos(2πf2 t)] cos(2πf3 t)} mit f1 = 1 Hz, f2 = 103 Hz und f3 = 106 Hz. Skizzieren Sie s(t) und |S(f )| so, dass der Einfluss der Dehnfaktoren 103 und 106 deutlich wird. 2.14 Zeigen Sie, dass f¨ ur die Spektren reeller Signale S(−f ) = S ∗ (f ) gilt. 2.15 Transformieren Sie die in Abb. 2.22 dargestellte, aus vier Impulsen bestehende Zeitfunktion. 2.16 Berechnen Sie die Fourier-Transformierte des Dirac-Impulses mit (2.8).
2.13 Aufgaben
69
Abb. 2.22. Zu Aufgabe 2.15
2.17 Beweisen Sie die G¨ ultigkeit des Parseval’schen Theorems f¨ ur reellwertige Signale in der Form ∞
∞ s1 (t)s2 (t)dt =
−∞
S1 (f )S2∗ (f )df
(s1,2 (t) reell)
−∞
Hinweis: In S1 (f )∗S2 (f ) =
∞ −∞
s1 (t)s2 (t)e−j2πf t dt (warum?) f = 0 einsetzen.
2.18 Ein physikalisch realisierbarer Spektralanalysator bildet als Betrag des Kurzzeitspektrums“ ” T |ST (f )| = | s(t)e−j2πf t dt| . 0
a) Berechnen und skizzieren Sie das Kurzzeitspektrum der Signale ur T = 1/F, 100/F . s1 (t) = a cos(2πF t) und s2 (t) = a sin(2πF t) f¨ b) Entwerfen Sie eine m¨ ogliche Schaltung zur Bildung von |ST (f )|. 2.19 Zeigen Sie a) dass bei Zerlegung komplexwertiger Signals in gerade und ungerade Komponenten gem¨ aß der Definition in (2.26) und (2.27) folgende Zusammenh¨ ange bestehen: sg (t)
Re{S(f )} und su (t)
Im{S(f )} .
b) dass bei den analytischen Komponenten komplexwertiger Signale Realund Imagin¨ arteile u upft ¨ ber die Hilbert-Transformation miteinander verkn¨ sind. c) dass bei einem Spektrum S(f ) = −S ∗ (−f ) das Signal rein imagin¨arwertig ist. 2.20 Berechnen Sie die Laplace-Transformierten der Signale ε(t) exp(−t/T ) und rect(t/T − 1/2) sowie ihres Faltungsproduktes.
70
2. Fourier-Transformation
2.21 Man kann zeigen, dass das Betragsspektrum des Signals s(t) beschr¨ ankt ist durch (Burdic, 1968) 1 |S(f )| ≤ |(2πf )n |
" ∞ " n " "d " dt . " s(t) " " dtn
−∞
a) Berechnen Sie die Schranken, die sich mit n = 0 und n = 1 f¨ ur das Signal s(t) = rect(t) ergeben, und skizzieren Sie ihren Verlauf zusammen mit |S(f )|. b) Die Differentiation kann i. Allg. so lange fortgesetzt werden, bis zum ersten Male Dirac-Impulse in (dn /dtn )s(t) auftreten. Berechnen Sie entsprechend die Schranken f¨ ur s(t) = Λ(t). 2.22 Der Ausdruck (2.6) f¨ ur die inverse Fourier-Transformation kann f¨ ur kontinuierliche Frequenzfunktionen wie folgt bewiesen werden (Papoulis, 1962): Nach Einsetzen von (2.4) in (2.6) muss gelten ⎡ ⎤ ∞ ∞ ! ⎣ h(t) = h(θ)e−j2πf t dθ⎦ e j2πf t df . −∞
−∞
Vertauschen der Integrationsreihenfolge ergibt ⎛ ∞ ⎞ ∞ = h(θ) ⎝ e j2πf (t−θ) df ⎠ dθ −∞ ∞
−∞
h(θ)δ(t − θ)dθ = h(t) ,
=
was zu beweisen war.
−∞
Vollziehen Sie diesen Beweis mit den Ergebnissen der Kapitel 1 und 2 nach. 2.23 Zeigen Sie, dass man aus jeder geraden, reellen Funktion s(t) mit dem Spektrum S(f ) eine selbstreziproke Funktion s(t) + S(t) bilden kann (Fußnote 14). Skizzieren Sie die so aus s(t) = rect(t/10) gebildete selbstreziproke Funktion und ihr Spektrum. 2.24 Zeigen Sie, dass f¨ ur die Fl¨ achen eines Signals bzw. eines Spektrums gilt ∞
∞ s(t)dt = S(0) ,
−∞
S(f )df = s(0) . −∞
2.25 L¨ osen Sie Aufgabe 1.21 im Frequenzbereich. 2.26 Wie lautet das Spektrum der Signum-Funktion (2.75)?
2.13 Aufgaben
71
¨ 2.27 Berechnen und skizzieren Sie die Ubertragungsfunktion des RL-Systems aus Aufgabe 1.22. 2.28 Welche Eigenschaften (Realteil, Imagin¨ arteil, Symmetrie) besitzen die ur die Signale mit Fourier-Spektren S1 (f ) = S1 (−f ) und S2 (f ) = −S2 (−f ) f¨ F¨ alle a) dass die Realteile der Spektren Null sind; b) dass die Imagin¨ arteile der Spektren Null sind; c) dass sowohl Real- als auch Imagin¨ arteile der Spektren ungleich Null sind? Es gelte weiter f¨ ur die analytischen Komponenten der beiden Signale s1,+ (t) = s2,+ (t). Wie unterscheiden sich die Signale dann hinsichtlich ihrer komplement¨ aren analytischen Komponenten s1,− (t) bzw. s2,− (t)? Welcher Zusammenhang besteht zwischen s1,+ (t) und s1,− (t)? 2.29 Ist ein Signal kausal, f¨ ur das folgende Beziehungen zwischen Real- und Imagin¨ arteil gelten: Re{S(f )} = − Im{S(f )} ∗
1 ; πf
Im{S(f )} = Re{S(f )} ∗
1 ? πf
2.30 Bestimmen Sie Real- und Imagin¨ arteile der analytischen Komponenten s+ (t) f¨ ur die Signale a) s(t) = rect(t); b) s(t) = si(πt).
3. Diskrete Signale und Systeme
In der Nachrichtentechnik wie auch in vielen anderen Disziplinen sind Methoden der numerischen Verarbeitung von Signalen von großer Bedeutung. Diese Methoden setzen voraus, dass ein Signal in Form einer endlichen oder auch abz¨ ahlbar unendlichen Folge von Zahlen mit endlicher Stellenzahl beschrieben werden kann. Die Angabe, in welchem Maß ein Signal diese Forderung erf¨ ullt, ist ein wichtiges Klassifizierungsmerkmal. Ein Signal kann sowohl in Bezug auf seinen Wertebereich als auch in Bezug auf seinen Definitionsbereich auf der Zeitachse kontinuierlich (= ˆ nicht abz¨ ahlbar) oder diskret (= ˆ abz¨ ahlbar) sein. Entsprechend wird ein Signal wertkontinuierlich genannt, wenn es beliebige Werte1 annehmen kann. Im anderen Fall ist das Signal wertdiskret. Sind beispielsweise nur zwei Werte m¨ oglich, dann wird ein solches wertdiskretes Signal zweiwertig oder bin¨ar genannt. In gleicher Weise ist ein Signal zeitkontinuierlich, wenn die Kenntnis seines Wertes zu jedem beliebigen Zeitpunkt erforderlich ist. Bei einem zeitdiskreten Signal ist diese Kenntnis nur zu bestimmten Zeitpunkten notwendig. Entsprechend sind z. B. Bildsignale, die u ¨ ber einer Ortskoordinate definiert sind, ortskontinuierlich oder ortsdiskret. Anmerkung: Gebr¨ auchlich sind in diesem Zusammenhang auch die Bezeichnungen analoges und digitales Signal. Ein analoges Signal bildet einen wertund zeitkontinuierlichen Vorgang kontinuierlich ab, h¨aufig wird diese Bezeichnung aber auch zur Bezeichnung eines beliebigen wert- und zeitkontinuierlichen Signals gebraucht. Ein digitales Signal bildet die Zeichen eines endlichen Zeichenvorrates auf einen stellenwertigen Code ab, bezeichnet aber auch allgemein ein beliebiges wert- und zeitdiskretes Signal. Beispiele f¨ ur die verschiedenen M¨ oglichkeiten, Signale in dieser Art zu klassifizieren, zeigt Abb. 3.1. 1
H¨ aufig wird unter dem Wert eines Signals die Signalamplitude in dem betrachteten Zeitpunkt verstanden. Allgemeiner kann aber auch ein anderer relevanter Signalparameter als Wert definiert werden, beispielsweise ein Effektivwert oder eine Augenblicksfrequenz (Abschn. 8.2). Siehe auch DIN 40 146 Begriffe ” der Nachrichten¨ ubertragung“ (s. Anhang zum Literaturverzeichnis).
74
3. Diskrete Signale und Systeme
Abb. 3.1. Klassifizierung von Signalen
Die Umwandlung eines zeitkontinuierlichen in ein zeitdiskretes Signal erfolgt durch Abtastung, die Umwandlung eines wertkontinuierlichen in ein wertdiskretes Signal durch Quantisierung und schließlich die Umwandlung eines wert- und zeitdiskreten Signals in ein anderes digitales, hier bin¨ares Signal durch Codierung. Diese Umwandlungsm¨oglichkeiten sind ebenfalls in Abb. 3.1 dargestellt. Quantisierung und Abtastung sind normalerweise nicht ohne Fehler m¨ oglich. W¨ ahrend der Quantisierungsvorgang erst in den Kap. 6 und 7 betrachtet wird, besch¨ aftigt sich das folgende Kapitel zun¨achst mit dem Problem der Abtastung. In Form eines Abtasttheorems werden Bedingungen angegeben, unter denen bestimmte zeitkontinuierliche Signale ohne Fehler in zeitdiskrete Signale und umgekehrt abgebildet werden k¨onnen. Ein zweites Abtasttheorem macht die entsprechende Aussage f¨ ur Frequenzfunktionen. Aufbauend auf den Abtasttheoremen k¨ onnen dann grundlegende Verfahren ¨ der Ubertragung zeitdiskreter Signale u ¨ ber zeitdiskrete (digitale) Systeme abgeleitet werden.
3.1 Abtastung im Zeitbereich ¨ Ausgangspunkt der Uberlegungen ist eine reale Abtast- oder Torschaltung, deren Arbeitsweise in Abb. 3.2 dargestellt ist. Dieses Abtastsystem kann ein mechanischer oder elektronischer Schalter sein, der zu ¨ aquidistanten Zeitpunkten nT f¨ ur eine Zeit T0 geschlossen wird und in diesen Zeitabschnitten das Signal s(t) mit dem Ausgang verbindet. Das entstehende abgetastete Signal hat die Form
3.1 Abtastung im Zeitbereich
75
Abb. 3.2. Signal s(t) und Ausgangssignal s0 (t) des Abtasters ∞
s0 (t) = s(t)
n=−∞
rect
t − nT T0
,
oder, als Faltungsprodukt geschrieben ' ( ∞ t δ(t − nT ) . s0 (t) = s(t) rect ∗ T0 n=−∞
(3.1)
Zu einer zeitdiskreten Darstellung des Signals gelangt man durch Verk¨ urzen der Abtastzeit T0 , bis im Grenzfall nur noch die Funktionswerte s(nT ) zu den Zeitpunkten nT im abgetasteten Signal enthalten sind. Ein derartiger idealer Abtaster wird so beschrieben, dass in (3.1) der Abtastimpuls rect(t/T0 ) durch einen Dirac-Impuls ersetzt wird. Damit ergibt sich f¨ ur ein ideal abgetastetes Signal sa (t) aus (3.1) ∞
sa (t) = s(t)
δ(t − nT ).
(3.2)
n=−∞
Mit Ber¨ ucksichtigung der Siebeigenschaft des Dirac-Impulses (1.26) l¨asst sich daf¨ ur auch schreiben sa (t) =
∞
s(nT )δ(t − nT ) ;
(3.3)
n=−∞
dieses Ausgangssignal eines idealen Abtastsystems ist in Abb. 3.3 dargestellt.
Abb. 3.3. Ausgangssignal sa (t) eines idealen Abtasters2
76
3. Diskrete Signale und Systeme
Der ideale Abtaster erzeugt also aus der zeitkontinuierlichen Zeitfunktion s(t) eine zeitdiskrete ¨ aquidistante Dirac-Impulsfolge der Abtastperiode T . Die einzelnen Dirac-Impulse sind mit den Funktionswerten oder Abtastwerten s(nT ) ¨ bewertet. Der Ubergang von der so definierten idealen Abtastung auf eine reale Abtastung ist recht einfach (s. hierzu Aufgabe 3.3). Einen tieferen Einblick in die Eigenschaften des abgetasteten Signals gewinnt man durch Bildung der Fourier-Transformierten. Mit (2.70) folgt die Fourier-Transformierte von (3.2) sa (t) = s(t) ·
∞ )
δ(t − nT )
n=−∞
Sa (f ) = S(f ) ∗
∞ 1 ) δ f− T k=−∞
k T
=
∞ 1 ) S T k=−∞
* f−
k T
f¨ ur T > 0
+ .
(3.4) Die Fourier-Transformierte Sa (f ) des abgetasteten Signals ergibt sich also als Faltungsprodukt des Signalspektrums S(f ) mit der um den Faktor T gestauchten Dirac-Impulsfolge im Frequenzbereich, das Signalspektrum wird periodisch mit 1/T wiederholt. Dabei wird die Amplitude der periodisch fortgesetzten Spektren auf den Faktor 1/T skaliert. Abb. 3.4 zeigt diesen Zusammenhang f¨ ur ein Tiefpasssignal mit der Grenzfrequenz fg , d. h. ein Signal, dessen Spektrum f¨ ur |f | ≥ fg verschwindet. k k
Abb. 3.4. Periodisch wiederholte Komponenten der Fourier-Transformierten des abgetasteten Signals sa (t)
Wird nun ein derartiges Tiefpasssignal mit einer Abtastperiode T ≤
1 2fg
(3.5)
abgetastet, dann u ¨ berlappen sich die periodisch wiederholten Spektralanteile in Sa (f ) nicht mehr und S(f ) kann mit einem idealen Tiefpass aus Sa (f ) feh2
Ideale Abtaster mit gewichteten Dirac-Impulsen als Ausgangssignal werden im Folgenden zur Unterscheidung von normalen Schaltern durch ein δ gekennzeichnet.
3.1 Abtastung im Zeitbereich
77
lerfrei wiedergewonnen werden3 (s. aber Aufgabe 3.10). Dieser Grundgedanke des Abtasttheorems ist in Abb. 3.5 verdeutlicht.
Abb. 3.5. Die R¨ uckgewinnung von S(f ) aus Sa (f ) mit einem idealen Tiefpass der Grenzfrequenz fg
Der zur Rekonstruktion notwendige Tiefpass muss also im Bereich |f | < fg ¨ eine konstante reelle Ubertragungsfunktion haben und darf die außerhalb dieses Bereiches liegenden Anteile von Sa (f ) nicht mehr passieren lassen. Ein ¨ solcher idealer Tiefpass hat die Ubertragungsfunktion f HTP (f ) = rect . (3.6) 2fg F¨ ur die R¨ uckgewinnung des abgetasteten Signals gilt dann gem¨aß Abb. 3.5 im Frequenz- und entsprechend im Zeitbereich S(f ) = Sa (f ) · T rect 2ff g (3.7) s(t) = sa (t) ∗ [2fg T si(π2fg t)] [f¨ ur die Transformation in den Zeitbereich werden das Faltungstheorem und (2.56) benutzt]. Hat man mit der gr¨ oßtm¨ oglichen Abtastperiode T = 1/(2fg ) abgetastet, dann ergibt sich mit (3.3) ( ' ∞ t s(nT )δ(t − nT ) ∗ si π s(t) = T n=−∞ ∞ t − nT s(nT )si π = . (3.8) T n=−∞ 3
¨ Ein idealer Tiefpass ist ein System, dessen Ubertragungsfunktion in einem begrenzten Frequenzintervall |f | < fg die Spektralanteile eines Signals unver¨ andert l¨ asst, außerhalb dieses Intervalls jedoch zu Null setzt (Abschn. 2.6.1 und 5.2.1).
78
3. Diskrete Signale und Systeme
Diese Form des Abtasttheorems zeigt, dass jedes Tiefpasssignal der Grenzaquidistanten si-Funktionen dargestellt frequenz fg fehlerfrei als Reihe von ¨ werden kann, wobei deren Amplitudenkoeffizienten direkt den in Abst¨anden von T = 1/(2fg ) entnommenen Abtastwerten gleich sind.4 Abb. 3.6 stellt diesen Zusammenhang grafisch dar.
¨ Abb. 3.6. Signal s(t) als Uberlagerung verschobener si-Funktionen mit Abst¨ anden T = 1/(2fg )
Ein Systembeispiel zum Abtasttheorem ist in Abb. 3.7 dargestellt. Das linke System besteht aus der Kettenschaltung eines beliebigen Tiefpasses (TP) ¨ der Ubertragungsfunktion H(f ) und Grenzfrequenz fg , einem idealen Abtaster der Abtastzeit T ≤ 1/(2fg ) und einem idealen Tiefpass der Grenzfrequenz fg nach (3.6) mit einem Verst¨ arkungsfaktor T . Dieses System hat ¨ ¨ dieselben Ubertragungseigenschaften wie der Tiefpass TP der Ubertragungsfunktion H(f ) allein. Beide Systeme k¨ onnen also beliebig ausgetauscht werden; hiervon wird in den folgenden Kapiteln noch mehrfach Gebrauch gemacht. Bei Abtastung mit T = 1/(2fg ) nennt man die Abtastrate r = 1/T = 2fg auch Nyquist-Rate (Aufgabe 3.10). Abtastung mit einer h¨oheren Abtastrate ¨ 1/T > 2fg ist zul¨ assig. Im Gegensatz zu dieser Uberabtastung ist bei ei¨ ner Unterabtastung mit einer Abtastrate 1/T < 2fg durch Uberlappen der periodisch wiederholten Signalspektren keine fehlerfreie R¨ uckgewinnung des Signals m¨ oglich, sondern das interpolierte Signal ist verzerrt (Aufgabe 3.9). ¨ Die Verl¨ aufe der Spektren Sa (f ), wie sie aus (3.4) sofort folgen, sind bei Uber4
Der Grundgedanke des Abtasttheorems (Sampling Theorem) l¨ asst sich bis auf J. L. Lagrange (1736–1813) zur¨ uckf¨ uhren. Lagrange zeigte, dass zur Darstellung einer periodischen Funktion durch eine trigonometrische Reihe mit je n cos- und sin-Gliedern die Kenntnis von 2n ¨ aquidistanten Funktionswerten einer Periode gen¨ ugt. In der (3.8) entsprechenden Form der sogenannten Kardinalserie wurde das Abtasttheorem von E. T. Whittaker (1915) angegeben. In der Nachrichtentechnik wurde es in gr¨ oßerer Breite erst durch Claude E. Shannon (1948) bekannt, es wird deshalb auch Shannons Abtasttheorem genannt. Weitere in diesem Zusammenhang zu nennende Namen sind V. A. Kotelnikov (1933) und H. Raabe (1939), s. Anhang zum Literaturverzeichnis.
3.2 Abtastung im Frequenzbereich
79
¨ ¨ Abb. 3.7. Aquivalente Systeme, die durch Messungen ihrer Ubertragungseigenschaften nicht unterschieden werden k¨ onnen (s. Aufgabe 3.2)
¨ und Unterabtastung in Abb. 3.8 gegen¨ ubergestellt. Die Uberlappung der peuhrt nach der riodisch wiederholten Anteile von Sa (f ) bei Unterabtastung f¨ Interpolation zu nichtlinearen Verzerrungen ( Aliasing“)5 . ” Die hier diskutierte Darstellung der idealisierten Abtastung mit DiracImpulsen zeigt das Abtasttheorem in seiner u ¨ bersichtlichsten Form. Der ¨ Ubergang zu den Eigenschaften realer Abtaster mit endlicher Abtastdauer wie auch zu realen Interpolationsfiltern mit endlicher Flankensteilheit der ¨ Ubertragungsfunktion ist ohne Schwierigkeiten m¨oglich, hierzu m¨ogen die Aufgaben 3.2-3.5 Hinweise geben.
3.2 Abtastung im Frequenzbereich In a ¨hnlicher Weise wie eine Zeitfunktion s(t) l¨asst sich auch eine Frequenzfunktion S(f ) durch frequenzdiskrete Werte darstellen. Die Formulierung eines Abtasttheorems im Frequenzbereich f¨ uhrt dabei auf Grund des Symmetrietheorems der Fourier-Transformation auf ganz a¨hnlich aufgebaute Ausdr¨ ucke wie im vorhergehenden Abschnitt. Entsprechend (3.3) und (3.4) l¨ asst sich der Frequenzfunktion S(f ) folgende diskrete Form zuordnen. 5
¨ Nichtlineare Verzerrungen eines Signals k¨ onnen bei Ubertragung u ¨ ber LTISysteme nicht auftreten, denn diese bilden jede Eigenfunktion e j2πf t exakt auf eine Ausgangs-Eigenfunktion derselben Frequenz ab. Nichtlineare und zeitvariante Systeme erzeugen dagegen oftmals Spektralanteile im Ausgangssignal, die nicht im Eingangssignal enthalten waren. Derartige Verzerrungen k¨ onnen f¨ ur Eingangssignale mit bestimmten Eigenschaften (in der Regel band- und amplitudenbegrenzt) wieder beseitigt werden, z.B. durch Anwendung einer in¨ versen nichtlinearen Funktion (s. Abschn. 6.7.1), durch Ubertragung u ¨ber ein LTI-System oder u ¨ber ein lineares, zeitvariantes System. Die Beseitigung einer nichtlinearen Verzerrung ist grunds¨ atzlich allein aus dem verzerrten Signal nicht mehr m¨ oglich, wenn sie zu einer mehrdeutigen Amplitudenabbildung f¨ uhrte (z.B. Amplituden-Clipping, Gleichrichtung, Quantisierung), oder wenn es zu mehrdeu¨ tigen Frequenzabbildungen (z.B. bei spektralen Uberlappungen) gekommen ist. ¨ Ublicherweise muss das Auftreten nichtlinearer Verzerrungen nicht u ¨ ber die gesamte Frequenzbandbreite und den gesamten Amplitudenbereich, sondern lediglich im Nutzfrequenz- und Nutzamplitudenbereich des Signals vermieden werden.
80
3. Diskrete Signale und Systeme
¨ Abb. 3.8. Spektren der abgetasteten Signale bei Uberund Unterabtastung.
Sp (f ) =
∞
S(kF )δ(f − kF ); .
(3.9)
k=−∞
Durch inverse Fourier-Transformation folgt dann entsprechend (3.4) ∞ )
Sp (f ) = S(f ) ·
δ(f − kF )
k=−∞
sp (t) = s(t) ∗
1 F
∞ ) n=−∞
* δ
t−
n F
+ =
1 F
∞ ) n=−∞
* s t−
n F
(3.10)
+ .
Dem frequenzdiskreten Spektrum Sp (f ) entspricht also eine periodisch im Abstand 1/F wiederholte Zeitfunktion. Abb. 3.9 zeigt diesen Zusammenhang.
Abb. 3.9. Periodische Wiederholung der Zeitfunktion s(t) durch ¨ aquidistante Abtastung von S(f ) f¨ ur den Fall, dass die Dauer von s(t) kleiner als 1/F ist
3.2 Abtastung im Frequenzbereich
81
Ist die zeitliche Dauer des Signals s(t) kleiner als 1/F , dann u ¨ berlappen sich die periodisch wiederholten Anteile von sp (t) nicht gegenseitig, und s(t) kann aus sp (t) durch Ausblenden mit einem einmalig f¨ ur die Zeitdauer 1/F durchschaltenden Schalter (Torschaltung) fehlerfrei zur¨ uckgewonnen werden. Dieser Fall ist in Abb. 3.9 dargestellt. V¨ ollig entsprechend zu (3.7) l¨asst sich dieser Ausblendvorgang im Zeit- und Frequenzbereich schreiben als s(t) = sp (t) · F rect(F t) *
f S(f ) = Sp (f ) ∗ si π F
(3.11)
+ .
Mit (3.9) ergibt dieses Faltungsprodukt dann ∞ f − kF S(f ) = S(kF )si π . F
(3.12)
k=−∞
Abb. 3.10 zeigt die Fourier-Transformierte S(f ) entsprechend (3.12) als Summe von si-Funktionen mit den Amplituden S(kF ).
k
k
k
Abb. 3.10. Fourier-Spektrum S(f ) eines zeitbegrenzten Signals als Summe von si-Funktionen
Da die si-Funktion unendlich ausgedehnt ist und man außerdem zeigen kann, dass eine beliebige Summe von si-Funktionen in der Form (3.12) nur an einzelnen Punkten verschwinden kann6 , folgt aus dieser Darstellung auch, dass jedes zeitbegrenzte Signal ein unendlich ausgedehntes Spektrum besitzt. In gleicher Weise folgt aus (3.8), dass ein Tiefpasssignal, also ein frequenzbandbeschr¨ anktes Signal, zeitlich unendlich ausgedehnt sein muss. Es kann also kein Signal geben, das im strengen Sinne sowohl im Zeit- als auch im Frequenzbereich begrenzt ist. 6
Temes (1973), ausgenommen ist der triviale Fall, dass die Summe u ¨ berall identisch Null ist.
82
3. Diskrete Signale und Systeme
Anmerkung: Praktisch ist jedes Signal aus physikalischen Gr¨ unden zeitbeschr¨ ankt. Die Fourier-Transformation liefert dann zwar ein unbegrenztes Spektrum, f¨ ur praktische Belange sind dessen Werte aber regelm¨aßig oberhalb einer entsprechend gew¨ ahlten Grenzfrequenz“ so gering, dass sie ver” nachl¨ assigt werden d¨ urfen. Das Gleichungspaar (3.10), das die Abtastung im Frequenzbereich beschreibt, enth¨ alt noch eine weitere Aussage: Die Fourier-Transformierte Sp (f ) einer periodischen Zeitfunktion sp (t) besteht aus einer ¨ aquidistanten Folge von Dirac-Impulsen. Ein derartiges Spektrum wird Linienspektrum genannt. Die einzelnen Dirac-Impulse oder Linien δ(f −kF ) des Spektrums treten im Abstand F auf und sind mit S(kF ) bewertet, wobei S(f ) bis auf einen Faktor F die Fourier-Transformierte des f¨ ur n = 0 auftretenden Teilsignals von sp (t) ist.7 Dieser Zusammenhang ist in Abb. 3.11 verdeutlicht.
Abb. 3.11. Zusammenhang zwischen den Spektren eines einmaligen Signals und seiner periodischen Wiederholung
Anmerkung: Praktische Anwendungen finden diese Zusammenh¨ange bei der Herleitung der diskreten Fourier-Transformation in Abschn. 3.3.8, weiter bei der Messung des Spektrums eines Energiesignals s(t). F¨ ur diese Messung wird das Signal periodisch wiederholt und die einzelnen Linien des Spek7
Diese Aussage gilt auch, wenn s(t) breiter als 1/F ist, die periodisch wiederholten Teilsignale sich also u ¨ berlappen. Nur ist dann eine Darstellung in Form von (3.10) nicht mehr in beiden Richtungen eindeutig.
3.2 Abtastung im Frequenzbereich
83
trums Sp (f ) werden nacheinander bestimmt (Aufgabe 2.18). S(f ) kann dann mit (3.12) interpoliert werden. Der Zusammenhang zwischen periodischen Signalen und ihren diskreten Linienspektren wird h¨ aufig in Form der Fourier-Reihenentwicklung angegeben: Setzt man das aus einer Folge gewichteter Dirac-Impulse bestehende Spektrum Sp (f ) aus (3.9) in die Gleichung der inversen Fourier-Transformation (2.7) ein, so folgt als Darstellung des periodischen Signals sp (t) =
+∞ Sp (f )e j2πf t df −∞
=
(
+∞' ∞
−∞
S(kF )δ(f − kF ) e j2πf t df .
k=−∞
Mit der Siebeigenschaft des Dirac-Impulses (entsprechend Abschn. 1.7) ergibt die Integration sp (t) =
∞
S(kF )e j2πkF t ,
(3.13)
k=−∞
das Fourier-Integral ist in die Fourier-Reihe u ¨bergegangen, die diskreten Werte S(kF ) sind identisch den Fourier-Koeffizienten ck des periodischen Signals sp (t) nach (3.10).8 Diese Fourier-Koeffizienten werden durch Integration u ¨ber eine Periode T = 1/F des Signals sp (t) bestimmt als T /2
1 S(kF ) = ck = T
sp (t)e−j2πkF t dt .
(3.14)
−T /2
Nach Aufspaltung von S(kF ) und exp(j2πkF t) in Real- und Imagin¨arteil folgt aus (3.13) f¨ ur reelle Zeitfunktionen entsprechend der Ableitung von (2.33) sp (t) = c0 + 2
∞
[Re{ck } cos(2πkF t) − Im{ck } sin(2πkF t)] .
k=1
Setzt man noch abk¨ urzend c0 = a0 (reellwertiger Gleichanteil), 2 Re{ck } = ak und −2 Im{ck } = bk , dann erh¨ alt man als h¨ aufig benutzte Form der FourierReihe reellwertiger Signale auch 8
Historisch entstand die Fourier’sche Reihenentwicklung periodischer Funktionen vor dem Fourier-Integral beliebiger Funktionen. Die Einf¨ uhrung von Linienspektren in Form von Dirac-Impulsfolgen erm¨ oglicht die hier benutzte gemeinsame Darstellung.
84
3. Diskrete Signale und Systeme
sp (t) = a0 +
∞
[ak cos(2πkF t) + bk sin(2πkF t)] .
(3.15)
k=1
Die Fourier-Reihenentwicklung ist da¨ uber hinaus ein Sonderfall der Entwick¨ lung von Funktionen nach orthogonalen Funktionensystemen (s. Ubungen, Abschn. 9.1).
3.3 Zeitdiskrete Signale und Systeme 3.3.1 Diskrete Faltung Nach Aussage des in Abschn. 3.1 abgeleiteten Abtasttheorems kann ein frequenzbeschr¨ anktes Signal vollst¨ andig durch seine Abtastwerte beschrieben werden. Diese Beschreibung l¨ asst sich in einfacher Weise auch auf das Ver¨ halten solcher Signale bei der Ubertragung u ¨ ber frequenzbeschr¨ankte LTISysteme erweitern (Abb. 3.12).
¨ Abb. 3.12. Ubertragung eines Tiefpasssignals s(t) u ¨ ber ein Tiefpasssystem h(t). Im unteren Teil die bei Ber¨ ucksichtigung des Abtasttheorems gewonnenen abgetasteten Signale sa (t), ha (t) und ga (t)
Es stellt sich die Frage, wie ga (t) direkt aus sa (t) und ha (t) berechnet werden kann. Diese Frage beschreibt eine Grundaufgabe sowohl der zeitdiskreten ¨ (digitalen) Simulation dieser Ubertragungsaufgabe als auch der Signal¨ ubertragung und Signalfilterung selbst mit zeitdiskreten (z. B. digitalen) Systemen. Aus g(t) = s(t) ∗ h(t) folgt bei Abtastung mit der Nyquist-Rate nach (3.8)
3.3 Zeitdiskrete Signale und Systeme
85
+ πt g(nT )δ(t − nT ) ∗ si T n=−∞ ' ∞ ( * + ' ∞ ( * + πt πt = ∗ . s(nT )δ(t − nT ) ∗ si h(nT )δ(t − nT ) ∗ si T T n=−∞ n=−∞ '
(
∞
*
(3.16) Die Faltung der beiden si-Funktionen auf der rechten Seite ergibt nach (2.58) wieder eine si-Funktion mit der Amplitude T , demgem¨aß muss f¨ ur die Abtastfolgen allein gelten (mit T > 0) ga (t) =
∞
g(nT )δ(t − nT )
n=−∞
'
= T
∞
( '
∞
s(nT )δ(t − nT ) ∗
n=−∞
( h(nT )δ(t − nT )
,
n=−∞
woraus sich nach Ausschreiben des Faltungsintegrals (sowie Umbenennung der Summationsvariablen) ∞ ∞
ga (t) = T
s(mT )δ(τ − mT ) ·
−∞ m=−∞
∞
h(iT )δ(t − τ − iT )dτ ,
i=−∞
und mit der Siebeigenschaft des Dirac-Impulses weiter ∞
ga (t) = T
∞
s(mT )h(iT )δ(t − [i + m]T )
m=−∞ i=−∞
ergibt. Substituiert man i + m = n, so folgt (nach Vertauschen der Summenreihenfolge sowie unter Ber¨ ucksichtigung der Tatsache, dass wegen der Summation von jeweils −∞ bis +∞ die Summationsgrenzen von i und n gleich sind) ga (t) =
∞
g(nT )δ(t−nT ) = T
n=−∞
∞
∞
s(mT )h([n−m]T )δ(t−nT ) .
n=−∞ m=−∞
Also gilt allein f¨ ur die Abtastwertfolgen g(nT ) = T
∞
s(mT )h([n − m]T ) .
(3.17)
m=−∞
Diese Verkn¨ upfung von Abtastwertfolgen wird diskrete Faltung genannt, sie l¨ ost also die in Abb. 3.12 gestellte Grundaufgabe der zeitdiskreten Signalu ¨bertragung. Der Abtastzeitparameter T ist bei der Gewinnung wie auch bei
86
3. Diskrete Signale und Systeme
der Interpolation der Abtastwertfolgen wichtig. Betrachtet man jedoch (3.17) als Rechenvorschrift der digitalen Signalverarbeitung, dann kann normalerweise T = 1 gesetzt werden. Bei der Interpolation zum Ausgangssignal g(t) kann T wieder entsprechend ber¨ ucksichtigt werden. Es ist daher u ¨ blich, die diskrete Faltung mit T = 1 zu schreiben als g(n) =
∞
s(m)h(n − m) .
(3.18)
m=−∞
Dieser Ausdruck wird ebenfalls mit dem Faltungssymbol abk¨ urzend g(n) = s(n) ∗ h(n) bezeichnet. Wegen ihrer Ableitung als Sonderfall der allgemeinen Faltung ist auch die diskrete Faltung assoziativ, kommutativ und distributiv zur Addition. Hier und im Folgenden muss dabei immer sorgf¨altig unterschieden werden zwischen dem abgetasteten Signal sa (t) und der Folge der Abtastwerte s(nT ). Unter einem zeitdiskreten Signal soll daher hier ausschließlich die Folge s(nT ) bzw. s(n) verstanden werden. Abgetastete Signale sa (t) sind als z.B. gewichtete Dirac-Impulsfolgen eine besondere Klasse zeitkontinuiericher Signale, und k¨onnen nur u ¨ ber zeitkontinuierliche LTI-Systeme u ¨ bertragen werden (einschließlich solcher Systeme, bei denen die Impulsantwort ebenfalls aus einer gewichteten Folge von Dirac-Impulsen besteht). Zeitdiskrete Signale s(n) sind dagegen reine Zahlenwertfolgen, eine analoge Filterung dieser Folgen ist nicht definiert. Nach entsprechender Quantisierung k¨onnen diese Zahlenwertfolgen aber als digitale Signale in digitalen Schaltungen und Prozessoren verarbeitet werden.9 3.3.2 Zeitdiskrete Elementarsignale Entsprechend den zeitkontinuierlichen Elementarsignalen in Abschn. 1.1 ist es sinnvoll, auch zeitdiskrete Elementarsignale festzulegen. Der Einheitsimpuls δ(n)10 wird als Einselement der diskreten Faltung definiert s(n) = δ(n) ∗ s(n) =
∞
s(m)δ(n − m) .
(3.19)
m=−∞
Daraus folgt (Abb. 3.13a) 1 f¨ ur n = 0 δ(n) = 0 f¨ ur n = 0 . 9
10
(3.20)
Diese digitale Signalverarbeitung wird heute in nachrichtentechnischen Systemen in großem Maßstab angewandt. Insbesondere lassen sich hiermit flexibel adaptierbare Systeme (z.B. zur Anpassung an Kanaleigenschaften) und Systeme mit einer hohen Pr¨ azision und Stabilit¨ at realisieren, die mittels analoger Schaltungstechnik nicht verwirklicht werden k¨ onnten. δ(n) wird auch als Delta-Impuls oder Kronecker-Delta bezeichnet.
3.3 Zeitdiskrete Signale und Systeme
87
Der Einheitsimpuls δ(n) ben¨ otigt also im Gegensatz zum Dirac-Impuls δ(t) keine besondere mathematische Definition, er ist ein normales zeitdiskretes Signal, keine Distribution.
Abb. 3.13. Zeitdiskrete Elementarsignale
Der Einheitssprung ε(n) (Abb. 3.13b) ergibt sich analog zu (1.34) als laufende Summe (Akkumulation) u ¨ber den Einheitsimpuls ε(n) =
n
δ(m)
(3.21)
m=−∞
zu ε(n) =
0 1
f¨ ur f¨ ur
n |a| .
(3.64)
Zerlegt man die komplexe Frequenzvariable z nach Betrag und Phase, so ist z = |z|e jϕz = eσ · e j2πf .
(3.65)
Das zweidimensionale z-Spektrum l¨ asst sich also in der komplexen z-Ebene so interpretieren, dass u ¨ber jedem Kreis |z| = exp(σ) = const. eine Periode des Fourier-Spektrums Sa (f ) des jeweiligen gewichteten, zeitdiskreten Signals s(n) exp(−σn) aufgetragen ist. Der allgemein kreisringf¨ormige Bereich, in dem diese Fourier-Spektren im klassischen Sinn konvergieren, also ∞
|s(n)e−σn | < ∞ ,
(3.66)
n=−∞
bildet den Konvergenzbereich der z-Transformation. Im Beispiel (3.64) liegt dieser Bereich außerhalb des Kreises |z| = |a|, dieses Gebiet ist also der Konvergenzbereich der z-Transformierten des Exponentialimpulses. F¨ ur zeitbegrenzte Signale umfasst der Konvergenzbereich stets die gesamte z-Ebene. Wenn der Konvergenzbereich den Einheitskreis |z| = 1 enth¨alt, dann existiert eine Fourier-Transformierte (3.36), welche mit der z-Transformierten (3.63) durch die einfache Substitution z = exp(j2πf ) verkn¨ upft ist. 25 26
Gebr¨ auchlich ist auch die Definition z = ρej2πf , hier ρ = eσ ≥ 0 Eine andere Herleitung hierzu ist wieder analog zu (2.92) die Anregung eines Systems mit einer komplexen diskreten Eigenfunktion sE (n) = z n = e(σ+j2πf )n . Nach Ausf¨ uhrung der diskreten Faltung ergibt sich als Antwort des Systems ¨ z n H(z), als Spezialfall f¨ ur σ = 0 wird H(z) = Ha (f ) die Fourier-Ubertragungsfunktion, sofern diese existiert. Verallgemeinerung auf beliebige Signale f¨ uhrt zur zweiseitigen z-Transformation.
104
3. Diskrete Signale und Systeme
Dieses ist immer bei absolut summierbaren Signalen gegeben. Im Beispiel des einseitigen Exponentialimpulses l¨ asst sich also f¨ ur |a| < 1 sofort S(z) nach uhren. (3.64) in Sa (f ) nach (3.38) und umgekehrt u ¨ berf¨ Dieser Zusammenhang macht auch deutlich, dass die Theoreme der FourierTransformation wieder f¨ ur die z-Transformation entsprechend gelten. Besonders wichtig ist das Faltungstheorem mit der (3.40) entsprechenden Aussage g(n) = s(n) ∗ h(n) z
(3.67)
G(z) = S(z) · H(z) . ¨ Die z-Transformierte (3.64) beschreibt also auch die Ubertragungsfunktion H(z) des rekursiven Systems nach Abb. 3.14 mit h(n) = ε(n)an z
f¨ ur
a beliebig! (3.68)
1 H(z) = 1 − az −1
f¨ ur
|z| > |a| .
In der Anwendung ist die z-Transformation besonders bei der Analyse und ¨ Synthese von zeitdiskreten Systemen mit rationaler Ubertragungsfunktion H(z) ein sehr n¨ utzliches Werkzeug. H(z) ist dann bis auf einen Faktor bereits vollst¨ andig durch die Lage ihrer Pole und Nullstellen gegeben. Hierzu, wie auch bzgl. der inversen z-Transformation, muss auf die einschl¨agige Literatur verwiesen werden (Oppenheim und Willsky, 1996; Doetsch, 1989).
3.4 Zusammenfassung Die Aussage der Abtasttheoreme l¨ asst sich auf zwei Fourier-Transformationspaare zur¨ uckf¨ uhren, die in normierter Form lauten s(t) · III − (t)
S(f ) ∗ III − (f )
s(t) ∗ III − (t)
S(f ) · III − (f ) .
Diese Transformationen enthalten die zur Beschreibung von Signalen wichtigen Aussagen: ein abgetastetes Signal besitzt ein periodisches Spektrum und ein periodisches Signal besitzt ein Linienspektrum. Sind die durch Faltung mit der Dirac-Impulsfolge III − (x) entstandenen periodischen Frequenz- oder Zeitfunktionen u ¨ berlappungsfrei, dann l¨asst sich
3.4 Zusammenfassung
105
die durch Fourier-Transformation zugeordnete abgetastete Funktion wieder fehlerfrei interpolieren. Das ist der Inhalt der beiden besprochenen Abtasttheoreme. Die theoretischen und praktischen Anwendungen der hier abgeleiteten Beziehungen zwischen kontinuierlichen und diskreten Signalen waren ¨ dann Grundlage f¨ ur eine Betrachtung der Probleme, die bei der Ubertragung zeitdiskreter Signale u ¨ ber zeitdiskrete (digitale) Systeme auftauchen. Insbesondere wurden hieraus die Beziehungen zur diskreten Faltung sowie zur Fourier-Transformation zeitdiskreter Signale abgeleitet, einschließlich der f¨ ur die digitale Signalverarbeitung wichtigen Diskreten Fourier-Transformation. Schließlich wurde gezeigt, dass weitere Abtastungen sowie Abtastratenkonversionen auch auf bereits abgetastete Signale anwendbar sind und mit Mitteln der digitalen Signalverarbeitung realisiert werden k¨onnen.
106
3. Diskrete Signale und Systeme
3.5 Anhang
Tabelle 3.1. Theoreme der Fourier-Transformation diskreter Signale Theorem
s(n)
Transformation
s(n)
inverse Transformation
1/2 R
Sa (f ) P∞ n=−∞
Gl. s(n)e−j2πnf
(3.36)
Sa (f ) (Periode 1)
Sa (f )e j2πnf df
−1/2 (
(3.37)
Zerlegung von s(n) Zeitumkehr
sg (n) su (n) s(−n)
Re{Sa (f )} j Im{Sa (f )} Sa (−f )
komplexe s(n)
s∗ (n)
Sa∗ (−f )
Faltung
s(n) ∗ g(n)
Sa (f ) · Ga (f )
(3.40)
Multiplikation
s(n) · g(n)
Sa (f ) ∗ [Ga (f ) · rect(f )] (period. Faltung)
(3.41)
Superposition
a1 s(n) + a2 g(n)
Herabtastung
su (n) = s(nc)
a1 Sa (f ) + a2 Ga (f ) « „ P 1 c−1 k Sa f − c k=0 c (c pos., ganz)
(3.51)
Hochtastung
sc↑( (n) s(n/c) f¨ ur = 0
n/c ganz sonst
Sa (cf ) (c pos., ganz)
(3.54)
(Aufgabe 3.17)
Verschiebung
s(n − m) s(n)e j2πnf
Sa (f )e−j2πmf Sa (f − F )
Differenzenbildung
s(n) − s(n − 1)
(1 − e−j2πf )Sa (f )
Akkumulation Fl¨ ache
n P
s(m)
Sa (f ) Sa (0) + III (f ) 1 − e−j2πf 2 −
s(n)
Sa (0)
m=−∞ ∞ P
(Aufgabe 3.18)
n=−∞ 1/2 R
s(0) Parseval’sches Theorem
E=
∞ P n=−∞
|s(n)|2
=
−1/2 1/2 R −1/2
Sa (f )df |Sa (f )|2 df
(4.34) (n, m ganzzahlig)
3.5 Anhang
107
Tabelle 3.2. Theoreme der diskreten Fourier-Transformation (DFT) Theorem
sd (n)
Transformation
sd (n)
Sd (k) M −1 P
sd (n)e−j2πnk/M
n=0
inverse Transformation
1 M
M −1 P
Sd (k)e j2πnk/M
Gl.
k = 0÷M −1
Sd (k)
(3.43)
k=0
n =0÷M −1
(
Zerlegung von s(n) Zeitumkehr
sdg (n) sdu (n) sd (−n)
Re{Sd (k)} j Im{Sd (k)} Sd (−k)
komplexe s(n)
s∗d (n)
Sd∗ (−k)
Symmetrie
Sd (n)
M sd (−k)
periodische Faltung
(3.42)
M −1 P
sd (m)hd (n − m)
m=0
Sd (k)Hd (k)
Multiplikation
sd (n) · fd (n)
−1 1 MP Sd (m)Fd (k − m) M m=0
Superposition
a1 sd (n) + a2 fd (n)
a1 Sd (k) + a2 Fd (k)
periodische Verschiebung
sd (n − m) sd (n)e j2πmn/M
Sd (k)e−j2πmk/M Sd (k − m)
(3.46) (3.45)
(periodische Faltung)
Fl¨ ache
M −1 P
sd (n)
Sd (0)
n=0
sd (0) Parseval’sches Theorem
M −1 P n=0
|sd (n)|2
(3.44)
=
−1 1 MP Sd (k) M k=0 −1 1 MP |Sd (k)|2 M k=0 (n, m, k ganzzahlig)
108
3. Diskrete Signale und Systeme
3.6 Aufgaben 3.1 Ist das ideale Abtastsystem nach (3.2) linear? Ist es zeitinvariant? 3.2 Ein Fernsprechsignal kann als Tiefpasssignal der Grenzfrequenz fg = 4 kHz aufgefasst werden. a) Wie groß ist die Nyquist-Rate bei Abtastung? b) Das abgetastete Signal soll durch einen (realit¨atsn¨aheren) Tiefpass endlicher Flankensteilheit zur¨ uckgewonnen werden (Abb. 3.24). Wie groß sind ahlen, damit eine fehlerfreie InterpoAbtastrate und f1 mindestens zu w¨ lation m¨ oglich ist?
Abb. 3.24. Tiefpass zu Aufgabe 3.2
3.3 Ein reales Abtastsystem benutzt Abtastimpulse endlicher Breite t0 . Beschreiben Sie den Abtastvorgang im Zeit- und Frequenzbereich [entsprechend (3.4)]. Diskutieren Sie mit Hilfe einer Skizze des Spektrums des abgetasteten Signals, ob das Signal fehlerfrei zur¨ uckgewonnen werden kann. Nehmen Sie hierzu die beiden Abtastmodelle in Abb. 3.25 an.
Abb. 3.25. (a) Modell 1 (lineare Torschaltung); (b) Modell 2 (Abtast-Halteschaltung)
3.4 Das Signal s(t) = si(πt) wird a) mit der Nyquist-Rate 1/T und b) der doppelten Nyquist-Rate abgetastet.
3.6 Aufgaben
109
Skizzieren Sie den Interpolationsvorgang qualitativ (wie Abb. 3.6). Wie ver¨andert sich die Skizze bei Abtastung des verschobenen Signals s(t − 0, 2)? 3.5 Ein Tiefpasssignal der Grenzfrequenz fg wird mit der Rate 1/T = 2fg abgetastet und in Form einer Treppenkurve sTre (t) n¨aherungsweise rekonstruiert (Abb. 3.26a). a) Beschreiben Sie die Treppenkurve sTre (t) im Zeit- und Frequenzbereich (Aufgabe 3.3). ¨ b) Geben Sie die Ubertragungsfunktion eines Filters an, mit dem s(t) ucksichtigung einer Verz¨ogerung fehlerfrei rekonaus sTre (t) ohne Ber¨ struiert werden kann. c) Zeigen Sie, dass ein derartiger Entzerrer durch eine wie in Abb. 3.26b gezeigte Schaltung realisiert werden kann. Wie lautet HR (f )?
Abb. 3.26a, b. Zu Aufgabe 3.5
3.6 Wiederholen und Abtasten einer Funktion werden h¨aufig mit den von Woodward (1964) eingef¨ uhrten Operatoren rep und comb beschrieben: repT s(t) =
∞
s(t − nT )
n=−∞ ∞
combT s(t) =
s(nT )δ(t − nT )
n=−∞
a) Beschreiben Sie den Zusammenhang dieser Operatoren mit III − (t). b) Wie lauten die Fourier-Transformierten dieser Ausdr¨ ucke? 3.7 Gegeben ist eine periodische Rechteckfunktion (Abb. 3.27). Berechnen und skizzieren Sie S(f ) f¨ ur a) T2 = 6 T1 ,
b) T2 = 4 T1 ,
c) T2 = 2 T1 .
3.8 Ein Signal, dessen Spektrum nur in einem Bereich f0 < |f | < 2f0 von Null verschieden ist, wird mit der Rate 2f0 abgetastet. Wie kann dieses Bandpasssignal“ aus den Abtastwerten fehlerfrei zur¨ uckgewonnen werden? ”
110
3. Diskrete Signale und Systeme
Abb. 3.27. Zu Aufgabe 3.7
3.9 Das Signal cos(2πF t) wird mit der Abtastrate 1 abgetastet und in einem idealen Tiefpass der Grenzfrequenz fg = 1/2 interpoliert. Zeigen Sie, dass am Ausgang wieder ein cos-f¨ ormiges Signal erscheint, und tragen Sie dessen Frequenz Fa als Funktion von F auf (Aliasing). 3.10 Ein cos- und ein sin-Signal der Frequenz fg werden mit der NyquistRate r = 2fg abgetastet. Skizzieren Sie Abtastwerte und Spektren der abgetasteten Signale. (Abtasten mit der Nyquist-Rate setzt also voraus, dass die Tiefpasssignale bei der Grenzfrequenz zumindest keine Dirac-Impulse im Spektrum enthalten.) 3.11 Gegeben ist der zeitdiskrete Rampenimpuls s(n) = n[ε(n) − ε(n − 5)] . Skizzieren Sie damit die folgenden Signale: a) s(n) b) s(n + 2) c) s(−n)
h) s(n) + s(−n + 9) i)
n
s(m)
m=−∞
d) s(1 − n)
j) s(n) · δ(n − 2)
e) 2s(n)ε(n − 2)
k) gerader und ungerader Anteil
f) s(2n)
sg (n), su (n).
2
g) s (n) 3.12 Falten Sie den Rampenimpuls s(n) aus Aufgabe 3.11 mit sich selbst. Hinweis: Skizzieren Sie den zeitgespiegelten Impuls s(−n) (oder seine Zahlenwerte) auf einen Papierstreifen und verschieben Sie ihn unterhalb einer Skizze von s(n) (Abb. 3.15). 3.13 Skizzieren Sie mit Hilfe der Papierstreifenfaltung“ aus Aufgabe 3.12 ” f¨ ur den Rampenimpuls aus Aufgabe 3.11 das Faltungsprodukt s(n) ∗ s(−n). 3.14 Zeigen Sie (entsprechend dem Vorgehen in Abschn. 1.9), dass ein kausales, zeitdiskretes LSI-System der Impulsantwort h(n) amplitudenstabil ist f¨ ur ∞
|h(n)| < ∞.
n=0
Welche der folgenden Systeme sind amplitudenstabil?
3.6 Aufgaben
111
a) h(n) = ε(n) cos(πn) b) h(n) = ε(n)an c) h(n) = ε(n) si[π(n − 5)/2] . 3.15 Ein Filter soll u ¨ber eine Zahlenfolge s(n) folgenden gleitenden Mittelwert bilden g(n) =
1 [s(n) + s(n − 1) + s(n − 2)] . 3
a) b) c) d)
Ist das Filter ein LSI-System? Wie lautet seine Impulsantwort h(n)? Ist das Filter kausal und amplitudenstabil? Berechnen Sie den gleitenden Mittelwert u ¨ ber die zeitbegrenzte Folge {. . . , 0, 0, 2, 1, 5, −1, 0, 0, . . .} e) Leiten Sie ein faltungsinverses Filter der Impulsantwort h(−1) (n) ab, so dass gilt h(n) ∗ h(−1) (n) = δ(n) . (Hinweis: Papierstreifenmethode nach Aufgabe 3.12 benutzen.)
f) Zeigen Sie mit Hilfe der Papierstreifenmethode, dass aus den gleitenden Mittelwerten nach (d) die urspr¨ ungliche Folge durch Faltung mit h(−1) (n) zur¨ uckgewonnen werden kann. g) Ist das faltungsinverse Filter amplitudenstabil? h) Wie lautet das faltungsinverse Filter zu h(n) = δ(n) + δ(n − 1)? 3.16 Berechnen und skizzieren Sie die Fourier-Transformierten folgender zeitdiskreter Signale a) s(n) = 4 cos(πn/4) ⎧ ⎨1 |n| ≤ M b) s(n) = f¨ ur ⎩0 |n| > M c) s(n) = a|n|
mit |a| < 1
Hinweis: s(−n)
Sa (−f )
2
d) s(n) = si (πn/4) . 3.17 Berechnen Sie die Fourier-Transformierte des zeitdiskreten Signals δ(n − m). Zeigen Sie damit die G¨ ultigkeit des Verschiebungstheorems s(n − m)
e−j2πmf Sa (f ) .
3.18 Das Summationstheorem der Fourier-Transformation diskreter Signale lautet (Oppenheim und Willsky, 1989)
112
3. Diskrete Signale und Systeme n
s(m)
m=−∞
1 Sa (f ) + Sa (0) III − (f ) . 1 − exp(−j2πf ) 2
Berechnen und skizzieren Sie das Spektrum der zeitdiskreten Sprungfunktion ε(n). 3.19 Zerlegen Sie das diskrete System aus Abb. 3.28 in einen rein rekursiven und einen nichtrekursiven Teil. Berechnen Sie dann Impulsantwort und ¨ Betrag der Ubertragungsfunktion (f¨ ur b1 = b2 ).
Abb. 3.28. Filter zu Aufgabe 3.19
3.20 Skizzieren Sie s(n) = ε(n)an und sein Spektrum f¨ ur a = −1/2. Vergleichen Sie das Ergebnis mit den Abb. 3.13 und 3.17. 3.21 Berechnen Sie die diskrete Fourier-Transformierte (DFT) der zeitdiskreten Signale (angegeben f¨ ur 0 ≤ n < M ) a) sd (n) = δ(n) b) sd (n) = δ(n) − aδ(n − m)
f¨ ur
|m| < M .
3.22 Betrachtet wird das Signal s(t) = rect(t/16) cos(2πf0 t) mit f01 = 8/32 und f02 = 9/32. a) Skizzieren Sie s(t) und S(f ) f¨ ur beide f0 . b) Skizzieren Sie das mit der Periode 16 periodisch wiederholte Signal sp (t) und sein Spektrum f¨ ur beide f0 . c) Tasten Sie sp (t) mit der Rate r = 1 ab und skizzieren Sie mit den Ergebnissen aus (b) das periodische, diskrete Signal sd (n) und sein Spektrum Sd (k). Hinweis: Das Ergebnis zeigt, dass die DFT sin-f¨ormiger Signale nur dann eine scharfe Spektrallinie liefert, wenn die Periode der Transformation ein ganzzahliges Vielfaches der Signalperiode ist. Der Verschmierungseffekt wird im englischen leakage“ genannt. ” 3.23 Zur Ableitung der periodischen Faltung (3.45) wird das Faltungsprodukt g(n) = s(n)∗h(n) betrachtet. Durch periodische Wiederholung von g(n) mit der Periode M erh¨ alt man f¨ ur Signale im Bereich 0 ≤ n < M
3.6 Aufgaben
gd (n) = [s(n) ∗ h(n)] ∗ = s(n) ∗ h(n) ∗
=
∞
( δ(n − M m)
m=−∞
M−1
δ(n − M m)
m=−∞
'
= s(n)
∞
∗
113
hd (n)
s(m)hd (n − m) ,
m=0
damit ergibt sich die periodische Faltung auch zu gd (n) =
M−1
sd (m)hd (n − m)
f¨ ur
n = 0, . . . , M − 1 .
m=0
Vollziehen Sie diese Ableitung am Beispiel der zeitdiskreten Rechtecksignale aus Abb. 3.20 nach (Skizzen!). 3.24 Diese Aufgabe befasst sich mit dem Prinzip der schnellen FourierTransformation (Fast Fourier Transform, FFT ). Gegeben sei ein endliches ange M . Eine auf M normierte Version der DFT (3.42) Signal sd (n) der L¨ dieses Signals l¨ asst sich wie folgt schreiben : Sd (k) =
M−1 1 nk sd (n)WM M n=0
k = 0, . . . , M − 1 mit WM = e−j2π/M .
a) Zeigen Sie, dass die notwendige Anzahl komplexer Multiplikationen gleich nk bereits vorab in einer M 2 ist. Nehmen Sie hierbei an, dass alle Werte WM Tabelle gespeichert wurden, und vernachl¨assigen Sie die Tatsache, dass bei Multiplikationen mit ±1 oder ±j Vereinfachungen m¨oglich w¨aren. b) Nehmen Sie an, dass M gerade sei. Es sollen dann die diskrete Folge sd,1 (n) = sd (2n) alle geradzahlig indizierten Abtastwerte und die Folge sd,2 (n) = sd (2n+1) alle ungeradzahlig indizierten Abtastwerte enthalten. Zeigen Sie zun¨ achst, dass sd,1 (n) und sd,2 (n) außerhalb des Intervalls 0 ≤ n ≤ (M/2) − 1 jeweils Null sind. Zeigen Sie dann, dass sich Sd (k) wie folgt ausdr¨ ucken l¨ asst : ⎡ ⎤ M/2−1 M/2−1 1 ⎣ nk k nk ⎦ Sd (k) = sd,1 (n)WM/2 + WM sd,2 (n)WM/2 M n=0 n=0 = mit
1 k Sd,1 (k) + WM Sd,2 (k) 2
k = 0, . . . , M − 1
114
3. Diskrete Signale und Systeme M/2−1 2 nk Sd,1|2 (k) = sd,1|2 (n)WM/2 . M n=0
c) Zeigen Sie, dass f¨ ur alle k und i = 1, 2 gilt Sd,i (k + M/2) = Sd,i (k). Damit l¨ asst sich die DFT der L¨ ange M , Sd (k), durch Berechnung zweier Transformationen, jeweils mit L¨ ange M/2, sowie entsprechende Additionen bestimmen. Bestimmen Sie f¨ ur diesen Fall die Anzahl komplexer Multiplikationen, und vergleichen Sie mit dem Ergebnis aus a). d) Wenn M/2 ebenfalls gerade ist, kann dieselbe Prozedur nochmals auf die Berechnung der Teil-DFTen Sd,i (k) angewandt werden. Falls M eine Zweierpotenz ist, kann die Prozedur insgesamt lbM mal wiederholt werden. Bestimmen Sie, wie viele komplexe Multiplikationen dann f¨ ur M = 32, 256, 1024, 4096 notwendig sind, und vergleichen Sie mit dem Ergebnis aus a).
4. Korrelationsfunktionen determinierter Signale
Das Konzept der Korrelation ist von grundlegender Bedeutung f¨ ur die Nach¨ richtentechnik. In allen Korrelationsverfahren wird ein Maß f¨ ur die Ahnlich¨ keit zweier Signale berechnet. Auf diesem Ahnlichkeitsvergleich lassen sich sowohl wichtige Empfangsverfahren als auch Methoden zur mathematischen Signalanalyse und Synthese aufbauen. In diesem Kapitel wird die Korrelationsfunktion determinierter, reeller Signale behandelt und zur Faltung und Fourier-Transformation in Bezug gesetzt. Sp¨ ateren Kapiteln ist die Erweiterung des Korrelationsbegriffs auf zuf¨ allige Signale und die Anwendung von Korrelationsverfahren in der Empfangstechnik vorbehalten. Die Definition der Korrelation ist sehr eng mit der Definition der Energie oder Leistung von Signalen und ihrer Berechnung bei gefilterten Signalen verkn¨ upft. Daher werden zun¨achst diese Begriffe erl¨ autert.
4.1 Energie und Leistung von Signalen Liegt an einem Ohm’schen Widerstand R die Spannung u(t), so betr¨agt die elektrische Energie, die innerhalb des Zeitabschnittes (t1 ; t2 ) im Widerstand in W¨ armeenergie umgewandelt wird, 1 Eel = R
t2 u2 (t)dt .
(4.1)
t1
Entsprechend wird in der Systemtheorie verallgemeinernd der Ausdruck t2 s2 (t)dt
Es =
(4.2)
t1
als Signalenergie des reellwertigen Signals s(t) im Zeitabschnitt (t1 ; t2 ) bezeichnet. Beide Energiedefinitionen ergeben den gleichen Zahlenwert, wenn s(t) als ein auf 1 V normierter Spannungsverlauf an einem Widerstand von R = 1 Ω liegt.
116
4. Korrelationsfunktionen determinierter Signale
Ein Signal s(t) heißt Energiesignal, wenn seine Gesamtenergie endlich ist, wenn also gilt1 +∞ Es = |s(t)|2 dt < ∞ .
(4.3)
−∞
Viele wichtige Signale haben keine endliche Gesamtenergie, z. B. alle periodischen Signale, die Sprungfunktion oder die sp¨ater zu besprechenden, zeitlich nicht begrenzten Zufallssignale. F¨ ur diese Signale kann eine endliche Leistung als mittlere Energie pro Zeitintervall definiert werden 1 Ls = lim T →∞ 2T
T |s(t)|2 dt .
(4.4)
−T
Signale mit 0 < Ls < ∞ werden Leistungssignale genannt. F¨ ur Signale mit Dirac-Impulsen sind Energie oder Leistung nicht definiert.
4.2 Impulskorrelationsfunktion fu ¨ r Energiesignale ¨ Ausgangspunkt f¨ ur die Definition eines Ahnlichkeitsmaßes zwischen zwei Signalen s(t) und g(t) ist ihre Differenz ∆(t) = s(t) − g(t). Sind s(t) und g(t) Energiesignale, dann ist auch ∆(t) ein Energiesignal und seine Energie kann als Maß f¨ ur die Abweichung benutzt werden2 ∞ |s(t) − g(t)|2 dt
E∆ = −∞ ∞
∞ |s(t)| dt +
= −∞
∞ |g(t)| dt −
2
−∞
∗
∞
s (t)g(t)dt −
2
−∞
g ∗ (t)s(t)dt .
−∞
(4.5) Um dieses Maß von der absoluten Amplitude oder Energie der verglichenen Signale unabh¨ angig zu machen, werden die Signale in einem weiteren Schritt 1
2
Die folgenden Definitionen gelten allgemein sowohl f¨ ur reellwertige Signale (|s(t)|2 = s2 (t)), als auch f¨ ur komplexwertige Signale (|s(t)|2 = s∗ (t)s(t)). Auch komplexwertige Signale besitzen also eine reellwertige Energie bzw. Leistung. Die so als Maßzahl definierte mittlere quadratische Abweichung ist mathematisch gut zu handhaben, insbesondere weil sich bei Differentiation hieraus lineare Beziehungen ergeben. Sie ber¨ ucksichtigt gr¨ oßere Abweichungen u ¨ berproportional stark. Andere Maße, wie z. B. der Mittelwert u ¨ ber dem Betrag der Differenz werden wegen ihrer mathematischen Unhandlichkeit bei analytischen Optimierungen seltener benutzt.
4.2 Impulskorrelationsfunktion f¨ ur Energiesignale
117
so normiert, dass ihre Energien 1 annehmen; dann wird √ Es und Eg den Wert aus (4.5) mit sb (t) = s(t)/ Es und gb (t) = g(t)/ Eg ∞ E∆b = −∞
⎫ ⎧ ∞ ∗ ⎪ ⎪ s (t)g(t)dt ⎪ ⎪ ⎬ ⎨ −∞ 2 . |sb (t) − gb (t)| dt = 2 − 2 Re ⎪ ⎪ Es Eg ⎪ ⎪ ⎭ ⎩
(4.6)
¨ Mit diesem normierten Abweichungsmaß wird dann als Ahnlichkeitsmaß der 3 normierte Korrelationskoeffizient f¨ ur Energiesignale definiert als der in (4.6) rechts in der Klammer stehende Ausdruck ∞ pE sg
=
−∞
s∗ (t)g(t)dt ∗ = pE . gs Es Eg
(4.7)
¨ Anmerkung: Dieser normierte Korrelationskoeffizient bemisst die Ahnlichkeit zwischen zwei Energiesignalen s(t) und g(t) mit einer Zahl, die vom Betrag ¨ her kleiner als 1 ist. Der Wert +1 f¨ ur gr¨ oßte Ahnlichkeit ergibt sich einmal bei gleichen Signalen pE sg = 1
f¨ ur
s(t) = g(t) ,
aber auf Grund der Normierung auch bei ¨ ahnlichen Signalen, die durch Multiplikation mit einem positiven, reellen Faktor auseinander hervorgehen (Aufgabe 4.1) pE sg = 1
f¨ ur
s(t) = ag(t) ,
a positiv, reell .
(4.8)
Der Wert −1 f¨ ur gr¨ oßte Un¨ ahnlichkeit“ in dem hier definierten Sinn gilt ” f¨ ur s(t) = −g(t) oder allgemeiner pE sg = −1
f¨ ur
s(t) = −ag(t) ,
a positiv, reell .
(4.9)
Schließlich erh¨ alt man nach (4.7) ∞ pE sg
=
pE gs
=0
f¨ ur
∗
∞
s (t)g(t)dt = −∞
g ∗ (t)s(t)dt = 0 .
(4.10)
−∞
Signale mit dieser Eigenschaft werden orthogonal genannt. Bei Orthogonalit¨ at besteht keine lineare Abh¨ angigkeit zwischen den Amplitudenwerten der 3
Der Begriff der Korrelation ist in seiner eigentlichen Bedeutung ein Maß der Statistik (Kap. 6). Um zu kennzeichnen, dass der Korrelationskoeffizient in diesem Kapitel in einem eingeschr¨ ankten Sinn f¨ ur determinierte Energiesignale definiert ist, wird der Hochindex E in pE oßen in sg gesetzt. Im weiteren werden diese Gr¨ Zweifelsf¨ allen Impulskorrelation bzw. Impulskorrelationsfunktion genannt.
118
4. Korrelationsfunktionen determinierter Signale
beiden unverschobenen Signalfunktionen, insofern ist dies der eigentliche Fall der gr¨ oßten Un¨ ahnlichkeit. In der Definition des Korrelationskoeffizienten wird eine feste zeitliche Lage der verglichenen Signale zueinander angenommen. Werden die Signale gegeneinander auf der Zeitachse verschoben, so wird sich auch ihr Korrelationskoeffizient ver¨ andern. Diese Abh¨ angigkeit des Korrelationskoeffizienten von einer Signalverschiebung wird durch die normierte Korrelationsfunktion ¨ beschrieben. Es gilt also f¨ ur die Ahnlichkeit zwischen den Signalen s(t) und dem verschobenen Signal g(t + τ ) die normierte Korrelationsfunktion (f¨ ur Energiesignale ist auch die Bezeichnung normierte Impulskorrelationsfunktion gebr¨ auchlich) ∞ pE sg (τ ) =
−∞
s∗ (t)g(t + τ )dt . Es Eg
(4.11)
Ist s(t) = g(t), so wird dieser Ausdruck auch normierte Autokorrelationsfunktion pE ss (τ ) genannt und zur Unterscheidung im allgemeinen Fall verschiedener Funktionen normierte Kreuzkorrelationsfunktion.
4.3 Korrelationsprodukt und Faltungsprodukt Die in (4.11) im Z¨ ahler stehende unnormierte Korrelationsfunktion reellwertiger Signale heißt im Folgenden kurz Korrelationsfunktion oder Impulskorrelationsfunktion (s. Fußnote 3) ∞ ϕE sg (τ )
=
s∗ (t)g(t + τ )dt .
(4.12)
−∞
Dieser Integralausdruck ist sehr ¨ ahnlich zum Faltungsintegral (1.15) aufgebaut. In Anlehnung an die im Kap. 1 eingef¨ uhrte Bezeichnung Faltungsprodukt bezeichnet man daher die Korrelationsfunktion auch als Korrelationsprodukt und schreibt symbolisch f¨ ur (4.12)4 ϕE sg (τ ) = s(τ ) g(τ ) .
(4.13)
Zwischen Korrelationsprodukt und Faltungsprodukt besteht ein einfacher Zusammenhang, der den Umgang mit Korrelationsfunktionen h¨aufig vereinfachen kann: Die Substitution t = −θ in (4.12) ergibt ϕE sg (τ )
−∞ +∞ ∗ = s (−θ)g(τ − θ)(−dθ) = s∗ (−θ)g(τ − θ)dθ . +∞
4
−∞
Ein Korrelationszeichen ist in der Literatur nicht einheitlich eingef¨ uhrt.
4.3 Korrelationsprodukt und Faltungsprodukt
119
Da das rechts stehende Integral ein Faltungsintegral darstellt, gilt s(τ ) g(τ ) = s∗ (−τ ) ∗ g(τ ) .
(4.14)
Die Umkehrung ergibt entsprechend (Aufgabe 4.4) s(τ ) ∗ g(τ ) = s∗ (−τ ) g(τ ) .
(4.15)
Als Anwendungsbeispiel werde der Zusammenhang zwischen ϕE sg (τ ) und E ϕgs (τ ) berechnet ∗ ϕE sg (τ ) = s(τ ) g(τ ) = s (−τ ) ∗ g(τ ) ,
so dass mit dem kommutativen Gesetz der Faltungsalgebra gilt ∗
∗ ∗ ϕE sg (τ ) = g(τ ) ∗ s (−τ ) = [ g (τ ) ∗ s(−τ )] .
Mit (4.14) gilt dann weiter E ∗ ∗ ϕE gs (τ ) = g (−τ ) ∗ s(τ ) = ϕsg (−τ ) .
(4.16)
E Die Kreuzkorrelationsfunktionen ϕE sg (τ ) und ϕgs (τ ) sind also zueinander zeitgespiegelt und konjugiert-komplex. Weiter zeigt (4.16), dass das Korrelationsprodukt nicht kommutativ ist. Eine entsprechende Rechnung (Aufgabe 4.5) zeigt, dass es ebenfalls nicht assoziativ, aber distributiv zur Addition ist. Bei der Berechnung von Korrelationsprodukten ist daher eine Umwandlung in ein Faltungsprodukt in der Regel vorteilhaft. Die enge Verwandtschaft zwischen Korrelationsprodukt und Faltungsprodukt zeigt, dass die Definition (4.12) nicht ausschließlich auf Energiesignale beschr¨ankt zu sein braucht. Voraussetzung f¨ ur die Anwendung der Korrelationsfunktion ϕE sg (τ ) ist nur, dass das Integral (4.12) gebildet werden kann. Damit werden u.a. Impulskorrelationsfunktionen von Dirac-Impulshaltigen Signalen m¨oglich, ebenso in vielen F¨ allen Kreuzkorrelationsfunktionen zwischen einem Energie- und einem Leistungssignal (Aufgabe 4.11). Dagegen konvergiert das Korrelationsintegral (4.12) i. Allg. nicht f¨ ur alle τ , wenn beide Funktionen s(t) und g(t) Leistungssignale sind. Die Korrelationsfunktion von Leistungssignalen wird in Kap. 6 vorgestellt (s. auch Aufgabe 4.3). Als einfaches Anwendungsbeispiel f¨ ur das Korrelationsprodukt wird nun die Autokorrelationsfunktion der rect-Funktion berechnet, es gilt hier
ϕE ss (τ ) = rect(τ ) rect(τ ) = rect(−τ ) ∗ rect(τ ) . Da rect(−τ ) = rect(τ ), wird mit (2.57) ϕE ss (τ ) = rect(τ ) ∗ rect(τ ) = Λ(τ ) .
(4.17)
In Abb. 4.1 ist der sich als Impulsautokorrelationsfunktion des Rechteckimpulses ergebende Dreieckimpuls dargestellt.
120
4. Korrelationsfunktionen determinierter Signale
Abb. 4.1. Autokorrelationsfunktion der Funktion s(t) = rect(t)
Die Impulsautokorrelationsfunktion ϕE ultige ss (τ ) besitzt folgende allgemein g¨ Eigenschaften: a) Die Autokorrelationsfunktion ϕE ss (τ ) ist wegen (4.16) immer eine gerade Funktion 5 E ∗ ϕE . (4.18) ss (τ ) = ϕss (−τ ) b) Den maximalen Wert nimmt eine Autokorrelationsfunktion f¨ ur τ = 0 ¨ an, da in diesem Fall gr¨ oßte Ahnlichkeit vorliegt. Nach (4.12) gilt dann f¨ ur s(t) = g(t) bei Energiesignalen ϕE ss (0)
+∞ = |s(t)|2 dt = Es .
(4.19)
−∞
Das Maximum der Autokorrelationsfunktion eines Energiesignals ist also gleich seiner Energie. F¨ ur die normierte Autokorrelationsfunktion nach (4.11) ist nat¨ urlich pE ss (0) = 1. c) Bei zeitlich begrenzten Signalen hat die Autokorrelationsfunktion die doppelte Breite des Signals (Aufgabe 4.6). Als letztes Beispiel zeigt Abb. 4.2 die Kreuzkorrelationsfunktionen ϕE sg (τ ) E und ϕgs (τ ) zwischen einem Rechteckimpuls und einem Doppelrechteckimpuls (Aufgabe 4.7). Da ϕE sg (0) = 0 ist, sind diese Signale nach (4.10) zueinander orthogonal. Komplexwertige Korrelationsfunktionen sind beispielsweise f¨ ur die Beschreibung des Verhaltens von Bandpasssignalen mittels komplexwertiger, utzlich und werden u.a. in Abschn. 7.3.2 weiter ¨aquivalenter Tiefpasssignale n¨ behandelt.
5
bezogen auf die allgemeine Definition komplexwertiger gerader Signale in (2.26)
4.4 Fourier-Transformation der Impulskorrelationsfunktionen
121
Abb. 4.2. Kreuzkorrelationsfunktionen der zwei orthogonalen Signale s(t) und g(t)
4.4 Fourier-Transformation der Impulsautokorrelationsfunktion Durch das Fourier-Integral lassen sich den Korrelationsfunktionen Spektralfunktionen zuordnen; dabei nimmt die Verschiebungsvariable τ die Stelle der sonst u ¨blichen Zeitvariablen t ein. Mit den Theoremen f¨ ur Faltung (2.12) und Zeitumkehr (2.41) ergibt sich aus der Darstellung der Autokorrelationsfunktion als Faltungsprodukt f¨ ur reell- oder komplexwertige Signale sowie mit der Beziehung z · z ∗ = |z|2 ∗ ϕE ss (τ ) = s (−τ ) ∗ s(τ )
(4.20) S ∗ (f ) · S(f ) = |S(f )|2 . Dieser Zusammenhang sagt also aus, dass die Fourier-Transformierte der Autokorrelationsfunktion eines Energiesignals dem Betragsquadrat der FourierTransformierten dieses Energiesignals gleich ist.6 |S(f )|2 ist auch f¨ ur komplexwertige Signale reellwertig, was sich sofort aus der Tatsache erkl¨aren l¨asst, dass die Autokorrelationsfunktion stets eine gerade Funktion ist. Da die Impulsautokorrelationsfunktion ϕE ss (τ ) die Dimension einer Signalenergie aufweist und damit ihre Fourier-Transformierte die Dimension eines Produktes Signalenergie mal Zeit“ oder Signalenergie pro Frequenz“ hat, ” ” stellt |S(f )|2 eine auf die Frequenzeinheit bezogene Signalenergie dar.7 Man 2 bezeichnet daher |S(f )| als Energiedichtespektrum Das Energiedichtespektrum ist wegen (4.20) stets reell und nicht negativwertig; f¨ ur reellwertige 6
7
Formal entspricht diese Aussage dem Wiener-Khintchine-Theorem f¨ ur zuf¨ allige Leistungssignale (Kap. 6). Diese Bezeichnung ist daher auch f¨ ur (4.20) gebr¨ auchlich. Als physikalische Einheit [V 2 s2 ] oder [V 2 s/Hz]
122
4. Korrelationsfunktionen determinierter Signale
Signale (die auch eine reellwertige und um τ = 0 symmetrische Autokorrelationsfunktion besitzen) ist es außerdem eine um f = 0 symmetrische Funktion. Die inverse Fourier-Transformation (2.7) von |S(f )|2 ergibt ϕE ss (τ )
+∞ = |S(f )|2 e j2πf τ df .
(4.21)
−∞
Dieser Zusammenhang zeigt, dass sich die Impulsautokorrelationsfunktion ϕE ss (τ ) allein aus dem Betragsspektrum der Fourier-Transformierten von s(t) berechnen l¨ asst und demnach unabh¨angig vom Phasenspektrum von S(f ) ist. Das bedeutet nat¨ urlich auch, dass einer Autokorrelationsfunktion beliebig viele unterschiedliche Signale zugeordnet werden k¨onnen. Eine weitere wichtige Aussage, die (4.21) enth¨ alt, ist die M¨oglichkeit, die Energie eines Signals aus seinem Spektrum zu berechnen. Nach (4.19) gilt mit (4.21) f¨ ur τ = 0 ∞ Es =
ϕE ss (0)
|S(f )|2 df
= −∞
oder mit dem Ausdruck f¨ ur die Signalenergie (4.3) ∞
∞ |s(t)| dt =
|S(f )|2 df .
2
Es = −∞
(4.22)
−∞
Dies ist das Parseval’sche Theorem 8 , nach dem die Signalenergie auch im Frequenzbereich aus dem Betragsspektrum berechnet werden kann (Aufgabe 2.17). Anmerkung: An einem Beispiel sollen diese Zusammenh¨ange demonstriert werden: Gegeben ist der bereits mehrfach verwendete Exponentialimpuls s(t) = (1/T )ε(t) exp(−t/T ). Gesucht ist sein Energiedichtespektrum sowie seine Autokorrelationsfunktion. Nach (2.23) gilt f¨ ur den Betrag der FourierTransformierten von s(t): 1 |S(f )| = . 1 + (2πT f )2 Mit (4.20) folgt hieraus f¨ ur das Energiedichtespektrum |S(f )|2 =
1 . 1 + (2πT f )2
In Abb. 4.3 sind beide Frequenzfunktionen dargestellt. 8
Marc-Antoine Parseval des Chenes (1755–1836), fr. Mathematiker.
4.4 Fourier-Transformation der Impulskorrelationsfunktionen
123
Abb. 4.3. Betragsspektrum |S(f )| und Energiedichtespektrum |S(f )|2 des Exponentialimpulses
Die R¨ ucktransformation von |S(f )|2 in den Zeitbereich ist im Falle des Exponentialimpulses besonders einfach. Aus (2.20) und (2.23) folgt n¨amlich speziell |S(f )|2 =
1 = Re{S(f )} . 1 + (2πT f )2
Da nach (2.32) die R¨ ucktransformation von Re{S(f )} den geraden Anteil sg (t) von s(t) ergibt, gilt hier |S(f )|2 = Re{S(f )}
ϕE ss (τ ) = sg (τ ) =
1 −|τ |/T e . 2T
(4.23)
Abb. 4.4 zeigt den Verlauf von ϕE ss (τ ) (vgl. Abb. 2.5). Die Energie des Exponentialimpulses ergibt sich aus seiner Autokorrelationsfunktion (4.23) zu Es = ϕE ss (0) =
1 . 2T
Dasselbe Ergebnis liefert im Zeitbereich die Definitionsgleichung
Abb. 4.4. Autokorrelationsfunktion ϕE ss (τ ) des Exponentialimpulses
∞
1 s (t)dt = 2 T
∞
2
Es = −∞
0
e−2t/T dt =
1 2T
124
4. Korrelationsfunktionen determinierter Signale
und im Frequenzbereich das Parseval’sche Theorem ∞
∞ |S(f )| df = 2
Es = −∞
−∞
1 1 . df = 1 + (2πT f )2 2T
In einer ¨ ahnlichen Betrachtung wie bei Herleitung der Beziehung zwischen Autokorrelationsfunktion und Energiedichtespektrum ergibt sich als FourierTransformierte der Kreuzkorrelationsfunktion das Kreuzenergiedichtespektrum ∗ ϕE sg (τ ) = s (−τ ) ∗ g(τ )
(4.24) ∗ ΦE sg (f ) = S (f ) · G(f ) . ∗ ∗ Entsprechend ergibt sich ϕE ΦE gs (τ ) = g (−τ ) ∗ s(τ ) gs (f ) = G (f ) · S(f ) E E∗ und daher Φgs (f ) = Φsg (f ). Man beachte, dass die Kreuzenergiedichtespektren im Gegensatz zum Energiedichtespektrum |S(f )|2 normalerweise komplexwertige Funktionen sind; dies ergibt sich, weil die Kreuzkorrelationsfunktion im Gegensatz zur Autokorrelationsfunktion keine gerade Funktion ist. Sind die Signale und damit ebenfalls die Kreuzkorrelationsfunktion reellwerE∗ E ur tig, gilt weiterhin die Beziehung ΦE sg (−f ) = Φsg (f ) = Φgs (f ). Speziell f¨ orthogonale Signale folgt mit (4.10) sowie der Fl¨achenbedingung der FourierTransformation
∞ ϕE sg (0)
=
∗
∞
s (τ )g(τ )dτ = −∞
S ∗ (f )G(f )df = 0 .
(4.25)
−∞
4.5 Impulskorrelationsfunktionen und LTI-Systeme In diesem Abschnitt werden einige h¨ aufig benutzte Beziehungen abgeleitet, die f¨ ur die Korrelationsfunktionen der Ein- und Ausgangssignale von LTISystemen gelten. Die Ableitungen sollen dar¨ uber hinaus noch einmal die Anwendung von Korrelations- und Faltungsprodukt zeigen. Zun¨ achst wird eine Beziehung f¨ ur den Zusammenhang zwischen der Autokorrelationsfunktion des Ausgangssignals g(t) und der Autokorrelationsfunktion des Eingangssignals s(t) eines LTI-Systems der Impulsantwort h(t) hergeleitet. F¨ ur die Autokorrelationsfunktion des Ausgangssignals gilt mit (4.14) ∗ ϕE gg (τ ) = g (−τ ) ∗ g(τ ) .
4.5 Impulskorrelationsfunktionen und LTI-Systeme
125
Ersetzt man in dieser Gleichung die Funktionen g(−τ ) und g(τ ) durch die zugeordneten Faltungsprodukte g(τ ) = s(τ ) ∗ h(τ ), so ergibt sich ∗ ∗ ϕE gg (τ ) = s (−τ ) ∗ h (−τ ) ∗ s(τ ) ∗ h(τ ) .
Nach Anwendung des Assoziativgesetzes der Faltungsalgebra und Zusammenfassung gem¨ aß (4.14) folgt die Wiener-Lee-Beziehung 9 f¨ ur Impulskorrelationsfunktionen E E ϕE gg (τ ) = ϕss (τ ) ∗ ϕhh (τ ) .
(4.26)
Durch Anwenden des Wiener-Khintchine-Theorems (4.20) auf die WienerLee-Beziehung (4.26) erh¨ alt man als Beziehung der Energiedichtespektren |G(f )|2 = |S(f )|2 · |H(f )|2 .
(4.27)
Hiermit l¨ asst sich weiter die Energie des Ausgangssignals Eg = ϕE gg (0) im Zeit- oder Frequenzbereich berechnen. Abb. 4.5 fasst diese Zusammenh¨ange in einer schematischen Form zusammen.
Abb. 4.5. Zusammenh¨ ange zwischen Signalen, Impulskorrelationsfunktionen und Energiedichtespektren an einem LTI-System
2 Auch hier ist wieder zu beachten, dass ϕE ur beliehh (τ ) bzw. |H(f )| nicht f¨ bige LTI-Systeme existieren, beispielsweise nicht f¨ ur Systeme, deren Impulsantwort nicht absolut endlich integrierbar ist. F¨ ur die Kreuzkorrelation zwischen Eingangs- und Ausgangssignal an einem LTI-System gilt ∗ ∗ E ϕE sg (τ ) = s (−τ ) ∗ g(τ ) = s (−τ ) ∗ s(τ ) ∗ h(τ ) = ϕss (τ ) ∗ h(τ ) . 9
Die Fußnote 6 gilt hier entsprechend.
(4.28)
126
4. Korrelationsfunktionen determinierter Signale
Transformiert man diese Beziehung in den Frequenzbereich, ergibt sich 2 ΦE sg (f ) = |S(f )| · H(f ) .
Im Gegensatz zu (4.27) l¨ asst sich daher bei Kenntnis des Energiedichtespektrums des Eingangssignals sowie des Kreuzenergiedichtespektrums zwischen ¨ Eingangs- und Ausgangssignal die Ubertragungsfunktion H(f ) eines Systems ¨ einschließlich der Phasen-Ubertragungsfunktion bestimmen.
4.6 Impulskorrelationsfunktionen zeitdiskreter Signale Das Konzept der Impulskorrelationsfunktionen l¨asst sich einfach auch auf zeitdiskrete Signale anwenden. Berechnet man die Kreuzkorrelationsfunktion zweier frequenzbeschr¨ ankter, reellwertiger Energiesignale aus ihren Abtast∗ werten, so folgt aus dem Ansatz ϕE ¨ ber den Rechengang sg (τ ) = s (−τ )∗ g(τ ) u nach Abschn. 3.3.1 f¨ ur die Abtastwertfolgen reell- oder komplexwertiger Signale ∞
ϕE sg (mT ) = T
s∗ (nT )g([n + m]T ) .
(4.29)
n=−∞
F¨ ur s(nT ) = g(nT ) erh¨ alt man die Impulsautokorrelationsfunktion, und damit f¨ ur m = 0 die Energie des auf |f | < 1/(2T ) bandbegrenzten Signals s(t) aus den Abtastwerten als10 Es =
ϕE ss (0)
=T
∞
|s(nT )|2 .
(4.30)
n=−∞
Setzt man vereinfachend wieder T = 1, dann folgt als Algorithmus f¨ ur die Impulskorrelationsfunktion zeitdiskreter Signale ϕE sg (m) =
∞
s∗ (n)g(n + m)
(4.31)
n=−∞
oder mit der diskreten Faltung ∗ ϕE sg (m) = s (−m) ∗ g(m) .
Entsprechend ist die Energie eines zeitdiskreten Signals 10
F¨ ur Signale, die vor der Abtastung keiner perfekten Bandbegrenzung unterzogen ∞ R∞ P |s(t)|2 dt ≈ T |s(nT )|2 in der Regel eine wurden, ist (4.30) wegen t=−∞
n=−∞
hinreichend genaue Approximation, sofern Amplituden¨ anderungen innerhalb der Zeit T hinreichend klein sind.
4.6 Impulskorrelationsfunktionen zeitdiskreter Signale
Es =
∞
|s(n)|2 .
127
(4.32)
n=−∞
Ein zeitdiskretes Energiesignal ist also gleichbedeutend mit einem quadratisch summierbaren Signal. Durch Fourier-Transformation folgt entsprechend zu (4.20) mit (3.40) das Wiener-Khintchine-Theorem |Sa (f )|2 .
ϕE ss (m)
(4.33)
Das Energiedichtespektrum |Sa (f )|2 ist periodisch mit der Periode 1. Als Beispiel zeigt Abb. 4.6 die diskrete Autokorrelationsfunktion und das periodische Energiedichtespektrum eines zeitdiskreten Rechteckimpulses (vgl. hierzu auch Fußnote 14 im Kapitel 3).
1
2
Sa (f) =
sin2 (πNf) sin2 (πf)
36
6
Abb. 4.6. Zeitdiskreter Rechteckimpuls mit Autokorrelationsfunktion und Energiedichtespektrum
Auch hier l¨ asst sich die Signalenergie aus dem Energiedichtespektrum berechnen. Entsprechend der Ableitung in Abschn. 4.4 folgt aus der inversen Fourier-Transformation (3.37), dass die Energie gleich der Fl¨ache unter einer Periode des Energiedichtespektrums ist. Das Parseval’sche Theorem lautet hier Es =
∞ n=−∞
+1/2
|s(n)| =
|Sa (f )|2 df
2
(4.34)
−1/2
(zum Parseval’schen Theorem der DFT s. Tabelle 3.2). Schließlich gilt entsprechend der Herleitung von (4.26) die Wiener-LeeBeziehung in der zeitdiskreten Form E E ϕE gg (m) = ϕss (m) ∗ ϕhh (m)
m ganzzahlig
(4.35)
128
4. Korrelationsfunktionen determinierter Signale
¨ f¨ ur die bei Ubertragung eines zeitdiskreten Signals s(n) u ¨ber ein zeitdiskretes System der quadratisch summierbaren Impulsantwort h(n) auftretenden Impulsautokorrelationsfunktionen. Entsprechend zu Abschn. 3.3.8 l¨ asst sich der Begriff der periodischen Faltung auch auf die Korrelation u ¨ bertragen. Korreliert man zwei auf die Dauer ≤ M zeitbegrenzte, zeitdiskrete Signale s(n) und g(n) miteinander und wiederholt dann das Korrelationsproasst sich v¨ollig entsprechend zu (3.45) dukt ϕE sg (n) mit der Periode M , dann l¨ 11 E die periodische Korrelationsfunktion ϕsg d (m) auch direkt aus den mit der Periode M wiederholten Ausgangssignalen sd (n) und gd (n) gewinnen (Aufgabe 4.20) ϕE sgd (m) =
M−1
s∗d (n)gd (n + m)
f¨ ur
m = 0...M − 1 .
(4.36)
n=0
Mit dem Faltungstheorem der DFT l¨ asst sich die periodische Korrelationsfunktion ebenfalls im Frequenzbereich12 berechnen (Tabelle 3.2) ϕE sgd (m)
Sd∗ (k) · Gd (k) .
(4.37)
In der sogenannten schnellen Korrelation“ wertet man die so gewonnene ” Beziehung mit der schnellen Fourier-Transformation aus.
4.7 Zusammenfassung Die Methoden zur Signalbeschreibung wurden in diesem Kapitel durch die ¨ Korrelation als Maß der Ahnlichkeit zweier determinierter reeller Signale erweitert. Die Definition des Korrelationskoeffizienten geht von der mittleren quadratischen Abweichung zweier auf die Energie Eins normierter Energiesignale aus. Es zeigt sich, dass der Korrelationskoeffizient und allgemeiner die Korrelationsfunktion sehr eng mit den bisher eingef¨ uhrten Signalbeschreibungen zusammenh¨ angen. Insbesondere l¨ asst sich die unnormierte Impulskorrelationsfunktion sehr einfach in ein Faltungsprodukt umschreiben ∗ ϕE sg (τ ) = s (−τ ) ∗ g(τ ) .
Bildet man speziell f¨ ur die Autokorrelationsfunktion aus dieser Beziehung die Fourier-Transformierte, so ergibt sich das Energiedichtespektrum 11
12
Diese periodische Korrelationsfunktion weicht auf Grund der zyklischen Fortsetzung von der, bei zwei endlichen Signalen der L¨ angen M1 und M2 nur u ¨ber einen Bereich der L¨ ange M1 + M2 − 1 von Null verschiedenen, direkt berechneten echten“ Korrelationsfunktion ϕE sg (m) ab. ” d.h. durch Bestimmung des Kreuzenergiedichtespektrums und R¨ ucktransformation; um hiermit die Korrelationsfunktion ϕE sg (m) zu berechnen, ist wieder wie bei der Faltung die Ausf¨ uhrung einer DFT mit L¨ ange ≥ M1 +M2 −1 erforderlich.
4.8 Aufgaben
ϕE ss (τ )
129
|S(f )|2 .
Setzt man in dieser Form τ = 0, so folgen Ausdr¨ ucke f¨ ur die Signalenergie im Zeit- und Frequenzbereich (Parseval’sches Theorem). Recht einfache Zusammenh¨ ange bestehen schließlich auch zwischen den Korrelationsfunktionen des Ein- bzw. Ausgangssignals von LTI-Systemen in Form der Wiener-Lee-Beziehung. Abschließend werden diese Begriffe auf zeitdiskrete (z. B. digitale) Signale und Systeme angewandt. Die eigentliche Bedeutung des Korrelationsbegriffs in der Nachrichtentechnik wird allerdings erst im Zusammenhang mit der Darstellung von Zufallssignalen deutlich, wie sie beginnend mit Kap. 6 noch behandelt werden.
4.8 Aufgaben 4.1 Zeigen Sie, dass f¨ ur den normierten Kreuzkorrelationskoeffizienten |pE sg | ≤ 1 gilt und dass die Multiplikation eines Signals mit einer positiven, andert. reellen Konstante pE sg nicht ¨ Hinweis: Benutzen Sie die Schwarz’sche Ungleichung " b "2 " " b b " " " f (x)g(x)dx" ≤ |f (x)|2 dx · |g(x)|2 dx " " " " a
a
a
f¨ ur f (x) und g(x) reell- oder komplexwertige, in (a; b) definierte Funktionen (Papoulis, 1962). Die Gleichheit wird dabei erreicht f¨ ur f (x) = g ∗ (x). 4.2 Zeigen Sie, dass gerade und ungerade Komponenten eines beliebigen reellen Signals zueinander orthogonal sind. Geben Sie den Beweis anschließend auch f¨ ur komplexwertige Signale. 4.3 Die Korrelationsfunktion von Leistungssignalen kann definiert werden als ϕLsg (τ )
1 = lim T →∞ 2T
T s(t)g(t + τ )dt . −T
a) Berechnen Sie die Leistung und die Autokorrelationsfunktion ϕLss (τ ) der Signale s1 (t) = a cos(2πt), s2 (t) = a sin(2πt) und s3 (t) = ε(t). b) Berechnen Sie die Kreuzkorrelationsfunktion der Signale s1 (t) und s2 (t). 4.4 Beweisen Sie Satz (4.15). 4.5 Zeigen Sie, dass das Korrelationsprodukt ϕE sg (τ ) = s(τ ) g(τ ) nicht kommutativ und nicht assoziativ, aber distributiv zur Addition ist.
130
4. Korrelationsfunktionen determinierter Signale
4.6 Das Signal s(t) der Dauer T1 wird mit dem Signal g(t) der Dauer T2 korreliert. Welche Dauer hat die Kreuzkorrelationsfunktion ϕE sg (τ )? 4.7 Berechnen Sie die in Abb. 4.2 dargestellten Korrelationsfunktionen sowie die Autokorrelationsfunktion des Doppelrechteckimpulses g(t). 4.8 Suchen Sie, ausgehend von den zwei orthogonalen Signalen in Abb. 4.2, eine beliebige gerade reelle Funktion, die zu s(t) orthogonal ist, und eine ungerade reelle Funktion, die zu g(t) orthogonal ist. Zeigen Sie dann, dass alle vier Signale zueinander paarweise orthogonal sind. 4.9 Berechnen Sie Energie, Autokorrelationsfunktion und Energiedichtespektrum des Gauß-Impulses (1.2), der Dreiecksfunktion Λ(t) und der siFunktion si(πt). 4.10 Es soll die Abh¨ angigkeit der Kreuzkorrelationsfunktion ϕE f g (τ ) von E der Autokorrelationsfunktion ϕss (τ ) im LTI-System nach Abb. 4.7 berechnet werden.
Abb. 4.7. Zu Aufgabe 4.10
4.11 Wie lauten Autokorrelationsfunktion und Energiedichtespektrum des doppelten Dirac-Impulses s(t) = δ(t) + δ(t − T )? 4.12 Zeigen Sie, dass ein Energiesignal s(t) und seine Hilbert-Transformierte sˆ(t) = s(t) ∗ [1/(πt)] (vgl. Abschn. 2.8) orthogonal sind. 4.13 Das Signal s(t) = si(πt/T ) wird u ¨ber ein ideales Laufzeitsystem der Impulsantwort h(t) = δ(t − nT ) u ¨bertragen. Zeigen Sie an diesem Systembeispiel mit Hilfe der Beziehung (4.28), dass die si-Funktion s(t) orthogonal zu allen um ganzzahlige Vielfache von T verschobenen si-Funktionen s(t − nT ) ist. 4.14 Zeigen Sie mit der Beziehung aus Aufgabe 2.21, dass das Energiedichtespektrum beschr¨ ankt ist auf ∞ |S(f )| ≤
|ϕE ss (τ )|dτ .
2
−∞
4.15 Zeigen Sie, dass die Kreuzkorrelationsfunktion beschr¨ankt ist durch / E |ϕE ϕE ss (0) · ϕgg (0) . sg (τ )| ≤ Hinweis: Benutzen Sie die Schwarz’sche Ungleichung (s. Aufgabe 4.1).
4.8 Aufgaben
131
4.16 Zeigen Sie die G¨ ultigkeit der Fl¨ achenbeziehung ∞
∞ ϕE sg (τ )dτ
−∞
∞ s(t)dt ·
= −∞
g(t)dt = S(0) · G(0) .
−∞
4.17 Zwei Energiesignale werden addiert (subtrahiert). Unter welcher Bedingung ist die Gesamtenergie gleich der Summe der einzelnen Energien? 4.18 Skizzieren Sie die Autokorrelationsfunktion des zeitdiskreten Signals s(n) = n[ε(n) − ε(n − 5)] . (Diese Aufgabe wurde bereits in Aufgabe 3.13 mit der Papierstreifenmetho” de“ gel¨ ost.) 4.19 Barker-Folgen sind bin¨ are, zeitdiskrete Signale der L¨ange M mit den Werten ±1, sie besitzen die Eigenschaft (L¨ uke, 1992) |ϕE ss (m)| ≤ 1
f¨ ur
m = 0 .
ur zwei der folgenden Barker-Folgen (Barker-Folgen Skizzieren Sie ϕE ss (m) f¨ sind f¨ ur M > 13 nicht bekannt) M 2 3 4 5 7 11 13
s(n) +− ++− + + −+ +++−+ +++−−+− +++−−−+−−+− +++++−−++−+−+
Wie groß ist die Energie einer Barker-Folge? 4.20 Skizzieren Sie die periodische Autokorrelationsfunktion ϕE ssd (m) nach (4.36) f¨ ur eine der Barker-Folgen aus Aufgabe 4.19. 4.21 Rademacher-Folgen sind bin¨ are zeitdiskrete Folgen der L¨ange M = 2r , es gilt i
si (n) = (−1)int(n/2 ) ,
n = 0 · · · M − 1 , i = 0, . . . , r , int(x) : gr¨ oßte ganze Zahl ≤ x .
F¨ ur ein gegebenes r bilden die r + 1 Rademacher-Folgen si (n) ein System orthogonaler Folgen. ur r = 3. a) Berechnen Sie si (n) f¨ b) Die Rademacher-Folgen ergeben zusammen mit allen ihren unterschiedlichen Produktfolgen si (n) · sj (n) das orthogonale System der WalshFolgen. Zeichnen Sie diese Produktfolgen. Wieviele Walsh-Folgen der L¨ ange M gibt es? Zeigen Sie die Orthogonalit¨at der Walsh-Folgen.
5. Systemtheorie der Tiefpassund Bandpasssysteme
In der Systemtheorie werden die Eigenschaften idealisierter LTI-Systeme mit dem Ziel betrachtet, die Vielfalt der Eigenschaften realer Systeme besser u onnen. K¨ upfm¨ uller, der diese Methode in die Nachrich¨berschauen zu k¨ tentechnik eingef¨ uhrt hat, schreibt hierzu es werden willk¨ urlich bestimmte ” ¨ Wechselstromeigenschaften der Ubertragungssysteme angenommen; es wird ¨ dann gefragt, wie sich ein so gekennzeichnetes System bei der Ubertragung von Nachrichten verh¨ alt“ (K¨ upfm¨ uller, 1949).1 Im Folgenden werden als die wichtigsten idealisierten LTI-Systeme das verzerrungsfreie System, der Tiefpass und der Bandpass vorgestellt und in ihren Eigenschaften im Zeit- und Frequenzbereich diskutiert. Ebenso werden idealisierte zeitdiskrete (digitale) Systeme behandelt.
5.1 Das verzerrungsfreie System Ein System wird dann ein verzerrungsfreies System genannt, wenn das Eingangssignal s(t) und das Ausgangssignal g(t) der Gleichung g(t) = h0 s(t − t0 ) = s(t) ∗ [h0 δ(t − t0 )],
h0 , t0 reell konstant
(5.1)
gen¨ ugen, wenn also das Eingangssignal, abgesehen von einem Amplitudenfaktor h0 und einer Zeitverschiebung t0 , formgetreu zum Ausgang des Systems u ¨bertragen wird (Abb. 5.1).
Abb. 5.1. Ein- und Ausgangssignal eines verzerrungsfreien Systems 1
Karl K¨ upfm¨ uller (1897–1977), dt. Ingenieur.
134
5. Systemtheorie der Tiefpass- und Bandpasssysteme
¨ Danach gilt f¨ ur die Impulsantwort h(t) sowie f¨ ur die Ubertragungsfunktion H(f ) eines verzerrungsfreien Systems h(t) = h0 δ(t − t0 ) (5.2) H(f ) = h0 e−j2πt0 f . ¨ Betrag |H(f )| = h0 und Phase ϕ(f ) = −2πt0 f der Ubertragungsfunktion des verzerrungsfreien Systems sind in Abb. 5.2 wiedergegeben.
¨ Abb. 5.2. Ubertragungsfunktion eines verzerrungsfreien a Betrag und b Phase
Systems nach
¨ LTI-Systeme, deren Ubertragungseigenschaften von diesen idealen Eigenschaften eines verzerrungsfreien Systems abweichen, u ¨ bertragen Signale nicht formgetreu, es entstehen lineare Verzerrungen. Diese sind u ¨ ber die Faltungs¨ gleichung beschrieben, und k¨ onnen ausschließlich in einer Anderung von Betrag und Phase der Frequenzkomponenten des Eingangssignals resultieren.2 Ein System mit der Eigenschaft |H(f )| = const. bei beliebigem Phasenverlauf wird Allpass genannt. ¨ Anmerkung: Neben Betrag und Phase oder Real- und Imagin¨arteil der Ubertragungsfunktion werden h¨ aufig zur Charakterisierung der Eigenschaften allgemeiner LTI-Systeme noch folgende Maße herangezogen:
2
¨ Andere, bei Ubertragung oder Verarbeitung im Nutzfrequenzbereich eines Signals entstehende signalabh¨ angige Komponenten werden nichtlineare Verzerrungen genannt. Sie lassen sich nicht durch die Faltungsoperation beschreiben (vgl. Kap. 3 Fußnote 5).
5.2 Tiefpasssysteme
135
a) D¨ampfungsmaß 3 a(f ) = −20 lg |H(f )| dB a(f ) = − ln |H(f )| Np ,
bzw.
(5.3) (5.4)
b) D¨ampfungswinkel b(f ) = −ϕ(f ) ,
(5.5)
c) Phasenlaufzeit tp (f ) = −
ϕ(f ) , 2πf
(5.6)
d) Gruppenlaufzeit tg (f ) = −
1 dϕ(f ) . 2π df
(5.7)
Demnach hat also ein verzerrungsfreies System ein u ¨ ber f konstantes D¨ampfungsmaß sowie eine konstante Phasen- und Gruppenlaufzeit (t0 = tp = tg ). Die Begriffe Gruppen- und Phasenlaufzeit und die Bedingung f¨ ur verzerrungs¨ freie Ubertragung werden in Abschn. 5.4.7 eingehend diskutiert.
5.2 Tiefpasssysteme 5.2.1 Der ideale Tiefpass ¨ a) Ubertragungsfunktion und Impulsantwort. Der ideale Tiefpass be¨ sitzt eine Ubertragungsfunktion, die f¨ ur Frequenzen unterhalb einer Grenzfrequenz fg die Bedingung f¨ ur ein verzerrungsfreies System erf¨ ullt. Dieser Bereich heißt Durchlassbereich. Oberhalb der Grenzfrequenz erstreckt sich ¨ der Sperrbereich, in dem die Ubertragungsfunktion zu Null wird. ¨ Die Ubertragungsfunktion des idealen Tiefpasses lautet also, wenn die Verz¨ ogerungszeit des idealisierten Systems als Null angenommen wird, f H(f ) = rect 2fg (5.8) h(t) = 2fg si(π2fg t). ¨ Die Ubertragungsfunktion und die durch Fourier-Transformation mit (2.55) gewonnene Impulsantwort sind in Abb. 5.3 aufgetragen. 3
Die Pseudoeinheiten dB (Dezibel) und das nur noch selten verwendete Np (Neper) kennzeichnen die Basis 10 bzw. e des benutzten Logarithmus (DIN 5493 s. Anhang zum Literaturverzeichnis: DIN Taschenbuch 22). Die Einheit B ist nach Alexander Graham Bell benannt.
136
5. Systemtheorie der Tiefpass- und Bandpasssysteme
¨ Abb. 5.3. Ubertragungsfunktion und Impulsantwort des idealen Tiefpasses der Grenzfrequenz fg
Der Verlauf der Impulsantwort zeigt, dass der ideale Tiefpass kein kausales System ist: Die Antwort auf den bei t = 0 erregenden Dirac-Impuls ist bereits f¨ ur negative Zeiten vorhanden.4 Trotzdem lassen sich im Sinn der Systemtheorie gerade an diesem idealisierten Tiefpass mehrere wichtige und auch f¨ ur reale Tiefpasssysteme g¨ ultige Beziehungen zwischen dem Verhalten im Zeit- und Frequenzbereich u ¨ber¨ sichtlich ableiten. Hierzu werden zun¨ achst die Dauer und das Uberschwingen der Impulsantwort betrachtet. Die Impulsantwort h(t) ist gegen¨ uber dem erregenden Dirac-Impuls verbreitert. Als ihre Signaldauer tm wird die Breite eines Rechtecks definiert, dessen H¨ ohe der maximalen H¨ ohe hmax von h(t) entspricht und dessen Fl¨ache gleich der unter h(t) liegenden Fl¨ ache ist (in Abb. 5.3 rechter Teil gestrichelt eingetragen). Es gilt (Aufgabe 2.24) tm =
1 hmax
+∞
−∞
h(t)dt = H(0)/hmax .
(5.9)
Damit ergibt sich f¨ ur den idealen Tiefpass (Abb. 5.3) tm =
1 . 2fg
(5.10)
Die Signaldauer tm der Impulsantwort h(t) eines idealen Tiefpasses ist also umgekehrt proportional der Bandbreite des Tiefpasses. Es gilt hier f g · tm =
1 . 2
(5.11)
Dieser Zusammenhang gilt in der Form 4
Wie sich Kausalit¨ at als Mindestforderung physikalischer Realisierbarkeit auf die ¨ Ubertragungsfunktion auswirkt, wird in Abschn. 5.2.1c an einem Beispiel behandelt.
5.2 Tiefpasssysteme
fg · tm = const.
137
(5.12)
allgemein f¨ ur beliebige Tiefpasssysteme (abgek¨ urzt TP-Systeme), wobei die Konstante, das sogenannte Zeit-Bandbreite-Produkt, je nach Tiefpass-System und spezieller Definition der Signaldauer und Bandbreite verschiedene Werte annehmen kann (Aufgabe 6.23). Gleichung (5.12), die auch mit Unsch¨ arferelation oder Zeitgesetz der ” Nachrichtentechnik“ bezeichnet wird, dr¨ uckt aus, dass die Dauer und die Bandbreite einer Zeitfunktion nicht gleichzeitig beliebig klein werden k¨onnen: Will man eine geringe Impulsdauer erhalten, so ist das nur durch eine Vergr¨ oßerung der Bandbreite zu erreichen. Umgekehrt f¨ uhrt eine Verringerung der Bandbreite zu einer Verl¨ angerung des Ausgangsimpulses, ein Sachverhalt, ¨ der bereits aus dem Ahnlichkeitstheorem (2.40) f 1 S s(bt) |b| b und aus der Diskussion der Abtasttheoreme bekannt ist. Als Maß f¨ ur das ¨ Uberschwingen der Impulsantwort kann das Verh¨altnis der Amplitude a1 des dem Betrage nach gr¨ oßten Nebenmaximums von h(t) zur Amplitude a0 des Hauptmaximums definiert werden (Abb. 5.4). F¨ ur den idealen Tiefpass folgt 5 ¨ aus den Eigenschaften der si-Funktion u = |a ¨ 1 /a0 | = 21, 72%. Das Uberschwingen u des idealen Tiefpasses ist also unabh¨ a ngig von der Grenzfre¨ quenz.
¨ Abb. 5.4. Uberschwingen der Impulsantwort h(t) eines idealen Tiefpasses
b) Sprungantwort des idealen Tiefpasses. Entsprechend (1.37) gilt f¨ ur die Sprungantwort hε (t) des betrachteten idealen Tiefpasses t t hε (t) = h(τ )dτ = 2fg si(2πfg τ )dτ −∞
= 2fg 5
−∞
0
−∞
si(2πfg τ )dτ +
t
si(2πfg τ )dτ 0
S. Diagramme im Anhang zu diesem Kapitel.
.
138
5. Systemtheorie der Tiefpass- und Bandpasssysteme
Hieraus ergibt sich durch Einf¨ uhren der Integralsinusfunktion Si(x) x Si(x) = si(ξ)dξ
(5.13)
0
mit den Eigenschaften Si(−x) = − Si(x) und Si(∞) = π/2 als Ergebnis hε (t) = 2fg
1 1 1 1 + Si(2πfg t) = + Si(2πfg t) . 4fg 2πfg 2 π
(5.14)
ur t → ∞ verl¨auft diese Abb. 5.5 zeigt den Verlauf von hε (t) (s. Fußnote 5). F¨ Sprungantwort asymptotisch gegen hε (∞) = 1.
Abb. 5.5. Antwort hε (t) des idealen Tiefpasses auf die Sprungfunktion ε(t)
Ebenso wie f¨ ur die Impulsantwort k¨ onnen auch f¨ ur die Sprungantwort hε (t) entsprechende Kennwerte angegeben werden: Die Einschwingzeit te wird definiert als Anstiegszeit der in Abb. 5.5 gestrichelt eingetragenen begrenzten Rampenfunktion, deren Steigung gleich der maximalen Steigung von hε (t) ist und deren H¨ ohe den Wert hε (∞) aufweist. Diese Definition, angewandt auf die Sprungantwort hε (t) des idealen Tiefpasses, ergibt mit (5.14)
d max hε (t) = max[h(t)] = h(0) = 2fg . (5.15) dt Mit (5.13) und (5.14) ist
5.2 Tiefpasssysteme
hε (∞) = 1 .
139
(5.16)
Damit betr¨ agt die Anstiegszeit der begrenzten Rampenfunktion und die Einschwingzeit des idealen Tiefpasssystems te =
hε (∞) 1 d = . 2fg max dt hε (t)
(5.17)
Der Vergleich mit (5.10) zeigt, dass beim idealen Tiefpass die Signaldauer tm der Impulsantwort h(t) mit der Einschwingzeit te der Sprungantwort hε (t) ¨ u ur das Uberschwingen der ¨bereinstimmt tm = te = 1/(2fg). Als Maß u ¨ε f¨ Sprungantwort von Tiefpasssystemen wird das Verh¨altnis der Abweichung des Maximums a0 von hε (t) zur H¨ ohe hε (∞) definiert, es ist (s. Fußnote 5) " " " a0 − hε (∞) " " = 8,95% . uε = "" ¨ hε (∞) " Bemerkenswert ist, dass beim idealen Tiefpass die Gr¨oße u ¨ε wiederum unabh¨angig von der endlichen Bandbreite des Tiefpasses und nur eine Eigenschaft der Integralsinusfunktion ist. Der Vergleich zwischen den Abb. 5.5 und 5.6 l¨asst erkennen, dass durch eine Vergr¨ oßerung der Grenzfrequenz fg eines idealen Tiefpasses zwar die Einschwingzeit te verkleinert werden kann, der ¨ jedoch nicht zu beeinflussen ist.6 Wert u ¨ ε des Uberschwingens
Abb. 5.6. Sprungantwort hε (t) eines idealen Tiefpasses mit relativ großer Grenzfrequenz fg bei gleichem Zeitmaßstab wie in Abb. 5.5
Im Grenzfall fg → ∞ ist die Differenz zwischen hε (t) und ε(t) eine Nullfunktion (Fußnote 3 in Kap. 1). 6
¨ Diese Konstanz des Uberschwingens ist als Gibbssches Ph¨ anomen bekannt. Sie wurde an einem mechanischen Fourier-Synthetisator entdeckt und zun¨ achst f¨ ur einen Ger¨ atefehler gehalten, dann aber 1899 von dem amer. Physiker J. W. Gibbs theoretisch gekl¨ art. Es tritt grunds¨ atzlich auf, wenn eine Zeitfunktion, die eine Diskontinuit¨ ar (Amplitudensprung) enth¨ alt, durch ein bandbegrenztes Spektrum approximiert werden soll. In Umkehrung der Zeit- und Frequenzbezie¨ hungen treten aber auch - wie im Folgenden behandelt - Uberschwinger an den Frequenzbandgrenzen auf, wenn eine begrenzte Zeitfunktion zur Approximation der Impulsantwort eines idealen Filters verwendet wird.
140
5. Systemtheorie der Tiefpass- und Bandpasssysteme
c) Approximation des idealen Tiefpasses durch kausale LTI-Systeme. Der Verlauf sowohl der Impulsantwort h(t) als auch der Sprungantwort hε (t) eines idealen Tiefpasses zeigt, dass h(t) und hε (t) f¨ ur negative t nicht verschwinden und daher die Impuls- bzw. Sprungantwort eines nichtkausalen und also auch nicht realisierbaren LTI-Systems darstellen. Man kann aber ein kausales LTI-System angeben, dessen Impulsantwort, abgesehen von einer konstanten zeitlichen Verschiebung t0 , zumindest n¨aherungsweise mit der Impulsantwort des idealen Tiefpasses u ¨ bereinstimmt. Hierzu verschiebt man, wie das in Abb. 5.7 dargestellt ist, die Impulsantwort des idealen Tiefpasses um eine Zeit t0 , so dass die im Bereich t < 0 liegenden Anteile der verschobenen Impulsantwort nach Maßgabe einer vorgegebenen Fehlerschranke vernachl¨ assigbar sind.
Abb. 5.7. Impulsantwort hk (t) eines kausalen Tiefpasssystems
Multipliziert man die um t0 verschobene Impulsantwort des idealen Tiefpasses mit der in Abb. 5.7 gestrichelten rechteckf¨ormigen Fensterfunktion w(t) = rect[(t − t0 )/(2t0 )], so erh¨ alt man die kausale, zu t0 symmetrische ¨ Impulsantwort hk (t), der durch Fourier-Transformation die Ubertragungsfunktion Hk (f ) zugeordnet werden kann. ∗ δ(t − t0 ) hk (t) = 2fg si(2πfg t) · rect 2tt0 (5.18) Hk (f ) =
rect
f 2fg
∗ 2t0 si(2πt0 f ) · e−j2πt0 f .
¨ Es zeigt sich, dass die eigentlich gew¨ unschte Ubertragungsfunktion rect[f /(2fg )] mit einer si-Funktion gefaltet wird. Spaltet man die Rechteckfunktion in zwei Sprungfunktionen auf, dann zeigt sich, dass Hk (f ) aus der ¨ Uberlagerung zweier im Frequenzbereich bei ±fg in ungerader Symmetrie angeordneter Si-Funktionen (5.13) besteht. In Abb. 5.8 sind der prinzipielle Verlauf des Betrages von Hk (f ), des D¨ampfungsmaßes a(f ) nach (5.3) sowie des Phasenwinkels ϕ(f ) wiedergegeben. Der Phasenwinkel hat also hier einen linearen Verlauf, es treten kei¨ ne Phasenverzerrungen auf. Bedingung hierf¨ ur ist, dass die Ubertragungs-
5.2 Tiefpasssysteme
141
¨ Abb. 5.8. a Betrag, Phasenwinkel und b D¨ ampfungsmaß der kausalen Ubertragungsfunktion Hk (f )
funktion Hk (f ), abgesehen vom Verschiebungsfaktor exp(−j2πt0 f ), eine verschwindende Phasenfunktion ϕ(f ) = 0 besitzt. Dies ist nach (2.24) erf¨ ullt, wenn Hk (f ) (ohne den Verschiebungsfaktor) rein reell ist. Im Zeitbereich bedeutet dies allgemein, dass die Impulsantwort linearphasiger Systeme zu einem Verschiebungszeitpunkt t0 symmetrisch verlaufen muss. Dieses Beispiel veranschaulicht weiter die Aussage aus Abschn. 3.2, nach der ein Signal nicht im Zeit- und Frequenzbereich begrenzt sein kann. Die Fourier-Transformierte des jetzt zeitbegrenzten Signals hk (t) ist unendlich ¨ ausgedehnt. Die Ubertragungsfunktion Hk (f ) kann nur an einzelnen Punkten der Frequenzachse verschwinden, entsprechend k¨onnen im D¨ampfungsverlauf diskrete Polstellen auftreten.7 Dar¨ uber hinaus ist zu bemerken, dass auch Real- und Imagin¨arteil der ¨ Ubertragungsfunktion kausaler Systeme wegen der Beziehung u ¨ber die Hilbert-Transformation (2.77) nicht mehr unabh¨angig voneinander festgelegt werden k¨ onnen. ¨ 5.2.2 Tiefpasssysteme mit nichtidealer Ubertragungsfunktion ¨ Wie das Beispiel im vorangegangenen Abschn. 5.2.1c zeigt, muss die Ubertragungsfunktion realer Tiefp¨ asse von der Rechteckform des idealen Tiefpasses ¨ abweichen. Eine andere Form der Ubertragungsfunktion kann f¨ ur bestimmte Anwendungsf¨ alle sogar durchaus erw¨ unscht sein, beispielsweise um das ¨ recht starke Uberschwingen der Impulsantwort des idealisierten Tiefpasses zu vermindern. In diesem Abschnitt wird die Echomethode als ein bekanntes Verfahren der Systemtheorie vorgestellt, mit dem von der Rechteckform abweichende Tiefpass¨ ubertragungsfunktionen im Frequenz- und Zeitbereich u aherungsweise auch realisiert werden k¨onnen. ¨bersichtlich dargestellt und n¨ a) Echomethode. Nach dem Abtasttheorem l¨asst sich jedes Tiefpasssignal und also auch jede Impulsantwort eines Tiefpasssystems als Reihe von si7
In allgemeiner Form ist diese Aussage in der Paley-Wiener-Beziehung f¨ ur die Amplituden¨ ubertragungsfunktionen physikalisch realisierbarer Filter enthalten (Papoulis, 1962).
142
5. Systemtheorie der Tiefpass- und Bandpasssysteme
Funktionen darstellen, die im Abstand T = 1/(2fg) (fg : Grenzfrequenz) aufeinander folgen. Es gilt also mit (3.8) f¨ ur eine beliebige Tiefpassimpulsantwort t − nT h(nT ) si π h(t) = . T n=−∞ ∞
(5.19)
Abb. 5.9 stellt als Beispiel f¨ unf si-Funktionen als Komponenten einer geraden Impulsantwort dar (vgl. Abb. 3.6).
Abb. 5.9. Komponenten der Tiefpassimpulsantwort h(t) nach (5.19)
Diese Darstellung zeigt, dass die Impulsantwort eines allgemeinen Tiefpasssystems im Vergleich mit der Impulsantwort des idealen Tiefpasses durch zus¨ atzlich auftretende vor- und nacheilende si-Funktionen gekennzeichnet ist, die in diesem Zusammenhang auch Echos genannt werden. Die Zusammenh¨ ange zwischen den Abtastwerten oder Echoamplituden h(nT ) ¨ und der Ubertragungsfunktion H(f ) des Tiefpasssystems k¨onnen nach diesen Vorbemerkungen in einfacher Weise aufgestellt werden. Durch FourierTransformation von h(t) aus (5.19) folgt t − nT h(nT ) si π T n=−∞ ∞ t h(nT )δ(t − nT ) = si π ∗ T n=−∞
h(t) =
∞
H(f ) = T rect(T f ) ·
∞
h(nT )e−j2πnT f .
(5.20)
n=−∞
Ist umgekehrt H(f ) gegeben, so ergibt die inverse Fourier-Transformation die Echoamplituden h(nT ): Da H(f ) auf den Bereich |f | ≤ fg begrenzt ist, gilt mit der inversen Fourier-Transformation (2.6)
5.2 Tiefpasssysteme
143
fg
H(f )e j2πf t df ,
h(t) = −fg
und da zur Berechnung der Echoamplituden h(nT ) dieses Integral nur an den Stellen t = nT ausgewertet werden muss (vgl. (3.37))
fg
H(f )e j2πnT f df .
h(nT ) =
(5.21)
−fg
Ist im Sonderfall die Impulsantwort reell und gerade, also h(−nT ) = h(nT ) ¨ und damit die Ubertragungsfunktion reell und gerade, dann ergibt (5.20) mit der Eulerschen Beziehung exp(jx) + exp(−jx) = 2 cos(x) H(f ) = T rect(T f )[h(0) + 2
∞
h(nT ) cos(2πnT f )]
(5.22)
n=1
und (5.21) entsprechend8 h(nT ) = 2
fg
H(f ) cos(2πnT f )df .
(5.23)
0
Im Folgenden werden die M¨ oglichkeiten der Echomethode an drei Beispielen n¨aher erl¨ autert. b) Pulsformfilter. Als Pulsformfilter soll hier ein Tiefpasssystem bezeichnet werden, dessen Impulsantwort bei gegebener Bandbreite m¨oglichst schmal ¨ ist und ohne st¨ arkeres Uberschwingen abf¨ allt. Impulse dieser Form werden ¨ beispielsweise in der Ubertragungstechnik ben¨otigt, wo es gilt, u ¨ ber einen Tiefpasskanal gegebener Bandbreite eine Folge von Impulsen in geringem ¨ Abstand, aber ohne gegenseitige Uberlappung zu u ¨ bertragen (Kap. 7). Die Echomethode ist ein einfaches, u ¨bersichtliches Hilfsmittel zur Konstruktion ¨ geeigneter Ubertragungsfunktionen. Abb. 5.10 zeigt ein m¨ogliches Verfahren, ¨ bei dem das starke Uberschwingen der Impulsantwort h0 (t) des idealen Tiefpasses durch Addition von zwei Echos h−1 (t) und h1 (t), die symmetrisch achtlich vermindert werden kann. Entzu h0 (t) im Abstand T liegen, betr¨ sprechend (5.19) lautet die Impulsantwort des Pulsformfilters also h(t) = h0 (t) + h−1 (t) + h1 (t) t t+T t−T = si π + a si π + a si π . T T T
(5.24)
¨ Zur m¨ oglichst guten Kompensation des Uberschwingens werden jetzt die Echoamplituden a so bestimmt, dass zum Zeitpunkt t = 2T die Steigung 8
Nach dieser Beziehung k¨ onnen die Echoamplituden auch als Koeffizienten einer ¨ Fourier-Reihenentwicklung der Ubertragungsfunktion H(f ) im Bereich |f | ≤ fg interpretiert werden (Abschn. 3.2).
144
5. Systemtheorie der Tiefpass- und Bandpasssysteme
¨ Abb. 5.10. Kompensation des Uberschwingens der Impulsantwort eines idea¨ len Tiefpasses durch Uberlagerung je einer zus¨ atzlichen vor- und nacheilenden siFunktion
des nacheilenden Echos h1 (t) entgegengesetzt zur Steigung der Hauptkomponente h0 (t) ist und dass entsprechend zum Zeitpunkt t = −2T die Steigungen von h−1 (t) und h0 (t) entgegengesetzt gleich sind. Als Ergebnis folgt a = 1/2 ¨ (Aufgabe 5.10). Die Ubertragungsfunktion des Pulsformfilters ist dann mit (5.22) H(f ) = T rect(T f )[1 + cos(2πT f )] .
(5.25)
¨ Impulsantwort und Ubertragungsfunktion dieses sogenannten cosine roll” off“-Filters sind in Abb. 5.11 dargestellt.
¨ Abb. 5.11. Cosine rolloff“-Ubertragungsfunktion H(f ) und zugeh¨ orige Impul” santwort h(t)
¨ Das Uberschwingen der Impulsantwort dieses Filters ist mit u ¨ = 2% we¨ sentlich geringer als das Uberschwingen u ¨ = 21,7% des idealen Tiefpasses. Abb. 5.11 l¨ asst aber auch erkennen, dass durch das Kompensationsverfah-
5.2 Tiefpasssysteme
145
ren die mittlere Breite von h(t), verglichen mit der Signaldauer der Impulsantwort eines idealen Tiefpasses, vergr¨ oßert wird. Dieses Ergebnis gilt auch in der Umkehrung: Vergr¨ oßert man durch Vorzeichenumkehr der Echos in (5.24) ¨ das Uberschwingen, so wird die Signaldauer der Impulsantwort vermindert. Diese beiden F¨ alle werden in Abb. 5.12 f¨ ur die verringerten Echoamplituden von a = ±1/4 noch einmal miteinander und mit dem idealen Tiefpass verglichen.
Abb. 5.12. Vergleich von Tiefpasssystemen mit der Impulsantwort nach (5.24) f¨ ur unterschiedliche Echoamplituden a
Das Verhalten dieser Tiefpasssysteme zeigt einen f¨ ur alle Tiefp¨asse mit linearer Phase g¨ ultigen Zusammenhang:9 ¨ a) Ein zur Grenzfrequenz hin abfallender Betrag der Ubertragungsfunk¨ tion vermindert das Uberschwingen und vergr¨oßert die Signaldauer der Impulsantwort sowie die Einschwingzeit. ¨ b) Ein zur Grenzfrequenz hin ansteigender Betrag der Ubertragungsfunk¨ tion vergr¨ oßert das Uberschwingen und vermindert die Signaldauer der Impulsantwort sowie die Einschwingzeit. 9
Vergleiche Aufgabe 5.8. In ¨ ahnlicher Weise k¨ onnen auch Tiefpasssysteme mit Phasenverzerrungen diskutiert werden, indem man unsymmetrische Echopaare zuf¨ ugt (Aufgabe 5.9).
146
5. Systemtheorie der Tiefpass- und Bandpasssysteme
¨ c) Tiefpasssysteme mit welliger Ubertragungsfunktion. Auch in diesem Abschnitt wird wieder der einfachste Fall angenommen, dass die Impulsantwort des idealen Tiefpasses durch ein symmetrisches Echopaar erweitert wird, nur sollen diese Echokomponenten jetzt in gr¨oßerem Abstand cT zur Hauptkomponente h0 (t) liegen. Durch Modifikation von (5.24) und (5.25) gilt dann t t + cT t − cT h(t) = si π + a si π + a si π T T T (5.26) H(f ) = T rect(T f )[1 + 2a cos(2πcT f )] . Beide Funktionen sind f¨ ur c = 4 in Abb. 5.13 dargestellt.
¨ Abb. 5.13. Komponenten der Impulsantwort h(t) und zugeordnete Ubertragungsfunktion H(f ) eines Tiefpasssystems mit Echoverzerrungen
Das symmetrische Echopaar vergr¨ oßert die Signaldauer der Impulsantwort sehr stark und bewirkt im Frequenzbereich wieder einen cos-f¨ormigen Ver¨ lauf der Ubertragungsfunktion. Die Zahl der Perioden im Durchlassbereich ist gleich c, sie nimmt also mit dem Echoabstand zu. Praktisch treten a¨hnlich strukturierte Verzerrungen durch Echos auf, die im gr¨oßeren Abstand zur ¨ Hauptkomponente liegen, beispielsweise bei der Ubertragung u ¨ ber Leitungen ¨ oder Funkkan¨ ale mit Reflexionen. Derartige wellige Ubertragungsfunktionen sind meist recht unerw¨ unscht, sie k¨ onnen mit Hilfe flexibler Transversalfilter ausgeglichen werden, wie sie im n¨ achsten Abschnitt und als adaptive Entzerrer in Abschn. 7.2.8 beschrieben werden. d) Transversalfilter. Die Echomethode ist nicht nur ein brauchbares Verfahren zur Beschreibung von Tiefpasssystemen, sondern sie kann auch zu einer u ¨ bersichtlichen Realisierung solcher Systeme dienen. Prinzipiell kann eine Tiefpassimpulsantwort nach (5.19) durch die in Abb. 5.14 dargestellte Struktur verwirklicht werden. Diese Schaltung besteht aus einem idealen Tiefpass, an dessen Ausgang Laufzeitglieder mit den Verz¨ogerungszeiten ±T liegen. Die an den Ausg¨ angen der Laufzeitglieder erscheinenden verz¨ ogerten si-Funktionen der Form si[π(t−nT )/T ] werden in Koeffizientenpotentiometern mit den konstanten Echoamplituden h(nT ) multipliziert
5.2 Tiefpasssysteme
147
Abb. 5.14. Prinzip-Schaltung zur Realisierung von Tiefpasssystemen
und zu h(t) aufsummiert. Eine derartige Schaltung wird Transversalfilter genannt. Das in Abb. 5.14 dargestellte Transversalfilter kann in dieser Form nicht realisiert werden, da es Verz¨ ogerungsglieder mit negativer Verz¨ogerungszeit und einen idealen Tiefpass enth¨ alt. Diese nichtkausalen Verz¨ogerungsglieder lassen sich bei Transversalfiltern endlicher L¨ ange vermeiden, wenn man eine gemeinsame Grundverz¨ ogerung des gesamten Systems zul¨asst. Die sich damit ergebende Schaltung eines realisierbaren Transversalfilters mit vier kausalen Verz¨ ogerungsgliedern und einem vorgeschalteten realen Tiefpass zeigt Abb. 5.15 (Sch¨ ußler, 1963).
Abb. 5.15. Realisierbares Transversalfilter
Diese Transversalfilterstruktur ist auch besonders gut zum Aufbau zeitdiskreter Filter mit begrenzter Impulsantwort (FIR-Filter: finite impulse response) ¨ geeignet. Uberlegungen zu den Eigenschaften idealer und realer zeitdiskreter Tiefp¨ asse werden im folgenden Abschn. 5.3 angestellt.
148
5. Systemtheorie der Tiefpass- und Bandpasssysteme
5.3 Zeitdiskrete Tiefpasssysteme ¨ Der ideale zeitdiskrete Tiefpass besitzt die rechteckf¨ormige Ubertragungsfunktion des analogen Tiefpasses in periodischer Wiederholung, seine Impulsantwort bildet entsprechend eine zeitdiskrete si-Funktion (Abb. 5.16).
n
n
¨ Abb. 5.16. Ubertragungsfunktion, Impuls- und Sprungantwort des idealen zeitdiskreten Tiefpasses (vgl. Abb. 3.18)
Der ideale zeitdiskrete Tiefpass ist also wie der ideale analoge Tiefpass nicht kausal. Ein realisierbarer Tiefpass kann entsprechend dem Vorgehen in Abschn. 5.2.1c durch Verschieben und Wichten der Impulsantwort mit einer Fensterfunktion w(n) synthetisiert werden. Bei rechteckf¨ormiger Fensterfunktion erh¨ alt man die in Abb. 5.17 gezeigten Filterfunktionen hk (n) und Hak (f ), die den Funktionen in Abb. 5.7 und 5.8 entsprechen. Bei dieser rechteckf¨ormigen ¨ Fensterfunktion setzt sich die Ubertragungsfunktion entsprechend (5.18) aus einer unendlichen Reihe von jeweils bei f = k ± fg positionierten, symmetrischen Paaren von Si-Funktionen zusammen.
n
¨ Abb. 5.17. Impulsantwort und Ubertragungsfunktion des kausalen, linearphasigen, diskreten Tiefpasses bei rechteckf¨ ormiger Fensterfunktion w(n)
5.3 Zeitdiskrete Tiefpasssysteme
149
¨ Aus dem starken Uberschwingen der si-Funktion von etwa 9% folgt eine minimale Sperrd¨ ampfung des Filters von nur −20 lg 0,09 ≈ 21 dB. Durch weniger ¨ steilflankig verlaufende Fensterfunktionen kann das Uberschwingen vermin¨ dert werden. Dies geht allerdings auf Kosten der Flankensteilheit der Ubertragungsfunktion. Geeignete Fensterfunktionen sind in der Regel symmetrisch, so dass sich die zumeist erw¨ unschten symmetrischen Impulsantworten linearphasiger Filter (Abschn. 5.2.1c) ergeben. Zwei Fensterfunktionen sind zusammen mit den D¨ ampfungsverl¨ aufen der zugeh¨ origen Tiefp¨asse in Abb. 5.18 dargestellt.
Abb. 5.18. a Fensterfunktionen und b D¨ ampfungsverl¨ aufe von Tiefpassfiltern
Die so gefundenen Filterverl¨ aufe k¨ onnen direkt durch zeitdiskrete Transversalfilterstrukturen (entsprechend Abb. 5.15) realisiert werden. Diese werden meist in rein digitaler Technik aufgebaut. Die Laufzeitelemente k¨onnen dann z. B. durch Schieberegister oder Speicher mit wahlfreiem Zugriff (RAM) realisiert werden. Werden die Berechnungen auf Prozessoren (Universelle Mikroprozessoren oder spezielle Signalprozessoren) durchgef¨ uhrt, so wird ein flexibler Gesamtaufbau mit einfacher Adaptierbarkeit an spezielle Anforderungen erm¨ oglicht. Die Filterung analoger Signale setzt eine vorhergehende Abtastung und Quantisierung voraus. Die Quantisierung erzeugt dabei zus¨ atzlich Rundungsfehler, die sich dem gefilterten Signal als eine Art Rauschen u ¨ berlagern (s. Abschn. 7.4.2 u ¨ ber PCM-Verfahren). Die Realisierung durch eine Transversalfilterstruktur (Abb. 5.15) ist bei Impulsantworten endlicher Dauer immer m¨ oglich und f¨ uhrt stets zu stabilen Filtern. Eine andere Art des Filteraufbaues benutzt rekursive Strukturen (Abb. 3.14). Rekursive Filter erfordern z. B. bei Tiefpassfiltern mit vorgegebenem, steilflankigem D¨ ampfungsverlauf i. Allg. geringeren Aufwand an Laufzeitgliedern und Koeffizientenmultiplikatoren, daf¨ ur kann mit ihnen Linearphasigkeit nur n¨ aherungsweise erreicht werden, weiter ist ihre Stabilit¨at, z. B. bei Verarbeitung mit begrenzter Wortl¨ ange (Integer-Arithmetik) unter Umst¨ anden problematisch. F¨ ur eine genauere Behandlung dieser Filtertypen und passender Entwurfsverfahren muss hier auf die Literatur verwiesen werden (Oppenheim und Schafer, 1995; Hamming, 1988; Lacroix, 1996).
150
5. Systemtheorie der Tiefpass- und Bandpasssysteme
5.4 Bandpasssysteme und Bandpasssignale 5.4.1 Der ideale Bandpass Der ideale Bandpass erf¨ ullt die Bedingungen eines verzerrungsfreien Systems nur innerhalb eines endlichen Durchlassbereiches der Bandbreite f∆ , der die Frequenz Null nicht enth¨ alt. Außerhalb dieses Durchlassbereiches wird die ¨ ¨ Ubertragungsfunktion zu Null. Als Ubertragungsfunktion wird entsprechend Abb. 5.19 definiert f − f0 f + f0 (5.27) + rect mit f0 > f∆ /2 . H(f ) = rect f∆ f∆ Schreibt man die Verschiebung der rect-Funktionen um die Mittenfrequenz f0 als Faltungsprodukt, dann lautet die Impulsantwort des idealen Bandpasses (Abb. 5.19) H(f ) = rect ff∆ ∗ [δ (f − f0 ) + δ(f + f0 )] (5.28) h(t) = f∆ si(πf∆ t) · 2 cos(2πf0 t). In der Schreibweise (5.28) kann ein idealer Bandpass also im Frequenzbe¨ reich durch Verschieben der Ubertragungsfunktion eines idealen Tiefpasses der Grenzfrequenz f∆ /2 um die Mittenfrequenz f0 in positiver und negativer Richtung auf der Frequenzachse dargestellt werden. Entsprechend ist die Impulsantwort das Produkt der Impulsantwort des idealen Tiefpasses mit einer cos-Funktion der Frequenz f0 und der Amplitude 2. Diese M¨oglichkeit, ein Bandpasssystem durch ein sogenanntes ¨aquivalentes Tiefpasssystem zu beschreiben, wird im folgenden Abschnitt auf den allgemeinen Fall erweitert. Der Umgang mit Bandpasssignalen und Bandpasssystemen kann dadurch erheblich vereinfacht werden. An das allgemeine Bandpasssystem wird dabei im Folgenden nur die Bedingung H(0) = 0 gestellt, ansonsten kann die ¨ Ubertragungsfunktion einen beliebigen Verlauf annehmen. 5.4.2 Bandpasssystem und ¨ aquivalentes Tiefpasssystem Gegeben sei ein beliebiges Bandpasssystem H(f ) mit reeller Impulsantwort h(t). Nach Abschn. 2.4 muss also Re{H(f )} eine um f = 0 symmetrische, und Im{H(f )} eine um f = 0 antisymmetrische Funktion der Frequenz sein, wie es in Abb. 5.20 oben dargestellt ist. Entsprechend der Darstellung des idealen Bandpasses kann nun auch die ¨ ¨ Ubertragungsfunktion des beliebigen Bandpasssystems H(f ) durch die Uberaquivalenten Tiefpasses zusammen mit einer tragungsfunktion HT (f ) eines ¨ ¨ Frequenz f0 beschrieben werden. Hierzu wird zun¨achst die Ubertragungsfunktion H(f ) auf positive Frequenzen begrenzt, mit dem Faktor 2 multipliziert
5.4 Bandpasssysteme und Bandpasssignale
151
¨ Abb. 5.19. Ubertragungsfunktion H(f ) und Impulsantwort h(t) eines idealen Bandpasses
¨ Abb. 5.20. Real- und Imagin¨ arteil der Ubertragungsfunktion eines Bandpasssystems H(f ) und seines ¨ aquivalenten Tiefpasssystems HT (f )
und zur Bildung von HT (f ) um eine geeignete Frequenz, die im Folgenden Tr¨agerfrequenz f0 genannt wird, in Richtung negativer Frequenzen verschoben. ¨ Wie das in Abb. 5.20 dargestellte Beispiel zeigt, gilt dann f¨ ur die Ubertragungsfunktion H(f ) des Bandpasssystems, getrennt f¨ ur Real- und Imagin¨ arteil geschrieben, 1 1 Re{HT (f − f0 )} + Re{HT (−f − f0 )} 2 2 1 1 Im{H(f )} = Im{HT (f − f0 )} − Im{HT (−f − f0 )} . 2 2
Re{H(f )} =
(5.29)
152
5. Systemtheorie der Tiefpass- und Bandpasssysteme
Diese Zuordnung, die immer die Beziehung H(−f ) = H ∗ (f ) ergibt [vgl. (2.33)], l¨ asst sich in komplexer Schreibweise zusammenfassen zu H(f ) =
1 1 HT (f − f0 ) + HT∗ (−f − f0 ) . 2 2
(5.30)
Bei dieser Darstellung eines allgemeinen Bandpasssystems u ¨ berlappen sich laut Ableitung die beiden Summanden in (5.30) im Frequenzbereich nicht ¨ gegenseitig. Aus dem gleichen Grund erf¨ ullt die Ubertragungsfunktion des aquivalenten Tiefpasses stets die Bedingung ¨ HT (f ) = 0
f¨ ur
f ≤ −f0 .
(5.31)
Im Gegensatz zu den bisher vorgestellten LTI-Systemen mit reellwertiger Impulsantwort, bei denen stets H(−f ) = H ∗ (f ) galt, ist bei dem hier im Allgemeinfall vorliegenden, sogenannten unsymmetrischen Bandpasssystem diese Bedingung f¨ ur sein ¨ aquivalentes Tiefpasssystem HT (f ) nicht mehr HT (f ) erf¨ ullt. Nach (2.35) bedeutet dies, dass die Impulsantwort hT (t) des ¨ aquivalenten Tiefpasses nicht reell, sondern komplex ist. Es sei noch einmal deutlich darauf hingewiesen, dass einem gegebenen Bandpasssystem mit reeller Impulsantwort beliebig viele ¨aquivalente Tief¨ passsysteme mit unterschiedlichen Ubertragungsfunktionen HT (f ) bzw. Imonnen, da die Zuordnung von H(f ) pulsantworten hT (t) zugeordnet werden k¨ zu HT (f ) abh¨ angig von der (gerade bei fehlender Symmetrie oft willk¨ urlich gew¨ ahlten) Tr¨ agerfrequenz f0 ist. Dies kann man sich an Hand der Abb. 5.20 ¨ veranschaulichen. Die in dem Bild dargestellte Ubertragungsfunktion H(f ) geht aus der gezeigten Tiefpass¨ ubertragungsfunktion HT (f ) hervor, wenn man in (5.30) den im Bild gezeigten Wert f¨ ur f0 einsetzt. Die gleiche ¨ Ubertragungsfunktion H(f ) erh¨ alt man aber auch, wenn man Re{HT (f )} und Im{HT (f )} auf der Frequenzachse um ∆f so nach rechts verschiebt, dass eine neue Tiefpass¨ ubertragungsfunktion HT (f − ∆f ) entsteht, und dann in (5.30) f¨ ur f0 den neuen Wert f0 − ∆f einsetzt (Aufgabe 5.12). Im Normalfall wird man aber ein f0 innerhalb des Durchlassbereiches des Bandpasssystems w¨ahlen, da sonst HT (f ) keine Tiefpassfunktion mehr ist. Es gibt Bandpasssysteme, f¨ ur die innerhalb des Durchlassbereiches ein solches f0 existiert, dass die diesem f0 zugeordneten a¨quivalenten Tiefpasssysteme reelle Impulsantworten haben, dass also HT (−f ) = HT∗ (f ) gilt. Derartige Systeme werden symmetrische Bandpasssysteme genannt10 . Anmerkung: Ein Beispiel f¨ ur ein symmetrisches Bandpasssystem ist der in Abschn. 5.4.1 behandelte ideale Bandpass: Setzt man die Mittenfrequenz des idealen Bandpasses gleich der Tr¨ agerfrequenz, wie das in Abb. 5.21 dargestellt ist, dann gilt f¨ ur das damit festgelegte ¨ aquivalente Tiefpasssystem 10
Entsprechend wird hT (t) rein imagin¨ ar, wenn HT (−f ) = −HT∗ (f ) (vgl. Tab. 2.3). Auch Systeme mit dieser Eigenschaft werden im Folgenden als symmetrisch“ ” bezeichnet.
5.4 Bandpasssysteme und Bandpasssignale
HT (f ) = 2 rect
f f∆
153
gerade und reell (5.32)
hT (t) = 2f∆ si(πf∆ t)
reell und gerade .
Man beachte aber, dass dieser Fall sehr speziell ist, da auch bei symmetrischen Bandpasssystemen typischerweise ein Imagin¨ arteil des Spektrums existiert.
¨ ¨ Abb. 5.21. Ubertragungsfunktion H(f ) des idealen Bandpasses und Ubertragungsfunktion HT (f ) des u aquivalenten Tiefpas¨ ber die Mittenfrequenz f0 zugeordneten ¨ ses
5.4.3 Komplexe Signaldarstellung Durch inverse Fourier-Transformation mit Hilfe der Theoreme aus Tabelle 2.1 s∗ (t)
S ∗ (−f )
und
s(t)e j2πF t
S(f − F )
folgt als Impulsantwort des Bandpasssystems nach (5.30) h(t) =
1 1 hT (t)e j2πf0 t + [hT (t)e j2πf0 t ]∗ . 2 2
Umgeformt mit der f¨ ur komplexe Zahlen g¨ ultigen Eigenschaft z+z ∗ = Re{2z} ergibt sich h(t) = Re{hT (t)e j2πf0 t } .
(5.33)
Die Impulsantwort eines Bandpasssystems wird also in dieser komplexen Signaldarstellung durch die Impulsantwort des ¨aquivalenten Tiefpasssystems und die Tr¨ agerfrequenz f0 beschrieben. Diese Art der Darstellung l¨ asst sich auf beliebige Bandpasssignale s(t) anwenden, es l¨ asst sich also schreiben s(t) = Re{sT (t)e j2πf0 t } .
(5.34)
154
5. Systemtheorie der Tiefpass- und Bandpasssysteme
Man nennt sT (t) dann auch die komplexe H¨ ullkurve und exp(j2πf0 t) den komplexen Tr¨ager des Bandpasssignals. Ihr Produkt wird als analytische Komponente s+ (t) des Bandpasssignals bezeichnet (vgl. Abschn. 2.8)11 s+ (t) =
1 sT (t)e j2πf0 t . 2
(5.35)
Nun kann auch die Bestimmung von sT (t) aus der analytischen Komponente des Bandpasssignals erfolgen: sT (t) = 2s+ (t)e −j2πf0 t ,
(5.36)
und speziell f¨ ur reellwertige Signale gilt mit (2.80) und (2.81): Re{s+ (t)} =
1 s(t) ; 2
Im{s+ (t)} =
1 1 s(t) ∗ . 2 πt
(5.37)
Damit k¨ onnen Real- und Imagin¨ arteil des a ¨quivalenten Tiefpasssignals zu einem reellwertigen Bandpasssignal wie folgt erzeugt werden:
1 sTr (t) = s(t) cos(2πf0 t) + s(t) ∗ sin(2πf0 t)
πt
s1 (t) sˆ1 (t)
1 sTi (t) = s(t) ∗ cos(2πf0 t) −s(t) sin(2πf0 t) .
πt
s2 (t)
(5.38)
s ˆ2 (t)
Die Aufspaltung der komplexen H¨ ullkurve sT (t) in Real- und Imagin¨arteil f¨ uhrt zu sT (t) = sTr (t) + jsTi (t) .
(5.39)
In (5.34) eingesetzt, ergibt sich s(t) = sTr (t) cos(2πf0 t) − sTi (t) sin(2πf0 t) .
(5.40)
arteil sTi (t) von sT (t) werden QuadraturkomponenRealteil sTr (t) und Imagin¨ ten 12 von sT (t) genannt; die Wurzel aus der Summe ihrer Quadrate ergibt den Betrag |sT (t)| der komplexen H¨ ullkurve 11
12
Komplement¨ ar zu s+ (t) wird hier die konjugiert-komplexe analytische Komponente s− (t) = 12 s∗T (t)e−j2πf0 t definiert. Das reellwertige Bandpasssignal ergibt s+ (t) sich dann auch u ¨ ber (2.82); das Spektrum 12 ST (f − f0 ) = S+ (f ) ∗ (−f − f0 ) = ist rechtsseitig, d. h. = 0 bei positiven f , wohingegen 12 ST S− (f ) s− (t) ausschließlich bei negativen Frequenzen = 0 wird. Dies gilt allerdings nur, sofern die Bedingung entsprechend (5.31) eingehalten wird, da ∗ ansonsten ST (f − f0 ) und ST (−f − f0 ) nicht u ¨ berlappungsfrei sind. Es ist auch gebr¨ auchlich, die Bezeichnung Quadraturkomponente nur f¨ ur sTi (t) zu verwenden, sTr (t) wird dann Inphase- oder Kophasal-Komponente genannt.
5.4 Bandpasssysteme und Bandpasssignale
/ |sT (t)| = + s2Tr (t) + s2Ti (t) .
155
(5.41)
Die komplexe H¨ ullkurve sT (t), nach Aufspaltung in Betrag und Phase sT (t) = |sT (t)|e jθT (t)
(5.42)
in (5.34) eingesetzt, f¨ uhrt zu einer weiteren M¨oglichkeit der Beschreibung von s(t). Es gilt s(t) = |sT (t)| cos[2πf0 t + θT (t)] ,
(5.43)
Daher wird der Betrag |sT (t)| auch die Einh¨ ullende des Bandpasssignals genannt. Gleichung (5.43) zeigt n¨ amlich, dass sich das allgemeine Bandpasssignal s(t) als ein cos-Signal darstellen l¨ asst, dessen Amplitude und Phase Funktionen der Zeit sind ( amplituden- und winkelmoduliertes cos-Signal“). ” Ist im Sonderfall des symmetrischen Bandpasses die H¨ ullkurve reell, dann vereinfacht sich (5.40) zu s(t) = sT (t) cos(2πf0 t) .
(5.44)
∗ Die Impulsantwort eines symmetrischen Bandpasses mit ST (−f ) = ST (f ) ist also ein amplitudenmoduliertes reines Kosinus-Signal. Entsprechend ergibt ∗ (f ) ein amplitudenmoduliertes Sinus-Signal sich f¨ ur den Fall ST (−f ) = −ST s(t) = −sT (t) sin(2πf0 t).
Anmerkung: Die reelle ¨ aquivalente Tiefpassimpulsantwort des idealen Bandpasses nach (5.32), in (5.44) eingesetzt, ergibt die Impulsantwort des idealen Bandpasses (5.28). ¨ 5.4.4 Ubertragung von Bandpasssignalen u ¨ ber Bandpasssysteme Liegt am Eingang eines Bandpasssystems mit der Impulsantwort h(t) ein Bandpasssignal s(t), dann l¨ asst sich das Ausgangssignal g(t) zun¨achst ganz allgemein als Faltungsprodukt schreiben g(t) = s(t) ∗ h(t)
G(f ) = S(f ) · H(f ) . Die Berechnung dieses Faltungsproduktes soll nun auf das ¨aquivalente Tiefpasssystem abgebildet werden. Hierzu ist es notwendig, die komplexe Signalschreibweise einzuf¨ uhren, wodurch die Beziehungen oft stark vereinfacht werden. Mit (5.30) ergibt sich zun¨ achst im Frequenzbereich als Produkt des ¨ Signalspektrums S(f ) mit der Ubertragungsfunktion H(f ) des Bandpasssystems, wenn Signal und System auf die Tr¨ agerfrequenz f0 bezogen werden,
156
5. Systemtheorie der Tiefpass- und Bandpasssysteme
1 1 ∗ 1 1 G(f ) = [ ST (f − f0 ) + ST (−f − f0 )] · [ HT (f − f0 ) + HT∗ (−f − f0 )] 2 2 2 2 1 1 ∗ = ST (f − f0 )HT (f − f0 ) + ST (f − f0 )HT (−f − f0 ) 4 4 1 ∗ 1 ∗ + ST (−f − f0 )HT (f − f0 ) + ST (−f − f0 )HT∗ (−f − f0 ) . 4 4 (5.45) Erf¨ ullen sowohl ST (f ) als auch HT (f ) die Bedingung (5.31), dann u ¨ berlappen sich die Teil¨ ubertragungsfunktionen HT (f − f0 ) und HT∗ (−f − f0 ) nicht mit ∗ den Teilspektren ST (−f − f0 ) bzw. ST (f − f0 ). Damit verschwinden ihre Produktfunktionen, und es ergibt sich der einfachere Ausdruck G(f ) =
1 ∗ 1 ST (f − f0 )HT (f − f0 ) + ST (−f − f0 )HT∗ (−f − f0 ) . 4 4
(5.46)
Schreibt man ebenfalls mit (5.30) G(f ) =
1 1 GT (f − f0 ) + G∗T (−f − f0 ) , 2 2
so folgt als Zusammenhang der ¨ aquivalenten Tiefpass¨ ubertragungsfunktionen und entsprechend der ¨ aquivalenten Tiefpassimpulsantworten in einem Bandpasssystem GT (f ) =
1 2
ST (f ) · HT (f ) (5.47)
gT (t) = 12 [sT (t) ∗ hT (t)] . Das Ausgangssignal kann also mit (5.47) und (5.33) auch geschrieben werden als 0 1 1 j2πf0 t [sT (t) ∗ hT (t)]e g(t) = Re . (5.48) 2 Hierzu gibt nachstehender Abschnitt ein Beispiel. ¨ 5.4.5 Ubertragung des eingeschalteten cos-Signals u ¨ber den idealen Bandpass Es soll die Antwort eines idealen Bandpasssystems der Mittenfrequenz f0 und der Bandbreite f∆ f0 (Schmalbandsystem) auf das cos-Schaltsignal nach Abb. 2.19 s(t) = ε(t) cos(2πf0 t) berechnet werden. Der direkte Ansatz zur L¨osung des Faltungsintegrals im Zeit- und auch im Frequenzbereich f¨ uhrt auf sehr umst¨andliche Ausdr¨ ucke,
5.4 Bandpasssysteme und Bandpasssignale
157
dagegen ist mit Hilfe der komplexen Signaldarstellung eine recht einfache L¨ osung m¨ oglich. In Abb. 5.22a ist das bereits in Abb. 2.20 dargestellte Fourier-Spektrum S(f ) des betrachteten Signals s(t) noch einmal eingezeichnet. W¨ ahlt man die Frequenz f0 des eingeschalteten cos-Signals als Mittenfrequenz, dann erh¨ alt man das Spektrum der komplexen H¨ ullkurve ST (f ) durch Verschieben der auf der positiven Frequenzachse liegenden Anteile des Spektrums S(f ) um f0 nach links und Multiplikation mit dem Faktor 2 (Abb. 5.22b).
Abb. 5.22. a Fourier-Transformierte S(f ) des eingeschalteten cos-Signals s(t), ¨ sowie Ubertragungsfunktion H(f ) des idealen Bandpasses. b Fourierullkurve sT (t) und (punktiert) der Transformierte ST (f ) der komplexen H¨ ¨ aquivalenten Sprungfunktion ε(t), sowie die Ubertragungsfunktion HT (f ) des ¨ Tiefpasses
Man u ullt ¨ berzeugt sich leicht, dass dann ST (f ) die Bedingung (5.31) erf¨ und S(f ) mit ST (f ) durch die Beziehung (5.30) verkn¨ upft ist. Ein Vergleich mit Abb. 2.18 zeigt nun, dass ST (f ) im Durchlassbereich des ¨aquivalenten Tiefpasses HT (f ) n¨ aherungsweise durch das Spektrum Sε (f ) der Sprungfunktion dargestellt werden kann. Diese N¨ aherung ist um so besser, je niedriger aquivalenten Tiefpasses bzgl. f0 ist. Es gilt also die Grenzfrequenz f∆ /2 des ¨ ST (f ) ≈ Sε (f ) f¨ ur f∆ f0
(5.49)
sT (t) ≈ ε(t) . Mit (5.47) ergibt sich dann als Antwort eines idealen Bandpasses mit der ¨aquivalenten Tiefpassimpulsantwort nach (5.32) gT (t) =
1 [sT (t) ∗ hT (t)] ≈ ε(t) ∗ [f∆ si(πf∆ t)] 2
und mit (5.14) gT (t) ≈
1 1 + Si(πf∆ t) . 2 π
Durch Einsetzen in (5.48) ist das Endergebnis
(5.50)
158
5. Systemtheorie der Tiefpass- und Bandpasssysteme
g(t) ≈
1 1 + Si(πf∆ t) cos(2πf0 t) . 2 π
(5.51)
Abb. 5.23 zeigt das Ausgangssignal g(t) des Bandpasses zusammen mit seiner H¨ ullkurve gT (t).
Abb. 5.23. Reaktion g(t) eines idealen Bandpasses auf das eingeschaltete cosSignal
5.4.6 Realisierung von Bandpasssystemen durch Tiefpasssysteme Die Darstellung eines Bandpasssystems durch ¨aquivalente Tiefpassfunktionen vereinfacht nicht nur den rechnerischen Umgang, sondern kann, wie im Folgenden gezeigt wird, auch schaltungstechnisch genutzt werden. Praktische Anwendungen findet dieses Verfahren beispielsweise in der Empf¨angertech¨ nik und der Messtechnik, sowie bei der Realisierung von Bandpass-Ubertragungssystemen mittels digitaler Signalverarbeitungsmethoden mit m¨oglichst geringer Taktrate (Kap. 7 und 8). ¨ S(f ) mit der kompleDie Ubertragung eines Bandpasssignals s(t) H(f ) mit der ¨aquixen H¨ ullkurve sT (t) u ¨ber ein Bandpasssystem h(t) valenten Tiefpassimpulsantwort hT (t) wird durch (5.48) beschrieben. Zerlegt aß (5.39) in Real- und Imagin¨arteil man sT (t) und hT (t) gem¨ sT (t) = sTr (t) + jsTi (t) hT (t) = hTr (t) + jhTi (t) , so erh¨ alt man durch Einsetzen in (5.48) mit der Eulerschen Beziehung
5.4 Bandpasssysteme und Bandpasssignale
1 g(t) = Re{ ([sTr (t) + jsTi (t)] ∗ [hTr (t) + jhTi (t)]) 2 · [cos(2πf0 t) + j sin(2πf0 t)]} 1 = {[sTr (t) ∗ hTr (t)] − [sTi (t) ∗ hTi (t)]} cos(2πf0 t) 2 1 − {[sTi (t) ∗ hTr (t)] + [sTr (t) ∗ hTi (t)]} sin(2πf0 t) . 2
159
(5.52)
Die vier Faltungsprodukte in (5.52) k¨ onnen nun in vier Tiefp¨assen getrennt gebildet werden, wenn es gelingt, das Eingangssignal in seine Quadraturkomponenten sTr (t) und sTi (t) zu zerlegen. Hierzu wird s(t) wie in (5.38) mit cos- und sin-Funktionen der Tr¨ agerfrequenz f0 multipliziert. Zun¨achst wird zur Erzeugung von sTr (t) nur der Signalanteil s1 (t) im Frequenzbereich betrachtet: s1 (t) =
s(t)
·
cos(2πf0 t) (5.53)
∗ S1 (f ) = [ 12 ST (f − f0 ) + 12 ST (−f − f0 )] ∗ [ 12 δ(f − f0 ) + 12 δ(f + f0 )] 1 1 ∗ 1 ∗ 1 (−f ) + ST (−f − 2f0 ) . = ST (f − 2f0 ) + ST (f ) + ST 4 4 4 4 Es soll nun vorausgesetzt werden, dass das Bandpasssystem bandbegrenzt ist auf
H(f ) = 0
f¨ ur
|f | ≥ 2f0
oder gleichbedeutend im Tiefpassbereich HT (f ) = 0
f¨ ur
|f | ≥ f0 .
(5.54)
Unter dieser kaum einschr¨ ankenden Voraussetzung verschwinden die Terme ∗ (−f − 2f0 ) aus (5.53) am Ausgang der Tiefp¨asse, da ST (f − 2f0 ) und ST sie nur in den Bereichen |f | > f0 von Null verschieden sein k¨onnen. Diese Zusammenh¨ ange verdeutlicht Abb. 5.24 am Beispiel des breitbandigen eingeschalteten cos-Signals aus Abb. 5.22. Das Fourier-Spektrum des noch fehlenden Anteils sˆ1 (t) aus (5.38) ergibt sich mit (2.84) wie folgt: sˆ1 (t) =
1 [s(t) ∗ πt ]
·
sin(2πf0 t)
∗ Sˆ1 (f ) = [− 2j ST (f − f0 ) + 2j ST (−f − f0 )] ∗ [− 2j δ(f − f0 ) + 2j δ(f + f0 )] 1 1 1 ∗ 1 ∗ = − ST (f − 2f0 ) + ST (f ) + ST (−f ) − ST (−f − 2f0 ) . 4 4 4 4
160
5. Systemtheorie der Tiefpass- und Bandpasssysteme
∗ Abb. 5.24. Die Terme ST (f − 2f0 ) und ST (−f − 2f0 ) aus (5.53) am Beispiel des eingeschalteten cos-Signals
Man erkennt, dass die nach der Bandbegrenzung durch den Tiefpass verbleibenden Anteile von s1 (t) und sˆ1 (t) u ¨ bereinstimmen, so dass die Erzeugung des zweiten Signals unter der oben genannten Voraussetzung eines bei 2f0 sperrenden Bandpasssystem gar nicht mehr notwendig ist. F¨ ur die Summe der in (5.53) verbleibenden Terme gilt nach R¨ ucktransformation in den Zeitbereich mit (2.38) 1 4
ST (f ) +
1 4
sT (t) +
1 4
1 4
∗ ST (−f )
s∗T (t) =
1 2
Re{sT (t)} = 12 sTr (t) .
In gleichartiger Rechnung liefert das Produkt s2 (t) = −s(t) sin(2πf0 t) unter der genannten Voraussetzung der Bandbegrenzung die Quadraturkomponente sTi (t)/2 (s. Aufgabe 5.15). Abb. 5.25 zeigt ein System, mit dem die besprochenen Operationen ausgef¨ uhrt werden k¨onnen.
Abb. 5.25. Realisierung eines Bandpasssystems im Tiefpassbereich (Quadraturschaltung)
Zur Wirkungsweise: Zun¨ achst werden durch Multiplikation des Eingangssignals s(t) mit cos- und sin-Signal die Produktsignale s1 (t) und s2 (t) erzeugt,
5.4 Bandpasssysteme und Bandpasssignale
161
die im Bereich |f | ≤ f0 die Quadraturkomponenten sTr (t) und sTi (t) des Eingangssignals enthalten. Die vier Tiefpassfilter mit den Impulsantworten hTr (t) und ±hTi (t) bilden dann, wenn (5.54) erf¨ ullt ist, zusammen mit den Addierern die Quadraturkomponenten gTr (t) und gTi (t) des Ausgangssignals. Das Ausgangssignal selbst entsteht schließlich entsprechend (5.40) durch Multiplikation mit cos- und sin-Signal als g(t) = gTr (t) cos(2πf0 t) − gTi (t) sin(2πf0 t) . Dieses Bandpasssystem ist f¨ ur beliebige Eingangssignale ¨aquivalent zu einem beispielsweise aus passiven Bauelementen aufgebauten Bandpass glei¨ cher Ubertragungsfunktion. Die komplexe Impulsantwort des ¨aquivalenten Tiefpasssystems wird hier also gem¨ aß (1.22) in 4 getrennten Tiefpassfiltern mit den jeweiligen Impulsantworten hTr (t) und hTi (t) physikalisch realisiert. Ein praktischer Vorteil dieses Bandpasssystems liegt darin, dass die Mitten¨ frequenz durch Andern der Oszillatorfrequenz f0 in weiten Bereichen verschoben werden kann. Aus den Quadraturkomponenten gTr (t) und gTi (t) kann nach (5.41) mit zwei Quadrierern auch das Quadrat der Einh¨ ullenden von g(t) und durch eine nachfolgende Wurzeloperation die Einh¨ ullende selbst gewonnen werden. Abb. 5.26 zeigt die zugeh¨ orige Schaltung. Zur Vereinfachung wurde in dieser Schaltung weiter angenommen, dass H(f ) ein symmetrisches Bandpasssystem ist, so dass mit hTi (t) = 0 die in den Kreuzzweigen liegenden Tiefp¨asse wegfallen.
Abb. 5.26. Realisierung eines symmetrischen Bandpasssystems mit Bildung der Einh¨ ullenden des Ausgangssignals
Mit Hilfe der hier vorgestellten Darstellungsweise von Bandpasssignalen und -systemen ist es auch einfach m¨ oglich, ein Abtasttheorem f¨ ur Bandpasssignale aufzustellen. Es sei s(t) ein Bandpasssignal der Bandbreite f∆ . Dieses Signal kann verzerrungsfrei durch einen idealen Bandpass u ¨ bertragen werden, der den gleichen Frequenzbereich u ¨ berdeckt, also mindestens die Bandbreite f∆ hat. Realisiert man diesen idealen Bandpass durch die Schaltung
162
5. Systemtheorie der Tiefpass- und Bandpasssysteme
nach Abb. 5.25 und w¨ ahlt als Tr¨ agerfrequenz f0 die Mittenfrequenz, dann wird der ideale Bandpass symmetrisch und die beiden verbleibenden Filter mit der Impulsantwort hTr (t) sind nach (5.32) ideale Tiefp¨asse der Grenzfrequenz f∆ /2. Diese Tiefp¨ asse k¨ onnen nach der Aussage des Abtasttheorems durch ¨ aquivalente Abtastsysteme (Abb. 3.7) ersetzt werden. Das sich ergebende Bandpass-Abtastsystem zeigt Abb. 5.27.
Abb. 5.27. Darstellung eines Bandpasssignals s(t) durch die Abtastwerte der zugeordneten Quadratursignale und R¨ uckgewinnung von s(t) aus den Abtastwerten (Schaltung ohne Ber¨ ucksichtigung konstanter Verst¨ arkungsfaktoren, vgl. Abb. 3.7)
In diesem Abtasttheorem f¨ ur Bandpasssignale werden also die beiden Quadratursignale durch je eine Folge von Abtastwerten mit der Abtastrate f∆ dargestellt. Die Abtastfolgen werden dann wieder durch Tiefp¨asse zu den Quadratursignalen interpoliert, aus diesen kann das urspr¨ ungliche Bandpasssignal s(t) fehlerfrei rekonstruiert werden. Formuliert man das Abtasttheorem entsprechend (3.8) nach Zerlegung des Bandpasssignals in seine Quadraturkomponenten (5.40), so gilt t − nT s(t) = sTr (nT ) si π cos(2πf0 t) T n=−∞ ∞ t − nT − ur T = 1/f∆ . sTi (nT ) si π sin(2πf0 t) f¨ T n=−∞ ∞
(5.55) Die Gesamtzahl von notwendigen Abtastwerten pro Zeiteinheit ist also mit ur ein Tiefpasssignal der Grenzfrequenz f∆ (Aufga2f∆ genauso groß wie f¨ be 5.17), d.h. doppelt so groß wie die Bandbreite des reellwertigen Signals.
5.4 Bandpasssysteme und Bandpasssignale
163
Anmerkung: Einen Sonderfall stellen symmetrische Bandpasssignale dar, bei denen das ¨ aquivalente Tiefpasssignal rein reellwertig ist13 . Hier braucht also nur sTr (t) mit der Rate f∆ abgetastet zu werden, d.h. es entsteht eine Anzahl von Abtastwerten pro Zeiteinheit, die exakt der Bandbreite des Signals entspricht. Man beachte jedoch, dass bei diesen Signalen die gesamte Information bereits in einem der beiden Seitenb¨ander jeweils mit Breite f∆ /2, su (t) bei f0 − f∆ /2 ≤ f ≤ f0 oder so (t) bei f0 ≤ f ≤ f0 + f∆ /2 enthalten und das jeweils andere Seitenband auf Grund der Symmetrie redundant ist. Ein komplexwertiges ¨ aquivalentes Tiefpasssignal k¨onnte z.B. f¨ ur des obere uglich der Mittenfrequenz f0 + f∆ /4 gebildet werSeitenband-Signal so (t) bez¨ den, und besitzt dann Grenzfrequenzen bei ±f∆ /4. Die gesamte Abtastrate f¨ ur Real- und Imagin¨ arteile bliebe dann immer noch 2 · f∆ /2 = f∆ . Alternativ k¨ onnte das zum oberen Seitenband-Signal ¨aquivalente Tiefpass-Signal uglich der Frequenz f0 an der unteren Bandgrenze gebildet werden. soT (t) bez¨ o (f ) = 0 f¨ ur f < 0 und ist Das Tiefpasssignal besitzt dann ein Spektrum ST mit der analytischen Komponente sT+ (t) des zum urspr¨ unglichen symmetrischen Bandpasssignal geh¨ orenden ¨ aquivalenten Tiefpasssignals identisch. Zwar k¨ onnen f¨ ur dieses Signal die Real- und Imagin¨arteile ebenfalls noch separat mit f∆ /2 abgetastet, jedoch nur gemeinsam rekonstruiert werden (Aufgabe 5.26c). Da der Realteil gem¨ aß (2.80) dem reellwertigen ¨aquivalenten unglichen symmetrischen BandpasssiTiefpasssignal bez¨ uglich f0 des urspr¨ gnals entspricht, kann er auch allein aliasfrei mit f∆ abgetastet und daraus je nach verwendetem Rekonstruktionsfilter entweder das dem Einseitenbandsignal oder das dem symmetrischen Bandpasssignal entsprechende ¨aquivalente Tiefpasssignal rekonstruiert werden (Aufgabe 5.26d). In jedem dieser F¨ alle ergibt sich die Gesamtanzahl notwendiger Abtastwerte je Zeiteinheit zu f∆ , was dem Doppelten der Bandbreite des Seitenbandes, bzw. der einfachen Bandbreite des symmetrischen Zweiseitenbandsignals entspricht. Diese ¨ Uberlegungen zeigen, dass im Zuge der Abtastung und Rekonstruktion symmetrischer Bandpasssignale je nach Bedarf die Einseitenband- oder die symmetrische Zweiseitenband-Darstellung verarbeitet bzw. erzeugt werden kann. ¨ In Hinblick auf die Ubertragung ist jedoch in der Regel die EinseitenbandDarstellung zu bevorzugen, da sie den geringeren Bandbreitebedarf besitzt (vgl. auch Abschn. 8.1.5). Angewandt wird das Abtasttheorem f¨ ur Bandpasssignale bei deren zeitdiskreter (digitaler) Verarbeitung, die sich in der Regel ¨okonomischer nach vorheriger Transformation in das ¨ aquivalente Tiefpasssignal durchf¨ uhren l¨asst, da sich hierdurch die Anzahl der pro Zeiteinheit zu verarbeitenden Abtastwerte auf das notwendige Minimum reduzieren l¨ asst. 13
Dies wird hier f¨ ur kosinus-modulierte Bandpasssignale gezeigt, jedoch l¨ asst sich dieselbe Betrachtung auf sinus-modulierte Signale mit rein imagin¨ arwertigem aquivalentem Tiefpass-Signal sT (t) = jsTi (t) anwenden. ¨
164
5. Systemtheorie der Tiefpass- und Bandpasssysteme
5.4.7 Phasen- und Gruppenlaufzeit Ein Bandpasssystem H(f ) mit rechteckf¨ ormiger Betrags¨ ubertragungsfunktion der Bandbreite f∆ besitze einen schwach nichtlinearen Phasenverlauf ϕ(f ) (Abb. 5.28a). Diese Phase wird dann im Durchlassbereich gen¨ ugend genau durch die ersten Glieder einer Taylor-Reihenentwicklung ϕa (f ) um die Frequenz f0 beschrieben + * " dϕ(f ) "" ϕ(f ) ≈ ϕa (f ) = ϕ(f0 ) + (f − f0 ) · , (5.56) df "f =f0 oder im ¨ aquivalenten Tiefpassbereich (Abb. 5.28b) * + " dϕ(f ) "" ϕaT (f ) = ϕ(f0 ) + f · . df "f =f0
(5.57)
Mit den Ausdr¨ ucken f¨ ur Phasenlaufzeit14 tp = tp (f0 ) nach (5.6) und Gruppenlaufzeit tg = tg (f0 ) nach (5.7) l¨ asst sich auch schreiben ϕaT (f ) = −2πf0 tp − 2πf tg ,
(5.58)
dann ergibt sich die ¨ aquivalente Tiefpass¨ ubertragungsfunktion zu (Abb. 5.28b) f HT (f ) = 2 rect (5.59) e−j(2πf0 tp +2πf tg ) . f∆ Weiter erh¨ alt man mit (5.47) und (5.59) als Antwort auf ein Signal s(t) innerhalb des Frequenzbereiches des Bandpasses ein Ausgangssignal g(t) mit dem H¨ ullkurvenspektrum GT (f ) =
1 0 tp −j2πf tg ST (f )HT (f ) = ST (f ) e−j2πf . e 2 komplexe Konstante
Damit lautet die H¨ ullkurve am Ausgang nach inverser Fourier-Transformation gT (t) = sT (t − tg )e−j2πf0 tp .
(5.60)
Mit (5.34) erh¨ alt man als Ausgangssignal schließlich g(t) = Re{sT (t − tg )e j2πf0 (t−tp ) } .
(5.61)
Die H¨ ullkurve des Eingangssignals wird also um die Gruppenlaufzeit tg verz¨ ogert, das Tr¨ agersignal um die Phasenlaufzeit tp (Abb. 5.29). Bei st¨arker nichtlinearem Phasenverlauf oder bei breitbandigeren Eingangssignalen im ¨ Bandpass- oder auch Tiefpassbereich gelten die gleichen Uberlegungen, wenn zuvor das Eingangssignal in hinreichend schmale Bandpasssignale ( Fre” quenzgruppen“) aufgeteilt wird. Phasen- und Gruppenlaufzeiten sind dann Funktionen der Frequenz.
5.4 Bandpasssysteme und Bandpasssignale
165
Abb. 5.28. a Bandpass mit schwach nichtlinearer Phase ϕ(f ) und b ¨ aquivalenter Tiefpass bez¨ uglich f0
Abb. 5.29. Phasen- und Gruppenlaufzeit
¨ Eine verzerrungsfreie, nur das gesamte Signal verz¨ogernde Ubertragung setzt folglich gleiche, frequenzunabh¨ angige Werte f¨ ur Phasen- und Gruppenlaufzeit voraus. Mit (5.6) und (5.7) folgt dann " ϕ(f0 ) dϕ(f ) "" tp = t g → = . (5.62) f0 df "f =f0 Diese Bedingung ist erf¨ ullt, wenn in Abb. 5.28a die approximierende Phasenangerung die Ordinate f = 0 bei Null oder, wegen gerade ϕa (f ) in ihrer Verl¨ der Vieldeutigkeit der Phasenlaufzeit, bei ganzzahligen Vielfachen von 2π schneidet. Den Einfluss von Gruppenlaufzeitverzerrungen auf das Einschwingver¨ halten von Tiefp¨ assen zeigt Abb. 5.30. Das Uberschwingen wird stark unsymmetrisch, wenn die Ver¨ anderung der Gruppenlaufzeit etwa die Gr¨oße der Einschwingzeit erreicht. Steigt die Laufzeit mit der Frequenz, so verst¨arkt ¨ sich das Uberschwingen am Ende des Einschwingvorganges und wird h¨oherfrequent, bei fallendem Laufzeitverhalten zeigt sich die umgekehrte Tendenz. Entsprechende Aussagen gelten f¨ ur Bandpasssysteme (Aufgabe 5.20). 14
Die Phasenlaufzeit ist vieldeutig, da gem¨ aß (2.24) zu ϕ(f0 ) beliebige ganzzahlige Vielfache von 2π addiert werden d¨ urfen.
166
5. Systemtheorie der Tiefpass- und Bandpasssysteme
Abb. 5.30. Tiefpasssystem mit Laufzeitverzerrungen. ¨ a Ubertragungsfunktion, b Impuls- und c Sprungantwort
5.4.8 Zeitdiskrete Bandpass- und Hochpasssysteme ¨ Aus der Ubertragungsfunktion eines zeitdiskreten Tiefpasses erh¨alt man durch Frequenzverschiebungen zeitdiskrete Bandpass- oder Hochpasssysteme. Abb. 5.31 zeigt dies f¨ ur die idealen Systeme.
Abb. 5.31. Ideale zeitdiskrete Systeme. a Tiefpass, b Bandpass und c Hochpass
Diese Tiefpass-Bandpass-Transformation l¨ asst sich als Faltung der Tief¨ pass-Ubertragungsfunktion mit Grenzfrequenz fg mittels eines Dirac-Impulspaares beschreiben: HaBP (f ) = HaTP (f ) ∗ [δ(f + f0 ) + δ(f − f0 )]
haBP (n) = haTP (n) · 2 cos(2πf0 n)
(f¨ ur fg,TP
(5.63) 1 < f0 < − fg,TP ) . 2
Diese anschauliche Beziehung ist allerdings nur g¨ ultig f¨ ur Systeme, bei denen die ¨ aquivalente Tiefpass-Impulsantwort reellwertig ist. F¨ ur die allgemeine Definition gilt analog zu (5.30), jedoch im Unterschied zu (5.31) mit einer
5.5 Zusammenfassung
167
zus¨ atzlichen Bedingung zur Vermeidung von Frequenz¨ uberlappungen jenseits der halben Abtastfrequenz f = 12 HaBP (f ) =
1 1 ∗ HaTP (f − f0 ) + HaTP (−f − f0 ) 2 2 (5.64)
haBP (n) = Re{haTP (n)e
j2πf0 n
}
mit HaTP (f ) = 0 f¨ ur f < −f0 und f >
1 − f0 . 2
Der Hochpass mit reellwertiger Impulsantwort entspricht einem Tiefpass mit ¨ Mit cos(2πf0 n) = einer zu f0 = 1/2 verschobenen Ubertragungsfunktion. cos(πn) = (−1)n folgt dann haHP (n) = (−1)n haTP (n). Damit erh¨alt man also sowohl die Bandpass-, als auch die Hochpass-Impulsantworten unmittelbar aus den zugeh¨ origen Tiefpass-Impulsantworten. F¨ ur die zeitdiskrete bzw. digitale Realisierung besonders schmalbandiger analoger Bandp¨asse bietet sich alternativ die Schaltung nach Abb. 5.27 an. Hier sind dann die beiden Tiefp¨ asse rechts von den Abtastern als zeitdiskrete Tiefp¨asse auszuf¨ uhren.
5.5 Zusammenfassung Die in diesem Kapitel angestellten Betrachtungen u ¨ ber Tiefpass- und Bandpasssysteme gingen jeweils von einem idealen System im Sinn der Systemtheorie aus. Der Zusammenhang zwischen den diskutierten Impuls- und Sprungantworten dieser idealen Systeme soll in Abb. 5.32 noch einmal verdeutlicht werden. Es zeigte sich weiter, dass Bandpasssysteme vorteilhaft durch ¨aquivalente Tiefpasssysteme beschrieben werden k¨ onnen und dass diese Schreibweise allgemein zur komplexen Signaldarstellung f¨ uhrt. Ein Bandpasssignal s(t) und seine Fourier-Transformierte S(f ) stehen dabei mit der komplexen H¨ ullkurve aquivalenten Tiefpasssignals und ihrem Spektrum ST (f ) in dem sT (t) des ¨ Zusammenhang s(t) = Re{sT (t)e j2πf0 t }
S(f ) =
1 1 ∗ ST (f − f0 ) + ST (−f − f0 ) . 2 2
F¨ ur diese komplexe Signaldarstellung konnte eine schaltungstechnisch anschauliche Deutung als zweikanalige Bildung der Quadraturkomponenten des Signals gegeben werden, die sp¨ ater auch die Grundlage wichtiger Bandpass¨ Ubertragungsverfahren bilden wird. Mit diesem Kapitel schließt die Betrachtung ausschließlich determinierter Signale ab und wendet sich den Methoden zur Beschreibung und Verarbeitung von Zufallssignalen zu.
168
5. Systemtheorie der Tiefpass- und Bandpasssysteme
Abb. 5.32. Vergleich von Tiefpass- und Bandpasssystem, wobei der Tiefpass mit dem ¨ aquivalenten Tiefpass des Bandpasssystems identisch ist
5.6 Anhang
Tabelle 5.1. Die Funktion si(πx) und ihr Integral (H¨ olzler und Holzwarth, 1982)
5.7 Aufgaben
169
5.7 Aufgaben 5.1 Berechnen Sie die Antwort g(t) eines idealen Tiefpassfilters der Grenzfrequenz fg auf das Signal s(t) = rect(t). Skizzieren Sie g(t) f¨ ur fg = 1, 2, 10. 5.2 In Aufgabe 5.1 werde als Signal die periodische Rechteckfunktion aus Aufgabe 3.7 mit T1 = 1/2 und T2 = 3 angenommen. Skizzieren Sie ebenfalls g(t). 5.3 Berechnen und skizzieren Sie die Impuls- und Sprungantwort eines idea¨ len Hochpassfilters mit der Ubertragungsfunktion H(f ) = 1 − rect[f /(2fg )]. Skizzieren Sie eine Schaltung, mit der aus einem Tiefpass ein Hochpass gebildet werden kann. 5.4 Ein Rechteckimpuls der Breite t0 wird zur Messung der Impulsantwort eines Tiefpasses der Grenzfrequenz fg = 4 kHz benutzt. Wie groß darf t0 ¨ h¨ ochstens sein, damit im Ubertragungsbereich des Tiefpasses das Betragsspektrum des Impulses um weniger als 1% abf¨allt? Wie groß darf unter gleichen Bedingungen die Fußbreite eines Dreieckimpulses h¨ochstens werden? 5.5 Ein Butterworth-Tiefpass mit n energiespeichernden Elementen (In¨ duktivit¨ aten und Kapazit¨ aten) hat die Ubertragungsfunktion |H(f )| = 1/ 1 + (f /f0 )2n . a) Wie groß ist das D¨ ampfungsmaß bei der Grenzfrequenz“ f0 ? ” b) Skizzieren Sie |H(f )| f¨ ur die Filtergrade n = 1, 2 und f¨ ur n → ∞. ubertragungsfunktion der RCc) F¨ ur welches n und f0 ergibt sich die Betrags¨ Schaltung? d) Welcher Filtergrad n ist notwendig, damit das D¨ampfungsmaß a(f ) im Bereich |f | ≤ 0,8f0 weniger als 1 dB ansteigt? 5.6 Berechnen und skizzieren Sie die Impulsantwort eines Tiefpasses endlicher Flankensteilheit wie in Abb. 5.33. Hinweis: H(f ) als Faltungsprodukt von rect-Funktionen darstellen.
Abb. 5.33. Zu Aufgabe 5.6
¨ 5.7 Berechnen und skizzieren Sie Impulsantwort, Ubertragungsfunktion und D¨ ampfungsmaß des Systems in Abb. 5.34 ( Kammfilter“). ”
170
5. Systemtheorie der Tiefpass- und Bandpasssysteme
Abb. 5.34. Zu Aufgabe 5.7
¨ 5.8 Berechnen Sie die Echoamplituden h(nT ) der Ubertragungsfunktion |f | f H(f ) = 1 + m rect fg 2fg Skizzieren Sie H(f ). ¨ 5.9 Ein Ubertragungssystem ist durch die Echoamplituden h(−T ) = −0,5; h(0) = 1; h(T ) = +0,5 gekennzeichnet. Berechnen und skizzieren Sie h(t) sowie H(f ) nach Betrag und Phase. 5.10 Betrachtet wird ein Pulsformfilter. a) Berechnen Sie die Echoamplitude a in Abb. 5.10 so, dass die Steigungen von h0 (t) und h1 (t) zur Zeit t = 2T entgegengesetzt gleich sind. b) Mit welcher Zeitfunktion s(t) muss ein idealer Tiefpass angeregt werden, damit an seinem Ausgang ein Formimpuls nach Abb. 5.11 erscheint? ¨ 5.11 Berechnen und skizzieren Sie Impulsantwort und Ubertragungsfunktion eines Bandpasssystems mit der ¨ aquivalenten Tiefpassimpulsantwort ur f0 = 10. hT (t) = j si(πt) f¨ 5.12 Berechnen und skizzieren Sie hT (t) und HT (f ) eines idealen Bandpasssystems, wenn die Tr¨ agerfrequenz f0 gleich der oberen Grenzfrequenz des Systems gesetzt wird. Berechnen Sie h(t) aus hT (t). 5.13 Berechnen und skizzieren Sie ein Bandpasssignal und seine FourierTransformierte mit t sT (t) = rect und f0 = 100/T . T 5.14 Zeigen Sie, dass die Fourier-Transformierte der analytischen Komponente des Bandpasssignals s+ (t) = sT (t) exp(j2πf0 t) auf den positiven Frequenzbereich beschr¨ ankt ist. Zeigen Sie weiter, dass Real- und Imagin¨arteil der analytischen Komponente durch die Hilbert-Transformation (vgl. Abschn. 2.8) verkn¨ upft sind. 5.15 Zeigen Sie, dass im unteren Zweig von Abb. 5.25 die Quadraturkomponente sTi (t)/2 gebildet wird.
5.7 Aufgaben
171
5.16 Zeichnen Sie eine Schaltung nach Abb. 5.25, die ein ideales Bandpasssystem darstellt. 5.17 Zeigen Sie, dass das Bandpassabtasttheorem (5.55) f¨ ur f0 = 0 in das Tiefpassabtasttheorem u ¨bergeht. 5.18 Berechnen Sie den Betrag der komplexen H¨ ullkurve der Summe zweier Bandpasssignale gleicher Tr¨ agerfrequenz als Funktion von Betrag und Phase der einzelnen komplexen H¨ ullkurven. 5.19 Zeigen Sie, dass die Schaltung eines symmetrischen Bandpasssystems mit Bildung der Einh¨ ullenden (Abb. 5.35) ¨ aquivalent zur Schaltung Abb. 5.26 ist.
Abb. 5.35. Zu Aufgabe 5.19
¨ Die Aquivalenz gilt nicht im Inneren der Schaltung, da g1,2 (t) Bandpasssignale, dagegen in Abb. 5.26 gTr,i (t) Tiefpasssignale sind. Zeigen Sie, dass aber zur Zeit t = 0 gilt g1 (0) = gTr (0) und g2 (0) = gTi (0). 5.20 Berechnen und skizzieren Sie die Impulsantwort und den Betrag der ¨ Ubertragungsfunktion eines kausalen, linearphasigen Bandpasssystems, welches einen idealen BP ann¨ ahert. Verwenden Sie das Verfahren nach 5.2.1c. Es sei f0 f∆ . 5.21 Ein Tiefpasssignal s(t) der Grenzfrequenz fg wird quadriert. Wie ver¨ andert sich die Grenzfrequenz? Wie ist das Ergebnis f¨ ur sn (t)? Skizzieren Sie das Spektrum eines quadrierten idealen Bandpasssignals. 5.22 Skizzieren Sie die Impulsantwort eines zeitdiskreten, idealen Hochpassfilters. ¨ 5.23 Der ideale Differentiator hat nach (2.44) die Ubertragungsfunktion ¨ H(f ) = j2πf . Ein zeitdiskretes System soll diese Ubertragungsfunktion im Bereich |f | < 1/2 m¨ oglichst gut ann¨ ahern. ¨ a) Skizzieren Sie die Ubertragungsfunktion Ha (f ) des idealen zeitdiskreten Differentiators. b) Zeigen Sie, dass die Impulsantwort des Filters lautet h(n) = (−1)n /n
f¨ ur
n = 0 .
Welchen Wert muss h(0) annehmen?
172
5. Systemtheorie der Tiefpass- und Bandpasssysteme
c) Eine einfache N¨ aherung an die Impulsantwort h(n) lautet 1 1 δ(n + 1) − δ(n − 1) . 2 2 ¨ Skizzieren Sie die zugeh¨ orige Ubertragungsfunktion. h0 (n) =
5.24 Als Maß f¨ ur den Realisierungsaufwand eines diskreten Tiefpasses diene die Anzahl der diskreten Werte zwischen Hauptmaximum und dem ersten benachbarten Nulldurchgang der Impulsantwort. Wie groß ist diese Anzahl f¨ ur einen idealen Tiefpass mit der Abtastrate r = 10 kHz und den Grenzfrequenzen a) fg = 1 kHz; b) fg = 50 Hz? 5.25 Ein zeitdiskreter Tiefpass der Grenzfrequenz fg l¨asst sich in folgender Schaltung (Abb. 5.36, sog. Oversampling-System) zur Filterung zeitkontinuierlicher Signale s(t) verwenden:
Abb. 5.36. Zeitdiskrete Filterung analoger Signale
Die analogen Tiefp¨ asse T PA,B seien Filter endlicher Flankensteilheit wie in Abb. 5.33. In welchen Bereichen d¨ urfen sich ihre Grenzfrequenzen f1 und f2 bewegen, damit keine Aliasst¨ orungen innerhalb der durch den zeitdiskreten Tiefpass belassenen Signalbandbreite entstehen? ¨ Skizzieren Sie die Spektren und Ubertragungsfunktionen an allen Stellen der Schaltung f¨ ur ein breitbandiges Eingangssignal der Grenzfrequenz > 100 Hz, wobei fg = 10 Hz und r = 1/T = 100 Hz gew¨ahlt werden. 5.26 Aus einem Bandpasssignal s(t) mit S(f ) = Λ(f )∗[δ(f −f0 )+δ(f +f0 )] wird das obere Seitenbandsignal so (t) gebildet, dessen Spektrum S o (f ) nur im Frequenzbereich f0 ≤ f ≤ f0 + 12 ungleich Null ist. a) Bestimmen Sie f¨ ur das obere Seitenband das a¨quivalente Tiefpasssignal uglich f0 . soT (t) bez¨ b) Skizzieren Sie die Fourier-Spektren von soT (t), soTr (t) und soTi (t). c) Skizzieren Sie die Fourier-Spektren von soT,a (t), soTr,a (t) und soTi,a (t) nach Abtastung mit einer Rate r = 12 . Zeigen Sie, dass eine separate Re¨ konstruktion von soTr (t) und soTi (t) nicht m¨oglich ist. Geben Sie die Ubertragungsfunktion eines komplexwertigen Filters an, mit dem jedoch soT (t) rekonstruiert werden kann. Skizzieren Sie eine Schaltung zur Rekonstruktion von so (t). d) K¨ onnen bei Abtastung nur von soTr (t) mit r = 1 sowohl das EinseitenbandSignal so (t) als auch das urspr¨ ungliche Signal s(t) wiedergewonnen werden? 5.27 Zeigen Sie, dass die Quadraturkomponenten sTr (t) und sTi (t) eines komplexwertigen ¨ aquivalenten Tiefpasssignals orthogonal sind.
6. Statistische Signalbeschreibung
In den vorangegangenen Kapiteln wurden Methoden vorgestellt, mit denen ¨ determinierte Signale beschrieben und die Ubertragung solcher Signale u ¨ ber LTI-Systeme berechnet werden konnten. In diesem Kapitel sollen diese Methoden auf nichtdeterminierte Signale ausgedehnt werden. Nichtdeterminierte oder Zufallssignale k¨ onnen einerseits Nutzsignale sein, deren Information in ihrem dem Empf¨ anger noch unbekannten Verlauf enthalten ist; sie k¨onnen andererseits St¨ orsignale sein, wie das nichtdeterminierte Rauschen eines Widerstandes, eines Verst¨ arkers oder einer Antenne. Die Eigenschaften von Zufallssignalen k¨ onnen nur durch bestimmte Mittelwerte beschrieben werden. Methoden f¨ ur eine sinnvolle Beschreibung werden von der Wahrscheinlichkeitstheorie bereitgestellt. Die im Folgenden vorgestellte Behandlung von Zufallssignalen ist im mathematischen Sinn nicht ganz streng. Eine st¨arkere Bindung an die physikalische Anschauung wird aber bevorzugt, um mit nicht allzu großem Aufwand die f¨ ur die weiteren Kapitel notwendigen Grundlagen legen zu k¨ onnen.1
6.1 Beschreibung von Zufallssignalen durch Mittelwerte 6.1.1 Der Zufallsprozess Als typisches Beispiel eines kontinuierlichen, reellen Zufallssignals ist in Abb. 6.1 die Ausgangsspannung eines rauschenden Widerstandes in einem Zeitintervall (0; T ) dargestellt. Diese Rauschspannung wird durch thermische Bewegung der Leitungselektronen im Widerstandsmaterial hervorgerufen, ihr Verlauf ist auf Grund der sehr großen Zahl beteiligter Elektronen nicht vorhersagbar. Man kann nun an der in Abb. 6.1 dargestellten Zeitfunktion Messungen im Zeit- oder auch Frequenzbereich vornehmen. Da der dargestellte Ausschnitt aber sicher nur einen von unendlich vielen m¨ oglichen Verl¨aufen der Spannung an rauschenden Widerst¨ anden wiedergibt, k¨ onnen diese Messungen keine Allgemeing¨ ultigkeit beanspruchen. Sinnvoll werden nur solche Messungen sein, die 1
Weiterf¨ uhrende Literatur z. B. Papoulis (1991); Davenport und Root (1968); Davenport (1970); Bendat (1958); Thomas (1968); H¨ ansler (1997); Shanmugan und Breipohl (1988), B¨ ohme (1998); Childers (1997).
174
6. Statistische Signalbeschreibung
von der zuf¨ alligen Wahl eines bestimmten Verlaufs unabh¨angig sind. Um dies zu erreichen, wird zun¨ achst eine sehr große Zahl von reellen Zufallssignalen gleicher Art unter gleichen physikalischen Bedingungen betrachtet. Abb. 6.2 stellt eine solche Schar von Zufallssignalen ks(t) dar, wie sie beispielsweise an entsprechend vielen rauschenden Widerst¨ anden mit gleichem Aufbau und gleicher Temperatur oszillographiert werden k¨onnen.
Abb. 6.1. Zufallssignal im Bereich (0; T )
Abb. 6.2. Schar von Zufallssignalen ks(t), k = 1, 2, . . .
Sinnvolle, d. h. f¨ ur alle rauschenden Widerst¨ ande mit gleichem Widerstandswert und gleicher Temperatur g¨ ultige Messungen sind dann sicher nur Mittelwertmessungen u ¨ ber die gesamte, im Grenzfall unendlich große Schar von Zufallssignalen.
6.1 Beschreibung von Zufallssignalen durch Mittelwerte
175
Einfachstes Beispiel eines solchen Scharmittelwerts 2 ist der lineare Mittelwert zu einem bestimmten Beobachtungs- oder Abtastzeitpunkt t1 , definiert als M 1 k s(t1 ) . M→∞ M
E {s(t1 )} = lim
(6.1)
k=1
Die Existenz dieses Grenzwertes ist im klassischen mathematischen Sinn nicht gesichert. Die Erfahrung zeigt aber, dass jedem entsprechenden Experiment 1 )M k eine Zahl E {s(t1 )} zugeordnet werden kann, die vom Ausdruck M k=1 s(t1 ) f¨ ur wachsende M i. Allg. immer besser angen¨ahert wird. Genauer: F¨ uhrt man solche Mittelungen an einer großen Zahl gleichartig erzeugter Zufallsvorg¨ ange durch, so kommt es mit wachsendem M immer seltener vor, dass die absolute Abweichung zwischen diesen Mittelungsergebnissen und dem Wert E {s(t1 )} eine vorgebbare Fehlschranke u ¨ berschreitet. Dies gilt auch f¨ ur die weiteren, im Folgenden betrachteten Mittelwerte. Andere Scharmittelwerte k¨ onnen u ¨ ber bestimmte Funktionen F [ks(t1 )] gebildet werden, beispielsweise der quadratische Scharmittelwert zur Zeit t1 mit der Funktion F [k s(t1 )] = ks2 (t1 ) als3 M 1 k2 s (t1 ) . M→∞ M
2 3 E s2 (t1 ) = lim
(6.2)
k=1
Entsprechend kann man (6.1) verallgemeinern zu M 1 k F [ s(t1 )] . M→∞ M
E {F [s(t1 )]} = lim
(6.3)
k=1
Durch Bildung einer immer gr¨ oßeren Zahl verschiedener Scharmittelwerte nach (6.3) zu allen m¨ oglichen Beobachtungszeiten ti kann eine Schar von Zufallssignalen in bestimmten Eigenschaften immer vollst¨andiger beschrieben werden. Andere Aspekte, wie etwa der Unterschied zwischen tiefer- und h¨oherfrequenten Signalen, gehen dagegen in diese Mittelwertbildung u ¨berhaupt nicht ein. Eine umfassendere Beschreibung erfordert daher auch Mittelwertbildungen u ¨ ber Funktionen mehrerer benachbarter Beobachtungswerte desselben Signals. Ein einfaches Beispiel einer solchen Funktion von zwei Beobachtungswerten ist das Produkt der zu den Zeitpunkten t1 und t2 dem jeweils gleichen Zufallssignal entnommenen Werte F [ks(t1 ), ks(t2 )] = ks(t1 ) · ks(t2 ) . 2
3
(6.4)
Auch Erwartungswert, im Folgenden durch die Schreibweise E {s(t1 )} gekenn¨ zeichnet; in fr¨ uheren Auflagen wurde ein gewellter Uberstrich hierf¨ ur verwendet. F¨ ur komplexwertige Prozesse gilt entsprechend (4.3) F [k s(t1 )] = k|s(t1 )|2 .
176
6. Statistische Signalbeschreibung
Die u ur alle m¨oglichen Kom¨ ber dieses Produkt gebildeten Scharmittelwerte f¨ binationen von Beobachtungszeiten (t1 , t2 ) bilden die Autokorrelationsfunktion 4 ϕss (t1 , t2 ) der Schar von Zufallssignalen M 1 k [ s(t1 ) · ks(t2 )] . M→∞ M
ϕss (t1 , t2 ) = E {s(t1 ) · s(t2 )} = lim
(6.5)
k=1
Allgemein werden Mittelwerte dieser Art u ¨ ber beliebige Funktionen von zwei oder auch mehreren Beobachtungswerten Verbundmittelwerte oder Mittelwerte h¨oherer Ordnung genannt. Bildet man in diesem Sinn alle m¨oglichen Scharmittelwerte aller m¨ oglichen Ordnungen und f¨ ur alle m¨oglichen Beobachtungszeitpunkte ti , dann kann dadurch die Schar der Zufallssignale im statistischen Sinn immer genauer beschrieben werden. Verallgemeinert bezeichnet man eine Schar derartig beschriebener Zufallssignale s(t) als Zufallsprozess. Die Schar von Beobachtungswerten s(t1 ) wird im gleichen Zusammenhang Zufallsgr¨oße oder Zufallsvariable genannt. Das einzelne Zufallssignal ks(t) ist in dieser Terminologie eine Musterfunktion oder Realisation eines Zufallsprozesses und ebenso der einzelne Wert ks(t1 ) die Realisation einer Zufallsgr¨ oße. 6.1.2 Stationarit¨ at und Ergodizit¨ at Die vollst¨ andige Beschreibung eines Zufallsprozesses wird im allgemeinen Fall sehr umfangreich. Schon der lineare Mittelwert E {s(t1 )} muss f¨ ur alle interessierenden Zeiten t1 bekannt sein. Die Zahl der notwendigen Messungen w¨achst f¨ ur Verbundmittelwerte, wo alle m¨ oglichen Kombinationen von zwei oder mehr Beobachtungswerten zu ber¨ ucksichtigen sind, noch weiter an. Man kann aber Zufallsprozesse definieren, die durch eine geringere Zahl von Mittelwerten schon vollst¨ andig bestimmt werden. Derartige Prozesse sind in vielen F¨allen bereits brauchbare Modelle zur Beschreibung praktisch auftretender Zufallssignale. Wichtigstes Beispiel hierf¨ ur sind die station¨aren Prozesse mit der Eigenschaft, dass alle m¨ oglichen Mittelwerte unabh¨angig von einer Verschiebung aller Beobachtungszeiten um eine beliebige Zeit t0 sind. Es gilt also f¨ ur alle m¨ oglichen Funktionen F bei einem station¨aren Prozess E {F [s(t1 )]} = E {F [s(t1 + t0 )]} , E {F [s(t1 ), s(t2 )]} = E {F [s(t1 + t0 ), s(t2 + t0 )]} ,
t0 beliebig,
(6.6)
desgleichen f¨ ur alle h¨ oheren Verbundmittelwerte. 4
Eigenschaften und Bedeutung der so definierten Autokorrelationsfunktion einer Schar von Zufallssignalen werden in diesem Kapitel noch ausf¨ uhrlich diskutiert und auch zu der in Kap. 4 dargestellten Impulsautokorrelationsfunktion ϕE ss (τ ) in Beziehung gesetzt. F¨ ur komplexwertige Prozesse ist E {s∗ (t1 ) · s(t2 )} zu bestimmen.
6.1 Beschreibung von Zufallssignalen durch Mittelwerte
177
Die Beschreibung eines station¨ aren Prozesses ist also im Vergleich zu der eines nichtstation¨ aren Prozesses bedeutend weniger aufw¨andig. So sind die Scharmittelwerte 1. Ordnung Konstanten, die zu jedem beliebigen Zeitpunkt bestimmt werden k¨ onnen. Damit darf auch die Indizierung einer bestimmten Beobachtungszeit fortgelassen werden. Beispielsweise gilt f¨ ur das lineare Scharmittel ms = E {s(t1 )} = E {s(t)}
f¨ ur alle t .
(6.7)
Ebenso sind die Verbundmittelwerte 2. Ordnung, wie man nach Einsetzen von t0 = −t1 in (6.6) sieht, nur noch von der Zeitdifferenz t2 − t1 abh¨angig. Damit ist insbesondere die Autokorrelationsfunktion station¨arer Prozesse mit (6.5) und (6.6) nur noch eine Funktion dieser Zeitdifferenz t2 − t1 = τ ; es gilt also ϕss (τ ) = E {s(0) · s(τ )} oder auch bei einer Verschiebung der Beobachtungszeit um einen beliebigen Wert t ϕss (τ ) = E {s(t) · s(t + τ )}
f¨ ur alle t .
(6.8)
Die Autokorrelationsfunktion kann entsprechend zur Ableitung der Impuls¨ korrelationsfunktionen in Abschn. 4.2 als Ahnlichkeitsmaß definiert werden (s. Aufgabe 6.4). Anmerkung: Ein Prozess, der zwar im strengen Sinn der Definition nichtstation¨ ar ist, dessen Autokorrelationsfunktion aber wie in (6.8) nur von der Differenz τ der Abtastzeiten abh¨ angt und dessen Mittelwert zeitunabh¨angig ist, wird auch station¨ar im weiten Sinn oder schwach station¨ar genannt. F¨ ur die Messtechnik haben station¨ are Prozesse noch einen weiteren Vorteil. W¨ ahrend bei nichtstation¨ aren Prozessen alle zur Bildung eines Mittelwertes notwendigen Beobachtungswerte ks(t1 ) zur gleichen Zeit t1 gemessen werden m¨ ussen, kann bei station¨ aren Prozessen im allgemeinen diese Messung auch nacheinander zu beliebigen Zeitpunkten t1 , t2 , . . . , tn an den einzelnen Musterfunktionen erfolgen. Da aber zur korrekten Mittelwertbildung diese Messungen immer noch an der gesamten Schar der Zufallssignale vorgenommen werden m¨ ussen, taucht die Frage auf, ob es f¨ ur bestimmte station¨are Prozesse nicht gen¨ ugt, diese Messungen an einer einzigen Musterfunktion vorzunehmen. Diese Frage ist f¨ ur die Anwendung der Theorie stochastischer Prozesse sehr wichtig, da h¨ aufig u ur das ¨berhaupt nur eine einzige Quelle f¨ interessierende Zufallssignal zur Verf¨ ugung steht. Verallgemeinert definiert man zu diesem Zweck Zeitmittelwerte eines station¨ aren Prozesses [f¨ ur die Existenz dieser Mittelwerte gilt sinngem¨aß die Bemerkung unter (6.1)]:
178
6. Statistische Signalbeschreibung
1. Ordnung: F [ks(t)]
1 = lim T →∞ 2T
T F [ks(t)]dt ,
(6.9)
−T
2. Ordnung: F [ks(t), ks(t
1 + τ )] = lim T →∞ 2T
T F [ks(t), ks(t + τ )]dt
f¨ ur alle k ,
−T
(6.10) (usw. f¨ ur h¨ ohere Ordnungen) und verlangt, dass diese Zeitmittel jeweils f¨ ur alle Musterfunktionen untereinander gleich und gleich den entsprechenden Scharmitteln sind. F¨ ur die Mittel l. Ordnung muss also gelten E {F [s(t1 )]} = F [ks(t)]
t1 , k beliebig ;
(6.11)
desgleichen f¨ ur alle h¨ oheren Verbundmittelwerte. Derartige station¨ are Prozesse, f¨ ur die alle Zeitmittel gleich den entsprechenden Scharmitteln sind, nennt man ergodische Prozesse. Sinngem¨aß verlangt man bei einem schwach ergodischen Prozess diese Gleichheit nur f¨ ur linearen Mittelwert und Autokorrelationsfunktion. Steht nur eine einzi¨ ge Quelle f¨ ur ein Zufallssignal zur Verf¨ ugung, dann kann die Ubereinstimmung von Zeit- und Scharmitteln nat¨ urlich nicht u uft werden. Kann ¨berpr¨ man aber annehmen, dass der physikalische Erzeugungsmechanismus f¨ ur alle Zufallssignale des hypothetischen Prozesses der gleiche ist (wie im Beispiel thermisches Rauschen gleich großer Widerst¨ande auf gleicher Temperatur), dann ist der ergodische Prozess ein brauchbares mathematisches Modell zur Beschreibung des Zufallssignals der verf¨ ugbaren Quelle. 6.1.3 Mittelwerte 1. Ordnung Unter den durch (6.3) definierten Mittelwerten 1. Ordnung von Zufallsgr¨oßen oder Zufallsprozessen sind besonders der lineare und der quadratische Mittelwert von praktischer Bedeutung und sollen etwas n¨aher betrachtet werden. Die Bildung des Scharmittelwertes l. Ordnung nach (6.3) geschieht durch eine lineare Operation, es gilt daher ein Superpositionsgesetz f¨ ur den Mittelwert einer Summe von Zufallsgr¨ oßen si (ti ) oder Funktionen von Zufallsgr¨ oßen F [si (ti )] aus beliebigen Prozessen a1 ks1 (t1 ) + a2 ks2 (t2 ) + . . .
f¨ ur alle k
in der Form (Aufgabe 6.3) ai si (ti ) = ai E {si (ti )} . E i
i
(6.12)
6.1 Beschreibung von Zufallssignalen durch Mittelwerte
179
Der Scharmittelwert einer Summe von Zufallsgr¨oßen ist also gleich der Summe ihrer Scharmittelwerte (s. Aufgabe 6.3). 3 2 Der quadratische Scharmittelwert E s2 (t1 ) einer Zufallsgr¨oße wird Augenblicksleistung zur Zeit t1 des zugeh¨ origen Zufallsprozesses genannt. Bei station¨ aren Prozessen ist die Augenblicksleistung vom Zeitpunkt t1 unabh¨ angig und wird als die Leistung Ls derartiger Prozesse bezeichnet. Die Differenz5 2 3 σs2 = Ls − m2s = E s2 (t) − [E {s(t)}]2 (6.13) wird Streuung bzw. Varianz des station¨ aren Prozesses s(t) genannt, deren positive Quadratwurzel σs die Standardabweichung. Eine einfache physikalische Deutung erhalten diese Begriffe f¨ ur Musterfunktionen ergodischer Prozesse. Hier kennzeichnet der lineare Zeitmittelwert den Gleichanteil des Signals, mit (6.9) ist6 1 ms = s(t) = lim T →∞ 2T
T s(t)dt .
(6.14)
−T
Der quadratische Zeitmittelwert 1 T →∞ 2T
T s2 (t)dt .
Ls = s2 (t) = lim
(6.15)
−T
ist nach (4.4) die normierte Leistung des Zufallssignals oder auch des ergodischen Prozesses. Subtrahiert man von dieser Gesamtleistung des Zufallssignals die Leistung des Gleichanteils, dann erh¨ alt man die Leistung des Wechselanteils 2
σs2 = Ls − m2s = s2 (t) − s(t)
(6.16)
Die durch (6.13) definierte Streuung kann also als normierte Wechselleistung interpretiert werden und entsprechend die Standardabweichung σs als normierter Effektivwert des Wechselanteils des Zufallssignals. 6.1.4 Autokorrelationsfunktion station¨ arer Prozesse Die Autokorrelationsfunktion (AKF) eines wenigstens im weiten Sinn station¨ aren Prozesses wird durch (6.8) beschrieben. Entsprechend erh¨alt man 5 6
˘ ¯ F¨ ur komplexwertige Prozesse entsprechend σs2 = E |s(t)|2 − |E {s(t)} |2 . Der Index k zur Kennzeichnung einer bestimmten Musterfunktion kann bei ergodischen Prozessen wegen (6.11) wegfallen. Prinzipiell k¨ onnen die folgenden Gr¨ oßen aber auch bei nicht-ergodischen Prozessen f¨ ur einzelne Musterfunktionen k als k ms , k Ls usw. bestimmt werden. Bei ergodischen Prozessen gilt dann außerdem k ms = ms f¨ ur alle k, ebenso f¨ ur alle anderen Zeitmittelwerte.
180
6. Statistische Signalbeschreibung
mit (6.10) f¨ ur die Autokorrelationsfunktion eines ergodischen Prozesses den Zeitmittelwert 1 ϕss (τ ) = s(t)s(t + τ ) = lim T →∞ 2T
T s(t)s(t + τ )dt = ϕLss (τ ) .
(6.17)
−T
Dieser Zeitmittelwert definiert auch die Autokorrelationsfunktion determinierter Leistungssignale (Aufgabe 4.3). Die in Kap. 4 f¨ ur die Impulsautokor(τ ) determinierter Energiesignale abgeleiteten Eigenrelationsfunktionen ϕE ss schaften finden sich in verallgemeinerter Form im Folgenden wieder.7 Die wichtigsten Eigenschaften der Autokorrelationsfunktion eines station¨ aren oder wenigstens im weiten Sinn station¨aren Prozesses sind: a) Der Wert der Autokorrelationsfunktion (6.8) f¨ ur τ = 0 ergibt 2 2 3 (6.18) ϕss (0) = E s (t) = Ls , also den quadratischen Mittelwert oder die Leistung Ls des Prozesses, b) F¨ ur t = −τ in (6.8) ist ϕss (τ ) = E {s(−τ )s(0)} = ϕss (−τ ) .
(6.19)
Die Autokorrelationsfunktion ist also eine gerade Funktion. c) Mit der Ungleichung 3 2 E [s(t) ± s(t + τ )]2 ≥ 0 gilt nach Anwendung der Superpositionseigenschaft (6.12) auf die Summe der Produkte 2 3 2 3 E s2 (t) + E s2 (t + τ ) ± 2E {s(t)s(t + τ )} ≥ 0 . Mit (6.18) ist also 2ϕss (0) ± 2ϕss (τ ) ≥ 0 und damit ϕss (0) ≥ |ϕss (τ )| .
(6.20)
Der Wert der Autokorrelationsfunktion im Nullpunkt wird also an keiner Stelle u ¨ berschritten. Als typisches Beispiel ist in Abb. 6.3 die Autokorrelationsfunktion eines weiter unten besprochenen Zufallsprozesses dargestellt. Anmerkung: F¨ ur einige sp¨ atere Anwendungsf¨alle ist es n¨ utzlich, die Autokorrelationsfunktion eines station¨ aren Prozesses nach Subtraktion des linearen 7
Die Beziehungen f¨ ur komplexwertige Korrelationsfunktionen, die in Kap. 4 hergeleitet wurden, gelten bei Leistungssignalen entsprechend. Im Folgenden werden nur in besonders begr¨ undeten F¨ allen weitere Hinweise gegeben.
6.1 Beschreibung von Zufallssignalen durch Mittelwerte
181
Abb. 6.3. Autokorrelationsfunktion mittelwertfreien, tiefpassbegrenzten weißen Rauschens (Abschn. 6.2.4)
Mittelwertes ms aus (6.7) zu bilden. F¨ ur diese sogenannte Autokovarianzfunktion µss (τ ) gilt µss (τ ) = E {[s(t) − ms ][s(t + τ ) − ms ]} . Mit (6.7) und der Superpositionseigenschaft (6.12) wird8 µss (τ ) = E {s(t)s(t + τ )}−ms E {s(t)}−ms E {s(t + τ )}+m2s = ϕss (τ )−m2s . (6.21) F¨ ur τ = 0 folgt mit (6.18) und mit der Definition der Streuung (6.13) µss (0) = σs2 .
(6.22)
Enth¨ alt der Prozess insbesondere keine periodischen Komponenten, dann strebt die Autokovarianzfunktion f¨ ur |τ | → ∞ i. Allg. gegen Null, die Autokorrelationsfunktion mit (6.21) entsprechend gegen m2s . F¨ ur mittelwertfreie Prozesse sind Autokovarianzfunktion und Autokorrelationsfunktion identisch; Abb. 6.3 ist daher auch ein Beispiel f¨ ur eine Autokovarianzfunktion mit der Eigenschaft (6.22). 6.1.5 Kreuzkorrelationsfunktion station¨ arer Prozesse In vielen Anwendungsf¨ allen stellt sich die Aufgabe, zwei Zufallssignale zu addieren, beispielsweise Nutz- und St¨ orsignal. Werden in diesem Sinn die Musterfunktionen der zwei station¨ aren Prozesse u(t) und v(t) addiert k
s(t) = ku(t) + kv(t)
f¨ ur alle k, t ,
dann bilden diese Summen i. Allg. einen ebenfalls station¨aren Prozess s(t). Voraussetzung hierf¨ ur ist, dass die addierten Zufallsprozesse auch verbunden 8
F¨ ur komplexwertige Prozesse µss (τ ) = E {s∗ (t)s(t + τ )} − |ms |2 . | {z } ϕss (τ )
182
6. Statistische Signalbeschreibung
station¨ar sind, d. h. dass auch ihre gemeinsamen statistischen Eigenschaften unabh¨ angig gegen¨ uber beliebigen gemeinsamen Zeitverschiebungen sind. Diese Eigenschaft kann im Folgenden bei der gemeinsamen Betrachtung zweier station¨ arer Prozesse i. Allg. stets vorausgesetzt werden. Entsprechendes gilt f¨ ur verbunden ergodische Prozesse. Die Autokorrelationsfunktion des Summenprozesses ist ϕss (τ ) = E {s(t)s(t + τ )} = E {[u(t) + v(t)][u(t + τ ) + v(t + τ )]} . Nach Ausmultiplizieren der Klammern folgt mit der Superpositionseigenschaft (6.12) ϕss (τ ) = E {u(t)u(t + τ )} + E {u(t)v(t + τ )} + E {v(t)u(t + τ )} + E {v(t)v(t + τ )} = ϕuu (τ ) + ϕuv (τ ) + ϕvu (τ ) + ϕvv (τ ) .
(6.23)
Dabei werden ϕuv (τ ) = E {u(t)v(t + τ )} und ϕvu (τ ) = E {v(t)u(t + τ )} = ϕuv (−τ )
(6.24)
die Kreuzkorrelationsfunktionen der beiden Prozesse u(t) und v(t) genannt. Bildet man entsprechend (6.21) eine Kreuzkovarianzfunktion, dann gilt (Aufgabe 6.3)9 µuv (τ ) = E {[u(t) − E {u(t)}][v(t + τ ) − E {v(t)}]} = ϕuv (τ )−mu mv . (6.25) Aus (6.23) l¨ asst sich f¨ ur τ = 0 die Leistung eines Summenprozesses oder auch einer Summe von Zufallsgr¨ oßen berechnen. Es gilt mit (6.24) f¨ ur die Leistung Ls = ϕss (0) = ϕuu (0) + ϕvv (0) + 2ϕuv (0) ,
(6.26)
bzw. f¨ ur die Streuung mit (6.22) entsprechend σs2 = µss (0) = σu2 + σv2 + 2µuv (0) . Unter der Bedingung ϕuv (0) = 0 addieren sich also in einfacher Weise die Leistungen zweier station¨ arer Prozesse. Entsprechend addieren sich f¨ ur ϕuv (0) = 0 die Streuungen.
6.2 Zufallssignale in LTI-Systemen ¨ F¨ ur jede Musterfunktion ks(t) eines stochastischen Prozesses gilt bei Ubertragung u ¨ ber ein LTI-System der Impulsantwort h(t) das Faltungsprodukt 9
F¨ ur komplexwertige Prozesse: ϕuv (τ ) = E {u∗ (t)v(t + τ )} und µuv (τ ) = ϕuv (τ ) − m∗u mv .
6.2 Zufallssignale in LTI-Systemen
s(t) ∗ h(t) = kg(t) .
k
183
(6.27)
Der Ausgangsprozess g(t) kann wieder durch Mittelwerte und Verbundmittelwerte beschrieben werden. Die Berechnung der wichtigsten dieser Mittelwerte aus den Mittelwerten des Eingangsprozesses wird im Folgenden diskutiert. Ganz allgemein l¨ asst sich zeigen, dass, wenn das Faltungsintegral existiert, ¨ bei Ubertragung u ¨ ber beliebige LTI-Systeme ein station¨arer Prozess station¨ ar, ein schwach station¨ arer Prozess schwach station¨ar und ein ergodischer Prozess ergodisch bleibt. Weiter sind Ein- und Ausgangsprozess dann auch verbunden station¨ ar bzw. verbunden ergodisch (Papoulis, 1991). 6.2.1 Linearer Mittelwert Mit (6.27) gilt f¨ ur den Scharmittelwert am Ausgang eines LTI-Systems h(t) H(f ) ⎧ ∞ ⎫ ⎨ ⎬ s(τ )h(t1 − τ )dτ . mg = E {g(t1 )} = E ⎩ ⎭ −∞
Interpretiert man das Integral als Grenzwert einer Summe, dann l¨asst sich das Superpositionsgesetz (6.12) anwenden, und es gilt ∞ E {s(τ )} h(t1 − τ )dτ .
mg = −∞
Ist s(τ ) ein station¨ arer Prozess, dann ist der Scharmittelwert unter dem Integral von τ unabh¨ angig, und es gilt ∞ mg = E {s(t)} −∞
∞ h(t − τ )dτ = ms
h(τ )dτ = ms H(0) .
(6.28)
−∞
Der Mittelwert wird also wie der Gleichanteil eines determinierten Signals u ¨bertragen. 6.2.2 Quadratischer Mittelwert und Autokorrelationsfunktion Im Gegensatz zum Verhalten des Mittelwertes l¨asst sich die Ausgangsleistung nicht allein aus der Eingangsleistung und den Eigenschaften des Systems bestimmen, da hier auch die dynamischen Eigenschaften (Frequenzverhalten) der Zufallssignale eingehen. Es wird daher im Folgenden allgemeiner gezeigt, ¨ wie sich die Autokorrelationsfunktion bei der Ubertragung eines Prozesses u andert. Entsprechend (6.8) ist im station¨aren Fall ¨ber ein LTI-System ver¨ die Autokorrelationsfunktion des Ausgangsprozesses g(t) definiert als
184
6. Statistische Signalbeschreibung
ϕgg (τ ) = E {g(t)g(t + τ )} .
(6.29)
Mit (6.27) gilt nach Ausschreiben der Faltungsintegrale (wobei zwei verschiedene Integrationsvariable θ und µ verwendet werden) ∞ g(t) · g(t + τ ) =
k
∞ h(θ) s(t − θ)dθ
k
k
−∞
h(µ)ks(t + τ − µ)dµ
−∞
sowie nach Zusammenfassen in ein Doppelintegral ∞ ∞ s(t − θ)ks(t + τ − µ)h(θ)h(µ)dθdµ .
k
= −∞ −∞
Durch Scharmittelung ist dann in gleicher Weise wie in Abschn. 6.2.1 ∞ ∞ E {s(t − θ)s(t + τ − µ)} h(θ)h(µ)dθdµ .
ϕgg (τ ) = −∞ −∞
Mit E {s(t − θ)s(t + τ − µ)} = ϕss (τ − µ + θ) und der Substitution ν = µ − θ wird dann ∞ ∞ ϕss (τ − ν)h(θ)h(ν + θ)dθdν
ϕgg (τ ) = −∞ −∞
∞ = −∞
Mit
∞ −∞
⎡
ϕss (τ − ν) ⎣
∞
⎤ h(θ)h(ν + θ)dθ⎦ dν .
−∞
h(θ)h(ν + θ)dθ = ϕE hh (ν) als Impulsautokorrelationsfunktion der Fil-
terimpulsantwort nach (4.12) folgt10 ∞ ϕss (τ − ν)ϕE hh (ν)dν
ϕgg (τ ) =
oder
−∞
ϕgg (τ ) = ϕss (τ ) ∗ ϕE hh (τ ) .
(6.30)
Dieser Ausdruck ist die Wiener-Lee-Beziehung 11 zwischen den Autokorrelati¨ onsfunktionen eines station¨ aren Prozesses vor und nach Ubertragung u ¨ ber ein 10
11
ϕE hh (ν) ist nur sinnvoll definiert bei absolut integrierbaren Impulsantworten, d.h. bei stabilen Systemen. Norbert Wiener (1894–1964), amerik. Mathematiker (s. Anhang zum Literaturverzeichnis) und Yuk Wing Lee (1904–1989), chin.-amerik. Ingenieur.
6.2 Zufallssignale in LTI-Systemen
185
LTI-System. Formal stimmt (6.30) also v¨ ollig mit der entsprechenden Beziehung (4.26) f¨ ur die Autokorrelationsfunktionen von Energiesignalen u ¨ berein, doch sei noch einmal daran erinnert, dass die Autokorrelationsfunktion ϕss (τ ) eines Zufallsprozesses und die Impulsautokorrelationsfunktion ϕE hh (τ ) eines determinierten Signals verschieden definiert sind. Die Berechnung des Faltungsprodukts in der Wiener-Lee-Beziehung kann in vielen F¨ allen mit Hilfe des Faltungstheorems (2.12) der Fourier-Transformation vereinfacht werden: Mit der zun¨ achst formal gebildeten FourierTransformation ϕss (τ )
φss (f )
(6.31)
und (4.20) folgt f¨ ur (6.30) als Berechnungsvorschrift im Frequenzbereich φgg (f ) = φss (f ) · |H(f )|2 .
(6.32)
Die Beziehung (6.31) wird im Folgenden noch n¨aher diskutiert. 6.2.3 Leistungsdichtespektrum Zun¨ achst wird noch einmal an die Verh¨ altnisse bei determinierten Energiesignalen erinnert: Der Impulsautokorrelationsfunktion eines determinierten Energiesignals wurde durch (4.20) ein Energiedichtespektrum zugeordnet ϕE ss (τ )
|S(f )|2 .
F¨ ur τ = 0 folgte daraus die Parseval’sche Beziehung (4.22) f¨ ur die Energie des Signals ∞
∞ |s(t)| dt =
|S(f )|2 df .
2
Es = −∞
−∞
Der Term |S(f )|2 df kann in diesem Ausdruck als Teilenergie interpretiert werden, die in einem schmalen Frequenzband mit der Breite df und der Mittenfrequenz f gemessen wird. Die Summe u ¨ ber alle Teilenergien dieser orthogonalen Teilsignale ergibt dann die Gesamtenergie des Signals. Entsprechend kann auch der zun¨ achst formal in (6.31) definierten FourierTransformierten φss (f ) der Autokorrelationsfunktion eines station¨aren Prozesses eine physikalische Deutung gegeben werden: F¨ ur τ = 0 gilt mit (6.18) und (6.31) f¨ ur die Leistung eines station¨ aren Prozesses ∞ Ls = ϕss (0) =
φss (f )df .
(6.33)
−∞
Auch hier l¨ asst sich in entsprechender Weise φss (f )df als Teilleistung in einem schmalen Frequenzband der Breite df auffassen, wobei die Summe u ¨ ber
186
6. Statistische Signalbeschreibung
alle Teilleistungen die Leistung des Prozesses ergibt. φss (f ) kann deshalb als Leistungsdichtespektrum des Prozesses s(t) interpretiert werden. Wie das Energiedichtespektrum ist auch das Leistungsdichtespektrum reell und nicht negativwertig; f¨ ur reellwertige Signale ist es weiterhin eine um f = 0 symmetrische Funktion. Verallgemeinert erh¨ alt man ebenso das Kreuzleistungsdichtespektrum als Fourier-Transformierte der Kreuzkorrelationsfunktion. Wie das Kreuzenergiedichtespektrum (4.24) ist auch das Kreuzleistungsdichtespektrum eine komplexwertige Funktion. Anmerkung: Die eigentliche Ableitung des Leistungsdichtespektrums eines station¨ aren Prozesses geht nicht von der Fourier-Transformierten der Autokorrelationsfunktion aus, sondern definiert φss (f ) = lim
T →∞
3 1 2 T E |S (f, t)|2 , T
(6.34)
k T wobei kS T (f, t) s (τ, t) die Kurzzeit-Fourier-Transformierten von Ausschnitten der Dauer T aus Musterfunktionen des Prozesses sind (vgl. Abat von (6.34) mit (6.31) ist dann die eigentliche Ausschn. 2.9)12 . Die Identit¨ sage des Wiener-Khintchine-Theorems 13 . H¨ aufig wird jedoch auch bereits (6.31) so bezeichnet (Davenport und Root, 1958).
6.2.4 Weißes Rauschen ¨ St¨ orsignale, wie sie in praktischen Ubertragungssystemen auftreten, k¨onnen h¨aufig als Musterfunktionen eines station¨ aren oder schwach station¨aren Prozesses aufgefasst werden, dessen Leistungsdichtespektrum in einem großen Frequenzbereich n¨ aherungsweise konstant ist. Idealisierend setzt man14 φss (f ) = N0 12
13 14
(6.35)
Auf Grund der Stationarit¨ at besteht Unabh¨ angigkeit von der Zeit t, zu welcher die Ausschnitte den Musterfunktionen des Prozesses entnommen werden. Werden bei einem ergodischen Prozess die Spektren aus aneinander anschließenden Zeitfenstern eines einzelnen Zufallssignals gem¨ aß (2.88) gebildet, ergibt sich der Grenz¨ ubergang unter Betrachtung von (2.90) in einleuchtender Weise. Gegebenenfalls ist zus¨ atzlich ein Gewichtungsfaktor c = 1 zu ber¨ ucksichtigen. Aleksander J. Khintchine (1894–1959), russ. Mathematiker. In vielen Ver¨ offentlichungen geht man bei reellwertigen Signalen von einem einseitig, d. h. nur f¨ ur f ≥ 0 definierten Leistungsdichtespektrum aus, und berechnet dann die Leistung durch spektrale Integration im Bereich 0 ≤ f ≤ ∞. Die so festgelegte Leistungsdichte N0 des weißen Rauschens muss dann im Vergleich zu (6.35) den doppelten Zahlenwert besitzen. Dies hat u.a. Auswirkungen auf die sp¨ ater verwendeten Parametrierungen von Bitfehlerberechnungen auf der Basis des Es /N0 -Verh¨ altnisses, bei denen dann ggf. ein zus¨ atzlicher Faktor 2 ber¨ ucksichtigt werden muss.
6.2 Zufallssignale in LTI-Systemen
187
und nennt Zufallsprozesse mit einem solchen f¨ ur alle Frequenzen konstanten Leistungsdichtespektrum mittelwertfreies weißes Rauschen.15 Nach dem Wiener-Khintchine-Theorem (6.31) gilt f¨ ur die Autokorrelationsfunktion des weißen Rauschens mit der Fourier-Transformierten des Dirac-Impulses (2.13) ϕss (τ ) = N0 δ(τ ) .
(6.36)
Aus (6.35) folgt mit (6.33), dass die Leistung des weißen Rauschens unendlich groß ist. Weißes Rauschen stellt also ein physikalisch nicht realisierbares Modell eines Zufallsprozesses dar. H(f ) Liegt am Eingang eines LTI-Systems der Impulsantwort h(t) weißes Rauschen, dann gilt mit der Wiener-Lee-Beziehung (6.30) f¨ ur Autokorrelationsfunktion und Leistungsdichtespektrum des Ausgangsprozesses g(t) E ϕgg (τ ) = ϕE hh (τ ) ∗ [N0 δ(τ )] = N0 ϕhh (τ )
(6.37) N0 |H(f )|2 .
φgg (f ) =
Durch das LTI-System wird weißes Rauschen in sogenanntes farbiges“ Rau” schen umgewandelt, wobei das Leistungsdichtespektrum dieses farbigen Rauschens, abgesehen von dem Faktor N0 , mit dem Energiedichtespektrum von h(t) u ¨ bereinstimmt. Die Leistung des farbigen Rauschens ist mit (6.18), der Wiener-Lee-Beziehung (6.30) sowie dem Parseval’schen Theorem (4.22) Lg = ϕgg (0) = N0 ϕE hh (0) ∞ ∞ 2 |h(t)| dt = N0 |H(f )|2 df . = N0 −∞
(6.38)
−∞
¨ Als einfaches Beispiel sei die Ubertragung von weißem Rauschen u ¨ber einen idealen Tiefpass der Grenzfrequenz fg betrachtet. Mit (5.8) und (6.37) folgt f¨ ur das Leistungsdichtespektrum und die Autokorrelationsfunktion dieses tiefpassbegrenzten Rauschens " "2 " " φgg (f ) = N0 "rect 2ff g " = N0 rect 2ff g (6.39) ϕgg (τ ) =
N0 2fg si(π2fg τ ) .
Der Verlauf von ϕgg (τ ) war als typisches Beispiel einer Autokorrelationsfunktion bereits in Abb. 6.3 dargestellt worden. Mit (6.39) erh¨alt man f¨ ur die 15
In (nicht ganz passender) Analogie zum weißen Licht, das alle sichtbaren Spektralanteile des Sonnenlichtes ungefiltert, wenn auch nicht mit konstanter Leistungsdichte, enth¨ alt.
188
6. Statistische Signalbeschreibung
Leistung des weißen Rauschens in einem begrenzten Frequenzbereich |f | ≤ fg den endlichen Wert Lg = ϕgg (0) = N0 2fg .
(6.40)
Anmerkung: Ein Beispiel f¨ ur eine in einem weiten Frequenzbereich (etwa 0 bis 1010 Hz) g¨ ultige, physikalisch realisierte N¨aherung an weißes Rauschen ist die an einem Widerstand R der absoluten Temperatur Tabs (in Kelvin) auftretende Rauschspannung u(t), die man als thermisches Rauschen, W¨armerauschen oder Widerstandsrauschen bezeichnet. Im Frequenzbereich |f | ≤ fg gilt f¨ ur den quadratischen Mittelwert dieses Widerstandsrauschens im Leerlauf gemessen16 2 3 E u2 (t) = 4kTabs Rfg (6.41) mit k = 1, 38 · 10−23 Ws K−1
(Boltzmann-Konstante)
oder anschaulicher bei Zimmertemperatur (genauer 16, 6◦C) kTabs = 4 pW/GHz Mit (6.40) ergibt sich dann f¨ ur das Widerstandsrauschen eine normierte Leistungsdichte von 2 3 E u2 (t) N0 = = 2kTabs R f¨ ur |f | < 1010 Hz . (6.42) 2fg Die einem rauschenden Widerstand in einem Frequenzbereich |f | ≤ fg bei Leistungsanpassung entnehmbare h¨ ochste Leistung betr¨agt damit (Aufgabe 6.16) 3 2 E u2 (t) = kTabs fg . Lmax = (6.43) 4R 6.2.5 Korrelationsfilter-Empfang gest¨ orter Signale Ausgangspunkt f¨ ur viele der in den folgenden Kapiteln behandelten Themen ist die Aufgabe, ein durch weißes Rauschen additiv gest¨ortes Nutzsignal optimal zu empfangen, das heißt, den Einfluss des St¨orsignals m¨oglichst zu verringern. Diese Aufgabe wird hier zun¨ achst in einfacher Form gestellt und mit den abgeleiteten Kenntnissen u ber Zufallssignale gel¨ost. ¨ ¨ Gegeben sei das in Abb. 6.4 dargestellte Ubertragungssystem. Der Sender erzeugt zu einer bekannten Zeit ein impulsf¨ ormiges Tr¨agersignal mit einer dem Empf¨ anger bekannten Form s(t), das u ¨ber einen gest¨orten, aber verzerrungsfreien Kanal u ¨bertragen wird. 16
Nach Vorarbeiten von W. Schottky und J. B. Johnson wurde die f¨ ur thermisches Rauschen g¨ ultige Beziehung (6.41) 1928 von H. Nyquist abgeleitet (Anhang zum Literaturverzeichnis).
6.2 Zufallssignale in LTI-Systemen
189
¨ Abb. 6.4. Ubertragungssystem
Am Eingang des Empf¨ angers liegt dann die Summe s(t)+n(t) aus Sendesignal und St¨ orsignal. Der Empf¨ anger m¨ oge zun¨ achst nur aus einem LTI-System der Impulsantwort h(t) und einem Abtaster bestehen. Das Ausgangssignal des Empfangsfilters lautet y(t) = [s(t) + n(t)] ∗ h(t) = [s(t) ∗ h(t)] + [n(t) ∗ h(t)]
= g(t) + ne (t) ,
(6.44)
wobei g(t) der Nutzsignalanteil und ne (t) der St¨orsignalanteil am Ausgang des Empfangsfilters sind. Zur Zeit T wird dann am Filterausgang ein Wert y(T ) = g(T ) + ne (T )
(6.45)
abgetastet. Das St¨ orsignal n(t) und damit auch das Filterausgangssignal y(t) sind Musterfunktionen von Zufallsprozessen. Um die Signale im Empf¨anger durch Scharmittelwerte geeignet beschreiben zu k¨onnen, wird der Fall be¨ trachtet, dass Ubertragungssysteme nach Abb. 6.4 parallel und unabh¨angig voneinander in hinreichender Zahl zur Verf¨ ugung stehen, und dass alle Sender gleichzeitig das identische Signal s(t) aussenden. Als Kriterium f¨ ur eine optimale Filterung soll jetzt verlangt werden, dass im Abtastzeitpunkt T das Verh¨ altnis der Augenblicksleistung des Nutzsignals 2 3 Sa = E g 2 (T ) zur Augenblicksleistung des St¨ orsignals 3 2 2 N = E ne (T ) ur maximal wird. Da s(t) ein determiniertes Signal ist, d. h. kg(t) = g(t) f¨ alle k ist, gilt Sa = g 2 (T ) .
(6.46)
Das Nutz-/St¨ orleistungsverh¨ altnis ist also g 2 (T ) Sa = . N E {n2e (T )}
(6.47)
190
6. Statistische Signalbeschreibung
Unter der Annahme, dass n(t) weißes Rauschen ist, gilt mit (6.38) 3 2 N = E n2e (T ) = N0
∞ |h(t)|2 dt .
−∞
Mit dem Faltungsintegral ∞ h(τ )s(T − τ )dτ
g(T ) = −∞
altnis folgt dann f¨ ur das Sa /N -Verh¨ " "2 " ∞ " " " h(τ )s(T − τ )dτ " " " " −∞ Sa . = ∞ N 2 N0 |h(t)| dt −∞
Erweitern mit der Signalenergie17 ∞
∞ |s(t)| dt ≡
|s(T − τ )|2 dτ
2
Es = −∞
−∞
f¨ uhrt zu
Sa Es = N N0
"2 " " " ∞ " " h(τ )s(T − τ )dτ " " " "−∞ . ∞ ∞ |h(τ )|2 dτ |s(T − τ )|2 dτ
−∞
(6.48)
−∞
Der rechte Bruch in diesem Ausdruck kann nach (4.7) als Betragsquadrat des normierten Impulskreuzkorrelationskoeffizienten pE sh zwischen den Funktionen h(t) und s(T − t) aufgefasst werden, damit ist Es E 2 Sa = |p | . N N0 sh
(6.49)
Da weiter nach (4.8) und (4.9) das Betragsquadrat des Kreuzkorrelationskoeffizienten maximal den Wert 1 annehmen kann, ergibt sich f¨ ur das bestm¨oglialtnis der Ausdruck che Sa /N -Verh¨ 17
Es bezieht sich hier wie im Folgenden auf die am Kanalausgang bzw. Empf¨ angereingang noch verf¨ ugbare Energie des Nutzsignals. Deren Gr¨ oße im Vergleich zur Sendeenergie ist insbesondere abh¨ angig von der D¨ ampfung der ¨ Ubertragungsstrecke.
6.2 Zufallssignale in LTI-Systemen
" Sa "" Es = . N "max N0
191
(6.50)
2 E Der Maximalwert |pE sh | = 1 wird erreicht bei psh = ±1, also nach (4.8) und 18 (4.9) f¨ ur
h(t) = ±as∗ (T − t)
a positiv, reell .
(6.51)
Durch diese zum Signal zeitgespiegelte Impulsantwort ist also ein Empfangsfilter bestimmt, welches das Sa /N -Verh¨ altnis maximiert. Ein Filter mit dieser Optimaleigenschaft, das durch die in (6.51) gezeigte Art an das Sendesignal und das St¨ orsignal angepasst“ ist, wird in der englischsprachigen Literatur ” als matched filter 19 bezeichnet. Die Gleichung (6.51) zeigt, dass das Sa /N Verh¨ altnis am Ausgang eines matched filter nur von der Energie Es des Signals s(t) und der Leistungsdichte N0 des St¨ orsignals n(t) abh¨angt, nicht jedoch von der Form des Signals s(t). Aus Abb. 6.5, in der als Beispiel ein zeitbegrenztes Signal s(t) und die zugeordnete Impulsantwort h(t) eines matched filter dargestellt sind, ist zu entnehmen, dass ein kausales matched filter nur dann vorliegt, wenn T gr¨oßer oder mindestens gleich der Gesamtdauer des Sendesignals s(t) ist.
Abb. 6.5. Beispiel f¨ ur die Impulsantwort h(t) eines auf s(t) angepassten Filters (k = 1) und das Ausgangssignal s(t) ∗ h(t) = g(t)
¨ Im st¨ orungsfreien Fall, n(t) = 0, erscheint bei Ubertragung des Signals s(t) am Ausgang des matched filter g(t) = s(t) ∗ [±as∗ (T − t)] = ±aϕE ss (t − T ) ,
(6.52)
also die um T verschobene und mit ±a skalierte Impulsautokorrelationsfunktion des Signals. Daher r¨ uhrt auch der im Folgenden benutzte Name Korrelationsfilter. Der zur Zeit t = T gebildete Abtastwert hat dann die Gr¨oße 18
19
¨ Bei physikalischer Deutung beispielsweise in der Ubertragung elektrischer zeitabh¨ angiger Signale besitzt h(t) die Dimension [1/s], s(t) die Dimension [V ] und a demgem¨ aß die Dimension [1/V s]. to match: anpassen, daher auch signalangepasstes Filter. Zuerst angegeben 1943 von dem amerik. Physiker Dwight O. North (1909–1998) f¨ ur den Empfang von Radarsignalen (Anhang zum Literaturverzeichnis).
192
6. Statistische Signalbeschreibung
g(T ) = ±aϕE ss (0) ,
(6.53)
bzw. mit (6.46) Sa = aEs .
(6.54)
Dieser Zusammenhang zeigt, dass die am Ausgang des Korrelationsfilters gebildete verschobene Impulsautokorrelationsfunktion des Signals in ihrem Maximum abgetastet wird (Abb. 6.5). Ist das Signal s(t) zeitbegrenzt, dann kann die Zusammenschaltung von Korrelationsfilter und Abtaster auch durch einen Korrelator ersetzt werden. Mit der Definition der Impulskorrelationsfunktion (4.12) gilt f¨ ur (6.53) bei einem Signal s(t) im Zeitabschnitt (0; T ) T g(T ) =
±kϕE ss (0)
=
s(t) · [±as∗ (t)]dt .
(6.55)
0
Diese Operation wird in einem Korrelator, wie Abb. 6.6 zeigt, durch Multiplikation des Eingangssignals mit einem im Empf¨anger erzeugten Signalmuster, Kurzzeit-Integration u ¨ber T und Abtastung realisiert. Besonders einfach wird diese Schaltung f¨ ur den Fall eines rechteckf¨ ormigen s(t) = rect(t/T − 1/2), da dann auch noch die Multiplikation entfallen kann.
±a × j ssE (0)
± a × s * (t)
Abb. 6.6. Korrelator als Optimalempf¨ anger
¨ Abschließend sei noch angemerkt, dass f¨ ur die Ubertragungsfunktion des Korrelationsfilters mit den Fourier-Theoremen f¨ ur Zeitumkehr (2.41) und Verschiebung (2.42) gilt h(t) = ±as∗ (T − t) (6.56) H(f ) = ±aS ∗ (f )e−j2πT f . Daher ist auch die Bezeichnung konjugiertes Filter f¨ ur das Korrelationsfilter gebr¨ auchlich. In Verallgemeinerung des hier verfolgten Rechenganges l¨asst sich ein matched filter auch f¨ ur St¨ orung durch farbiges Rauschen angeben ¨ (s. hierzu Ubungen 9.3).
6.3 Verteilungsfunktionen
193
6.3 Verteilungsfunktionen In den anschließenden Kap. 7 und 8 wird gezeigt, wie mit Hilfe des Korre¨ lationsfilters oder Korrelators Ubertragungssysteme f¨ ur wertdiskrete Quellensignale wie bin¨ are Daten und f¨ ur wertkontinuierliche Quellensignale wie Sprach- oder Bildsignale aufgebaut werden k¨onnen. Das mit den bisherigen Kenntnissen u ¨ ber Zufallssignale definierte Signal¨ zu St¨ orleistungsverh¨ altnis ist dort als G¨ utemaß in analogen Ubertragungs¨ systemen sehr n¨ utzlich und aussagekr¨ aftig. In digitalen Ubertragungssystemen interessiert als G¨ utemaß dagegen an erster Stelle eine Aussage u ¨ ber die H¨ aufigkeit, mit der einzelne Signale im Empf¨anger falsch erkannt werden. Eine solche Verf¨ alschung wird durch einzelne hohe Spitzenwerte in der vom Korrelationsfilter u orspannung verursacht. Zur Berech¨bertragenen St¨ nung der H¨ aufigkeit dieser Ereignisse reicht die Beschreibung eines St¨orsignals durch sein Leistungsdichtespektrum nicht aus, sie muss durch eine Beschreibung erg¨ anzt werden, die etwas u ¨ ber die Verteilung der Amplituden eines Zufallssignals auf verschiedene Amplitudenbereiche aussagt. 6.3.1 Verteilungsfunktion und Wahrscheinlichkeit In einem Experiment wird entsprechend der Definition eines Scharmittelwertes in Abschn. 6.1.1 wieder eine Schar von Zufallssignalen ks(t) zu einem Beobachtungszeitpunkt t1 betrachtet, und es wird ausgez¨ahlt, dass von insgesamt M Beobachtungswerten ein Teil Mx einen Schwellenwert x nicht u ¨berschreitet. Es zeigt sich, dass mit wachsendem M das Verh¨altnis Mx /M einem konstanten Wert zustrebt, s. hierzu die Anmerkung unter (6.1). Dieser Grenzwert wird in Abh¨ angigkeit vom Schwellenwert x als Verteilungsfunktion (auch Wahrscheinlichkeitsverteilungsfunktion) der Zufallsgr¨oße s(t1 ) definiert als Mx . M→∞ M
(6.57)
Ps (x, t1 ) = lim
Im Folgenden wird durchweg angenommen, dass die betrachteten Zufallsgr¨ oßen s(t1 ) einem station¨ aren Prozess s(t) entnommen werden. Damit kann die Angabe einer bestimmten Beobachtungszeit t1 entfallen. Die Verteilungsur den gesamten Profunktion wird einfach Ps (x) geschrieben und gilt auch f¨ zess. Einige allgemein g¨ ultige Eigenschaften der Verteilungsfunktion folgen sofort aus der Definition (6.57). So kann bei Erh¨ohen der Schwelle die Zahl Mx der unter dieser Schwelle liegenden Beobachtungswerte nicht kleiner werden, also steigt die Verteilungsfunktion monoton mit x Ps (x1 ) ≤ Ps (x2 )
f¨ ur alle
x1 < x2 .
(6.58)
Liegt die Schwelle bei sehr hohen positiven bzw. negativen Amplituden, dann gilt in den Grenzf¨ allen
194
6. Statistische Signalbeschreibung
Ps (∞) = 1
und
Ps (−∞) = 0 .
(6.59)
Werden die Beobachtungswerte s(t1 ) einem ergodischen Prozess entnommen, dann kann die Verteilungsfunktion auch u ¨ ber eine zeitliche Mittelung an einer einzigen Musterfunktion ks(t) gebildet werden. Das Prinzip ist in Abb. 6.7 dargestellt.
Abb. 6.7. Bildung der Verteilungsfunktion durch zeitliche Mittelung der unterhalb der Schwelle x liegenden Zeitabschnitte des Zufallssignals ks(t) (Musterfunktion eines ergodischen Prozesses)
In einem begrenzten Zeitabschnitt (−T ; T ) liegt das Zufallssignal ks(t) w¨ahrend der Zeiten ∆t1 , ∆t2 , . . . unterhalb der Schwelle x. Bezieht man die Summe dieser Zeitabschnitte auf die gesamte Messzeit 2T , dann erh¨alt man im Grenz¨ ubergang entsprechend zu (6.57) wieder die Verteilungsfunktion als 1 ∆ti (x) . T →∞ 2T i
Ps (x) = lim
(6.60)
In Abb. 6.7 ist links die zugeh¨ orige Verteilungsfunktion in ihrer typischen Form eingezeichnet. Die Definition der Verteilungsfunktion ist eng verkn¨ upft mit dem Begriff der Wahrscheinlichkeit (lat. probabilitas bzw. engl. probability). Der in (6.57) gebildete Grenzwert wird als Wahrscheinlichkeit des Ereignisses bezeichnet, dass die Zufallsgr¨ oße s(t1 ) kleiner oder gleich dem Wert x ist; in symbolischer Schreibweise20 Ps (x, t1 ) = lim
M→∞
20
Mx = Prob[s(t1 ) ≤ x] . M
(6.61)
Der in diesem Kapitel benutzte Wahrscheinlichkeitsbegriff als Grenzwert (gemessener) H¨ aufigkeiten ist zwar anschaulich und der messtechnischen Praxis angemessen, aber im strengen Sinn nicht ganz befriedigend [vgl. die Bemerkung unter (6.1)]. In der Mathematik wird daher die Wahrscheinlichkeit axiomatisch definiert. Sie ist ein Maß, das einer Menge von Ereignissen zugeordnet ist. Dieses Maß kann durch einige wenige Eigenschaften festgelegt werden, die mit den idealisierten Eigenschaften der H¨ aufigkeiten f¨ ur große M u ur ein ¨ bereinstimmen. F¨ tieferes Eindringen muss hier auf die eingangs dieses Kapitels zitierte Literatur verwiesen werden.
6.3 Verteilungsfunktionen
195
6.3.2 Verteilungsdichtefunktion Aus der Verteilungsfunktion l¨ asst sich durch Differenzbildung ermitteln, mit welcher Wahrscheinlichkeit die Zufallsgr¨ oße s(t1 ) innerhalb eines begrenzten Amplitudenbereichs (x; x + ∆x) liegt. Mit (6.61) gilt hierf¨ ur Ps (x + ∆x) − Ps (x) = Prob[s(t) ≤ x + ∆x] − Prob[s(t) ≤ x] = Prob[x < s(t) ≤ x + ∆x] .
(6.62)
L¨ asst man im Grenzfall die Breite ∆x dieses Amplitudenbereiches gegen Null gehen und bezieht gleichzeitig die obige Wahrscheinlichkeit auf die Breite des Bereiches, so erh¨ alt man als Grenzwert dieses Differenzenquotienten die Verteilungsdichtefunktion als Ableitung der Verteilungsfunktion ps (x) = lim
∆x→0
d Ps (x + ∆x) − Ps (x) = Ps (x) . ∆x dx
(6.63)
In Umkehrung von (6.63) gilt dann x Ps (x) =
ps (ξ)dξ .
(6.64)
−∞
Da Ps (x) eine monoton steigende Funktion ist, folgt aus (6.63) sofort, dass die Verteilungsdichtefunktion nicht negativwertig ist, d. h. ps (x) ≥ 0 .
(6.65)
Weiter ergibt sich aus (6.64) f¨ ur x → ∞ mit (6.59) ∞ ps (ξ)dξ = Ps (∞) = 1 ,
(6.66)
−∞
die Fl¨ ache unter der Verteilungsdichtefunktion ist gleich Eins. Eine sehr einfache Form der Verteilungsdichtefunktion ist die Gleichverteilung oder Rechteckverteilung x − ms 1 ps (x) = rect . (6.67) a a Ein Beispiel f¨ ur ein gleich verteiltes, ergodisches Zufallssignal zusammen mit Verteilungsdichte- und Verteilungsfunktion ist in Abb. 6.8 dargestellt. Anmerkung: Die in diesem Beispiel behandelte Verteilungsfunktion ist stetig, man spricht dann von einer kontinuierlichen Verteilung. Enth¨alt die Verteilungsfunktion zus¨ atzlich Sprungstellen, dann treten in der zugeordneten
196
6. Statistische Signalbeschreibung
Abb. 6.8. Gleichverteiltes Zufallssignal mit Verteilungs- und Verteilungsdichtefunktion
Verteilungsdichtefunktion Dirac-Impulse auf. Besteht die Verteilungsdichtefunktion nur aus einer Summe von Dirac-Impulsen, dann nennt man sie eine diskrete Verteilung (Aufgabe 6.15). Da die Fl¨ ache unter der Verteilungsdichtefunktion eins sein muss, wird sich hier die Summe der Gewichte zu den Dirac-Impulsen zu eins ergeben. Aus der Verteilungsdichtefunktion ps (x) einer Zufallsgr¨oße s(t1 ) oder eines station¨ aren Prozesses s(t) lassen sich in einfacher Weise alle Mittelwerte erster Ordnung berechnen: F¨ ur die Wahrscheinlichkeit, dass die Zufallsgr¨oße in einem schmalen Amplitudenbereich (x; x + dx) liegt, gilt mit (6.62) und (6.64) und dem Mittelwertsatz der Integralrechnung x+dx
Prob[x < s(t) ≤ x + dx] =
ps (ξ)dξ ≈ ps (x)dx .
(6.68)
x
Man kann nun bei der Mittelwertbildung gem¨ aß (6.1) so vorgehen, dass die M einzelnen Summanden ks(t) unter der Summe zun¨achst in einzelne Teilsummen mit jeweils ann¨ ahernd gleicher Amplitude x im Bereich (x; x + dx) zusammengefasst werden. Jede dieser Teilsummen gibt dann, auf M bezogen, einen Beitrag der Gr¨ oße x · ps (x)dx zum Mittelwert. Der gesamte Mittelwert folgt nach Summierung u ¨ber alle diese Teilsummen als Integral
6.3 Verteilungsfunktionen
197
∞ ms = E {s(t)} =
xps (x)dx .
(6.69)
−∞
F¨ ur den quadratischen Mittelwert ergibt sich entsprechend 2 3 Ls = E s2 (t) =
∞ x2 ps (x)dx .
(6.70)
−∞
Auf Grund dieses Zusammenhangs werden linearer und quadratischer Mittelwert auch 1. und 2. Moment21 der Verteilung genannt. Allgemein gilt folgende Beziehung zwischen Erwartungswerten erster Ordnung und der Verteilungsdichtefunktion f¨ ur station¨are oder nicht-station¨are Prozesse: 2 3 E F [s(t(1) )] =
∞ F [x]ps [x(, t1 )]dx .
(6.71)
−∞
Anmerkung: Da die 1., 2. und h¨ oheren Momente sich andererseits auch als Koeffizienten einer Potenzreihenentwicklung der Verteilungsdichtefunktion ergeben, kann aus Messung gen¨ ugend vieler Momente die Verteilungsdichtefunktion rekonstruiert werden (Davenport und Root, 1958). Als Beispiel ergeben sich f¨ ur eine gleichverteilte station¨are Zufallsgr¨oße durch Einsetzen von (6.67) in (6.69) und (6.70) der Mittelwert 1 ms = E {s(t)} = a
∞ x rect −∞
x − ms a
dx
und die (normierte) Leistung 2 3 1 Ls = E s2 (t) = a
∞ 2
x rect −∞
x − ms a
dx =
a2 + m2s . 12
(6.72)
Gem¨ aß (6.13) hat dann die Streuung einer gleichverteilten Zufallsgr¨oße den Wert σs2 = Ps − m2s = a2 /12 .
(6.73)
F¨ ur die Gleichverteilung (6.67) l¨ asst sich damit auch schreiben 21
In Anlehnung an die entsprechend gebildeten Momente der Mechanik, z. B. Tr¨ agheitsmoment.
198
6. Statistische Signalbeschreibung
1 ps (x) = rect 12σs2
*
x − ms 12σs2
+ .
(6.74)
Die Verteilungsdichtefunktion einer gleichverteilten Zufallsgr¨oße oder eines station¨ aren Prozesses mit Gleichverteilung kann also bereits durch Mittelwert und Streuung vollst¨ andig beschrieben werden. 6.3.3 Verbundverteilungsfunktion In Abschn. 6.1.1 waren die Verbundmittelwerte oder Mittelwerte h¨oherer Ordnung eingef¨ uhrt worden, um Aussagen u ¨ ber den statistischen Zusammenhang benachbarter Beobachtungswerte eines Prozesses oder zwischen Beobachtungswerten verschiedener Prozesse machen zu k¨onnen. Aus den gleichen Gr¨ unden ist auch die Definition von Verteilungsfunktionen h¨oherer Ordnung f¨ ur viele Anwendungszwecke notwendig. Zur Definition der Verbundverteilungsfunktion zweier Prozesse s(t) und g(t) [oder mit s(t) = g(t) auch eines Prozesses] werden zwei Zufallsgr¨ oßen s(t1 ) und g(t2 ) dieser Prozesse betrachtet, und es wird ausgez¨ ahlt, dass von insgesamt M Beobachtungswertepaaren allen sowohl ks(t1 ) ≤ x als auch kg(t2 ) ≤ y ist. Dann wird als Verin Mxy F¨ bundverteilungsfunktion definiert Psg (x, t1 ; y, t2 ) = lim
M→∞
Mxy M
f¨ ur alle x, y, t1 , t2
(6.75)
oder entsprechend (6.61) symbolisch mit Hilfe des Wahrscheinlichkeitsbegriffes Psg (x, t1 ; y, t2 ) = Prob[s(t1 ) ≤ x UND g(t2 ) ≤ y] ,
(6.76)
wobei das Wort UND hier im logischen Sinn des sowohl als auch“, der ” Konjunktion, gebraucht wird. Im Folgenden wird fast immer angenommen, dass s(t) und g(t) verbunden station¨ are Prozesse sind, dann ist die Verbundverteilungsfunktion nur noch von der Differenz τ = t2 − t1 der Beobachtungszeiten abh¨ angig und kann Psg (x, y, τ ) geschrieben werden. Aus der Definition (6.76) folgen mit dieser Vereinfachung sofort einige Eigenschaften der Verbundverteilungsfunktion Psg (∞, ∞, τ ) = 1 Psg (−∞, y, τ ) = 0
(6.77)
Psg (x, −∞, τ ) = 0 . Wird weiter eine der beiden Schwellen zu +∞ angenommen, dann geht die Verbundverteilungsfunktion in eine einfache Verteilungsfunktion u ¨ ber Psg (x, ∞, τ ) = Ps (x) Psg (∞, y, τ ) = Pg (y) .
(6.78)
6.3 Verteilungsfunktionen
199
Ps (x) und Pg (y) werden in diesem Zusammenhang Randverteilungen der Verbundverteilungsfunktion genannt. Werden die Beobachtungswerte ergodischen Prozessen entnommen, dann kann auch die Verbundverteilungsfunktion aus zwei Musterfunktionen durch zeitliche Mittelung gebildet werden. Das Prinzip zeigt Abb. 6.9 f¨ ur τ = 0.
Abb. 6.9. Bildung der Verbundverteilungsfunktion Psg (x, y, τ = 0) verbunden ergodischer Prozesse durch Zeitmittelung
In den Zeitabschnitten ∆t1 , ∆t2 , . . . liegt sowohl s(t) unterhalb der Schwelle x als auch g(t) unterhalb y. Durch zeitliche Mittelung ergibt sich im Grenz¨ ubergang gen¨ ugend langer Messzeit die Verbundverteilungsfunktion f¨ ur τ = 0 zu 1 ∆ti (x, y) . (6.79) Psg (x, y, τ = 0) = lim T →∞ 2T i Durch Verschieben der Funktion g(t) um τ l¨asst sich in gleicher Weise die Verbundverteilungsfunktion f¨ ur beliebige τ ermitteln. In Verallgemeinerung der Definition der Verteilungsdichtefunktion in (6.63) kann die Verbundverteilungsdichtefunktion als partielle Ableitung der Verbundverteilungsfunktion nach den beiden Variablen x und y definiert werden psg (x, y, τ ) =
∂2 Psg (x, y, τ ) . ∂x∂y
(6.80)
Die Umkehrung von (6.80) lautet x y Psg (x, y, τ ) =
psg (ξ, ν, τ )dνdξ . −∞ −∞
(6.81)
200
6. Statistische Signalbeschreibung
Aus (6.81) und den Eigenschaften der Verbundverteilungsfunktion (6.77) folgt f¨ ur x → ∞ und y → ∞, dass das Volumen unter der Verbundverteilungsdichtefunktion f¨ ur alle τ gleich Eins ist. Weiter ist die Verbundverteilungsdichtefunktion wie die Verteilungsdichtefunktion nicht negativwertig (Abb. 6.10).
Abb. 6.10. Verbundverteilungsdichtefunktion psg (x, y) und Verbundverteilungsfunktion Psg (x, y) zweier statistisch unabh¨ angiger, station¨ arer, gleichverteilter Prozesse
Aus der Verbundverteilungsdichtefunktion der verbunden station¨aren Zufallsprozesse s(t) und g(t) lassen sich ¨ ahnlich zu dem Vorgehen in Abschn. 6.3.2 die Verbundmittelwerte 2. Ordnung (Verbundmomente) bestimmen. Entsprechend zu (6.68) kann man schreiben Prob[x < s(t1 ) ≤ x + dx UND y < g(t1 + τ ) ≤ y + dy] x+dx y+dy
psg (ξ, ν, τ )dνdξ ≈ psg (x, y, τ )dydx .
= x
y
Damit erh¨ alt man speziell f¨ ur die Kreuzkorrelationsfunktion ϕsg (τ ) nach (6.24) ∞ ∞ ϕsg (τ ) = E {s(t)g(t + τ )} =
xy psg (x, y, τ )dydx .
(6.82)
−∞ −∞
Der Kreuzkorrelationskoeffizient ergibt sich f¨ ur τ = 0 dann zu ∞ ∞ ϕsg (0) =
xy psg (x, y, τ = 0)dydx .
(6.83)
−∞ −∞
6.3.4 Statistische Unabh¨ angigkeit L¨ asst sich die Verbundverteilungsfunktion zweier Prozesse s(t) und g(t) als Produkt ihrer Verteilungsfunktionen darstellen, dann nennt man die Prozesse statistisch unabh¨angig. Allgemein gilt damit bei nichtstation¨aren Prozessen
6.3 Verteilungsfunktionen
Psg (x, t1 ; y, t2 ) = Ps (x, t1 ) · Pg (y, t2 )
f¨ ur alle t1 , t2 .
201
(6.84)
Diese Unabh¨ angigkeit kann i. Allg. angenommen werden, wenn die Prozesse physikalisch verschiedene Quellen besitzen, diese physikalische Unabh¨angigkeit ist aber keine notwendige Voraussetzung der statistischen Unabh¨angigkeit. Bei verbunden station¨ aren Prozessen sind die beiden Verteilungsfunktionen zeitunabh¨ angig, damit wird aus (6.84) Psg (x, y, τ ) = Ps (x) · Pg (y) = Psg (x, y) ,
(6.85)
ihre Verbundverteilungsfunktion ist also bei statistischer Unabh¨angigkeit zeitunabh¨ angig und gleich dem Produkt der Randverteilungen (6.78). Der gleiche Zusammenhang gilt f¨ ur die Verteilungsdichtefunktionen, mit (6.80) wird aus (6.85) ∂2 [Ps (x) · Pg (y)] ∂x∂y d d Ps (x) · Pg (y) = ps (x) · pg (y) = dx dy
psg (x, y) =
(6.86)
die Verbundverteilungsdichtefunktion statistisch unabh¨angiger, verbunden station¨ arer Prozesse ist also ebenfalls das zeitunabh¨angige Produkt der einzelnen Verteilungsdichtefunktionen. Diese Aussagen gelten entsprechend f¨ ur alle diesen Prozessen entnommenen Zufallsgr¨ oßen. Als einfaches Beispiel zeigt Abb. 6.10 Verbundverteilungsdichte- und Verbundverteilungsfunktion zweier statistisch unabh¨angiger, station¨ arer, gleichverteilter Prozesse mit psg (x, y, τ ) = psg (x, y) = rect(x) · rect(y) .
(6.87)
Die Kreuzkorrelationsfunktion zweier statistisch unabh¨angiger, verbunden station¨ arer Prozesse erh¨ alt man durch Einsetzen von (6.86) in (6.82) ∞ ∞ ϕsg (τ ) =
xyps (x)pg (y)dydx −∞ −∞ ∞
∞
xps (x)dx ·
= −∞
ypg (y)dy = ms · mg .
(6.88)
−∞
Die Kreuzkorrelationsfunktion ist in diesem Fall konstant und gleich dem Produkt der Mittelwerte. Die in (6.25) definierte Kreuzkovarianzfunktion verschwindet dann: µsg (τ ) = ϕsg (τ ) − ms · mg = 0 .
(6.89)
Prozesse mit der Eigenschaft µsg (τ ) = 0 nennt man unkorreliert oder gleichbedeutend linear unabh¨angig (Aufgabe 6.13).
202
6. Statistische Signalbeschreibung
Statistisch unabh¨ angige, station¨ are Prozesse sind also stets unkorreliert. Dieser Satz ist i. Allg. nicht umkehrbar, eine wichtige Ausnahme bilden die im n¨ achsten Abschnitt betrachteten Gauß-verteilten Zufallsgr¨oßen und Prozesse.22 Anmerkung: Im Besonderen sind auch die den unkorrelierten Prozessen s(t) und g(t) zu beliebigen Zeiten entnommenen Zufallsgr¨oßen s(t1 ) und g(t2 ) unkorreliert. Ist speziell nur µsg (0) = 0, dann sind auch nur die gleichzeitig entnommenen Zufallsgr¨ oßen s(t1 ) und g(t1 ) (t1 beliebig) unkorreliert (Aufgabe 6.7b). Dies entspricht der Eigenschaft der Orthogonalit¨at (4.10) bei Energiesignalen.
6.4 Gauß-Verteilungen 6.4.1 Verteilungsdichtefunktion der Summe von Zufallsgr¨ oßen In vielen Anwendungsf¨ allen interessieren die statistischen Eigenschaften der Summe von Signalen, Beispiele sind die Summe von Nutz- und St¨orsignal oder die Summe verschiedener St¨ orsignale. Gesucht sei die Verteilungsdichtefunktion ps+g (x) der Summe k
s(t1 ) = kf (t1 ) + kg(t1 )
der Zufallsgr¨ oßen f (t1 ) und g(t1 ) oder auch der verbunden station¨aren Prozesse f (t) und g(t) (bei gegebenem τ ). Die Summe beider Zufallsgr¨oßen nimmt den Wert x an, wenn beispielsweise kf (t) = u UND kg(t) = x − u ist. Diese Kombination tritt mit einer Wahrscheinlichkeitsdichte auf, die entsprechend zur Diskussion in Abschn. 6.3.3 durch die Verbundverteilungsdichtefunktion pf g (u, x − u) beschrieben werden kann (hier mit τ = 0, jedoch prinzipiell f¨ ur beliebiges τ ). Durch Ber¨ ucksichtigung aller m¨oglichen Werte u folgt als Verteilungsdichtefunktion der Summe dann der Integralausdruck ∞ pf g (u, x − u)du .
ps (x) =
(6.90)
−∞ 22
Die Kreuzkorrelation ist ein Maß f¨ ur die lineare Abh¨ angigkeit zwischen zwei Prozessen, d.h. f¨ ur die Erwartung, dass die Zufallsvariablen der beiden Prozesse u ¨ ber einen linearen Faktor miteinander verbunden sind. So wird die Kreuzkorrelation vom Betrag her stets maximal, wenn f¨ ur die gemeinsam beobachteten Musterfunktionen immer gilt kg(t2 ) = a · ks(t1 ) (a reell), und der Betrag wird um so kleiner werden, je h¨ aufiger und je st¨ arker die Beobachtungen im Mittel von diesem Idealfall abweichen. Unkorrelierte Prozesse k¨ onnen aber durchaus nichtlineare Abh¨ angigkeiten aufweisen und sind dann nicht statistisch unabh¨ angig. Ein Beispiel hierf¨ ur w¨ are es, wenn f¨ ur die H¨ alfte der beobachteten F¨ alle zuf¨ allig gilt kg(t2 ) = +a · ks(t1 ), und sonst kg(t2 ) = −a · ks(t1 ). Bei der Bildung des Erwartungswertes ergibt sich zwar eine Kreuzkorrelation von Null, tats¨ achlich ist aber die statistische Abh¨ angigkeit zwischen den Absolutwerten maximal.
6.4 Gauß-Verteilungen
203
Sind f (t1 ) und g(t1 ) außerdem statistisch unabh¨angig, dann wird durch Einsetzen von (6.86) in (6.90) ∞ pf (u) · pg (x − u)du = pf (x) ∗ pg (x) .
ps (x) =
(6.91)
−∞
Die Verteilungsdichtefunktion der Summe statistisch unabh¨angiger Zufallsgr¨ oßen ist also gleich dem Faltungsprodukt der einzelnen Verteilungsdichtefunktionen.23 Als Beispiel zeigt Abb. 6.11 Verteilungsdichtefunktionen, wie sie f¨ ur die Summen statistisch unabh¨ angiger, gleichverteilter, ergodischer Zufallssignale gelten.
Abb. 6.11. Summen statistisch unabh¨ angiger, gleichverteilter Zufallssignale s(t), g(t), h(t) (Abb. 6.8) und ihre Verteilungsdichtefunktionen
Wird die Anzahl der Summanden einer solchen Summe statistisch unabh¨ angiger, gleichverteilter Zufallsgr¨ oßen st¨ andig weiter erh¨oht, so n¨ahert sich der Verlauf der resultierenden Verteilungsdichtefunktion mehr und mehr einer Gauß-Funktion (Anhang 2.12.3). Dieses Verhalten ist nun nicht auf die Gleichverteilung beschr¨ ankt, sondern gilt nach der Aussage des zentralen Grenzwertsatzes (Davenport und Root, 1958) der mathematischen Statistik f¨ ur Summen gen¨ ugend vieler unabh¨ angiger Zufallsgr¨oßen mit in weiten Grenzen beliebigen Verteilungsdichtefunktionen. Vorausgesetzt wird lediglich, dass die Varianzen aller einzelnen Zufallsgr¨ oßen klein gegen die Gesamtvarianz sind. 23
Zur L¨ osung dieses Faltungsprodukts kann die Fourier-Transformation benutzt werden (Aufgabe 6.15). Die Fourier-Transformierte einer Verteilungsdichtefunktion wird charakteristische Funktion genannt, sie wird als Hilfsmittel f¨ ur Faltung, Integration oder Differentiation verwendet.
204
6. Statistische Signalbeschreibung
6.4.2 Gauß-Verteilung Die Gauß-Verteilung 24 , auch Normalverteilung genannt, stellt eine der wichtigsten kontinuierlichen Verteilungsdichtefunktionen dar. Sie spielt bei der statistischen Signalbeschreibung eine große Rolle, weil die praktisch auftretenden Zufallssignale in sehr vielen F¨ allen (z. B. Widerstandsrauschen, An¨ tennenrauschen, Rauschsignale in Ubertragungsstrecken, Summen von Tonoder Sprachsignalen) durch Summierung der Signale einer großen Anzahl unabh¨ angiger Quellen gebildet werden und daher normalverteilt oder zumindest angen¨ ahert normalverteilt sind. Wie bei der Gleichverteilung wird auch bei der Gauß-Verteilung die Verteilungsdichtefunktion ps (x) durch den Mittelwert ms und die Streuung σs2 vollst¨ andig beschrieben (Aufgabe 6.18). Es gilt 2 2 1 e−(x−ms ) /(2σs ) . ps (x) = 2 2πσs
(6.92)
Das die Verteilungsfunktion beschreibende Integral (6.64) l¨asst sich f¨ ur den Fall der Gauß-Verteilung nicht geschlossen l¨ osen. Die meisten mathematischen Handb¨ ucher oder Formelsammlungen enthalten aber Tabellen, denen in unterschiedlichen Normierungen unter der Bezeichnung Gauß’sches Fehlerintegral, Wahrscheinlichkeitsintegral oder Fehlerfunktion die Gauß’sche Verteilungsfunktion zu entnehmen ist (Anhang 6.7.3). Abb. 6.12 zeigt die Verteilungsdichtefunktion ps (x) sowie die Verteilungsfunktion Ps (x) einer Gauß-Verteilung f¨ ur den Fall, dass der Mittelwert ms den Wert 0 und die Standardabweichung σs den Wert 1 hat.
Abb. 6.12. Verteilungsdichtefunktion ps (x) und Verteilungsfunktion Ps (x) einer Gauß-Verteilung mit ms = 0
Addiert man zwei statistisch unabh¨ angige, Gauß-verteilte Zufallsgr¨oßen mit den Mittelwerten m1 , m2 und den Streuungen σ12 , σ22 , so ist die Summe ebenfalls Gauß-verteilt mit Mittelwert ms und Streuung σs2 gem¨aß (s. Aufgabe 6.15)25 ms = m1 + m2 ; 24 25
σs2 = σ12 + σ22 .
(6.93)
Karl Friedrich Gauß (1777–1855), dt. Mathematiker und Physiker. Bei einer generelleren Formulierung des Superpositionsprinzips, s = a1 s1 + a2 s2 , gilt aber: ms = a1 m1 + a2 m2 und σs2 = a21 σ12 + a22 σ22 .
6.4 Gauß-Verteilungen
205
6.4.3 Gauß-Prozess und LTI-Systeme In Abschn. 6.2 war gezeigt worden, wie sich Mittelwerte und Verbundmittel¨ werte von Zufallsprozessen bei der Ubertragung von Zufallsprozessen u ¨ ber ein LTI-System verhalten. Die weitergehende Frage, wie sich beispielsweise ¨ Verteilungs- und Verteilungsdichtefunktionen bei einer solchen Ubertragung ver¨ andern, l¨ asst sich dagegen schon nicht mehr allgemein beantworten. In einer N¨ aherungsmethode kann man den linearen, quadratischen, kubischen usw. Mittelwert am Ausgang des LTI-Systems berechnen und damit die Verteilungsfunktion approximieren. Eine exakte L¨ osung dieses Problems ist dagegen m¨oglich, wenn die Eingangssignale Musterfunktionen eines station¨ aren Zufallsprozesses mit GaußVerteilung sind. Als Folge des zentralen Grenzwertsatzes ist dann auch die Schar der Ausgangssignale Gauß-verteilt (Davenport und Root, 1958). Dieses Verhalten soll durch das in Abb. 6.13 dargestellte Systembeispiel plausibel gemacht werden. Im oberen Teil der Abb. wird die Summe einer großen Anzahl von Zufallssignalen gebildet und u ¨ ber ein LTI-System u ¨bertragen. Jedes dieser Signale soll Musterfunktion eines jeweils anderen statistisch unabh¨ angigen, station¨ aren Prozesses mit einer jeweils beliebigen Verteilungsfunktion sein. Das Summensignal kn(t) ist dann laut Aussage des zentralen Grenzwertsatzes und unter seinen Voraussetzungen Mustersignal eines station¨ aren Prozesses mit Gauß’scher Verteilungsdichtefunktion. Der untere Teil des Bildes beschreibt ein ¨ aquivalentes System, da die Faltung distributiv zur Addition ist (Abb. 1.18). Die einzelnen Faltungsprodukte ks(t) ∗ h(t) geh¨oren jetzt i. Allg. Prozessen mit ver¨ anderten Verteilungsdichtefunktionen an. Jedoch muss die Summe als Folge des zentralen Grenzwertsatzes ebenfalls wieder Mustersignal eines Prozesses mit Gauß’scher Verteilungsdichtefunktion sein. Damit wird veranschaulicht, dass auch am Ausgang des LTI-Systems der oberen Bildh¨ alfte der Prozess n(t) ∗ h(t) Gauß-verteilt ist.
¨ Abb. 6.13. Systembeispiel zur Ubertragung eines Gauß-verteilten Signals kn(t) u ¨ ber ein LTI-System
In gleicher Weise, wie der bisher angesprochene zentrale Grenzwertsatz eine Aussage u ¨ber die Verteilung 1. Ordnung eines wie in Abb. 6.13 gebildeten Prozesses n(t) macht, existiert auch ein u ¨bergeordneter zentraler Grenzwertsatz, der alle h¨ oheren Verbundverteilungen des Summenprozesses n(t) in Form
206
6. Statistische Signalbeschreibung
mehrdimensionaler Gauß-Verteilungen beschreibt. Ein derart im statistischen Sinn vollst¨ andig definierter Prozess wird ein (hier station¨arer) Gauß-Prozess genannt. ¨ Ubertr¨ agt man einen station¨ aren Gauß-Prozess u ¨ ber ein LTI-System, dann zeigt auch hier das Systembeispiel Abb. 6.13, dass der Ausgangsprozess ebenfalls ein station¨ arer Gauß-Prozess ist. Aus der Theorie der Gauß-Prozesse (Davenport und Root, 1958) sei hier nur die im Folgenden mehrfach ben¨ otigte Verbundverteilungsdichtefunktion psg (x, y, τ ) zweier Gauß-Prozesse s(t) und g(t) vorgestellt, wie sie beispielsweise zwischen Ein- und Ausgang eines mit station¨arem, thermischen Rauschen gespeisten LTI-Systems auftreten. Haben diese Prozesse die Streuungen σs2 und σg2 und sind sie mittelwertfrei, dann gilt (s. Anhang 6.7.2) psg (x, y, τ ) =
1 2πσs σg 1 − 2 (τ ) * + σg2 x2 + σs2 y 2 − 2σs σg (τ )xy · exp − , 2σs2 σg2 (1 − 2 (τ ))
(6.94)
wobei (τ ) die auf das Produkt der Standardabweichungen normierte Kreuzkovarianzfunktion ist: (τ ) = µsg (τ )/(σs σg ) .
(6.95)
Sind die beiden Prozesse unkorreliert, so ist nach Abschn. 6.3.4 µsg (τ ) = 0 und damit auch (τ ) = 0. Damit erh¨ alt man f¨ ur unkorrelierte Gauß-Prozesse nach (6.94) * + σg2 x2 + σs2 y 2 1 exp − psg (x, y, τ ) = psg (x, y) = 2πσs σg 2σs2 σg2 2 2 −x −y 1 1 / = exp exp · 2 2 2σ 2σg2 2 2πσs s 2πσg = ps (x) · pg (y) .
(6.96)
Die Verbundverteilungsdichtefunktion l¨ asst sich dann als Produkt der einzelnen Verteilungsdichten schreiben. Nach (6.86) bedeutet das zus¨atzlich die statistische Unabh¨ angigkeit beider Zufallsprozesse. Es gilt also die wichtige Aussage, dass unkorrelierte Gauß-Prozesse auch statistisch unabh¨angig sind.26 26
Statistische Abh¨ angigkeiten zwischen zwei Gauß-Prozessen lassen sich demnach vollst¨ andig als lineare Abh¨ angigkeiten charakterisieren (vgl. hierzu auch Fußnote 22). Hieraus folgt auch, dass lineare Systeme gen¨ ugen, um diese Abh¨ angigkeiten auszunutzen. Daher reicht z.B. bei Gauß-verteilten St¨ orungen als optimaler Empf¨ anger ein lineares System, der Korrelationsfilter-Empf¨ anger, vollst¨ andig aus.
6.4 Gauß-Verteilungen
207
6.4.4 Fehlerwahrscheinlichkeit bei Korrelationsfilter-Empfang gest¨ orter Bin¨ arsignale Die Beschreibung von Zufallsprozessen durch ihre Verteilungsfunktionen war eingangs damit begr¨ undet worden, das pauschale G¨ utekriterium des Sa /N Verh¨ altnisses bei Korrelationsfilter-Empfang durch genauere Aussagen zu erg¨ anzen. Hierzu wird ein Empf¨ anger betrachtet, der zun¨achst nur entscheiden soll, ob der Sender zu einem bestimmten Zeitpunkt ein bestimmtes Signal s(t) gesendet hat oder nicht. Diese Entscheidung soll durch eine Schwellenschaltung am Ausgang eines Korrelationsfilter-Empf¨angers getroffen werden. Das betrachtete Gesamtsystem ist in Abb. 6.14 dargestellt (vgl. Abb. 6.4).
¨ Abb. 6.14. Ubertragungssystem mit Entscheidungsstufe
Zun¨ achst wird angenommen, dass das Signal as(t) am Kanalausgang mit dem Amplitudenfaktor a = 1 erscheint. Der Abtastwert y1 (T ) am Ausgang des Empfangsfilters setzt sich dann nach (6.45) aus einem Nutzanteil g(T ) und einem St¨ oranteil ne (T ) zusammen y1 (T ) = g(T ) + ne (T ) . Die Aufgabe der Entscheidungsstufe besteht nun darin, den Abtastwert y1 (T ) mit einer geeignet gew¨ ahlten Schwelle C zu vergleichen und s(t) gesen” det“ anzuzeigen, wenn y1 (T ) > C ist. Der Empf¨anger trifft also eine Fehlentscheidung, wenn y1 (T ) ≤ C ist, obwohl s(t) gesendet wurde. Um die Wahrscheinlichkeit einer solchen Fehlentscheidung berechnen zu k¨onnen, wird ¨ dieser Ubertragungsversuch hinreichend oft mit voneinander unabh¨angigen St¨ orquellen aufgebaut. Der Abtastwert y1 (T ) ist dann eine Zufallsgr¨oße mit einer Verteilungsdichtefunktion py1 (x). Die Fehlerwahrscheinlichkeit Pe1 l¨asst sich mit (6.61) durch die Verteilungsfunktion ausdr¨ ucken Pe1 = Prob[y1 (T ) ≤ C] = Py1 (C) .
(6.97)
Mit (6.64) ist dann der Zusammenhang zwischen Pe1 und py1 (x) C Pe1 =
py1 (x)dx . −∞
(6.98)
208
6. Statistische Signalbeschreibung
¨ In Abschn. 6.2.5 war vorausgesetzt worden, dass das im Ubertragungskanal addierte St¨ orsignal weißes Rauschen mit der Leistungsdichte N0 sei. Hier wird zus¨ atzlich noch angenommen, dass das Rauschen Gauß-verteilt ist. Diese Annahme ist nach den Ergebnissen des Abschn. 6.4 f¨ ur sehr viele Kan¨ale zul¨ assig und erlaubt weiter die Aussage, dass die am Ausgang des Korrelationsfilters als LTI-System liegende St¨ orgr¨ oße ne (T ) ebenfalls Gauß-verteilt ist. Dieser Gauß-verteilten mittelwertfreien Zufallsgr¨oße mit der Augenblicks∞ leistung und Streuung N = N0 −∞ h2 (t)dt nach (6.38) ist der konstante √ Nutzanteil g(T ) = Sa nach Abschn. 6.2.5 als Mittelwert u ¨berlagert. Damit erh¨ alt man u ur den Ab¨ ber die Gauß’sche Verteilungsdichtefunktion (6.92) f¨ tastwert am Ausgang des Korrelationsfilters eine Verteilungsdichtefunktion (Aufgabe 6.20) py1 (x) = √
1 exp[−(x − Sa )2 /(2N )] , 2πN
(6.99)
und als Fehlerwahrscheinlichkeit ergibt sich mit (6.98) C Pe1 = −∞
1 √ exp[−(x − Sa )2 /(2N )]dx . 2πN
(6.100)
Dieses Integral kann, wie schon in 6.4.2 erw¨ ahnt, nicht geschlossen berechnet werden. Mit der komplement¨ aren Fehlerfunktion [Gl. (6.156) in Anhang 6.7.3] l¨asst sich f¨ ur (6.100) auch schreiben √ Sa − C 1 √ Pe1 = erfc (6.101) 2 2N ¨ In einem zweiten Ubertragungsversuch wird nun angenommen, dass der Sender kein Signal erzeugt, also a = 0 ist. Der Abtastwert am Ausgang des Korrelationsfilters ist dann nur vom St¨ orsignal abh¨angig, mit g(T ) = 0 gilt y0 (T ) = ne (T ) In diesem Fall trifft der Empf¨ anger eine Fehlentscheidung, wenn y0 (T ) > C ist; die zugeh¨ orige Fehlerwahrscheinlichkeit Pe0 ist damit Pe0 = Prob[y0 (T ) > C] .
(6.102)
Da y0 (T ) eine Gauß-verteilte, aber jetzt mittelwertfreie Zufallsgr¨oße ist, gilt py0 (x) = √
1 exp[−x2 /(2N )] . 2πN
Damit wird mit (6.102) und in gleicher Rechnung wie oben
(6.103)
6.4 Gauß-Verteilungen
∞ Pe0 =
1 py0 (x)dx = erfc 2
C √ 2N
209
.
(6.104)
C
Die beiden Verteilungsdichtefunktionen py1 (x) und py0 (x) sind in Abb. 6.15 achst willk¨ urlicher Annahme einer Schwelle C entspredargestellt.27 Bei zun¨ chen die schraffierten Fl¨ achen den Fehlerwahrscheinlichkeiten Pe1 und Pe0 in beiden Experimenten.
Abb. 6.15. Verteilungsdichtefunktionen py1 (x) und py0 (x) am Eingang der Entscheidungsstufe und resultierende Fehlerwahrscheinlichkeiten Pe1 und Pe0
Bisher wurden zwei getrennte Experimente s(t) gesendet“ und s(t) nicht ” ” gesendet“ betrachtet. Fasst man nun beide Experimente zu einem Gesamtexperiment zusammen, in dem genau die eine H¨alfte der Sender das Signal s(t) aussendet, die andere dagegen nicht, dann ergibt sich die gesamte Fehlerwahrscheinlichkeit als Summe der anteiligen, hier also halben Fehlerwahrscheinlichkeit der zuerst durchgef¨ uhrten Einzelexperimente, also ist 27
Da die Verteilungsdichtefunktionen hier vom Zustand des Senders abh¨ angig sind, werden sie auch bedingte Verteilungsdichtefunktionen“ genannt und geschrie” ben py1 (x) ≡ py (x|a = 1) py0 (x) ≡ py (x|a = 0) Hieraus errechnet sich die Verteilungsdichte des Ausgangssignals gem¨ aß py (x) = Prob[a = 0] · py0 (x) + Prob[a = 1] · py1 (x). ¨ Bei unipolarer Ubertragung ist die Verteilungsdichte des Nutzsignals √ pg (x) = Prob[a = 0] · δ(x) + Prob[a = 1] · δ(x − Sa ) . Durch Anwendung von (6.91) erh¨ alt man u ¨ ber py (x) = pg (x) ∗ pn (x)
mit
pn (x) = √
1 exp[−x2 /(2N )] . 2πN
dasselbe Ergebnis wie oben. Im Folgenden wird der Sonderfall Prob[a = 0] = Prob[a = 1] = 12 betrachtet.
210
6. Statistische Signalbeschreibung
Pe =
1 1 1 Pe1 + Pe0 = (Pe1 + Pe0 ) . 2 2 2
(6.105)
Die so definierte Gesamtfehlerwahrscheinlichkeit entspricht jetzt der mit 1/2 multiplizierten gesamten schraffierten Fl¨ ache in Abb. 6.15. Wie an Hand von Abb. 6.15 sofort einsichtig ist, wird diese schraffierte Fl¨ache und damit die Fehlerwahrscheinlichkeit dann minimal, wenn die Schwellenamplitude C mit dem Schnittpunkt der Verteilungsdichtefunktionen zusammenf¨allt. Da beide Verteilungsdichtefunktionen symmetrisch sind und py1 (x) durch ei√ ne Verschiebung um S aus p (x) hervorgeht, liegt ihr Schnittpunkt bei a y0 √ √ x = Sa /2. Mit C = Sa /2 ergibt sich dann die minimale Gesamtfehlerwahrscheinlichkeit nach (6.105) mit Pe1 nach (6.101) und Pe0 nach (6.104) zu √ √ √ Sa − Sa /2 Sa /2 1 1 1 √ Pe min = erfc + erfc √ 2 2 2 2N 2N *! + Sa 1 . = erfc 2 8N Dieser Ausdruck erreicht schließlich seinen geringsten Wert bei Korrelationsfilter-Empfang. Mit der dann g¨ ultigen Beziehung Sa /N = Es /N0 aus (6.50) folgt *! + Es 1 Pe min = erfc . (6.106) 2 8N0 Dieser Zusammenhang ist in Abb. 6.16 doppelt logarithmisch aufgetragen.
s
Abb. 6.16. Die Fehlerwahrscheinlichkeit Pe min = [Abszisse: 10lg(Es /N0 ) dB]
1 2
erfc(
p Es /8N0 )
Anmerkung: Zur Bestimmung der optimalen Entscheidung werden oft auch Kriterien benutzt, die auf der Maximierung der Wahrscheinlichkeit beruhen,
6.4 Gauß-Verteilungen
211
dass eines der Symbole gesendet wurde. Am obigen Beispiel kann man zwar ur x > C, allerdings ergeben die Verteifeststellen, dass py1 (x) > py0 (x) f¨ lungsdichtefunktionen selbst noch keine Wahrscheinlichkeitsaussagen u ¨ ber die Sendung von a = 0 bzw. a = 1. Dieser Zusammenhang kann aber u ¨ ber das Bayes-Theorem28 der bedingten Wahrscheinlichkeiten hergestellt werden, mit dem gilt py0 (x) · Prob[a = 0] , py (x) py1 (x) · Prob[a = 1] Prob[a = 1|x] = , py (x) Prob[a = 0|x] =
mit py (x) gem¨ aß Fußnote 27. F¨ ur die Bayes-Entscheidung ist nun zu ermitteln, ob f¨ ur einen am Entscheidereingang beobachteten Amplitudenwert x mit gr¨ oßerer Wahrscheinlichkeit a = 0 oder a = 1 gesendet wurde. Die Entscheidungsschwelle C liegt dann dort, wo Gleichheit der Wahrscheinlichkeiten gilt, d.h. am Schnittpunkt der beiden gewichten Verteilungsdichten ur den Fall identischer H¨aufigpy0 (x) · Prob[a = 0] und py1 (x) · Prob[a = 1]. F¨ keiten der beiden Symbole und identischer, um die beiden Nutzsignalamplituden symmetrischer Verteilungsdichtefunktionen liegt die Entscheidungsgrenze der Bayes-Entscheidung wieder genau in der Mitte zwischen den beiden m¨ oglichen Amplitudenpunkten des Nutzsignals. Kurz zusammengefasst: In einem Experiment wird von einer Schar von Sendern zu einer bestimmten Zeit ein determiniertes Signal s(t) der Energie Es ¨ und von einer zweiten gleich großen Schar kein Signal erzeugt. Nach Ubertragung u ale, die weißes, Gauß’sches Rauschen der Leistungsdichte N0 ¨ ber Kan¨ addieren, werden die Signale durch Korrelationsfilter-Empf¨anger mit einer anschließenden Entscheidungsstufe empfangen. Bei optimaler Wahl der Entscheidungsschwelle ist dann die Wahrscheinlichkeit f¨ ur einen Empfangsfehler durch (6.106) gegeben. Bemerkenswert ist, dass der Verlauf dieser Fehlerwahrscheinlichkeit nur von dem Verh¨ altnis Es /N0 abh¨angt. Tr¨agt man wie in Abb. 6.16 den Verlauf der Fehlerwahrscheinlichkeit u ¨ ber Es /N0 auf, dann sieht man, wie Pe im Bereich Es /N0 > 20 dB sehr rasch abnimmt, bei we¨ nig gr¨ oßeren Es /N0 -Verh¨ altnissen ist die Ubertragung f¨ ur praktische Zwecke schon fehlerfrei. Dieses Verhalten wird als Schwelleneffekt bezeichnet. Ist die ¨ ur kleine Werte Es /N0 bei Ubertragung andererseits stark gest¨ ort, so geht Pe f¨ ¨ gleich h¨ aufiger Ubertragung von a = 0 und a = 1 asymptotisch gegen 50 %. ¨ Man erh¨ alt nun das gleiche Ergebnis, wenn die einzelnen Ubertragungsversuche s(t) gesendet“ und s(t) nicht gesendet“ mit gleicher H¨aufigkeit, ” ” ¨ aber in beliebiger Reihenfolge an einem einzigen Ubertragungssystem zeitlich nacheinander so durchgef¨ uhrt werden, dass sich die Abtastwerte am Ausgang des Korrelationsfilters gegenseitig nicht beeinflussen. Ein solches 28
Thomas Bayes (ca. 1702-1761), englischer Mathematiker und presbyterianischer Pfarrer.
212
6. Statistische Signalbeschreibung
¨ Ubertragungsverfahren dient im n¨ achsten Kapitel als Ausgangspunkt f¨ ur die Diskussion der Daten¨ ubertragungsverfahren.
6.5 Zeitdiskrete Zufallssignale Dieser Abschnitt soll zeigen, wie die bisher behandelten Methoden zur Beschreibung zeitkontinuierlicher Zufallsprozesse auf den Fall zeitdiskreter Zufallssignale u onnen. ¨ bertragen werden k¨ 6.5.1 Abtastung von Zufallssignalen Zufallssignale k¨ onnen von Hause aus zeitdiskret sein, wie etwa das Ausgangssignal eines digitalen Zufallszahlengenerators. Zeitdiskrete Zufallssignale k¨onnen aber auch durch Abtastung zeitkontinuierlicher Zufallssignale entstehen. Insbesondere bei station¨ aren Prozessen sind die Erwartungswerte zeitunabh¨ angig, so dass das Verhalten des zeitkontinuierlichen Signals durch Untersuchung der abgetasteten Musterfunktionen erfasst werden kann; die Eigenschaft der Stationarit¨ at wird durch die Abtastung nicht ver¨andert. Bei nicht station¨ aren Prozessen k¨ onnen hingegen die Erwartungswerte E {F [s(nT )]} nur zu den Abtastzeitpunkten nT ermittelt werden. Betrachtet sei ein station¨ arer Zufallsprozess s(t), dessen Musterfunktionen durch Filterung mit einem idealen Tiefpass der Grenzfrequenz fg aus den Musterfunktionen eines station¨ aren zeitdiskreten Prozesses erzeugt werden. Nach der Wiener-Lee-Beziehung (6.32) hat dann auch das Leistungsdichteochstens die Grenzfrequenz fg . spektrum φss (f ) des gefilterten Prozesses h¨ asst sich jetzt fehlerfrei durch AbtastwerJede der Musterfunktionen ks(t) l¨ te ks(nT ) im Abstand T ≤ 1/(2fg ) darstellen. Bei Abtastung mit der NyquistRate gilt wieder die Interpolationsformel (3.8)29 ∞ t t − nT k k s(t) = ksa (t) ∗ si π s(nT ) si π = . (6.107) T T n=−∞ Die Abtastwertfolgen aller ks(t) bilden dann die Musterfunktionen eines zeitdiskreten Prozesses s(nT ), oder wenn T = 1 gesetzt wird, des zeitdiskreten Prozesses s(n) (Aufgabe 6.14). 6.5.2 Der zeitdiskrete Zufallsprozess Ein zeitdiskreter Zufallsprozess s(n) wird von einer hinreichend großen Schar zeitdiskreter Zufallssignale gebildet und durch die Gesamtheit seiner Ver29
Bei einem beliebigen, nicht wie hier gebildeten Prozess mit frequenzbeschr¨ anktem Leistungsdichtespektrum braucht (6.107) nicht f¨ ur alle Musterfunktionen erf¨ ullt zu sein. Trotzdem geht dann der mittlere quadratische Fehler u ¨ ber alle Interpolationen gegen Null.
6.5 Zeitdiskrete Zufallssignale
213
bundverteilungsfunktionen beschrieben. Drei Musterfunktionen ks(n) eines zeitdiskreten Prozesses zeigt Abb. 6.17.
Abb. 6.17. Musterfunktion eines gleichverteilten, zeitdiskreten Zufallsprozesses
Die Schar von Beobachtungswerten s(n) zum speziellen Zeitpunkt n = n1 bildet im gleichen Sinn eine Zufallsgr¨ oße. Die Verteilungsfunktion dieser Zufallsgr¨ oße s(n) ist wie (6.61) definiert als Ps (x, n1 ) = Prob[s(n1 ) ≤ x] .
(6.108)
Ist der Prozess station¨ ar, dann ist diese Verteilungsfunktion unabh¨angig von der Wahl von n1 und kann Ps (x) geschrieben werden. In Abb. 6.17 sind Musterfunktionen eines gleichverteilten, station¨ aren Prozesses gew¨ahlt worden. Verteilungsfunktion Ps (x) und Verteilungsdichtefunktion ps (x) = dPs (x)/dx haben prinzipiell die Form wie in Abb. 6.8. Mittelwert und quadratischer Mittelwert lassen sich mit (6.69) und (6.70) aus ps (x) berechnen. Die Beschreibung statistischer Zusammenh¨ange benachbarter Beobachtungswerte oder von Beobachtungswerten verschiedener Prozesse verlangt wieder die Definition von Verbundverteilungsfunktionen. Entsprechend (6.76) ist die Verbundverteilungsfunktion der beiden zeitdiskreten Prozesse s(n) und g(i) definiert durch Psg (x, n1 ; y, n2 ) = Prob[s(n1 ) ≤ x
UND
g(n2 ) ≤ y] .
(6.109)
Bei verbunden station¨ aren Prozessen ist die Verbundverteilungsfunktion nur angig, also Psg (x, y, m). Die zeitnoch von der Zeitdifferenz m = n2 − n1 abh¨ diskrete Kreuzkorrelationsfunktion verbunden station¨arer Prozesse l¨asst sich u ¨ber die entsprechend zu (6.80) gebildete Verbundverteilungsdichtefunktion wieder entsprechend (6.82) ableiten zu ∞ ∞ ϕsg (m) = E {s(n)g(n + m)} = xypsg (x, y, m)dydx . (6.110) −∞ −∞
Aus (6.110) k¨ onnen die Werte der eigentlichen zeitkontinuierlichen Kreuzkorrelationsfunktion zweier abgetasteter Zufallssignale nur f¨ ur diskrete Positionen τ = mT ermittelt werden. Waren jedoch die beiden Signale vor der
214
6. Statistische Signalbeschreibung
Abtastung auf fg = 1/(2T ) bandbegrenzt, so muss auch ihre Kreuzkorrelationsfunktion bandbegrenzt sein, und es ist eine Interpolation f¨ ur beliebige Werte τ m¨ oglich: ∞ τ − mT ϕsg (mT ) si π ϕsg (τ ) = . (6.111) T m=−∞ Mit s(n) = g(n) erh¨ alt man aus (6.110) speziell die zeitdiskrete Autokorrelatiangigkeit zweier Zufallsprozesse s(n) onsfunktion ϕss (m). Statistische Unabh¨ und g(n) verlangt auch hier die G¨ ultigkeit von (6.86) psg (x, y, m) = ps (x) · pg (y) .
(6.112)
6.5.3 Zeitmittelwerte Bei der Definition von Zeitmittelwerten zeitdiskreter Zufallsprozesse ist in (6.9) und (6.10) die Integration durch eine Summation zu ersetzen. Also erh¨ alt man als Zeitmittelwerte: 1. Ordnung : M 1 F [ks(n)] . M→∞ 2M + 1
F [ks(n)] = lim
(6.113)
n=−M
2. Ordnung : M 1 F [ks(n), ks(n + m)] (6.114) M→∞ 2M + 1
F [ks(n), ks(n + m)] = lim
n=−M
Bei einem ergodischen Prozess m¨ ussen wieder diese (und alle h¨oheren) Zeitmittelwerte jeweils f¨ ur alle Musterfunktionen untereinander gleich und gleich den entsprechenden Scharmittelwerten sein.30 Damit lautet die zeitdiskrete Autokorrelationsfunktion eines ergodischen (reellwertigen) Prozesses M 1 s(n)s(n + m) . M→∞ 2M + 1
ϕss (m) = lim
(6.115)
n=−M
Seine Leistung ergibt sich aus ϕss (0). Entsprechend ist die Kreuzkorrelationsfunktion zweier verbunden ergodischer Prozesse M 1 s(n)g(n + m) . M→∞ 2M + 1
ϕsg (m) = lim
(6.116)
n=−M
30
Rein formal sind die Gleichungen zur Berechnung von Scharmittelwerten (6.3) und Zeitmittelwerten bei zeitdiskreten Zufallsprozessen (6.113) identisch. Oftmals wird daher hier keine Unterscheidung vorgenommen und generell vom Erwartungswert E {·} gesprochen. Diese Gleichsetzung ist aber streng genommen nur bei ergodischen Prozessen korrekt.
6.5 Zeitdiskrete Zufallssignale
215
Bei praktischen Messungen dieser Zeitmittelwerte l¨asst sich nat¨ urlich der Grenz¨ ubergang M → ∞ nicht ausf¨ uhren. Die f¨ ur endliche M messbaren N¨aherungen werden als Sch¨ atzwerte bezeichnet. Mit der Absch¨atzung dieser Fehler und ihrer Minimierung besch¨ aftigt sich die statistische Sch¨atz- oder Estimationstheorie (Schwartz und Shaw, 1975). 6.5.4 Zeitdiskrete Zufallssignale in LSI-Systemen ¨ Bei der Ubertragung von zeitdiskreten Zufallssignalen u ¨ ber ein LSI-System der Impulsantwort h(n) gilt f¨ ur jede Musterfunktion das diskrete Faltungsprodukt g(n) = ks(n) ∗ h(n) .
k
(6.117)
Ein station¨ arer (ergodischer) Prozess bleibt hierbei, wenn das Faltungsprodukt existiert, station¨ ar (ergodisch). Die Mittelwerte des Ausgangsprozesses errechnen sich wie in Abschn. 6.2.1 und 6.2.2. F¨ ur den Erwartungswert des Ausgangssignals gilt ∞ ∞ h(k)s(n − k) = h(k)E {s(n − k)} . E {g(n)} = E k=−∞
k=−∞
Ist s(n) station¨ ar, so ist mit E {s(n − k)} = const = ms und mg = ms
∞
h(k) .
(6.118)
k=−∞
In einer Abschn. 6.2.2 entsprechenden Rechnung (Aufgabe 6.27) ergibt sich die Autokorrelationsfunktion des Ausgangsprozesses bei einem station¨aren Eingangsprozess zu ϕgg (m) = ϕss (m) ∗ ϕE hh (m) .
(6.119)
Diese zeitdiskrete Form der Wiener-Lee-Beziehung schreibt also entsprechend zu (6.30) die diskrete Faltung der Autokorrelationsfunktion am Eingang mit der Impulsautokorrelationsfunktion der Impulsantwort des LSISystems (4.31) vor. Im Frequenzbereich lautet die Wiener-Lee-Beziehung nach Fourier-Transformation (3.36) φgg a (f ) = φss a (f ) · |Ha (f )|2 ,
(6.120)
dabei ist φss (f ) das (periodische) Leistungsdichtespektrum des Eingangsprozesses. Es gilt also ϕss (m)
φss a (f ) =
∞ m=−∞
ϕss (m)e−j2πf m .
(6.121)
216
6. Statistische Signalbeschreibung
Aus dem Leistungsdichtespektrum l¨ asst sich die Leistung des Prozesses bestimmen, entsprechend zu (6.33) und mit der inversen Fourier-Transformation (3.37) gilt 1/2 Ls = ϕss (0) =
φss a (f )df .
(6.122)
−1/2
Ist das Leistungsdichtespektrum eine Konstante φss a (f ) = N ,
(6.123)
dann kann auch hier der diskrete Prozess weißes Rauschen“ genannt werden. ” Mit (6.121) hat zeitdiskretes weißes Rauschen eine Autokorrelationsfunktion ϕss (m) = N δ(m) .
(6.124)
Hieraus folgt sofort mit (6.122), dass zeitdiskretes, weißes Rauschen die endliche Leistung N hat, im Gegensatz zum zeitkontinuierlichen Fall also realisierbar ist.31 Hierzu ein Beispiel im folgenden Abschnitt. 6.5.5 Beispiel: Filterung von zeitdiskretem weißen Rauschen H¨ ohere Programmiersprachen enthalten i. Allg. eine Prozedur, mit der Folgen statistisch unabh¨ angiger, im Bereich [0; 1] gleichverteilter Zufallszahlen erzeugt werden k¨ onnen.32 Nach Subtraktion des Mittelwertes ms = 1/2 bilden diese Zufallszahlen dann in guter N¨ aherung eine Musterfunktion eines ergodischen, gleichverteilten, weißen Rauschprozesses mit der Streuung und Leistung Ls = σs2 = 1/12 (gem¨ aß (6.73) f¨ ur a = 1) (Aufgabe 6.28). Eine Musterfunktion s(n) dieses Prozesses sowie seine Autokorrelationsfunktion nach (6.124) und sein Leistungsdichtespektrum nach (6.123) zeigt Abb. 6.18 links. Die Zufallszahlen werden nun u ¨ ber das in Abb. 6.18 dargestellte einfache zeitdiskrete Transversalfilter mit der Impulsantwort 31
32
Dies gilt allerdings nur, wenn bei Abtastung eines weißen Rauschens das Abtasttheorem eingehalten wird (wenn es also durch Tiefpassfilterung vor der Abtastung bandbegrenzt ist), oder wenn ein zeitdiskretes Rauschen als Folge von Zufallszahlen synthetisch erzeugt wird. W¨ urde hingegen weißes Rauschen der Leistungsdichte N0 ohne Tiefpassfilterung abgetastet, erg¨ abe sich auch nach (6.122) ¨ wegen Uberlagerung unendlich vieler periodischer Spektren eine unendliche Leistung. Besser Pseudozufallszahlen, da die Algorithmen nur determinierte Zahlenfolgen liefern, die sich nach einer großen Zahl von Aufrufen periodisch wiederholen. Der Aufruf erfolgt z. B. in PASCAL und C mit RAND oder in BASIC mit RND. Bin¨ are Pseudozufallszahlen [Pseudonoise (PN)-Folgen] k¨ onnen schaltungstechnisch besonders einfach mit r¨ uckgekoppelten bin¨ aren Schieberegistern erzeugt werden (s. Abschn. 8.3.4d).
6.5 Zeitdiskrete Zufallssignale
a
217
a
Abb. 6.18. Musterfunktionen, Autokorrelationsfunktionen, Leistungsdichtespektren und Verteilungsdichtefunktionen bei der Filterung diskreten, gleichverteilten, weißen Rauschens
h(n) =
1 1 δ(n) + δ(n − 1) 2 2
(6.125)
u ¨bertragen. Gefragt wird nach den statistischen Eigenschaften der gefilterten Zufallszahlen. Nach der diskreten Wiener-Lee-Beziehung (6.119) erh¨alt man f¨ ur die Autokorrelationsfunktion ϕgg (m) = ϕss (m) ∗ ϕE hh (m)
1 1 1 = [σs2 δ(m)] ∗ δ(m + 1) + δ(m) + δ(m − 1) 4 2 4 2 2 2 σ σ σ = s δ(m + 1) + s δ(m) + s δ(m − 1) . (6.126) 4 2 4 Diese Autokorrelationsfunktion und das mit der Fourier-Transformation (6.121) zugeordnete Leistungsdichtespektrum sind in Abb. 6.18 rechts dargestellt. Das weiße Rauschen wird also tiefpassgefiltert, die Streuung am Ausgang verringert sich auf ϕgg (0) = σs2 /2. Schließlich l¨asst sich f¨ ur dieses einfache Filter auch die Frage nach der Verteilungsdichte am Ausgang beantworten. F¨ ur das Ausgangssignal gilt 1 1 s(n) + s(n − 1) , (6.127) 2 2 jede Ausgangszahl ist also die halbe Summe zweier benachbarter Eingangszahlen. Da weiter nach Voraussetzung die Eingangszahlen statistisch ung(n) = s(n) ∗ h(n) =
218
6. Statistische Signalbeschreibung
abh¨ angig voneinander sind, ergibt sich ihre Verteilungsdichtefunktion mit (6.91) als Faltung der Gleichverteilung mit sich selbst. Das Ausgangssignal ¨ ist also dreiecksverteilt (Abb. 6.18 rechts). Aus der gleichen Uberlegung folgt weiter, dass ein Filter mit einer l¨ angeren Impulsantwort als Folge des zentralen Grenzwertsatzes (Abschn. 6.4.3) i. Allg. in guter N¨aherung Gauß-verteiltes Rauschen mit vorgebbarem Leistungsdichtespektrum erzeugt. Das durch (6.127) beschriebene Faltungsprodukt wird auch als gleitender Mittelwert (engl.: moving average) u ¨ber das Eingangssignal bezeichnet. Ganz allgemein nennt man daher einen Prozess, der durch (nichtrekursive) Transversalfilterung aus weißem Rauschen hervorgegangen ist, einen Mo” ving Average-Prozess“. Entsprechend f¨ uhren Prozesse, die durch rekursive Filterung weißen Rauschens entstehen, die Bezeichnung autoregressive Prozesse (Aufgabe 6.29). Ein Autoregressiver Moving Average-Prozess“ oder ” ARMA-Prozess entsteht durch Kombination beider Verarbeitungsarten.
6.6 Zusammenfassung In diesem Kapitel wurde eine kurze Einf¨ uhrung in die Methoden zur Beschreibung zeitkontinuierlicher und zeitdiskreter Zufallssignale gegeben. Nach Darstellung und physikalischer Begr¨ undung des Modells eines Zufallsprozesses als Schar von Zufallssignalen wurde im ersten Teil gezeigt, wie ein solcher Prozess und die ihm als Beobachtungswerte entnommenen Zufallsgr¨ oßen durch eine Anzahl verschiedener Mittelwerte wie linearer und quadratischer Mittelwert, Streuung, Korrelationsfunktion und Kovarianzfunktion gekennzeichnet werden k¨ onnen. Auf dieser Grundlage ist es dann auch ¨ m¨ oglich, die Ubertragung von Zufallssignalen u ¨ ber LTI-Systeme zu beschreiben, hierzu ist eine Erweiterung der Mittelwertbildung auf den Frequenzbereich in Form des Leistungsdichtespektrums n¨ utzlich. Nach Einf¨ uhren des ¨ weißen Rauschens als Modell f¨ ur typische St¨ orsignale in Ubertragungskan¨ alen wird das Problem des optimalen Empfangs eines gest¨orten Signals mit bekannter Form gel¨ ost. Die Frage nach der Fehlerwahrscheinlichkeit bei diesem Korrelationsfilter-Empfang ist dann in einem zweiten Teil Ausgangspunkt f¨ ur eine genauere Beschreibung von Zufallsgr¨oßen und -prozessen durch Verteilungs-, Verteilungsdichte- und Verbundverteilungsfunktionen. Als wichtigstes Modell ergeben sich als Folge des zentralen Grenzwertsatzes Zufallsprozesse mit Gauß’schen Verteilungs- und Verbundverteilungsdichtefunk¨ tionen. Da die Gauß-Verteilung bei einer Ubertragung u ¨ ber ein LTI-System eine Gauß-Verteilung bleibt, kann f¨ ur Gauß-verteilte St¨orsignale die resultierende Fehlerwahrscheinlichkeit bei Korrelationsfilter-Empfang diskreter Signale berechnet werden. Diese Ergebnisse werden Ausgangspunkt f¨ ur die in den n¨ achsten Kapiteln folgenden Betrachtungen von Daten¨ ubertragungssystemen sein.
6.7 Anhang
219
6.7 Anhang 6.7.1 Kennlinientransformationen von Amplitudenwerten Kennlinientransformationen werden in der Nachrichtentechnik h¨aufig angewandt, beispielsweise zur nichtlinearen Amplitudenskalierung (Kompandierung) und bei der Quantisierung, d.h. der Umwandlung amplitudenkontinuierlicher Signalwerte in eine begrenzte Anzahl von Werten mit diskreten Amplitudenstufen. Die Signalamplitude s(t) wird mittels einer Kennlinie y = k(x) auf einen Ausgangswert g(t) abgebildet: g(t) = k{s(t)}.
(6.128)
Dieses Prinzip ist ebenso auf abgetastete Signale s(n) mit entsprechenden Ausgangswerten g(n) anwendbar. Sofern die Kennlinienfunktion stetig und monoton steigend oder fallend ist (Abb. 6.19a), ist die Abbildung reversibel, d.h. s(t) = k −1 {g(t)}.
y
(6.129)
y k(x)
a)
y k(x)
y
x
b)
y k(x)
y
x
c)
k(x)
y
x
d)
y
x
Abb. 6.19. Beispiele von Kennlinienfunktionen (Erl¨ auterungen im Text)
Nicht reversibel sind die Funktionen in Abb. 6.19b (Quantisierungskennlinie), c (Clippingkennlinie) und d (Abbildung von y auf x mehrdeutig). Reversible (umkehrbare) Kennlinienfunktionen sind z.B. die lineare Kennlinie (Abb. 6.20a) 1 (6.130) (y − ya ), α sowie die st¨ uckweise lineare Kennlinie, hier ausformuliert f¨ ur die ersten drei Teilsegmente, die jeweils symmetrisch f¨ ur den positiven und negativen Amplitudenbereich gelten (Abb. 6.20b) ⎧ ⎪ f¨ ur |x| ≤ xa ⎪α |x| · sgn(x) ⎪ ⎪ ⎪ ⎨β [(|x| − x ) + y ] · sgn(x) f¨ ur xa ≤ |x| ≤ xb a a y= (6.131) ⎪ ⎪ γ [(|x| − x ) + y ] · sgn(x) f¨ u r x ≤ |x| ⎪ b b b ⎪ ⎪ ⎩δ [ . . . y = αx + ya ⇒ x =
220
6. Statistische Signalbeschreibung
mit ya = αxa , yb = β[xb − xa ] + ya usw. Weitere typische Beispiele nichtlinearer reversibler Kennlinien33 sind Wurzelkennlinie (Abb. 6.20c) und Potenzkennlinie (Abb. 6.20d) 1
y = (α|x|) β sgn(x) ,
y=
xβ sgn(x) α
mit α > 0 und β > 1 , (6.132)
sowie logarithmische Kennlinie und Exponentialkennlinie y = logβ (1 + α|x|) sgn(x) , y =
β |x| − 1 sgn(x) α
mit α > 0 und β > 1 . (6.133)
Die Funktionenpaare in (6.132) und (6.133) sind jeweils zueinander reversibel. St¨ uckweise lineare und logarithmische Abbildungskennlinien werden beispielsweise bei der Kompression von Signalen angewandt, deren Ziel es ¨ ist, vor der Ubertragung u ¨ ber einen Kanal oder auch vor einer Quantisierung − geringe Signalpegel relativ zu verst¨ arken (um diese gegen¨ uber erwarteten Rauschst¨ orungen anzuheben) und gleichzeitig ¨ − hohe Amplituden relativ abzusenken (um Ubersteuerungen vorzubeugen), sowie auf der Empf¨ angerseite mittels einer Expansion, z.B. durch Anwendung der komplement¨aren Exponentialkennlinie das Signal wieder in seinem originalen Amplitudenverlauf zu rekonstruieren. Dabei werden dann st¨orende Rauschpegel relativ zu den geringeren Signalpegeln abgesenkt. Der gesamte Vorgang wird Kompandierung genannt. y
y
y
y
a
k(x)
k(x)
a
k(x)
yb
k(x)
ya ya
a)
x
xa
b)
xb
x
a x
c)
d)
a x
Abb. 6.20. Numerisch charakterisierbare Kennlinienfunktionen (Erl¨ auterungen im Text, hier nur positive Wertbereiche dargestellt)
Grunds¨ atzlich ¨ andert sich auf Grund der Abbildung die Verteilungsdichtefunktion des Signals. Hierbei m¨ ussen jedoch die differentiellen Fl¨achen unter der Verteilungsdichtefunktion innerhalb korrespondierender Amplitudenwert-Intervalle unver¨ andert bleiben (s. Beispiel in Abb. 6.21) : 33
Die folgenden Funktionen werden Koordinatenursprung definiert.
hier
punktsymmetrisch
zum
(x, y)-
221
A
y
6.7 Anhang
0
1/2A
pg(y)
dy
k(x)
x ps(x)
dx 1/A
0
A
x
Abb. 6.21. Abbildung der Amplitudenwerte eines Signals mit nicht-gleichf¨ ormiger Verteilungsdichte zur Erzeugung einer Gleichverteilung (nur positiver Wertebereich dargestellt)
ps (x)dx = pg (y)dy ⇒
ps (x) dk −1 (y) pg (y) dk(x) = bzw. = dx pg (y) dy ps (x)
(6.134)
Generell gilt f¨ ur monoton verlaufende Abbildungsfunktionen, dass die Anzahl der Amplitudenwerte, die im Intervall [xa , xb ] liegt, identisch mit denen des korrespondierenden Intervalls [ya = k(xa ), yb = k(xb )] ist : xb Prob[xa < x ≤ xb ] =
yb pg (y)dy = Prob[ya < y ≤ yb ] ,
ps (x)dx = xa
ya
(6.135) woraus sich auch die Abbildung der Verteilungsfunktion x Ps (x) =
y=k(x)
ps (ξ)dξ = −∞
pg (ν)dν = Pg [k(x)] = Pg (y)
(6.136)
−∞
ergibt. Als Beispiel f¨ ur die Anwendung dieser Beziehungen sei der in Abb. 6.21 dargestellte Fall eines im Intervall [−A; A] amplitudenbegrenzten Signals mit einer Dreiecks-Verteilungsdichte ps (x) = A1 Λ(x/A) betrachtet, die in eine y 1 rect( 2A ) transformiert werden soll. Die AbbilGleichverteilung pg (y) = 2A dungsfunktion wird hier ebenso wie die beiden Verteilungsdichtefunktionen symmetrisch f¨ ur positive und negative Werte x sein. Es folgt im positivwertiy , und durch Einsetzen in (6.136) ergibt sich eine gen Bereich Pg (y) = 12 + 2A Abbildungsfunktion
222
6. Statistische Signalbeschreibung
1 1 k(x) + = + 2 2A 2
x
1 ξ x2 1− dξ ⇒ k(x) = 2x − A A A
0
bzw. f¨ ur den gesamten Wertebereich −A ≤ x ≤ A x2 k(x) = 2|x| − sgn(x) . A
(6.137)
Auf entsprechende Weise ist es prinzipiell m¨ oglich, eine Abbildungsfunktion zwischen beliebiger Eingangs- und gew¨ unschter Ausgangs-Verteilungsdichte zu bestimmen, jedoch wird die L¨ osung der Gleichung f¨ ur den Fall einer nichtgleichverteilten Ausgangs-Verteilungsdichte komplizierter.
y
k(x)
y
A
-A
A
A
x -A
-A a)
k(x)
A
x
b)
Abb. 6.22. a Clipping-Kennlinie und b Zweiweg-Gleichrichter-Kennlinie
Wichtige nicht-reversible nichtlineare Kennlinien sind die Clippingkennlinie (Abb. 6.22a) ⎧ −A f¨ ur x < −A ⎪ ⎪ ⎨ y= x f¨ ur − A ≤ x < A ⎪ ⎪ ⎩ A f¨ ur A ≤ x ,
(6.138)
die Zweiweg-Gleichrichter-Kennlinie y = |x| = x sgn(x) (Abb. 6.22b)34 sowie die Kennlinie eines Quantisierers mit M Repr¨asentativwerten vi (i = 0, 1, ..., M − 1) und Entscheidungsschwellen ui (Abb. 6.23) ur ui ≤ x < ui+1 mit u0 = −∞ , uM = +∞ . y = vi f¨
(6.139)
Die Operation der Quantisierung nach (6.139) stellt die Abbildung eines wertkontinuierlichen Signals f (t) der Amplitude x auf ein wertdiskretes Signal fQ (t) der Amplitude y = vi dar. Die Verteilungsdichte des quantisierten Signals wird unter Ber¨ ucksichtigung von (6.135) und (6.139) 34
Entsprechend Einweg-Gleichrichter-Kennlinie y = x ε(x).
6.7 Anhang
pfQ (y) =
M−1
223
u i+1
Pi δ(y − vi ) mit Pi =
i=0
pf (ξ)dξ .
(6.140)
ui
Bei der Quantisierung entsteht ein Quantisierungsfehler fD (t) = fQ (t) − f (t) als Differenz zwischen Ausgangs- und Eingangswert q = y − x der Quantisierungskennlinie. Die Abbildung von f (t) auf fD (t) l¨asst sich als von der Signalamplitude abh¨ angige Quantisierungsfehlerkennlinie q(x) beschreiben. Da die Anzahl der diskreten (quantisierten) Werte endlich ist, befinden sich unterhalb von x = u1 sowie oberhalb von x = uM−1 Bereiche, in denen die Differenz zwischen quantisiertem und nicht quantisiertem Signal ¨ immer gr¨ oßer wird, die sogenannten Ubersteuerungsbereiche. Beispiele typischer Quantisierungs- und Quantisierungsfehlerkennlinien sind in Abb. 6.23 gezeigt. Bei einer gleichf¨ormigen Quantisierung wird der Amplitudenbereich innerhalb der Aussteuerungsgrenzen in gleichf¨ormige Intervalle der Breite ∆ aufgeteilt. Bei einer ungleichf¨ormigen Quantisierung sind die Stufenh¨ohen der Quantisierungskennlinie dagegen variabel.
k(x)
vM-1 vM-2
D
vM-2
... uM-2 uM-1
u1 u2
...
k(x)
y vM-1
y
x
u1
... uM-2 uM-1
u2
...
v1 v0
x
v1 v0
a)
b) q
v0 v1
... -D/2 u1 u2
D/2 vM-1 ... uM-2 uM-1
v0 x
q
v1
... (v0+v1)/2 u1
u2
(vM-2+vM-1)/2 ... uM-2 uM-1 vM-2
vM-1 x
Abb. 6.23. Quantisierungskennlinien (oben) und Quantisierungsfehlerkennlinien (unten) bei a gleichf¨ ormiger und b ungleichf¨ ormiger Quantisierung
¨ Uber die Quantisierungsfehler-Kennlinie ist es auch m¨oglich, die Verteilungsdichte des Quantisierungsfehlers bei beliebigen Signal-Verteilungsdichten zu ermitteln. Auf Grund der mehrdeutigen Abbildung ergibt sich die Verteilungs¨ dichte des Quantisierungsfehlers durch Uberlagerung der um die jeweiligen vi verschobenen Signalverteilungsdichten aus allen Quantisierungsintervallen
224
6. Statistische Signalbeschreibung
pfD (q) =
M−1
pi (q)
(6.141)
i=0
mit35 pi (q) = pf (vi − q) [ε(vi − ui − q) − ε(vi − ui+1 − q)]
(6.142)
bei Definition f¨ ur u0 und uM wie in (6.139). Speziell f¨ ur den Fall einer gleichf¨ ormigen, u ¨bersteuerungsfreien Quantisierung der Stufenh¨ohe ∆ ergibt sich mit ui+1 − ui = ∆ und vi = ui + ∆/2: q . (6.143) pi (q) = pf (vi − q) rect ∆ Eine weitere Behandlung der Quantisierung erfolgt in Abschn. 7.4 sowie in Zusatzaufgabe 9.6. 6.7.2 Gauß-Verbundverteilung Es seien s(t) und g(t) zwei korrelierte oder unkorrelierte, mittelwertfreie Gauß-Prozesse. Zwischen diesen wird nach Normierung auf die jeweiligen Standardabweichungen in folgender Weise einmal die Summe und einmal die Differenz gebildet: Σ(t) =
s(t) g(t + τ ) s(t) g(t + τ ) + ; ∆(t) = − . σs σg σs σg
(6.144)
Auch die Summen- und Differenzprozesse sind Gauß-verteilt, mittelwertfrei und besitzen folgende Varianzen und Kovarianzen:
2 s(t) g(t + τ ) 2 =E + (6.145) σΣ σs σg 2 2 3 3 E s2 (t) E g 2 (t + τ ) E {s(t)g(t + τ )} = + +2 = 2[1 + ρ(τ )] , σs2 σg2 σs σg und entsprechend
2 s(t) g(t + τ ) 2 − = 2[1 − ρ(τ )] σ∆ = E σs σg
(6.146)
sowie 35
Die beiden Sprungfunktionen schneiden das jeweilige Quantisierungsintervall aus. Man beachte, dass wegen der Definition q = y − x der Verlauf der Verteilungsdichte im jeweiligen Intervall bei der Abbildung von x auf q gespiegelt wird.
6.7 Anhang
225
0
1 s(t) g(t + τ ) s(t) g(t + τ ) + − σs σg σs σg 2 2 3 3 2 2 E s (t) E g (t + τ ) = − =0. 2 σs σg2
E {Σ(t)∆(t)} = E
(6.147)
Die Summen- und Differenzprozesse sind also unkorreliert und, da sie einer Gauß-Verteilung folgen, außerdem statistisch unabh¨angig. Sie besitzen daher eine Verbund-Verteilungsdichte 1 u2 pΣ∆ (u, v) = exp − 2[1 + ρ(τ )] 4π[1 + ρ(τ )]
pΣ (u)
v2 1 exp − · 2[1 − ρ(τ )] 4π[1 − ρ(τ )]
p∆ (v)
=
2 u [1 − ρ(τ )] + v 2 [1 + ρ(τ )] 1 exp − . 4[1 − ρ2 (τ )] 4π 1 − ρ2 (τ ) (6.148)
Die Abbildung auf die Zufallsvariablen x und y der urspr¨ unglichen Prozesse s(t) und g(t) ist u=
y σg x + σs y x y σg x − σs y x + = ; v= − = , σs σg σs σg σs σg σs σg
(6.149)
(6.149) in (6.148) eingesetzt ergibt dann (6.94). Die Verallgemeinerung f¨ ur nicht-mittelwertfreie Gauß-Prozesse lautet psg (x, y, τ ) = *
2πσs σg
1 1 − 2 (τ )
(6.150)
σg2 (x − ms )2 + σs2 (y − mg )2 − 2σs σg (τ )(x − ms )(y − mg ) · exp − 2σs2 σg2 (1 − 2 (τ ))
+ .
Die Betrachtung mittels der Summen- und Differenzprozesse ist besonders anschaulich, weil (6.149) eine Koordinatenabbildung darstellt, nach der die Achsen u und v senkrecht aufeinander stehen. Werte konstanter Verteilungsdichte ergeben sich gem¨ aß des Exponenten in (6.148) auf Kreisen um den mg /σg ) f¨ ur den Fall Mittelpunkt (ms /σs , ρ(τ ) = 0, bzw. auf Ellipsen mit den Hauptachsenl¨ angen 1 + ρ(τ ) bzw. 1 − ρ(τ ) und Ausrichtungen entlang der u- bzw. v-Achsen f¨ ur den Fall ρ(τ ) = 0.
226
6. Statistische Signalbeschreibung
6.7.3 Fehlerfunktion Die Fehlerfunktion (er ror f unction) ist definiert durch das nicht geschlossen l¨osbare Integral 2 erf(x) = √ π
x exp(−ξ 2 )dξ
(6.151)
0
mit den Eigenschaften (Abb. 6.24) erf(−x) = − erf(x) erf(−∞) = −1 erf(∞) = 1 .
(6.152)
Weiter gilt als komplement¨ are Fehlerfunktion36 (Abb. 6.24 und Tab. 6.1) 2 erfc(x) = 1 − erf(x) = √ π
∞ exp(−ξ 2 )dξ
(6.153)
x
mit der Ableitung d −2 erfc(x) = √ exp(−x2 ) dx π
(6.154)
Abb. 6.24. Fehlerfunktion erf(x) und komplement¨ are Fehlerfunktion erfc(x)
Beschreibt man die der Gauß’schen Verteilungsdichtefunktion (6.92) zugeh¨ orige Verteilungsfunktion Ps (x) durch die Fehlerfunktion, dann gilt zun¨achst 36
In der einschl¨ agigen Literatur wird auch h¨ aufig die zu erfc(x) ¨ aquivalente Q√ ” Funktion“ Q(x) verwendet. Es gelten die Beziehungen Q(x) = 12 erfc(x/ 2) bzw. √ erfc(x) = 2Q(x 2).
6.7 Anhang
x Ps (x) = −∞
(ξ − ms )2 √ exp − 2σ 2 2πσ 2 1
227
dξ .
√ Mit der Substitution (ξ − ms )/ 2σ 2 = u ergibt sich 1 Ps (x) = √ π
√ (x−ms )/ 2σ2
exp(−u2 )du = −∞
oder mit (6.153) und (6.152) auch ms − x 1 Ps (x) = erfc √ . 2 2σ 2
1 erf 2
x − ms √ 2σ 2
+
1 2
(6.155)
(6.156)
228
6. Statistische Signalbeschreibung
Tabelle 6.1. Komplement¨ are Fehlerfunktion x
erfc(x)
x
erfc(x)
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2, 8 2, 9 3, 0 3, 1 3, 2 3, 3
1,00 0,888 0,777 0,671 0,572 0,480 0,396 0,322 0,258 0,203 0,157 0,120 8, 97 · 10−2 6, 60 · 10−2 4, 77 · 10−2 3, 39 · 10−2 2, 37 · 10−2 1, 62 · 10−2 1, 09 · 10−2 7, 21 · 10−3 4, 68 · 10−3 2, 98 · 10−3 1, 86 · 10−3 1, 14 · 10−3 6, 89 · 10−4 4, 07 · 10−4 2, 36 · 10−4 1, 34 · 10−4 7, 50 · 10−5 4, 11 · 10−5 2, 21 · 10−5 1, 17 · 10−5 6, 03 · 10−6 3, 06 · 10−6
3,4 3,5 3,6 3,7 3,8 3,9 4,0 4,1 4,2 4,3 4,4 4,5 4,6 4,7 4,8 4,9 5,0 5,1 5,2 5,3 5,4 5,5 5,6 5,7 5,8 5,9 6,0
1, 52 · 10−6 7, 44 · 10−7 3, 56 · 10−7 1, 67 · 10−7 7, 70 · 10−8 3, 48 · 10−8 1, 54 · 10−8 6, 70 · 10−9 2, 86 · 10−9 1, 19 · 10−9 4, 89 · 10−10 1, 97 · 10−10 7, 75 · 10−11 3, 00 · 10−11 1, 14 · 10−11 4, 22 · 10−12 1, 54 · 10−12 5, 49 · 10−13 1, 93 · 10−13 6, 61 · 10−14 2, 23 · 10−14 7, 36 · 10−15 2, 38 · 10−15 7, 57 · 10−16 2, 36 · 10−16 7, 19 · 10−17 2, 15 · 10−17
x>6
≈ √1πx · e−x (mit < 2% rel. Fehler)
2
6.8 Aufgaben
229
6.8 Aufgaben 6.1 Gegeben ist eine Schar von Gleichspannungen ks(t) = ak f¨ ur k = 1, 2, . . . Die Amplitude ak kann einen der Werte 0 V oder 2 V annehmen, die jeweils mit gleicher Wahrscheinlichkeit auftreten. 2 3 2 3 a) Wie groß sind die Scharmittelwerte E {s(t1 )}, E s2 (t1 ) , E s3 (t1 ) ur t1 = 0 s und 15 s? Ist der Prozess station¨ar? und E {s(0) · s(t1 )} f¨ b) Wie groß sind die entsprechenden Zeitmittelwerte f¨ ur die zwei m¨oglichen Amplituden? Ist der Prozess ergodisch? 6.2 Zur praktischen Messung ( Sch¨ atzung“) des Mittelwertes werden u ¨ ber ” die Musterfunktionen ks(t) eines ergodischen Prozesses Kurzzeitmittelwerte T k m(T ) = (1/T ) ks(t)dt gebildet. 0 k
ur alle k gleich oder ist m(T ) eine Zufallsgr¨oße? a) Sind die m(T ) f¨ b) Wie groß ist E {m(T )} im Vergleich zu s(t)? 6.3 Zeigen Sie die G¨ ultigkeit von (6.12), und leiten Sie damit (6.25) ab. ¨ 6.4 Die Ahnlichkeit der um die Zeit τ auseinanderliegenden Zufallsgr¨oßen eines station¨ aren Prozesses s(t) der Leistung P werde durch die Augenblicksleistung P∆ ihrer Differenz gemessen. Leiten Sie die Autokorrelationsfunktion ϕss (τ ) aus P∆ und P her. 6.5 Zur Zeit t = 0 wird weißes Rauschen der Leistungsdichte N0 auf den Eingang eines idealen Integrators gegeben. Wie groß ist die Augenblicksleistung der Zufallsgr¨ oße am Ausgang zur Zeit T ? Ist der Ausgangsprozess station¨ ar? Hinweis: Beschreiben Sie die Integration als Faltung mit einer rect-Funktion. 6.6 Am Eingang eines RC-Systems der Impulsantwort h(t) = T −1 ε(t) · exp(−t/T ) liegt weißes Rauschen der Leistungsdichte N0 . a) Berechnen Sie das Leistungsdichtespektrum φgg (f ) des Ausgangsprozesses und daraus die Leistung. b) Berechnen Sie die Autokorrelationsfunktion ϕgg (τ ) des Ausgangsprozesses und daraus die Leistung. 6.7 Zwei LTI-Systeme mit den Impulsantworten h1 (t) und h2 (t) sind eingangsseitig parallel geschaltet (Abb. 6.25). Am Eingang dieser Schaltung liegt ein station¨ arer Zufallsprozess mit der Autokorrelationsfunktion ϕss (τ ). a) Zeigen Sie, dass f¨ ur die Kreuzkorrelationsfunktion ϕgf (τ ) der Ausgangssignale gilt ϕgf (τ ) = ϕss (τ ) ∗ h1 (−τ ) ∗ h2 (τ ) = ϕss (τ ) ∗ ϕE h1h2 (τ ) . Hinweis: Ableitung wie in Abschn. 6.2.2.
230
6. Statistische Signalbeschreibung
b) Zeigen Sie, dass bei Anregung mit weißem Rauschen und bei Orthogonalit¨ at der Impulsantworten der beiden Systeme ϕgf (0) = 0 gilt. c) Welche Bedingung m¨ ussen die Filter erf¨ ullen, damit die Ausgangsprozesse unkorreliert sind?
Abb. 6.25. System zu Aufgabe 6.7
6.8 Auf den Eingang eines LTI-Systems der Impulsantwort h(t) wird weißes Rauschen s(t) der Leistungsdichte N0 gegeben. Berechnen Sie die Kreuzkorrelationsfunktion und das Kreuzleistungsdichtespektrum zwischen Eingangsund Ausgangssignal. Hinweis: Ersetzen Sie in Aufgabe 6.7 das obere System in Abb. 6.25 durch ein verzerrungsfreies System mit der Impulsantwort δ(t). Anmerkung: Ergebnis wird zur Messung von Impulsantworten mit ergodischen, weißen Rauschsignalen benutzt. 6.9 Weißes Rauschen s(t) der Leistungsdichte N0 wird auf einen idealen Bandpass der Bandbreite f∆ und der Mittenfrequenz f0 gegeben. Bestimmen Sie f¨ ur den Ausgangsprozess g(t) a) b) c) d) e)
das Leistungsdichtespektrum, Mittelwert, quadratischen Mittelwert und Streuung, die Autokorrelationsfunktion, die Kreuzkorrelationsfunktion zum Eingangsprozess. Der Eingangsprozess wird gleichzeitig auf einen Tiefpass der Grenzfrequenz fg ≤ f0 − f∆ /2 gegeben. Wie lautet die Kreuzkorrelationsfunktion zwischen den Ausgangsprozessen des Tief- und Bandpasses?
¨ 6.10 Die Rauschbandbreite fR eines beliebigen Tiefpassfilters der Ubertragungsfunktion H(f ) wird so definiert, dass bei Anregung dieses Filters mit einem ergodischen, weißen Rauschsignal am Ausgang die gleiche Rauschlei¨ stung erscheint wie am Ausgang eines idealen Tiefpasses der Ubertragungsfunktion HR (f ) = H(0) rect[f /(2fR )]. Wie groß ist demnach die Rauschbandbreite eines RC-Systems mit der ¨ Ubertragungsfunktion nach (2.18)? Wie kann entsprechend die Rauschbandbreite von Bandp¨ assen definiert werden? 6.11 Ein station¨ arer Prozess s(t) mit der Autokorrelationsfunktion ϕss (τ ) wird differenziert: kg(t) = d/dtks(t). Berechnen Sie Leistungsdichtespektrum
6.8 Aufgaben
231
und Autokorrelationsfunktion des differenzierten Prozesses (Anwendung s. Abschn. 8.2.4). 6.12 Gegeben ist eine Verteilungsdichtefunktion ps (x) = aΛ(2x). a) b) c) d)
Wie groß ist a? Berechnen Sie die zugeh¨ orige Verteilungsfunktion Ps (x). Wie groß sind Mittelwert, quadratischer Mittelwert und Streuung? Mit welcher Wahrscheinlichkeit liegt die Zufallsgr¨oße s(t1 ) im Bereich 0 < s(t1 ) ≤ 0, 3? e) Skizzieren Sie den Verlauf der modifizierten Verteilungsfunktion Prob[s(t1 ) > x].
6.13 Zwei verbunden station¨ are Prozesse s(t) und g(t) sind unkorreliert. Sie besitzen die Leistungsdichtespektren φss (f ) = rect(f ) + 2δ(f ) φgg (f ) = Λ(f ) a) Wie groß sind Mittelwert, Leistung und Streuung der beiden Prozesse? b) Skizzieren Sie Autokorrelationsfunktion und Leistungsdichtespektrum des Summenprozesses. Wie groß sind seine Leistung und Streuung? 6.14 Ein ergodisches Zufallssignal mit dem Leistungsdichtespektrum φss (f ) = Λ(f /fg ) wird mit der Rate r abgetastet und mit einem idealen Tiefpass der Grenzfrequenz fg wieder interpoliert. Bei Unterabtastung tritt ein St¨ orterm auf (Abb. 3.8), dessen Leistung ein Maß f¨ ur den Abtastfehler ist. Berechnen und skizzieren Sie das Verh¨ altnis Abtastfehlerleistung zur Leistung des unverzerrten Signals im Bereich fg < r < 3fg . 6.15 Berechnen Sie Verteilungsdichtefunktion, Streuung und Mittelwert einer Summe von n statistisch unabh¨ angigen, Gauß-verteilten Zufallsgr¨oßen mit den Mittelwerten mi und den Streuungen σi2 . Hinweis: Benutzen Sie die Ergebnisse aus Aufgabe 2.8. 6.16 Ein rauschender Widerstand R l¨ asst sich durch ein Spannungsersatzbild mit der Leerlaufspannung ku(t) und dem rauschfreien Innenwiderstand R beschreiben. Berechnen Sie mit (6.41) die dieser Spannungsquelle im Frequenzbereich |f | ≤ fg maximal entnehmbare Leistung. 6.17 Gegeben ist eine bin¨ are Pulsfolge, die Musterfunktion eines ergodischen Prozesses sein soll, durch ∞ t − nT s(t) = dn rect . T n=−∞ dn kann die Werte 0 oder 1 annehmen, die jeweils mit gleicher Wahrscheinlichkeit auftreten.
232
6. Statistische Signalbeschreibung
a) b) c) d)
Berechnen und skizzieren Sie Verteilungs- und Verteilungsdichtefunktion. Wie groß sind Mittelwert, quadratischer Mittelwert und Streuung? Berechnen Sie Autokorrelationsfunktion und Leistungsdichtespektrum. Ermitteln Sie die Werte nach (b) aus Autokorrelationsfunktion und Leistungsdichtespektrum. e) Wie sind die Ergebnisse zu (a) und (b), wenn in der Impulsfolge rect(t/T ) durch Λ(2t/T ) ersetzt wird? f) Berechnen Sie Autokorrelationsfunktion und Leistungsdichtespektrum, wenn in der Impulsfolge rect(t/T ) durch rect(t/T0 ) mit T0 < T ersetzt wird.
6.18 Berechnen Sie aus der Gauß’schen Verteilungsdichtefunktion nach (6.92) Mittelwert und Streuung mit Hilfe von (6.69) und (6.70). 6.19 Berechnen Sie aus der Gauß’schen Verbundverteilungsdichtefunktion nach (6.94) (f¨ ur σs2 = σg2 = σ 2 ) den Kreuzkorrelationskoeffizienten mit Hilfe von (6.83). Hinweis: Gr¨ oßerer Rechenaufwand (s. L¨ osung im Anhang). 6.20 Aus den Zufallsgr¨ oßen s(t1 ) mit der Verteilungsdichtefunktion ps (x) werden neue Zufallsgr¨ oßen g(t1 ) durch k k
g(t1 ) =
s(t1 ) + a b
mit
a, b = const .
gebildet. Wie lautet deren Verteilungsdichtefunktion? Wie ver¨andern sich die Mittelwerte und quadratischen Mittelwerte? 6.21 Von mittelwertfreiem Gauß’schem Rauschen ks(t) wird in einem Zweiweggleichrichter der Betrag kg(t) = |ks(t)| gebildet. a) Wie lautet die Verteilungsdichtefunktion pg (x)? b) Wie ist das Ergebnis f¨ ur einen Einweggleichrichter mit k g(t) = 12 [ks(t) + |ks(t)|]? 6.22 Berechnen und skizzieren Sie die Sprungantwort des Gauß-Tiefpasses“ ” mit der Impulsantwort h(t) = exp(−πt2 ) . 6.23 Die Standardabweichung σ als Maß f¨ ur die Breite einer Verteilungsdichtefunktion kann auch als Maß f¨ ur die zeitliche Dauer eines beliebigen Energiesignals dienen. Diese sog. Streuungsbreite“ wird hier betrachtet. ” a) Ein Signal s(t) mit der Energie E wird zun¨achst umgeformt in sb (t) = s2 (t)/E. Zeigen Sie, dass sb (t) dann die Eigenschaften (6.65) und (6.66) einer typischen Verteilungsdichtefunktion besitzt.
6.8 Aufgaben
233
b) Geben Sie einen Ausdruck f¨ ur die Streuungsbreite“ σt , von sb (t) an. ” c) Wie groß ist die Streuungsbreite der beiden Impulse in Abb. 4.2? d) Definieren Sie ein entsprechendes Maß f¨ ur die Streuungsbandbreite“ σf ” eines Energiesignals. Anmerkung: Es l¨ asst sich zeigen, dass das Zeit-Bandbreiteprodukt beliebiger Energiesignale in dieser Definition durch σt · σf ≥ 1/(4π) beschr¨ankt ist. Das Minimum wird vom Gauß-Impuls erreicht. 6.24 Ein beliebiges diskretes Zufallssignal s(n) sei Musterfunktion eines ergodischen Prozesses. a) Zeigen Sie, dass bei Multiplikation mit einem zu s(n) unkorrelierten weißen Zufallssignal g(n) das Produktsignal p(n) = s(n)·g(n) mittelwertfrei ist. b) Dieses Verfahren wird als Scrambling“ (engl. scramble: verr¨ uhren, durch” einandermischen) zur Beseitigung von Gleichanteilen und Verminderung ¨ starker tieffrequenter Komponenten bei der Ubertragung von digitalen Signalen angewandt. Wie l¨ asst sich das Ausgangssignal r¨ uckgewinnen, wenn als Scrambling-Signal g(n) bin¨ are (±1) Pseudonoisefolgen benutzt werden? 6.25 Zeitdiskretes, weißes Rauschen der Leistung σn2 wird auf ein zeitdiskretes Filter h(n) gegeben. Berechnen Sie die Ausgangsleistung. Welche Bedingung muss das Filter erf¨ ullen, damit die Ausgangsleistung endlich ist? 6.26 Mit welcher Rate r muss man tiefpassbegrenztes weißes Rauschen der Grenzfrequenz fg abtasten, damit das entstehende zeitdiskrete Signal weiß ist? 6.27 Leiten Sie die Wiener-Lee-Beziehung (6.119) f¨ ur station¨are, zeitdiskrete Prozesse ab. 6.28 Berechnen und skizzieren Sie Autokorrelationsfunktion und Leistungsdichtespektrum des als weiß angenommenen, aber nicht mittelwertfreien, zeitdiskreten, gleichverteilten Zufallsprozesses in Abb. 6.17. 6.29 Zeitdiskretes weißes Rauschen der Leistung σn2 wird u ¨ber das rekursive diskrete Filter in Abb. 3.14 u ¨ bertragen. Wie lauten Autokorrelationsfunktion und Leistungsdichtespektrum des Ausgangsprozesses? Wie groß ist seine Leistung? 6.30 Ein Zufallsgenerator erzeugt voneinander unabh¨angige Bin¨arwerte s(n) ∈ {0, 1} mit der Wahrscheinlichkeit Prob[s(n) = 1] = p. Ein aus derartigen Musterfunktionen gebildeter Prozess wird Bernoulli-Prozess oder Binomial-Prozess genannt.
234
6. Statistische Signalbeschreibung
a) Zeichnen Sie Verteilungs- und Verteilungsdichtefunktion f¨ ur p = 0, 6. ur b) Zeichnen Sie die Verbundverteilungsfunktion Pss (x, y, m = 0) f¨ p = 0, 6, und damit die Verbundverteilungsdichtefunktion pss (x, y, m = 0). c) Berechnen Sie aus pss (x, y, m = 0) die Autokorrelationsfunktion ϕss (m) f¨ ur m = 0. Jeweils K aufeinander folgende Werte von s(n) werden addiert und bilden die Folge g(n) eines allgemeineren Bernoulli-Prozesses. ur p = 0, 5 und K = 2 d) Skizzieren Sie die Verteilungsdichtefunktion pg (x) f¨ sowie K = 3. Wie verh¨ alt sich pg (x) f¨ ur große K? Vergleichen Sie die Ergebnisse mit dem allgemeinen Ausdruck f¨ ur die Binomialverteilung pg (x) =
K K i=0
i
pi (1 − p)K−i δ(x − i) .
Anmerkung: Im Grenz¨ ubergang K →∞ (mit Kp = const.) geht die Binomialin die Poisson-Verteilung u ¨ ber. 6.31 Ein bipolares, eigeninterferenzfreies Daten¨ ubertragungssystem werde durch Gauß’sches Rauschen gest¨ ort. Am Ausgang des Empfangsfilters seien N die Rauschleistung und Sa die Signalaugenblicksleistung im Abtastzeitpunkt. a) Skizzieren Sie die Verteilungsdichtefunktionen py0 (x) und py1 (x) vor der Entscheidungsstufe. b) Die Nachrichtenquelle erzeugt die Bin¨ arwerte an = 1 mit der Wahrscheinlichkeit P1 . Bestimmen Sie die Gesamtfehlerwahrscheinlichkeit Pe als Funktion von P1 und der Einzelfehlerwahrscheinlichkeiten Pe0 und Pe1 . c) Bestimmen Sie Pe0 und Pe1 jeweils als Funktion von Sa , N und der Entscheidungsschwelle C. d) Bei welcher Entscheidungsschwelle C wird die Gesamtfehlerwahrscheinlichkeit Pe minimal? e) Wie lautet das Ergebnis bei Korrelationsfilter-Empfang und St¨orung durch weißes, Gauß’sches Rauschen der Leistungsdichte N0 ?
7. Bin¨ aru ¨bertragung
In den bisherigen Kapiteln wurden Methoden zur Beschreibung determinier¨ ter und nichtdeterminierter Signale und ihrer Ubertragung u ¨ ber einfache Systeme behandelt. Im Folgenden werden diese Kenntnisse zu einer quantita¨ tiven Betrachtung einer Anzahl grundlegender nachrichtentechnischer Ubertragungsverfahren benutzt. ¨ Zu Beginn soll dabei das Problem der Ubertragung digitaler Signale u ¨ ber gest¨ orte Tiefpass- und Bandpasskan¨ ale betrachtet werden. Einfachstes Beispiel einer digitalen Signal¨ ubertragung ist die gegen Ende des letzten Ka¨ pitels betrachtete Ubertragung mit den zwei M¨oglichkeiten s(t) gesendet“ ” bzw. s(t) nicht gesendet“, denen z. B. die zwei Zahlen 1 bzw. 0 zugeordnet ” ¨ werden k¨ onnen. Dieser einfache Fall der Ubertragung nur zweier unterscheidbarer Signale, die Bin¨ar¨ ubertragung, wird im folgenden Kapitel zun¨achst be¨ handelt und sp¨ ater erweitert zu Ubertragungsverfahren, die eine gleichzeitige Sendung mehrerer Bin¨ arsymbole (Bits) erm¨ oglichen. Ein R¨ uckblick in die Geschichte der Nachrichtentechnik (s. S. 425) zeigt, ¨ dass im 19. Jahrhundert fast ausschließlich digitale Verfahren zur Ubermittlung alphanumerischer Texte verwendet wurden. Diese Telegrafieverfahren wurden dann im Lauf des 20. Jahrhunderts durch die analogen Verfahren der Ton- und Bild¨ ubertragung in ihrem Anteil am gesamten Nachrichtenaufkommen stark zur¨ uckgedr¨ angt. Durch den mit der Rechnertechnik seit den 60er Jahren des 20. Jahrhunderts rasch zunehmenden Bedarf an schneller, fehlerarmer Daten¨ ubertragung und die Einf¨ uhrung der Pulscodemodulationstechnik (PCM) in die Fernsprechweitverkehrs- und Vermittlungstechnik ¨ seit den 70er Jahren ist der Anteil der digitalen Ubertragungssysteme wieder stark angestiegen. Die Flexibilit¨ at der digitalen Datenformate hat sich gegen¨ uber den analogen Techniken als ¨ außerst vorteilhaft erwiesen, so dass diese wiederum fast vollst¨ andig verdr¨angt wurden. Seit Ende der 80er Jahre wurde u ¨ber Fernsprechleitungen der direkte digitale Zugang zum ISDN (Integrated Services Digital Network) f¨ ur viele Arten digitaler Endger¨ ate mit der Rate 64 kbit/s angeboten. Seitdem ¨ konnte die Ubertragungsrate nochmals deutlich gesteigert werden, beispielsweise in den verschiedenen Varianten der DSL-Technik (Digital Subscriber ¨ Loop). Gleichzeitig entwickelten sich breitbandige Ubertragungstechniken f¨ ur die Backbone-Vernetzung, auch unter Verwendung von Glasfasermedien zur
236
7. Bin¨ ar¨ ubertragung
¨ ¨ Ubertragung, neben synchronen Ubertragungstechniken (SDH, Synchronous Digital Hierarchy) auch das Breitband-ISDN mit flexibler Ratenzuordnung in ATM-Technik (Asynchronous Transfer Mode: Paketvermittlung). Diese Netze stellen zur Zeit noch das R¨ uckgrat von Internet-Diensten im Weitverkehr sowie im DSL-Zugangsnetz dar. Der Trend zu einer breiten Nutzung digita¨ ler Ubertragungstechniken wurde durch die rasche Ausbreitung des World ” Wide Web“ (im Rahmen des Internet) beschleunigt. Vom Verkehrsaufkommen her stellen heute Multimedia-Anwendungen (z. B. Video Streaming) den gr¨ oßten Anteil (Ohm, 2004). Ein weiterer Schwerpunkt digitaler Techniken wurde durch den schnellen Aufbau von zellularen Mobilfunknetzen der 2. Generation1 seit Beginn der 1990er Jahre gesetzt. W¨ ahrend heute mobile Sprach- und niederratige Datendienste (z.B. GPRS, Generalized Packet Radio Structure) bis maximal 100 kbit/s fl¨ achendeckend verf¨ ugbar sind, erm¨oglichen die inzwischen eingef¨ uhrten Systeme der 3. Generation h¨ ohere Datenraten, die allerdings in der Praxis noch deutlich unter den urspr¨ unglich angek¨ undigten 2 Mbit/s liegen. Damit werden zunehmend die fr¨ uher nur im Festnetz existierenden Internet-Dienste mobil nutzbar. Auf l¨ angere Sicht wird eine weitere Integration ¨offentlicher und privater Netze die Verwendung mobiler, universeller Endger¨ate mit allen Sprach-, Daten- und Multimedia-Diensten erm¨ oglichen. Mit der Erschließung weiterer Frequenzbereiche, mit adaptiven Antennen und anderen schaltungstechnischen Maßnahmen werden f¨ ur die vierte und folgende Generationen des Mobilfunks Raten von u ugba¨ ber 100 Mbit/s angestrebt. Die tats¨achlich verf¨ re Rate wird allerdings immer stark von der jeweiligen lokalen Infrastruktur, von der Anzahl gleichzeitig aktiver Nutzer und deren Verhalten abh¨angen. So ist generell bei mit h¨ oherer Geschwindigkeit bewegten Sende- und/oder Empfangsger¨ aten (d.h. bei der eigentlichen mobilen Anwendung) eine wesentlich ¨ kritischere Situation und insbesondere fluktuierende Ubertragungsqualit¨ at zu ¨ beobachten. Bei drahtloser Ubertragung mit festen Sende- und Empfangssta¨ tionen kann dagegen meist eine stabile Anpassung der Ubertragungsqualit¨ at erfolgen. So sind Raten von 100 Mbit/s bei drahtloser Daten¨ ubertragung heute bereits in drahtlosen lokalen Netzen (Wireless LAN) m¨oglich, noch deutlich h¨ ohere Raten werden angestrebt. Parallel dazu erfolgt auch die Umstellung der Verteildienste f¨ ur H¨orrundfunk und insbesondere Fernsehrundfunk auf digitale Verfahren (DAB: Digital Audio Broadcasting, DVB: Digital Video Broadcasting). Dies betrifft die kaale. utzten und terrestrischen Verteilungskan¨ belgebundenen, satellitengest¨ Die Tendenz der gesamten Entwicklung l¨auft darauf hinaus, die Leistungsf¨ ahigkeit aller vorhandenen physikalischen Netze insbesondere durch Anwendung von komplexen Techniken der Digitalen Signalverarbeitung in 1
Die so genannte erste Generation der Mobilfunknetze wurde ab den 1970er Jah¨ ren noch mit analogen Ubertragungstechniken realisiert und erlaubte nur eine sehr begrenzte Teilnehmerzahl.
¨ 7.1 Allgemeine und digitale Ubertragungssysteme
237
der Signal¨ ubertragung weiter zu steigern und gleichzeitig neue Netze aufzubauen. Letzten Endes erlauben die Internet-Protokolle eine flexible Versorgung mit allen digitalen Datentypen, einschließlich der klassischen Telefonie, des Fernseh- und H¨ orrundfunks. Inwieweit dabei letztere, die eigentlich aus ¨ Gr¨ unden der Knappheit an Ubertragungskapazit¨ at zur gleichzeitigen Versorgung vieler Empf¨ anger eingerichtet wurden, eher durch interaktive Abrufdienste ersetzt werden, ist noch nicht endg¨ ultig abzusehen.
¨ 7.1 Allgemeine und digitale Ubertragungssysteme Das allgemeine Schema eines elementaren technischen Nachrichten¨ ubertragungssystems zeigt Abb. 7.1. Signale einer beliebigen Nachrichtenquelle werden i. Allg. zun¨ achst in einem Aufnahmewandler auf elektrische Zeitfunktionen abgebildet. Ein Sender erzeugt dann in einer zweiten Abbildung ein Sendesignal, welches durch geeignete Form und hinreichenden Energi¨ einhalt an den durch Ubertragungseigenschaften und St¨orungen charakte¨ risierten Ubertragungskanal angepasst ist. Am Ausgang des Kanals u ¨bernimmt ein Empf¨ anger die Aufgabe, das Ausgangssignal des Aufnahmewandlers m¨ oglichst gut zu rekonstruieren. Der Wiedergabewandler bildet dieses Signal dann schließlich in eine f¨ ur die Nachrichtensenke geeignete Form ab.
Abb. 7.1. Schema eines technischen Nachrichtensystems
Anmerkung: In gleicher Weise gilt dieses Schema auch beispielsweise f¨ ur Nachrichtenspeicher, bei denen das Speichermedium den Kanal darstellt. Es l¨ asst sich weiter ausdehnen auf Mess- oder Radarsysteme, bei denen Sender und Empf¨ anger h¨ aufig am gleichen Ort lokalisiert sind und Informationen u ¨ber Eigenschaften des Kanals gesucht werden. ¨ Bei digitalen Ubertragungssystemen wird die Abbildung in das Sendesignal allgemein in Quellen-, Kanal- und Leitungscodierung aufgeteilt (Abb. 7.2). Die diskrete Nachrichtenquelle, die z. B. mit dem Aufnahmewandler von Abb. 7.1 identisch sein kann, erzeugt hier digitale, also zeit- und wertdiskrete Signale, und zwar i. Allg. in Form einer Bin¨ arimpulsfolge. Bei analogen Quellensignalen geschieht dies durch eine Digitalisierung, welche die Vorg¨ange der Abtastung und Quantisierung umfasst (Abb. 3.1).
238
7. Bin¨ ar¨ ubertragung
¨ Abb. 7.2. Schema eines digitalen Ubertragungssystems
Die folgenden Codierungsstufen haben die Aufgabe, dieses digitale Signal so aufzubereiten, dass es u ¨ ber einen gegebenen nichtidealen Kanal bei m¨oglichst hoher Geschwindigkeit mit m¨ oglichst geringen Fehlern u ¨ bertragen und an die Nachrichtensenke abgegeben werden kann. Der Quellencodierer nutzt beispielsweise statistische Bindungen im Quellensignal und fehlertolerierende Eigenschaften der Senke (wie sinnesphysiologische Eigenschaften des H¨or- und Gesichtssinns), um das Quellensignal von im statistischen Sinn u ussigen ¨ berfl¨ (redundanten) Anteilen zu befreien, sowie von Anteilen, deren Fehlen zu nicht wahrnehmbaren oder zu tolerierbaren Fehlern f¨ uhren (irrelevante Anteile). Der Kanalcodierer f¨ ugt dem Signal Zusatzinformationen hinzu, z. B. in Form ¨ einer fehlerkorrigierenden Codierung, die den Einfluss von Ubertragungsfehlern vermindern. Der Leitungscodierer schließlich bildet das digitale Signal ¨ in eine Form ab, die f¨ ur die Ubertragung gut geeignet ist und z. B. eine einfache Taktr¨ uckgewinnung erm¨ oglicht. Im Empf¨anger wird in entsprechenden Decodierungsstufen das urspr¨ ungliche Signal m¨oglichst gut rekonstruiert. Bei ¨ einfachen digitalen Ubertragungssystemen wird auf eine Quellen- und/oder Kanalcodierung oft verzichtet. Dementsprechend wird in den folgenden Abschnitten die Leitungscodierung den breitesten Raum einnehmen. Der gesamte Zusammenhang zwischen Quellencodierung, Kanalcodierung und Leitungscodierung wird jedoch noch in Kapitel 8 ausf¨ uhrlicher behandelt.
7.2 Bin¨ aru ¨bertragung mit Tiefpasssignalen ¨ 7.2.1 Ubertragung von Bin¨ arsignalfolgen ¨ In Abschn. 6.4.4 wurde die Ubertragung eines Bin¨arwertes in der Form Sig¨” nal s(t) gesendet oder nicht gesendet“ betrachtet. Die dort angestellten Uberlegungen lassen sich nun in einfacher Weise auf das praktische Problem der
7.2 Bin¨ ar¨ ubertragung mit Tiefpasssignalen
239
¨ Ubertragung einer ganzen Folge bin¨ arer Quellensignale u ¨ bertragen. Das Schema eines solchen Daten¨ ubertragungssystems ist in Abb. 7.3 dargestellt. Eine Nachrichtenquelle (NQ) erzeugt zu den diskreten Zeitpunkten nT jeweils einen Bin¨ arwert an . Die Folge der an kann als Musterfunktion eines bin¨aren, zeitdiskreten Zufallsprozesses angesehen werden.
Abb. 7.3. Signale in einem Bin¨ ar¨ ubertragungssystem
In einem Sender2 werden diese Bin¨ arwerte dann mit einer Folge von ebenfalls im Abstand der Taktzeit T erzeugten Tr¨agersignalen der Form s(t) so verkn¨ upft, dass am Ausgang des Senders als moduliertes Sendesignal m(t) erscheint m(t) =
∞
an s(t − nT )
mit
an ∈ {0; 1} .
(7.1)
n=−∞
Diese Modulationsart wird Amplitudentastung 3 genannt. In Abb. 7.3 ist dieser Vorgang am Beispiel eines rechteckimpulsf¨ormigen Tr¨agersignals s(t) = rect(t/T − 1/2) dargestellt. Wird nun das modulierte Sendesignal m(t) u ¨ ber einen st¨orungsfreien Kanal u angerausgang eines Korrelationsfil¨ bertragen, dann erscheint am Empf¨ 2
3
¨ Die Zusammenfassung eines Senders und Empf¨ angers wird in der digitalen Ubertragungstechnik h¨ aufig als Modem (aus Mod ulator und Demodulator) bezeichnet. Engl.: amplitude shift keying (ASK).
240
7. Bin¨ ar¨ ubertragung
ters der Impulsantwort h(t) = s(T − t) ein Signal der Form ( ' ∞ an s(t − nT ) ∗ s(T − t) . g(t) = m(t) ∗ h(t) = n=−∞
Mit der Distributionseigenschaft des Faltungsproduktes und mit (6.52) ergibt sich ∞ g(t) = an ϕE (7.2) ss (t − T − nT ) . n=−∞
Tastet man entsprechend zu Abschn. 6.2.5 dieses Ausgangssignal des Korrelationsfilters zur Zeit t = T ab, dann erh¨ alt man mit (7.2) f¨ ur diesen Abtastwert g(T ) =
∞
an ϕE ss (−nT ) .
(7.3)
n=−∞
F¨ ur n = 0 enth¨ alt die Summe den Term a0 ϕE ss (0), der nur von dem einen angt. Weiter enth¨alt die Summe (7.3) i. Allg. aber Bin¨ arwert a0 der Quelle abh¨ f¨ ur n = 0 zus¨ atzliche, unerw¨ unschte Terme, die sich dem Term a0 ϕE ¨berss (0) u lagern und dadurch st¨ orende Eigeninterferenzen hervorrufen. Diese St¨orterme verschwinden dann, wenn die Autokorrelationsfunktion des Tr¨agersignals die als 1. Nyquist-Kriterium 4 bezeichnete Bedingung ϕE ss (nT ) = 0
f¨ ur
n = 0
(7.4)
erf¨ ullt. Setzt man (7.4) in (7.3) ein, dann ergibt sich der gew¨ unschte Wert ullt, g(T ) = a0 ϕE ss (0). (Im Beispiel der Abb. 7.3 ist diese Bedingung erf¨ ¨ wie weiter unten gezeigt wird.) Wiederholt man diese Uberlegungen f¨ ur eine beliebige Abtastzeit t = (ν + 1)T , dann ist sofort einsichtig, dass bei erf¨ ullter Bedingung (7.4) auch hier nur ein Term aν ϕE ¨brigbleibt, dem ss (0) u der Bin¨ arwert aν der Quelle entnommen werden kann. Das 1. NyquistKriterium ist also hinreichend f¨ ur das Verschwinden der Eigeninterferenzen bei Empfang eines unverzerrten amplitudengetasteten Sendesignals mit einem Korrelationsempf¨ anger. Erf¨ ullt wird das 1. Nyquist-Kriterium beispielsweise von allen zeitbegrenzten Tr¨ agersignalen, deren Breite kleiner als die Taktzeit T ist, so dass ihre Autokorrelationsfunktionen f¨ ur |t| ≥ T verschwinden (Abschn. 4.3). Als Beispiel hierf¨ ur ist das in Abb. 7.3 verwendete rechteckimpuls-f¨ormige Tr¨agersignal mit seiner Autokorrelationsfunktion nach (4.17) in Abb. 7.4 dargestellt. ¨ Zur Veranschaulichung dieser Uberlegungen zeigt Abb. 7.3a in der Mitte ¨ das Ausgangssignal g(t) des Korrelationsfilters im Fall der ungest¨orten Ubertragung. Der Verlauf von g(t) zeigt, wie sich die einzelnen dreieckimpulsf¨ormigen Terme an ϕE ¨ berlagern, aber zu ss (t − T − nT ) zwar gegenseitig zum Teil u 4
Zuerst angegeben 1928 von dem schwedisch-amerik. Ingenieur Harry Nyquist (1889–1976) f¨ ur das ¨ ahnliche Problem des Abtastempfangs hinter einem Tiefpass (Anhang zum Literaturverzeichnis).
7.2 Bin¨ ar¨ ubertragung mit Tiefpasssignalen
241
Abb. 7.4. Beispiel f¨ ur eine zeitbegrenzte Tr¨ agerfunktion, die das 1. NyquistKriterium erf¨ ullt
den Abtastzeiten νT nicht mehr beeinflussen. Mit Hilfe von Abtast- und Ent¨ scheidungsstufe ergibt sich am Ausgang des gesamten Ubertragungssystems eine Bin¨ arfolge aen , die bis auf die Zeitverschiebung um eine Taktzeit T mit der an -Folge der Nachrichtenquelle u ¨ bereinstimmt. ¨ Erg¨ anzend zeigt Abb. 7.3b ein Beispiel einer gest¨orten Ubertragung. Dem modulierten Sendesignal m(t) wird auf dem Kanal weißes, Gauß’sches Rauschen additiv u ¨ berlagert. F¨ ur jeden einzelnen Abtastwert y(nT ) am Ausgang des Korrelationsfilters ¨ gelten dann die gleichen Uberlegungen, die bei der Ableitung der Eigenschaf¨ ten des Korrelationsfilters angestellt wurden. Um die Ergebnisse dieser Uberlegungen noch einmal kurz zusammenzufassen: Unter der Annahme, dass die Nachrichtenquelle die Bin¨ arwerte an = 1 oder 0 mit gleicher Wahrscheinlichkeit erzeugt, also Prob[an = 1] = Prob[an = 0] = 1/2
f¨ ur alle n ,
arwert falsch zu empfangen, durch ist die Wahrscheinlichkeit Pe , einen Bin¨ (6.106) gegeben *! + Es 1 Pe = erfc . (7.5) 2 8N0 Die Fehlerwahrscheinlichkeit ist hier also nur von der Energie Es des Tr¨agersignals und der Leistungsdichte des St¨ orsignals n(t) abh¨angig.5 Nach den bisherigen Ergebnissen m¨ ussen, um eine geringe Fehlerwahrscheinlichkeit zu erreichen, an das Tr¨ agersignal s(t) die folgenden Bedingungen gestellt werden: a) große Energie Es , wobei praktisch immer Randbedingungen u ¨ ber den zul¨ assigen Amplitudenbereich gegeben sind, 5
Es muss deutlich betont werden, dass diese Aussagen exakt nur f¨ ur das hier be¨ nutzte idealisierte Modell gelten. In praktischen Ubertragungssystemen spielen lineare und nichtlineare Verzerrungen im Kanal, weiter St¨ orungen, die nichtstation¨ ar und nicht Gauß-verteilt sind, Synchronisationsst¨ orungen usw. eine oft dominierende Rolle und lassen den Verlauf der Fehlerwahrscheinlichkeit besonders im Bereich geringer Kanalst¨ orungen stark von dem Verlauf in Abb. 6.16 abweichen (Bennett und Davey, 1965).
242
7. Bin¨ ar¨ ubertragung
b) eine Form s(t), die u ¨ber einen gegebenen Kanal (z. B. Tiefpass- oder Bandpasskanal) verzerrungsfrei u ¨ bertragen werden kann, c) eine Autokorrelationsfunktion, die das 1. Nyquist-Kriterium (7.4) erf¨ ullt; diese Forderung wird im n¨ achsten Abschnitt noch eingehender diskutiert. ¨ Bez¨ uglich der unipolaren Ubertragung ist allerdings zu beachten, dass nur agersignal der Energie Es gesendet wird; f¨ ur f¨ ur an = 1 tats¨achlich ein Tr¨ an = 0 ist hingegen Es = 0. Insbesondere f¨ ur die sp¨ater in diesem Kapitel ¨ behandelten h¨ oherwertigen Ubertragungsverfahren wird es notwendig sein, ur die im Mittel pro gesendetem Bit aufgewandte Energie Eb zu betrachten. F¨ ¨ die unpolare Ubertragung und den Fall Prob[an = 0] = Prob[an = 1] = 0, 5 ergibt sich hier bereits Eb = Es /2 bzw. + *! 1 Eb . (7.6) Pb = erfc 2 4N0 7.2.2 Das 1. Nyquist-Kriterium Es wurde gezeigt, dass alle auf die Breite der Taktzeit T zeitbegrenzten Tr¨ agersignale das 1. Nyquist-Kriterium erf¨ ullen. Nach den fr¨ uheren Ergebnissen in Abschn. 3.2 haben derartige Signale aber theoretisch ein unbegrenztes Fourier-Spektrum. Wenn es beispielsweise darum geht, eine Bin¨ar¨ ubertragung u uhren, kom¨ ber einen Kanal mit begrenzter Bandbreite durchzuf¨ men solche Signale nur bedingt in Betracht, da sie verzerrt am Empf¨anger ankommen und Interferenzen verursachen w¨ urden. Der bisher vielfach wegen der Anschaulichkeit als Tr¨ agersignal betrachtete Rechteckimpuls ist auf Grund seines nur relativ flach zu hohen Frequenzen hin abfallenden Spektrums (si-Funktion) f¨ ur bandbegrenzte Kan¨ ale ungeeignet. Besser eignen sich Impulsformen ohne Diskontinuit¨ aten, wie z.B. ein raised cosine“-Impuls (vgl. ” Aufgabe 2.12), jedoch besitzt auch dieser noch ein unendlich ausgedehntes Spektrum und ist daher u ¨ ber einen bandbegrenzten Kanal nicht verzerrungsfrei u ¨ bertragbar. Allerdings fallen die Verzerrungen bei einer Bandbegrenzung deutlich geringer aus als beim Rechteck-Impuls, da das Energiedichtespektrum diskontinuit¨ atsfreier Signale zu hohen Frequenzen hin typischerweise schneller abklingt. Es stellt sich jedoch grunds¨atzlich die Frage, ob es frequenzbeschr¨ ankte Signale gibt, die das 1. Nyquist-Kriterium ebenfalls erf¨ ullen. Zur Synthese solcher Signale wird zun¨ achst das 1. Nyquist-Kriterium im Frequenzbereich formuliert. Bildet man mit (3.2) die Abtastwerte der Autokorrelationsfunktion, dann erh¨ alt man mit der Normierung ϕE ss (0) = 1 die Bedingung (7.4) in der Form ϕE ss (t) ·
∞
δ(t − nT ) = δ(t)
n=−∞
und nach Fourier-Transformation
(7.7)
7.2 Bin¨ ar¨ ubertragung mit Tiefpasssignalen
243
'
( ∞ 1 n |S(f )| ∗ δ f− =1, T n=−∞ T 2
sowie weiter nach Ausf¨ uhren der Faltung ∞ " n ""2 " "S f − " =T . T n=−∞
(7.8)
Das 1. Nyquist-Kriterium wird also von allen Signalen erf¨ ullt, deren Energiedichtespektrum periodisch wiederholt und aufsummiert eine Konstante ergibt (s. hierzu Abb. 7.5).
Abb. 7.5. Das 1. Nyquist-Kriterium im Frequenzbereich
Da Energiedichtespektren stets positivwertig und symmetrisch zu f = 0 sind, wird das 1. Nyquist-Kriterium beispielsweise von allen im Bereich |f | < 1/T bandbegrenzten Signalen erf¨ ullt, deren Energiedichtespektren einen zur Frequenz 1/(2T ) schief symmetrischen Verlauf haben. Eine solche Flankenform wird auch Nyquist-Flanke genannt. Durch Verk¨ urzen der Nyquist-Flanke l¨ asst sich die Grenzfrequenz fg des Signals verringern, minimal auf fg = 1/(2T ). Das zugeh¨orige Signal minimal m¨ oglicher Bandbreite hat dann also ein Energiedichtespektrum und eine Autokorrelationsfunktion der Form |S(f )|2 = T rect(T f ) (7.9) ϕE ss (t)
= si(πt/T ) .
¨ Umgekehrt folgt aus dieser Uberlegung, dass u ¨ber einen Tiefpasskanal der Bandbreite fg ohne Verletzung des Nyquist-Kriteriums maximal mit der Rate r = 1/T = 2fg ,
(7.10)
der sogenannten Nyquist-Rate, u ¨bertragen werden kann. Einfachstes und einziges Beispiel f¨ ur ein reellwertiges Tiefpass-Tr¨agersignal mit diesen Eigenschaften ist die si-Funktion (Aufgaben 4.9 und 4.13).
244
7. Bin¨ ar¨ ubertragung
Anmerkung: Zur Veranschaulichung zeigt Abb. 7.6 eine Folge von amplitudengetasteten si-Funktionen, deren Summe sowohl das modulierte Sendesignal m(t) als auch das Ausgangssignal g(t) des Korrelationsfilters in einem ¨ Abb. 7.3 entsprechenden Ubertragungssystem darstellen kann. Es ist deutlich zu sehen, dass zu den Abtastzeitpunkten nT nur jeweils eine si-Funktion zu dem Abtastwert beitr¨ agt.
Abb. 7.6. Folge amplitudengetasteter si-Funktionen an si[π(t − nT )/T ]
F¨ ur eine praktische Anwendung ist die si-Funktion ungeeignet, da sie sich mit einem kausalen System nur n¨ aherungsweise realisieren l¨asst, und dann auch nicht mehr bandbegrenzt ist. Auch kausale N¨aherungen, die die si-Funktion z. B. in der Art von Abb. 5.7 approximieren, verlangen wegen der hohen Nebenmaxima ein sehr genaues Einhalten der Abtastzeitpunkte bei den Nulldurchg¨ angen der Filterimpulsantwort. Man wird daher eher durch Wahl einer flacher verlaufenden Nyquist-Flanke Signale ausw¨ahlen, die bei einer ebenfalls vergr¨ oßerten Bandbreite zeitlich schneller abklingen und in geringerem Maße u oren bespielsweise Signale, deren Spektrum ¨ berschwingen. Hierzu geh¨ eine cos-f¨ ormige Flanke aufweist (sog. cosine rolloff“-Impulse), wie bei dem ” Pulsformfilter (5.25). Die Nyquist-Rate stellt in der Tat eine harte Grenze dar, die angibt, wie viele Tr¨ agersignale bei Korrelationsfilter-Empfang innerhalb einer Sekunde u ¨ber einen Kanal der Grenzfrequenz fg (bei Tiefpasskan¨alen) oder einen Kanal der Bandbreite f∆ interferenzfrei mit einem Korrelationsfilter empfangen werden k¨ onnen. Durch Normierung von (7.10) auf die Kanalbandbreite ¨ kommt man auf die Aussage, dass eine interferenzfreie Ubertragung prinzipiagersignale pro Sekunde und Hz Bandbreite ell nicht f¨ ur mehr als r/fg = 2 Tr¨ des Kanals m¨ oglich ist. Diese Grenze ist auch f¨ ur alle im Folgenden noch ¨ zu behandelnden Ubertragungsverfahren nicht u ¨ berschreitbar, jedoch wird ¨ es anders als bei der unipolaren Ubertragung ggf. m¨oglich sein, mehr als ein bit pro gesendetem Tr¨ agersignal zu transportieren.
7.2 Bin¨ ar¨ ubertragung mit Tiefpasssignalen
245
Anmerkung: Das Eigeninterferenzverhalten von Korrelationsfilter-Empf¨angern kann an Hand der oszillografischen Darstellung des sogenannten Augendiagramms qualitativ beurteilt werden. Man erh¨alt ein derartiges Augendiagramm, indem man die am Ausgang des Korrelationsfilters auftretende Spannung y(t) oszillografiert, wobei die Ablenkzeit ein Vielfaches der Taktzeit ist. F¨ ur eine l¨ angere, zuf¨ allige Bin¨ arsignalfolge ergeben sich dabei die in Abb. 7.7 unten dargestellten Augendiagramme. W¨ ahrend die in der Abbildung gezeigte Augen¨ offnung A ein Maß f¨ ur den Abstand der den Bin¨arwerten 1 und 0 zugeordneten Abtastwerte darstellt (A sollte m¨oglichst groß sein), gibt die Augenbreite B unter anderem auch Aufschluß dar¨ uber, in welchem Maße man von den exakten Abtastzeitpunkten nT abweichen darf.6 In der Praxis dient das Augendiagramm besonders zur Untersuchung des Einflusses von linearen und nichtlinearen Verzerrungen, wie sie durch nichtideale Ger¨ate- und Kanaleigenschaften verursacht werden, auf das Eigeninterferenzverhalten ei¨ nes Ubertragungssystems. Die dadurch hervorgerufenen Ver¨anderungen der Signalform k¨ onnen oft die Fehlerwahrscheinlichkeit entscheidend vergr¨oßern.
Abb. 7.7. Darstellung eines Augendiagramms: A=Augen¨ offnung, B=Augenbreite; a ungest¨ ort, b gest¨ ort
¨ 7.2.3 Bipolare Ubertragung ¨ An Stelle der bisher betrachteten Zuordnung bei der Ubertragung eines bin¨ aren Zufallswertes an in der Form 6
¨ Uber diesen Zusammenhang macht das sogenannte 2. Nyquist-Kriterium eine Aussage (Bennett und Davey, 1965).
246
7. Bin¨ ar¨ ubertragung
an = 1 → s(t) gesendet an = 0 → 0 gesendet , ¨ ¨ die unipolare Ubertragung genannt wird, kann auch die bipolare Ubertragung verwendet werden mit der Verkn¨ upfung an = 1 → +s(t) gesendet an = 0 → −s(t) gesendet . Das modulierte Sendesignal hat dann die Form m(t) =
∞
(2an − 1)s(t − nT ) .
n=−∞
¨ In Abb. 7.8 sind die modulierten Sendesignale beider Ubertragungsverfahren gegen¨ ubergestellt. Als Tr¨ agersignal wird hier ein gleichanteilfreier Doppelrechteckimpuls verwendet.7
¨ Abb. 7.8. Unipolare und bipolare Ubertragung mit Doppelrechteckimpuls als Tr¨ agersignal
¨ Wird nach der Ubertragung des modulierten Sendesignals m(t) u ¨ber den gest¨ orten Kanal das Signal am Ausgang des Korrelationsfilters abgetastet, ¨ dann gelten f¨ ur den Fall, dass +s(t) gesendet wurde, dieselben Uberlegungen wie in Abschn. 6.4.4, man erh¨ alt f¨ ur diesen Abtastwert 7
S. Aufgabe 7.4. Die Bildung eines bipolaren Sendesignals nach Abb. 7.8 wird auch als Manchester- oder split-phase-Codierung bezeichnet. Dieser Leitungscode wird weiter als Richtungstaktschriftverfahren zur magnetischen Speicherung bin¨ arer Daten benutzt. ¨ Erw¨ ahnt sei noch, dass die Bezeichnungen unipolare und bipolare Ubertragung in der Literatur nicht einheitlich gehandhabt werden, so wird auch die unipolare ¨ Ubertragung mit einem bipolaren“ Signal wie in Abb. 7.8 als bipolar bezeichnet. ”
7.2 Bin¨ ar¨ ubertragung mit Tiefpasssignalen
247
y1 (T ) = g(T ) + ne (T ) = + Sa + ne (T ) . Wird im anderen Fall das negative Tr¨ agersignal u ¨ bertragen, dann wird auch der im ungest¨ orten Fall auftretende Abtastwert negativ, und es gilt entsprechend y0 (T ) = − Sa + ne (T ) . F¨ ur y1 (T ) und y0 (T ) ergeben sich mit (6.99) die beiden in Abb. 7.9 dargestellten Verteilungsdichtefunktionen py1 (x) und py0 (x).
¨ Abb. 7.9. Verteilungsdichtefunktionen py1 (x) und py0 (x) bei bipolarer Ubertragung
F¨ ur die Schwelle gilt dann Copt = 0, mit dem Vorteil, dass sie von der empfangenen Signalamplitude unabh¨ angig ist. ¨ Der Vergleich mit Abb. 6.15 und den nachfolgenden Uberlegungen zeigt, ¨ dass bei sonst gleichen Ubertragungsbedingungen die Mittelwerte der Vertei¨ lungsdichtefunktionen bei √ bipolarer Ubertragung um den doppelten Nutzan√ teil 2 Sa an Stelle von Sa auseinanderliegen. Damit ergibt sich die Fehler¨ wahrscheinlichkeit der Ubertragung sofort aus der Fehlerwahrscheinlichkeit √ √ ¨ Sa durch 2 Sa , der unipolaren Ubertragung (6.106), wenn der Nutzanteil √ √ bzw. wenn im Fall des Korrelationsfilter-Empfanges Es durch 2 Es ersetzt wird, zu *! + Es 1 . (7.11) Pe = erfc 2 2N0 ¨ Im Vergleich zur unipolaren Ubertragung kann demnach eine bestimmte Fehlerwahrscheinlichkeit schon mit einem Es /N0 -Verh¨altnis erreicht werden, das um den Faktor vier geringer ist, was einem Gewinn von 10 lg 4 ≈ 6 dB entspr¨ ache. Man beachte allerdings, dass die hier angestellte Betrachtungsweise ¨ sich wieder auf die Energie des Sendesignals bezieht. Bei der bipolaren Ubertragung werden aber sowohl die Bits an = 0 als auch die Bits an = 1 mit
248
7. Bin¨ ar¨ ubertragung
der Energie Es gesendet, so dass hier Eb = Es und im Vergleich mit (7.6) sich nur noch ein Gewinn um den Faktor 2 (bzw. ≈3 dB) ergibt. Der Verlauf von Pb ist in Abb. 7.10 dargestellt.
Pb
3 dB
Eb
Abb. 7.10. Fehlerwahrscheinlichkeit Pb in Abh¨ angigkeit von Eb /N0 bei unipolarer ¨ und bipolarer Ubertragung (Prob[an = 1] = 0, 5)
Man kann der Kurve entnehmen, dass insbesondere im Schwellenbereich, d.h. dort wo der Verlauf stark abzufallen beginnt, bei gleichem Eb /N0 -Verh¨alt¨ nis die Fehlerwahrscheinlichkeit bei bipolarer Ubertragung erheblich geringer wird. 7.2.4 Korrelative Codierung Bei einer unipolaren oder bipolaren Bin¨ ar¨ ubertragung mit KorrelationsfilterEmpfang kann nach 7.2.2 die Nyquist-Rate nur theoretisch, mit idealen Filtern erreicht werden. Es ist aber trotzdem m¨oglich, mit realisierbaren Filtern an dieser Grenzrate r = 2fg interferenzfrei zu u ¨ bertragen. Hierzu l¨asst man Eigeninterferenzen so zu, dass sie im Empf¨anger wieder entzerrt werden k¨ onnen. Das prinzipielle Verfahren dieser korrelativen Codierung (auch partial ” response“ – oder Polybin¨ ar-Codierung) zeigt Abb. 7.11 oben an einem einfa¨ chen Beispiel. (Die Ubertragung kann hierbei wahlweise unipolar oder bipolar sein). Sender und Empf¨ anger werden dabei durch zwei Filter f1 (t) und f2 (t) ¨ erg¨ anzt. Damit die Arbeitsweise des Gesamtsystems bei ungest¨orter Ubertragung nicht ge¨ andert wird, muss die Kettenschaltung der beiden Filter ein ideales System bilden, d. h. f1 (t) ∗ f2 (t) = δ(t) .
(7.12)
7.2 Bin¨ ar¨ ubertragung mit Tiefpasssignalen
249
Abb. 7.11. Bin¨ ar¨ ubertragungssystem mit zus¨ atzlichen Filtern zur korrelativen Codierung (hier duobin¨ are Codierung, da f1 (t) jeweils zwei Eingangssignale kombiniert)
Im hier verwendeten Beispiel wird das Filterpaar aus Aufgabe 3.15h benutzt. ¨ Damit erh¨ alt das gesamte Sendefilter die cos-f¨ormige Ubertragungsfunktion S(f ) in Abb. 7.11 unten, die in guter N¨ aherung ohne großen Aufwand realisierbar ist. Durch Wahl anderer Filter kann das Sendesignal jetzt recht freiz¨ ugig gew¨ ahlt werden, beispielsweise lassen sich gleichanteilfreie Signale bilden (Aufgabe 7.5). Im Empf¨ anger kann das faltungsinverse Filter f2 (t) auch an den Ausgang des Abtasters gelegt werden. Wie Abb. 7.11 unten zeigt, ist dann seine Realisation als zeitdiskretes, rekursives Filter m¨oglich. In dem ¨ rekursiven Filter k¨ onnen sich Ubertragungsfehler fortpflanzen, dies l¨asst sich aber durch eine geeignete weitere Vorcodierung verhindern. Ein Nachteil dieser korrelativen Codierung ist, dass das Empfangsfilter den faltungsinversen alt, also kein Korrelationsfilter mehr ist. Bei duobin¨arer CoAnteil f2 (t) enth¨ dierung betr¨ agt der Verlust im E/N0 -Verh¨ altnis ca. 2 dB. Das Verfahren ist also auf st¨ or¨ armere Kan¨ ale beschr¨ ankt (Gitlin, 1992; Bocker, 1983). ¨ 7.2.5 Ubertragung mit zwei Tr¨ agersignalformen ¨ Zu der unipolaren und bipolaren Ubertragung von Bin¨arwerten kann als wei¨ tere Variante die Ubertragung mit zwei verschiedenen Tr¨agersignalformen treten; es gilt dann die Verkn¨ upfung an = 0 → s0 (t) gesendet an = 1 → s1 (t) gesendet . Das modulierte Sendesignal kann folgende Form besitzen: m(t) =
∞
[an s1 (t − nT ) + (1 − an )s0 (t − nT )] .
n=−∞
(7.13)
250
7. Bin¨ ar¨ ubertragung
¨ Abbildung 7.12 zeigt ein Ubertragungssystem, das dieses Verfahren benutzt. Als einfachste Empf¨ angerstruktur werden zwei eingangsseitig parallel geschaltete Korrelationsfilter benutzt, deren Ausgangssignale abgetastet und einer Entscheidungsstufe zugef¨ uhrt werden.
Abb. 7.12. Signale in einem Bin¨ ar¨ ubertragungssystem mit zwei Tr¨ agersignalen8 ¨ (rechtes Beispiel bei ungest¨ orter Ubertragung)
¨ Bei ungest¨ orter Ubertragung erscheint am Ausgang des Korrelationsfilters der Impulsantwort s1 (T − t) das Signal g1 (t) = m(t) ∗ s1 (T − t) ∞ = [an s1 (t − nT ) + (1 − an )s0 (t − nT )] ∗ s1 (T − t) =
n=−∞ ∞
E [an ϕE s1s1 (t − T − nT ) + (1 − an )ϕs1s0 (t − T − nT )] .
n=−∞
Im Abtastzeitpunkt t = T ist dann – vgl. (7.3) – 8
Die zur Konstruktion von g1 (t) und g0 (t) ben¨ otigten Auto- und Kreuzkorrelationsfunktionen sind Abb. 4.1 und 4.2 sowie Aufgabe 4.7 zu entnehmen.
7.2 Bin¨ ar¨ ubertragung mit Tiefpasssignalen
g1 (T ) =
∞
E [an ϕE s1s1 (−nT ) + (1 − an )ϕs1s0 (−nT )].
251
(7.14)
n=−∞
Es wird nun wie in Abschn. 7.2.1 gefordert, dass g1 (T ) nur den Wert a0 ϕE s1s1 (0) annimmt und alle Eigeninterferenzen verschwinden. Diese Bedingung ist erf¨ ullt, wenn in (7.14) f¨ ur die Autokorrelationsfunktion des Tr¨agersignals s1 (t) gilt ϕE s1s1 (nT ) = 0
f¨ ur
n = 0
(7.15a)
und entsprechend f¨ ur die Kreuzkorrelationsfunktion beider Tr¨agersignale ϕE s1s0 (nT ) = 0
f¨ ur
alle n
(7.15b)
In gleicher Weise wie in Abschn. 7.2.1 gilt, dass diese Bedingungen auch f¨ ur beliebige andere Abtastzeitpunkte νT hinreichend sind. Weiter gelten ur das Ausgangssignal des sie auch, nach Vertauschen von s1 und s0 , f¨ zweiten Korrelationsfilters. Dar¨ uber hinaus wird im Normalfall vorausgesetzt, dass die Abtastwerte an beiden Filterausg¨angen einander gleich sind E asst sich nach (4.19) durch Tr¨agersigϕE s1s1 (0) = ϕs0s0 (0). Diese Bedingung l¨ nale gleicher Energie erf¨ ullen. Ein einfaches Beispiel f¨ ur zwei Tr¨agersignale, die die Kriterien (7.15a) erf¨ ullen, wird in Abb. 7.12 gezeigt. Sind, wie in diesem Beispiel, die Tr¨ agersignale auf eine Breite ≤ T zeitbegrenzt, so dass auch ihre Auto- und Kreuzkorrelationsfunktionen f¨ ur |t| > T verschwinden (Abschn. 4.3), dann vereinfachen sich die Kriterien (7.15a) auf ϕE s1s0 (0) = 0
(7.16a)
oder ausgeschrieben ∞
s∗1 (t)s0 (t)dt = 0
(7.16b)
−∞
Nach (4.10) nennt man derartige Tr¨ agersignale orthogonal. Das allgemeine Kriterium (7.15a) ist also eine Kombination aus Nyquist-Kriterium und Orthogonalit¨ atsbedingung. In Abb. 7.12 werden als orthogonale Tr¨agersignale Rechteckimpuls und Doppelrechteckimpuls verwendet. Abbildung 7.13 zeigt weitere zeitbegrenzte Orthogonalsignale. In Abb. 7.13a sind die ersten Funktionen des orthogonalen Walsh-Funktionensystems dargestellt, das mit Rechteck- und Doppelrechteckimpuls beginnt. Die Konstruktion von Walsh-Funktionen wird in Aufgabe 4.21 behandelt. Abbildung 7.13b zeigt die orthogonalen sin- und cos-Impulse, deren Anwendung und Eigenschaften in Abschn. 7.3.1 noch n¨aher betrachtet werden. Jede Funktion eines derartigen, beliebig viele Funktionen umfassenden Orthogonalsystems ist zu jeder anderen Funktion des Systems orthogonal, zwei beliebige Funktionen aus einem solchen System k¨onnen also im Prinzip ¨ auch als Tr¨ agersignale in einem digitalen Ubertragungssystem benutzt wer¨ den. Ubertragungssysteme mit vielen orthogonalen Tr¨agersignalen werden
252
7. Bin¨ ar¨ ubertragung
Abb. 7.13. Zeitbegrenzte Orthogonalsysteme. a Walsh-Funktionen, b SinusoidFunktionen
in Abschn. 8.3.4 besprochen. Beide Funktionssysteme in Abb. 7.13 enthalten Signale gleicher Energie (Aufgabe 7.6). Ist diese Energie auf 1 normiert, dann spricht man auch von Orthonormalsystemen. ¨ 7.2.6 Fehlerwahrscheinlichkeit bei Ubertragung mit zwei orthogonalen Signalen Es wird wieder angenommen, dass die Nachrichtenquelle die Bin¨arwerte ¨ an = 1 oder 0 mit gleicher Wahrscheinlichkeit erzeugt. Nach Ubertragung dieser Bin¨ arwerte mit zwei orthogonalen Tr¨ agersignalen gleicher Energie entscheidet die Entscheidungsstufe danach, welches der zwei zugeordneten Korrelationsfilter den gr¨ oßeren Abtastwert abgibt. In Abb. 7.12 sind f¨ ur den Fall ¨ st¨ orungsfreier Ubertragung einige Abtastwerte g1 (nT ) und g0 (nT ) sowie die dazugeh¨ origen Ausgangswerte aen der Entscheidungsstufe angegeben. Die ¨ Entscheidung soll bei gest¨ orter Ubertragung folgender Vorschrift gen¨ ugen aen = 0
wenn y0 (nT ) > y1 (nT )
aen = 1
wenn y0 (nT ) ≤ y1 (nT ) .
Bildet man die Differenz der Abtastwerte ∆y(nT ) = y1 (nT ) − y0 (nT ) , dann l¨ asst sich die Entscheidungsvorschrift auch umformulieren in aen = 0 aen = 1
wenn ∆y(nT ) < 0 wenn ∆y(nT ) ≥ 0 .
(7.17)
7.2 Bin¨ ar¨ ubertragung mit Tiefpasssignalen
253
Nach Bildung des Differenzsignals kann also wie bisher mit Hilfe einer festen Schwelle entschieden werden. Zur Berechnung der Fehlerwahrscheinlichkeit dieser Entscheidung werden die Verteilungsdichtefunktionen der Differenz ∆y(T ) f¨ ur die beiden ¨ M¨ oglichkeiten s0 (t) bzw. s1 (t) gesendet“ betrachtet. Ist die Ubertragung ” durch weißes, Gauß’sches Rauschen der Leistungsdichte N0 gest¨ort, dann ist an den Ausg¨angen beider Filter dem Nutzanteil mit der Augenblicksleiorsignal der jeweils gleichen Leistung stung Sa ein farbiges, Gauß’sches St¨ E N0 ϕE (0) = N ϕ (0) = N u berlagert. Wird jetzt das Signal s1 (t) u ¨ ¨ber0 s0s0 s1s1 tragen, so ergibt die Differenz der Abtastwerte ∆y1 (T ) = + Sa + ne∆ (T ) . wobei ne∆ (T ) = ne1 (T ) − ne0 (T ) die Differenz der beiden Zufallsgr¨oßen der St¨ orung an den Ausg¨ angen der Korrelationsfilter bedeutet. Ebenso gilt bei ¨ Ubertragung von s0 (t) ∆y0 (T ) = − Sa + ne∆ (T ) . Zur Bestimmung der Eigenschaften der Differenz ne∆ (T ) der Zufallsgr¨oßen ¨ kann ein Ergebnis aus Aufgabe 6.7 benutzt werden: Ubertr¨ agt man die Musterfunktionen eines station¨ aren Zufallsprozesses mit der Autokorrelationsfunktion ϕnn (τ ) u ¨ ber zwei eingangsseitig parallel geschaltete Filter mit den Impulsantworten h1 (t) und h0 (t), dann gilt f¨ ur die Kreuzkorrelationsfunktion der Ausgangssignale ϕne1,ne0 (τ ) = ϕnn (τ ) ∗ h1 (−τ ) ∗ h0 (τ ) .
(7.18)
Im vorliegenden Problem wird nun angenommen, dass der Eingangsprozess weiß und ein Gauß-Prozess ist und dass die beiden Filter die den orthogonalen Signalen s1 (t) und s0 (t) zugeordneten Korrelationsfilter sind. Damit gilt mit der Autokorrelationsfunktion des weißen Rauschens (6.36) und der Korrelationsfilterbedingung (6.51) f¨ ur k = 1 ϕne1,ne0 (τ ) = [N0 δ(τ )] ∗ s1 (T + τ ) ∗ s0 (T − τ ) = N0 ϕE s0s1 (τ ) .
(7.19)
Bei orthogonalen Filtern folgt mit (7.16a) sofort ϕne1,ne0 (0) = 0 .
(7.20)
Die beiden Zufallsgr¨ oßen ne1 (T ) und ne0 (T ) sind nach Abschn. 6.3.4 also unkorreliert und, da sie zwei Gauß-Prozessen entstammen, nach (6.96) auch statistisch unabh¨ angig. Weiter sind diese Zufallsgr¨oßen mittelwertfrei, ihre Streuung und Leistung betrage N . Die Differenz ne∆ (T ) = ne1 (T ) − ne0 (T ) hat wegen der Symmetrie der mittelwertfreien, Gauß’schen Verteilungsdichtefunktion die gleichen Eigenschaften wie die Summe ne1 (T ) + ne0 (T ); sie ist daher mit (6.93) ebenfalls Gauß-verteilt mit der Streuung 2N .
254
7. Bin¨ ar¨ ubertragung
Damit ergeben sich bei Empfang der gest¨ orten Signale s1 (t) bzw. s0 (t) f¨ ur die Differenzen der Abtastwerte die in Abb. 7.14 dargestellten Verteilungsdichtefunktionen p∆y0 (x) und p∆y1 (x).
Abb. 7.14. Verteilungsdichtefunktionen p∆y1 (x) und p∆y0 (x) bei orthogonaler ¨ Ubertragung
Ein Vergleich mit Abb. 7.9 zeigt den prinzipiell gleichen Verlauf der Ver¨ teilungsdichtefunktionen wie bei bipolarer Ubertragung. Der einzige Unter¨ schied ist die bei orthogonaler Ubertragung verdoppelte Rauschleistung 2N , da sich, wie die Rechnung zeigt, die Rauschleistungen beider Kan¨ale des Empf¨ angers bei der Differenzbildung addieren. Die Gr¨oße der Fehlerwahrscheinlichkeit ergibt sich daher sofort, wenn in (7.11) N0 durch 2N0 ersetzt wird, zu *! + Es 1 Pe = erfc . (7.21) 2 4N0 Der Vergleich mit den Fehlerwahrscheinlichkeiten der bisher diskutierten ¨ ¨ Ubertragungsverfahren zeigt, dass die Ubertragung mit zwei orthogonalen Tr¨ agersignalen in ihrem Fehlerverhalten bezogen auf Es /N0 zwischen unipo¨ larer (7.5) und bipolarer Ubertragung (7.11) liegt. Wird allerdings die Fehlerwahrscheinlichkeit wieder auf die pro gesendetem bit aufzuwendende Energie bezogen, so zeigt sich, dass bei orthogonaler ¨ Ubertragung mit 2 verschiedenen Tr¨ agersignalen sowohl f¨ ur an = 0 als auch f¨ ur an = 1 mit der Energie Es gesendet werden muss, so dass hier Eb = Es , und bei dieser Betrachtungsweise die Bitfehlerwahrscheinlichkeit nicht klei¨ ner wird als diejenige f¨ ur die unipolare Ubertragung (7.6). Tats¨achlich k¨onnte man das oben vorgestellte Verfahren auch als eine Kombination zweier uni¨ polarer Ubertragungen interpretieren, die abwechselnd mit unterschiedichen Tr¨ agersignalen erfolgen. Man beachte allerdings, dass bei einer herk¨ommli¨ ur den Fall s(t) gesendet“ chen unipolaren Ubertragung mit gleichem Eb f¨ ”
7.2 Bin¨ ar¨ ubertragung mit Tiefpasssignalen
255
√ eine um den Faktor 2 erh¨ ohte Amplitude erforderlich ist, so dass auch die Sendeverst¨ arker entsprechend ausgelegt werden m¨ ussten. Insofern liegt hier ¨ der Vorteil der orthogonalen Ubertragung in einer geringeren Schwankung der Augenblicksleistung des Sendesignals. Dar¨ uber hinaus l¨asst sich jedoch zeigen, dass bei einer Verwendung einer h¨ oheren Anzahl von M Tr¨agersignalen, ¨ die dann die gleichzeitige Ubertragung von lb M Bits 9 erlaubt, eine signifikante Verringerung der Fehlerwahrscheinlichkeit bis heran an die sogenannte Shannon-Grenze m¨ oglich wird (s. Zusatz¨ ubung 9.9). ¨ Eine geometrische Betrachtung der besprochenen Ubertragungsverfahren im Signalraum“ ist Inhalt von Zusatz¨ ubung 9.2, und wird auch in Abschn. ” 7.3.7 noch weiter behandelt. Anmerkung: Es ist auch m¨ oglich, bereits bei Verwendung zweier orthogonaler Tr¨ agersignale zwei Bits gleichzeitig zu senden und diese dann mit zwei vollkommen getrennten Korrelationsfilter-Empf¨angern zu empfangen, wobei auf Grund der Orthogonalit¨ at zumindest bei koh¨arentem Empfang keiner¨ lei Interferenz der Nutzsignale entstehen kann. Die Ubertragungsqualit¨ at in are dann immer noch dieselbe wie bei unipolarer Abh¨ angigkeit von Eb /N0 w¨ ¨ oder bipolarer Ubertragung, je nachdem, mit welchem der beiden Verfahren gesendet wird. Ein Beispiel f¨ ur eine solche gleichzeitige Sendung auf der Basis orthogonaler, bipolarer Sinus- und Kosinus-Tr¨agerfunktionen ist die in Abschn. 7.3.7 behandelte Quatern¨ are Phasentastung (QPSK). Allerdings muss ber¨ ucksichtigt werden, dass durch die Verwendung zus¨atzlicher orthogonaler ¨ ¨ Tr¨ agersignale und f¨ ur ihre verzerrungsfreie Ubertragung eine h¨ohere Ubertragungsbandbreite ben¨ otigt wird. Generell ist die Konstruktion eines gr¨oßeren Systems orthogonaler Tr¨ agersignale nur m¨ oglich, wenn diese eine ausreichende Anzahl von Pegelwechseln aufweisen. Dabei erh¨oht sich der f¨ ur eine interfe¨ renzfreie Ubertragung notwendige Bandbreitebedarf mindestens proportional mit der Anzahl der Tr¨ agersignale, so dass schließlich f¨ ur den Fall M → ∞ ein Kanal mit unendlicher Bandbreite notwendig w¨are. Die Verwendung von ¨ Kan¨ alen mit großen Bandbreiten ist allerdings f¨ ur eine st¨or¨armere Ubertragung insbesondere in Mobilfunkkan¨ alen vorteilhaft. So basieren die bei der ¨ sogenannten Codemultiplex-Ubertragung eingesetzten Frequenzspreizverfah¨ ren letzten Endes auf dem Ansatz der Ubertragung mit einer großen Anzahl orthogonaler oder fast-orthogonaler Tr¨ agersignale (s. Abschn. 8.3.4). 9
lb x ≡ log 2 x = 3, 32193 lg x (bin¨ arer Logarithmus, Zweierlogarithmus, fr¨ uher auch ld x).
256
7. Bin¨ ar¨ ubertragung
7.2.7 Mehrpegel¨ ubertragung ¨ Aus den in Abschn. 7.2.2 zum 1. Nyquist-Kriterium angestellten Uberlegungen folgt, dass u ¨ ber einen Tiefpasskanal der Bandbreite fg voneinander unabh¨ angige Werte h¨ ochstens mit der Nyquist-Rate r = 2fg u ¨ bertragen werden k¨ onnen. Dabei muss ein Tr¨ agersignal mit rechteckf¨ormigem Energiedichtespektrum nach (7.9), d.h. eine si-Funktion, benutzt werden. ¨ Beschr¨ ankt sich die Ubertragung auf Bin¨ arwerte, dann gibt die NyquistRate an, wieviel Bin¨ arzeichen pro Sekunde u ¨ ber den Tiefpasskanal u ¨bertragen ur Bin¨arzeichen, dann werden k¨ onnen. Benutzt man das bit 10 als Kurzform f¨ ¨ kann man die Ubertragungsrate f¨ ur Bin¨ arsignale in der Einheit bit/s angeben. ¨ ¨ Eine h¨ ohere Ubertragungsrate ist bei eigeninterferenzfreier Ubertragung nur m¨ oglich, wenn man das Prinzip der Bin¨ ar¨ ubertragung verl¨asst und mit einem ¨ Tr¨ agersignal mehrere Bin¨ arwerte u agt. Digitale Ubertragungsverfahren ¨bertr¨ ¨ mit M orthogonalen Tr¨ agersignalformen werden in Ubungen 9.9 diskutiert. Hier wird als einfacheres Beispiel die Mehrpegel¨ ubertragung betrachtet, bei der nur eine Signalform, jedoch mit M unterschiedlichen Amplituden ( Pe” geln“), benutzt wird. Hiermit ist grunds¨ atzlich keine Vergr¨oßerung des Bedarfs an Frequenzbandbreite verbunden. Man fasst hierzu K aufeinander folgende Bin¨arwerte ak . . . ak+K−1 der Quelle zusammen und bildet daraus eine neue Zahl bn , die jetzt M = 2K unterschiedliche, diskrete Werte annehmen kann. Umgekehrt muss aus den bn die urspr¨ ungliche Folge der ak eindeutig zur¨ uckgewonnen werden k¨onnen. ¨ Dieses Vorgehen erfordert eine Codierung, deren Art bei mehrwertigen Ubertragungsverfahren einen entscheidenden Einfluss auf die erzielbare Bitfehlerrate hat. Abb. 7.15 zeigt das Beispiel eines einfachen Falles dieser Codierung, wobei K = 2 Bin¨ arwerte zu einem vierwertigen Code kombiniert werden. Der Code ist ein Gray-Code, bei bei dem sich die den benachbarten Werten bn zugeordneten Bitgruppen ak nur in jeweils einer Bin¨arstelle unterscheiden, so dass bei kleinen Amplitudenfehlern des codierten Signals auch nur jeweils ein Bit verf¨ alscht wird. Mit den umcodierten Werten kann jetzt entsprechend zu (7.1) ein moduliertes Sendesignal m(t) =
∞
bn s(t − nT )
(7.22)
n=−∞
u ubertragung vergr¨oßert sich die maxi¨bertragen werden. Durch Mehrpegel¨ ¨ mal m¨ ogliche Ubertragungsrate also um den Faktor K auf rK = 2fg K = 2fg lbM . 10
Abgek¨ urzt aus binary digit.
(7.23)
7.2 Bin¨ ar¨ ubertragung mit Tiefpasssignalen
257
Abb. 7.15. Mehrpegelsignal mit M = 2K = 4 unterscheidbaren Amplitudenstufen und der si-Funktion als Tr¨ agersignal
¨ Als Maßeinheit f¨ ur die Ubertragungsrate der mehrwertigen Zeichen ( Schritt” geschwindigkeit“) ist die Einheit Bd11 gebr¨ auchlich. Hier gilt also die Beziehung 1 Bd = K bit/s. ¨ Bei Ubertragung u ¨ ber einen Kanal mit additivem Gauß-Rauschen entstehen nach Korrelationsfilter-Empfang am Eingang des Entscheiders die in Abb. 7.16 dargestellten Verteilungsdichtefunktionen. Hierbei wird die Augen√ blicksleistung Sa des Nutzsignals zum Abtastzeitpunkt der Amplitude +1 zugeordnet. Bei gleicher H¨ aufigkeit der gesendeten Symbole ergeben sich die ¨ optimalen Entscheidungsschwellen wie bei den bisher behandelten Ubertragungsverfahren jeweils genau in der Mitte zwischen zwei benachbarten m¨oglichen Nutzsignal-Amplitudenwerten. Es wird nun vereinfacht angenommen, dass Fehler der gesendeten √ Symbole, die auf Abweichungen vom Nutzsignalpegel um mehr als ±3 Sa beruhen, deutlich weniger wahrscheinlich sind. ¨ Unter dieser Annahme entstehen Ubertragungsfehler vorrangig dadurch, dass Verf¨ alschungen zu den unmittelbar benachbarten Symbolen auftreten. Es ist nun notwendig, eine Fallunterscheidung vorzunehmen, je nachdem wie vie¨ le Uberlappungsbereiche zu benachbarten Gauß-Verteilungsdichtefunktionen hin auftreten. So entsteht f¨ ur die Symbole mit Pegeln ±3 in Anlehnung an (6.100) und (6.101) eine Symbolfehlerwahrscheinlichkeit (hier berechnet f¨ ur das Symbol +3“, auf Grund der Symmetrie identisch mit dem Wert f¨ ur das ” Symbol −3“) ” 11
Ausgeschrieben Baud, benannt nach Emile Baudot, franz. Telegrafentechniker (1845–1903).
258
7. Bin¨ ar¨ ubertragung √ 2 Sa
Pe,±3 ≈ −∞
*! + √ (x − 3 Sa )2 1 Sa 1 √ exp − , (7.24) dx = erfc 2N 2 2N 2πN
sowie auf Grund der Gray-Codierung eine Bitfehlerwahrscheinlichkeit12 *! + Sa 1 . (7.25) Pb,±3 ≈ erfc 4 2N
Pegel "-3" gesendet
"10"
Pegel "-1" gesendet
Pegel "+1" gesendet
"00"
-3 S a
Schwelle -2 Sa
Pegel "+3" gesendet
"11"
"01"
- Sa
Schwelle 0
Sa
Schwelle
3 Sa
2 Sa
Abb. 7.16. Verteilungsdichtefunktionen am Entscheidereingang bei Mehrpegel¨ ubertragung mit M = 2K = 4 unterscheidbaren Amplitudenstufen
¨ F¨ ur die beiden inneren Symbole gibt es hingegen jeweils 2 Uberlappungen zu den benachbarten Gauß-H¨ ullen, so dass 0 Pe,±1 ≈ −∞ ∞
+ √ 2 Sa
√ (x − Sa )2 1 √ exp − dx 2N 2πN + *! √ (x − 3 Sa )2 1 Sa √ exp − , dx = erfc 2N 2N 2πN
sowie die Bitfehlerwahrscheinlichkeit *! + Sa 1 Pb,±1 ≈ erfc 2 2N
(7.26)
(7.27)
entsteht. Die mittlere Bitfehlerwahrscheinlichkeit resultiert schließlich bei gleich h¨ aufigen Symbolen ⎛4 ⎞ *! + ˜s E 3 Sa 1 3 ⎠ . (7.28) Pb ≈ (Pb,±3 + Pb,±1 ) = erfc = erfc ⎝ 2 8 2N 8 2N0 12
Bei den bisher betrachteten Verfahren wurde immer 1 bit pro Symbol u ¨ bertragen; daher war auch keine Unterscheidung zwischen Symbolfehlerwahrscheinlichkeit und Bitfehlerwahrscheinlichkeit notwendig.
7.2 Bin¨ ar¨ ubertragung mit Tiefpasssignalen
259
√ Man beachte jedoch, dass sich das hier definierte E˜s mit Sa auf die Pegel ±1 bezieht. Bei Ber¨ ucksichtigung aller Pegel ergibt sich eine mittlere Energie pro bit 1 2 2 ˜s = 5 E ˜s , Eb = (7.29) 3 +1 E KM 2 und somit f¨ ur K = 2, M = 4 eine Bitfehlerrate *! + Eb 3 Pb ≈ erfc . (7.30) 8 5N0 Eine Verallgemeinerung auf eine beliebige Anzahl von Amplitudenstufen M (Zweierpotenz) ergibt Bitfehlerwahrscheinlichkeiten von ⎧ / ⎪ Sa 1 ⎪ f¨ ur M − 2 innere“ Pegel ⎨ K erfc 2N ” Pb ≈ (7.31) / ⎪ Sa 1 ⎪ erfc f¨ ur 2 ¨ außere“ Pegel, ⎩ 2K 2N ” und im Mittel bei gleich h¨ aufigen Symbolen ⎞ ⎛4 *! + ˜ 1 1 M −1 Es ⎠ 1 Sa . (M − 2) + 2 · erfc = erfc ⎝ Pb ≈ M 2 K 2N M lb M 2N0 (7.32) Die mittlere Energie pro Bit ergibt sich als ⎛ ⎞ M/2 2 1 ⎝ 2 ˜s = M − 1 E˜s , Eb = (2n − 1)2 ⎠ E K M n=1 3 lb M so dass M −1 Pb ≈ erfc M lb(M )
*4
3 lb(M ) Eb 2(M 2 − 1) N0
(7.33)
+ .
(7.34)
¨ Einer beliebigen Vergr¨ oßerung der Ubertragungsrate nach diesen Verfahren sind wegen des Anstiegs der mittleren Energie mit M 2 enge Grenzen gesetzt. ¨ So ist in jedem technischen Ubertragungskanal entweder die maximale Amplitude oder die Leistung des Sendesignals m(t) begrenzt; damit muss der Unterschied der Nutzsignalpegel am Ausgang des Korrelationsfilter-Empf¨angers f¨ ur gr¨ oßere K sehr gering gehalten werden. Daher wird Eb /N0 gering, und entsprechend groß wird die Fehlerwahrscheinlichkeit13. 13
Insbesondere ist auch bei im Vergleich zur Standardabweichung der St¨ orung relativ kleinen Abst¨ anden zwischen den Augenblicksleistungen der Nutzsignalpegel die oben getroffene Annahme einer vorwiegenden Verf¨ alschung zu benachbarten Symbole nicht mehr richtig. Da dann bei Symbolst¨ orungen auch mit gr¨ oßerer Wahrscheinlichkeit mehrfache Bitfehler auftreten, erh¨ oht sich die Bitfehlerrate nochmals gegen¨ uber den beschriebenen Approximationen.
260
7. Bin¨ ar¨ ubertragung
Technisch von Interesse sind Mehrpegelverfahren daher insbesondere auf sehr st¨ orarmen Kan¨ alen, aber u. U. auch auf Kan¨ alen, die durch nichtweißes Rau¨ schen gest¨ ort sind, wenn das bei gleicher Ubertragungsrate schmalbandigere Mehrpegelsignal in einem Bereich geringer Rauschleistungsdichte u ¨ bertragen werden kann. Auch die Kombination des Mehrpegelverfahrens mit einer Orthogonal¨ ubertragung von Bandpasssignalen wird in Form der QuadraturAmplitudenmodulation h¨ aufig angewandt (s. Abschn. 7.3.7). 7.2.8 Adaptive Kanalentzerrung ¨ In den bisherigen Betrachtungen wurde der Ubertragungskanal als verzer¨ rungsfrei angenommen. Praktische Ubertragungskan¨ale besitzen dagegen immer mehr oder weniger starke, meist lineare Verzerrungen. In dieser Sicht ¨ ließe sich das Ubertragungssystem mit korrelativer Codierung in Abb. 7.11 auch so interpretieren, dass f1 (t) einen stark linear verzerrenden Kanal (hier z. B. bei Zweiwegeausbreitung) beschreibt. Das zum Kanal faltungsinverse Filter f2 (t) im Empf¨ anger w¨ urde dann die sich ergebenden Eigeninterferenzst¨ orungen vollst¨ andig entzerren k¨ onnen, allerdings auf Kosten eines reduzierten St¨ orabstandes. Bei Daten¨ ubertragungssystemen u ¨ ber Kan¨ale mit wechselnder oder ver¨an¨ derlicher Ubertragungsfunktion (Wahlkan¨ ale, Funkkan¨ale insbesondere bei mobilen Sendern und/oder Empf¨ angern) muss der Entzerrer jeweils zu Be¨ ginn der Ubertragung oder sogar im laufenden Betrieb nachgestellt werden. Hierf¨ ur sind adaptive Kanalentzerrer geeignet. Das Blockschaltbild eines Empf¨ angers mit einem adaptiv einstellbaren, zeitdiskreten Transversalfilter zeigt Abb. 7.17.
Abb. 7.17. Bin¨ arempf¨ anger mit adaptivem Transversalfilter zur Kanalentzerrung
¨ Zu Beginn der Ubertragung wird vom Sender eine vereinbarte Bitfolge (z. B. eine Pseudonoise-Folge) als Trainingssequenz u ¨ bertragen. Diese Sequenz wird synchron auch im Empf¨ anger erzeugt. Das Differenzsignal e(nT ) beschreibt
7.3 Bin¨ ar¨ ubertragung mit Bandpasssignalen
261
¨ bei st¨ orarmer Ubertragung den durch die Kanalverzerrungen hervorgerufenen Eigeninterferenzfehler. Der Einstellrechner steuert dann die Gewichte fi des Transversalfilters so, dass z. B. die Differenzsignalleistung minimal wird. Wenn nach Ablauf der Trainingsphase das Filter im normalen Betrieb nur noch wenig nachgestellt werden muss, k¨ onnen zur Bildung des Differenzsignals die jetzt nur noch mit geringer Fehlerwahrscheinlichkeit behafteten Ausgangswerte aen benutzt werden. Zur Ableitung geeigneter Einstellalgorithmen muss hier auf die Literatur verwiesen werden (Lucky, 1968).
7.3 Bin¨ aru ¨bertragung mit Bandpasssignalen ¨ 7.3.1 Ubertragungsarten Bei den bisher diskutierten Bin¨ ar¨ ubertragungsverfahren wurden zumeist, zumindest n¨ aherungsweise, Tiefpasssignale als Tr¨agersignale verwendet, oder es wurde zumindest davon ausgegangen, dass der Frequenzbereich ab f = 0 ¨ zur Ubertragung zur Verf¨ ugung steht. Alle bisher eingef¨ uhrten Methoden lassen sich mit denselben Ergebnissen auch mit Bandpass-Tr¨agersignalen be¨ nutzen. Der einzige Unterschied bei der Ubertragung mit Bandpasssignalen besteht darin, dass die Autokorrelationsfunktionen solcher Signale einen stark oszillierenden Verlauf haben und dass darum Filter und Abtaster hohe Zeitgenauigkeiten einhalten m¨ ussen. Da viele Kan¨ale Bandpasscharakter haben, ¨ zumindest aber keine Ubertragung sehr tiefer Frequenzanteile zulassen, werden eigene Methoden eingesetzt, mit denen die Anforderungen an ein Bandpass¨ ubertragungssystem erf¨ ullt werden k¨ onnen. Ein einfaches Beispiel eines Bandpasstr¨ agersignals ist14 t 1 − s(t) = rect (7.35) sin(2πf0 t) . T 2 Das Signal hat die endliche Breite T und erf¨ ullt damit das 1. NyquistKriterium. Abbildung 7.18 zeigt oben Sendesignale, die sich bei unipolarer ¨ und bipolarer Ubertragung mit diesem Bandpasstr¨agersignal ergeben. Das bipolare Modulationsverfahren tr¨ agt hier den Namen Phasenumtastverur das bipolare Verfahren typische Vorzeichenumkehr bei fahren 15 , da die f¨ Bandpasssignalen als Phasendrehung des Tr¨ agerfrequenzterms um 180◦ beschrieben werden kann. Abbildung 7.18 enth¨ alt als drittes Verfahren ein mit zwei orthogonalen Bandpasssignalen gebildetes Sendesignal. Diese Tr¨agersignale entstammen dem Orthogonalsystem der sin-cos-Impulsfunktionen aus Abb. 7.13. Das ¨ Ubertragungsverfahren mit zwei derartigen Tr¨agersignalen unterschiedlicher Mittenfrequenz wird Frequenzumtastverfahren 16 genannt. Das vierte Verfah14
15 16
Unter der Bedingung f0 = p/T (p ganzzahlig), oder zumindest f0 1/T , da sonst die Bedingung S(f ) = 0 f¨ ur f = 0 nicht erf¨ ullt ist. Engl.: PSK (phase shift keying), bzw. BPSK (bipolar oder binary PSK). Engl.: FSK (frequency shift keying).
262
7. Bin¨ ar¨ ubertragung
Abb. 7.18. Unipolare, bipolare und orthogonale Modulationsverfahren f¨ ur bin¨ are ¨ Ubertragung mit dem Bandpasstr¨ agersignal nach (7.35)
ren in Abb. 7.18 ist ebenfalls ein Frequenzumtastverfahren, bei dem aber orthogonale Bandpasssignale mit verringertem Frequenzabstand verwendet werden. Der glatte, sprungstellenfreie Verlauf wird hierbei durch eine zus¨atzliche, nicht der Nachrichten¨ ubertragung dienende und kontextabh¨angige Phasenumtastung erreicht. Dieses besonders schmalbandige Frequenzumtastverfahren wird MSK (minimum shift keying) genannt. Die in der zus¨atzlichen Phasenumtastung enthaltene Information kann jedoch in geeigneten Empf¨ angern (z.B. Trellis-Decodierung, vgl. Abschn. 8.4.4) zur Verminderung der Fehlerwahrscheinlichkeit ausgenutzt werden (Blahut, 1990). Eine Variation der BPSK ist die Phasendifferenztastung (DPSK). Diese entspricht im Erscheinungsbild der Phasenumtastung, mit dem Unterschied, dass die bin¨ are Information in der Phasen¨anderung von 0◦ oder 180◦ , bezogen auf die Phase des unmittelbar vorher gesendeten Tr¨agersignals, enthalten ist. Dadurch ist im Empf¨ anger keine absolute Referenzphase notwendig, sondern zur Decodierung gen¨ ugt der Phasenvergleich je zweier aufeinander folgender Impulse (Lucky, 1968). Weitere mehrstufige BandpasssignalModulationsverfahren und ihre Darstellung im Signalraum werden in Abschn. 7.3.7 sowie in Zusatz¨ ubung 9.2 diskutiert. 7.3.2 Korrelationsfunktionen von Bandpasssignalen Das Prinzip des Korrelationsfilters gilt f¨ ur beliebige Signalformen, es ist also auch f¨ ur den Empfang von Bandpasstr¨ agersignalen geeignet, die durch weißes ¨ Rauschen gest¨ ort werden. F¨ ur die weiteren Uberlegungen in diesem Kapitel ist es n¨ utzlich, die am Ausgang eines solchen Korrelationsfilters erscheinenden Impulskorrelationsfunktionen von Bandpasssignalen in der komplexen Signalschreibweise ausdr¨ ucken zu k¨ onnen. Gem¨ aß (4.14) gilt f¨ ur die hier betrachteten reellwertigen Bandpasssignale s(t) und g(t) allgemein die Kreuzkorrelationsfunktion
7.3 Bin¨ ar¨ ubertragung mit Bandpasssignalen
263
ϕE sg (τ ) = s(−τ ) ∗ g(τ ) Nach Abschn. 5.4.4 kann dieses Faltungsprodukt ebenfalls als Bandpasssignal geschrieben werden E j2πf0 τ }. ϕE sg (τ ) = Re{ϕsgT (τ )e
(7.36)
Die komplexe H¨ ullkurve ϕE asst sich dann mit sgT (τ ) des Bandpasssignals l¨ (5.47) berechnen. Dazu muss zun¨ achst die komplexe H¨ ullkurve des zeitgespiegelten Signals s(−t) bestimmt werden. Durch Substitution t = −τ in (5.34) erh¨ alt man s(−τ ) = Re{sT (−τ )e -j2πf0 τ } oder, da Re{z} = Re{z ∗ } ist, gilt ebenso s(−τ ) = Re{s∗T (−τ )e j2πf0 τ } .
(7.37)
Damit erh¨ alt man f¨ ur die komplexe H¨ ullkurve der Kreuzkorrelationsfunktion ∞ 1 ∗ 1 E ϕsgT (τ ) = [sT (−τ ) ∗ gT (τ )] = s∗T (t)gT (t + τ )dt (7.38a) 2 2 −∞
und f¨ ur gT (τ ) = sT (τ ) ϕE ssT (τ )
1 1 = [s∗T (−τ ) ∗ sT (τ )] = 2 2
∞
s∗T (t)sT (t + τ )dt
(7.38b)
−∞
entsprechend die komplexe H¨ ullkurve der Autokorrelationsfunktion. Die Energie eines Bandpasssignals ist dann mit (4.19) (Aufgabe 7.8) der reelle Wert E Es = ϕE ss (0) = ϕssT (0) .
(7.39)
Schließlich erh¨ alt man aus (7.37) f¨ ur ein Korrelationsfilter der Impulsantaquivalente Tiefpassimpulsantwort (Aufgabe 7.9) wort h(t) = s(−t)17 als ¨ hT (t) = s∗T (−t) .
(7.40)
Als einfaches Beispiel zu diesen Darstellungen sei das Tr¨agersignal nach (7.35) betrachtet. F¨ ur die Tr¨ agerfrequenz f0 hat das Bandpasssignal die komplexe 17
Die Beschreibung des Korrelationsfilters als bei t = 0 zeitgespiegelte Form h(t) = s(−t) ist von der Wirkung her vollkommen ¨ aquivalent zur bisher meist verwendeten, bei t = T zeitgespiegelten Form h(t) = s(T − t), die bei auf 0 ≤ t ≤ T zeitbegrenztem s(t) auf ein kausales Empf¨ angerfilter f¨ uhrt. F¨ ur die bei t = 0 zeitgespiegelte Form liegt der optimale Abtastzeitpunkt allerdings ebenfalls bei t = 0.
264
7. Bin¨ ar¨ ubertragung
H¨ ullkurve18 sT (t) = −j rect
t 1 − T 2
.
Das zugeh¨ orige Korrelationsfilter hat dann in der vereinfachten Form h(t) = s(−t) nach (7.40) die ¨ aquivalente Tiefpassimpulsantwort 1 t hT (t) = j rect + , 2 T und am Ausgang des Korrelationsfilters erscheint als Autokorrelationsfunktion mit (7.36) und (7.38a) t 1 ϕE T Λ (t) = (7.41) cos(2πf0 t) . ss 2 T In Abb. 7.19 sind das Tr¨ agersignal nach (7.35), die Impulsantwort des zugeh¨ origen Korrelationsfilters und das Ausgangssignal in Form der Impulsautokorrelationsfunktion des Tr¨ agersignals aufgetragen.
Abb. 7.19. Korrelationsfilter-Empfang eines Bandpasssignals
Anmerkung: Wie eingangs schon erw¨ ahnt, hat die oszillierende Form derartiger Autokorrelationsfunktionen zur Folge, dass f¨ ur praktische Zwecke ein Korrelationsfilter-Empfang dieser Art nur verwendet werden kann, wenn hochgenaue Synchronisationsmechanismen zur Verf¨ ugung stehen, da die Genauigkeitsforderungen sowohl an die Impulsantwort des Filters als auch an die Einhaltung des Abtastzeitpunktes sehr hoch sind. Geringere Anforderungen sind an Empf¨ anger zu stellen, die das Bandpassfilter mit der in Abschn. 5.4.6 diskutierten Methode im Tiefpassbereich realisieren. 18
¨ Ahnlich wie in dem Beispiel in Abschn. 5.4.5 ist diese einfache Form nur unter der Annahme f0 = p/T exakt bzw. bei f0 1/T ann¨ ahernd richtig. Sofern die Tr¨ agerfrequenz f0 kein ganzzahliges Vielfaches der Taktperiode ist, treten insbesondere bei auf T zeitbegrenzten H¨ ullkurven zus¨ atzliche Probleme auf. So entstehen z.B. Phasenspr¨ unge an den Grenzen der Taktperioden, und es lassen sich bez¨ uglich der Spektraleigenschaften keine symmetrischen Bandpass-Tr¨ agersignale realisieren.
7.3 Bin¨ ar¨ ubertragung mit Bandpasssignalen
265
7.3.3 Empfang von Bandpasssignalen im Tiefpassbereich Die Realisierung eines Bandpassfilters der ¨ aquivalenten Tiefpassimpulsantwort hT (t) = hTr (t) + jhTi (t) im Tiefpassbereich war in Abb. 5.25 vorgestellt worden. Soll diese Schaltung als Korrelationsfilter f¨ ur ein Tr¨agersignal mit der komplexen H¨ ullkurve sT (t) = sTr (t) + jsTi (t) dienen, dann muss mit (7.40) gelten hT (t) = s∗T (−t) = sTr (−t) − jsTi (−t) .
(7.42)
Die Schaltung nach Abb. 5.25 muss also mit Tiefpassfiltern der Impulsantworten hTr (t) = sTr (−t)
und
hTi (t) = −sTi (−t) aufgebaut werden. Erinnert sei daran, dass diese Tiefpassfilter die Bedingung (5.54) erf¨ ullen m¨ ussen, ihre Grenzfrequenz also < f0 sein muss. Ist, wie h¨ aufig in praktischen Systemen, das Tr¨ agersignal ein symmetrisches Bandpasssignal, dann verschwindet der Imagin¨ arteil des ¨aquivalenten Tiefpasssignals, sTi (t) = 0, und der Korrelationsfilter-Empf¨anger vereinfacht sich zu der in Abb. 7.20 gezeigten Form. (Entsprechend vereinfacht sich die Schaltung auch bei Bandpasssignalen mit rein imagin¨ arer H¨ ullkurve.)
Abb. 7.20. Korrelationsfilter-Empf¨ anger f¨ ur symmetrische Bandpasstr¨ agersignale
Die Schaltung in Abb. 7.20 ist bis zum Abtaster gem¨aß der Ableitung ein echtes LTI-System. Eine zeitliche Verschiebung des Eingangssignals ruft also nur eine gleich große Verschiebung des Ausgangssignals hervor (Aufgabe 7.10). Verzichtet man auf diese Eigenschaft der Zeitinvarianz, dann kann die Schaltung noch weiter vereinfacht werden. Hierzu wird zun¨achst vorausgesetzt, dass die Tr¨ agerfrequenz f0 in einem festen Verh¨altnis zur Taktzeit T steht, so dass gilt f0 = p/T
p ganzzahlig .
(7.43)
266
7. Bin¨ ar¨ ubertragung
Zu den Abtastzeitpunkten t = nT wird dann im unteren Zweig des Korrelationsfilters das Ausgangssignal stets mit − sin(2πf0 nT ) = − sin(2πnk) = 0 multipliziert, entsprechend im oberen Teil mit cos(2πf0 nT ) = cos(2πnk) = 1. Damit ¨ andern sich die Abtastwerte am Filterausgang und damit auch das Fehlerverhalten nicht, wenn der untere Filterzweig ganz wegf¨allt und im oberen Zweig der zweite Multiplikator fortgelassen wird. Die resultierende Schaltung zeigt Abb. 7.21.
Abb. 7.21. Vereinfachter Empf¨ anger f¨ ur symmetrische Bandpasssignale (koh¨ arenter Empf¨ anger)
Dem einfachen Aufbau dieses Empf¨ angers steht als Nachteil gegen¨ uber, dass die vereinfachte Schaltung zwar noch linear, aber nicht mehr zeitinvariant ist. Eine geringe Zeitverschiebung des Eingangssignals (oder ¨aquivalent eine Phasenverschiebung des Empf¨ angeroszillators) k¨onnen das Ausgangssignal v¨ollig verschwinden lassen, hierauf wird im n¨achsten Abschnitt noch n¨aher eingegangen (Aufgabe 7.10). Wegen dieser notwendigen phasenstarren Synchronisation oder Koh¨arenz des Empf¨ angeroszillators mit dem ankommenden Tr¨ agersignal wird der beschriebene Empf¨ anger auch koh¨arenter Empf¨anger genannt. Verfahren der Tr¨ agersynchronisation werden in Abschn. 7.3.8 beschrieben. Insbesondere bei Verwendung von Phasenumtastverfahren ist eine zuverl¨ assige Tr¨ agersynchronisation unumg¨ anglich. Sie k¨onnte jedoch bei stark zeitabh¨ angiger Ver¨ anderung der Laufzeit des u ¨bertragenen Signals nicht mit der notwendigen Genauigkeit durchf¨ uhrbar sein. In solchen F¨allen kann der im n¨ achsten Abschnitt beschriebene inkoh¨ arente H¨ ullkurven-Empf¨anger verwendet werden, der allerdings nur f¨ ur Amplitudentastverfahren oder daraus ¨ ableitbare Methoden (z.B. Ubertragung mit amplitudengetasteten orthogonalen Signalen) anwendbar ist. 7.3.4 Inkoh¨ arenter Empfang von Bandpasssignalen Es wird angenommen, dass das empfangene symmetrische Bandpasstr¨agerogert am Empf¨angereingang eintrifft. Diesignal um eine Zeit t0 T verz¨ se Verz¨ ogerungszeit sei dem Empf¨ anger nicht bekannt, sie soll außerdem von Taktzeit zu Taktzeit verschieden groß sein k¨onnen. Wird als Empf¨anger
7.3 Bin¨ ar¨ ubertragung mit Bandpasssignalen
267
ein Korrelationsfilter benutzt, dann ist wegen der Eigenschaft der Zeitinvarianz das Ausgangssignal ebenfalls um t0 verz¨ogert. Da nun die Autokorrelationsfunktion eines Bandpasssignals mit der Tr¨agerfrequenz f0 oszilliert (Abb. 7.19), gen¨ ugt schon eine Verschiebung von einem Viertel der Periodendauer der Tr¨ agerfrequenz, um das Ausgangssignal im Abtastzeitpunkt verschwinden zu lassen. Man verwendet daher in solchen F¨ allen Empf¨anger, welche die Einh¨ ullende der Autokorrelationsfunktion bilden, solche H¨ ullkurvenempf¨anger sind gegen¨ uber Verschiebungen t0 T unempfindlich. Das Prinzip eines Bandpassfilters mit Bildung der Einh¨ ullenden |gTr (t)| des Ausgangssignals wurde bereits in Abschn. 5.4.6 besprochen und in Abb. 5.26 dargestellt. Bildet man dieses System als Korrelationsfilter-Empf¨ anger aus, dann ergibt sich die in Abb. 7.22 gezeigte Schaltung (Aufgabe 7.11).
Abb. 7.22. H¨ ullkurvenempf¨ anger f¨ ur symmetrische Bandpasssignale (entsprechend Abb. 5.26). Die Quadratursignale k¨ onnen auch vor den Korrelationsfiltern digitalisiert und z. B. in einem Digitalen Signalprozessor (DSP) weiterverarbeitet werden
Es soll nun die Reaktion dieses Systems auf ein um t0 verz¨ogertes symmetrisches, ungest¨ ortes Bandpasstr¨ agersignal sv (t) bestimmt werden. Es sei m(t) = sv (t) = s(t − t0 ) = Re{sT (t − t0 )e j2πf0 (t−t0 ) } = Re{sT (t − t0 )e−j2πf0 t0 e j2πf0 t } .
(7.44)
urzung Damit gilt f¨ ur die zugeh¨ orige komplexe H¨ ullkurve sTv (t) mit der Abk¨ 2πf0 t0 = θ sTv (t) = sT (t − t0 )e−jθ = sT (t − t0 ) cos(θ) − jsT (t − t0 ) sin(θ) .
(7.45)
Die Signale am Ausgang der beiden ¨ aquivalenten Tiefpasskorrelationsfilter ergeben sich dann entsprechend der Ableitung in Abschn. 5.4.6 und Abb. 5.25 1 gTr (t) = [sT (t − t0 ) cos(θ)] ∗ sT (−t) = cos(θ)ϕE ssT (t − t0 ) , 2 1 gTi (t) = − [sT (t − t0 ) sin(θ)] ∗ sT (−t) = − sin(θ)ϕE (7.46) ssT (t − t0 ) . 2
268
7. Bin¨ ar¨ ubertragung
Somit liegt am Eingang des Abtasters das Signal / / 2 2 (t) + g 2 (t) = 2 2 |gT (t)| = + gTr [ϕE + Ti ssT (t − t0 )] [cos (θ) + sin (θ)] = |ϕE ssT (t − t0 )| .
(7.47)
Es wird also die entsprechend (5.41) gebildete Einh¨ ullende der Autokorrelationsfunktion abgetastet. Dieser Abtastwert weicht unter der Bedinangertyp ist es gung t0 T nur wenig von ϕE ssT (0) ab. Bei diesem Empf¨ also ebenfalls nicht notwendig, die Oszillatoren phasenstarr auf das ankommende Signal zu synchronisieren, man spricht daher von einem inkoh¨arenten Empf¨anger. Anmerkung: Die obige Ableitung beschreibt jetzt auch quantitativ die Reaktion des koh¨ arenten Empf¨ angers nach Abb. 7.21 auf ein um t0 verz¨ogertes Eingangssignal. Nach (7.46) erscheint am Ausgang des Tiefpassfilters in Abb. 7.21 in diesem Fall ein Signal der Form gTr (t) = cos(θ)ϕE ssT (t − t0 ). Die Bedingung f¨ ur koh¨ arenten Empfang lautet also |θ| = |2πf0 t0 | π/2. Abschließend sei noch kurz eine besonders einfache Modifikation des H¨ ullkurvenempf¨ angers vorgestellt. Das Prinzip ist in Abb. 7.23 dargestellt. Aus dem am Ausgang des Korrelationsfilters anstehenden Bandpasssignal wird zun¨ achst der Betrag gebildet (technisch mit einem Zweiweggleichrichter), und die tieffrequenten Anteile dieses Betrages werden dann mit Hilfe eines Tiefpassfilters ausgesiebt (Aufgabe 8.3). Diese Bildung der Einh¨ ullenden der Autokorrelationsfunktion des Bandpasstr¨ agersignals ist bei gest¨orten Signalen nicht exakt, f¨ ur schmalbandige Signale aber genau genug.
Abb. 7.23. Vereinfachte Modifikation eines H¨ ullkurvenempf¨ angers f¨ ur Bandpasssignale
Auf eine genauere Analyse dieses Verfahrens wird hier verzichtet. Pauschal kann man davon ausgehen, dass das mit diesem Empf¨angertyp erreichbare Signal-/Rauschleistungsverh¨ altnis um etwa 1–2 dB geringer im Vergleich mit dem echten H¨ ullkurvenempf¨ anger ist (Sakrison, 1968; Panter, 1965). Die Vorteile des in diesem Abschnitt beschriebenen inkoh¨arenten Empfangs muss man aber auch im Fall des echten H¨ ullkurvenempf¨angers mit einer Verschlechterung des Signal-/Rauschleistungsverh¨altnisses erkaufen, da der Empf¨ anger kein idealer Korrelationsfilter-Empf¨anger mehr ist. Als weiterer Nachteil ist auf Grund der Betragsbildung bei inkoh¨arentem Empfang
7.3 Bin¨ ar¨ ubertragung mit Bandpasssignalen
269
¨ keine bipolare Ubertragung mehr m¨ oglich. Die Berechnung der resultierenden Fehlerwahrscheinlichkeit wird im n¨ achsten Abschnitt behandelt. 7.3.5 Fehlerwahrscheinlichkeit bei inkoh¨ arentem Empfang von Bandpasstr¨ agersignalen Die Berechnung der Fehlerwahrscheinlichkeit des H¨ ullkurvenempf¨angers wird vereinfacht, wenn man nicht von der Schaltung nach Abb. 7.22, sondern von ¨ einer ¨ aquivalenten Form ausgeht, die in Abb. 7.24 dargestellt ist. Die Aquivalenz beider Schaltungen bzgl. der Bildung der Einh¨ ullenden wurde allgemein in Aufgabe 5.19 bereits gezeigt19 .
Abb. 7.24. Modifizierter H¨ ullkurvenempf¨ anger
Die beiden Bandpassfilter in Abb. 7.24 haben die ¨aquivalenten Tiefpassimpulsantworten h1T (t) = sT (−t) h2T (t) = −jsT (−t) .
(7.48)
Auf das wieder um eine kleine, unbekannte Zeit t0 verz¨ogerte Signal sv (t) = s(t − t0 ) nach (7.44) antworten die Filter dann entsprechend Aufgabe 5.19 mit g1 (t) = Re{ 12 ([e−jθ sT (t − t0 )] ∗ sT (−t))e j2πf0 t } = ϕE ssT (t − t0 ) cos(2πf0 t − θ) , g2 (t) = Re{ 12 ([e−jθ sT (t − t0 )] ∗ [−jsT (−t)])e j2πf0 t } = ϕE ssT (t − t0 ) sin(2πf0 t − θ) .
(7.49)
Am Eingang des Abtasters liegt also wieder wie in (7.47) das Signal / |gT (t)| = g12 (t) + g22 (t) = |ϕE (7.50) ssT (t − t0 )| . 19
Man beachte, dass die hier verwendete vereinfachte Schaltung nur f¨ ur symmetrische Bandpasssignale geeignet ist.
270
7. Bin¨ ar¨ ubertragung
Zur Berechnung der Fehlerwahrscheinlichkeit wird nun dem Eingangssignal s(t−t0 ) weißes Gauß’sches Rauschen der Leistungsdichte N0 hinzuaddiert. Dann sind den Nutzsignalen g1 (t) und g2 (t) an den Filterausg¨angen nach den Ergebnissen von Abschn. 6.4.4 farbige, Gauß’sche Rauschsignale ne1 (t) und ne2 (t) u ¨ berlagert. Im Abtastzeitpunkt t = 0 ergeben sich mit (7.49) also an den Filterausg¨ angen die Zufallsgr¨ oßen y1 (0) = ϕE ssT (−t0 ) cos(θ) + ne1 (0) , y2 (0) = −ϕE ssT (−t0 ) sin(θ) + ne2 (0) .
(7.51)
Man kann nun weiter zeigen, dass die Zufallsgr¨oßen ne1 (0) und ne2 (0) statistisch unabh¨ angig voneinander sind: Nach den Ergebnissen aus Abschn. 7.2.6 gen¨ ugt hierzu bei einem weißen, Gauß’schen Rauschen, dass die Impulsantworten h1 (t) und h2 (t) der Bandpassfilter orthogonal sind. Durch Einsetzen von (7.48) in (7.38a) folgt f¨ ur die komplexe H¨ ullkurve der Kreuzkorrelationsfunktion der Filterimpulsantworten und damit f¨ ur die Kreuzkorrelationsfunktion selbst 1 E ϕE h1h2T (τ ) = [ 2 sT (τ )] ∗ [−jsT (−τ )] = −jϕssT (τ ) , E ϕE h1h2 (τ ) = ϕssT (τ ) sin(2πf0 τ ) .
(7.52)
asse in F¨ ur τ = 0 folgt ϕE h1h2 (0) = 0, die Impulsantworten der Bandp¨ Abb. 7.24 sind also orthogonal. In gleicher Weise kann gezeigt werden, dass die Autokorrelationsfunktionen der Filterimpulsantworten lauten (Aufgabe 7.14) E E ϕE h1h1 (τ ) = ϕh2h2 (τ ) = ϕssT (τ ) cos(2πf0 τ ) .
(7.53)
Mit (6.38) hat das farbige Rauschsignal dann an beiden Filterausg¨angen die gleiche Leistung E N = N0 ϕE h1h1 (0) = N0 ϕssT (0) .
(7.54)
In einem weiteren Schritt muss jetzt die Verteilungsdichtefunktion der Zufallsgr¨ oße y(0) am Eingang der Entscheidungsstufe bestimmt werden. Die orten Abtastwerte am Eingang der EntAugenblicksleistung Sa der ungest¨ scheidungsstufe hat mit (7.50) den Wert 2 2 Sa = g T (0) = [ϕE ssT (−t0 )] .
(7.55)
Damit l¨ asst sich die Zufallsgr¨ oße am Eingang der Entscheidungsstufe mit (7.51) schreiben als / y(0) = y12 (0) + y22 (0) / (7.56) = [ Sa cos(θ) + ne1 (0)]2 + [− Sa sin(θ) + ne2 (0)]2 . Im Anhang 7.6 wird gezeigt, dass der so gebildete Betrag zweier statistisch unabh¨ angiger, Gauß-verteilter Zufallsgr¨ oßen mit denselben Streuungen N und
7.3 Bin¨ ar¨ ubertragung mit Bandpasssignalen
271
√ √ den Mittelwerten Sa cos(θ) und Sa sin(θ) unabh¨angig von θ ist und seine Verteilungsdichtefunktion die Form der Rice-Verteilungsdichtefunktion 20 hat. Diese Verteilungsdichtefunktion lautet x (7.57) py (x) = ε(x) I0 ( Sa x/N ) exp[−(x2 + Sa )/(2N )] , N wobei I0 (x) die modifizierte Besselfunktion erster Art nullter Ordnung ist. Die Rice-Verteilungsdichtefunktionen sind in Abb. 7.25 dargestellt. Parametriert ist mit der Quadratwurzel aus dem Verh¨altnis der Augenblicksleiorten Nutzsignals am Eingang der Entscheidungsstufe stung Sa des ungest¨ zur St¨ orleistung N an den Filterausg¨ angen. F¨ ur dieses als Hilfsgr¨oße benutzte Verh¨ altnis ergibt sich mit (7.54, 7.55) und dem Ausdruck (7.39) f¨ ur die agersignals s(t) Energie Es des Bandpass-Tr¨ [ϕE (−t0 )]2 Sa Es ϕE (0) = ssT E = ≈ ssT N N0 N0 N0 ϕssT (0)
(7.58)
F¨ ur die angenommenen kleinen Zeitverschiebungen t0 T entspricht dieses Verh¨ altnis also ann¨ ahernd dem Es /N0 -Verh¨ altnis und erm¨oglicht so einen einfachen Vergleich der im Folgenden betrachteten Fehlerwahrscheinlichkeit des nichtkoh¨ arenten H¨ ullkurvenempfangs mit dem optimalen KorrelationsfilterEmpfang.
Abb. 7.25. Rice-Verteilungsdichtefunktionen (im Sonderfall Sa /N = 0 ergibt sich die Rayleigh-Verteilungsdichtefunktion)
Aus der Rice-Verteilungsdichtefunktion l¨ asst sich nun wie gewohnt die Feh¨ lerwahrscheinlichkeit beispielsweise f¨ ur das unipolare Ubertragungsverfahren 20
Stephen O. Rice (1907–1986), amerik. Mathematiker und Elektrotechniker (Anhang zum Literaturverzeichnis).
272
7. Bin¨ ar¨ ubertragung
mit H¨ ullkurvenempfang berechnen. Die beiden Verteilungsdichtefunktionen f¨ ur die F¨ alle s(t) nicht gesendet“ (entsprechend Sa = 0) bzw. s(t) ge” ” sendet“ zeigt Abb. 7.26. Bei gleicher Wahrscheinlichkeit dieser beiden F¨alle ergibt sich die gesamte Fehlerwahrscheinlichkeit entsprechend (6.105) als halbe Summe der beidseitig der Entscheidungsschwelle C liegenden schraffierten Fl¨ achen Pe1 und Pe0 Das zur Berechnung dieser Fl¨achen und der optimalen Schwellenlage erforderliche Integral u ¨ber die Verteilungsdichtefunktion liegt auch hier nur tabelliert vor21 .
¨ Abb. 7.26. Verteilungsdichtefunktionen py0 (x) und py1 (x) bei unipolarer Ubertragung und H¨ ullkurvenempfang
F¨ ur große Es /N0 -Verh¨ altnisse gilt die N¨ aherung (Stein und Jones, 1967) 1 −Es /(8N0 ) e . (7.59) 2 Im Vergleich mit dem optimalen Korrelationsfilter-Empfang wird im Bereich altnisse mit dem H¨ ullkurvenempf¨anger f¨ ur dieselbe Fehhoher Es /N0 -Verh¨ lerwahrscheinlichkeit Pe eine um etwa 1 dB h¨ohere Energie des Nutzsignals ¨ ben¨ otigt. Ahnlich verhalten sich auch die inkoh¨arenten Empfangsverfahren ¨ bei der Ubertragung mit zwei orthogonalen Tr¨agersignalen und die einem ¨ inkoh¨ arenten Empfang bei bipolarer Ubertragung entsprechende Phasendifferenztastung. Das Fehlerverhalten des inkoh¨ arenten Empf¨angers f¨ ur zwei orthogonale, ¨ jeweils wechselweise unipolar gesendete Tr¨ agersignale wird in Ubungen 9.4, ¨ f¨ ur M orthogonale Signale in Ubungen 9.9 berechnet. Zur Fehlerberechnung bei der in Abschn. 7.3.1 kurz vorgestellten Phasendifferenztastung (DPSK) s. z. B. Stein und Jones, 1967. Pe ≈
7.3.6 Bandpassrauschen und Rayleigh-Verteilung Die Ergebnisse des vorhergehenden Abschnitts lassen sich in einfacher Weise zu einer eingehenderen Beschreibung eines Bandpassrauschprozesses benutzen. Ein station¨ arer, weißer Zufallsprozess der Leistungsdichte N0 wird u ¨ ber 21
Unter der Bezeichnung Marcum’sche Q-Funktionen“ (Whalen, 1971). ”
7.3 Bin¨ ar¨ ubertragung mit Bandpasssignalen
273
¨ einen idealen Bandpass der Ubertragungsfunktion (5.27) f − f0 f + f0 H(f ) = rect + rect f∆ f∆ u ¨bertragen. Der erzeugte bandbegrenzte Zufallsprozess n(t) hat nach der Wiener-Lee-Beziehung (6.32) ein Leistungsdichtespektrum der Form f + f0 f − f0 2 φnn (f ) = N0 |H(f )| = N0 rect + rect . (7.60) f∆ f∆ Durch inverse Fourier-Transformation ergibt sich nach dem Wiener-Khintchine-Theorem (6.31) als Autokorrelationsfunktion ϕnn (τ ) = 2N0 f∆ si(πf∆ τ ) cos(2πf0 τ ) .
(7.61)
Damit hat der bandbegrenzte Prozess die Leistung und auch die Streuung σ 2 = ϕnn (0) = 2N0 f∆ .
(7.62)
Als n¨ achstes wird der Bandpassprozess in seine Quadraturkomponenten zerlegt. Entsprechend (5.40) l¨ asst sich f¨ ur die einzelnen Musterfunktionen schreiben n(t) = nTr (t) cos(2πf0 t) − nTi (t) sin(2πf0 t) .
(7.63)
Diese Zerlegung werde nach dem Verfahren in Abschn. 7.3.5 mit Hilfe zweier idealer Bandpassfilter vorgenommen, deren ¨aquivalente Tiefpassimpulsantworten gem¨ aß (5.32) und (7.48) zu h1T (t) = 2f∆ si(πf∆ t) und h2T (t) = −j2f∆ si(πf∆ t) ¨ gew¨ ahlt werden. Stellt man nun die gleichen Uberlegungen wie in Abschn. 7.3.5 an, so folgt mit den Ergebnissen von Aufgabe 5.19, dass die zum Zeitpunkt t = 0 den Filterausg¨ angen entnommenen Abtastwerte Realisationen der Zufallsgr¨ oßen nTr (0) und nTi (0) sind. Es folgt weiter, dass diese Zufallsgr¨ oßen unkorreliert sind und dass sie die gleiche Leistung E NQ = N0 ϕE h1h1 (0) = N0 ϕh2h2 (0) = 2N0 f∆
(7.64)
haben. Diese Leistungen sind nach (7.62) gleich der Leistung des bandbe¨ grenzten Prozesses. Da ein station¨ arer Prozess bei Ubertragung u ¨ ber ein ¨ LTI-System station¨ ar bleibt, gelten diese Uberlegungen auch f¨ ur zu beliebigen anderen Abtastzeiten den Ausgangsprozessen entnommene Zufallsgr¨oßen. Weitere Aussagen u ¨ber den Bandpassprozess sind m¨oglich, wenn am Eingang ein Gauß-Prozess liegt. Dann erscheint auch am Ausgang ein GaußProzess, weil der Bandpass ein LTI-System ist. In gleicher Weise sind auch die
274
7. Bin¨ ar¨ ubertragung
beiden Quadraturkomponenten nTr (t) und nTi (t) Gauß-verteilt, wie ihre Ableitung mit Hilfe von LTI-Systemen zeigt. Da weiter die Zufallsgr¨oßen nTr (t1 ) und nTi (t1 ) zus¨ atzlich noch unkorreliert sind, so sind sie nach (6.96) auch statistisch unabh¨ angig. Schließlich folgt aus den Ergebnissen von Abschn. 7.3.5 die Verteilungsdichtefunktion der Einh¨ ullenden des Bandpassprozesses, wenn in der Rice-Verteilungsdichtefunktion nach (7.57) als Sonderfall die Augenblicksleistung Sa des Nutzsignals gleich Null gesetzt wird: Mit dem Wert der modifizierten Bessel-Funktion erster Art I0 (0) = 1 wird aus (7.57) mit N = σ 2 als Streuung des Bandpassprozesses py (x) = ε(x)
x −x2 /(2σ2 ) e . σ2
(7.65)
Diese sogenannte Rayleigh-Verteilungsdichtefunktion 22 ist in Abb. 7.25 mit der linken Kurve in der Schar der Rice-Funktionen identisch (s. Aufgabe 7.15). Zur Veranschaulichung dieser Ergebnisse sind in Abb. 7.27 eine Musterfunktion eines bandpassbegrenzten ergodischen Rauschprozesses n(t) zusammen mit der Gauß-Verteilungsdichtefunktion des Prozesses und der RayleighVerteilungsdichtefunktion seiner Einh¨ ullenden y(t) dargestellt.
Abb. 7.27. Bandpassbegrenztes, Gauß-verteiltes Zufallssignal mit Verteilungsdichtefunktionen des Signals und seiner Einh¨ ullenden
7.3.7 Phasenumtastung und Quadraturmodulation F¨ ur das bereits in Abschn. 7.3.1 kurz erl¨ auterte Phasenumtastungs-Prinzip - dort zun¨ achst nur mit zwei um π gegeneinander verschobenen Phasenlagen betrachtet, daher auch als bipolare PSK (BPSK) bezeichnet - ist nur der koh¨ arente Empf¨ anger anwendbar. Bei Verwendung eines H¨ ullkurvenempf¨ angers w¨ urde auf Grund der Betragsbildung die Phaseninformation des 22
John William Strutt (Lord Rayleigh), engl. Physiker (1842–1919).
7.3 Bin¨ ar¨ ubertragung mit Bandpasssignalen
275
Tr¨ agersignals eliminiert, so dass eine Unterscheidung am Eingang des Entscheiders nicht mehr m¨ oglich ist. PSK-Verfahren ben¨otigen daher unbedingt eine Synchronisation des Empf¨ angers auf die Phasenlage des Tr¨agers. Sofern diese m¨ oglich ist (Abschn. 7.3.8), kann ein Korrelationsfilter-Empfang entweder direkt am Bandpasssignal oder am ¨ aquivalenten Tiefpasssignal erfolgen, beispielsweise unter Verwendung des vereinfachten Systems in Abb. 7.21. Die dabei entstehenden Bitfehlerraten sind identisch mit dem Fall einer bipolaren ¨ Ubertragung mit Tiefpass-Tr¨ agersignalen, z.B. (7.11) f¨ ur den Fall der BPSK. Man beachte allerdings, dass dies nur dann exakt gilt, wenn der koh¨arente Empfang sowohl in Bezug auf die Synchronisation des Tr¨agers, als auch in Hinblick auf die Synchronisation des Abtastzeitpunktes (Maximum der Korrelationsfunktion) optimal ist, so dass bei PSK-Verfahren ein zus¨atzlicher Faktor der Unsicherheit durch schlechte Synchronisation entstehen kann. Der in Abb. 7.21 gezeigte Korrelationsfilter-Empf¨anger verwendet ein symmetrisches Bandpass-Signal mit cos-Tr¨ ager. Er soll nun durch einen Empf¨ angerzweig erg¨ anzt werden, der ein weiteres, im selben Takt auf einem sin-Tr¨ ager derselben Tr¨ agerfrequenz f0 gesendetes bit empf¨angt (s. Abb. 7.28), wobei wieder f0 = p/T (ganzzahliges Verh¨altnis) gelte und dasselbe reellwertige Tiefpass-H¨ ullkurvensignal verwendet werden soll.
nT
x
y1(t)
Entscheidungsstufe
ae,m
cos(2pf0t)
m(t)
»
-sin(2pf0t)
x
sT (-t )
nT y2(t)
Entscheidungsstufe
ae,m+1
Parallel-SeriellUmsetzung
sT ( - t )
aem,aem+1,...
Abb. 7.28. Koh¨ arenter QPSK-Empf¨ anger
Das Prinzip wird als quatern¨are Phasenumtastung 23 (QPSK) bezeichnet. Innerhalb des Sendetaktes, der bei t = nT beginnt, werden nun gleichzeitig K = 2 Bits, am = a2n und am+1 = a2n+1 , u ¨ bertragen. Unter Annahme biur den speziellen Fall polarer Bin¨ arsymbole am , am+1 ∈ {−1, 1} ergibt sich f¨ eines rechteckf¨ ormigen sT (t)24 eines von M = 2K = 4 m¨oglichen Tr¨agersignalen t A 1 [am cos(2πf0 t) − am+1 sin(2πf0 t)]. (7.66) − si (t) = √ rect T 2 2
sT (t) 23 24
Auch Quadratur-Phasentastung. Im Folgenden wieder mit der kausalen Definition des Empfangsfilters h(t) = s(T − t).
276
7. Bin¨ ar¨ ubertragung
Der jeweils gew¨ ahlte Index i(n) ist von der Bitkonstellation im Takt n abh¨ angig, so dass sich insgesamt ein Sendesignal +∞
m(t) =
si(n) (t − nT )
(7.67)
n=−∞
ergibt. Da unter der genannten Voraussetzung eines ganzzahligen Produktes f0 T die beiden cos- und sin-modulierten Tr¨agersignale orthogonal sind, k¨ onnen Korrelationsfilter-Empfang und Entscheidung in den beiden Zweigen vollkommen unabh¨ angig voneinander erfolgen. Dies wird im Folgenden f¨ ur den Fall des rechteckf¨ ormigen Tiefpasstr¨agers noch einmal explizit gezeigt, gilt aber prinzipiell f¨ ur beliebige reellwertige sT (t) (s. hierzu auch Abschn. 7.2.5). √ Mit cos x∓sin x = 2 cos(x±π/4) ergeben sich die si (t) als kosinusf¨ormige Tr¨ agersignale mit 4 m¨ oglichen Phasenverschiebungen um Vielfache von π/2. Das Nutzsignal am Empf¨ angereingang besitzt dann die f¨ ur alle i identische Energie T Es = 0
[A cos(2πf0 t + π/4 + iπ/2)]2 dt =
A2 T 2
(0 ≤ i ≤ 3).
(7.68)
si (t)
Die pro u ¨ bertragenem bit aufgewendete Energie wird demnach Eb = Es /2. Bei koh¨ arentem Empfang erscheint am Ausgang des Korrelationsfilters im oberen Zweig zum Abtastzeitpunkt25 der Nutzsignalpegel g1 (nT ) =
A2 2
T [am cos(2πf0 t) − am+1 sin(2πf0 t)] cos(2πf0 t)dt 0
A2 T Es = am = am Eb . = am 4 2
(7.69)
Im unteren Zweig ergibt sich A2 g2 (nT ) = 2
T [am cos(2πf0 t) − am+1 sin(2πf0 t)] [− sin(2πf0 t)] dt 0
= am+1
A2 T Es = am+1 = am+1 Eb . 4 2
(7.70)
Die Ausgangswerte in den beiden Zweigen sind also auf Grund der Orthogonalit¨ at der cos- und sin-Tr¨ agerkomponenten vollkommen unabh¨angig voneinander. Die Abst¨ ande zwischen den m¨ oglichen Nutzsignalpegeln ergeben sich 25
unter der Annahme, dass diepImpulsantworten der Filter sT (T − t) exakt denselben Amplitudenfaktor A = 2Es /T wie das empfangene Nutzsignal besitzen.
7.3 Bin¨ ar¨ ubertragung mit Bandpasssignalen
277
in beiden Zweigen als 2Eb , so dass ein Vergleich mit (7.11) f¨ ur die bipolare ¨ Ubertragung auf die Bitfehlerwahrscheinlicheit *! + Eb 1 (7.71) Pb = erfc 2 2N0 f¨ uhrt. Bezogen auf die Energie pro bit ergibt sich also exakt dieselbe Bitfeh¨ lerwahrscheinlichkeit wie bei einer bipolaren Ubertragung (BPSK). Anmerkung: Man beachte allerdings, dass bei BPSK ein um f0 symmetrisches Bandpass-Nutzsignal entsteht. Auf Grund der Anwesenheit von Sinusund Kosinuskomponenten in jedem der m¨ oglichen QPSK-Tr¨ager si (t) ist das zugeh¨ orige ¨ aquivalente Tiefpasssignal siT (t) komplex, und das QPSKNutzsignal ist kein symmetrisches Bandpasssignal. Das BPSK-Signal k¨onn¨ te im Prinzip durch Ubertragung nur eines Seitenbandes mit der H¨alfte der Frequenzbandbreite u ur QPSK notwendig ist. Auf der ¨bertragen werden, die f¨ anderen Seite erfordern Einseitenbandempf¨ anger entweder zus¨atzliche Filter oder ebenfalls eine komplexe Signalverarbeitung. Daher stellt das QPSKPrinzip, bei dem die auf Grund der Symmetrie redundanten Frequenzen f¨ ur ¨ die Uberlagerung eines weiteren Signals genutzt werden, eine sehr elegante und ¨ okonomische L¨ osung dar. F¨ ur das beschriebene QPSK-Verfahren treten allerdings ebenso wie f¨ ur BPSK bei Phasen¨ anderungen der Gr¨oße π starke Schwankungen der Einh¨ ullenden des modulierten Signals m(t) auf, die insbeuhren k¨onnen. sondere zu unerw¨ unschten Frequenzanteilen weit ab von f0 f¨ Durch Verz¨ ogern des Tr¨ agersignals um T /2 in einem der beiden Unterkan¨ale l¨aßt sich dieser Effekt bei QPSK deutlich vermindern, da die Phase sich dann nur noch um maximal π/2 ¨ andert. Diese Variante wird Offset-QPSK (O-QPSK) genannt. Verwendet man die zusammenfassende Beschreibung von si (t) aus (7.68), so lassen sich die Konstellationen des Tr¨ agersignals auch allgemein definieren als si (t) = Re{siT (t)ej2πf0 t },
i = 0, 1, . . . , M − 1 ,
(7.72)
hier mit M = 4 und ¨ aquidistanten Phasenlagen von jeweils π/2 zwischen den Quadraturkomponenten der komplexen Tiefpass-Tr¨agersignale: t 1 jπ i+1/2 jθi 2 − siT (t) = sT (t)e = A rect , i = 0, . . . , M − 1 . e T 2 (7.73) Die m¨ oglichen Phasenkonstellationen lassen sich nun wie in Abb. 7.29 an¨ schaulich innerhalb eines Signalraums darstellen (vgl. hierzu Ubung 9.2). Bez¨ uglich der komplexwertigen siT (t) ist dieser Signalraum die von den beiden Quadraturkomponenten aufgespannte komplexe Ebene, bezogen auf das
278
7. Bin¨ ar¨ ubertragung
(-1,1)
-sin(2pf0t)
reellwertige Bandpasssignal si (t) bilden die Funktionen cos(2πf0 t)“ und ” − sin(2πf0 t)“ die orthogonalen Signalraumachsen. Die m¨oglichen Nutzsig” nale mit ihren Amplituden- und Phasenwerten k¨onnen dann als die Polarkoordinaten von Vektoren im Signalraum interpretiert werden, anschaulich erfolgt nur die Darstellung ihrer Endpunkte (im Folgenden als Nutzsignal” punkte“ bezeichnet). Bei einer Verteilung der Phasenlagen wie in (7.73) ergeben sich ¨ aquidistante Abst¨ ande zwischen den einzelnen Nutzsignalpunkten, die Phasenwinkel θi geben direkt ihre Winkellagen in der komplexen Ebene an. Hierbei ist es im Grunde irrelevant, ob die Betrachtung in Bezug auf die Bandpasssignale oder f¨ ur die ¨ aquivalenten Tiefpasssignale durchgef¨ uhrt wird. Die Abst¨ ande der Nutzsignalpunkte untereinander bzw. vom Ursprung wer√ den im Folgenden auf die Augenblicksleistung Sa am Entscheidereingang bei Empfang eines √ der Nutzsignale (bei QPSK sind deren Amplituden alle gleich) bezogen. Sa entspricht also hier der L¨ange jedes der Nutzsignalvektoren im Signalraum.
(1,1)
cos(2pf0t)
Sa
(-1,-1)
2Sa
am
am+1
i
1
1
0
-1
1
1
-1
-1
2
1
-1
3
(1,-1)
Abb. 7.29. Darstellung der QPSK-Nutzsignalpunkte f¨ ur (am , am+1 ) im Signalraum, sowie Zuordnungstabelle (am , am+1 ) → i
Unter der Annahme, dass in den beiden Quadraturkomponenten Gaußverteilte und auf Grund der Orthogonalit¨ at unkorrelierte Rauschst¨orungen wirken, ergeben sich die Streuungen um die zul¨assigen Nutzsignalpunkte im Signalraum als rotationssymmetrische Gauß- Glockenh¨ ullen“ (Abb. 7.30, vgl. ” auch Abschn. 6.7.2). Wenn alle Bitkonstellationen gleich h¨aufig sind, besitzen diese in der Gesamtverteilung identische H¨ohen. Die optimalen Entscheidungsgrenzen sind dann die Schnitte jeweils zweier benachbarter H¨ ullen. Im Fall rotationssymmetrischer Gauß-H¨ ullen mit gleichen Eigenschaften bilden die Schnittgrenzen im Signalraum Geraden, welche senkrecht und mittig auf den Verbindungsgeraden zwischen jeweils benachbarten Nutzsignalpunkten stehen; im Fall der QPSK sind dies genau die Koordinatenachsen. Das gesendete Symbol w¨ urde also gerade dann noch fehlerfrei erkannt, wenn der empfangene Signalwert noch im gleichen Quadranten liegt wie der ungest¨orte
7.3 Bin¨ ar¨ ubertragung mit Bandpasssignalen
279
(x -a1 Sa /2 )2 +(x 2 -a2 Sa /2 )2
1 - 1 e 2πN mit a1,a2 Î {-1,1}
p(a1,a2 ) (x1,x 2 ) =
x2
:N
2N
:N
Sa / 2
p(-1,1) (x1,x 2 ) :N
p(1,1) (x1,x 2 ) :N
- Sa / 2
Sa / 2
x1
- Sa / 2
p(-1,-1) (x1,x 2 )
p(1,-1) (x1,x 2 )
Abb. 7.30. Darstellung der Verteilungsdichte am Entscheidereingang f¨ ur den Fall gest¨ orten Empfangs bei QPSK
Nutzsignalpunkt des gesendeten Symbols. Dies entpricht auch exakt der Entscheidungsgrenze C = 0, wie sie typischerweise in beiden Zweigen der aus der Bipolar¨ ubertragung abgeleiteten Empf¨ angerstruktur in Abb. 7.28 verwendet wird. Das PSK-Prinzip kann nun auch auf mehr als 4 Phasenlagen erweitert werden, um die Anzahl der pro Zeiteinheit u ¨ bertragenen Bits weiter zu erh¨ohen. Sofern M unterschiedliche Phasenlagen des Tr¨agersignals zugelassen werden, ¨ kann die Ubertragungsrate einer Bin¨ ar¨ ubertragung u ¨ ber einen Bandpasskanal ¨ gegebener Bandbreite um den Faktor K=lb(M ) gegen¨ uber BPSK-Ubertragung erh¨ oht werden. Dieser verallgemeinerte Fall wird als M -wertige oder kurz M -PSK bezeichnet. Gesendet wird in jeder Taktperiode ein moduliertes Bandpass-Tr¨ agersignal, welches Information u ¨ber die Bin¨arsymbole aß (7.72) in einem von M = 2K m¨oglichen Nutzsigna(am , . . . , am+K−1 ) gem¨ len zusammenf¨ uhrt, wobei nun lediglich das ¨aquivalente Tiefpasssignal neu wie folgt definiert werden muss26 : t 1 j2πi/M jθi − , i = 0, 1, . . . , M − 1 . siT (t) = sT (t)e = A rect e T 2 (7.74) Hierbei ist wieder A = 2Es /T , und die Bedingung eines ganzzahligen Faktors f0 · T = p soll eingehalten werden. Da die Entscheidung im Empf¨anger insbesondere hinsichtlich benachbarter Nutzsignalpunkte kritisch ist, wird eine Gray-Codierung angewandt27 , so dass im Fall einer Fehlentscheidung 26
27
Die Offsetverschiebung der Phase (beim oben eingef¨ uhrten QPSK-Verfahren zus¨ atzlich um π/4) wird hier weggelassen. Die Gray-Codierung ist auch bei der oben beschriebenen QPSK implizit enthalten.
280
7. Bin¨ ar¨ ubertragung
i=2 (0,1,1)
i=3 (0,1,0)
i=1 (0,0,1)
Sa i=4 (1,1,0)
cos(2pf0t) (Re) i=7 (1,0,0) i=6 (1,0,1)
(1,0,1,0) (1,0,1,1)
(1,1,1,1)
(1,0,0,1)
Sa
(1,1,0,1) i=0 (0,0,0)
i=5 (1,1,1)
(1,1,1,0)
-sin(2pf0t) (Im)
-sin(2pf0t) (Im)
m¨ oglichst wenige Bin¨ arsymbole (Bits) gest¨ ort werden. Abb. 7.31 stellt hierzu die Nutzsignalkonstellationen einer 8-PSK und einer 16-PSK nebst den zugeordneten Bin¨ arsymbolkonfigurationen (am , . . . , am+K−1 ) dar.
(1,0,0,0) (0,0,0,0)
(1,1,0,0)
cos(2pf0t) (Re)
(0,1,0,0)
(0,0,0,1)
(0,1,0,1) (0,1,1,1)
(0,0,1,1) (0,0,1,0) (0,1,1,0)
Abb. 7.31. Konstellation einer 8-PSK und einer 16-PSK mit Gray-Codierung der Bin¨ arsymbole (am , . . . , am+K−1 )
Im allgemeinen Fall der M -PSK ist eine separate Entscheidung u ¨ ber die einzelnen mit einem Symbol gemeinsam u ¨ bertragenen Bits nicht mehr m¨oglich. Es w¨ are allerdings sehr aufw¨ andig, M Korrelationsfilter-Empf¨anger f¨ ur alle ur das Symbol si (t) parallel laufen zu lassen, um dann eine Entscheidung f¨ mit der maximalen Ausgangsamplitude zu treffen. Alternativ k¨onnen so genannte Entscheidungsbereiche im Signalraum festgelegt werden (vgl. hierzu Zusatz¨ ubung 9.2f,g). Unter der realistischen Voraussetzung, dass die Verteilungsdichte um alle Nutzsignalpunkte mit identischen, rotationssymetrischen Gauß-f¨ ormigen H¨ ullen streut, ergeben sich deren Grenzen wieder jeweils als die Mittelsenkrechten auf den Verbindungslinien der jeweils benachbarten Nutzsignalpunkte. Zur Illustration ist der nach außen offene Entscheidungsbereich f¨ ur das Symbol i = 3 im Signalraumdiagramm der 8-PSK in Abb. 7.31 eingezeichnet. Es gen¨ ugt daher, wie in Abb. 7.28 zwei Korrelationsfilter f¨ ur die beiden Quadraturkomponenten zu betreiben, aus deren Ausgangsamplituden zum Abtastzeitpunkt mittels einer arctan-Funktion die Winkellage zu bestimmen, und so die Zuordnung zum n¨ achstgelegenen Nutzsignalpunkt zu ermitteln. Bei Anwendung einer Gray-Codierung wie in Abb. 7.31 wird im Falle einer Fehlinterpretation zwischen den benachbarten Nutzsignalpunkten systematisch nur genau ein Bit gest¨ ort sein. Sofern das Es /N0 -Verh¨altnis nicht zu klein ist, wird damit die Wahrscheinlichkeit sehr groß, dass bei Auftreten eines Symbolfehlers nur ein einzelnes bit falsch ist. Der Minimalabstand benachbarter Vektoren, welcher als minimale Euklidische Distanz dmin bezeichnet wird, ergibt sich f¨ ur die M -PSK mit im Winkelabstand α = 2π/M
7.3 Bin¨ ar¨ ubertragung mit Bandpasssignalen
281
¨aquidistant verteilten Nutzsignalpunkten als dmin = (2 − 2 cos α)Sa . (7.75) / Es der komplement¨aren FehlerfunkDurch Normierung auf das Argument 8N 0 √ ¨ tion bei unipolarer Ubertragung (diese wird gew¨ahlt, weil dort dmin = Sa ) erh¨ alt man dann mit Nd = Anzahl der Nachbarn im Abstand dmin“, welche ” die Anzahl der Schnittbereiche bestimmt, eine Symbolfehlerwahrscheinlich28 keit ⎛4 ⎞ 2 E (d ) Nd min s ⎠ erfc ⎝ . (7.76) Pe ≈ 2 Sa 8N0 Unter den o.g. Voraussetzungen einer haupts¨achlichen Verf¨alschung zu benachbarten Nutzsignalpunkten und Gray-Codierung wird die Bitfehlerwahrscheinlichkeit um den Faktor K = lb(M ) kleiner als die Symbolfehler¨ wahrscheinlichkeit. Damit kann f¨ ur ein Ubertragungsverfahren die Bitfehlerwahrscheinlichkeit in Abh¨ angigkeit von der Energie pro u ¨ bertragenem bit Eb = Es /K ann¨ahernd wie folgt bestimmt werden: ⎛4 ⎞ 2 K ·E (d ) Nd min b ⎠ , erfc ⎝ Pb ≈ (7.77) 2K Sa 8N0 bzw. speziell f¨ ur M -PSK mit Nd = 2 und α = 2π/M in (7.75) ⎛4 ⎞ [1 − cos(2π/M )]lb(M )E 1 b ⎠ . erfc ⎝ Pb ≈ lb(M ) 4N0
(7.78)
Anmerkung: (7.77) f¨ uhrt auch f¨ ur die bisher behandelten Modulationsverfahren auf die bekannten Ergebnisse (7.6), (7.11), (7.21) und (7.71), die allerdings in diesen vier F¨allen, wie bereits gezeigt wurde, nicht nur Approximationen darstellen, sondern exakt sind. Es gilt insbesondere ¨ F¨ ur unipolare Ubertragung und ASK: dmin
28
1 = Sa , Nd = 1, Eb = Es /2, K = 1 ⇒ Pb = erfc 2
*!
Eb 4N0
+ ,
In modifizierter Form gilt(7.76) auch f¨ ur Tastverfahren mit mehreren Amplitudenpegeln, allerdings ist dort Nd in der Regel nicht f¨ ur alle Symbole gleich. Daher wird eine Mittelung der Symbolfehlerwahrscheinlichkeiten notwendig (vgl. (7.24)-(7.30)).
282
7. Bin¨ ar¨ ubertragung
¨ F¨ ur bipolare Ubertragung und BPSK: dmin
1 = 2 Sa , Nd = 2, Eb = Es , K = 1 ⇒ Pb = erfc 2
F¨ ur zwei wechselweise gesendete orthogonale Tr¨ager: dmin
1 = 2Sa , Nd = 1, Eb = Es , K = 1 ⇒ Pb = erfc 2
*!
*!
F¨ ur QPSK: dmin
1 = 2Sa , Nd = 2, Eb = Es /2, K = 2 ⇒ Pb = erfc 2
Eb 2N0
Eb 4N0
*!
+ , +
Eb 2N0
, +
Eine Erweiterung des QPSK-Prinzips in Hinblick auf eine noch gr¨oßere Anzahl von Bin¨ arsymbolen pro Zeiteinheit ist m¨oglich, wenn zus¨atzlich eine Amplitudentastung verwendet wird. So kann z.B. die in Abb. 7.15 gezeig¨ te Vierpegel-Ubertragung, die jeweils zwei Bin¨arsymbole am , am+1 auf ein ¨ Symbol bk abbildet, angewandt werden. Die Quadraturkomponenten-Ubertragung erfolgt dann f¨ ur jeweils zwei innerhalb einer Taktperiode der L¨ange T gleichzeitig gesendete, amplitudengetastete Symbole wie folgt: t 1 − si (t) = A rect [bk cos(2πf0 t)− bk+1 sin(2πf0 t)] , i = 0, 1, . . . , MA2 . T 2 (7.79) Es gibt z.B. bei MA = 4 Amplitudenpegeln insgesamt 16 m¨ogliche Amplitu¨ den-/Phasenkombinationen, so dass eine Ubertragung von 4 Bin¨arsymbolen pro Takt erfolgen kann. Die zugeh¨ origen Nutzsignalpunkte im Signalraum sind in Abb. 7.32a dargestellt. Eine solche Hybridl¨osung aus Phasen- und Amplitudentastung wird generell Quadratur-Amplitudenmodulation (QAM) genannt. Der hier gezeigte Fall einer Konstellation mit 16 verschiedenen Nutzsignalpunkten wird als 16-wertige QAM (16-QAM) bezeichnet. In Abb. 7.32b ist zus¨ atzlich die Konstellation einer 64-QAM (jeweils 8 Pegel -7,-5,-3,...,5,7) gezeigt. Generell k¨ onnen bei M -QAM mit M = MA2 K = lb(M ) = 2lb(MA ) Bin¨ arsymbole pro Takteinheit T u ¨ bertragen werden. Wird die bereits in Zusammenhang mit der Amplitudentastung verwendete Gray-Codierung separat auf die Symbole bk und bk+1 angewandt, so werden sich die horizontalen und vertikalen Nachbar-Nutzsignalpunkte jedes Symbols nur in genau einer Bitstelle unterscheiden. Da diese auch gleichzeitig achsten Nachbarn sind, kann die Berechnung die im Abstand dmin liegenden n¨ der Symbolfehlerwahrscheinlichkeiten wieder nach (7.76) erfolgen. Allerdings ist zu beachten, dass nicht alle Nutzsignalpunkte gleich viele Nachbarn im Abstand Nd besitzen. Am Beispiel der 16-QAM aus 7.32a sind die Anzahlen der Nachbarn f¨ ur die 4 Eckpunkte jeweils Nd = 2, f¨ ur die u ¨ brigen 8 Punkur die 4 mittleren Punkte Nd = 4. Die mittlere te am Rand Nd = 3 und f¨
.
7.3 Bin¨ ar¨ ubertragung mit Bandpasssignalen
283
√ Symbolfehlerwahrscheinlichkeit ergibt sich mit dmin = 2Sa entsprechend der H¨ aufigkeiten der einzelnen F¨ alle, ⎛4 ⎛4 ⎞ ⎞ ˜s ˜s E E 1 3 1 ⎠ = erfc ⎝ ⎠ . (7.80) [4 · 2 + 8 · 3 + 4 · 4] erfc ⎝ Pe ≈ 16 2 4N0 2 4N0 ˜s bezieht sich hier auf die 4 inneren Symbole, da deDie Symbolenergie E √ ren Augenblicksleistung Sa zur Normierung verwendet wurde. Die mittlere √ Energie pro bit ergibt sich dann entsprechend √ der Augenblicksleistung 9Sa f¨ ur die 4 Nutzsignalpunkte an den Ecken und 5Sa f¨ ur die u ¨brigen 8 Randpunkte 2 2 E ˜s 2 1 5 Eb = Sa + 8 · 5Sa + 4 · 9Sa 4· √ 2 = E˜s , 16 4 Sa so dass sich schließlich unter Ber¨ ucksichtigung der Gray-Codierung die gegen¨ uber (7.80) um den Faktor 4 geringere Bitfehlerrate ergibt: *! + 3 Eb Pb ≈ erfc . (7.81) 8 5N0 Ein Vergleich mit (7.34) zeigt auch, dass die Bitfehlerrate f¨ ur 16-QAM vollkommen identisch ist zu der bei einer Mehrpegel¨ ubertragung mit M = 4 Symbolen. Diese Fehlerrate w¨ urde sich n¨ amlich bei koh¨arentem Empfang ¨ auch ergeben, wenn man die BPSK-Ubertragung (z.B. nur cos-Tr¨ager) mit ¨ einer 4-Pegel¨ ubertragung kombiniert. Der Ubergang von dort zur 16-QAM ¨ entspricht dann genau dem weiter oben beschriebenen Prinzip des Ubergangs von BPSK zu QPSK, d.h. es kommt ein orthogonaler Sinustr¨ager hinzu, der im Prinzip vollkommen unabh¨ angig empfangen werden kann, weil alle Grenzen der Entscheidungsbereiche im Signalraum parallel zu den Koordinatenachsen verlaufen. Die Bitfehlerrate f¨ ur eine allgemeine M -QAM mit√regul¨arer K Anordnung der Nutzsignalpunkte wie in Abb. 7.32a,b und√ MA = M = 2 2 (Zweierpotenz) kann daher durch Ersetzen von M durch M in (7.34) wie folgt angegeben werden: + *4
3 lb(M ) Eb 2 1 Pb ≈ . (7.82) erfc 1− √ lb(M ) 4(M − 1) N0 M ¨ Abb. 7.33 stellt die Bitfehlerwahrscheinlichkeiten verschiedener Ubertragungsverfahren mit Symbolwertigkeiten M = 16 aus den Gleichungen (7.34), (7.78) und (7.81) gegen¨ uber. Man erkennt, dass die 16-QAM deutliche Vorteile gegen¨ uber den beiden anderen Verfahren besitzt. Dar¨ uber hinaus besitzt sie wegen der M¨ oglichkeit der unabh¨ angigen Demodulation und Decodierung der auf den beiden orthogonalen Tr¨ agern transportierten Bits den Vorteil einer geringeren Komplexit¨ at. Allerdings ist zu bedenken, dass die getroffenen
284
7. Bin¨ ar¨ ubertragung
a) (10,11) (00,11)
-sin(2pf0t)
-sin(2pf0t)
Absch¨ atzungen nur bei h¨ oheren Eb /N0 -Verh¨altnissen gelten, und dass sich bei 16-QAM weitere Nachbarn, bei denen Symbolfehler auf mehr als einen Bitfehler f¨ uhren, in deutlich geringerem Abstand als bei der 16-PSK befin¨ den. Die QAM ist daher generell f¨ ur eine Ubertragung u ¨ ber sehr schlechte Kan¨ ale weniger gut geeignet.
b)
(01,11) (11,11)
7
3
5
(10,01) (00,01) (01,01) (11,01) 1 -3
-1
Sa
3
3 cos(2pf0t)
1 -1
1 -7
-5
-3
-1
1
3
5
7 cos(2pf0t)
-1
(10,00) (00,00) (01,00) (11,00)
-3
-3
-5
-sin(2pf0t)
(10,10) (00,10) (01,10) (11,10)
-7
(0,1,1) c) (0,1,0)
Sa 2
(0,0,1) (0,0,0)
Sa
(1,1,0)
cos(2pf0t)
(1,0,0)
(1,1,1) (1,0,1)
Abb. 7.32. QAM-Konstellationen mit a M = 16, b M = 64, c M = 8; a) und c) mit Angabe einer Gray-Codierung
Anmerkung: Bitfehlerraten bei h¨ oherwertigen Modulationsverfahren, die auch f¨ ur geringe Eb /N0 -Verh¨ altnisse g¨ ultig sind, k¨onnen allerdings nicht mehr in einfacher geschlossener Form angegeben werden. Vielmehr m¨ ussen zun¨achst alle Entscheidungsbereiche ermittelt werden. F¨ ur jedes m¨ogliche Symbol w¨ aren dann diejenigen Volumen unter der am eigenen Nutzsignalpunkt liegenden 2-dimensionalen Gauß-Verteilungsdichte zu berechnen, die in jedem der anderen Entscheidungsbereiche liegen. Hieraus ergeben sich zun¨achst die Wahrscheinlichkeiten Pi,j , 1 ≤ i, j ≤ M , mit denen bestimmte Symbole i in
7.3 Bin¨ ar¨ ubertragung mit Bandpasssignalen
285
0
Pb 10
10
10
10
-2
a
-4
-6
c
b
-8
0
5
10
15
20
25
Eb/N0 [dB]
Abb. 7.33. Bitfehlerwahrscheinlichkeiten f¨ ur 3 verschiedenene Bin¨ ar¨ ubertragungs¨ verfahren mit M = 16: a 16-Pegel-Ubertragung b 16-PSK c 16-QAM
bestimmte andere Symbole j = i verf¨ alscht werden. Gewichtet mit der bei einer gew¨ ahlten Codierung dabei jeweils aufretenden Anzahl der Bitfehler erh¨ alt man schließlich die Bitfehlerrate. Die bisher besprochenen QPSK- und QAM-Verfahren verwenden regelm¨aßige Gitteranordnungen der Nutzsignalpunkte, und lassen eine separierbare Detektion der Symbole (am , am+1 ) bzw. (bk , bk+1 ) zu. Prinzipiell ist es jedoch auch m¨ oglich, bei QAM andere Kombinationen√von Amplitude und Phase zu w¨ ahlen, so dass insbesondere nicht bereits M eine Zweierpotenz sein muss. Abb. 7.32c stellt als Beispiel die Nutzsignalpunkte einer 8-QAM dar ¨ ¨ (vgl. auch Ubungen 7.26 sowie f¨ ur weitere Varianten Ubung 9.2h). Gezeigt ist auch hier wieder die Gray-Codierung zur Zuordnung der Bin¨arsymbole (am , am+1 , am+2 ). 7.3.8 Synchronisation In allen bisher besprochenen Empfangsschaltungen wurde stets die Existenz eines idealen Synchronisationssystems vorausgesetzt, das die f¨ ur ein ordnungsgem¨ aßes Zeitverhalten von Abtastern oder Oszillatoren notwendigen Steuersignale bereitstellt. Zeitfehler dieser Synchronisierung haben in der Regel Einfluss auf den Nutzsignalpegel und k¨onnen das Empfangsverhalten beliebig verschlechtern. Bei bekannter Verteilungsdichte der Abweichungen √ l¨asst sich jedoch Sa als Erwartungswert der Nutzsignalpegel ermitteln, und so mit den bekannten Verfahren die resultierende Bitfehlerrate bestimmen. Bei der Synchronisation im Empf¨ anger sind unterschiedliche Aufgaben zu erf¨ ullen:
286
7. Bin¨ ar¨ ubertragung
¨ – Die Tr¨agersynchronisation sorgt bei Ubertragung im Bandpassbereich f¨ ur die richtige Frequenz- und, besonders bei koh¨ arentem Empfang, richtige Phasenlage der im Empf¨ anger vorhandenen Oszillatoren. – Die Symbolsynchronisation – oder Taktsynchronisation – bestimmt die Abtastzeitpunkte. – Die Wort- oder Rahmensynchronisation dient der Rekonstruktion der Datenformate oder der einzelnen Kan¨ ale eines Multiplexsystems. Die effiziente Ausnutzung der verf¨ ugbaren Sendeleistung verbietet zumeist die ¨ Ubertragung eigener Synchronsignale f¨ ur die Tr¨ager- und Symbolsynchronisation. Diese Informationen m¨ ussen dann durch oft recht trickreiche Schaltungen dem empfangenen Datensignal entnommen werden. F¨ ur die Rahmensynchronisation werden dagegen h¨ aufig zus¨ atzliche Datensignale mit u ¨bertragen. Die besten Empfangsergebnisse erh¨ alt man, wenn der Empfang des Nutzsignals und der einzelnen Synchronsignale unter dem Kriterium minimaler Fehlerwahrscheinlichkeit gemeinsam optimiert wird. Die Analyse wie auch die Schaltungstechnik sind allerdings bei getrennter Behandlung erheblich einfacher. Hierzu seien im Folgenden einige Hinweise gegeben (Blahut, 1990). Tr¨ agersynchronisation Bei Verfahren mit unipolarer Modulation, wie ASK und FSK, enth¨alt das Leistungsdichtespektrum des empfangenen Signals bei der Tr¨agerfrequenz diskrete Anteile. Diese k¨ onnen mit einem schmalen Bandpass oder besser mit einem Phasenregelkreis herausgefiltert werden. Phasenregelkreise oder P hase” Locked-Loop“-Schaltungen (PLL) wirken wie sehr schmale Bandp¨asse mit selbst adaptierender Mittenfrequenz (Meyr, Ascheid, 1990). Bei bipolarer Modulation (BPSK) kann das Modulationssignal zun¨achst durch eine Quadrierung entfernt werden.29 Das sich (im st¨orfreien Fall) ergebende sin-f¨ ormige Referenzsignal doppelter Tr¨agerfrequenz dient dann zum Ansteuern eines Phasenregelkreises. Typischerweise wird dort mit einem Phasendifferenzdetektor die Phasenabweichung zwischen dem lokalen Oszillator und dem Referenzsignal in eine Steuerspannung umgesetzt, welche dann die Oszillatorfrequenz so nachregelt, dass die Abweichung verschwindet. Symbolsynchronisation Ein einfaches Schaltungsbeispiel zur Synchronisation der Abtastzeitpunkte f¨ ur ein unipolares Datensignal im Tiefpassbereich zeigt Abb. 7.34. 29
Die verbleibende Phasenzweideutigkeit von ±180◦ kann durch Anwenden der Phasendifferenztastung (Abschn. 7.3.1) umgangen werden. Bei M -PSK (mit M > 2) wird die Beseitigung des Modulationssignals durch mehrfaches Quadrieren erzielt.
7.3 Bin¨ ar¨ ubertragung mit Bandpasssignalen
287
Abb. 7.34. Schaltung zur Taktsynchronisation
Aus der ungest¨ orten Eingangsfolge in der Form ∞ t − nT 1 m(t) = − an rect an ∈ {0; 1} T 2 n=−∞
(7.83)
wird durch Differenzieren, Kurzzeitintegration und Betragsbildung die Folge30 ∞ t − nT v(t) = bn rect (7.84) bn ∈ {0; 1} T0 n=−∞ gewonnen. Abbildung 7.34 rechts zeigt das mit den Ergebnissen von Aufgabe 6.17 berechnete Leistungsdichtespektrum der Form ' ( ∞ 2 φvv (f ) = 0, 25(T0/T )2 si (πT0 f ) T + δ(f − n/T ) . (7.85) n=−∞
W¨ ahrend das Leistungsdichtespektrum φmm (f ) des Eingangssignals bei der Frequenz 1/T der Taktrate verschwindet, enth¨alt das Leistungsdichtespektrum der Folge v(t) dort einen diskreten Anteil. Dieser Anteil kann als cosf¨ ormiges Taktsignal w(t) mit einem schmalen Bandpassfilter herausgesiebt werden. Die sonstigen in den Durchlassbereich der Breite f∆ fallenden Komponenten des Leistungsdichtespektrums k¨ onnen als St¨orsignal aufgefasst werden, das ein Zittern ( jitter“) der Taktzeitpunkte zur Folge hat. Nach (6.33) ” 30
Sind die an voneinander unabh¨ angig und gleich h¨ aufig 0 oder 1, dann sind auch die bn gleich h¨ aufig 0 oder 1.
288
7. Bin¨ ar¨ ubertragung
errechnet sich die Nutzleistung des Synchronisationssignals w(t) durch Integration u ¨ber die entsprechenden Komponenten des Leistungsdichtespektrums (7.85) zu S = 2 · 0, 25(T0/T )2 si2 (πT0 /T ) .
(7.86)
Ebenso wird die St¨ orleistung N = 2 · 0, 25(T0/T )2 T
1/T +f∆ /2
1/T −f∆ /2
si2 (πT0 f )df ,
(7.87)
oder f¨ ur f∆ 1/T angen¨ ahert N ≈ 0, 5(T0 /T )2 T f∆ si2 (πT0 /T ) .
(7.88)
Damit wird das Signal-/St¨ orleistungsverh¨ altnis des Taktsignals 1 S ≈ . N T f∆
(7.89)
F¨ ur ein S/N -Verh¨ altnis von beispielsweise 30 dB darf also die Bandbreite f∆ des Bandpassfilters nur 1%0 der Taktrate 1/T betragen. Auch hier bieten sich daher Phasenregelkreise an, mit denen diese Forderung auch bei nichtkonstanter Taktrate erf¨ ullt werden kann. Rahmensynchronisation Da die Wort- oder Rahmentaktsignale nur jeweils recht große Gruppen von Symbolen unterteilen m¨ ussen, k¨ onnen hier ohne allzu große Verluste an ¨ Ubertragungskapazit¨ at eigene Synchronisationssignale verwendet werden. Zum st¨ orarmen Empfang der Synchronsignale aus dem Kanalrauschen und besonders auch den umgebenden Datensignalen sind KorrelationsfilterEmpf¨ anger in vielen F¨ allen nahezu optimal. Weiter soll das Synchronsignal am Ausgang des Korrelationsfilter-Empf¨ angers m¨oglichst schmal sein, um den Synchronisationszeitpunkt gut sch¨ atzen zu k¨onnen. Daraus folgt, dass derartige Synchronisationssignale eine Autokorrelationsfunktion in Form eines schmalen Impulses besitzen m¨ ussen. Beispiele geeigneter Signale sind die Barker-Folgen (Aufgabe 7.2 und 4.19) (Franks, 1980; L¨ uke, 1992).
7.4 Pulscodemodulation (PCM) In den vorhergehenden Teilen dieses Kapitels wurden im Wesentlichen Methoden vorgestellt, mit denen zweiwertige (bin¨ are) Quellensignale u ¨ ber gest¨orte Kan¨ ale u onnen. Erzeugt eine Quelle mehrwertige Digi¨ bertragen werden k¨ talsignale, dann k¨ onnen diese durch Umcodieren stets in die bin¨are Form
7.4 Pulscodemodulation (PCM)
289
gebracht und dann u ¨ bertragen werden. Wie im Folgenden beschrieben wird, ist diese Methode nicht auf digitale Quellensignale beschr¨ankt, sondern kann ¨ auch zur Ubertragung analoger, also wert- und zeitkontinuierlicher Quellensignale verwendet werden. Die hierzu notwendige, nicht fehlerfrei m¨ogliche Umwandlung der wertkontinuierlichen in wertdiskrete Signale wird Quanti¨ Pulscodemodulation sierung 31 genannt, das gesamte Ubertragungsverfahren (PCM).32 Im Vergleich mit den im n¨ achsten Kapitel zu besprechenden analogen Modulationsverfahren weisen die PCM-Verfahren eine Reihe von Vorteilen auf. ¨ So kann der Einfluss von Ubertragungsfehlern wegen des Schwelleneffektes ¨ der Fehlerfunktion (Abschn. 6.4.4) bei diskreten Ubertragungsmethoden sehr ¨ gering gehalten werden. Dies gilt sogar f¨ ur praktisch beliebig lange Ubertragungsstrecken, wenn in geeigneten Abst¨ anden die Tr¨agersignale durch Optimalempf¨ anger empfangen und neu ausgesendet werden (Repeatertechnik, Aufgabe 7.22). Weiter k¨ onnen die Bin¨ arsignale in einfacher Weise durch fehlerkorrigierende oder kryptografische Codes gesch¨ utzt werden. Die Bedeutung ¨ der PCM in einem digitalen Netz f¨ ur die gemeinsame Ubertragung diskreter und analoger Quellensignale wurde zu Anfang des Kap. 7 schon erw¨ahnt. Dar¨ uber hinaus bieten aber noch Verfahren der Datenkompression (Quellencodierung) die M¨ oglichkeit zu einer weitergehenden Reduktion der Datenrate. 7.4.1 Verfahren der Pulscodemodulation Bei dem Verfahren der Pulscodemodulation (PCM) wird ein wert- und zeitkontinuierliches Quellensignal, beispielsweise ein Sprach- oder Videosignal, in eine Folge von Bin¨ arzahlen umgesetzt. Diese Bin¨arzahlen k¨onnen dann mit den beschriebenen Methoden der Digitaltechnik u ur ¨ bertragen werden. Die f¨ diese Umwandlung erforderlichen Schritte sind in Abb. 7.35 dargestellt. In einem ersten Schritt wird das als bandbegrenzt angenommene Quellensignal f (t) unter Ber¨ ucksichtigung des Abtasttheorems abgetastet. Im zweiten Schritt werden die Abtastwerte f (nT ) gerundet, im Bildbeispiel auf den n¨achstliegenden ganzzahligen Amplitudenwert fQ (nT ). Dieser Rundungsvorgang wird auch als Quantisierung bezeichnet. Es ist sofort einsichtig, dass diese Rundung nicht mehr r¨ uckg¨ angig gemacht werden kann33 , es entsteht f¨ ur jeden Abtastwert ein Rundungs- oder Quantisierungsfehler der absoluten Gr¨ oße fD (nT ) = fQ (nT ) − f (nT ) , 31 32
33
(7.90)
S. Abb. 3.1. Zuerst angewandt um 1914 von dem dt. Physiker Arthur Korn (1870–1945) zur Halbtonbild¨ ubertragung mit 5 stelligem Bin¨ arcode, dann 1938 zur Sprach¨ ubertragung von dem engl. Ingenieur Alec H. Reeves vorgeschlagen (Anhang zum Literaturverzeichnis). Die Quantisierungskennlinie ist keine reversible Abbildungsfunktion (vgl. Abschn.6.7.1).
290
7. Bin¨ ar¨ ubertragung
Abb. 7.35. Bildung des pulscodemodulierten Signals
der ebenfalls in Abb. 7.35 dargestellt ist. In einem dritten Schritt k¨onnen die gerundeten Abtastwerte in eine endliche Bin¨arzahl umcodiert werden. Im Beispiel Abb. 7.35 gen¨ ugt zur Darstellung der vier Quantisierungsstufen eine zweistellige Bin¨ arzahl, wobei beispielsweise zur Konstruktion der in der unteren Zeile von Abb. 7.35 dargestellten Folge von Bin¨arzahlen die in der folgenden Tabelle dargestellte Zuordnung gew¨ahlt wird. Quantisierungsstufe
Bin¨ arzahl
0 1 2 3
00 01 10 11
Das so gewonnene digitale Signal kann mit einer der in Abschn. 7.2 oder 7.3 ¨ beschriebenen Methoden u ¨ bertragen werden. Ein PCM-Ubertragungssystem ist also prinzipiell nach dem Schema in Abb. 7.36 aufgebaut. Im Sender wird das PCM-Signal in den beschriebenen drei Schritten Abtasten, Quantisieren und Codieren gebildet; die Kombination von Quantisierer und Codierer wird auch Analog-Digitalumsetzer genannt. Das PCMSignal wird dann mit digitalen Methoden u ¨ bertragen und beispielsweise von einem Korrelationsfilter-Empf¨ anger empfangen. Die am Ausgang dieses Empf¨ angers abgegebene Bin¨ arsignalfolge wird in einem Decodierer, auch Digital-Analogumsetzer genannt, in die quantisierten Abtastwerte zur¨ uckverwandelt und diese in einem Tiefpass zu dem Ausgangssignal fe (t) interpoliert. Dieses Ausgangssignal ist gegen¨ uber dem Quellensignal f (t) durch den ¨ Einfluss der Quantisierungsfehler und der Ubertragungsfehler verf¨alscht. Das ¨ Fehlerverhalten der PCM-Ubertragung soll nun genauer betrachtet werden.
7.4 Pulscodemodulation (PCM)
291
¨ Abb. 7.36. Schema eines PCM-Ubertragungssystems
7.4.2 Quantisierungsrauschen Der Rundungsvorgang der Abtastwerte, den die Quantisierung darstellt, kann durch die Quantisierungskennlinie beschrieben werden, wie sie in Abschn. 6.7.1 eingef¨ uhrt wurde. Sie gibt die Amplitude der quantisierten Abtastwerte fQ (nT ) in Abh¨ angigkeit von der Abtastwertamplitude f (nT ) am Eingang des Quantisierers wieder. Der nutzbare Teil der Quantisierungskennlinie (vgl. Abb. 6.23) sei auf einen Amplitudenbereich der Breite Amax begrenzt, jenseits dieses Bereiches ¨ beginnen die Bereiche der Ubersteuerung, die aber hier vernachl¨assigt werden sollen. Ein Eingangssignal im Amplitudenbereich des Quantisierers wird ormige Amplitudenstufen quantisiert. Zur codierten Darin Amax /∆ gleichf¨ stellung dieser Amplitudenstufen ist dann eine Bin¨arzahl mit der Anzahl von Stellen Amax K ≥ lb bit (7.91) ∆ erforderlich.34 Das in (7.90) definierte Quantisierungsfehlersignal fD (nT ) kann als St¨orsignal aufgefasst werden, das bei Addition zu den ungest¨orten Abtastwerten f (nT ) die quantisierten Werte fQ (nT ) ergibt. Nach Interpolation der Abtastwerte durch den Tiefpass am Ausgang eines PCM-Systems l¨asst sich ¨ jetzt also das Ausgangssignal fe (t) bei sonst fehlerfreier Ubertragung als Summe aus dem ungest¨ orten Quellensignal f (t) und dem sogenannten Quantisierungsrauschen fD (t) beschreiben. Das Nutz-/St¨orleistungsverh¨altnis dieser St¨ orung wird im Folgenden berechnet. Hierzu wird zun¨ achst die Zufallsgr¨ oße fD (nT ) betrachtet. Unter der Annahme, dass bei gen¨ ugend kleiner Quantisierungsstufenbreite ∆ die Zufalls34
Vgl. Fußnote 9, Abschn. 7.2.7.
292
7. Bin¨ ar¨ ubertragung
gr¨ oße f (nT ) des Signals f (t) eine innerhalb der Breite ∆ jeweils n¨aherungsweise konstante Verteilungsdichtefunktion besitzt und dass die Quantisierungskennlinie nicht u ¨ bersteuert wird, kann fD (nT ) als gleichverteilt angesehen werden (Abb. 7.35) mit der Verteilungsdichtefunktion35 q 1 rect . (7.92) pfD (q) = ∆ ∆ Mit der Leistung einer gleichverteilten Zufallsgr¨oße nach (6.72) hat der Quantisierungsfehler dann die Augenblicksleistung Nq = E
2
3
fD2 (nT )
∆/2
1 = ∆
q 2 dq =
∆2 . 12
(7.93)
−∆/2
Die St¨ orleistung w¨ achst also quadratisch mit der Quantisierungsstufenh¨ohe. Das Nutzsignal sei Musterfunktion eines gleich verteilten, ergodischen Prozesses mit Mittelwert 0. Der verf¨ ugbare Amplitudenbereich werde voll ausgenutzt. Als Leistung und damit auch Augenblicksleistung Sa dieses Prozesses ergibt sich dann Sa = A2max /12 .
(7.94)
Setzt man nach (7.91) Amax = ∆ · 2K in (7.94) ein, dann ist das Verh¨altnis der Nutz-/St¨ oraugenblicksleistung also Sa (∆2K )2 /12 = 22K = Nq ∆2 /12
(7.95)
oder im logarithmischen Maß 10 lg(Sa /Nq ) ≈ K · 6 dB .
(7.96)
Jede Verdoppelung der Stufenzahl des Quantisierers erfordert ein Bit mehr zur Codierung und verbessert damit das Sa /Nq -Verh¨altnis um etwa 6 dB. Es ist auch m¨ oglich, die f¨ ur ein gefordertes Sa /Nq -Verh¨altnis minimal notwendige Bitanzahl anzugeben36 K≥
1 lb(Sa /Nq ) . 2
(7.97)
Die Abtastwerte mit dem erzielten Sa /Nq -Verh¨altnis werden am Ausgang des PCM-Empf¨ angers in einem Tiefpass der Grenzfrequenz fg = 1/(2T ) zu dem Ausgangssignal fe (t) interpoliert. Man kann nun zeigen, dass die Leistung 35
36
Zur allgemeinen Bestimmung der Verteilungsdichte ohne die hier genannten Einschr¨ ankungen s. Abschn. 6.7.1. Im Prinzip sind rationale, positive Werte f¨ ur K w¨ ahlbar, wenn mehrere Abtastwerte zusammengefasst codiert werden.
7.4 Pulscodemodulation (PCM)
293
eines aus Abtastwerten interpolierten Signals proportional zur Leistung der Abtastwerte ist (entsprechend zu Abschn. 4.6). Damit gilt das Augenblicksleistungsverh¨ altnis (7.96) auch f¨ ur das Verh¨ altnis der Leistungen von Nutzsignal f (t) und Quantisierungsrauschen fD (t) im Ausgangssignal fe (t). Die in Abb. 6.23a dargestellte, gleichf¨ ormig gestufte Quantisierungs-Kennlinie ergibt nur f¨ ur gleichverteilte Eingangssignale, deren Amplitudenbereich mit dem des Quantisierers u ¨ bereinstimmt, einen minimalen Quantisierungsfehler. Reale Signale verhalten sich in dieser Beziehung ung¨ unstiger. Besonders Sprachsignale haben eine Verteilungsdichtefunktion, die in der Umgebung des Nullpunktes ein hohes Maximum aufweist. Zur Anpassung stuft man in diesen F¨allen die Quantisierungskennlinie derartig, dass Signalanteile mit geringen Amplitudenwerten feiner quantisiert werden. Ein Verfahren zur Berechnung eines optimalen Quantisierers, der bei beliebig verteilten Eingangssignalen jeweils die minimale Quantisierungsfehlerleistung liefert, wird ¨ in Ubungen 9.6 behandelt. Zur Quantisierung von Sprachsignalen großer Dynamik werden zumeist logarithmisch gestufte Quantisierer verwendet. Hiermit erfolgt eine Kompandierung (vgl. Abschn. 6.7.1) mit dem Ziel einer Unterdr¨ uckung des Quantisierungsrauschens bei geringen Signalamplituden. Bei hohen Signalamplituden entstehen dabei zwar gr¨ oßere Quantisierungsfehler, was sich aber auf Grund h¨orphysiologischer Verdeckungseffekte nicht nachteilig auswirkt. ¨ 7.4.3 Ubertragungsfehler in PCM-Systemen Neben dem Quantisierungsrauschen sind als zweite St¨orursache Fehler bei ¨ der Ubertragung des PCM-Signals u ¨ ber gest¨orte Kan¨ale zu betrachten. Es wird zun¨ achst vorausgesetzt, dass der durch Rauschst¨orungen im Kanal verursachte falsche Empfang eines Bin¨ arsignals eine so geringe Wahrscheinlichkeit Pe hat, dass ein solcher Fehler fast immer nur eine einzige Stelle in einer der u arzahlen betrifft. Die empfangenen ¨ bertragenen K-stelligen Bin¨ Bin¨ arzahlen werden also mit einer Wahrscheinlichkeit K·Pe falsch sein und vom Decodierer in einen falschen Abtastwert u ¨ bersetzt werden. Die relative Leistung dieser Abtastwertfehler soll nun berechnet werden. Dazu wird angenommen, dass eine Codierungszuordnung wie in Abschn. 7.4.1 verwendet wird. In dieser Zuordnung verursacht ein Fehler in der letzten Stelle des Bin¨ arwortes nach der Decodierung einen Amplitudenfehler der Gr¨oße ∆, ein Fehler in der vorletzten Stelle einen Amplitudenfehler von 2∆, dann 4∆ usw.37 Der mittlere quadratische Amplitudenfehler eines Abtastwertes ergibt sich also bei einer beliebig liegenden falschen Ziffer in der decodierten Bin¨ arzahl aus der Summe der geometrischen Reihe (vgl. Kap. 3 Fußnote 13) 37
Das hier angenommene Auftreten von Einzelfehlern stellt tats¨ achlich den ung¨ unstigsten m¨ oglichen Fall dar, da bei mehreren Fehlern innerhalb eines PCMSymbols unterschiedliche Vorzeichen der Fehler, und damit zumindest teilweise gegenseitige Ausl¨ oschungen m¨ oglich sind.
294
7. Bin¨ ar¨ ubertragung
1 2 1 ∆2 2K [∆ + (2∆)2 + (4∆)2 + . . . + (2K−1 ∆)2 ] = (2 − 1) . K K 3 Da dieser Fehler nur jeden 1/(K · Pe )-ten Abtastwert betrifft, liegt am Ausgang des PCM-Systems eine Augenblicksst¨ orleistung von 2 3 1 ∆2 2K ∆2 2K NPe = E fP2e (nT ) = K · Pe (2 − 1) ≈ Pe 2 . K 3 3
(7.98)
Bezieht man wieder die St¨ orung wie in (7.96) auf ein gleichverteiltes Nutzsig¨ nal der Leistung Sa , dann ergibt sich am Ausgang des PCM-Ubertragungssystems ein Nutz-/St¨ orleistungsverh¨ altnis von 1 (∆2K )2 Sa 1 12 = = NPe 4Pe ∆2 2K Pe 2 3
(Pe 0, 5) .
(7.99)
¨ Da die durch Quantisierung und durch Ubertragungsfehler verursachten St¨ orsignale n¨ aherungsweise unabh¨ angig voneinander sind, k¨onnen ihre Leistungen addiert werden. Damit gilt f¨ ur das resultierende Nutz-/St¨orleistungs¨ verh¨ altnis einer PCM-Ubertragung Sa 1 Sa = = −2K . N Nq + NPe 2 + 4Pe
(7.100)
altnis am Ausgang des PCM-Systems u In Abb. 7.37 ist dieses Sa /N -Verh¨ ¨ ber dem die Fehlerwahrscheinlichkeit Pe bestimmenden Es /N0 -Verh¨altnis am Eingang des PCM-Empf¨ angers dargestellt. Parametriert ist mit der Stellenzahl K der f¨ ur jeden Abtastwert u ¨ bertragenen Bin¨arzahl. Weiter werden zur Berechnung der Fehlerwahrscheinlichkeit Pe als Funktion von Es /N0 die bei¨ den Beziehungen (6.106) f¨ ur unipolare und (7.11) f¨ ur bipolare Ubertragung 38 benutzt . ¨ Das Sa /N -Verh¨ altnis am Ausgang eines PCM-Ubertragungssystems ist also durch ein sehr deutliches Schwellenverhalten gekennzeichnet. Verringert ¨ altnis im Ubertragungskanal, dann verschlechtert sich man das Es /N0 -Verh¨ ¨ unterhalb einer Schwelle, die je nach Ubertragungsverfahren im Bereich um 15–20 dB liegt, das St¨ orverhalten sehr schnell. Praktisch macht sich diese Verschlechterung bei Sprach¨ ubertragung durch ein fast pl¨otzliches Auftreten ¨ krachender Ger¨ ausche bemerkbar, die durch die einzelnen Ubertragungsfehler verursacht werden. PCM-Systeme werden daher immer oberhalb dieser Schwelle betrieben. In diesem Bereich sind praktisch nur noch die von der ¨ Ubertragungsstrecke unabh¨ angigen Quantisierungsst¨orungen vorhanden. Bei 38
Hierbei bleibt wegen des Auftrags u achst unber¨ ucksichtigt, dass ¨ ber Es /N0 zun¨ ¨ die unipolare Ubertragung weniger Energie pro bit ben¨ otigt, und dass bei Erh¨ ohung von K mehr Energie pro Zeiteinheit aufzuwenden ist. Eine weitere Diskussion, die diese Effekte ebenfalls ber¨ ucksichtigt, erfolgt in Abschn. 8.4.8.
7.4 Pulscodemodulation (PCM)
295
K K K
s
¨ Abb. 7.37. St¨ orverhalten einer PCM-Ubertragung
Erh¨ ohen der Stufenzahl des Quantisierers und entsprechender Erh¨ohung der Stellenzahl K der u arzahlen verbessert sich dieser St¨orab¨bertragenen Bin¨ stand um jeweils 6 dB pro Stelle, er kann also bei entsprechendem Aufwand beliebig groß werden. Diese Verbesserung muss aber mit einer Erh¨ohung der ¨ Ubertragungsbandbreite erkauft werden: Tastet man ein Quellensignal der Grenzfrequenz fg mit der Rate 2fg ab und codiert jeden Abtastwert in ein K-stelliges Bin¨arsignal um, dann m¨ ussen diese Bin¨ arsignale mit einer Rate von r = K · 2fg
(7.101)
u ¨bertragen werden. Da man nach Abschn. 7.2.2 u ¨ ber einen Kanal der Grenzfrequenz fg,K h¨ochstens mit der Nyquist-Rate r = 2fg,K u ¨ bertragen kann, ergibt die Gleichsetzung mit (7.101) einen Mindestwert von fg,K = K · fg . Das Verh¨ altnis der Bandbreite des modulierten Sendesignals f∆ zur Grenzfrequenz des Quellensignals fg wird auch Bandbreitedehnfaktor β eines Modulationsverfahrens genannt: β = f∆ /fg .
(7.102)
Der Bandbreitedehnfaktor eines PCM-Systems hat dann mindestens einen Wert von βPCM =
Kfg =K . fg
(7.103)
¨ In praktischen PCM-Ubertragungssystemen sind zu einer guten Sprach¨ ubertragung oder Bild¨ ubertragung etwa K = 8 bit/Abtastwert ausreichend. Die ¨ Ubertragung beispielsweise von Fernsprechsignalen, die mit einer Rate von 8 kHz abgetastet werden, erfordert dann eine Bin¨ar¨ ubertragungsrate von r = 8 kHz · 8 bit = 64 kbit/s.
296
7. Bin¨ ar¨ ubertragung
7.4.4 PCM-Codierung mit Ged¨ achtnis ¨ Die zur Ubertragung oder Speicherung eines digitalisierten Signals bei vorgegebenem Quantisierungsfehler notwendige Datenmenge l¨asst sich in vielen F¨ allen deutlich verringern, wenn die statistischen Bindungen zwischen benachbarten Abtastwerten ber¨ ucksichtigt werden. Als Beispiel einer solchen Quellencodierung wird hier die Differenz-Pulscodemodulation (DPCM) betrachtet. Sender und Empf¨anger dieses Verfahrens zeigt Abb. 7.38. Im Sender wird von dem abgetasteten Eingangswert f (n) ein aus den vorhergehenden Abtastwerten bestimmter Wert fˆ(n) subtrahiert, so dass die Differenz (Pr¨ adiktionsfehler) d(n) = f (n) − fˆ(n)
(7.104)
eine m¨ oglichst geringe Streuung (Augenblicksleistung) besitzt; fˆ(n) wird daher als der Vorhersagewert (Pr¨ adiktionswert) bezeichnet. Ein nachfolgender Quantisierer mit PCM-Codierer erzeugt dann das DPCM-Signal m(t).
Abb. 7.38. Sender und Empf¨ anger eines DPCM-Systems
Mit Ber¨ ucksichtigung des Quantisierungsfehlers q(n) liegt am Eingang des Filters F im Sender das Signal d(n) + q(n). Hierzu wird im Filter F der Vorhersagewert fˆ(n) addiert, so dass am Eingang des Pr¨adiktors (Vorhersagefilters) P folgende Summe erscheint: fe (n) = [d(n) + q(n)] + fˆ(n) oder mit (7.104) fe (n) = [f (n) − fˆ(n) + q(n)] + fˆ(n) = f (n) + q(n) ,
(7.105)
7.4 Pulscodemodulation (PCM)
297
also das Eingangssignal, welches aber mit den bei gegebener Quantisierungsstufenzahl i. Allg. deutlich geringeren Quantisierungsfehlern des leistungs¨armeren Differenzsignals behaftet ist. Der Pr¨ adiktor P bildet schließlich aus diesem Signal den Vorhersagewert fˆ(n). Der Empf¨ anger enth¨ alt zur Rekonstruktion des Ausgangssignals das mit dem Filter des Senders identische Filter F. Der Pr¨adiktor darf dabei ausschließlich vorangegangene Abtastwerte zur Pr¨adiktion verwenden, denn nur diese liegen dem Empf¨ anger bereits vor. Bei fehlerfreier Bin¨ardaten¨ ubertragung erscheint schließlich am Ausgang des Addierers im Filter F das Signal nach (7.105) fe (n) = f (n) + q(n) ,
(7.106)
das dann im Ausgangstiefpass zu dem Empfangssignal fe (t) interpoliert werden kann. Dadurch, dass im Sender das quantisierte Signal zur Bildung des Vorhersagewertes benutzt wird, kann trotz der rekursiven Struktur des Empfangsfilters eine Fortpflanzung von Quantisierungsfehlern vermieden werden, d. h. der Mittelwert des Quantisierungsfehlers strebt gegen Null. Im Grenzfall arbeitet die DPCM sogar noch bei einer nur zweistufigen Quantisierung (− 5 harten Begrenzung) des Differenzsignals d(n). Um die Fehler hierbei immer noch klein zu halten, muss allerdings stark u ¨berabgetastet werden. Dieses ¨ Verfahren wird Deltamodulation genannt (Ubungen 9.5). Der Pr¨ adiktor ist im einfachsten Fall ein Laufzeitelement der Laufzeit T = 1, der Vorhersagewert ist dann bis auf den Quantisierungsfehler gleich dem letzten Abtastwert. Eine Verbesserung der Vorhersage ist m¨oglich, wenn als Pr¨ adiktoren Transversalfilter benutzt werden, die den Vorhersagewert als gewichtete Summe u ¨ber mehrere vorhergehende Abtastwerte bilden. Der Gewinn der DPCM sei an einem einfachen Beispiel gezeigt: Die Signalquelle erzeuge ein station¨ ares, gleichanteilfreies, Gauß-verteiltes Signal f (n) der Leistung σf2 und der Autokovarianzfunktion µf f (m). Bei zun¨achst ged¨ achtnisfreier, linear gestufter Quantisierung im Amplitudenbereich ±3σf erh¨ alt man als Quantisierungsfehlerleistung (Aufgabe 7.25) Nq = 3σf2 2−2K .
(7.107)
Benutzt man nun in einem DPCM-Verfahren als einfachsten Voraussagewert den mit einem Koeffizienten h multiplizierten Vorwert, dann ist die Differenz (bei Vernachl¨ assigen des Quantisierungsfehlers in fˆ(n) gegen den Vorhersagefehler) d(n) = f (n) − fˆ(n) = f (n) − h · f (n − 1).
(7.108)
Diese Differenz ist ebenfalls Gauß-verteilt mit der Leistung 2 3 2 3 2 3 σd2 = E d2 (n) = E f 2 (n) − 2hE {f (n)f (n − 1)} + h2 E f 2 (n − 1) = σf2 − 2cµf f (1) + h2 σf2 .
(7.109)
298
7. Bin¨ ar¨ ubertragung
Durch Ableiten ergibt sich die Bedingung f¨ ur den optimalen Koeffizienten h, welcher die Leistung des Pr¨ adiktionsfehlers minimiert, dσd2 = −2µf f (1) + 2hσf2 = 0 . dh Es folgt der optimale Pr¨ adiktorkoeffizient hopt =
µf f (1) , σf2
(7.110)
(7.111)
woraus sich durch Einsetzen in (7.109) schließlich die minimal m¨ogliche Leistung des Pr¨ adiktionsfehlers ergibt : ⎡ +2 ⎤ * (1) µ ff ⎦ σd2 = σf2 ⎣1 − (7.112) σf2 Die zugeh¨ orige Quantisierungsfehlerleistung nach (7.107) wird also um den Faktor 1 − (µf f (1)/σf2 )2 verringert. Der hierzu reziproke Faktor, das Verh¨altnis σf2 /σd2 , wird auch als Pr¨adiktionsgewinn bezeichnet. Die Luminanzkomponente von Fernsehbildsignalen wird bei einer nor¨ malen PCM-Ubertragung mit einer Abtastrate r = 10 MHz abgetastet und mit 8 bit/Abtastwert codiert. Bei dieser Abtastrate besitzen horizontal benachbarte Bildpunkte typischerweise eine normierte Autokovarianz von µf f (1)/σf2 ≈ 0, 97. Damit wird durch diese einfachste Form der Differenzcodierung die Quantisierungsfehlerleistung um (1 − 0, 972) = 5 −12, 3 dB vermindert. Da die Nutzsignalleistung nach (7.106) die gleiche wie bei ged¨achtnisfreier Codierung ist, wird auch das Verh¨ altnis Sa /Nq um mehr als 12 dB verbessert. Alternativ k¨ onnte bei gleichem St¨orabstand die Anzahl von Bin¨ arwerten/Abtastwert gem¨ aß (7.96) um ca. 12 dB/(6 dB/bit) ≈ 2 bit, also auf ca. 6 bit/Abtastwert vermindert werden. Wird zus¨atzlich eine Pr¨adiktion in vertikaler Richtung ausgef¨ uhrt, so l¨ asst sich ein weiterer Gewinn realisieren, der sich aus der Autokovarianz zwischen den Bildpunkten in untereinander liegenden Zeilen ergibt. ¨ Ahnliche Pr¨adiktionsverfahren werden auch in der Sprachcodierung, dort meist unter Verwendung von Pr¨ adiktorfiltern mit l¨angerer Impulsantwort und signaladaptiv, verwendet. Bei der Kompression von Videosignalen wird eine bewegungskompensierte Pr¨ adiktion beispielsweise in den MPEG-Standards eingesetzt, bei der das Pr¨ adiktorfilter jeweils so adaptiert wird, dass der ¨ahnlichste Bereich des zeitlichen Vorg¨ angerbildes zur Vorhersage verwendet wird (Ohm, 2004).
7.5 Zusammenfassung Dieses Kapitel verfolgte zwei Ziele. Einmal wurde eine erste Einf¨ uhrung in ¨ die zur Ubertragung digitaler Signale verwendeten Prinzipien gegeben. Da-
7.6 Anhang: Rice-Verteilung
299
bei sollten vor allem die in den vorangegangenen Kapiteln gelegten Grundlagen der Signal- und Systemtheorie auf praktische Probleme der Signal¨ ubertragung angewandt und weiter ausgebaut werden. Unter diesem Gesichts¨ punkt wurden die behandelten Ubertragungssysteme mit einem oder mehreren Tr¨ agersignalen im Tiefpass- und im Bandpassbereich konsequent aus dem Korrelationsfilterkonzept entwickelt. Die abschließend diskutierte Pulscodemodulation zeigt, wie auch analoge (wertkontinuierliche) Quellensignale ¨ nach Abtastung und Quantisierung mit den Verfahren der digitalen Ubertragungstechnik u onnen und wie das St¨orverhalten einer ¨bermittelt werden k¨ ¨ solchen Ubertragung berechnet werden kann.
7.6 Anhang: Rice-Verteilung Gegeben sind zwei statistisch unabh¨ angige, Gauß-verteilte Zufallsgr¨oßen s(t1 ) und g(t1 ) mit gleicher Streuung σ 2 , aber unterschiedlichen Mittelwerten ms = c cos(θ) mg = c sin(θ) . Aus beiden Zufallgr¨ oßen wird eine neue Zufallsgr¨oße gebildet durch / k u(t1 ) = + ks2 (t1 ) + kg 2 (t1 ) (alle k) und nach ihrer Verteilung gefragt. Die Verbundverteilungsfunktion Pu (r) ergibt sich, entsprechend dem Vorgehen in Abschn. 6.4.1 durch Integration u ¨ ber die Verbundverteilungsdichtefunktion psg (x, y) in dem kreisf¨ ormigen Gebiet r ≤ + x2 + y 2 . Die Auswertung dieses Gebietsintegrals gelingt am einfachsten nach Umschreiben der Verbundverteilungsdichtefunktion in Polarkoordinaten. Die Verteilungsdichtefunktion psg (x, y) lautet nach (6.86) und (6.92) psg (x, y) = ps (x) · pg (y) 1 = √ exp[−(x − c cos θ)2 /(2σ 2 )] 2πσ 2 1 ·√ exp[−(y − c sin θ)2 /(2σ 2 )] . 2πσ 2 Mit der Substitution y = r sin α x = r cos α
300
7. Bin¨ ar¨ ubertragung
und dem Additionstheorem cos α cos θ + sin α sin θ = cos(α − θ) wird psg (r, α) =
1 exp{−[r2 + c2 − 2rc cos(α − θ)]/(2σ 2 )} 2πσ 2
f¨ ur r ≥ 0 .
Nach den Regeln f¨ ur Gebietsintegrale gilt dann f¨ ur die Fl¨ache unter dieser Verteilungsdichtefunktion in einem kreisf¨ ormigen Gebiet mit dem Radius r um den Nullpunkt und damit f¨ ur die Verteilungsfunktion Pu (r) 2πr Pu (r) =
psg (, α)ddα 0
0
1 = 2πσ 2
2πr exp{−[2 + c2 − 2c cos(α − θ)]/(2σ 2 )} d dα . 0
0
Zur Bildung der Verteilungsdichtefunktion wird dieser Ausdruck unter dem Integral nach r differenziert d Pu (r) dr 2π 1 = r exp{−[r2 + c2 − 2rc cos(α − θ)]/(2σ 2 )}dα . 2πσ 2
pu (r) =
0
Mit der modifizierten Bessel-Funktion 1. Art nullter Ordnung 1 I0 (x) = 2π
2π exp [x cos(ξ)] dξ 0
erh¨ alt man 1 2π
2π exp[2cr cos(α − θ)/(2σ 2 )]dα = I0 (rc/σ 2 ) . 0
Damit l¨ asst sich die Verteilungsdichtefunktion schreiben als r pu (r) = ε(r) 2 I0 (rc/σ 2 ) exp[−(r2 + c2 )/(2σ 2 )] , σ diese Form wird Rice-Verleilungsdichtefunktion genannt (Davenport und Root, 1958).
7.7 Aufgaben 7.1 Ein Signal s(t) = 2fg0 si(π2fg0 t) wird additiv durch weißes Rauschen ort. der Leistungsdichte N0 gest¨
7.7 Aufgaben
301
a) Berechnen Sie die Signalenergie Es . b) Berechnen Sie die Augenblicksleistung Sa und die St¨orleistung N am Ausgang eines Korrelationsfilters, und vergleichen Sie Sa /N mit Es /N0 . c) Die Grenzfrequenz fg des als Korrelationsfilter dienenden idealen Tiefpassfilters werde ver¨ andert. Berechnen und skizzieren Sie (Sa /N )/(Es /N0 ) als Funktion von fg /fg0 . 7.2 Ein Signal s(t) =
6
s(n) rect(t − n)
n=0
wird mit einem Korrelationsfilter empfangen. Skizzieren Sie die Ausgangsfunktion f¨ ur a) alle s(n) = 1, b) den Fall, dass s(n) eine Barker-Folge der L¨ange M = 7 aus Aufgabe 4.19 ist. Geben Sie die Schaltung eines diskreten Korrelationsfilters f¨ ur den Empfang der Barker-Folge an. ¨ 7.3 Ein bipolares Ubertragungssystem nach Abschn. 7.2.3 mit dem Tr¨agersignal s(t) = (t/T ) rect(t/T −1/2) V wird durch weißes, Gauß’sches Rauschen ort. Berechnen Sie die minimale der Leistungsdichte N0 = 10−6 V2 /Hz gest¨ Tr¨ agersignaldauer T f¨ ur eine Fehlerwahrscheinlichkeit Pe = 10−4 . 7.4 Skizzieren Sie die Ausgangssignale eines Korrelationsfilters sowie die Augendiagramme f¨ ur die modulierten Sendesignale mu (t) und mb (t) nach Abb. 7.8. ¨ ¨ 7.5 Zur gleichanteilfreien Ubertragung wird in dem Ubertragungssystem ¨ mit korrelativer Ubertragung Abb. 7.11 im Sendefilter gew¨ahlt: f1 (t) = δ(t) − δ(t − T ) ¨ a) Berechnen und skizzieren Sie die Ubertragungsfunktion |S(f )| des gesamten Sendefilters. b) Wie sehen Impulsantwort und Schaltung des faltungsinversen Filters f2 (t) aus? 7.6 Zeigen Sie, dass alle Funktionen der Orthogonalsysteme in Abb. 7.13 die gleiche Energie besitzen. 7.7 Ein Tr¨ agersignal s(t) = rect(t − 1/2) wird mit einem Korrelationsfilter empfangen, das n¨ aherungsweise durch ein RC-Glied h(t) = (1/t0 )ε(t) exp(−t/t0 ) ersetzt werden soll.
302
7. Bin¨ ar¨ ubertragung
a) Berechnen Sie das Ausgangssignal g(t) = s(t) ∗ h(t) des RC-Gliedes, ur welche und skizzieren Sie g(t) f¨ ur verschiedene Zeitkonstanten t0 . F¨ Zeit t = T erreicht das Ausgangssignal sein Maximum? b) Auf das Tr¨ agersignal s(t) wird weißes Rauschen der Leistungsdichte N0 addiert. Wie groß ist im Abtastzeitpunkt t = T das Verh¨altnis der Augenblicksleistung Sa = g 2 (T ) zur Rauschleistung N am Ausgang des RC-Gliedes? c) F¨ ur welche Zeitkonstante t0 wird Sa /N maximal? Vergleichen Sie mit Es /N0 (Verh¨ altnis in dB). 7.8 Berechnen Sie die Energie eines Bandpasssignals s(t) und des zugeh¨origen a ¨quivalenten Tiefpasssignals sT (t). Zeigen Sie u ¨ ber die Beziehung ϕE ssT (τ )
0, 5|ST (f )|2 ,
dass gilt
∞ Es = 0, 5
|ST (f )|2 df .
−∞
Wie groß ist die Energie des Signals rect(t/T ) cos(2πf0 t) a) exakt b) f¨ ur f0 1/T ? 7.9 Berechnen Sie die ¨ aquivalente Tiefpassimpulsantwort f¨ ur das Korrelationsfilter h(t) = ks(T − t), wenn s(t) ein Bandpasssignal ist. 7.10 Berechnen und skizzieren Sie die Zeitfunktionen am Ausgang der Tiefpassfilter in Abb. 7.20 und am Ausgang der Addierschaltung f¨ ur das Eingangssignal s(t) = rect(t/T ) cos(2πf0 t) mit f0 1/T sowie f¨ ur das um t0 verz¨ ogerte Eingangssignal, wenn 2πf0 t0 = π/2 bzw. π ist. 7.11 Entwerfen Sie einen H¨ ullkurvenempf¨ anger f¨ ur ein nichtsymmetrisches Bandpasstr¨ agersignal. Wie vereinfacht sich die Schaltung f¨ ur ein Tr¨agersignal mit rein imagin¨arer H¨ ullkurve? ¨ 7.12 In einem Ubertragungssystem wird die Signalfunktion s(t) = rect(t/T ) cos(2πf0 t) mit einem Filter der Impulsantwort h(t) = rect(t/T ) · cos[2π(f0 + ∆f )t] empfangen. Berechnen Sie unter der Annahme f0 1/T die Antwortfunktion g(t), und skizzieren Sie g(t) f¨ ur ∆f = 0, 1/2T , 1/T , 2/T . 7.13 Skizzieren Sie die in der Schaltung (Abb. 7.24) auftretenden Zeitfunktionen am Beispiel des Signals aus Aufgabe 7.10 f¨ ur t0 = 0. 7.14 Leiten Sie (7.53) ab. 7.15 Berechnen Sie aus der Rayleigh-Verteilungsdichtefunktion ps (x) die zugeh¨ orige Verteilungsfunktion, und bestimmen Sie Mittelwert mR und Streu2 ung σR . Zeigen Sie, dass das Maximum der Rayleigh-Verteilungsdichtefunktion bei x = σs liegt. [Es gilt x exp(ax2 )dx = exp(ax2 )/(2a).]
7.7 Aufgaben
303
E 7.16 Berechnen Sie die Autokorrelationskoeffizienten ϕE h1h1 (0) und ϕh2h2 (0) in (7.64) mit Hilfe des Ergebnisses aus Aufgabe 7.8.
7.17 Eine unipolare, bin¨ ar modulierte Folge von Signalen rect(t/T ) wird durch die in Abb. 7.39 angegebene Schaltung in einen Bipolarcode 1. Ordnung (Pseudotern¨ arcode, AMI-Code) umgeformt. Beschreiben Sie die Eigenschaften des neuen Signals. Wie l¨ asst sich das urspr¨ ungliche Signal wiedergewinnen?
Abb. 7.39. Bildung eines Bipolarcodes
7.18 Es sei definiert y = int(x) als die gr¨ oßte ganze Zahl, die kleiner oder gleich x ist. Zeichnen Sie die Funktionen y = int(x) y = int(x + 0, 5) y = 0, 5 + int(x). Welche Funktion beschreibt die gebr¨ auchliche Rundung? Skizzieren Sie y(t) f¨ ur x(t) = 2 sin(t) in allen drei F¨ allen. 7.19 Stellen Sie π als 6stellige Bin¨ arzahl dar. Wie groß ist der relative Quantisierungsfehler? 7.20 Ein (gleichanteilfreies) Sprachsignal der Grenzfrequenz 4 kHz wird u ¨ber ein PCM-System u ¨ bertragen. Kanalst¨orung und Quantisierungsrauschen sollen einen Abstand zur Nutzsignalleistung von jeweils mindestens ¨ 40 dB haben. Bestimmen Sie Es /N0 , Ubertragungsrate und Mindest¨ ubertra¨ gungsbandbreite bei einer koh¨ arenten unipolaren Ubertragung. Nehmen Sie das Sprachsignal als gleichverteilt an. Wie ist das Ergebnis f¨ ur ein Fernsehsignal der Grenzfrequenz 5 MHz? 7.21 In Abschn. 7.4.3 wird n¨ aherungsweise angenommen, dass die Fehlerwahrscheinlichkeit f¨ ur ein PCM-Wort mit K bit den Wert K·Pe hat (Pe als Bitfehlerwahrscheinlichkeit). Der exakte Ausdruck f¨ ur die Wortfehlerwahrscheinlichkeit Pw lautet Pw = 1 − (1 − Pe )K . a) Berechnen Sie genauen und gen¨ aherten Wert der Wortfehlerwahrscheinur K = 8 und Pe = 10−2 . lichkeit Pw f¨
304
7. Bin¨ ar¨ ubertragung
b) Welchen Wert nimmt Pw f¨ ur Pe = 1/2 an? ¨ 7.22 PCM-Signale werden u mit jeweiliger Re¨ ber M Ubertragungsstrecken generierung durch Repeater geschickt. Die gesamte Bitfehlerwahrscheinlichkeit betr¨ agt dann Peges = [1 − (1 − 2Pe )M ]/2, wobei Pe die Fehlerwahrscheinlichkeit der Einzelstrecke ist. Wie groß ist Peges n¨ aherungsweise f¨ ur sehr kleine Pe und nicht zu große M ? 7.23 Ein analoges Signal soll mit einem digitalen System gefiltert werden. Mit welcher g¨ ultigen Stellenzahl muss die Verarbeitung erfolgen, damit der Signal-/Rauschleistungsabstand mindestens 80 dB betr¨agt? 7.24 In einem Bin¨ ar¨ ubertragungssystem nach Abschn. 6.4.4 liegt die Ent√ scheidungsschwelle bei C = Sa . Berechnen Sie die Fehlerwahrscheinlichkeiur Es /N0 = 14, 6 dB. Vergleichen Sie mit dem Normalfall. ten Pe0 und Pe1 f¨ Wo k¨ onnte eine solche unsymmetrische Entscheidung Anwendung finden? 7.25 Ein Gauß-verteiltes, mittelwertfreies Signal der Leistung Sa = σf2 wird quantisiert. Berechnen Sie Quantisierungsfehlerleistung Nq und Sa /Nq Verh¨ altnis, wenn der nutzbare Amplitudenbereich des linear gestuften Quantisierers von −3σf bis +3σf reicht. Mit welcher Wahrscheinlichkeit P wird der Quantisierer u ¨bersteuert? 7.26 Bestimmen Sie unter Annahme koh¨ arenten Empfangs und St¨orung durch weißes Gauß’sches Rauschen die ungef¨ ahre Bitfehlerrate in Abh¨angigur das 8-QAM-System in Abb. 7.32c. Geben Sie weiter einen keit von Eb /N0 f¨ Algorithmus an, mit dem aus den mit Korrelationsfiltern empfangenen und zum optimalen Zeitpunkt abgetasteten Pegeln der Quadraturkomponenten eine optimale Entscheidung getroffen werden kann.
8. Modulation, Multiplex und Codierung
¨ Die Methoden zur Ubertragung digitaler Daten und digitalisierter Sprachund Bildsignale, wie sie im vorangegangenen Kapitel behandelt wurden, werden heute bereits f¨ ur den gr¨ oßten Teil des insgesamt u ¨bertragenen Nachrichtenaufkommens verwendet. Teilweise werden aber Sprach-, Ton- und Bildsignale, insbesondere im Rundfunkbereich, noch in Form analoger Sendesignale u ¨bertragen (vgl. Vorwort zu Kap. 7), auch wenn ein Ende dieser Anwendung bereits absehbar ist. Die wichtigsten praktisch benutzten analogen Modulationsverfahren werden in den ersten beiden Abschnitten dieses Kapitels behandelt. Zun¨ achst werden die linearen Modulationsverfahren vorgestellt und ihr St¨ orverhalten untersucht. Als Beispiele nichtlinearer Modulationsverfahren werden anschließend die Winkelmodulationsverfahren diskutiert. Hierbei wird auch das Zeit- und Frequenzverhalten der analogen Verfahren untersucht, was u.a. ein weitergehendes Verst¨ andnis der bisher behandelten digi¨ talen Ubertragungsverfahren er¨ offnen soll. So besteht der einzige Unterschied zwischen den im vorangegangenen Kapitel behandelten Amplitudentastverfahren (zwei- oder mehrwertig) und der im vorliegenden Kapitel behandelten Verfahren der Pulsamplitudenmodulation letzten Endes darin, dass f¨ ur die ersteren die u ¨ bertragenen Signale wertdiskret, beim letzteren wertkontinuierlich sind. In den weiteren Betrachtungen zur Amplitudenmodulation wird ¨ dann gezeigt, dass es f¨ ur die ben¨ otigte Ubertragungsbandbreite im Grunde gleichg¨ ultig ist, ob es sich um ein abgetastetes oder um ein bandbegrenztes Signal handelt. In ¨ ahnlicher Weise k¨ onnen auch die behandelten nichtlinearen Modulationsverfahren, Frequenz- und Phasenmodulation, in einem engen Bezug mit den Frequenz- und Phasentastverfahren bei der Bin¨ar¨ ubertragung gesehen werden, und k¨ onnen u.a. dazu beitragen, die Auswirkungen von Frequenz- oder Phasenschaltvorg¨ angen bei der Bin¨ar¨ ubertragung auf das Spektrum des Signals zu bestimmen. Die bisherigen Betrachtungen gingen davon aus, dass ein Nachrichtenkanal von einem einzelnen Nutzer verwendet wird. Darauf aufbauend erlauben die prinzipiellen Methoden der Multiplex¨ ubertragung, die in diesem Kapitel ¨ behandelt werden, die voneinander unabh¨ angige Ubertragung mehrerer modulierter Sendesignale u ¨ ber einen gemeinsamen Kanal, was den Normalfall in nachrichtentechnischen Anwendungen darstellt. Einfache Multiplexverfahren lassen sich direkt aus den linearen Modulationsverfahren herleiten. Heute
306
8. Modulation, Multiplex und Codierung
¨ werden aber, beispielsweise in der DSL-Ubertragung, in den Mobilfunksystemen der dritten und folgender Generationen, in drahtlosen lokalen Netzen oder im digitalen Ton- und Fernsehrundfunk, aufw¨andigere Multiplexverfahren eingesetzt, die sich praktisch nur noch mit Methoden der digitalen Signalverarbeitung realisieren lassen. Als typische Vertreter dieser Gruppe werden Codemultiplex-, Raummultiplex- und Mehrfachtr¨ager-Verfahren behandelt. Am Schluss des Kapitels stehen informationstheoretische Betrachtungen, welche u. a. die Grundlage von Verfahren der Quellen- und Kanalcodierung sowie der codierten Modulation bilden. Die Konzepte der Informationstheorie erlauben es, systematische Vergleiche der Modulationsverfahren durchzuf¨ uhren und deren Grenzen zu erkennen; insbesondere aber wird deutlich, dass sich nur durch Kombination von Verfahren der Modulation und Codie¨ rung eine Ubertragungsqualit¨ at nahe an der informationstheoretischen Gren¨ ze erreichen l¨ asst. Hierbei wird u.a. herausgearbeitet, warum digitale Ubertragungsverfahren den analogen Verfahren u ¨ berlegen sind und es insbesondere ¨ erlauben, gegebene Ubertragungskan¨ ale effizienter auszunutzen
8.1 Lineare Modulationsverfahren 8.1.1 Pulsamplitudenmodulation Es sei die Aufgabe gestellt, ein bandbegrenztes analoges Quellensignal u ¨ ber einen verzerrungsfreien, aber durch weißes Rauschen gest¨orten Kanal zu u ¨bertragen. Nach dem Verfahren der Pulsamplitudenmodulation (PAM) wird das Quellensignal abgetastet, die Abtastwerte werden als Amplituden eines geeigneten Tr¨ agersignals s(t) u ¨ bertragen und mit einem Korrelationsfilter empfangen. Durch Kombination des Abtastsystems in Abb. 3.7 mit dem ¨ Ubertragungssystem in Abb. 6.4 entsteht das in Abb. 8.1 dargestellte Schema eines PAM-Systems. Als Tr¨ agersignal wird in diesem Beispiel aus Gr¨ unden der Anschaulichkeit wieder der Rechteckimpuls s(t) = rect(t/t0 ) einer Dauer t0 < T benutzt, auch wenn dieser, wie bereits diskutiert wurde, an sich keine ¨ Ubertragung mit effizienter Bandbreitenbegrenzung erlaubt. ¨ In diesem Ubertragungssystem wird das Quellensignal f (t) zun¨achst u ¨ ber einen idealen Tiefpass der Grenzfrequenz fg gegeben und im Zeitabstand T ≤ 1/(2fg ) mit einem idealen Abtaster abgetastet. Das abgetastete Signal hat wie in (3.3) die Form fa (t) =
∞
f (nT )δ(t − nT ).
(8.1)
n=−∞
¨ Durch Faltung mit einem zur Ubertragung geeigneten Tr¨agersignal s(t) entsteht das modulierte Sendesignal m(t) = fa (t) ∗ s(t) =
∞ n=−∞
f (nT )s(t − nT ).
(8.2)
8.1 Lineare Modulationsverfahren
307
Dieser Zusammenhang zwischen Quellensignal f (t) und moduliertem Sende-
¨ Abb. 8.1. Schema eines PAM-Systems [rechts: st¨ orungsfreie Ubertragung n(t) = 0]
signal m(t) ist linear. Man nennt die Pulsamplitudenmodulation daher auch ein lineares Modulationsverfahren. ¨ Nach der Ubertragung u ¨ ber einen verzerrungsfreien, aber durch weißes orten Kanal liegt am Empf¨angerRauschen der Rauschleistungsdichte N0 gest¨ ¨ eingang das gest¨ orte Signal m(t) + n(t). Nach den Uberlegungen in Abschn. 7.2 wird eine beliebige Komponente f (nT )s(t − nT ) dieses Signals optimal durch ein Korrelationsfilter empfangen, wenn der Empfang frei von Eigeninterferenzen ist, wenn also das Tr¨ agersignal das 1. Nyquist-Kriterium (7.4) erf¨ ullt (Aufgabe 8.1). Die durch Abtastung am Ausgang des Korrelationsfilters gewonnenen Werte y(nT ) werden schließlich in einem Tiefpass zu dem Ausgangssignal ¨ wirkt alfe (t) interpoliert. Bei verzerrungsfreier, ungest¨orter Ubertragung so das gesamte PAM-System wie ein ideales Abtastsystem und hat daher ¨ die Ubertragungseigenschaften eines idealen Tiefpasssystems der Grenzfrequenz fg 1 . 1
Der Verst¨ arkungsfaktor T der idealen Abtastung nach Abb. 3.7 wurde hier und ¨ im Folgenden aus Gr¨ unden der Ubersichtlichkeit fortgelassen. Ohnehin w¨ are die Amplitude des Ausgangssignals streng genommen noch zus¨ atzlich von den
308
8. Modulation, Multiplex und Codierung
¨ 8.1.2 PAM-Ubertragung mit Bandpasstr¨ agersignalen ¨ Aus den gleichen Gr¨ unden wie bei der digitalen Ubertragung mit Bandpass¨ tr¨ agersignalen muss auch die PAM-Ubertragung u ¨ber die technisch wichtigen Bandpasskan¨ ale gesondert betrachtet werden. Grund ist wieder der oszillierende Charakter einer Bandpassautokorrelationsfunktion. Die Anforderungen an die Genauigkeit des Empfangsfilters k¨ onnen auch hier durch Verarbeitung im Tiefpassbereich gemildert werden. Die entsprechenden Empfangsschaltungen sind bis zum Ausgang des Abtasters identisch mit den Empf¨angern in ¨ Abb. 7.20 oder 7.21. Ein vollst¨ andiges PAM-Ubertragungssystem f¨ ur symmetrische Bandpasstr¨ agersignale s(t) = sT (t) cos(2πf0 t) mit dem koh¨arenten Empf¨ anger aus Abb. 7.21 wird in Abb. 8.2 gezeigt. Als Beispiel eines Tr¨ agersignals wird in diesem Bild das Bandpasssignal rect(t/T ) cos(2πf0 t) mit der Einh¨ ullenden sT (t) ≈ rect(t/T ) und der Tr¨agerfrequenz f0 = p/T (p ganzzahlig) benutzt. In dieser Schaltung wird auch das modulierte Sendesignal durch Faltung der Abtastimpulsfolge fa (t) mit sT (t) im Tiefpassbereich gebildet und dann durch Multiplikation mit einem cos-Signal der Tr¨agerfrequenz f0 in den Bandpassbereich transformiert. Ein Nachteil des hier benutzten Empfangsprinzips ist wieder die erforderliche Koh¨ arenz, also phasenstarre Synchronisation, der Oszillatoren in Sender und Empf¨ anger. Durch Anwenden von inkoh¨arenten Empfangsmethoden entsprechend Abschn. 7.3.4 k¨onnen die Synchronisationsanforderungen erheblich geringer gehalten werden. Hierauf wird weiter unten noch n¨ aher eingegangen. 8.1.3 Amplitudenmodulation ¨ Der praktisch wichtigste Sonderfall der PAM-Ubertragung verwendet als Tr¨ agersignal das ideale Bandpasssignal nach Abb. 5.19. Entsprechend (5.27) und (5.28) gilt dann f¨ ur das Tr¨ agersignal und seine Autokorrelationsfunktion f − f0 f + f0 + rect = |S(f )|2 S(f ) = rect f∆ f∆ (8.3) s(t) = 2f∆ si(πf∆ t) cos(2πf0 t)
= ϕE ur f0 > f∆ /2. ss (t) f¨
ullt dieses Tr¨ agersignal das 1. Nyquist-Kriterium (7.4); also F¨ ur f∆ = 1/T erf¨ nT 2 si π (nT ) = ur n = 0 ganzzahlig. ϕE cos(2πf0 nT ) = 0 f¨ ss T T Verst¨ arkungsfaktoren der Sende- und Empfangsfilter und der D¨ ampfung des Kanals abh¨ angig.
8.1 Lineare Modulationsverfahren
309
Abb. 8.2. PAM-System mit koh¨ arentem Empfang f¨ ur symmetrische Bandpasstr¨ a¨ gersignale [rechts: st¨ orungsfreie Ubertragung ne (t) = 0]
¨ Baut man mit diesem Tr¨ agersignal ein koh¨ arentes PAM-Ubertragungssystem ¨ wie in Abb. 8.2 auf, dann gilt f¨ ur die Impulsantworten und Ubertragungsfunktionen der Sende- und Empfangsfilter speziell hier t 2 ∗ hT (t) = sT (−t) = sT (t) = 2f∆ si(πf∆ t) = si π T T (8.4) HT (f ) = ST (f ) = 2 rect
f f∆
= 2 rect(T f ).
Beide Filter sind ideale Tiefp¨ asse der Grenzfrequenz fg = f∆ /2 = 1/(2T ). ¨ Das Blockschaltbild dieses Ubertragungssystems ist in Abb. 8.3a dargestellt. Ein Vergleich mit Abb. 3.7 zeigt nun sofort, dass die Schaltung weiter vereinfacht werden kann. Die in Sender und Empf¨anger vorhandene Kettenschaltung zweier idealer Tiefp¨ asse mit dazwischen liegendem idealen Abtaster ist bis auf den hier unerheblichen Verst¨ arkungsfaktor T ¨aquivalent zu einem einfachen idealen Tiefpass der Grenzfrequenz fg = 1/(2T ) = f∆ /2. Damit ¨ ergibt sich das in Abb. 8.3b gezeigte, sehr einfach aufgebaute Ubertragungs-
310
8. Modulation, Multiplex und Codierung
Abb. 8.3. a PAM-System mit BP-Tr¨ agersignal und b ¨ aquivalentes System
¨ Abb. 8.4. Signalfunktionen im Zeit- und Frequenzbereich zu dem Ubertragungssystem in Abb. 8.3b (Frequenzbereich nicht maßst¨ ablich)
system.2 Zur n¨ aheren Erl¨ auterung der Wirkungsweise stellt Abb. 8.4 die in diesem System vorkommenden Signalfunktionen im Zeit- und Frequenzbereich gegen¨ uber. 2
Am Eingang des Empf¨ angers liegt in praktischen Schaltungen gew¨ ohnlich ein ¨ Bandpass, der eine Ubersteuerung des folgenden Multiplizierers durch starke, außerhalb des Durchlassbereichs liegende St¨ orsignale vermeiden soll.
8.1 Lineare Modulationsverfahren
311
¨ Mit diesem Ubertragungssystem k¨ onnen beliebige Quellensignale f (t) der Grenzfrequenz fg ≤ f∆ /2 u ¨ bertragen werden. Das modulierte Sendesignal m(t) hat die einfache Form (vgl. (5.44)) m(t) = f (t) cos(2πf0 t).
(8.5)
Diese Verkn¨ upfung des Quellensignals f (t) mit einer cos-Funktion wird Amplitudenmodulation (AM) genannt. In diesem Zusammenhang ist es auch u ¨blich, nicht das ideale Bandpasssignal s(t), sondern die cos-Funktion agersignal zu bezeichnen. cos(2πf0 t) als das Tr¨ F¨ ur die Eigenschaften dieses Amplitudenmodulationssystems gelten die ¨ in Abschn. 7.3.3 angestellten Uberlegungen. Der Empf¨anger ist nur dann ein Korrelationsfilter-Empf¨ anger, wenn die Oszillatoren in Sender und Empf¨anger koh¨ arent sind. Der nicht zeitinvariante Empf¨anger hat den Nachteil, dass schon eine Phasendifferenz von 90◦ zwischen beiden Oszillatoren das Ausgangssignal verschwinden l¨ asst (vgl. Aufgabe 8.2: Zur Synchronisation des Empf¨ angeroszillators kann ein sin-f¨ ormiges Synchronisationssignal kleiner Leistung mit u ¨ bertragen werden). Wegen dieser schwierigen Synchronisa¨ tionsbedingung verwendet man auch bei AM-Ubertragungsverfahren sehr h¨ aufig das in Abschn. 7.3.4 beschriebene Prinzip des inkoh¨arenten Empfangs. Im Unterschied zu dem in Abschn. 8.1.2 besprochenen allgemeinen PAM¨ System ist bei der AM-Ubertragung aber außer der Koh¨arenz des Empf¨angeroszillators keine Synchronisation von Abtastschaltern notwendig. Da die Abtastsysteme durch die ¨ aquivalenten Tiefp¨ asse ersetzt werden konnten, ist der Empfang auch bei um ganzzahlige Vielfache von 1/f0 auf der Zeitachse verschobenen Eingangssignalen m(t) optimal. Bei dem im Folgenden zu besprechenden inkoh¨ arenten Empfang ist schließlich u ¨ berhaupt keine strenge Zeitbedingung mehr einzuhalten. Der Empf¨ anger ist daher technisch i. Allg. einfacher zu realisieren3. 8.1.4 Inkoh¨ arenter Empfang in AM-Systemen Ein inkoh¨ arenter oder H¨ ullkurvenempf¨ anger bildet wie in Abschn. 7.3.4 beschrieben die Einh¨ ullende des Ausgangssignals eines Korrelationsfilters. In diesem Sinn stellt Abb. 5.26 bereits einen solchen H¨ ullkurvenempf¨anger dar. F¨ ur die Impulsantworten der Tiefp¨ asse in den beiden Quadraturkan¨alen gilt (8.4), beide Filter sind hier also ideale Tiefp¨asse der Grenzfrequenz fg = f∆ /2. Liegt am Eingang dieses sogenannten Quadraturempf¨angers das modulierte Sendesignal m(t) = f (t) cos(2πf0 t) nach (8.5), dann erscheint im ¨ Fall ungest¨ orter Ubertragung am Ausgang der Betrag des Quellensignals in der Form 3
Auch wenn die phasengenaue Synchronisation des Oszillators im Empf¨ anger z.B. mittels PLL-Schaltungen heute kein technisches Problem mehr darstellt, mussten bei der Anwendung von AM beispielsweise im Mittelwellen-Rundfunk die ein¨ mal etablierten Ubertragungsverfahren beibehalten werden, um mit den ¨ alteren Empf¨ angern kompatibel zu bleiben.
312
8. Modulation, Multiplex und Codierung
fe (t) = |f (t)|.
(8.6)
Diese Betragsbildung stellt eine unerw¨ unschte nichtlineare Verzerrung des empfangenen Signals dar. Man kann diese Verzerrung verhindern, indem zu dem Quellensignal f (t) ein so großer konstanter Gleichwert A addiert wird, dass die Summe nicht negativ wird: f (t) + A ≥ 0.
(8.7)
Das modulierte Sendesignal hat dann mit (8.5) die Form mA (t) = [f (t) + A] cos(2πf0 t) = f (t) cos(2πf0 t) + A cos(2πf0 t).
(8.8)
Die Addition des Gleichwertes A zu dem Quellensignal ist also ¨aquivalent zur Addition eines Tr¨ agersignals A cos(2πf0 t) zum urspr¨ unglichen modulierten Sendesignal. Man nennt dieses Verfahren daher auch Amplitudenmodulation mit Tr¨ager. Am Ausgang des Empf¨ angers kann die Gleichgr¨oße A ohne Schwierigkeiten wieder abgetrennt werden. Wird im Sonderfall ein sinusf¨ormiges Quellensignal f (t) = a cos(2πf1 t) u ¨bertragen, dann lautet das modulierte Sendesignal (8.8) mA (t) = [A + a cos(2πf1 t)] cos(2πf0 t) oder umgeschrieben mit dem Modulationsgrad µAM der Amplitudenmodulation µAM = a/A
(8.9)
auch mA (t) = A[1 + µAM cos(2πf1 t)] cos(2πf0 t).
(8.10)
Die Bedingung (8.7) l¨ asst sich dann f¨ ur sinusf¨ormige Quellensignale mit Hilfe des Modulationsgrades schreiben als |µAM | ≤ 1.
(8.11)
¨ Der Fall |µAM | > 1 wird Ubermodulation genannt, bei inkoh¨arentem Empfang ist das Ausgangssignal eines u ¨ bermodulierten AM-Systems verzerrt4 . 4
¨ Um zuf¨ allige, bei hohen Signalpegeln pl¨ otzlich auftretende Ubermodulationen zu vermeiden, ist es selbst bei Verwendung einer AM mit Tr¨ ager heute durchaus u anger koh¨ arent (z.B. mit PLL-Schaltungen) zu rea¨ blich, hochwertige Empf¨ lisieren. Das Vorhandensein des Tr¨ agersignals erh¨ oht dabei die Pr¨ azision der Synchronisation, die bei AM ohne Tr¨ ager bei kleinen Nutzsignalpegeln durch Rauscheinfl¨ usse beeintr¨ achtigt werden k¨ onnte.
8.1 Lineare Modulationsverfahren
313
Das Schema des Quadraturempf¨ angers ist in Abb. 8.5a noch einmal dargestellt. Technisch wichtiger ist eine vereinfachte Modifikation des H¨ ullkurvenempfangs, die bereits in Abb. 7.23 f¨ ur den Digitalempfang vorgestellt wurde. Abb. 8.5b zeigt diesen sogenannten Geradeausempf¨anger, der bis auf Abtaster und Entscheidungsstufe mit der Schaltung des entsprechenden digitalen Empf¨ angers identisch ist. Das Korrelationsfilter ist hier ein idealer Bandpass der Mittenfrequenz f0 und Bandbreite f∆ . Der Geradeausempf¨anger bildet allerdings wie der entsprechende Digitalempf¨anger bei gest¨ortem Empfang die Einh¨ ullende nur n¨ aherungsweise (Aufgabe 8.3b).
Abb. 8.5. H¨ ullkurvenempf¨ anger f¨ ur amplitudenmodulierte Signale: ¨ a Quadraturempf¨ anger, b Geradeausempf¨ anger, c Uberlagerungsempf¨ anger
Ein Empf¨ anger f¨ ur amplitudenmodulierte Sendesignale muss h¨aufig so ausgelegt werden, dass er Signale unterschiedlicher Mittenfrequenz f0 empfangen kann. Der Quadraturempf¨ anger ist f¨ ur diesen Anwendungsfall gut geeignet, da nur die Frequenz des Oszillators ver¨ andert zu werden braucht. Im Gera¨ deausempf¨ anger muss dagegen die Ubertragungsfunktion des Bandpassfilters ge¨ andert werden. Um dieses technisch nicht einfach l¨osbare Problem zu um¨ ¨ gehen, wird der Uberlagerungsempf¨ anger Abb. 8.5c benutzt. Der Uberlagerungsempf¨ anger ist eine Modifikation des Geradeausempf¨angers, bei der das
314
8. Modulation, Multiplex und Codierung
amplitudenmodulierte Eingangssignal der Tr¨ agerfrequenz f0 zun¨achst mit einem cos-Signal der einstellbaren Frequenz fM multipliziert wird. In einem nachfolgenden nichtkoh¨ arenten Geradeausempf¨anger kann dieses neue Signal dann mit einem Korrelationsfilter der festen Mittenfrequenz fZF = |fM − f0 |, der sogenannten Zwischenfrequenz, empfangen werden (Aufgabe 8.4). Ein weiterer Vorteil dieses Prinzips besteht darin, dass bei Wahl einer tieferen Zwischenfrequenz fZF < f0 das Bandpassfilter wegen seiner gr¨oßeren relativen Bandbreite f∆ /fZF einfacher zu realisieren ist. Schließlich wird noch die bei h¨ oherer Verst¨ arkung kritische Schwingneigung der Verst¨arkerstufen durch Aufteilen der Gesamtverst¨ arkung auf drei unterschiedliche Frequenzbe¨ reiche entsch¨ arft. Der unkritische Bandpass am Eingang des Uberlagerungsempf¨ angers soll einmal den Empfang unerw¨ unschter Signale im Spiegelfre” quenzbereich“ unterdr¨ ucken (Aufgabe 8.4), zum anderen verhindert er eine ¨ Ubersteuerung des Multiplikators durch St¨ orsignale außerhalb des Durchlassbereichs des Empf¨ angers. 8.1.5 Einseitenband-Amplitudenmodulation Die bisher besprochenen Amplitudenmodulationsverfahren mit oder ohne Tr¨ ager haben die Eigenschaft, dass das modulierte Sendesignal m(t) die doppelte Bandbreite des Quellensignals hat (Abb. 8.4). Der Bandbreitedehnfaktor β nach (7.102) hat also die Gr¨ oße βAM = f∆ /fg = 2.
(8.12)
An Hand der in Abb. 8.4 im Frequenzbereich dargestellten Signale eines AM¨ ¨ Ubertragungssystems l¨ asst sich aber sofort einsehen, dass zur Ubertragung bereits eine Bandbreite von f∆ = fg gen¨ ugt. Hierzu wird das modulierte Sendesignal, wie Abb. 8.6 zeigt, u ¨ ber einen idealen Bandpass HBP (f ) mit der unteren Grenzfrequenz f0 und einer Bandbreite > f∆ /2 u ¨bertragen. Auch aus diesem gefilterten modulierten Sendesignal ME (f ) kann, wie die untere Zeile von Abb. 8.6 zeigt, ein koh¨ arenter AM-Empf¨anger durch Multiplikation mit einem cos-Signal der Frequenz f0 und Tiefpassfilterung das Quellensignal mit Spektrum F (f ) zur¨ uckgewinnen. Da dieser Empf¨anger aber auch St¨ orsignale aus dem Bereich des nicht u ¨bertragenen Seitenbandes empf¨ angt, muss er durch einen Eingangsbandpass HBP (f ) [wie in Abb. 8.6, ¨ s. Ubungen 9.8] erg¨ anzt werden. ¨ Dieses Ubertragungsverfahren wird Einseitenband -AM genannt. Entsprechend tr¨ agt das zuerst besprochene Verfahren auch den Namen Zweiseitenband -AM, wobei der im Bereich |f | > f0 liegende Teil des Spektrums M (f ) das obere Seitenband und der Teil im Bereich |f | < f0 das untere Seitenband genannt wird. Als Modifikation von Abb. 8.6 kann bei einem EinseitenbandAM-Verfahren alternativ auch das untere Seitenband u ¨ bertragen werden. Der ¨ Bandbreitedehnfaktor nach (8.12) hat bei der Einseitenband-AM-Ubertraoße gung mit f∆ = fg die Gr¨
8.1 Lineare Modulationsverfahren
315
Abb. 8.6. Einseitenband-Amplitudenmodulation
βEM = fg /fg = 1. ¨ Das steilflankige Bandpassfilter, das in Abb. 8.6 bei Ubertragung von Signalen mit tiefer unterer Grenzfrequenz zur Bildung des Einseitenband-AMSignals ME (f ) ben¨ otigt wird, ist nur n¨ aherungsweise realisierbar. Die Auslegung dieses steilflankigen Filters wird sehr viel einfacher, wenn das Einseitenband-Signal zun¨achst bei einer niedrigen Tr¨ agerfrequenz gebildet und dann in einer zweiten Modulationsstufe in den endg¨ ultigen Bereich gebracht wird. Es ist weiter m¨ oglich, Filter niedriger Flankensteilheit zu verwenden. Das Prinzip zeigt Abb. 8.7. In diesem sogenannten Restseitenband -AM-Verfahren wird der im oberen Seitenband auf Grund der Filterflanke endlicher Steilheit fehlende Anteil in ¨ einem Teil des unteren Seitenbandes u ¨ bertragen. Die Ubertragungsfunktion HBP (f ) eines geeigneten Filters muss dazu im Bereich |f − f0 | < fg einen zur Tr¨ agerfrequenz f0 schiefsymmetrischen Verlauf besitzen, man nennt diesen Verlauf auch die Nyquist-Flanke des Bandpassfilters5 . ¨ Restseitenband-Ubertragungsverfahren haben einen gr¨oßeren Bandbreitedehnfaktor als Einseitenband-AM-Verfahren. Hat die Nyquist-Flanke eine Breite fN ≤ 2fg , dann ergibt sich nach Abb. 8.7 als Bandbreitedehnfaktor βRM = 5
fg + fN /2 fN =1+ . fg 2fg
(8.13)
Diese Benennung erfolgt wegen der Analogie mit dem Verlauf der Spektrums von Tr¨ agersignalen, die das erste Nyquist-Kriterium erf¨ ullen (vgl. Abb.7.5).
316
8. Modulation, Multiplex und Codierung
Abb. 8.7. Restseitenband-Amplitudenmodulation
Anmerkung: Auch bei Ein- und Restseitenband¨ ubertragung ist inkoh¨arenter Empfang m¨ oglich, wenn ein hinreichend starkes Tr¨agersignal mit u ¨bertragen wird. Geringe Verzerrungen sind dabei aber unvermeidlich (Fontolliet, 1986). ¨ Das Verfahren der Restseitenband-Ubertragung mit Tr¨ager wird bei der ¨ Ubertragung der Videosignale im Fernsehrundfunk angewandt (mit den Bandbreiten fg ≈ 5, 5 MHz und fN ≈ 1, 5 MHz, s. hierzu Abb. 8.8).
Abb. 8.8. Fernseh¨ ubertragung (5 MHz-Norm, idealisiert) a Sendefilter, b Restseitenbandfilter des Empf¨ angers
8.1.6 St¨ orverhalten der linearen Modulationsverfahren Es wird wieder das PAM-System nach Abb. 8.1 betrachtet, wobei am Eingang des Korrelationsfilters der Impulsantwort h(t) = s(−t) die Summe aus moduliertem Sendesignal m(t) und weißem Rauschen n(t) der Leistungsdich¨ te N0 liegen soll. Nach den Uberlegungen in den Abschn. 8.1.1 und 7.2.1 wird am Ausgang des Korrelationsfilters im st¨ orungsfreien Fall zur Zeit t = 0 ein Wert g(0) = f (0)ϕE ss (0) = f (0)Es abgetastet.
8.1 Lineare Modulationsverfahren
317
Der Abtastwert 2f (0) des 3 Quellensignals kann als Zufallsgr¨oße mit der Augenblicksleistung E f 2 (0) aufgefasst werden. Am Ausgang des Korrelationsfilters erscheint damit die Augenblicksnutzleistung 3 2 2 3 2 3 Sa = E g 2 (0) = E f 2 (0)Es2 = E f 2 (0) Es2 . (8.14) Im Folgenden wird das Quellensignal2f (t) als 3 Musterfunktion eines station¨ aren Prozesses mit der Leistung E f 2 (0) = Sf angesehen. Beschreibt man weiter gem¨ aß der Ableitung von (6.48) die St¨orleistung am Ausgang des Korrelationsfilters als E N = N0 ϕE hh (0) = N0 ϕss (0) = N0 Es ,
dann erh¨ alt man als Nutz-/St¨ orleistungsverh¨altnis am Ausgang des Korrelationsfilters Sa Sf Es2 Es = = Sf . N N0 Es N0
(8.15)
Wie in Abschn. 7.4.2 schon dargelegt, wird dieses Sa /N -Verh¨altnis bei Interpolation der Abtastwerte durch den Ausgangstiefpass des PAM-Systems nicht ver¨ andert. Damit gilt (8.15) auch f¨ ur das Ausgangssignal fe (t) des PAM¨ Systems. Im Vergleich zu dem PCM-Ubertragungssystem existiert bei PAMSystemen also kein Schwelleneffekt. Das Sa /N -Verh¨altnis am Ausgang des ¨ PAM-Systems ist proportional zum Es /N0 -Verh¨altnis auf dem Ubertragungskanal. ¨ Das gleiche St¨ orverhalten gilt ebenfalls f¨ ur die AM-Ubertragung mit ¨ koh¨ arentem Empfang, die in Abschn. 8.1.3 als Sonderfall einer PAM-Ubertragung mit dem idealen Bandpasssignal als Tr¨agersignal gedeutet wurde. Dr¨ uckt man in (8.15) die Energie Es der im Abstand T = 1/f∆ = agersignale mittels der Tr¨agerleistung St 1/(2fg ) ausgesendeten Bandpasstr¨ aus (s. Aufgabe 8.17) Es = St T = St /f∆ ,
(8.16)
dann lautet (8.15) mit f∆ = 2fg auch Sa St St = Sf = Sf . N f∆ N0 2fg N0
(8.17)
¨ Damit ist also bei koh¨ arenter AM-Ubertragung das Nutz-/St¨orleistungsverh¨ altnis am Ausgang des Empf¨ angers gleich der am Eingang des Korrelationsfilters liegenden Nutzleistung mit dem Wert SK = Sf · St (dimensionslos), bezogen auf die in einem Band der Quellensignalbandbreite gemessene St¨ orleistung 2fg N0 . Das gleiche Ergebnis erh¨ alt man auch f¨ ur die koh¨arente Einseitenband¨ AM-Ubertragung (s. Zusatzaufgabe 9.8 in Kap. 9).
318
8. Modulation, Multiplex und Codierung
¨ Nicht so einfach l¨ asst sich das Problem der Zweiseitenband-AM-Ubertragung mit Tr¨ ager u ¨ bersehen. Zur Vereinfachung wird zun¨achst angenommen, dass der Empf¨ anger koh¨ arent sei. Unter der Voraussetzung, dass die Nutzleistung angereingang den gleichen Wert wie im Fall mit dem Wert Sf · St am Empf¨ ¨ der Zweiseitenband-AM-Ubertragung ohne Tr¨ager hat, wird sich das Sa /N Verh¨ altnis verschlechtern, da der Tr¨ ager nicht zur Leistung des Ausgangsnutzsignals beitr¨ agt. Diese Verschlechterung sei am Beispiel eines sin-f¨ormigen ¨ ohne Tr¨ager Quellensignals f (t) = a sin(2πf1 t) berechnet. Bei Ubertragung ¨ betr¨ agt die Quellenleistung (Aufgabe 4.3) Sf = a2 /2. Bei Ubertragung mit Tr¨ ager wird nach (8.8) das Signal f1 (t) = a1 sin(2πf1 t)+A benutzt, die Quellenleistung ist dann S1f = a21 /2 + A2 , oder mit dem Modulationsgrad (8.9) auch S1f = a21 /2 + a21 /µ2AM . Gleichsetzen beider Leistungen, also Sf = S1f , ergibt a2 /2 = a21 /2 + a21 /µ2AM . Als Verh¨ altnis der Leistungen der Quellensignale folgt damit a2 2 =1+ 2 . a21 µAM Einsetzen in (8.17) ergibt als Nutz-/St¨ orleistungsverh¨altnis der Zweiseitenband-AM mit Tr¨ ager demnach f¨ ur sin-f¨ ormige Quellensignale Sf St Sa 1 · . = N 1 + 2/µ2AM 2fg N0
(8.18)
Da der Modulationsgrad nach (8.11) f¨ ur nichtkoh¨arenten Empfang maximal altnis der Zweiseitenband-AM mit gleich Eins sein darf, wird das Sa /N -Verh¨ Tr¨ ager also mindestens um den Faktor 1/(1+2) = 1/3 = 5 −4, 8 dB verkleinert. Das Sa /N -Verh¨ altnis wird noch geringer, wenn man zus¨atzlich den Einfluss des nichtidealen H¨ ullkurvenempf¨ angers ber¨ ucksichtigt. Jedoch l¨asst sich dieser Einfluss bei einigermaßen großem Sa /N -Verh¨altnis, wie es bei der ¨ Ubertragung analoger Signale fast immer gefordert wird, vernachl¨assigen.
8.2 Winkelmodulationsverfahren Die Bezeichnung Winkelmodulation beschreibt Modulationsverfahren, bei denen das Quellensignal die Dehnung eines sinusoidalen Tr¨agersignals steuert. Mit diesen Modulationsverfahren lassen sich ¨ ahnlich wie bei der Pulscodemodulation große Bandbreitedehnfaktoren und verbunden damit eine Verbesserung des St¨ orverhaltens im Vergleich zu Amplitudenmodulationsverfahren erreichen.6 6
Zuerst 1936 von dem amerik. Ingenieur Edwin H. Armstrong (1890–1954) demonstriert (Anhang zum Literaturverzeichnis).
8.2 Winkelmodulationsverfahren
319
8.2.1 Phasen- und Frequenzmodulation Bei Winkelmodulations-Verfahren ist das Argument eines cos-f¨ormigen Tr¨agersignals eine Funktion des Quellensignals f (t). Das modulierte Sendesignal lautet also m(t) = cos[ψ(f (t))].
(8.19)
Dieser Zusammenhang zwischen f (t) und m(t) ist nichtlinear, die Winkelmodulation geh¨ ort daher zu den nichtlinearen Modulationsverfahren. Im Fall der Phasenmodulation (PM) lautet die Argumentfunktion ψPM (t) = 2πf0 t + 2πcf (t),
c beliebige, reelle Konstante.
(8.20)
Abb. 8.9a gibt ein Beispiel f¨ ur diesen Zusammenhang.
Abb. 8.9. Beispiel zu a Phasen- und b Frequenzmodulation
¨ Andert sich das Quellensignal nur langsam innerhalb einer Periode 1/f0 des Tr¨ agersignals, dann kann ein winkelmoduliertes Signal noch in guter N¨aherung als cos-f¨ ormige Zeitfunktion beschrieben werden, deren Periodendauer von Periode zu Periode eine etwas andere Gr¨ oße hat. Eine Periode ist dabei die Zeit, in der das Argument einen Wertebereich der Breite 2π durchl¨auft. Betrachtet man das modulierte Signal w¨ ahrend der Zeit t bis t + ∆t, dann ist also die Zahl der auf diesen Zeitabschnitt entfallenden Perioden ψ(t + ∆t) − ψ(t) . 2π∆t Dieser Ausdruck kann als mittlere Frequenz des Signals in dem betrachteten Zeitabschnitt interpretiert werden. L¨ asst man jetzt die Breite ∆t des Zeitabschnitts gegen Null gehen, dann geht diese mittlere Frequenz in die sogenannte Augenblicksfrequenz fi (t) zur Zeit t u ¨ber, es wird definiert
320
8. Modulation, Multiplex und Codierung
fi (t) = lim
∆t→0
1 d ψ(t + ∆t) − ψ(t) = ψ(t). 2π∆t 2π dt
(8.21)
Die Augenblicksfrequenz eines phasenmodulierten Signals ist dann mit (8.20) in (8.21) fiPM (t) =
1 d [2πf0 t + 2πcf (t)] = f0 + cf (t). 2π dt
(8.22)
Die Augenblicksfrequenz eines phasenmodulierten Signals ¨andert sich also proportional zur zeitlichen Ableitung des Quellensignals (Abb. 8.9a). Wird nun dieses Modulationsverfahren so abge¨andert, dass nicht mit dem Quellensignal f (t) selbst, sondern mit dem laufenden Integral u ¨ ber das Quellensignal moduliert wird, dann erh¨ alt man die Frequenzmodulation (FM). Die Argumentfunktion lautet also entsprechend zu (8.20) t ψFM (t) = 2πf0 t + 2πc
f (τ )dτ,
(8.23)
−∞
und als Augenblicksfrequenz ergibt sich mit (8.21)7 ⎡ ⎤ t 1 d ⎣ fiFM (t) = f (τ )dτ ⎦ = f0 + cf (t). 2πf0 t + 2πc 2π dt
(8.24)
−∞
In Abb. 8.9b ist ein FM-Signal mit dem zugeh¨ origen Verlauf der Augenblicksfrequenz dargestellt. Der Vergleich von (8.23) und (8.20) zeigt, dass die Phasenmodulation des integrierten Quellensignals ergebnisgleich mit der Frequenzmodulation des Quellensignals ist. Entsprechend stimmt die Frequenzmodulation des differenzierten Quellensignals im Ergebnis mit der Phasenmodulation des Quellensignals u ¨ berein. Beide Modulationsarten lassen sich also einfach ineinander u berf¨ u hren. Aus dem gleichen Grund ist es auch nicht m¨oglich, ohne Kennt¨ nis des Quellensignals ein FM- und PM-Signal voneinander zu unterscheiden. Dieser Zusammenhang ist in Abb. 8.10 als Blockbild dargestellt. F¨ ur die technische Ausf¨ uhrung eines Phasen- oder Frequenzmodulators ist eine große Zahl von im einzelnen sehr unterschiedlichen Prinzipien bekannt (Aufgabe 8.3). Im einfachsten Fall wird durch das Quellensignal ein frequenzbestimmendes Bauelement eines Oszillators ver¨andert, beispielsweise die Kapazit¨ at einer Varactordiode im Schwingkreis eines Oszillators. Vorteilhafter sind Schaltungen, in denen das Ausgangssignal eines Oszillators hoher Frequenzkonstanz in einer nachfolgenden Stufe phasenmoduliert wird. F¨ ur ¨ eine eingehendere Ubersicht muss auf die Literatur verwiesen werden (Taub und Schilling, 1987). 7
Bei Berechnung des laufenden Integrals in (8.24) k¨ onnen Konvergenzschwierigkeiten auftreten, f¨ ur die zugelassenen Funktionen im Integranden gelten daher die Bemerkungen in der Fußnote 4 in Kap. 1.
8.2 Winkelmodulationsverfahren
321
Abb. 8.10. Zusammenhang zwischen a frequenzmoduliertem Signal mFM (t) und b phasenmodulierten Signal mPM (t)
8.2.2 Spektrum eines FM-Signals Im allgemeinen Fall ist der Zusammenhang zwischen den Spektren des Quellensignals und des winkelmodulierten Signals recht kompliziert. Jedoch lassen sich schon einige allgemeine Ergebnisse u ¨ ber FM-Spektren ableiten, wenn die Betrachtung auf ein cos-f¨ ormiges Quellensignal beschr¨ankt wird. Dabei sei aber noch einmal deutlich darauf hingewiesen, dass f¨ ur den Winkelmodulator als nichtlineares System kein Superpositionsgesetz gilt, es also nicht m¨oglich ist, aus dem FM-Spektrum bei cos-f¨ ormiger Modulation auf die Spektren bei beliebigen Quellensignalen zu schließen. Mit f (t) = a cos(2πf1 t) in (8.23) ergibt sich die Argumentfunktion t ψFM (t) = 2πf0 t + 2πc
a cos(2πf1 τ )dτ.
−∞
Da das Quellensignal f (t) f¨ ur t → −∞ nicht abklingt, konvergiert das Integral nicht. Bildet man im Grenz¨ ubergang t
t cos(2πf1 τ )dτ = lim
−∞
=
T →∞ −T
cos(2πf1 τ )dτ
1 1 sin(2πf1 t) − lim sin(2πf1 T ) , T →∞ 2πf1 2πf1
dann stellt der rechte Term f¨ ur jedes beliebige T einen festen Wert im Bereich zwischen 1/(2πf1 ) und −1/(2πf1) dar. Dieser Ausdruck entspricht einem festen Winkel im Argument ψFM (t), der im Folgenden willk¨ urlich zu Null angenommen wird. Damit kann jetzt geschrieben werden ψFM (t) = 2πf0 t + c
a sin(2πf1 t). f1
Setzt man diesen Ausdruck in (8.19) ein, dann ergibt sich mit dem Modulationsindex µFM , definiert durch µFM = c
a , f1
(8.25)
322
8. Modulation, Multiplex und Codierung
als FM-Signal m(t) = cos[2πf0 t + µFM sin(2πf1 t)].
(8.26)
Ausdr¨ ucke dieser Form k¨ onnen mit Hilfe von Bessel-Funktionen 1. Art n-ter Ordnung Jn (x) geschrieben werden. Es gilt cos[α + x sin(β)] =
∞
Jn (x) cos(α + nβ).
(8.27)
n=−∞
Den Verlauf dieser Bessel-Funktionen zeigt Abb. 8.11.
Abb. 8.11. Bessel-Funktionen 1. Art n-ter Ordnung mit den Eigenschaften J−n (x) = (−1)n Jn (x) und Jn (−x) = (−1)n Jn (x)
Mit (8.27) in (8.26) l¨ asst sich dann ein FM-Signal bei cos-f¨ormigem Quellensignal schreiben als ∞
m(t) =
Jn (µFM ) cos(2πf0 t + n2πf1 t).
(8.28)
n=−∞
Durch Fourier-Transformation folgt als Spektrum des FM-Signals M (f ) =
∞
1 Jn (µFM ) [δ(f − f0 − nf1 ) + δ(f + f0 + nf1 )]. 2 n=−∞
(8.29)
Der Betrag dieses Spektrums ist f¨ ur einen Modulationsindex von µFM = 5 in Abb. 8.12 dargestellt, die Gewichte der Dirac-Impulse entsprechen den halben Werten der Bessel-Funktionen f¨ ur das Argument µFM = y = 5 in Abb. 8.11.
8.2 Winkelmodulationsverfahren
323
Abb. 8.12. Betragsspektrum eines FM-Signals bei cos-f¨ ormigem Quellensignal der Frequenz f1 und einem Modulationsindex µFM = 5
Das FM-Spektrum ist also bei sin-f¨ ormigem Quellensignal ein Linienspektrum, dessen Dirac-Impulse symmetrisch zur Tr¨ agerfrequenz f0 im Abstand von Vielfachen der Frequenz f1 des Quellensignals liegen. Der Verlauf der BesselFunktionen zeigt, dass die Gewichte der Dirac-Impulse f¨ ur etwa n > µFM schnell kleiner werden, so dass das eigentlich unendlich ausgedehnte FMSpektrum praktisch auf die in Abb. 8.12 eingezeichnete Breite f∆ bandbegrenzt ist. Wird ein cos-f¨ ormiges Quellensignal mit der h¨ochstm¨oglichen Freur diese sogenannte Carson-Bandbreite quenz f1 = fg u ¨ bertragen, dann gilt f¨ (Aufgaben 8.12 und 8.15) f∆ = 2(µFM + 1)fg .
(8.30)
¨ Mit (7.102) ist also der Bandbreitedehnfaktor bei der FM-Ubertragung βFM =
f∆ = 2(µFM + 1). fg
(8.31)
Der Modulationsindex ist damit auch ein Maß f¨ ur die Bandbreitedehnung ¨ einer FM-Ubertragung. Anmerkung: Erg¨ anzend sei noch der Modulationshub ∆F erw¨ahnt, definiert als ∆F = µFM fg .
(8.32)
Mit (8.32) und (8.30) l¨ asst sich die Carson-Bandbreite dann auch ausdr¨ ucken als f∆ = 2(∆F + fg ) .
(8.33)
324
8. Modulation, Multiplex und Codierung
8.2.3 Empfang von FM-Signalen Ein FM-Empf¨ anger hat die Aufgabe, aus einem FM-Signal nach (8.19) m(t) = cos[ψ(t)]
(8.34)
das modulierte Quellensignal f (t) m¨ oglichst ungest¨ort zur¨ uckzugewinnen. Da nach (8.24) das Quellensignal bis auf eine Konstante der Augenblicksfrequenz proportional ist, muss der Empf¨ anger nach (8.21) die zeitliche Ableitung des Arguments ψ(t) bilden. Hierzu wird das FM-Signal z.B. zun¨achst differenziert; mit der Kettenregel der Differentiationsrechnung ergibt sich mD (t) =
dψ(t) d cos[ψ(t)] = − sin[ψ(t)] . dt dt
(8.35)
Ein geeigneter H¨ ullkurvenempf¨ anger (Abb. 8.5b) bildet daraus ein Signal, das nur der Amplitude dieses amplituden- und winkelmodulierten Signals proportional ist, also mit (8.21) und (8.24) mH (t) =
dψ(t) = 2πfiFM (t) = 2πf0 + 2πcf (t) . dt
(8.36)
Nach Abtrennen der Gleichgr¨ oße 2πf0 kann das Quellensignal f (t) also zur¨ uckgewonnen werden. Die beschriebene Anordnung zur Demodulation eines FM-Signals wird FM-Diskriminator genannt. Vor dem Eingang des Diskriminators sind in einem vollst¨andigen FMEmpf¨ anger zus¨ atzlich ein idealer Bandpass der Carson-Bandbreite f∆ und ein Amplitudenbegrenzer angeordnet. Beide Systeme sollen den Einfluss additiver St¨ orungen verringern, ihr Einfluss wird im n¨achsten Abschnitt noch n¨aher betrachtet. Das vollst¨ andige Schema eines solchen FM-Empf¨angers ist in Abb. 8.13 dargestellt.
Abb. 8.13. Schema eines FM-Geradeausempf¨ angers
Die diskutierte Schaltung eines FM-Empf¨ angers entspricht bis auf Amplitudenbegrenzer und Differentiator dem Aufbau des AM-Geradeausempf¨angers in Abb. 8.5b. Durch Umsetzen des Sendesignals in einen Zwischenfrequenz¨ bereich l¨ asst sich entsprechend zu Abb. 8.5c in gleicher Weise ein FM-Uberlagerungsempf¨ anger aufbauen.
8.2 Winkelmodulationsverfahren
325
¨ 8.2.4 St¨ orverhalten der FM-Ubertragung ¨ Zur Berechnung des St¨ orverhaltens der FM-Ubertragung wird angenommen, dass einem FM-Signal m(t) der Amplitude A weißes Rauschen n(t) der Leistungsdichte N0 zuaddiert wird. Am Ausgang des Eingangsbandpasses liegt dann das gest¨ orte Signal g1 (t) = m(t) + nBP (t) = A cos[ψ(t)] + nBP (t). Das Nutzsignal m(t) hat die vom Argument unabh¨angige Leistung SK = A2 /2 (Aufgabe 8.14), w¨ ahrend die Leistung des Bandpassrauschens nBP (t) nach (7.62) NK = 2N0 f∆ betr¨ agt. Das Nutz-/St¨orleistungsverh¨altnis ¨ auf dem Ubertragungskanal ist also SK A2 SK = = . NK 2N0 f∆ 4N0 f∆
(8.37)
Zur Berechnung der St¨ orleistung am Empf¨ angerausgang wird im Folgenden vorausgesetzt, dass f¨ ur dieses Nutz-/St¨ orleistungsverh¨altnis SK /NK 1 gilt. Unter dieser Bedingung sind in guter N¨ aherung Nutz- und St¨orleistung am Empf¨ angerausgang unabh¨ angig voneinander, und die St¨orleistung kann unter der Annahme eines verschwindenden Quellensignals f (t) = 0 berechnet werden (im Folgenden durch den zus¨ atzlichen Index n gekennzeichnet). Mit f (t) = 0 in (8.24) und der Darstellung des Bandpassrauschsignals nach (7.63) durch seine Quadraturkomponenten lautet das Signal g1n (t) am Ausgang des Eingangsbandpasses in Abb. 8.13 g1n (t) = A cos(2πf0 t) + nTr (t) cos(2πf0 t) − nTi (t) sin(2πf0 t) = [A + nTr (t)] cos(2πf0 t) − nTi (t) sin(2πf0 t). Mit einem Additionstheorem8 l¨ asst sich daf¨ ur auch schreiben / nTi (t) g1n (t) = [A + nTr (t)]2 + n2Ti (t) cos 2πf0 t + arctan . A + nTr (t) (8.38) Der in Abb. 8.13 auf den Eingangsbandpass folgende Amplitudenbegrenzer hat die Aufgabe, die von der additiven St¨ orung verursachte Amplitudenmodulation dieses Signals zu beseitigen. Unter der Annahme |A| 1 wird hier urlich auf l begrenzt. Am die Amplitude des gest¨ orten Signals g1n (t) willk¨ Ausgang des zweiten Bandpasses erscheint dann in guter N¨aherung nTi (t) . (8.39) g2n (t) = cos 2πf0 t + arctan A + nTr (t) 8
a cos(x) + b sin(x) =
√
a2 + b2 cos[x − arctan(b/a)].
326
8. Modulation, Multiplex und Codierung
Unter der oben angenommenen Voraussetzung SK /NK 1 kann nTr (t) gegen¨ uber A vernachl¨ assigt werden, ebenso ist dann das Argument der arctanFunktion so klein, dass die N¨ aherung arctan x ≈ x gilt, damit wird (8.39) nTi (t) g2n (t) ≈ cos 2πf0 t + . (8.40) A Der FM-Diskriminator bildet jetzt gem¨ aß (8.36) die Ableitung des Arguments dieses Signals; mit nTi (t) 1 d d nTi (t) (8.41) 2πf0 t + = 2πf0 + dt A A dt erscheint am Ausgang des Diskriminators nach Abtrennung der Konstanten 2πf0 damit als St¨ orterm g4n (t) =
1 d nTi (t). A dt
(8.42)
Nach Abschn. 7.3.6 ist nTi (t) ein Tiefpassrauschsignal der Grenzfrequenz f∆ /2 und der Leistung 2N0 f∆ . F¨ ur das Leistungsdichtespektrum dieses Rauschsignals gilt also f φnnT (f ) = 2N0 rect . (8.43) f∆ Die Differentiation in (8.42) l¨ asst sich mit einem LTI-System der Impulsantuhren, welches nach dem Differentiationstheorem (2.44) eine wort δ (t) ausf¨ ¨ Ubertragungsfunktion folgender Form besitzt9 (s. auch Aufgabe 6.11) δ (t)
j2πf.
(8.44)
Das Wiener-Lee-Theorem ergibt damit f¨ ur das differenzierte Rauschsignal in (8.42) ein Leistungsdichtespektrum f (2πf )2 (2πf )2 φnnT (f ) = 2N0 rect φnn4T (f ) = . (8.45) A2 A2 f∆ Setzt man wie in (8.37) SK = A2 /2 als Leistung des FM-Signals am ¨ Empf¨ angereingang ein, so ergibt sich nach Ubertragung u ¨ ber den am Aus¨ gang des Diskriminators liegenden idealen Tiefpass der Ubertragungsfunktion rect[f /(2fg )], ebenfalls mit dem Wiener-Lee-Theorem, als Leistungsdichtespektrum des Ausgangssignals 2 f f N0 φnne (f ) = φnn4T (f ) rect = (2πf )2 rect . (8.46) 2fg SK 2fg 9
¨ Diese linear mit der Frequenz ansteigende Ubertragungsfunktion muss nur innerhalb der Bandbreite des Nutzsignals realisiert werden. Eine einfache Technik verwendet hierf¨ ur zwei versetzte Schwingkreise in Differenzschaltung.
8.2 Winkelmodulationsverfahren
327
Die Leistung des St¨ orterms am Ausgang errechnet sich daraus mit (6.33) zu ∞
fg (2πf )2
φnne (f )df =
N= −∞
−fg
N0 N0 fg3 . df = 2(2π)2 SK SK 3
(8.47)
Zur Veranschaulichung dieser Ableitung sind in Abb. 8.14 die verschiedenen zur Ableitung der St¨ orleistung N am Diskriminatorausgang ben¨otigten Leistungsdichtespektren noch einmal zusammengestellt.
Abb. 8.14. Leistungsdichtespektren der St¨ orsignale in einem FM-Diskriminator
Zur Berechnung des Nutz-/St¨ orleistungsverh¨altnisses am Ausgang des FMEmpf¨ angers fehlt jetzt noch ein Ausdruck f¨ ur die Nutzleistung. In gleicher ¨ Weise wie bei der AM-Ubertragung wird ein sin-f¨ormiges Quellensignal angenommen, das FM-Signal wird dann durch (8.26) beschrieben. Durch Differentiation des Argumentes dieses FM-Signals ergibt sich d [2πf0 t + µFM sin(2πf1 t)] = 2πf0 + µFM 2πf1 cos(2πf1 t). dt Nach Abtrennen der Konstanten 2πf0 erscheint also als Ausgangssignal des Diskriminators im ungest¨ orten Fall fe (t) = µFM 2πf1 cos(2πf1 t).
(8.48)
Die Leistung dieses Signals ist bei konstantem Modulationsindex µFM maximal f¨ ur f1 = fg und hat dann den Wert
328
8. Modulation, Multiplex und Codierung
Sa =
1 (µFM 2πfg )2 . 2
(8.49)
In Bezug auf diese Leistung ergibt sich mit (8.47) dann das gesuchte Sa /N Verh¨ altnis am Ausgang des FM-Systems (f¨ ur SK /NK 1) mit NK = 2fg N0 zu 1 (µFM 2πfg )2 Sa SK 3 = 2 = µ2FM . 3 N0 fg N 2 2f 2 g N0 2(2π) SK 3
(8.50)
Diese Beziehung ist in Abb. 8.15 als linearer Bereich dargestellt.
SK NK
¨ Abb. 8.15. St¨ orverhalten der FM-Ubertragung
¨ Nach (8.17) ergab sich bei der koh¨ arenten Ubertragung mit einem AM-Signal der gleichen u ¨ ber einen Kanal ¨bertragenen (normierten) Leistung Sf St = SK u der ebenfalls gleichen St¨ orleistungsdichte N0 ein Verh¨altnis von SK Sa = . N 2fg N0 Dieser Zusammenhang ist ebenfalls in Abb. 8.15 eingetragen. Im Vergleich ¨ mit (8.50) ist also das Nutz-/St¨ orleistungsverh¨altnis der FM-Ubertragung 2 um den Faktor (3/2)µFM besser. Mit (8.31) l¨asst sich dieser Faktor auch durch den Bandbreitedehnfaktor βFM ausdr¨ ucken: Mit µFM ≈ βFM /2 ist die 2 ; das Nutz-/St¨ orleistungsverh¨altnis steigt also etwa Verbesserung ≈ (3/8)βFM quadratisch mit dem Mehraufwand an Bandbreite an. F¨ ur ein bestimmtes Nutz-/St¨ orleistungsverh¨ altnis SK /NK ) auf dem Kanal kann aber das Sa /N Verh¨ altnis nicht beliebig verbessert werden. In der N¨aherung von (8.39) durch
¨ 8.3 Multiplex-Ubertragung
329
(8.40) war n¨ amlich ein Verh¨ altnis SK /NK 1 vorausgesetzt worden. Mit asst sich diese Bedingung umschreiben f∆ ≈ 2µFM fg nach (8.30) in (8.37) l¨ in Sk 2µFM ≈ βFM . 2fg N0 Je gr¨ oßer der Bandbreitedehnfaktor βFM wird, desto gr¨oßer muss also auch ¨ das Nutz-/St¨ orleistungsverh¨ altnis im Ubertragungskanal sein, damit die Vor¨ teile der FM-Ubertragung gewahrt bleiben. Unterhalb einer in Abb. 8.15 ¨ als sogenannte FM-Schwelle eingezeichneten Grenze wird das Ubertragungsverhalten sehr schnell verschlechtert. Ein ¨ ahnliches Schwellenverhalten zeigte ¨ sich bereits bei der PCM-Ubertragung. Es ist, wie im Abschnitt 8.4 noch ge¨ zeigt wird, allen Ubertragungsverfahren mit St¨orabstandsverbesserung durch Bandbreitedehnung eigen. Anmerkung: Abschließend sei noch kurz das Preemphasis-Verfahren erw¨ahnt, ¨ mit dem das St¨ orverhalten der FM-Ubertragung weiter verbessert werden kann. Wie der Verlauf des St¨ orleistungsdichtespektrums φnne (f ) am Ausgang ¨ des Ubertragungssystems zeigt (Abb. 8.14), werden die hochfrequenteren Anteile eines u arker gest¨ort. Durch Anheben dieser ¨bertragenen Quellensignals st¨ Anteile mit einem Preemphasis-Filter im Sender und passendes Absenken mit einem Deemphasis-Filter im Empf¨ anger kann das gesamte Nutz-/St¨orverh¨altnis um etwa 6 dB erh¨ oht werden (Taub und Schilling, 1987).
¨ 8.3 Multiplex-Ubertragung Die bisher betrachteten Modulationsverfahren dienten dazu, jeweils ein einziges Quellensignal m¨ oglichst fehlerfrei u ¨ ber gest¨orte Tiefpass- und Bandpasskan¨ ale zu u ¨ bertragen. Es wird nun gefordert, gleichzeitig mehr als ein Quellensignal u ¨ber einen gemeinsamen Kanal u ¨ bertragen zu k¨onnen. Diese ¨ ¨ Multiplex-Ubertragung oder Vielfach-Ubertragung ist nicht umgehbar, wenn ¨ nur ein einziger Ubertragungskanal verf¨ ugbar ist, beispielsweise der die Erde ¨ umgebende Raum f¨ ur ungerichtete Funkverbindungen. Die Multiplex-Ubertragung ist aber auch aus wirtschaftlichen Gr¨ unden sinnvoll, wenn Tausende von Zweidrahtleitungen einer Fernsprechstrecke durch ein einziges, viel billigeres Koaxial- oder Lichtleiterkabel ersetzt werden k¨onnen. ¨ 8.3.1 Multiplex-Ubertragung mit Pulsamplitudenmodulation ¨ Die bekannten Verfahren der linearen Multiplex-Ubertragung werden hier als ¨ einfache Erweiterung der PAM-Ubertragung mit Korrelationsfilter-Empfang beschrieben, und sind damit direkt auch f¨ ur alle bisher behandelten F¨alle der
330
8. Modulation, Multiplex und Codierung
¨ Ubertragung von Bin¨ arwerten mit zwei- oder mehrwertigen Modulationssym¨ bolen anwendbar. Es wird wieder vorausgesetzt, dass f¨ ur die Multiplex-Ubertragung ein verzerrungsfreier, aber durch additives weißes Rauschen gest¨orter Kanal vorhanden ist. Ein einziges Quellensignal kann mit Hilfe des PAMVerfahrens aus Abschn. 8.1.1 u ¨ bertragen werden. Es sollen nun als einfachstes Multiplex-Verfahren weitere mit unterschiedlichen Tr¨agersignalen PAMmodulierte Sendefunktionen mi (t) zu dem ersten Signal addiert werden. Das Prinzip ist, als Erweiterung von Abb. 8.1, in Abb. 8.16 dargestellt10 .
Abb. 8.16. Schema eines PAM-Multiplex-Systems
Setzt sich das Multiplex-Signal m(t) aus Q einzelnen modulierten Sendesignalen mi (t) nach (8.2) zusammen, dann gilt m(t) =
Q ∞
fi (nT )si (t − nT ) .
(8.51)
i=1 n=−∞
Der Empf¨ anger besteht aus Q eingangsseitig parallel geschalteten Korrelationsfilter-Empf¨ angern f¨ ur die einzelnen Tr¨ agersignale si (t). Das Ausgangssignal des j-ten Korrelationsfilters der Impulsantwort sj (−t) lautet dann zum Abtastzeitpunkt t = 0 im st¨ orungsfreien Fall gj (0) = m(t) ∗ sj (−t)|t=0 =
Q ∞
fi (nT )ϕE ji (−nT ).
(8.52)
i=1 n=−∞
Soll nun gj (0) nur den Wert fj (0)ϕE jj (0) annehmen, so dass alle anderen Abtastwerte fi (nT ) sowohl des eigenen Kanals (Eigeninterferenzen) als auch der 10
Zur Modifikation f¨ ur eine Bin¨ ar¨ ubertragung sind lediglich an Stelle der Abtastungen in den jeweiligen Zweigen i die Folgen diskreter Symbole als bn,i δ(t − nT ) einzuspeisen, und auf der Empf¨ angerseite die Tiefpassfilter durch Entscheider zu ersetzen.
¨ 8.3 Multiplex-Ubertragung
331
anderen Kan¨ ale (Nebensprechst¨ orungen) keinen Beitrag liefern, dann m¨ ussen folgende Bedingungen erf¨ ullt sein: ur n = 0 und ϕE jj (nT ) = 0 f¨ ϕE ur alle n und i = j mit 1 ≤ i, j ≤ Q. ji (nT ) = 0 f¨
(8.53)
In gleicher Weise l¨ asst sich zeigen, dass diese Bedingungen auch f¨ ur beliebige andere Abtastzeitpunkte νT zum ungest¨orten Empfang von fj (νT ) hinreichend sind. Gleichung (8.53) stellt eine Kombination von Orthogonalit¨ atsbedingung und 1. Nyquist-Kriterium dar. Zu beachten ist, dass Nebensprechst¨ orungen allgemein viel kritischer als Eigeninterferenzen sind. Wie in Abschn. 7.2.5 vereinfachen sich die Bedingungen (8.53) f¨ ur zeitbegrenzte Tr¨ agersignale der Dauer ≤ T auf die u ¨ bliche Orthogonalit¨atsbedingung ur i = j mit 1 ≤ i, j ≤ Q. ϕE ji (0) = 0 f¨
(8.54)
Als zus¨ atzliche Bedingung wird i. Allg. gefordert, dass alle Tr¨agersignale gleiche Energie haben, also ϕE jj (0) = E = const. mit 1 ≤ j ≤ Q.
(8.55)
Bei Einhalten dieser Bedingungen wird das Sa /N -Verh¨altnis der PAMMultiplexsysteme bei St¨ orung durch weißes Rauschen wieder nur durch (8.15) bestimmt. Zwei Beispiele zeitbegrenzter Orthogonalfunktionssysteme, die sin-cosImpulsfunktionen und die Walsh-Funktionen wurden in Abb. 7.13 vorgestellt. Beide Systeme von Tr¨ agersignalen erf¨ ullen die hier abgeleiteten Bedingungen und sind daher zum Aufbau eines Multiplex-Systems geeignet (s. Abschn. 8.2.2). Die sehr leicht zu begreifenden Zeit- und Frequenzmultiplexverfahren werden in Abschn. 8.3.2 und 8.3.3 nur kurz beschrieben. Die Codeund Raummultiplexverfahren, die in Zusammenhang mit drahtlosen und Mobilfunksystemen der n¨ achsten Generationen gr¨oßere Bedeutung erlangen, werden in Abschn. 8.3.4 und 8.3.5 etwas ausf¨ uhrlicher dargestellt11 . In Abschn. 8.3.6 folgt dann noch eine Behandlung von Mehrfachtr¨ager-Verfahren, ¨ die heute ebenfalls in der drahtgebundenen und drahtlosen digitalen Ubertragung h¨ aufig eingesetzt werden. Diese k¨ onnen als besondere Form eines synchronen Frequenzmultiplex angesehen werden, bei dem allerdings das eigentliche Ziel die Verteilung eines einzelnen Nutzsignals auf viele schmalbandige Frequenzkan¨ ale ist. Abschließend sei angemerkt, dass die verschiedenen hier behandelten Multiplexverfahren auch h¨ aufig miteinander kombiniert werden. 11
Engl.: TDM, FDM, CDM, SDM (f¨ ur Time, Frequency, Code, Space Division Multiplex) oder TDMA, FDMA, CDMA, SDMA (f¨ ur [T|F|C|S] Division Multiple Access).
332
8. Modulation, Multiplex und Codierung
¨ 8.3.2 Zeitmultiplex-Ubertragung In den Zeitmultiplex-Systemen werden als Tr¨agersignale i. a. Impulssignale der begrenzten Dauer T0 < T /Q benutzt, die u ¨ berlappungsfrei gegeneinander versetzt sind. Als Beispiel sind in Abb. 8.17 die Tr¨agersignale t − (i − 1)T /Q , i = 1, 2, ..., Q (8.56) si (t) = rect T0 f¨ ur ein Multiplex-System mit Q = 4 Kan¨ alen dargestellt.
Abb. 8.17. Tr¨ agersignale eines Zeitmultiplex-Systems
Die Gesamtheit der Tr¨ agersignale si (t) wird in Zeitmultiplex-Systemen auch Impulsrahmen genannt, die Zeit T ist dann die Rahmentaktzeit. Der Aufbau eines Zeitmultiplexsystems kann im Vergleich mit dem allgemeinen Schema Abb. 8.16 vereinfacht werden, da alle Tr¨agersignale die gleiche Form haben. In Abb. 8.18 ist diese Modifikation dargestellt, Sendeur alle Kan¨ale filter s(t) = s1 (t) und Korrelationsfilter s(−t) = s1 (−t) sind f¨ gemeinsam. Die zeitliche Verschachtelung wird dadurch erreicht, dass die Abtastzeiten in den einzelnen Kan¨ alen um jeweils T /Q gegeneinander verz¨ogert sind. Bei PAM-Zeitmultiplex sind insbesondere Nebensprechst¨orungen, die durch lineare Verzerrungen des Multiplexsignals beispielsweise bei Bandbegrenzung entstehen, kritisch. Daher werden sie in der Regel nur kombi¨ niert mit einer digitalen Ubertragung (z. B. PCM bei Sprachtelefonie, digitale Mobilfunksysteme) verwendet. Recht aufw¨ andig sind in allen ZeitmultiplexSystemen die Synchronisiereinrichtungen, die im Empf¨anger die zeitlich sehr eng tolerierten Steuersignale f¨ ur die Abtastsysteme bereitstellen m¨ ussen. Hierzu wird h¨ aufig ein eigenes Synchronisationssignal innerhalb des Zeitmultiplexsignals u ¨ bertragen (vgl. Rahmensynchronisation in Abschn. 7.3.8).
¨ 8.3 Multiplex-Ubertragung
333
Abb. 8.18. Schema eines PAM-Zeitmultiplex-Systems
Diese Synchronisation ist bei den im Folgenden besprochenen Frequenzmultiplex-Verfahren nicht unbedingt erforderlich. Anmerkung: Bei Bin¨ ar¨ ubertragung mit Zeitmultiplex ist es auch durchaus u ¨blich, mehrere zu einer einzelnen Quelle geh¨orende Bin¨arsymbole direkt nacheinander als Datenpaket zu senden. Dies kann entweder mit einer jeweils festgelegten Anzahl synchron oder je nach Bedarf auch vollst¨andig asynchron erfolgen. Letztere Methode erfordert f¨ ur jedes Datenpaket einen sogenannten header, der die Information enth¨ alt, f¨ ur welchen Empf¨anger das Paket bestimmt ist. Asynchrone Zeitmultiplexverfahren werden beispielsweise bei den Transportverfahren f¨ ur das Internet angewandt. ¨ 8.3.3 Frequenzmultiplex-Ubertragung Die Tr¨ agersignale der Frequenzmultiplex-Systeme sind im theoretisch einfachsten Fall ideale Bandpasssignale einer Bandbreite f∆ , die im Frequenzbereich u ¨berlappungsfrei um eine Frequenz fd = f0(i+1) − f0i > f∆ gegeneinander versetzt sind. Entsprechend (8.3) gilt f + f0i f − f0i Si (f ) = rect + rect . (8.57) f∆ f∆ Abb. 8.19 zeigt einige Tr¨ agersignale im Frequenzbereich. Da die Tr¨agersignale im Frequenzbereich nicht u ur ihre Kreuzenergiedichtespek¨berlappen, gilt f¨ tren und damit ihre Kreuzkorrelationsfunktionen nach (4.25) ⎫ ∗ φE ij (f ) = Si (f )Sj (f ) = 0 ⎪ ⎪ ⎬ f¨ ur i = j. (8.58) ⎪ ⎪ ⎭ ϕE =0 ij (τ ) ¨ Die Nebensprechbedingung ist bei diesem Ubertragungsverfahren bemerkenswerterweise also nicht nur zu den Abtastzeitpunkten nT erf¨ ullt, wie in (8.53)
334
8. Modulation, Multiplex und Codierung
Abb. 8.19. Spektrum der Tr¨ agersignale eines Frequenzmultiplex-Systems
gefordert, sondern f¨ ur alle Zeiten. Damit k¨ onnen die einzelnen Kan¨ale auch ohne Einhalten bestimmter Synchronisationsbedingungen von den Empfangsfiltern getrennt werden; das Frequenzmultiplex-Verfahren bildet ein sogenanntes asynchrones Multiplex-System.12 ¨ Mit den gleichen Uberlegungen wie in Abschn. 8.1 l¨asst sich die Schaltungstechnik eines Frequenzmultiplex-Verfahrens durch koh¨arenten Empfang vereinfachen. Wird jeder einzelne Kanal nach dem Muster von Abb. 8.3b aufgebaut, dann erh¨ alt man das in Abb. 8.20 gezeigte Schema eines koh¨arenten Frequenzmultiplex-Systems in Zweiseitenband-AM-Technik.
Abb. 8.20. Schema eines koh¨ arenten Frequenzmultiplex-Systems
Koh¨ arenz braucht nur zwischen den beiden Oszillatoren des gleichen Einzelkanals eingehalten zu werden, die Oszillatoren der verschiedenen Einzelkan¨ale 12
Diese Eigenschaft war besonders f¨ ur eine einfache Rundfunktechnik von außerordentlicher Bedeutung.
¨ 8.3 Multiplex-Ubertragung
335
d¨ urfen dagegen asynchron laufen. Auch die Koh¨arenzbedingung innerhalb eines Einzelkanals darf aufgegeben werden, wenn f¨ ur den Empfang H¨ ullkurvenempf¨ anger verwendet werden. Gem¨ aß der Diskussion in Abschn. 8.1.4 muss dann in jedem Einzelkanal das sin-f¨ ormige Tr¨ agersignal der Frequenz f0i mit u orleistungsverh¨altnis schlechter. ¨bertragen werden, weiter wird das Nutz-St¨ Dieses Verfahren ist beispielsweise bei der normalen AM-Rundfunk¨ ubertragung u ¨blich. In einer weiteren Modifikation ist auch die Einseitenbandmodulation nach Abschn. 8.1.5 in den Einzelkan¨ alen m¨oglich. Solche EinseitenbandFrequenzmultiplex-Verfahren waren als sog. Tr¨agerfrequenzverfahren lange ¨ Zeit das Standardsystem zur Ubertragung von Fernsprechsignalen. Große Frequenzmultiplex-Systeme sind h¨ aufig wieder in Ebenen hierarchisch aufgebaut. In Frequenzmultiplexsystemen entstehen Nebensprechst¨orungen haupts¨ achlich durch nichtlineare Verzerrungen des Multiplexsignals, deshalb m¨ ussen Zwischenverst¨ arker extrem linear ausgelegt werden. Abschließend sei noch angemerkt, dass besonders in der Frequenzmultiplex-Technik die verschiedensten Modulationsverfahren kombiniert werden k¨ onnen, wenn nur die Spektren der modulierten Sendesignale der Einzelkan¨ale u ¨berlappungsfrei sind und daher durch entsprechende asynchrone Empf¨anger getrennt werden k¨ onnen. ¨ 8.3.4 Codemultiplex-Ubertragung ¨ In Mobilfunksystemen sind die Ubertragungskan¨ ale durch eine schnell wechselnde Mehrwegeausbreitung charakterisiert. Dies bedingt im Zeitbereich ¨ kurzzeitige und im Frequenzbereich schmalbandige Einbr¨ uche der Ubertragungseigenschaften, das sog. frequenzselektive Fading (vgl. Anhang 8.6.1). Daher sind hier Multiplexsysteme mit Tr¨ agersignalen in Form schmaler Impulse oder mit schmalen Spektren ung¨ unstig. Geeigneter sind Tr¨agersignale, die sowohl im Zeit- als auch im Frequenzbereich ausgedehnt sind, also ein hohes Zeit-Bandbreiteprodukt besitzen. Allerdings muß dann im Sinne einer ¨ okonomischen Ausnutzung der zur Verf¨ ugung stehenden Ubertragungsband¨ breite gefordert werden, dass viele Nutzer gleichzeitig auf das verf¨ ugbare Frequenzband zugreifen. Die Trennung der einzelnen Signale kann nur erfolgen, wenn jeder der Nutzer hierzu sein eigenes spezifisches Tr¨agersignal verwendet. Nur bei Kenntnis dieses Signals, das einen den Zugriff erlaubenden Code uhrt die Bedarstellt, ist dann u ¨ berhaupt ein Empfang m¨oglich. Hierher r¨ zeichnung derartiger Multiplex-Systeme als Code Division Multiple Access (CDMA). Ohne Kenntnis des Codes stellt sich das empfangene Signal, wel¨ ches sich durch Uberlagerung der Sendesignale aller Nutzer ergibt, als Rauschen mit innerhalb des genutzten Frequenzbandes konstantem Spektrum dar. Anzumerken ist, dass CDMA-Systeme bereits seit den 50er Jahren in der milit¨ arischen Nachrichtentechnik verwendet werden: Zum einen sind sie
336
8. Modulation, Multiplex und Codierung
aus den oben genannten Gr¨ unden unempfindlicher gegen gewollte schmalbandige St¨ orsignale, zum anderen erschweren die rausch¨ahnlichen Tr¨ager ein unerw¨ unschtes Abh¨ oren. Weitere Beispiele f¨ ur weltweit eingef¨ uhrte asynchro¨ ne CDMA-Systeme sind die Ubertragungsverfahren der satellitengest¨ utzten globalen Navigationssysteme (Global Positioning System = GPS-System, wie NAVSTAR und GLONASS). Im Folgenden wird zun¨ achst das sogenannte Direct-Sequence-CDMA-Verfahren beschrieben, welches bisher die am meisten eingesetzte Variante darstellt. Am Schluss dieses Abschnitts folgt noch eine kurze Einf¨ uhrung in die Frequency-Hopping-CDMA-Methode. a) Direct-Sequence-CDMA Die ’Direct Sequence-’ (DS-)CDMA-Technik wird u.a. in den Mobilfunksystemen der 3. Generation (UMTS, Universal Mobile Telecommunication System) angewandt. Das Prinzip wird zun¨ achst an Hand von Abb. 8.21 am ¨ Beispiel einer Basisband-Ubertragung erl¨ autert: Ein bipolares Nutzsignal mit Bittakt T wird mittels einer ebenfalls bipolaren Codefolge c(t) moduliert, die sich in einzelne Chip-Intervalle der Dauer Tc = T /M zerlegen l¨asst; das Verh¨ altnis von Bittakt zu Chipdauer (M ) sei ganzzahlig. Reziprok zur ¨ Verk¨ urzung der Chipdauer erh¨ oht sich der Bandbreitebedarf der Ubertragung um den Faktor βCDMA = M . Dieses Prinzip der Frequenzspreizung (’spread spectrum’) ist in Abb. 8.22 dargestellt. Es wird nun davon ausgegangen, dass m¨ oglichst viele Benutzer die zur Verf¨ ugung stehende Bandbreite gleichzei¨ tig belegen, ohne dass die Ubertragungsqualit¨ at f¨ ur den einzelnen Nutzer in unakzeptabler Weise leidet. In diesem Zusammenhang ist aber eine erweiterte Betrachtungsweise der St¨ orcharakteristik erforderlich: Bisher wurde als m¨ ogliche St¨ orung ein weisses Rauschen mit Gaußverteilung angenommen. ¨ Bei CDMA-Ubertragung sind hingegen die durch die anderen Benutzer verursachten Interferenzen als haupts¨ achliche St¨ orquelle zu betrachten, d.h. die ¨ Ubertragungsqualit¨ at wird in erster Linie davon abh¨angen, wie viele Benutzer gleichzeitig auf denselben Kanal zugreifen. Dies wird im Folgenden gezeigt. Das Blockschaltbild eines koh¨ arenten DS-CDMA-Senders und -Empf¨angers ist in Abb. 8.23 gezeigt. Es wird eine zweistufige Modulation mit der Codefolge c(t) und einem Kosinustr¨ ager der Mittenfrequenz f0 betrachtet, insgesamt entspricht dies einer Bipolar¨ ubertragung (PSK) der Codefolge; an¨ dere Ubertragungsarten sind m¨ oglich. Die f¨ ur einen bei t = nT beginnenden Bittakt generierte Codefolge13 besitzt die Dauer T mit cn (t) =
M−1 k=0
13
ck · rect
t − kTc 1 − Tc 2
,
(8.59)
Es kann entweder f¨ ur jeden Bittakt dieselbe Codefolge verwendet, oder eine u ¨ber die Bittaktgrenzen fortlaufende Zufallsfolge von Werten ck generiert werden; im Beispiel von Abb. 8.21 ist die letztere Variante gezeigt.
¨ 8.3 Multiplex-Ubertragung
337
T
f(t)
f (t) =
å
¥
a
n = - ¥
æ t - n T 1 ö - ÷ 2 ø è T
re c tç n
t T
c (t)
c
t
f(t)c (t)
t
Abb. 8.21. Nutzsignal f (t), Codefolge c(t) sowie moduliertes Signal bei DS-CDMA fD / M N ic h t g e s p r e iz te s S ig n a l
G e s p r e iz te s S ig n a l
fD
f
f0
¨ Abb. 8.22. Spektren der ungespreizten und gespreizten Signale bei idealen Ubertragungskan¨ alen and(t-nT)
sT(t)
x
x
(a Î {1, -1 })
m(t)
n
Sender
c(t) Codegenerator
cos(2pf0t)
r=1/Tc
nT m(t)
+
x
i(t)
Codegenerator
x
c(t)
Kanal
r=1/Tc
sT(-t)
y(t)
Entscheider
aen
Empfänger cos(2pf0t)
Abb. 8.23. Blockschaltbild eines koh¨ arenten DS-CDMA-Senders und -Empf¨ angers
338
8. Modulation, Multiplex und Codierung
so dass die fortlaufende Folge ∞
c(t) =
cn (t − nT )
(8.60)
k=−∞
generiert wird. Die Chips der verwendeten Codefolgen seien sowohl innerhalb der Bittakte als auch u ¨ ber die Bittaktgrenzen hinweg unkorreliert, d.h. es soll gelten 2 3 E c2k f¨ ur k = l E {ck cl } = (8.61) 0 sonst, sowie unter der Annahme, dass Werte ck = ±1 gleich wahrscheinlich seien, 2 3 E {ck } = 0 ; E c2k = 1 . (8.62) Mit14 ! sT (t) =
2Es rect T
t 1 − T 2
¨ ergibt sich bei bipolarer Ubertragung (an {−1, 1}) ein moduliertes Signal ' ∞ ( m(t) = an · sT (t − nT ) · c(t) · cos(2πf0 t) . (8.63) n=−∞
Der Empf¨ anger ist ein Korrelationsfilter-Empf¨anger unter Annahme koh¨arenten Empfangs. Am Empf¨ angereingang tritt ein Signal r(t) = m(t) + i(t) auf, wobei i(t) die Interferenzen durch andere Benutzer oder auch durch Mehrwegeempfang (vgl. Anhang 8.6.1) charakterisiert. Es ergibt sich zu den Abtastzeitpunkten am Eingang des Entscheiders unter der Voraussetzung, dass f0 T = p ganzzahlig ist, ein Signal y(nT ) = an Es + yI (nT ) ,
(8.64)
wobei der letztere Anteil die Wirkung des Interferenzignals am Ausgang des Korrelationsfilter-Empf¨ angers darstellt. Es werde nun wie bisher unter der Annahme, dass das Verhalten zu allen Abtastzeitpunkten identisch sei, nur der Abtastzeitpunkt T f¨ ur n = 0 betrachtet : 14
Es bezeichnet hier wieder die Energie des Tr¨ agersignals s(t) = sT (t) · c(t) · angereingang. F¨ ur das Korrelationsfilter wird dann h(t) = cos(2πf0 t) am Empf¨ s(T −t) angenommen, so dass sich als Amplitude des Nutzsignals zum Abtastzeitpunkt am √ Entscheidereingang wieder Es ergibt. Bei dimensionsloser Betrachtung gilt dann Sa = Es .
¨ 8.3 Multiplex-Ubertragung
! yI (T ) = ! = ! =
2Es T
339
T c0 (t) · i(t) · cos(2πf0 t)dt 0
2Es T 2Es T
M−1 k=0 M−1
T ck
rect
t − kTc 1 − Tc 2
· i(t) · cos(2πf0 t)dt
0
ck · vk
(8.65)
k=0
mit (k+1)T c
i(t) · cos(2πf0 t)dt .
vk = kTc
Wegen E {ck } = 0 ist E {yI (nT )} = 0. Weiter gilt M−1 2 3 2Es M−1 E yI2 (nT ) = E {ck cl } · E {vk vl } , T
(8.66)
k=0 l=0
und mit (8.61) fallen alle Summenanteile k = l weg: 2 3 2Es 2 2 3 3 2Es M−1 E yI2 (nT ) = · M · E vk2 . E vk2 = T T
(8.67)
k=0
Ein einfaches Interferenzmodell, welches sowohl den Mehrwegeempfang, als auch Interferenzen anderer Benutzer im selben Band (gleiche Tr¨agerfrequenz) charakterisieren kann, lautet (8.68) i(t) = 2PI cos(2πf0 t + ϕI ) , d.h. ein Kosinussignal mit Leistung PI und Phasenlage ϕI . Damit ergibt sich (k+1)T c
vk =
2PI cos(2πf0 t + ϕI ) · cos(2πf0 t)dt
kTc
⎡ (k+1)T √ c 2PI ⎢ = cos ϕI dt + ⎣ 2 kTc
(k+1)T c
⎤ ⎥ cos(4πf0 t + ϕI )dt⎦ .
(8.69)
kTc
Das letzte Integral in (8.69) braucht nicht ber¨ ucksichtigt zu werden, da die Frequenz 2f0 außerhalb des gespreizten Bandes liegt. Somit wird √ Tc 2PI cos ϕI . (8.70) vk = 2
340
8. Modulation, Multiplex und Codierung
Unter der Annahme, dass die Phasenverschiebung des interferierenden Signals zuf¨ allig, d.h. gleichverteilt sei, ergibt sich 2 3 T 2 PI 1 · E vk2 = c 2 2π
2π cos2 ϕI dϕI =
Tc2 PI 4
(8.71)
0
sowie 2 3 2Es T 2 PI Es PI E yI2 (nT ) = ·M · c = · Tc . T 4 2
(8.72)
Mit Es = Ps T erh¨ alt man schließlich ein Sa /NI -Verh¨altnis15 2Es2 Ps Sa Es2 2Ps T = = 2M = = · . 2 NI E {yI (nT )} Es PI Tc PI T c PI
(8.73)
Das Sa /NI -Verh¨altnis steigt also proportional mit dem Spreizfaktor M ; hinsichtlich der Interferenz durch andere Benutzer ist allerdings zu ber¨ ucksichtigen, dass die St¨ orleistung PI ebenfalls linear mit der Anzahl der gleichzeitigen Benutzer ansteigen wird. Ein Vorteil von DS-CDMA ist daher vor allem gegeben, wenn der Spreizfaktor noch gr¨ oßer bleibt als die Anzahl der gleichzeitigen Benutzer. Allerdings existieren weitere Abh¨ angigkeiten von der Charakteristik der gew¨ ahlten Codefolgen. Eine Absch¨ atzung f¨ ur den speziellen Fall der Gold-Folgen als CDMA-Tr¨ agerfunktionen erfolgt in Unterabschnitt e). In den folgenden Unterabschnitten b)–e) werden geeignete Tr¨agerfunktionssysteme f¨ ur DS-CDMA-Systeme diskutiert. Es sind dies die f¨ ur ein synchrones Multiplexsystem anwendbaren orthogonalen Walsh-Funktionen und die f¨ ur ein asynchrones Multiplexsystem geeigneten fast-orthogonalen m-Folgen und Gold-Folgen. Beide Signalarten sind bin¨ar, also mit digitalen Schaltungen einfach implementierbar. Hinsichtlich des oben erw¨ahnten frequenzselektiven Fading sei noch bemerkt, dass zwar generell die Bandbreitedehnung dessen Einfl¨ usse reduziert, dass jedoch starke Frequenzeinbr¨ uche gegebenenfalls die geforderte Orthogonalit¨ atseigenschaft vermindern, wodurch sich zus¨ atzliche Interferenzen ergeben k¨ onnen. 15
Man spricht hier von einem Nutz-zu-Interferenzleistungsverh¨ altnis, da anders als z.B. bei additivem weißen Rauschen die Interferenz durch die gleichzeitigen Sendungen anderer Benutzer die haupts¨ achliche Ursache von St¨ orungen darstellt. Es muss allerdings betont werden, dass die NI verursachenden Interferenzen in der Regel nicht spektral weiß sind, so dass der dem hier vorgestellten Empf¨ angerkonzept zu Grunde liegende Korrelationsfilter-Empf¨ anger an sich noch keine Optimall¨ osung darstellt. Zur Sch¨ atzung von NI w¨ are es allerdings notwendig, die interferierenden Signale wie auch die Kanaleigenschaften zu kennen. Eine solche Strategie wird bei der in Teil g) dieses Abschnitts vorgestellten multi user ” detection“ verfolgt.
¨ 8.3 Multiplex-Ubertragung
341
b) Walsh-Multiplexsystem Das System verwendet als Tr¨ agersignale die orthogonalen Walsh-Funktionen (s. Abb. 7.13a und Aufgabe 4.21). Da die Kreuzkorrelationsfunktionen dieser Signale nur im Nullpunkt stets verschwinden, ist eine Anwendung nur in einem synchronen Multiplexsystem m¨ oglich. Im Mobilfunk kann dieses Verfahren daher nur im sog. downlink“, d.h. in der Richtung von der festen ” Basisstation zu den beweglichen Mobilstationen innerhalb einer Zelle verwendet werden. Zur Synchronisation wird sinnvollerweise eine der WalshFunktionen unmoduliert u ¨ bertragen. Eine weitere Walsh-Funktion kann als Pilotsignal Aufgaben wie Messung und Ausgleich der Kanald¨ampfung und der zeitvarianten Kanal¨ ubertragungsfunktionen u ¨bernehmen. Beispielsweise werden im amerikanischen System IS-95 im Downlink in einem Funkkanal 64 Walsh-Funktionen verwendet (Viterbi, 1995). Da bei Mehrwegeausbreitung die Orthogonalit¨ at nicht mehr ideal erhalten bleibt, wird in diesem System das Walsh-Multiplexsignal zus¨ atzlich mit einer – der Basis-Station zugeordneten – langen Pseudonoisefolge (s. Abschn. 8.3.4e) moduliert. Dadurch erscheint das durch die Orthogonalit¨ atsfehler entstehende Nebensprechen als rausch¨ ahnliche St¨ orung. Anzumerken ist, dass das System IS-95 auch innerhalb eines Einzelkanals Walsh-Funktionen der L¨ ange M zur h¨ oherstufigen orthogonalen Digital¨ ubertragung benutzt. Hierzu werden lb M Bin¨ arwerte der Quelle zusammengefasst und jeweils einer von M Walsh-Funktionen zugeordnet. Es l¨asst sich ¨ zeigen, dass die Fehlerwahrscheinlichkeit bei Ubertragung mit mehreren orthogonalen Tr¨ agersignalen deutlich geringer ist als bei Verwendung von nur ¨ zwei Signalen. (Ein solches System wird in Ubungen 9.9 berechnet.) c) Asynchrone Multiplexsysteme L¨ asst sich die Synchronit¨ at der Tr¨ agersignale untereinander nicht erreichen, wie es z. B. bei Mobilfunksystemen f¨ ur die Richtung von den Mobilstationen zur Basisstation (im sog. uplink“) der Fall ist, so kommt vorzugsweise ein ” asynchrones Multiplexverfahren in Betracht. Die asynchrone Codemultiplextechnik verwendet im Gegensatz zur asynchronen Frequenzmultiplextechnik breitbandige, zeitbegrenzte Tr¨agersignale ur alle τ exakt si (t), deren Kreuzkorrelationsfunktionen ϕE ij (τ ) zwar nicht f¨ verschwinden k¨ onnen, aber u ¨berall nur geringe Werte annehmen sollen. Geeignete, sog. fast-orthogonale Tr¨ agerfunktionen dieser Art w¨aren z. B. zeitbegrenzte Ausschnitte aus tiefpassbegrenztem weißen Rauschen ( Rauschmodu” lation“). Technisch erheblich einfacher, da in Sender und Empf¨anger in gleicher Form und mit digitalen Schaltungen erzeugbar, sind bin¨are PseudonoiseSignale. Ihre Konstruktion wird im n¨ achsten Abschnitt n¨aher beschrieben. Ein weiterer Vorteil fast-orthogonaler Tr¨ agerfunktionssysteme liegt darin, dass die Anzahl Q unterschiedlicher Funktionen gleicher L¨angen M im Vergleich zu Walsh-Funktionen gr¨ oßer als die L¨ ange sein kann. Die Kanalzahl ei-
342
8. Modulation, Multiplex und Codierung
nes solchen Systems kann auf Kosten der Nebensprechst¨orungen damit weiter ¨ erh¨ oht werden. Mit steigender Teilnehmerzahl nimmt die Ubertragungsg¨ ute allerdings allm¨ ahlich ab ( graceful degradation“). Dieser gegenseitige Aus” gleich macht sich besonders im Vergleich zu Zeitmultiplexsystemen g¨ unstig bemerkbar, da sich w¨ ahrend der bei Sprach¨ ubertragung h¨aufigen Gespr¨achs¨ pausen pro Richtung die Ubertragungskapazit¨ at eines asynchronen CDMASystems selbstst¨ andig anpasst. Kritisch ist bei asynchronen CDMA-Systemen allerdings die Abh¨ angigkeit der Nebensprechst¨orungen von Nachbarsignalen hoher Leistung, die bei einem r¨ aumlich verteilten Multiplexsystem im Uplink unvermeidbar sind ( near-far-Effekt“). Zur Abhilfe muss hier eine zentrale ” Regelung der Sendeleistungen erfolgen. d) Pseudonoise-Folgen Eine Pseudonoise-Folge (PN-Folge) ist eine konstruierte periodische, zeitdisurfelten Zukrete Bin¨ arfolge sd (n), die in ihren Eigenschaften einer z.B. gew¨ fallsfolge nahekommt. Die wichtigsten PN-Folgen sind die bin¨aren Maximumlength-Folgen (m-Folgen) mit den L¨ angen M = 2r − 1,
r = 2, 3, 4 . . . .
(8.74)
m-Folgen k¨ onnen bis zu beliebig großen L¨ angen sehr einfach in r¨ uckgekoppelten Schieberegistergeneratoren mit r Speicherzellen erzeugt werden. Ein solcher Generator ist in Abb. 8.24 dargestellt. In jeder Zeiteinheit wird der Inhalt der Speicherzellen 1 . . . r − 1 in die jeweils n¨achste Zelle verschoben. Die 1. Zelle wird gleichzeitig u uckkopplungswege neu geladen. Aus ¨ber die R¨ der r-ten Zelle kann die Ausgangsfolge entnommen werden.
Abb. 8.24. R¨ uckgekoppelter, bin¨ arer Schieberegistergenerator
Die Schaltung kann in ihren r bin¨ aren Speicherzellen 2r Zust¨ande annehmen. Durch geeignete R¨ uckkopplungsabgriffe ist es immer zu erreichen, dass der Generator nach Start mit einem Anfangsimpuls alle diese Zust¨ande mit Ausnahme des energielosen“ Zustands (000 . . . 0) je einmal durchl¨auft. Die dann ” erzeugte periodische Folge hat die maximal m¨ogliche, durch (8.74) gegebene L¨ ange = Periode, im Beispiel der Abb. 8.24 also M = 511. Tabellen mit geeigneten R¨ uckkopplungsabgriffen finden sich in (Simon, 1994; Finger, 1997; ¨ L¨ uke, 1992). Die m-Folgen werden in Ubertragungssystemen immer in ihrer
¨ 8.3 Multiplex-Ubertragung
343
bipolaren Form sbd (n) mit Elementen ∈ {+1, −1} angewandt16 . Sie haben ¨ dann folgende, f¨ ur die weiteren Uberlegungen wichtige Eigenschaften: α) Periodische Autokorrelationsfunktionen. Die periodische Autokorrelationsfunktion nach (4.36) ist impulsf¨ ormig und zweiwertig. Innerhalb einer Periode gilt M−1 M f¨ ur m = 0 E sbd (n)sbd (n + m) = (8.75) ϕssd (m) = −1 f¨ ur 0 < m < M. n=0 F¨ ur große M sind die Nebenwerte also sehr klein im Vergleich zum Hauptwert. m-Folgen n¨ ahern sich damit Folgen mit ideal impulsf¨ormiger, periodischer Autokorrelationsfunktion, den sog. perfekten Folgen, an. Das DFT-Spektrum lautet mit (4.37) innerhalb einer Periode 1 f¨ ur k = 0 (8.76) |Sd (k)|2 = M +1 f¨ ur 0 < k < M, m-Folgen sind also breitbandige Folgen mit konstantem Spektrum in nahezu der ganzen Periode der DFT (Beispiel s. Aufgabe 8.10). β) Unbalance. Die Anzahl von Werten mit +1 und −1 in m-Folgen unterscheiden sich nur um 1, die Folgen sind damit fast gleichanteilfrei. Die auf die L¨ange bezogene Abweichung von der Gleichanteilfreiheit, die relative Unba” lance“, betr¨ agt 1/M (s. Aufgabe 8.10). γ) Shift and add-Eigenschaft. m-Folgen besitzen die sog. shift and add“” Eigenschaft. Diese f¨ ur die Bildung gr¨ oßerer Familien gut korrelierender Folgen wichtige Beziehung besagt f¨ ur periodische, bipolare m-Folgen sbd (n) · sbd (n + u) = sbd (n + v) f¨ ur 0 < u, v < M,
(8.77)
d. h. das Produkt einer m-Folge und ihrer periodisch Verschobenen ergibt wieder die gleiche, um einen anderen (von den R¨ uckkopplungsbedingungen abh¨ angigen) Wert v periodisch verschobene m-Folge (Beispiel s. Aufgabe 8.10). δ) Schranken der Kreuzkorrelation. Die Kreuzkorrelationseigenschaften unterschiedlicher m-Folgen gleicher L¨ ange spielen f¨ ur die Bildung von Tr¨agerfunktionen f¨ ur CDMA-Systeme eine wichtige Rolle. Nach Untersuchungen, die zuerst von (Golomb, 1967) durchgef¨ uhrt wurden, gibt es zu jeder mFolge s1bd (n), deren Grad r kein Vielfaches von 4 ist, mindestens eine weitere m-Folge s2bd (n) gleicher L¨ ange so, dass ihre periodische Kreuzkorrelationsfunktion dreiwertig ist und die Schrankenbedingung erf¨ ullt: 16
Die in einigen folgenden Formeln angewandte Multiplikation bipolarer Folgen entspricht bei unipolaren Folgen einer Exklusiv-oder-Operation (Summe mod 2). ¨ Diese Aquivalenz ist korrekt, wenn das bipolare Symbol +1“ auf die logische ” (unipolare) 0“ und die bipolare −1“ auf die logische 1“ abgebildet wird. ” ” ”
344
8. Modulation, Multiplex und Codierung int(r/2+1) |ϕE + 1. 12d (m)| ≤ 2
(8.78)
Ein solches Folgenpaar wird preferred pair“ genannt. Aus einer gegebenen ” Folge s1bd (n) l¨ asst sich die zweite Folge s2bd (n) dadurch gewinnen, dass in der periodischen Folge s1bd (n) jeder c-te Wert abgetastet wird. F¨ ur diese Abtastung oder Dezimation“ gilt17 ” s2bd (n) = s1bd (cn) mit c = 2α + 1 und α so, dass r/ggT(r, α) ungerade.
(8.79)
Ein Beispiel wird in Aufgabe 8.10 betrachtet. Bei einigen l¨angeren m-Folgen lassen sich mehr als zwei Folgen finden, die (8.78) erf¨ ullen. Jedoch ist der Umfang dieser Familien von m-Folgen unzureichend. Eine M¨ oglichkeit zur Bildung gr¨ oßerer Familien ist die Hinzunahme von Kombinationsfolgen, wie es bei den im Folgenden besprochenen Familien der Gold-Folgen“ mit einem Umfang von Q = M +2 geschieht. Insbesondere ” f¨ ur zellulare Mobilfunksysteme und andere Aufgaben werden große Famili” en“ mit einem Umfang von Q M ben¨ otigt. Diese k¨onnen z. B. durch Verallgemeinerung des in Abschn. 8.3.4e beschriebenen Verfahrens f¨ ur praktisch alle Anwendungsf¨ alle konstruiert werden (Fan, Darnell, 1996; Simon, 1994). e) Familie der Gold-Folgen Aus zwei bipolaren, periodischen m-Folgen s1bd (n), s2bd (n) gleicher L¨ange M werden alle m¨ oglichen Produktfolgen s1bd (n)·s2bd (n+u) gebildet und mit den Ausgangsfolgen zu einer Familie Υ von Q = M + 2 Folgen zusammengefasst: Υ := {s1bd(n), s2bd (n), s1bd (n) · s2bd (n + u)} mit 0 ≤ u < M.
(8.80)
Die periodischen Korrelationsfunktionen zwischen zwei Mitgliedern dieser Familie errechnen sich dann zu18 ϕE uvd (m) =
M−1
[s1bd (n)s2bd (n + u)] · [s1bd (n + m)s2bd (n + v + m)]
n=0
=
M−1
[s1bd (n)s1bd (n + m)] · [s2bd (n + u)s2bd (n + v + m)]
n=0
und mit der shift and add-Eigenschaft (8.77) 17 18
ggT: gr¨ oßter gemeinsamer Teiler Es l¨ asst sich in ¨ ahnlicher Weise leicht zeigen, dass dieselbe Schranke auch f¨ ur die Kreuzkorrelation zwischen jeder der beiden urspr¨ unglichen Folgen und jeder der Produktfolgen eingehalten wird.
¨ 8.3 Multiplex-Ubertragung
ϕE uvd (m) = =
M−1
s1bd (n n=0 ϕE 12d (k − i)
345
+ i)s2bd (n + k) ,
(8.81)
wobei i, k von der R¨ uckkopplungsstruktur der Folge abh¨angen. Damit enthalten die periodischen Kreuzkorrelationsfunktionen der Produktfolgen und auch die Nebenwerte ihrer periodischen Autokorrelationsfunktionen die gleichen, aber anders angeordneten Werte, wie sie in der Kreuzkorrelationsfunktion der Ausgangsfolgen enthalten sind. Die Produktfolgen sind damit keine m-Folgen mehr, sie halten aber alle die durch die Ausgangsfolgen vorgegebene Schranke (8.78) ein. Diese Eigenschaft kann zur Konstruktion großer Familien gut korrelierender Folgen ausgenutzt werden. Erg¨ anzt man hierzu die zwei m-Folgen eines preferred pair“ aus Ab” schn. 8.3.4d durch ihre M Produktfolgen (8.80), so entsteht eine Familie von Q = M + 2 Gold-Folgen mit der Kreuzkorrelations-Schranke nach (8.78). Nach (8.81) sind die Nebenwerte der Auto- gleich denen der Kreuzkorrelationsfunktionen, so dass (8.78) auch die Autokorrelations-Schranke bestimmt. Ein Beispiel f¨ ur die Bildung einer Gold-Familie des Umfangs Q = 9 wird in Aufgabe 8.10 berechnet. Aus der Schrankenbeziehung (8.78) erh¨ alt man mit M ≈ 2r n¨aherungsweise √ f¨ ur r gerade 2(r/2+1) + 1 ≈ 2 M E √ |ϕ12d (m)| ≤ (8.82) ((r−1)/2+1) + 1 ≈ 2M f¨ ur r ungerade. 2 Es kann gezeigt werden, dass dieses Schrankenverhalten im Vergleich mit beliebigen anderen bin¨ aren Familien des Umfangs Q ≈ M dem theoretisch bestm¨ oglichen Wert nahekommt. Die Folgen einer Gold-Familie werden i. Allg. in Form von Rechtecksignalen s(t) angewandt (s. Abb. 8.25). In modulierter Form verschlechtern sich die f¨ ur den periodischen Fall berechneten Auto- und Kreuzkorrelationsschranken. Beispiele der aperiodischen Korrelationsfunktionen der Signale aus Abb. 8.25a zeigt 8.25b. Eine Absch¨ atzung der Zusammenh¨ ange zwischen Nebensprechen, Nutzerzahl Q und notwendiger Folgenl¨ ange M f¨ ur ein asynchrones CDMA-System asst sich wie folgt geben: mit Gold-Folgen im Uplink-Betrieb19 l¨ Am Eingang der Entscheidungsstufe addieren sich zum Nutzwert mit der Amplitude M die Nebensprechwerte der Q−1 anderen Nutzer leistungsm¨aßig, da sie als unabh¨ angig angenommen werden k¨onnen. Damit gilt bei Annahaherungsweise f¨ ur das Nutz- zu Interferenzleime einer Leistungsregelung20 n¨ stungsverh¨ altnis mit der oberen Absch¨ atzung aus (8.82) f¨ ur ungerade r 19 20
Gold-Folgen werden z.B. im UMTS-Mobilfunksystem eingesetzt. s. Unterabschnitt g. Die Absch¨ atzung f¨ ur den Fall fehlender Leistungsregelung wird ebenfalls dort gegeben.
346
8. Modulation, Multiplex und Codierung
Abb. 8.25. Zwei Tr¨ agersignale si (t) eines CDMA-Verfahrens (a) mit aperiodischen Auto- und Kreuzkorrelationsfunktionen (b)
Sa M2 M √ . = = NI 2(Q − 1) (Q − 1)( 2M )2
(8.83)
¨ Bei bipolarer Ubertragung ist f¨ ur PCM-Systeme im Schwellenbereich ein Sa /N ≈ 20 ≡ 13 dB zu verlangen (s. Abb. 7.37 mit Sa /N = E/N0 ). Hiermit ließen sich beispielsweise f¨ ur Gold-Folgen der L¨ange M = 511 zun¨achst nur Q = 511/(2 · 20) + 1 = 14 Nutzer gleichzeitig empfangen. F¨ ur eine genauere Bestimmung der Nutzerzahl m¨ ussen weitere Einflussgr¨ oßen betrachtet werden. Einmal stellt (8.82) eine obere Schranke dar. Auch unter Ber¨ ucksichtigung des ung¨ unstigeren Schrankenverhaltens modulierter Folgen (vgl. Abb. 8.25b) kann Sa /N daher um einen Faktor von 2 erniedrigt werden. Weiter sprechen in der einen Richtung des Uplinks im Mittel nur etwa 3/8 der Nutzer gleichzeitig ( voice activity factor“). Schließlich ” bringen geeignete Kanal- und Leitungscodierungsverfahren einen weiteren Gewinn von ca. 4. Damit erh¨ oht sich die Nutzerzahl im Beispiel auf etwa Q ≈ 14 · 2 · 4 · 8/3 ≈ 298. Auf der anderen Seite vermindern Einflussgr¨oßen wie Mehrwegeausbreitung, ungen¨ ugende Leistungsregelung und Nebensprechst¨orungen aus benachbarten Zellen die Nutzerzahl wieder. Insgesamt erh¨alt man im Vergleich von CDMA mit TDMA grob etwa gleiche Nutzerzahlen, wobei jedoch der Vorteil der gr¨ oßeren Flexibilit¨ at von CDMA (graceful degradation und einfachere Signalisierung bei Zellenwechsel) bleibt - allerdings ist dies durch eine aufw¨ andigere Realisierung zu erkaufen.
¨ 8.3 Multiplex-Ubertragung
347
f ) Frequenzsprungverfahren Im Vergleich zu den bisher besprochenen asynchronen DS-CDMA-Verfahren verwenden Frequenzsprungverfahren (FH, Frequency Hopping) BandpassTr¨ agersignale, deren Augenblicksfrequenzen in einer geeigneten, pseudozuf¨alligen Weise mehrfach pro Taktperiode ver¨ andert werden. Neben diesen schnel” len“ Frequenzsprungverfahren existieren auch langsame“ Verfahren, bei de” nen die Augenblicksfrequenz nur einmal pro Taktperiode umgeschaltet wird (Simon, 1994). Die Konstruktion einer einfachen Familie von Folgen f¨ ur das schnelle Frequenzspringen wird in Aufgabe 8.11 betrachtet. Das Prinzip wird durch das Blockschaltbild in Abb. 8.26 beschrieben; hierbei werden die Tr¨ agersignale mit Frequenzen fc durch Ansteuern von Frequenzsynthesizern aus den FH-Codefolgen erzeugt.
a n @ (t-n T )
x
s T (t)
m (t) c o s (2 F fct)
C o d e g e n e ra to r
c (t)
F re q u e n z s y n th e s e fc = f{c (t)}
Abb. 8.26. Blockschaltbild des Senders bei einem Frequenzsprung-CodemultiplexVerfahren
Langsame Frequenzsprung-Verfahren wurden bereits im 2. Weltkrieg verwendet, um sowohl das Abh¨ oren zu erschweren, als auch schmalbandigen St¨orern auszuweichen. Schnelle Frequenzsprung-Verfahren besitzen gegen¨ uber den Direct Sequence-Verfahren einen Vorteil, wenn in Mobilfunknetzen die Stationen r¨ aumlich weit gestreut liegen und die Leistungsregelung nur unvollkommen gelingt. Nah benachbarte Sender k¨ onnen hier so stark nebensprechen, dass die nicht ideal verschwindende Kreuzkorrelationsfunktion eines Direct Sequence-Systems ein zu hohes Nebensprechen erzeugt ( far-near problem“). ” Bei Frequenzsprungverfahren kann insbesondere das Nebensprechen besser beherrscht werden. Frequency-Hopping-Verfahren werden auch bei der drahtlosen Bluetooth¨ Ubertragung eingesetzt, um frequenzselektive St¨orungen z.B. durch Mikrowellenherde oder andere Ger¨ ate, die in der h¨auslichen Umgebung h¨aufig anzutreffen sind, zu umgehen. g) Optimierung von DS-CDMA-Empf¨ angern Die CDMA-Technik bietet eine Reihe von M¨oglichkeiten, um durch ad¨aqua¨ te Auslegung des Empf¨ angers eine bessere Ubertragungsqualit¨ at zu errei-
348
8. Modulation, Multiplex und Codierung
chen. Ein Konzept, um das Ph¨ anomen des Mehrwegeempfangs (vgl. Anhang 8.6.1) nicht nur zu kompensieren, sondern sogar zu einer Verbesserung der Empfangsqualit¨at auszunutzen, stellt der Rake“-Empf¨anger (engl. f¨ ur ” Gartenrechen“) dar, der in Abb. 8.27 dargestellt ist. Auf Grund einer Ka” nalsch¨ atzung seien die Verz¨ ogerungszeiten τi und D¨ampfungsparameter ci von I Empfangswegen bekannt. Das optimale Ergebnis wird erzielt, wenn das Ergebnis aus I Korrelationsfilter-Empf¨ angern, die auf Grund der bekannten arent arbeiten, u τi jeweils bzgl. eines Pfades koh¨ ¨ berlagert werden. Als optimale Gewichte der einzelnen Beitr¨ age ergeben sich die Werte αi aus (8.119).
x
x J
c (t-
= 1
(t)
= 2
(t)
) 1
x
x
r(t)
J
c (t-
2
)
...
...
x
x c (t-
J
I)
=
I(
+
g (t)
t)
Abb. 8.27. Rake“-Empf¨ angerstruktur ”
In (8.83) war eine Bedingung f¨ ur das Sa /NI -Verh¨altnis bei CDMA zun¨achst unter der Vorausssetzung hergeleitet worden, dass die Pegel der empfange¨ nen Signale alle gleich seien. Dies ist bei einer Mobilfunk-Ubertragung auch ¨ tats¨ achlich im Downlink“ (d.h. bei der Ubertragung von der Basisstation zu ” den einzelnen Teilnehmern) der Fall, sofern die Basisstation die f¨ ur die einzelnen Teilnehmer bestimmten Signale mit identischen Leistungspegeln u ¨ berlagert. Im Uplink“ ergibt sich aber, dass die empfangenen Pegel von Teilneh” mern, die sich n¨aher an der Basisstation befinden, gr¨oßer w¨aren als diejenigen von weiter entfernten Teilnehmern ( far-near problem“). Unter Ber¨ ucksich” tigung individueller D¨ ampfungsparameter αi der den einzelnen Teilnehmern zuzuordnenden Pfade erg¨ abe sich z.B. f¨ ur Teilnehmer 1 in Modifikation von altnis (8.83) ein Sa /NI -Verh¨ Sa α2 M = Q1 . NI ) 2 2 αi
(8.84)
i=2
Unter Ber¨ ucksichtigung aller Teilnehmer ergibt sich das optimale Ergebnis f¨ ur (8.84), wenn die Werte αi , d.h. die empfangenen Leistungspegel, alle gleich
¨ 8.3 Multiplex-Ubertragung
349
sind. Mobilfunk-CDMA-Systeme m¨ ussen daher mit einer Leistungsregelung arbeiten, mit der nahe bei der Basisstation befindliche Teilnehmer ihre Sendeleistung entsprechend reduzieren. Einen weiteren Ansatz zur Verbesserung der Empfangsqualit¨at stellen die Verfahren der Multi User Detection“ (MUD) dar. Da bei CDMA da” von auszugehen ist, dass die anderen Benutzer die wesentliche Quelle von ¨ Ubertragungsst¨ orungen darstellen, wird versucht, das von ihnen ausgehende Signal aus dem empfangenen Signal zu entfernen. Dies kann beispielsweise durch die in Abb. 8.28 dargestellte Empf¨ angerstruktur erfolgen, die allerdings in der Realisierung aufw¨ andig ist. Hier werden die Entscheidungen aus Empf¨ angern aller Benutzer verwendet, um den vermutlichen St¨oranteil nochmals zu generieren und am Empf¨ angereingang des gew¨ unschten Signals zu subtrahieren. Eine derartige Methode ist bei einem typischen Mobilfunkszenario vor allem im Uplink“ (f¨ ur den Empfang an der Basisstation) prak” tikabel, denn hier m¨ ussen ohnehin die Empf¨ anger f¨ ur alle Benutzer parallel realisiert werden. Sofern allerdings jeder der Empf¨anger mit MUD arbeiten soll, l¨ asst sich ein optimales Ergebnis nur mit einem iterativen Verfahren erzielen, was den Aufwand nochmals erh¨ oht.
-
r(t)
a
e n
E m p f. 1
a E m p f. 2
e n
(1 )
(2 )
x
x J
c (t-
2
e n
(I)
(t) 2
+
...
...
... a E m p f. I
= )
x
x c (t-
J
I)
=
I(
t)
Abb. 8.28. Empf¨ angerstruktur bei Multi User Detection“, hier f¨ ur Empfang des ” ersten Signals
8.3.5 Raummultiplex-Verfahren, Diversit¨ ats¨ ubertragung und MIMO-Systeme Typischerweise sind Sender und Empf¨ anger von Nachrichtensignalen r¨aumlich verteilt, insbesondere bei Funk¨ ubertragung ist auch die Reichweite des Senders begrenzt. Bei einem Raummultiplex ist es generell das Ziel, dieselben Ressourcen (z.B. Sendezeitschlitze, Frequenzb¨ander) f¨ ur unterschiedli¨ che Empfangspositionen oder unterschiedliche Ubertragungswege mehrfach
350
8. Modulation, Multiplex und Codierung
zu nutzen. Bei der analogen Rundfunk- und Fernseh¨ ubertragung wurden typischerweise unmittelbar benachbarte Sender so ausgelegt, dass sie auf unterschiedlichen Frequenzen senden, da ansonsten Interferenzen entstehen w¨ urden. Erst ein weiter entfernter Sender kann dann dieselbe Frequenzressource erneut verwenden. Eine ¨ ahnliche Strategie wird auch noch bei der Ressourcenbelegung zwischen den Basisstationen der zellularen Mobilfunknetze in den ersten Generationen verfolgt. Bei dieser klassischen Form des Raummultiplex werden dann bewegte Sender oder Empf¨anger so ausgelegt, dass sie sich selbstst¨ andig zu derjenigen Basisstation verbinden, mit der die beste ¨ ¨ Ubertragungsqualit¨ at erreicht wird. Mit modernen digitalen Ubertragungsverfahren wird es aber bei vertretbarem Aufwand auch m¨oglich, eine Verbindung zu mehreren Stationen gleichzeitig zu unterhalten, um so unter Ausnutzung aller verf¨ ugbaren Informationen die bestm¨ogliche Empfangsqualit¨at zu erzielen. Hierbei werden sogar systematisch Interferenzen in Kauf genommen. Sofern z.B. dasselbe Signal von mehreren benachbarten Sendern oder Anten¨ nen synchron gesendet wird, ist das entstehende Uberlagerungsph¨ anomen auf Grund der Laufzeiteffekte nahezu identisch mit dem Mehrwegempfang. Am Beispiel des Rake-Empf¨ angers (Abb. 8.27) wurde bereits gezeigt, dass sich ¨ solche Uberlagerungen, sofern ihre Natur bekannt ist, in produktiver Weiuber hinaus bestehen aber weitere M¨oglichkeiten, se ausnutzen lassen21 . Dar¨ verschiedene gleichzeitig gesendete Signale gezielt aufeinander abzustimmen, z.B. durch Ausnutzung von r¨ aumlichen Richtcharakteristiken oder durch eine ¨ systematische Codierung f¨ ur die einzelnen Ubertragungswege. ¨ Anmerkung: Generell werden Ubertragungsmethoden, bei denen der Empf¨anger eine Auswahl zwischen mehreren Sendungen desselben Signals erh¨alt, als Diversit¨atsverfahren (engl. diversity“) bezeichnet. Man unterscheidet hier ” zwischen Frequenzdiversit¨ at, Zeitdiversit¨ at, Ortsdiversit¨at, Antennendiversit¨ at, Codediversit¨ at usw. Bereits in der analogen Signal¨ ubertragung wurden Diversit¨ atsverfahren teilweise eingesetzt. ¨ Es werden nun zur Charakterisierung der Ubertragung unter dieser generalisierten Sichtweise verschiedene Arten von Kan¨alen unterschieden: a) Der bisher als Kanalmodell meist betrachtete, einfache Gauß-Kanal besitzt lediglich einen Eingang, in den der Sender einspeist, und einen Ausgang, aus dem der Empf¨ anger die Information entnimmt, außerdem ist eine additive Rauschst¨ orung u ¨berlagert. Dieser Kanal wird als SISO-Kanal (Single Input, Single Output) bezeichnet. Ein Raummultiplex wird hierbei allenfalls bei Verwendung mehrerer unabh¨angiger Parallelkan¨ale unterst¨ utzt. 21
Ein anderes Verfahren, bei dem laufzeitbehaftete Signal¨ uberlagerungen mit den daf¨ ur typischen frequenzselektiven Ausl¨ oschungs- und Verst¨ arkungseffekten produktiv ausgenutzt werden k¨ onnen, ist die in Abschn. 8.3.6 behandelte Vielfachtr¨ ager-Modulation.
¨ 8.3 Multiplex-Ubertragung
351
b) Bei Ausnutzung des Mehrwegeempfang wie im Rake-Empf¨anger oder bei synchroner Sendung desselben Signals von unterschiedlichen Orten trifft diese Annahme bereits nicht mehr zu. Im Kanal werden hier unterschiedliche Kopien des Nutzsignals sowie eine additive Rauschst¨orung u ¨ berlagert und u ¨ ber einen einzigen Ausgang an den Empf¨anger mit nur einem Eingang u ¨ bergeben. Diesen Kanaltyp bezeichnet man als MISO-Kanal (Multiple Input, Single Output). c) Eine weitere Variante besteht darin, einen Empf¨anger mit mehreren Eing¨angen zu implementieren, z.B. durch Verwendung mehrerer Antennen, oft auch mit unterschiedichen Richtcharakteristiken. Diese Technik wird beispielsweise im Uplink von Mobilfunk-Basisstationen oder an WLAN-Zugriffspunkten eingesetzt. Der zugeh¨orige SIMO-Kanal besitzt zwar nur einen Eingang, aber mehrere Ausg¨ange (Single Input, Multiple Output). An jedem der Ausg¨ ange ist nun eine additive St¨orung u ¨berlagert; die einzelnen St¨ orungen k¨ onnen unkorreliert oder korreliert sein. d) Die letzte Variante ist eine Kombination, bei der sowohl mehrere Senderausg¨ ange verwendet werden, als auch mehrere Eing¨ange des Empf¨angers existieren. Auch hier ist an jedem der Ausg¨ange eine additive St¨orung u ¨ berlagert. Dieser Kanal wird als MIMO-Kanal (Multiple Input, Multiple Output) bezeichnet. Diese universellste Variante ist f¨ ur zuk¨ unftige drahtlose und Mobilfunknetze (zuk¨ unftiger UMTS-Ausbau, vierte Generation, WLAN IEEE 802.11n und WiMax IEEE 802.16) vorgesehen, um insbesondere durch die systematische Ausnutzung mehrerer Sende- und Em¨ pfangswege die Ubertragungskapazit¨ at zu erh¨ohen. ¨ Das Modell eines MIMO-Ubertragungssystems mit Sender, Kanal und Em¨ pf¨ anger ist in Abb. 8.29 dargestellt. Das Ubertragungsverhalten kann in folgender Vektor-Matrix-Form beschrieben werden: ⎤⎡ ⎤ ⎡ ⎡ ⎤ ⎡h ⎤ 11 h12 · · · h1L r1 n1 s1 ⎢ ⎥ . ⎢ r2 ⎥ ⎢ ⎢ s2 ⎥ ⎢ n 2 ⎥ h2L ⎥ h21 . . ⎢ ⎥ ⎥ ⎢ ⎥ ⎥⎢ r=⎢ . ⎥=⎢ .. ⎥ + ⎢ .. ⎥ = Hs + n . (8.85) .. ⎥ ⎢ . .. ⎣ .. ⎦ ⎢ ⎣ ⎦ ⎦ ⎣ . . ⎣ .. ⎦ . . rM s n L M hM1 hM2 · · · hML Da der Sender L Ausg¨ ange und der Empf¨ anger M Eing¨ange22 besitzt, hat der Sendevektor s die Dimension L, der Empfangsvektor r ebenso wie der additive Rauschvektor n die Dimension M , und die Kanalmatrix H ist mit Dimension L × M (Spalten × Zeilen) anzugeben. H stellt dar, in welcher Form jeder Eingang in s mit jedem Ausgang in r linear verkn¨ upft ist. Gene¨ rell k¨ onnen alle Eintr¨ age komplex sein, um z.B. eine Bandpass-Ubertragung mittels der Quadraturkomponenten der ¨ aquivalenten Tiefpasssignale in den ¨ einzelnen Ubertragungswegen zu charakterisieren. Im einfachsten Fall ist H, 22
¨ Entsprechend besitzt der Kanal L Eing¨ ange und M Ausg¨ ange, sowie LM Ubertragungswege, die jeden Eingang mit jedem Ausgang verbinden.
352
8. Modulation, Multiplex und Codierung
wie oben dargestellt, eine Matrix aus skalaren Werten, welche die D¨ampfungs¨ faktoren in den einzelnen Ubertragungswegen darstellen. Eine Beschreibung im Frequenzbereich ist ebenfalls m¨ oglich und vor allem dann vorteilhaft, wenn ¨ die Ubertragungswege eine frequenzabh¨ angige D¨ampfung aufweisen, wie es z.B. bei frequenzselektivem Fading der Fall ist; die Eintr¨age in einer Matrix ¨ H(f ) bestehen dann aus den Fourier-Ubertragungsfunktionen der einzelnen Wege.
... sL
h21 hM 2 hM 1
h11 h22
h12 h1L
n1 h2L n2
+ +
...
nM hML
r1 r2
+
rM
Demodulation, Filterung, Entscheidung
Symbolabbildung, Modulation
an , bk
s1 s2
aen , bek
Abb. 8.29. MIMO-System mit L Kanaleing¨ angen und M Kanalausg¨ angen
¨ Allerdings muss nun ber¨ ucksichtigt werden, dass f¨ ur die gesamte Ubertragung mit M Kanaleing¨ angen keine gr¨ oßere Sendeenergie pro bit aufgewendet wer¨ den soll als bei einer SISO-Ubertragung. Ideal w¨are daher ein MIMO-Kanal, ¨ bei dem mehrere Ubertragungswege m¨ oglichst unabh¨angig voneinander sind, ohne dass zus¨ atzliche Sendeenergie f¨ ur doppelt u ¨ bertragene Information aufgewendet werden muss. Die Kanalmatrix H kann in der Regel nur in bestimmten Grenzen, z.B. durch andere Anordnung der Antennen, ver¨andert werden, wird aber im wesentlichen auch durch die Umgebungssituation der ¨ drahtlosen Ubertragung bestimmt. Es soll nun angenommen werden, dass H dem Sender bekannt sei, so dass dieser die Sendesignale vor dem Kanalein¨ gang m¨ oglichst optimal an die Ubertragungssituation anpassen kann. Hierf¨ ur wird eine Singul¨ arwertzerlegung vorgenommen, mittels der eine ¨aquivalente Repr¨ asentation von H durch die linearen Transformationsmatrizen U und V sowie die mit den Singul¨ arwerten besetzte Diagonalmatrix Λ(1/2) erfolgt. Es gilt (vgl. Anhang 8.6.2) H = UΛ(1/2) VH , so dass r = UΛ(1/2) VH s + n ,
(8.86)
und nach Multiplikation beider Seiten mit UH wegen UH U = I(L) ˜r = UH r = Λ(1/2) VH s + UH n = Λ(1/2)˜ s+n ˜.
(8.87)
Bei einer Vorcodierung des Sendevektors zu ˜s = VH s entsteht daher das in Abb. 8.30 gezeigte Ersatzbild des MIMO-Systems, welches aus R = min(M, L) vollkommen unabh¨ angigen Parallelkan¨alen mit entsprechenden
¨ 8.3 Multiplex-Ubertragung
353
√ ¨ Amplituden-Ubertragungsfaktoren λr besteht. Die Rekonstruktion des eigentlichen Empfangsvektors erfolgt dann durch die Transformation r = U˜r. √ u Man beachte, dass die Werte λr bei der Eigenwertzerlegung ¨blicherwei√ √ √ se in absteigenden Amplituden auftreten, d.h. λ ≥ λ ≥ . . . ≥ λR . 1 2 √ atten mit der urspr¨ unglichen Kanalmatrix W¨ are z.B. lediglich λ1 = 0, so h¨ H alle Unterkan¨ ale dieselbe Information u ¨bertragen, so dass die Verwendung des MIMO-Prinzips keinen Vorteil br¨ achte. Dar¨ uber hinaus werden nun unter ˜ alle derselben Statistik folgen (wenn der Annahme, dass die Rauschprozesse n z.B. n einem station¨ aren weißen Gauß-Prozess entstammt, ist dies der Fall) die S/N -Verh¨ altnisse in den einzelnen Unterkan¨alen wegen der verschieden großen Singul¨ arwerte typischerweise unterschiedlich sein. Dies muss bei der ¨ Wahl des Ubertragungsverfahrens f¨ ur die jeweiligen Werte in ˜s ber¨ ucksichtigt ¨ werden. Die Optimierung der Ubertragung erfordert den Entwurf eines Satzes geeigneter Codes, die wegen der gleichzeitigen Ausnutzung von Raum- und Zeitmultiplex als space-time codes bezeichnet werden (Gesbert et. al. 2003).
s%1
s1
s2
... sL
s%2
VH
l1
l2
n%1 n%2
+ +
... s%R
r%2
... lR
n%R
+
r1 r2
r%1
r%R
U
... rM
Abb. 8.30. Ersatzbild des MIMO-Systems mit R = min(M, L) unabh¨ angigen Parallelkan¨ alen
¨ Das MIMO-Prinzip kann eingesetzt werden, um die Ubertragungskapazit¨ at zu erh¨ ohen, indem z.B. auf den zus¨ atzlichen Kanaleing¨angen weitere Symbole ¨ u at insgesamt zu verbes¨bertragen werden, oder um die Ubertragungsqualit¨ sern, indem dieselben Symbole mit besserem Fehlerschutz u ¨ bertragen werden. ¨ Sofern die Kanalmatrix u berhaupt geeignet ist, zus¨ a tzliche Ubertragungska¨ pazit¨ at zur Verf¨ ugung zu stellen, wird sich eine Verbesserung gegen¨ uber dem SISO-Kanal wie auch gegen¨ uber den anderen o.g. Kanaltypen erreichen lassen. Eine weitere Betrachtung, auch der informationstheoretischen Grenzen ¨ bei MIMO-Ubertragung, erfolgt in Anhang 8.6.2. Es bleibt festzuhalten, dass jede Optimierung am Sender und am Empf¨ anger eine nahezu perfekte Kenntnis der Kanalmatrix H voraussetzt. Dies ist bei drahtlosen Kan¨alen mit festen Sende- und Empfangsstationen relativ leicht erreichbar, indem zu Beginn der ¨ Ubertragung eine dem Empf¨ anger bekannte Pr¨aambel gesendet wird, aus deren Kenntnis durch Vergleich mit den empfangenen Daten die Kanaleigenschaften ermittelt werden. Bei zeitvarianten Kan¨alen, insbesondere bei bewegtem Sender und/oder Empf¨ anger, ist das Problem der Kanalsch¨atzung
354
8. Modulation, Multiplex und Codierung
f¨ ur MIMO signifikant komplexer als es ohnehin bereits f¨ ur SISO der Fall ist, und letzten Endes heute noch in vielen Aspekten ungel¨ost. 8.3.6 Vielfachtr¨ ager-Modulationsverfahren und OFDM Bei Vielfachtr¨ ager-Modulationsverfahren werden innerhalb einer Taktperiode die von einem einzigen Sender zu u ¨ bertragenden Bits auf N verschiedene Tr¨ agerfrequenzen verteilt gesendet, d.h. im Sinne der fr¨ uher gegebenen Definition handelt es sich eigentlich nicht um ein Multiplex“-Verfahren. Das ” Verfahren wird dennoch bei Verwendung in Funkkan¨alen u ¨ blicherweise als Orthogonal Frequency Division Multiplex (OFDM) bezeichnet. Die einzelnen Tr¨ ager sind dabei typischerweise sehr schmalbandig (Bandbreite reziprok zur Sendetaktdauer). Im Folgenden wird das OFDM-Verfahren am Beispiel modulierter Tr¨ ager mit rechteckf¨ ormigen H¨ ullkurven dargestellt. Auf Grund des si-f¨ ormigen Spektrums der einzelnen Tr¨ ager entstehen dabei zwar signi¨ fikante spektrale Uberlappungen; jedoch ist auf Grund der Verwendung perfekt synchronisierter orthogonaler Signale eine interferenzfreie Trennung am Empf¨ anger m¨ oglich, wie weiter unten gezeigt wird. Wegen der Schmalbanalt man dar¨ uber hinaus noch den digkeit der einzelnen Tr¨ ager (1/T f0 ) erh¨ Vorteil, dass ihre spektralen Amplituden außerhalb des f¨ ur OFDM genutzten Frequenzbandes relativ schnell abklingen. Sofern pro Tr¨ ager und Taktperiode nur ein Bit u ¨ bertragen wird, findet eine Bipolar¨ ubertragung (BPSK) Anwendung. Meist werden jedoch Gruppen achst auf komplexe Symbole bk abgebildet. Dies entspricht von K Bits am zun¨ typischerweise f¨ ur L = 2 dem QPSK- und f¨ ur K > 2 dem M -PSK- oder M -QAM-Prinzip (vgl. Abschn. 7.3.7). Die Anzahl der innerhalb einer Taktperiode u ¨bertragenen Symbole ist N (eines pro Tr¨ager), es werden also N K Bits u ¨ bertragenen. Die N w¨ ahrend einer Sendetaktperiode nTS ≤ t < (n + 1)TS zu u ¨bertragenden Symbole bk werden mit einer rechteckf¨ormigen H¨ ullkurve auf Frequenzen fk moduliert und u ¨berlagert (vgl. Abb. 8.31). Damit ergibt sich ein komplexes Sendesignal, wie es in ¨ ahnlicher Form bereits von den QuadraturModulationsverfahren her bekannt ist23 : 'N −1 ( t 1 j2πfk t sn (t) = − bk e (8.88) rect , 0 ≤ i < 2N L . T 2 k=0
23
Insgesamt gibt es M = 2NK m¨ ogliche Tr¨ agersignale, welche jeweils einer bestimmten Bit-Konstellation zugeordnet sind. Bei Aneinanderf¨ ugung aller Sende∞ P takte ergibt sich das modulierte Signal m(t) = sn (t − nTS ). Sofern das an n=−∞
sich komplexe sn (t) bei entsprechender Wahl der Tr¨ agerfrequenzen keine Spektralanteile bei f < 0 enth¨ alt, braucht auch nur der Realteil u ¨bertragen zu werden, welcher dann implizit wieder die konjugiert-komplexen Anteile bei negativen Frequenzen besitzt.
¨ 8.3 Multiplex-Ubertragung
a ®b
m k (QPSK, QAM)
x
sT (t )
e j2p f0 t b1 (n)d (t - nT )
x
sT (t )
+ e
...
bN -1 (n)d (t - T )
m(t )
j2p f1t
...
Seriell-Parallel-Umsetzung (Blocklänge N)
am
b0 (n)d (t - nT )
355
sT (t )
x e j2p f N -1 t
sT (-t )
y0(t)
sT (-t )
y1(t)
nT Entscheider
bˆ0
e- j2p f0 t m(t )
x
nT Entscheider
bˆ1
e- j2p f1 t
sT (-t )
...
... x
yN-1(t)
nT Entscheider
bˆN -1
Parallel-Seriell-Umsetzung (Blocklänge N)
x
bˆ ® aˆ
k m (QPSK, QAM)
aˆm
e- j2p f N -1t
Abb. 8.31. Sender und Empf¨ anger (koh¨ arent) bei OFDM; der gestrichelte Teil entspricht dem vereinfachten koh¨ arenten QPSK- oder QAM-Empf¨ anger
Die enthaltenen Tr¨ agersignale sind u ¨ber die Symboldauer T ≤ TS 24 orthogonal, sofern die einzelnen Modulationsfrequenzen fk ganzzahlige Vielfache von 1/T sind. Es wird nun angenommen, dass das OFDM-Signal ein Bandpasssignal mit einer Mittenfrequenz f0 sei, so dass unterhalb und oberhalb von f0 jeweils die H¨ alfte der Tr¨ ager symmetrisch und a¨quidistant angeordnet ist; N sei also geradzahlig. Ein a ¨quivalentes Tiefpasssignal, auf die Mittenfrequenz N und f0 des Bandpasssignals bezogen, besitzt dann Grenzfrequenzen bei ± 2T lautet 24
Im Folgenden wird zun¨ achst meist T = TS angenommen, weiter unten wird der allgemeine Fall diskutiert, der zur Unterdr¨ uckung von Interferenzen bei Mehrwegeempfang dient.
356
8. Modulation, Multiplex und Codierung
snT (t) =
'N −1
( bk e
k=0
]/2 j2π k+[1−N t T
rect
t 1 − T 2
.
(8.89)
Damit jede der OFDM-Tr¨ agerfrequenzen ein ganzzahliges Vielfaches des Re(p ganzzahziprokwertes von T ist, muss die Mittenfrequenz als f0 = p+1/2 T lig) gew¨ ahlt werden. Dann ergibt sich aus dem komplexen siT (t) in (8.89) nach (5.34) das reellwertige Bandpasssignal der Bandbreite N/T mit ebenfalls N orthogonalen Teiltr¨ agern N −1 ]/2 t 1 j2π (f0 + k+[1−N t ) T − bk e rect sn (t) = Re . (8.90) T 2 k=0
Abb. 8.32a zeigt den Zeitverlauf von N = 4 OFDM-Tr¨agern u ¨ ber eine Taktperiode T ; diese sind hier als Sinusfunktionen wie bei BPSK dargestellt, werden jedoch bei h¨ oherwertigen Modulationsverfahren abh¨angig vom jeweiligen Symbol bk auch verschiedene Amplituden und Phasenlagen annehmen k¨ onnen. Abb. 8.32b zeigt das Spektrum des zugeh¨origen Frequenzmultiplex.
Abb. 8.32. N = 4 reellwertige Teiltr¨ ager innerhalb eines OFDM-Symbols der Zeitdauer T : a Zeitverlauf und b Spektrum. [Mittenfrequenz f0 = 2, 5/T ]
Bei koh¨ arentem Empfang, der auf Grund der Verwendung von PSK-, QPSKoder QAM-Symbolen ohnehin notwendig ist, kann die Korrelationsfilterung und Entscheidung sinnvollerweise wieder in den Quadraturkomponenten des ¨aquivalenten Tiefpasssignals (8.89) erfolgen. Der im Empf¨anger in Abb. 8.31 gestrichelt umrandete Teil entspricht dabei dem koh¨arenten QPSK/QAMEmpf¨ anger aus Abb. 7.28, hier allerdings in der Darstellung komplexer Signalverarbeitung an Stelle der separaten Verarbeitung der beiden Quadraturkomponenten. Auf Grund der Orthogonalit¨ at zwischen den einzelnen Tr¨agerur n = 0) signalen kann das auf dem Tr¨ ager l u ¨ bertragene Symbol bl (f¨ zum Abtastzeitpunkt t = T mit folgendem Nutzsignalpegel perfekt aus dem
¨ 8.3 Multiplex-Ubertragung
357
OFDM-Signal separiert werden25 : T ' yl (T ) =
e
]/2 −j2π l+[1−N t T
·
(
N −1
bk e
]/2 j2π k+[1−N t T
dt
k=0
0
=
N −1
T bk ·
ej2π
k=0
0
k−l T t
dt
= bl T.
(8.91)
=T f¨ ur k=l, =0 sonst
Inverse DFT
1
... N
1
... N
Parallel-SeriellUmsetzung
Seriell-ParallelUmsetzung
QPSK / QAM Abbildung
am
bk
x
Re
TP
» Im
TP
cos(2pf0t)
+
m(t )
-sin(2pf0t)
x
D/A- und Bandpass-Umsetzung
komplexe Tiefpass-Signalverarbeitung
nT
nT
Im
... N
1
... N
bˆk
QPSK / QAM Entscheider
x
-sin(2pf0t)
1
Parallel-SeriellUmsetzung
»
Re
cos(2pf0t)
DFT
m(t )
TP
Seriell-ParallelUmsetzung
x
aˆm
TP
Tiefpass- und A/D-Umsetzung
komplexe Tiefpass-Signalverarbeitung
Abb. 8.33. OFDM-Sender und -Empf¨ anger mit Realisierung der digitalen Signalverarbeitung im ¨ aquivalenten Tiefpassbereich mittels einer IDFT bzw. DFT
OFDM-Systeme k¨ onnen besonders effizient durch Methoden der digitalen Signalverarbeitung realisiert werden. Hierf¨ ur wird das ¨aquivalente Tiefpasssignal innerhalb einer Taktperiode der L¨ ange T auf N Abtastwerte abgebildet, wodurch das Abtasttheorem f¨ ur ein Bandpasssignal der Bandbreite N/T , prinzipiell wie in Abb. 5.27, exakt eingehalten wird. Die im Sender durchzuf¨ uhrenden N komplexen Multiplikationen mit exp(j2πfk n/N )26 einschließlich der Summenbildung entsprechen dann einer IDFT (3.43) mit Blockl¨ange N . Im allgemeinen Fall der Modulation von Quadraturkomponenten liegen sowohl am Eingang als auch am Ausgang komplexe Signale an. Ebenso entsprechen die im Empf¨ anger notwendigen N komplexen Multiplikationen mit 25
26
Angenommen wird hier wieder ein ¨ aquivalentes Tiefpass-H¨ ullkurvensignal sT (t) = rect[t/T − 1/2], das kausale Korrelationsfilter besitzt die Impulsantwort hT (t) = sT (T − t). Die Integration u ¨ ber die Zeit T entspricht der Korrelationsfilterung. fk = k + 1−N . 2
358
8. Modulation, Multiplex und Codierung
exp(−j2πfl n/N ) einschließlich der folgenden Summationen einer DFT (3.42). Die DFT-Ausgangswerte gleichen also den Ausg¨angen von N parallelen Korrelationsfiltern mit komplexen Signalamplituden zum Abtastzeitpunkt, die ¨ anschließend einer Entscheidung zugef¨ uhrt werden. Nur f¨ ur die Ubertragung u ¨ber den physikalischen Kanal findet eine Umsetzung in ein zeitkontinuierliches und reellwertiges Signal statt. Die Darstellung in Abb. 8.33 zeigt die ¨ u ur reellwertige Bandpass-Ubertragung, bei ¨bliche Realisierung der OFDM f¨ der die Berechnung der DFT/IDFT im ¨ aquivalenten Tiefpasssignal mittels des FFT-Algorithmus (s. Aufgabe 3.24) erfolgt. ¨ Wird die OFDM-Ubertragung in drahtlosen Netzen angewandt, besteht das Problem des Mehrwegeempfangs (s. Anhang 8.6.1). Unter Ber¨ ucksichtigung der verz¨ ogerten Komponenten w¨ aren, u ¨ ber die Integrationszeit der Dauer T in (8.91) betrachtet, die einzelnen Tr¨agersignale nicht mehr orthogonal, da an den Symbolgrenzen Phasenspr¨ unge auftreten k¨onnen. Hierdurch k¨ onnten sowohl Eigeninterferenzen, als auch Nebensprech-Interferenzen verursacht werden. Eine L¨ osung besteht in der k¨ unstlichen Verl¨angerung der Symboldauer um ein sogenanntes Guard-Intervall der Dauer TG , wobei aber die Integration bzw. DFT-Berechnung dennoch nur u ¨ ber die mit den Tr¨agerfrequenzen und -abst¨ anden abgestimmte Dauer T erfolgen darf. Bei einer maximalen Verz¨ ogerung tmax zwischen den direkt und verz¨ogert eintreffenden ullt sein, die SendetaktdauKomponenten muss die Forderung TG ≥ tmax erf¨ er wird TS = T + TG . Das Signal im Guard-Intervall wird durch k¨ unstliche zyklische Fortsetzung des jeweiligen Tr¨ agersignals gebildet (s. Abb. 8.34). Insgesamt erh¨ oht sich die aufzuwendende Sendeenergie durch die Einf¨ uhrung des Guard-Intervalls um den Faktor TS /T , um denselben Faktor verringert ¨ sich auch die Ubertragungsrate.
Abb. 8.34. Zyklische Erweiterung dreier OFDM-Tr¨ agersymbole in einem GuardIntervall [nach v. Nee/Prasad]
¨ 8.3 Multiplex-Ubertragung
359
Abb. 8.35 stellt direkte und verz¨ ogerte OFDM-Signale am Empf¨angereingang dar. Durch Einf¨ uhrung der Guard-Intervalle werden die Phasenspr¨ unge aus den verz¨ ogerten Signalen von der Integration u ¨ ber die L¨ange T nicht mehr erfasst, so dass die Orthogonalit¨ at der Tr¨ ager erhalten bleibt. Auf Grund von Eigeninterferenzen k¨ onnen sich die direkten und verz¨ogerten Signalkomponenten bei einzelnen Tr¨ agern allerdings teilweise oder vollst¨andig ausl¨oschen. Auf Grund der Linearphasigkeit der Laufzeitwirkung kann dies aber niemals bei allen Tr¨ agern gleichzeitig der Fall sein.
Abb. 8.35. Komponenten eines OFDM-Signals im Falle des Mehrwege-Empfangs (durchgezogene Linien - direkte Signale ; gestrichelte Linien - verz¨ ogerte Signale) [nach v. Nee/Prasad]
¨ Das OFDM-Prinzip stellt eine effiziente Implementierung der Ubertragung mit mehreren orthogonalen Tr¨ agersignalen, ggf. kombiniert mit Amplituden¨ und Phasenmodulation zur Ubertragung mehrwertiger Symbole, dar. Speziell bei mobilem Mehrwegeempfang wirkt sich das frequenzselektive Fading nur auf einzelne Teiltr¨ ager aus. Hierdurch besteht nun die M¨oglichkeit, mittels einer Kanalcodierung eine Fehlerkorrektur mit Redundanzbeziehungen quer u ager (mit einem sog. interleaving“, d.h. ei¨ ber unterschiedliche Teiltr¨ ” ner Verschachtelung der Bits aus den einzelnen Teiltr¨agern) auszuf¨ uhren. Derartige Erweiterungen werden als Coded OFDM (COFDM) bezeichnet. Sofern eine gute Kanalsch¨ atzung verf¨ ugbar ist, kann dies entweder adaptiv oder auch mit einer Anpassung des Modulationsverfahrens (z.B. 16-QAM in zuverl¨ assig u agern, QPSK in weniger zuverl¨assigen F¨allen) ¨bertragenen Teiltr¨ ¨ kombiniert werden. Auch Kombinationen mit CDMA- und MIMO-Ubertragung sind m¨ oglich. ¨ Anwendungen findet die OFDM-Technik heute in den Ubertragungsverfahren f¨ ur Digital Audio Broadcast (DAB), Digital Video Broadcast (DVB) sowie in drahtlosen lokalen Netzen (WLAN) heutiger und zuk¨ unftiger Generationen. Ein nahezu identisches Verfahren (mit Ausnahme einer Auslegung ohne Guardintervalle) wird unter der Bezeichnung Discrete Multi ¨ Tone (DMT) auch bei der leitungsgebundenen DSL-Ubertragung angewandt.
360
8. Modulation, Multiplex und Codierung
8.4 Begriffe der Informationstheorie Shannon27 hat in seiner 1948 ver¨ offentlichten Informationstheorie den Begriff der Information als statistisch definiertes Maß in die Nachrichtentechnik eingef¨ uhrt. Die Elemente eines Nachrichten¨ ubertragungssystems – Quelle, Kanal und Senke – werden in der Informationstheorie abstrahiert von ihrer technischen Realisierung durch informationstheoretische Modelle beschrieben (Abschn. 7.1). Aus dieser Betrachtungsweise lassen sich insbesondere Grenzen f¨ ur Nachrichten¨ ubertragungs- und Speichersysteme ableiten, die auch bei beliebigem technischen Aufwand nicht u ¨ berschreitbar sind. In diesem Sinn stellt die ¨ Informationstheorie eine u ¨bergeordnete Theorie dar, mit der Ubertragungssysteme unabh¨ angig von technischen Verfahrensvarianten dargestellt und verglichen werden k¨ onnen. In diesem Abschnitt wird nur ein Ausschnitt der Informationstheorie so weit vorgestellt, dass Grenzaussagen u ¨ber die in bei¨ den vorangegangenen Kapiteln behandelten Ubertragungsverfahren m¨oglich werden. F¨ ur ein tieferes Eindringen in die Informationstheorie muss hier auf die Literatur verwiesen werden (Shannon, 1949; Reza, 1961; Wozencraft und Jacobs, 1965; Gallager, 1968; Hamming, 1980; Heise und Quattrocchi, 1983; Mansuripur, 1987; Blahut, 1987; Cover und Thomas, 1991). 8.4.1 Diskrete Nachrichtenquellen Eine diskrete Quelle (Abb. 7.2) erzeugt eine Folge diskreter Zeichen a(n), d. h. ein wert- und zeitdiskretes Signal. Die Menge m¨oglicher Werte {ai } mit dem endlichen Umfang M wird Quellenalphabet genannt. Beispiele sind Bin¨arsignale mit M = 2, Dezimalzahlen mit M = 10, Schrifttexte mit M = 27 oder ASCII-Zeichen mit M = 256. Durch Codieren, wie in den Abschn. 7.2.7 oder 7.4.1 geschildert, lassen sich Quellenalphabete ineinander umwandeln. Wenn der Umfang M eine Zweierpotenz ist, dann kann jedes Zeichen verlustlos in eine Bin¨ ardarstellung mit lb(M ) Stellen umcodiert werden. Der Ausdruck H0 = lb(M ) bit/Zeichen
(8.92)
wird, auch f¨ ur beliebige M , als Entscheidungsgehalt definiert. Das bit“ hat ” dabei die Bedeutung einer Pseudoeinheit, die auf die Verwendung des bin¨aren Logarithmus hinweist. Eine Umcodierung der Zeichen einer Quelle in untereinander gleich lange Bin¨ arfolgen ist allerdings bzgl. der Gesamtzahl der Bin¨arwerte dann nicht optimal, wenn diese Zeichen mit unterschiedlichen Wahrscheinlichkeiten auftreten. Deshalb wurden schon von S. Morse in dem von ihm definierten Codealaufig vorkommende Buchstaben durch kurze Zeichenfolgen, seltene phabet28 h¨ 27 28
Claude Elwood Shannon (1916–2001), amerik. Mathematiker und Ingenieur. Das Morse-Alphabet besteht eigentlich aus 4 Codezeichen: Ton kurz, Ton lang, Pause kurz (Trennung von T¨ onen), Pause lang (Trennung von Buchstaben); es ist also ein quatern¨ ares Alphabet.
8.4 Begriffe der Informationstheorie
361
¨ durch lange Folgen dargestellt. C. Shannon verallgemeinerte diese Uberlegungen wie folgt: Unter Ber¨ ucksichtigung der Wahrscheinlichkeit pi , mit der die Quelle das i-te Zeichen ai eines Alphabets erzeugt, wird als Informationsgehalt Ii dieses Zeichens definiert Ii = lb(1/pi ) = −lb(pi ) bit/Zeichen.
(8.93)
Der Informationsgehalt ist also umso h¨ oher, je seltener ein Zeichen auftritt, es gilt 0 ≤ Ii < ∞. Sind alle Zeichen gleich wahrscheinlich, dann ist pi = 1/M , in diesem Fall sind Informations- und Entscheidungsgehalt also gleich: Ii = H0 , ∀i. Ansonsten berechnet sich der mittlere Informationsgehalt, auch als Entropie bezeichnet, wie ein u ¨ blicher linearer Mittelwert durch mit den pi gewichtete Summierung der einzelnen Informationsgehalte29 H=
M i=1
pi Ii = −
M
pi lb(pi ) ≤ H0
bit/Zeichen.
(8.94)
i=1
Im n¨ achsten Schritt wird angenommen, dass zwischen den einzelnen Zeichen statistische Bindungen bestehen, die sich jeweils u ¨ ber L aufeinander folgende Zeichen erstrecken. Weiter sei bekannt, dass die i-te Zeichenfolge ange L mit der Wahrscheinlichkeit pi aus den M L m¨oglichen Folgen der L¨ erzeugt wird. Auch dieser Folge von Zeichen l¨asst sich jetzt ein Informationsgehalt von Ii = −lb(pi ) zuordnen. Sind die Zeichen der i-ten Folge statistisch unabh¨ angig, so ergibt sich pi als Produkt der einzelnen Zeichenwahrscheinlichkeiten. Der Informationsgehalt der Folge ist dann auf Grund der Eigen29
Die mathematische Herleitung der Begriffe Informationsgehalt und Entropie kann hier nicht umfassend erfolgen, soll aber zumindest angedeutet werden: Ein aus einem diskreten Alphabet gesendetes Zeichen kann einen von M Zust¨ anden i annehmen, deren jeder eine bestimmte Wahrscheinlichkeit pi besitze. Jedem der Zeichen sei zun¨ achst ein beliebig zu definierender Informationsgehalt Ii zugeordnet, so dass sich die Entropie als Mittelwert plausibel wie in der linken Summe von (8.94) ergibt. Verf¨ ugbarkeit vollst¨ andiger Information (bei einer Bitanzahl gleich der Entropie) bedeutet Beseitigung jeder Unsicherheit dar¨ uber, welches Zeichen gesendet wurde. Die Entropie muss aber auch dann eine konsistente Funktion bleiben, wenn die Information unvollst¨ andig ist, wenn z. B. Unsicherheit dar¨ uber verbleiben kann, ob Zeichen 1 oder 2 gesendet wurde, w¨ ahrend f¨ ur alle u andige Sicherheit besteht. Dies kann so for¨brigen Zeichen 3...M eine vollst¨ muliert werden, dass die von p1 ...pM abh¨ angige Entropiefunktion H separierbar sein muss in die mittleren Informationsgehalte aus den Zeichen 1-2 und aus den u ¨ brigen Zeichen. Demnach muss gelten j ff p1 p2 , H{p1 , p2 , ..., pM } = H{p1 + p2 , p3 , ..., pM } + (p1 + p2 )H . p1 + p2 p1 + p2 In derselben Weise ist eine beliebige Separierung der Entropie in Einzelsummen von Informationsgehalten m¨ oglich. In der Tat ist (8.93) die einzige Funktion f¨ ur Ii ist (bei beliebiger Basis des Logarithmus), welche diese Bedingung erf¨ ullt.
362
8. Modulation, Multiplex und Codierung
schaften des logarithmischen Informationsmaßes gleich der Summe der Informationsgehalte der Einzelzeichen. Im allgemeineren Fall der Erfassung beliebiger statistischer Bindungen u ¨ber L Zeichen ergibt sich die Entropie pro Zeichen des Alphabets als ML
HL =
ML
1 1 pi Ii = − pi lb(pi ) ≤ H L i=1 L i=1
bit/Zeichen,
(8.95)
mit Gleichheit f¨ ur den Fall statistisch unabh¨angiger Zeichen oder L = 1. Es gilt stets H ≥ 0. Die Entropie erreicht ihr Maximum H0 = lb(M ), wenn die einzelnen Zeichen der Quelle gleich wahrscheinlich (pi = 1/M ) sind. Dieses Maximum ist der Entscheidungsgehalt der Quelle. Multipliziert man die Entropie H einer Quelle mit der Rate r, mit der die Quelle die Zeichen erzeugt, dann ergibt sich der Informationsfluss der Quelle H ∗ = rH
bit/Zeiteinheit.
(8.96)
Die Bedeutung des mittleren Informationsgehalts wird als untere Schranke einer fehlerfreien Quellencodierung durch Shannons Satz von der Entropie verdeutlicht (Shannon, 1949): Es ist m¨ oglich, alle Folgen von n Zeichen einer Quelle fehlerfrei so in Bin¨ arzeichenfolgen zu codieren, dass die mittlere Zahl an Bin¨arstellen pro Zeichen die Entropie approximiert. Die Approximation n¨ahert sich mit wachsendem n der Gleichheit. Als einfaches Beispiel wird die ged¨achtnislose Bin¨arquelle betrachtet, die statistisch unabh¨ angig die Zeichen 1“ mit der Wahrscheinlichkeit p und 0“ mit ” ” 1 − p erzeugt. Mit L = 1 und M = 2 in (8.95) ergibt sich die hier nur von p abh¨ angige Entropie zu H(p) = −
2 i=1
pi lb(pi ) = −plb(p) − (1 − p)lb(1 − p)
bit . Zeichen
(8.97)
Den Verlauf dieser Entropie u ¨ ber p zeigt Abb. 8.36. Das Maximum der Entropie von H0 = 1 bit/Zeichen wird bei gleichen Wahrscheinlichkeiten der beiden Zeichen (p = 0,5) erreicht. Die Abweichung R = H0 − H ist die absolute Redundanz der Quelle; sie gibt den Gewinn (in bit/Zeichen) an, der mit einer fehlerfreien Quellencodierung durch Beseitigung dieser Redundanz h¨ochstens erzielt werden kann (Abschn. 7.1). Ein weiteres Beispiel ist die Codierung alphabetischer Texte. In Abb. 8.37 ist die H¨ aufigkeit aufgetragen, mit der Buchstaben in deutschsprachigen Texten auftreten. Hiermit ergibt sich unter der zun¨achst betrachteten vereinfachten Annahme, dass ein Schrifttext eine ged¨ achtnislose Quelle mit statistisch unabh¨ angigen Zeichen ist, mit L = 1 und M = 27 eine Entropie von
8.4 Begriffe der Informationstheorie
363
Abb. 8.36. Entropie der ged¨ achtnislosen Bin¨ arquelle (Shannon-Funktion)
Abb. 8.37. Bin¨ arcodes f¨ ur alphabetischen Text (zu Bacon s. Aschoff, 1984, im Anhang zum Literaturverzeichnis; der Morsecode ist durch Abbildung auf einen kommafreien Bin¨ arcode dargestellt)
H =−
27
pi lb(pi ) = 4,04
i=1
bit . Buchstabe
(8.98)
In Abb. 8.37 sind weiter drei Bin¨ arcodierungen f¨ ur die Buchstaben des Alphabets und die mit ihnen erreichbaren mittleren Werte Hc an Bin¨arzeichen pro Buchstabe (Coderate) angegeben. Mit Bi bit, die zur Codierung des Buchstaben mit Index i aufgewendet werden, berechnet sich die Coderate als Hc =
M
pi · Bi .
i=1
Der auf minimalen Wert Hc optimierte Huffman-Code (Huffman, 1952) unterscheidet sich hier in der mittleren Bin¨ arzeichenzahl nur noch um 2,3% von einem optimalen Quellencode. Der Huffman-Code ist kommafrei“, d. h. kein k¨ urzeres Codewort tritt ” als Anfang eines l¨ angeren Wortes auf. Damit ist auch ohne Trennzeichen eine eindeutige Decodierung m¨ oglich. Die Entwurfsprozedur verl¨auft wie folgt:
364
8. Modulation, Multiplex und Codierung
1. Es wird eine Liste L = {L1 , . . . , LM } f¨ ur die Symbole des Quellenalphabets gebildet, welche zun¨ achst die H¨aufigkeiten der Quellensymbooßensortierter Reihenfolge) enth¨alt. Die Liste le p1 . . . pM (optional in gr¨ enth¨ alt weiterhin eine Indextabelle aller Quellensymbole, die den jeweiligen Listenpl¨ atzen zugeordnet sind (dies ist zun¨achst ein Symbol pro Listenplatz). Die zu den Quellensymbolen geh¨origen Codesymbolfolgen werden in einer Codeworttabelle C = {c1 , c2 , ..., cM } gespeichert, diese bestehen bei der Initialisierung aus jeweils 0 bit. 2. Es werden die beiden Listenpl¨ atze mit den kleinsten H¨aufigkeitswerten in L aufgesucht, und den Codesymbolfolgen aller mit den beiden Listenpl¨ atzen u ¨ber die Indextabelle zugeordneten Quellensymbole eine 0“ bzw. ” eine 1“ hinzugef¨ ugt30 . ” 3. Die beiden in 2. behandelten Pl¨ atze werden in einem Listenplatz zusammengef¨ uhrt, in dem die Summe der beiden H¨aufigkeiten eingetragen wird. Diesem Listenplatz werden nun in der Indextabelle auch alle Quellensymbole zugeordnet, die bisher separat mit den beiden Listenpl¨atzen assoziiert waren. 4. Wenn L nur noch einen Listenplatz enth¨ alt (welcher dann den H¨aufigkeitswert 1 besitzt, bzw. dem in der Indextabelle nunmehr alle Quellensymbole zugeordnet sind), ist der Huffman-Code fertig entworfen. Ansonsten wird mit Schritt 2 fortgefahren.
L1=0.57 '1' 6 '1' '0' L1=1.00
7 '1' '0' L3=0.43
5
'0' L4=0.27
'1' 4
'0' L5=0.13
'1' 3
'0' L6=0.06
'1' 2
L1=Prob[a(n)="E"]=0.29
'11'
L2=Prob[a(n)="A"]=0.28
'10'
L3=Prob[a(n)="B"]0.16
'01'
L4=Prob[a(n)="F"]=0.14
'001'
L5=Prob[a(n)="D"]=0.07
'0001'
L6=Prob[a(n)="C"]=0.03
'00001'
L7=Prob[a(n)="G"]=0.02 '1' '0' 1 L7=0.03 '0' L8=Prob[a(n)="H"]=0.01
'000001' '000000'
Abb. 8.38. Entwurf eines Huffman-Codes mit zugeh¨ origem Codebaum (die eingekreisten Ziffern 1..7 stellen die Iterationen u ¨ber die Schritte 2 und 3 der Entwurfsprozedur dar)
Abb. 8.38 zeigt den Entwurf des Huffman-Codes f¨ ur das Beispiel von acht unterschiedlich h¨ aufigen Quellensymbolen anschaulich an Hand eines Codebau30
Der Code w¨ achst dabei von hinten nach vorn“, d.h. das zuletzt zugef¨ ugte bit ” wird das erste im Codewort.
8.4 Begriffe der Informationstheorie
365
mes31 . Jedem Zweig des Baumes sind seine Auftretenswahrscheinlichkeit und die Codesymbolfolge zugeordnet. Die beschriebene Entwurfsprozedur besteht hier aus 7 Durchl¨ aufen, in Abb. 8.38 wird rechts mit dem Entwurf begonnen, w¨ ahrend der Code sp¨ ater durch Verfolgen des Baumes von links nach rechts decodiert werden muss. Anmerkung: Ber¨ ucksichtigt man zus¨ atzlich die statistischen Bindungen in normalen Schrifttexten, dann l¨ asst sich deren Entropie etwa auf 1,3 bit/Buchstabe sch¨ atzen (K¨ upfm¨ uller, 1954). Ein Quellencodierer, der dieser Entropie nahekommt und weiter den Vorteil besitzt, sich selbstst¨andig an die Quelleneigenschaften anzupassen, wurde von J. Ziv und A. Lempel angegeben. Dieser Lempel-Ziv-Codierer wird beispielsweise zur Textcodierung im Internet benutzt (Proakis und Salehi, 1994). 8.4.2 Kontinuierliche Nachrichtenquellen Die Mehrzahl der Quellensignale in der Nachrichtentechnik sind zeit- und wertkontinuierlich. Bei der Digitalisierung solcher Quellensignale ist es prinzipiell nicht m¨ oglich, einen Abtastwert fehlerfrei durch ein diskretes Signal mit endlicher Bin¨ arstellenzahl darzustellen. Die Entropie wertkontinuierlicher Quellen ist also nicht endlich. Auf Grund des begrenzten Aufl¨osungsverm¨ ogens unserer Sinnesorgane darf aber stets ein endlicher Quantisierungsfehler zugelassen werden. Zusammen mit einer Fehlerangabe l¨asst sich dann auch eine kontinuierliche Quelle in eine diskrete Quelle endlicher Entropie u uhren. ¨berf¨ Ein einfaches Beispiel hierf¨ ur ist ein gleichverteiltes, weißes, tiefpassbegrenztes Quellensignal der Grenzfrequenz fg und der Ausgangsleistung Sa . Wenn das Verh¨ altnis Signalleistung zu Quantisierungsfehlerleistung Sa /Nq betragen soll, dann muss nach (7.96) jeder Abtastwert mit K = 12 lb(Sa /Nq ) bit codiert werden. Tastet man mit der Nyquist-Rate r = 2fg ab, dann ist der Informationsfluss dieser realen Quelle also H ∗ = rk = fg lb(Sa /Nq ) bit/Zeiteinheit.
(8.99)
Ein ebenfalls auf Shannon zur¨ uckgehendes Teilgebiet der Informationstheorie, die rate distortion“-Theorie, besch¨ aftigt sich allgemein mit Grenzwertaussa” gen zur Quellencodierung unter Annahme eines Rekonstruktionsfehlermaßes. Hierbei wird auch u ucksichtigte Verbundentro¨ ber die bereits in (8.95) ber¨ pie hinaus ber¨ ucksichtigt, ob die Quelle selbst systematische Redundanzen besitzt, z.B. in Form statistischer Abh¨ angigkeiten aufeinander folgender Abtastwerte. In einem solchen Fall kann beispielsweise an Stelle der originalen Abtastwerte ein Pr¨ adiktionsfehlersignal (vgl. Abschn. 7.4.4) codiert werden. 31
Die Wahrscheinlichkeiten in diesem Beispiel sind rein willk¨ urlich gew¨ ahlt.
366
8. Modulation, Multiplex und Codierung
In Hinblick auf die Entropiebetrachtungen ist dann nur noch die Verteilungsdichte des Pr¨ adiktionsfehlersignals zu ber¨ ucksichtigen, welche vielfach bez¨ uglich der Codierung g¨ unstiger ist als diejenige des Originalsignals32. 8.4.3 Kanalcodierung Das Prinzip der Quellencodierung ist die Beseitigung der Quellenredundanz ¨ zur Reduktion der Ubertragungsrate. Das Grundprinzip der Kanalcodierung ¨ besteht im Gegensatz dazu in einer Ubertragung zus¨atzlicher Bits mit dem ¨ Ziel, bei einer voraussichtlich gest¨ orten Ubertragung einen Fehlerschutz zu erm¨ oglichen. Hier wird also Redundanz hinzugef¨ ugt, womit die Kanalcodierung in gewisser Weise antipodisch zur Quellencodierung wirkt. Es kann aber durchaus sinnvoll sein, einige der bei der Quellencodierung eingesparten Bits in eine Kanalcodierung zu investieren, sofern dadurch insgesamt ein geringerer Fehler im empfangenen Signal erreicht wird. Der Kanalcodierer f¨ uhrt eine eindeutig festgelegte Abbildung einer Nutzbitfolge auf eine codierte Bitfolge aus. Dabei werden bestimmte Konstellationen der codierten Bitfolge ausgeschlossen. Wird eine solche unm¨ogliche Konstellation dennoch empfangen, kann der Kanaldecodierer auf einen Fehler schließen, und diesen gegebenenfalls korrigieren. Das Verh¨altnis von Nutzbits zu codierten Bits wird als Coderate r der Kanalcodierung bezeichnet. Die Arbeitsweise des Kanaldecodierers besteht im Vergleich der empfangenen Bitfolge mit g¨ ultigen codierten Bitfolgen. Als Hamming-Distanz wird uber einer g¨ ultigen Bitfolge abweichenden Bits bedie Anzahl dH der gegen¨ zeichnet. Die sinnvolle Maßnahme bei der Kanaldecodierung ist dann die Abbildung auf diejenige Nutzbitfolge, f¨ ur welche der Kanalcodierer eine codierte Bitfolge mit der geringsten Hamming-Distanz zur empfangenen Bitfolge generieren w¨ urde. Die wichtigsten Methoden der Kanalcodierung sind die Blockcodierung und die Faltungscodierung. Bei einer Blockcodierung wird die Nutzbitfolge in separate Bl¨ocke der L¨ange von jeweils M bit unterteilt. Hieraus wird eine codierte Bitfolge der L¨ ange M +K bit erzeugt, d.h. es werden K redundante Bits hinzugef¨ ugt bzw. ein um K bit verl¨ angerter, codierter Bock gebildet. Die Coderate ist nach obiM . Sofern - was bei systematischer Konstruktion des ger Definition r = M+K Codes erreicht werden kann - die minimale Hamming-Distanz zwischen g¨ ultigen codierten Bitfolgen dH = K + 1 betr¨ agt, k¨onnen empfangene Bitfolgen mit bis zu K gest¨ orten Bits noch sicher als fehlerhaft identifiziert werden. Eine Korrektur ist m¨ oglich, wenn innerhalb des codierten Blockes nicht mehr K−1 bit (bei ungeradzahligem K) als K 2 bit (bei geradzahligem K) bzw. 2 33 gest¨ ort waren . Die Anzahl der g¨ ultigen Bitfolgen eines codierten Blockes 32
33
F¨ ur eine genauere Behandlung von Verfahren der Quellencodierung wird z.B. auf (Ohm, 2004) verwiesen. Die hier genannten Zahlen gelten f¨ ur den Fall, dass die Bitfehler an beliebiger unbekannter Stelle aufgetreten sind. Sofern auf Grund ¨ außerer Umst¨ ande (z.B.
8.4 Begriffe der Informationstheorie
367
ist 2M , die der m¨ oglichen empfangenen Bitfolgen (nach St¨orungen) jedoch 2M+K . Das einfachste Beispiel eines systematischen Blockcodes wird bei der sog. Parit¨atspr¨ ufung verwendet. Hierbei wird z.B. die Anzahl Einsen in einer Nutzbitfolge der L¨ ange M gez¨ ahlt, und je nachdem, ob diese Anzahl gerade oder ungerade ist, ein Parit¨ atsbit“ 0 bzw. 1 hinzugef¨ ugt. Hier ist also K = 1 ” bzw. dH = 2, so dass das Vorhandensein eines einzelnen Fehlers innerhalb des codierten Blocks der L¨ ange M + 1 erkannt werden kann. Allerdings ist keine Korrektur m¨ oglich, da wegen der zu kleinen Hamming-Distanz die Position des Fehlers nicht ermittelt werden kann. Bei einer Faltungscodierung (auch als gleitende Blockcodierung bezeichnet) werden L − 1 zur¨ uckliegende Bits der Nutzbitfolge in einem Zustandsspeicher gespeichert und zusammen mit dem aktuellen Bit in geeigneter Weise zur Erzeugung der codierten Bitfolge verkn¨ upft. Die Abh¨angigkeitsl¨ange (constraint length) L bestimmt die Anzahl der g¨ ultigen codierten Bitfolgen ubt. Ein einfacher Faltungs2L , auf die der Wert eines Nutzbits Einfluß aus¨ codierer mit der Rate r = 1/2 und L = 3 ist in Abb. 8.39 dargestellt. Hier werden pro einlaufendem Nutzbit an zwei codierte Bits (bn,1 , bn,2 ) erzeugt. Bei den Additionen handelt es sich um einfache Bin¨aradditionen ohne Erzeu¨ gung von Uberlaufbits.
+ {a n}
a n
a
n -1
a
{b
n ,1
{b
n ,2
}
n -2
}
Abb. 8.39. Codegenerator eines Faltungscodes mit r = 1/2
Die Werte der Bits an−1 und an−2 bestimmen den Zustandsspeicher des Codierers. Tab. 8.1 gibt an, welche codierten Bits bn,i sich bei den jeweils m¨ oglichen Zust¨ anden in Kombination mit dem neu einlaufenden Bit an ergeben. ¨ Der fortlaufende Codierprozess, charakterisiert durch die m¨oglichen Anderungen im Zustandsspeicher, kann in einem Zustandsgraphen dargestellt werden. Im Falle eines Codegenerators mit endlichem Speicher und damit endlicher Zustandsanzahl ist hierf¨ ur die Verwendung eines sogenannten Trellisdiagramms u ur das Beispiel des in Abb. 8.39 gezeigten Code¨ blich. Dieses ist f¨ offensichtlicher Paketverlust, Verlust einzelner Tr¨ ager bei einer Vielfachtr¨ ager¨ Ubertragung) die Positionen der fehlenden Bits exakt bekannt sind, ist es auch m¨ oglich, bis zu K verlorene Bits zu rekonstruieren.
368
8. Modulation, Multiplex und Codierung
Tabelle 8.1. Bit- und Zustandsspeicherkonstellationen des Codegenerators in Abb. 8.39 an 0 1 0 1 0 1 0 1
an−1 0 0 1 1 0 0 1 1
an−2 0 0 0 1 1 1 1 1
bn,1 0 1 0 1 1 0 1 0
bn,2 0 1 1 0 1 0 0 1
generators in Abb. 8.40 dargestellt. Hier markieren die Knoten die m¨oglichen 2L−1 = 4 Zust¨ ande, die sich aus den Konfigurationen an−1 , an−2 ergeben, die Zweige (Verbindungen zwischen den Knoten) charakterisieren die im jeweiligen Zustand m¨ oglichen Werte von an bzw. der hieraus erzeugten codierten Bits [bn,1 , bn,2 ]. Man beachte, dass im Folgezustand - von links nach rechts zu interpretieren - jeweils das gerade neu eingelaufene Bit eine Rolle im Zustandsspeicher u ahrend das ¨alteste Bit seine Wirksamkeit ¨ bernimmt, w¨ verliert.
a
n = 1
n = 0
a
a n a
a
]
{1 ,0 }
2 a n +
a
,1 ]
,a
n + 1
}
{0 ,0 }
: [1 ,1 ]
{1 ,0 }
]
,0
,0
{0 ,1 }
,0 ] : [0 = 1
n + 2 = 0 : [0 ,1
: [1 = 1
,0
: [1 = 1
:[1 = 1
{0 ,1 }
n + 2 = 1
,0 ] : [0 = 1
n + 1 = 0 :[0
n + 2
a n + 2 = 0 : [0 ,0 ]
2 a n+
n = 0 : [0 ,1
1 a n +
{a
a n + 2 = X : [b n ,1 ,b n ,2 ]
a
1 a n+
a n
{0 ,1 }
= 1
,0 ] :[0
,a n}
: [1 ,1 ]
{1 ,0 }
: [1 ,1 ]
{1 ,0 }
n + 1 = 1
n + 1
{0 ,0 }
a n + 1 = 0 : [0 ,0 ]
a : [1 ,1 ]
{a a n + 1 = X : [b n ,1 ,b n ,2 ]
{0 ,0 }
a n = 0 : [0 ,0 ]
}
: [1 ,1 ]
{0 ,0 }
n -1
n + 2 = 0
a n = X : [b n ,1 ,b n ,2 ]
a
{a n,a }
n -2
: [1 ,1 ]
,a
n + 1 = 0
n -1
a
{a
]
{0 ,1 }
] ]
a n
{1 ,1 }
:[ = 0
] 1 ,0
a n = 1 : [0 ,1 ]
1 a n +
{1 ,1 }
] 1 ,0 :[ = 0
a n + 1 = 1 : [0 ,1 ]
2 a n +
{1 ,1 }
] 1 ,0 :[ = 0
a n + 2 = 1 : [0 ,1 ]
{1 ,1 }
Abb. 8.40. Trellisdiagramm f¨ ur den in Abb. 8.39 dargestellten Codegenerator
Zur Veranschaulichung der Fehlerkorrekturf¨ ahigkeit der Trellis-Decodierung werde nun in einem Beispiel angenommen, dass eine St¨orung der beiden zum
8.4 Begriffe der Informationstheorie
369
Zeitpunkt von an generierten codierten Bits bn = [bn,1 , bn,2 ] erfolge, vorher und nachher jedoch kein Bit gest¨ ort werde. Die Nutzbitfolge der Quelle sei {an , an+1 , an+2 } = {0, 0, 0}, der korrekte Anfangs- und Endzustand jeweils [0, 0] (durchgezogener Pfad in Abb. 8.40), die codierte Bitfolge ist dann b(1) = {bn , bn+1 , bn+2 } = {[00], [00], [00]}. Es werde ferner angenommen, dass dem Decodierer die korrekten Anfangs- und Endzust¨ande bekannt seien. Es gibt dann genau einen weiteren Pfad, welcher die beiden korrekten Zust¨ ande miteinander verbinden w¨ urde (gepunktet), dieser repr¨asentiert die g¨ ultige codierte Bitfolge b(2) = {[11], [01], [11]}. Empfangen wird bei der anultig genommenen St¨ orung die Folge b(e) = {[11], [00], [00]}, welche nicht g¨ ist. Jedoch zeigt eine Analyse der Hamming-Distanzen dH (b(e) , b(1) ) = 2 und dH (b(e) , b(2) ) = 3, dass eine Korrektur auf diejenige g¨ ultige Bitfolge, die eine minimale Hamming-Distanz zur empfangenen Folge aufweist, auf das korrekte an = 0 f¨ uhrt. Dieses Beispiel zeigt zun¨ achst rein formal das Korrekturprinzip des Faltungsdecodierers durch Analyse des Trellisdiagramms, ist jedoch insofern noch unvollst¨ andig, weil dem Decodierer noch nicht bekannt ist, ob und wann er sich jeweils im korrekten Zustand befindet. Weiterhin k¨onnen die codierten Bits [bn,1 , bn,2 ] nicht eindeutig an zugeordnet werden, denn sie repr¨asentieren nur gemeinsam mit anderen Bits der codierten Bitfolge einen Pfad im Trellisdiagramm, unterst¨ utzen somit die Korrekturf¨ahigkeit f¨ ur alle Bits ak entlang dieses Pfades. Der Viterbi-Algorithmus (Viterbi, 1967) stellt die gebr¨ auchliche L¨ osung dieses Problems f¨ ur trellisbasierte Faltungsdecodierung dar. Am Anfang wird typischerweise der Zustand {an−1 , an−2 } = {0, 0} vereinbart, so dass beim obersten Knoten begonnen wird. Dann werden fortlaufend die Hamming-Distanzen zwischen der empfangenen Bitfolge und allen (g¨ ultigen) Pfaden verglichen, die auf die jeweils aktuellen 2L−1 Zustandsknoten des Trellisdiagramms f¨ uhren. An jedem Knoten braucht dann aber nur der Pfad mit der geringsten Hamming-Distanz zur empfangenen codierten Bitfolge weiter untersucht zu werden. Gehen nun die Pfade an allen aktuellen Zustandsknoten von einem gemeinsamen Ursprungsknoten aus (der im Prinzip beliebig weit zur¨ uckliegen kann), so k¨onnen alle Bits bis hin zu diesem Ursprungsknoten als Teil der h¨ ochstwahrscheinlich gesendeten Bitfolge decodiert werden. Zu speichern sind fortlaufend lediglich die Parameter (Pfadverl¨ aufe und Hamming-Distanzen) von 2L−1 Pfaden entsprechend der Anzahl der Zust¨ ande. Alternativ zu der hier diskutierten harten“ Entscheidung auf Grund der ” Hamming-Distanz, die im Grunde auf dem Bin¨arausgang der Entscheiderstufe im Empf¨ anger basiert, kann dem Kanaldecodierer Information u ¨ ber den tats¨ achlichen Abstand zwischen dem jeweils empfangenen Symbol und zul¨ assigen Nutzsignalpunkten im Signalraum zugef¨ uhrt werden. Es werden dann nicht mehr die Hamming-Distanzen, sondern beispielsweise die Euklid’schen Distanzen entlang der Pfade verglichen, oder auf der Basis der jeweiligen Abst¨ ande von den Nutzsignalpunkten eine Wahrscheinlichkeit ( li”
370
8. Modulation, Multiplex und Codierung
kelihood“) daf¨ ur bestimmt, ob das eine oder andere Symbol gesendet wurde. Mit einer solchen soft decision werden dann die relativ unsicher empfangenen Symbole bei der Entscheidung f¨ ur den geeignetsten Pfad im Trellisdiagramm mit geringerem Gewicht ber¨ ucksichtigt. Eine wichtige Klasse von Kanalcodierungsverfahren, meist als Erweiterung von Faltungscodes eingesetzt, stellen die sogenannten Turbocodes (s. z.B. Hagenauer, 1998) dar. Hierbei wird ein Code mit Redundanzbits f¨ ur die fortlaufende Nutzbitfolge, und ein weiterer Code durch Verkn¨ upfung weiter auseinander liegender Nutzbits (sog. interleaving) erzeugt, d.h. die Nutzbits werden durch zwei unabh¨ angige Codes doppelt gesch¨ utzt. Es werden nun ebenfalls zwei Decodierer eingesetzt, die sich gegenseitig ihre Ergebnisse mitteilen, so dass als Referenz nicht nur die empfangene Bitfolge, sondern zus¨atzlich ein von dem anderen Decodierer erzeugtes Muster zur Verf¨ ugung steht. Damit sind R¨ uckschl¨ usse auf die Wahrscheinlichkeiten von St¨orungen der empfangenen Bits m¨ oglich, die zus¨ atzlich bei den Decodierungsentscheidungen ber¨ ucksichtigt werden. Allerdings m¨ ussen die Decodiervorg¨ange iterativ ausgef¨ uhrt werden, da sie sich gegenseitig beeinflussen (daher die Bezeichnung Turbo“-Prinzip). In diesem Verlauf wird eine Einigung“ der beiden ” ” Decodierer erzielt und die richtige Nutzbitfolge typischerweise stabil decodiert, sofern dies nicht auf Grund zu starker St¨orungen ohnehin unm¨oglich ist. Die h¨ ochste Leistungsf¨ ahigkeit erreicht die Turbo-Decodierung ebenfalls, wenn sie in Kombination mit soft decision betrieben wird. 8.4.4 Codierte Modulation Bei den Darlegungen zu den mehrwertigen Modulationsverfahren (PSK, Mehrpegel¨ ubertragung, QAM) wurde bereits deutlich, dass der Aspekt der Codierung, d.h. zun¨ achst die Zuordnung von zu u ¨ bertragenden Bin¨arsymbolen zu den Modulationssymbolen, einen wesentlichen Einfluss auf die sich ergebende Bitfehlerwahrscheinlichkeit besitzt. Als codierte Modulation wird allgemein eine Kombination von Kanalcodierungs- und Modulationsverfahren bezeichnet, bei der die im Signalraum nahe beieinander liegenden Modulationssymbole zus¨ atzlich und systematisch durch eine Kanalcodierung abgesichert werden. Als Beispiel wird hier eine Kombination von 8-PSK und Trellis-Faltungscodierung beschrieben, die unter der Bezeichnung Trellis Coded Modulation (TCM) weite Anwendung findet (Ungerboeck, 1974). Als Codegenerator wird eine Struktur verwendet, die aus dem oben beschriebenen Faltungscodierer mit r = 1/2 abgeleitet ist, aber ein weiteres Bit uncodiert hinzuf¨ ugt (Abb. 8.41a); es entstehen also mit einer Coderate r = 2/3 aus zwei Quellen-Bin¨ arsymbolen [an,1 , an,2 ] drei codierte Symbole [bn,1 , bn,2 , bn,3 ], die dann mittels einer 8-PSK moduliert werden (Abb. 8.41b). Die Bin¨ arsymbolzuordnung unterliegt wiederum einer ¨ahnlichen Systemaachst wird der Wert des uncodierten Bits tik wie bei einem Gray-Code.34 Zun¨ 34
Bei der Konstruktion solcher Zuordnungen wird eine regelm¨ aßige Einteilung der Bin¨ arcodes in Untergruppen ( subsets“) vorgenommen, die sich in einem, zwei, ”
+
{b
(0 ,1 ,0 ) }
n ,1
(1 ,0 ,0 ) {a
}
a
n ,1
n ,1
a
n -1 ,1
a
371
-s in (2 F f0t)
8.4 Begriffe der Informationstheorie
S
(1 ,1 ,0 )
a
(b
n ,1
,b
n ,2
,b
n ,3
)
(0 ,0 ,0 )
n -2 ,1
c o s (2 F f0t) (1 ,0 ,1 )
(0 ,0 ,1 )
{a
n ,2
}
{b
n ,2
}
{b
n ,3
}
(1 ,1 ,1 )
(0 ,1 ,1 )
Abb. 8.41. Codegenerator und Phasenkonstellationen mit Codezuordnung bei trelliscodierter 8-PSK-Modulation
an,2 durch genau um 180o phasenverschobene Tr¨agersignale repr¨asentiert, der Abstand ubertragung) √ im Signalraum ist entsprechend einer BPSK (Bipolar¨ ur das codierte Bit an,1 soll wieder d0 = 2 Sa . Zur Ermittlung der Fehlerrate f¨ das Trellisdiagramm in Abb. 8.40 herangezogen werden, wobei beispielhaft die beiden markierten Pfade mit identischen Anfangs- und Endzust¨anden betrachtet werden. Durch die Codierung wird ein Bezug zwischen aufeinander folgenden modulierten Symbolen hergestellt. Daher muss eine Summierung der Euklid’schen Abst¨ ande im Signalraum zwischen den empfangenen Vektoren und den erlaubten Nutzsignalpunkten entlang der einzelnen Pfade im Trellisdiagramm erfolgen, und es muss f¨ ur denjenigen Pfad entschieden werden, bei dem diese Summe minimal wird. Von Bedeutung f¨ ur das Auftreten eines Fehlers ist dabei die maximal erlaubte Verf¨alschung, d.h. letzten Endes die Zugrundelegung einer Entscheidungsgrenze bei der H¨alfte des akkumulierten Euklid’schen Abstandes zwischen den unverf¨alschten Nutzsignalpunkten zweier Pfade. Ein Vergleich des Trellisdiagramms in Abb. 8.40 mit der Signalkonstellation in Abb. 8.41b ergibt als akkumulierte Euklid’sche Distanz zwischen den beiden Pfaden (auch als codierte Distanz bezeichnet) f¨ ur den Beispielfall dcod = d(00, 11) + d(00, 01) + d(00, 11) = d2 + d1 + d2 ≈ 4, 58Sa / √ mit d2 = (2 − 2)Sa (wie bei 8-PSK) und d1 = 2Sa (wie bei QPSK). √ Es zeigt sich, dass dcod > d0 = 2 Sa , und somit das codierte Bit an,1 effektiv sogar etwas weniger st¨ orungsanf¨ alig ist als das uncodierte Bit an,2 . Es gibt drei Bits usw. unterscheiden. Es erfolgt dann eine ebenso m¨ oglichst regelm¨ aßige Zuordnung zu den Modulationssymbolen auf Grund ihrer Abst¨ ande im Signalraum (Proakis und Salehi, 1994).
372
8. Modulation, Multiplex und Codierung
jeweils nur zwei Pfade, die denselben Anfangs- und Endknoten besitzen, so dass sich hier die Bitfehlerwahrscheinlichkeit f¨ ur das codierte Bit an,1 durch Einsetzen in (7.76) mit Nd = 1 wie folgt ergibt: ⎛4 ⎞ *! + 2 E (d ) Es 1 1 cod s ⎠ ⎝ Pe,an,1 = erfc . ≈ erfc 2 Sa 8N0 2 2N0 Der Code ist systematisch so konstruiert, dass f¨ ur zwei Pfade mit gleichen Anfangs- und Endpunkten entweder dcod = d1 +2d2 oder dcod = 2d1 +d2 gilt; der letztere Fall ist also bez¨ uglich dcod sogar noch etwas g¨ unstiger als der oben betrachtete. Die gesamte Bitfehlerwahrscheinlichkeit unter Ber¨ ucksichtigung des codierten und des uncodierten Bits sowie mit der Energie pro bit Eb = aherungsweise (tats¨ achlich geringf¨ ugig besser) Es /2 wird daher n¨ ⎡ ⎤ ⎢ *! *! *! + + +⎥ Es Es ⎥ Eb 1⎢ 1 ⎢1 ⎥ 1 + erfc . Pb ≈ ⎢ erfc ⎥ = erfc 2 ⎢2 2N0 2 2N0 ⎥ 2 N0 ⎣ ⎦
≈Pe,an,1
=Pe,an,2
¨ Im Vergleich zur QPSK mit (7.71), welche dieselbe Ubertragungsrate von 2 bit/Takteinheit wie die hier beschriebene TCM erlaubt und auch denselben Bandbreitebedarf besitzt, ist nun eine identische Bitfehlerwahrscheinlichkeit bereits mit einem um 3 dB geringeren Eb /N0 -Verh¨altnis erreichbar. Bei Erh¨ ohung des Aufwandes f¨ ur die Modulation und Codierung, beispielsweise bei Verwendung einer Trellisstruktur mit L = 8 (256 Zust¨ande und 256-PSK), l¨ aßt sich die Verbesserung gegen¨ uber QPSK bereits auf ca. 5,75 dB steigern (Ungerboeck, 1982); es wird dann nur wenig mehr als 1/4 der Sendeleistung eines Verfahrens ohne codierte Modulation ben¨otigt, um auf ¨ demselben Kanal dieselbe Ubertragungsqualit¨ at zu erzielen. Allerdings wird sich bei ggf. fehlender perfekter Tr¨ agersynchronisation die Leistungsf¨ahigkeit drastischer verschlechtern als bei dem Verfahren mit 8-PSK; dar¨ uber hinaus wird die Komplexit¨ at ebenfalls deutlich erh¨ oht. 8.4.5 Kanalkapazit¨ at Die nachrichtentechnische Bedeutung der Begriffe Entropie und Informationsfluss in der Informationstheorie wird ebenfalls bei der Diskussion der Informations¨ ubertragung u orte Kan¨ ale deutlich. ¨ber gest¨ Die Informationstheorie beschreibt einen Kanal durch das statistisch definierte Maß der zeitbezogenen Kanalkapazit¨ at C ∗ (Shannon, 1948). Die Bedeutung dieses Maßes wird deutlich in Shannons Satz von der Kanalkapazit¨at : Wenn die Signale einer Quelle mit dem Informationsfluss H ∗ u ¨ ber einen Kanal der zeitbezogenen Kapazit¨ at C ∗ u ¨bertragen werden, dann existiert ein geeignetes Codierungsverfahren so, dass f¨ ur
8.4 Begriffe der Informationstheorie
H∗ < C∗
373
(8.100)
die Fehlerwahrscheinlichkeit beliebig klein ist. ¨ In Umkehrung gilt, dass f¨ ur H ∗ > C ∗ keine fehlerfreie Ubertragung m¨ oglich ist. Die zeitbezogene Kanalkapazit¨ at hat also die Bedeutung eines h¨ochsten noch fehlerfrei u ¨ bertragbaren Informationsflusses. Die Aussage des Satzes von der Kanalkapazit¨ at ist in ihrer Allgemeinheit zun¨achst sehr u ¨ berraschend. Sie postuliert, wie im n¨ achsten Abschnitt gezeigt wird, sogar bei St¨orung durch Gauß’sches Rauschen mit seiner unbegrenzt ausgedehnten Verteilungsdich¨ tefunktion die prinzipielle M¨ oglichkeit einer fehlerfreien Ubertragung, l¨asst aber andererseits noch keine Aussage u ur notwendigen techni¨ ber den daf¨ schen Aufwand zu. Anmerkung: Die bisher betrachtete und im Folgenden als wichtiger Faktor wieder auftretende Energie Eb pro gesendetem Bit kann lediglich mit der reinen Sendeenergie in Bezug gesetzt werden. Dar¨ uber hinaus werden aber die Maßnahmen der Codierung und Signalverarbeitung, die zum Erreichen ¨ einer hohen Ubertragungsg¨ ute im Sender und Empf¨anger notwendig sind, zus¨ atzliche Energie pro gesendetem Bit ben¨ otigen. Dieser Anteil am gesamten Energieverbrauch ist teilweise h¨ oher als die eigentliche Sendeenergie, und sollte damit z.B. in Hinblick auf die Batterielebensdauer mobiler Ger¨ate keinesfalls vernachl¨ assigt werden. 8.4.6 Die Kanalkapazit¨ at des Gauß-Kanals In praktisch jedem Nachrichten¨ ubertragungssystem sind die Signale im ei¨ ¨ gentlichen Ubertragungsmedium zeitkontinuierlich. Die Ubertragung digitaler Signale erfordert dann ein geeignetes Leitungscodierverfahren. Wichtigstes Beispiel f¨ ur einen solchen kontinuierlichen Kanal ist der Gauß-Kanal, definiert durch folgende Eigenschaften: a) idealer Tiefpass der Grenzfrequenz fg = fB oder idealer Bandpass35 der Bandbreite f∆ = fB ; b) additive St¨ orung durch weißes, Gauß’sches Rauschen der Leistungsdichte N0 am Kanaleingang und damit der Leistung N = 2fB N0 am Kanalausgang; c) eine auf den Wert S begrenzte mittlere Signalleistung am Kanalausgang. Die zeitbezogene Kanalkapazit¨ at dieses Gauß-Kanals hat nach Aussage der Informationstheorie den Wert 35
Beim Bandpasskanal wird zum Erreichen der minimalen Bandbreite entweder Einseitenband¨ ubertragung oder Verwendung eines Verfahrens mit nichtsymmetrischen Tr¨ agersignalen (z.B. QPSK oder QAM) angenommen.
374
8. Modulation, Multiplex und Codierung
C ∗ = fB lb(1 + S/N ) bit/Zeiteinheit.
(8.101)
Dieser Ausdruck f¨ ur die Kapazit¨ at des Gauß-Kanals ist von fundamentaler Bedeutung, da einmal viele physikalische Kan¨ale in guter N¨aherung GaußKan¨ ale sind, zum anderen (8.101) h¨ aufig eine gute Grenzabsch¨atzung f¨ ur ¨ Kan¨ ale mit nicht-Gauß’scher St¨ orung darstellt. Die Ann¨aherung der Ubertragungsrate an die Kanalkapazit¨ at (8.101) setzt allerdings die Anwendung von Kanalcodierverfahren voraus. Die Ableitung der Kapazit¨ at des Gauß-Kanals wird hier nicht durchgef¨ uhrt, sondern auf die Literatur am Eingang dieses Abschnitts verwiesen. Prinzipiell ¨ ahnliche Zusammenh¨ ange, wie sie bei der Ableitung der Kapazit¨ at des Gauß-Kanals auftreten, sollen aber an folgendem einfachen Beispiel betrachtet werden. Nach den Aussagen in Abschn. 7.2.7 kann u ¨ ber einen idealen Tiefpasskanal ar¨ ubertragungsverfahren mit einer Rate der Grenzfrequenz fg mit einem Bin¨ von maximal r = 2fg u ¨bertragen werden. Durch Anwendung eines Mehrpegelverfahrens, bei dem i Bin¨ arzeichen zu einem neuen, 2i -wertigen Zeichen zusammengefasst werden, l¨ asst sich diese Rate gem¨aß (7.23) erh¨ohen auf36 ri = 2fg lbM
bit/Zeiteinheit.
(8.102)
¨ Hiermit ließe sich theoretisch also bei st¨ orungsfreier Ubertragung f¨ ur M → ∞ ¨ die Ubertragungsrate beliebig steigern. Dieser Erh¨ohung sind aber Grenzen gesetzt, wenn die u ¨ bertragenen Signale durch additives Rauschen gest¨ort werden. Diese Grenzen sollen an einem einfachen Beispiel ermittelt werden. Hierzu wird angenommen, dass ein si-f¨ ormiges Mehrpegelsignal der Grenzfrequenz ur M = 4) und der fg mit M verschiedenen Amplituden (wie Abb. 7.15 f¨ Leistung S additiv durch weißes Rauschen der Leistungsdichte N0 gest¨ort wird. Das zugeh¨ orige Korrelationsfilter ist ein idealer Tiefpass der gleichen orleistung haben also im Abtastzeitpunkt die Grenzfrequenz fg . Signal- und St¨ Werte S bzw. N = 2fg N0 . Vereinfachend wird weiter angenommen, dass das St¨ orsignal am Ausgang des Korrelationsfilters gleichverteilt ist (also Kanal mit nicht-Gauß’scher St¨ orung). In diesem Fall ist ein fehlerfreier Empfang m¨ oglich, wenn die Amplitudenstufen des empfangenen Mehrpegelsignals um mehr als die Breite a der Verteilungsdichtefunktion des Rauschsignals auseinanderliegen, Abb. 8.42 soll diesen Zusammenhang veranschaulichen. F¨ ur den in Abb. 8.42 gezeigten Fall des gerade noch fehlerfreien Empfangs betr¨ agt die Augenblicksleistung des Nutzsignals unter der Annahme, dass alle Amplitudenstufen gleich h¨ aufig sind, als quadratisches Mittel ' 2 2 ( 3 3 a 2 a 2 1 − a + − a + + S= 4 2 2 2 2 36
Gesetz von Hartley“ (Hartley, 1928) (Anhang zum Literaturverzeichnis). ”
8.4 Begriffe der Informationstheorie
375
Abb. 8.42. Verteilungsdichtefunktionen py1 (x) bis py4 (x) bei Mehrpegel¨ ubertragung (M = 4) f¨ ur gerade noch fehlerfreien Empfang
oder allgemein f¨ ur M Amplitudenstufen (M gerade) 2 M/2 M2 − 1 2 2 2n − 1 a = a . S= M n=1 2 12
(8.103)
Nach (6.73) hat die Streuung eines gleichverteilten Rauschsignals die Gr¨oße ur eben noch st¨ orungsfreien Empfang der Mehrpegelσ 2 = N = a2 /12. Das f¨ signale notwendige Nutz-/St¨ orleistungsverh¨ altnis betr¨agt also mit (8.103) (M 2 − 1)a2 /12 S = = M 2 − 1. N a2 /12 Durch Aufl¨ osen nach M ergibt sich als maximale Zahl unterscheidbarer Amplitudenstufen bei fehlerfreiem Empfang ! S M = 1+ . (8.104) N ¨ Mit (8.102) ist die zugeh¨ orige Ubertragungsrate *! + S S bit ri max = 2fg lb 1+ = fg lb 1 + . (8.105) N N Zeiteinheit (8.105) stimmt zuf¨ alligerweise mit der Kapazit¨at des Gauß-Kanals (8.101) u orcharakteristik eines gleichverteilten Rauschens erm¨oglicht es ¨berein. Die St¨ demnach, bereits ohne aufw¨ andige Verfahren der Kanalcodierung die der Ka¨ nalkapazit¨ at entsprechende Rate f¨ ur fehlerfreie Ubertragung zu erreichen.37 37
Dies hat eine Analogie auf dem Gebiet der Quellencodierung: Shannon zeigte ebenfalls, dass die Coderate, die minimal notwendig ist, um ein unkorreliertes, zeitdiskretes Signal mit Gauß-Verteilungsdichte und Varianz σ 2 zu codieren, welches bei einer Quantisierungsfehlerleistung Nq quantisiert wurde, K = 12 lb(σ 2 /Nq ) bit/Abtastwert betr¨ agt (sog. Rate Distortion“-Funktion ei” nes Gauß-Signals). Jedoch ist eine mehr oder weniger aufw¨ andige EntropieCodierung erforderlich, um dies auch zu realisieren. Bei gleichverteilten Signalen wird diese Coderate jedoch bereits durch eine gleichf¨ ormige Quantisierung ohne weitere aufw¨ andige Quellencodierverfahren erreicht, wie ein Vergleich mit (7.97) zeigt.
376
8. Modulation, Multiplex und Codierung
¨ 8.4.7 Die Shannon-Grenze bei digitaler Ubertragung Eine bestimmte Kanalkapazit¨ at kann gem¨ aß (8.101) durch verschiedene Kombinationen der Parameter fB , S und N erreicht werden. Beispielsweise kann bei Erh¨ ohung der Bandbreite eine Verringerung des S/N -Verh¨altnisses auf dem Kanal zugelassen werden; vorausgesetzt ist hierbei eine jeweils opti¨ male Anpassung des Ubertragungsverfahrens. Dieser Austausch f¨ uhrt im Grenz¨ ubergang fB → ∞ nicht auf ein beliebig kleines S/N -Verh¨altnis, da die Rauschleistung am Ausgang des Kanals ebenfalls mit der Bandbreite ansteigt. Im Grenzfall ergibt sich als Kanalkapazit¨at eines nicht bandbegrenzten Gauß-Kanals (Aufgabe 8.18) S lb(e) S ∗ ∗ = C∞ = lim C = lim fB lb 1 + fB →∞ fB →∞ 2fB N0 2 N0 = 0,72 S/N0
bit/Zeiteinheit.
(8.106)
¨ Diese Beziehung soll nun am Beispiel einer idealen Ubertragung bin¨arer Quellensignale u ¨ber einen nicht bandbegrenzten Kanal bei optimaler Kanal- und ¨ Leitungscodierung betrachtet werden. Aus (8.106) folgt, dass zur Ubertra∗ ∗ gung mit der Rate C∞ eine Mindestleistung von S = C∞ N0 /0,72 erforderlich ¨ ist. Da weiter f¨ ur die Ubertragung eines Bin¨ arwertes der Quelle im Mittel ei∗ ugung steht, errechnet sich die pro Bin¨arwert ne Zeit von T = 1/C∞ zur Verf¨ ¨ zu u ¨bertragende Mindestenergie also bei eigeninterferenzfreier Ubertragung zu ∗ Eb , min = S · T = S/C∞ = N0 /0,72
oder ausgedr¨ uckt als mindestens erforderliches Eb /N0 -Verh¨altnis38 " Eb "" 2 = 1,39 = = 5 1,42 dB. " N0 min lb(e)
(8.107)
(8.108)
Diese sogenannte Shannon-Grenze bewirkt ein extremes Schwellwertverhal¨ ten. F¨ ur gr¨ oßere Eb /N0 -Verh¨ altnisse kann die Ubertragung im Prinzip fehlerfrei erfolgen. Verringert man das Eb /N0 -Verh¨altnis unter 1,42 dB, dann steigt die Fehlerwahrscheinlichkeit auch bei Betrachtung des jeweils theoretisch optimierten Verfahrens stark an und erreicht schnell den Maximalwert Pb = 0, 5 (Berauer, 1980). Einfache Modulationsverfahren besitzen dabei erheblich schlechtere Eigenschaften als das ideale System. ¨ Eine M¨ oglichkeit zur Ann¨ aherung an die Shannon-Grenze ist die Ubertragung mit mehreren orthogonalen Tr¨ agersignalen. Quantitativ wird dieses Verfahren und seine asymptotische Ann¨ aherung an die Shannon-Grenze in 38
Bei einseitiger“ Definition von N0 (vgl. Fußnote 14, Kap.6) verdoppelt sich der ” Zahlenwert von N0 , die auf dieser Basis bestimmte, in der englischsprachigen 1 Literatur h¨ aufig anzutreffende Shannon-Grenze liegt dann bei lb(e) ≈ −1, 6 dB.
8.4 Begriffe der Informationstheorie
377
¨ Ubungen 9.9 diskutiert. Allerdings ist eine beliebige Ann¨aherung wegen der mit M u ¨ ber alle Grenzen wachsenden Komplexit¨at praktisch nicht realisierbar. Eine bessere M¨ oglichkeit zur Ann¨ aherung an die Shannon-Grenze stellt daher die Anwendung fehlersichernder Kanalcodierungsverfahren dar. Insbesondere in Verbindung mit der in Abschn. 8.4.3 kurz beschriebenen TurboCodierung ist es m¨ oglich, die Shannon-Grenze f¨ ur den Gauß-Kanal auch bei technisch sinnvollem Aufwand bis auf einen Abstand von ca. 0,1 dB nahezu zu erreichen. Die f¨ ur den Gauß-Kanal erreichbare (und damit durch kein Modulationsoder Codierverfahren u ur bandbegrenz¨berschreitbare) Grenze soll nun noch f¨ te Kan¨ ale betrachtet werden. Die dabei interessante Gr¨oße ist die Band¨ breiteneffizienz η eines Ubertragungsverfahrens, welches das Verh¨altnis von (fehlerfreier) Bin¨ ar¨ ubertragungsrate zur Kanalbandbreite in der Dimension [bit/s/Hz] ausdr¨ uckt. Diese ist ebenfalls von S/N bzw. Eb /N0 abh¨angig. Es folgt mit (8.101) f¨ ur den bandbegrenzten Gauß-Kanal mit m¨oglicher Maximalrate rmax = C ∗ bit rmax Eb rmax , (8.109) ηG = = lb(1 + S/N ) = lb 1 + fB 2fB N0 s · Hz bzw.
" Eb "" 2ηG +1 − 2 = . N0 "min ηG
(8.110)
¨ Um mit einem praktischen Ubertragungsverfahren (Modulation und Codierung) u ¨ ber einen Gauß-Kanal eine Bandbreiteneffizienz η = ηG zu erreichen, ist also mindestens das in (8.110) beschriebene Eb /N0 -Verh¨altnis erforderlich. ¨ Andererseits ist bez¨ uglich der Wahl des Ubertragungsverfahrens die Aussage zu treffen, dass das Erreichen eines bestimmten Wertes ηG , der sich bei ¨ einer Ubertragung mit einem gegebenen Eb /N0 -Verh¨altnis maximal ergeben kann, die Verwendung eines M -wertigen Modulationsverfahrens voraussetzt, welches lb(M ) = K ≥ ηG bit/Symbol u ¨ bertr¨agt. Die Wahl eines h¨oherwertigen Modulationsverfahrens ist unsch¨ adlich und sogar erforderlich, da sinnvollerweise ein Teil der Bits ohnehin zur Kanalcodierung aufgewendet werden ¨ sollte, um die fehlerfreie Ubertragung nahe der Shannon-Grenze zu realisieren. Andererseits leuchtet es ein, dass die Verwendung von minderwertigen Verfahren wie z.B. BPSK (K = 1) bei h¨ oheren Eb /N0 -Verh¨altnissen von vornherein eine Verschwendung von Kanalkapazit¨at darstellt, da das in diesem Bereich g¨ ultige ηG prinzipiell die Verwendung eines Verfahrens erfordert, das mehrere Bits mit jeden gesendeten Symbol u ¨ bertr¨agt. In ¨ ahnlicher Weise k¨ onnen Kapazit¨ atsgrenzen auch f¨ ur andere Kanaltypen, beispielsweise f¨ ur den Rayleigh-Fading-Kanal, angegeben werden. Bei MIMO-Kan¨ alen (vgl. Abschn. 8.3.5 und Anhang 8.6.2) erh¨alt man durch die ¨ Verwendung mehrfacher Ubertragungswege eine Erh¨ohung der theoretisch erreichbaren Kapazit¨ at gegen¨ uber dem einfachen Gauß-Kanal, allerdings immer
378
8. Modulation, Multiplex und Codierung
unter Annahme einer perfekten Kenntnis des Kanals. Hierzu ist zu beachten, dass das Erreichen der Shannon-Grenze bereits beim Gauß-Kanal je nach Arbeitspunkt auf der Eb /N0 -Achse eine spezielle Anpassung des Modulationsund Kanalcodierungsverfahrens erfordert. Bei zeitvarianten Kan¨alen m¨ ussen ¨ daher die entsprechenden Ubertragungsverfahren an die jeweilige Kanalsituation adaptiert werden, was vor allem eine zuverl¨assige Kanalsch¨atzung voraussetzt, deren Realisierbarkeit (u.a. aus Komplexit¨atsgr¨ unden) m¨oglicherweise nicht gesichert ist. ¨ 8.4.8 Ideale Ubertragungssysteme mit Bandbreitedehnung Die durch den Shannonschen Ausdruck f¨ ur die Kapazit¨at des Gauß-Kanals ¨ (8.101) beschriebene Austauschm¨ oglichkeit von Ubertragungsbandbreite ge¨ gen das im Ubertragungskanal notwendige S/N -Verh¨altnis war in der Praxis bereits vor der Ver¨ offentlichung der Informationstheorie am Beispiel der ¨ PCM- und der FM-Ubertragung bekannt. In gleicher Weise wie die ShannonGrenze im letzten Abschnitt einen Vergleich praktisch ausgef¨ uhrter Daten¨ ubertragungssysteme mit dem idealen System erm¨oglichte, soll abschließend jetzt auch f¨ ur die analogen Modulationsverfahren eine entsprechende Grenzaussage u orverhalten idealer Systeme mit Bandbreitedeh¨ ber das St¨ ¨ nung gemacht werden. Zu diesem Zweck wird ein ideales Ubertragungsver¨ fahren angenommen, welches einen Ubertragungskanal der Kapazit¨at C1∗ voll ¨ ausnutzt. Die Kanalkapazit¨ at C1∗ ist gegeben durch die Ubertragungsbandbreite f∆ , die Nutzleistung SK und die St¨ orleistung NK = 2f∆ N0 . Das u ¨ bertragene modulierte Sendesignal wird von einem Empf¨anger demoduliert, also in ein Empfangssignal mit der Bandbreite fg und dem Nutz-/St¨ orleistungsverh¨ altnis Sa /N umgewandelt. Dieser Empf¨anger, und damit das zugeordnete Modulationsverfahren, kann als ideal bezeichnet wer¨ den, wenn die Ubertragungskapazit¨ at C2∗ des Kanals mit nachgeschaltetem Empf¨ anger sich gegen¨ uber der urspr¨ unglichen Kapazit¨at C1∗ nicht verringert. ∗ ∗ Aus der Gleichsetzung C1 = C2 folgt dann mit (8.101) SK Sa f∆ lb 1 + = fg lb 1 + (8.111) 2f∆ N0 N oder entlogarithmiert f∆ f Sa g SK = 1+ . 1+ 2f∆ N0 N ¨ Aufl¨ osen nach dem Nutz-/St¨ orleistungsverh¨ altnis am Ausgang der Ubertragungsstrecke und Einf¨ uhren des Bandbreitedehnfaktors β = f∆ /fg nach (7.102) ergibt β Sa 1 SK − 1. (8.112) = 1+ N β 2fg N0
8.4 Begriffe der Informationstheorie
379
Diese Beziehung der Nutz-/St¨ orleistungsverh¨altnisse zwischen Eingang und Ausgang des idealen Empf¨ angers ist in Abb. 8.43 aufgetragen. Parameter ist der Bandbreitedehnfaktor β. Der theoretisch nutzbare Bereich ist hier durch die Schranke f¨ ur β → ∞ begrenzt.
K
NK
¨ Abb. 8.43. St¨ orverhalten idealer und realer (gestrichelt) Ubertragungssysteme
Im Grenzfall f∆ → ∞ lautet (8.112) (Aufgabe 8.19) " f∆ /fg Sa "" f g SK = lim − 1 = eSK /(2fg N0 ) − 1. 1 + N "∞ f∆ →∞ f∆ 2fg N0
(8.113)
Dieses Nutz-/St¨ orleistungsverh¨ altnis ist in Abb. 8.43 links als Schranke eingeasst sich (8.112) auch vereinfacht schreiben zeichnet. F¨ ur SK /NK ) β > 1 l¨ β β β 1 SK SK SK Sa ≈ = = . (8.114) N β 2fg N0 2f∆ N0 NK ¨ Bei einem idealen Ubertragungsverfahren verbessert sich also das St¨orverhalten ann¨ ahernd exponentiell mit der Bandbreitedehnung des modulierten Sendesignals (Hancock, 1962). ¨ Dieses St¨ orverhalten des idealen Ubertragungsverfahrens wird nun mit dem in fr¨ uheren Abschnitten berechneten St¨ orverhalten der AM-, FM- und PCM-Systeme verglichen. a) Amplitudenmodulationsverfahren Das St¨ orverhalten der koh¨ arenten AM-Verfahren ist durch (8.17) gegeben, mit der Eingangsnutzleistung SK = Sf St gilt
380
8. Modulation, Multiplex und Codierung
SK Sa = . N 2fg N0
(8.115)
¨ Dieser Ausdruck entspricht dem St¨ orverhalten des idealen Ubertragungssystems bei einem Bandbreitedehnfaktor β = 1. Damit ist also die Einseiten¨ band¨ ubertragung mit βEM = 1 nach Abschn. 8.1.5 ein ideales Ubertragungsverfahren, allerdings ohne die Vorteile eines Systems mit Bandbreitedehnung. Bei koh¨ arenter Zweiseitenband-AM ist nach (8.12) βAM = 2. Der Unterschied zwischen realem und idealem Verhalten bei β = 2 steigt, wie Abb. 8.43 zeigt, mit wachsendem Nutz-/St¨ orleistungsverh¨altnis auf dem Kanal immer st¨ arker an, das Zweiseitenband-AM-Verfahren nutzt also die Bandbreitedehnung nicht aus. b) Frequenzmodulationsverfahren Einsetzen von µFM ≈ βFM /2 nach (8.31) in (8.50) ergibt als St¨orverhalten ¨ der FM-Ubertragung oberhalb der FM-Schwelle 3 2 SK Sa = βFM . N 8 2fg N0
(8.116)
¨ Das Sa /N -Verh¨ altnis steigt also bei FM-Ubertragung nur quadratisch mit dem Bandbreitedehnfaktor an, w¨ ahrend das ideale System sein St¨orverhalten nach (8.114) exponentiell mit β verbessert. In Abb. 8.43 sind (strichpunktiert) ucksichtigung zwei Verl¨ aufe f¨ ur die Dehnfaktoren βFM = 10 und 22 unter Ber¨ der FM-Schwelle eingetragen. Ohne Ber¨ ucksichtigung der FM-Schwelle ergeben sich nach (8.116) im Gebiet SK /(2fg /N0 ) < 10 dB Sa /N -Verh¨altnisse, die ¨ besser als die der idealen Ubertragungssysteme gleicher Bandbreite sind. Das ¨ Auftreten eines Schwelleneffektes bei der FM-Ubertragung ist also prinzipiell begr¨ undet. c) Pulscodemodulation Das St¨ orverhalten eines PCM-Systems wird durch (7.100) beschrieben und ist altnisses auf dem Kanal dargestellt in Abb. 7.37 als Funktion des Es /N0 -Verh¨ ¨ (bei bipolarer Ubertragung auch identisch mit Eb /N0 ). Die einzelnen bin¨aren Tr¨ agerimpulse der Energie Es werden nach (7.101) mit einer Rate r = K2fg ¨ u bertragen. Bei bipolarer Ubertragung ist dann die Leistung SK des PCM¨ Signals auf dem Kanal mit (7.103) SK = rEs = K2fg Es = βPCM 2fg Es , und es gilt die Beziehung 1 Es Sk = . N0 βPCM 2fg N0
(8.117)
8.4 Begriffe der Informationstheorie
381
Hiermit k¨ onnen die Kurven f¨ ur das St¨ orverhalten eines bipolaren PCMSystems in Abb. 8.43 u ¨ bertragen werden. Im Bereich oberhalb der PCMSchwelle gilt mit (7.103) und (7.96), modifiziert f¨ ur ein sin-f¨ormiges Nutzsignal, Sa 3 Sa = = 22βPCM . N Nq 2
(8.118)
Bei der Pulscodemodulation steigt also die Verbesserung des St¨orverhaltens in gleicher Weise wie bei einem idealen Verfahren exponentiell mit dem ¨ Bandbreitedehnfaktor an. Im Vergleich mit der FM-Ubertragung kann demnach eine Bandbreitevergr¨ oßerung durch ein PCM-Verfahren erheblich besser ausgenutzt werden. Wie ein Vergleich von FM- und PCM-Verhalten bei gleicher Bandbreitedehnung (z. B. f¨ ur β = 10 in Abb. 8.43) zeigt, besteht ¨ dieser Vorteil der PCM-Ubertragung aber nur in der Umgebung der PCMSchwelle. Vergr¨oßert man bei konstant gehaltener Bandbreitedehnung das S/N -Verh¨ altnis auf dem Kanal u ¨ ber den Schwellenbereich hinaus, dann bleibt der Gewinn der FM-Verfahren gegen¨ uber den Verfahren ohne Bandbreitedehnung erhalten. Bei den PCM-Verfahren hingegen hat eine solche Verbesserung keinerlei Einfluss auf die Leistung des Quantisierungsrauschens; das hat zur Folge, dass auf st¨ orarmen Kan¨ alen schließlich das St¨orverhalten der PCM ¨ schlechter als das der Ubertragungsverfahren ohne Bandbreitedehnung wird. Jedoch kann im Prinzip durch Erh¨ ohung oder Erniedrigung der Anzahl von Quantisierungsstufen der optimale Arbeitspunkt gew¨ahlt werden. Insofern ¨ sind digitale Ubertragungsverfahren an die jeweilige Kanalsituation wesentlich besser adaptierbar. Weiterhin ist zu bemerken, dass die PCM zun¨achst nur das einfachst m¨ ogliche digitale Quellencodierungsverfahren darstellt. Durch andere Methoden der Quellencodierung lassen sich Signal-/Rauschverh¨altnisse wie in (8.118) bereits mit deutlich weniger bit/Abtastwert bzw. deutlich geringeren Bandbreitedehnfaktoren erreichen. So sind z.B. f¨ ur Sprach- und Audiosignale zus¨ atzliche Gewinne um den Faktor 5-10, f¨ ur Bildsignale um den Faktor 10-20 und f¨ ur Videosignale um den Faktor 20-50 gegen¨ uber PCM ohne signifikante ¨ Qualit¨ atseinbußen realisierbar. Allein hierdurch r¨ ucken die digitalen Ubertragungsverfahren auch f¨ ur urspr¨ unglich kontinuierliche Signale deutlich n¨aher an die idealen Grenzen. Weiter ist zu ber¨ ucksichtigen, dass die Bandbreitenef¨ fizienz der hier verwendeten bipolaren Ubertragung insbesondere bei hohen altnissen weit von der Shannon-Grenze abweicht, was durch die Eb /N0 -Verh¨ Verwendung h¨ oherwertiger Modulationsverfahren sofort vermieden werden kann. Dar¨ uber hinaus stecken Ans¨ atze, die unter dem Aspekt einer m¨oglichst hohen Rekonstruktionsqualit¨ at eine gemeinsame Optimierung von Quellencodierung, Kanalcodierung und Modulation vornehmen (sog. joint source and ” channel coding“, JSCC), eher noch in den Anf¨angen. Als Beispiele hierf¨ ur ¨ sind Methoden zu nennen, die h¨ oherwertige Quellenbits bei der Ubertragung besser sch¨ utzen, oder auch Methoden, die den decodierten Quellenzustand ausnutzen, um die Entscheidung des Kanaldecodierers zu verbessern.
382
8. Modulation, Multiplex und Codierung
8.5 Zusammenfassung In diesem Kapitel wurden zun¨ achst die wichtigsten linearen und nichtlinearen ¨ Modulationsverfahren zur Ubertragung analoger Quellensignale eingef¨ uhrt. F¨ ur die linearen Modulationsverfahren bildete wieder das KorrelationsfilterKonzept den Ausgangspunkt, von dem her sich die Pulsamplitudenmodulation und die Amplitudenmodulation nahtlos entwickeln ließen. Etwas andere ¨ Uberlegungen galten f¨ ur die praktisch wichtigen, aber zun¨achst theoretisch nicht so gut einzuordnenden Winkelmodulationsverfahren. Anschließend wur¨ den die Verfahren der Zeit-, Frequenz-, Code- und Raummultiplex-Ubertragung behandelt. Ein abschließender Exkurs in die Informationstheorie f¨ uhrte zun¨ achst kurz einige Konzepte der Quellen- und Kanalcodierung ein. Schließlich zeigte sich nach einer Analyse der informationstheoretischen Grenzen, ¨ dass typischerweise durch eine Erh¨ ohung der Ubertragungsbandbreite immer auch eine Verbesserung des Signal-/St¨ orleistungsverh¨altnisses erreicht werden kann. Allerdings ist selbst f¨ ur Kan¨ale mit unendlicher Bandbrei¨ te keine beliebig große Ubertragungskapazit¨ at zu erwarten. Weitergehende ¨ Uberlegungen aus der Informationstheorie zeigten, dass sich durch geeignete Kombination von Quellencodierungs-, Kanalcodierungs- und Modulations¨ verfahren eine Verbesserung der Ubertragungsqualit¨ at erzielen l¨asst, die sich in Richtung der aufgezeigten Grenzen bewegt. Mittels fortgeschrittener Verfahren der digitalen Signalverarbeitung werden diese Methoden heute auch praktisch realisiert. Nur auf dieser Grundlage konnten in den letzten etwa 20 Jahren signifikante Fortschritte in der leitungsgebundenen und drahtlosen ¨ Ubertragung digitalisierter Signale erzielt werden, deren weitere Entwicklung die Kommunikationstechnik als eines der interessantesten Zukunftsthemen erscheinen l¨ asst.
8.6 Anhang 8.6.1 Mehrwegeempfang in Mobilfunkkan¨ alen Bei den bisherigen Betrachtungen wurde stets ein Kanalmodell angenommen, bei dem eine St¨ orung des Nutzsignals durch ein weißes, Gauß-verteiltes Rauschen erfolgt. Hieraus folgt prinzipiell, dass die Autokorrelationsfunktion des St¨ orsignals einen gewichteten Dirac-Impuls darstellt, somit also auch keine statistischen Abh¨ angigkeiten zwischen aufeinander folgenden Bitst¨orungen vorhanden sind. Diese Annahme ist insbesondere bei Mobilfunkkan¨alen im Falle bewegter Sender oder Empf¨ anger nicht g¨ ultig. Abb. 8.44 zeigt das ¨ Ph¨ anomen der Uberlagerung von Signalen mehrerer Ausbreitungswege am ¨ Empf¨ anger bei drahtloser Ubertragung. Das empfangene Signal bei insgesamt I Ausbreitungswegen wird
8.6 Anhang
me (t) =
I
αi (t)m(t − τi ).
383
(8.119)
i=1
= 2,J S e n d e r
= 1,J
1
2
1
E m p fä n g e r
= 3,J
x
J
R e fle k tie r e n d e s O b je k t
2
(t)
=
2
(t)
=
I(
t)
...
3
J
R e fle k tie r e n d e s O b je k t
a )
1
x
J
m (t)
=
b )
I
+ m
e
(t)
x
Abb. 8.44. a Ph¨ anomen der Mehrwegeausbreitung und b Blockschema zur Modellierung
Hierbei stellen die Faktoren αi die D¨ ampfungsfaktoren der einzelnen Ausbreiogerungszeiten dar. Der Interferenz tungswege, die τi die zugeordneten Verz¨ zwischen den Signalen der einzelnen Ausbreitungswege kann normalerweise durch geeignete Entzerrung (vgl. Abschn. 7.2.8) entgegengewirkt werden. Sofern entweder die Sende- oder Empfangsstation sich bewegt, sind beide Parameter allerdings zeitvariant. Ein Modell f¨ ur einen Mobilfunkkanal mit Zweiwege-Empfang und zus¨atzlich u berlagerter Gauß-verteilter Rauschst¨ orung n(t) ist in Abb. 8.45a darge¨ stellt. Die Superposition der beiden Wege verursacht eine Variation in Betrag und Phase des empfangenen Signals. Dies kann ersatzweise durch Multiplikation mit einem einzigen komplexen Koeffizienten c(t) = cr (t) + jci (t) = v(t) · ejφc (t) ausgedr¨ uckt werden. Unter der Annahme, dass die durch die Verz¨ogerung bedingte Phasenverschiebung φc (t) einer statistischen Gleichverteilung folgt, sind die Real- und Imagin¨ arteile von c(t) unkorreliert. Werden außerdem cr (t) und ci (t) als Gauß-verteilt und mittelwertfrei angenommen, so wird gem¨aß (7.57) der Amplitudenfaktor / (8.120) v(t) = c2r (t) + c2i (t) einer Rayleigh-Verteilung (7.65) folgen. In Bezug auf die Empfangsqualit¨at ist die Phasenvariation irrelevant, wenn davon ausgegangen wird, dass eine Tr¨ agersynchronisation erfolgen kann. Somit ergibt sich das in Abb. 8.45b gezeigte Modell des Rayleigh-Fading-Kanals
384
8. Modulation, Multiplex und Codierung
x =
m (t)
J
a )
2
- J 1
b )
+ +
x
m e
(t)
n (t)
=
m (t)
(t) 1
2
(t)
x
+
v (t)
n (t)
m e
(t)
Abb. 8.45. a Modell der Zweiwegeausbreitung und b vereinfachtes Modell f¨ ur Rayleigh-Fading-Kanal
me (t) = v(t) · m(t) + n(t) .
(8.121)
Zur Simulation eines solchen Kanals ist es also ausreichend, zwei unabh¨angige Gauß-Zufallssignalgeneratoren zur Erzeugung von v(t) sowie einen weiteren Generator zur Erzeugung von n(t) zu implementieren. F¨ ur einen Kanal mit festem Wert v(t) = v und einem additiven weißen Gauß-Rauschen der Rausch¨ ur bipolare Ubertragung nach koh¨arentem leistungsdichte N0 ergibt sich z.B. f¨ Korrelationsfilter-Empfang gem¨ aß (7.11) eine Bitfehlerwahrscheinlichkeit Pb (ξ) =
1 v 2 Eb erfc ξ mit ξ = . 2 2N0
(8.122)
Da v 2 die Summe der Quadrate zweier statistisch unabh¨angiger Gaußverteilter Zufallsprozesse darstellt, folgt ξ einer Chi-Quadrat-Verteilung mit 2 Freiheitsgraden, 1 Eb 2 2 3 x . (8.123) E v · ε(x) mit ξ = E {ξ} = pξ (x) = exp − 2N0 ξ ξ Es ergibt sich mit (8.122) und (8.123) die mittlere Bitfehlerrate des Rayleigh¨ Fading-Kanals f¨ ur den Fall der bipolaren Ubertragung ∞ Pb = E {Pb (ξ)} =
∞ Pb (x)pξ (x)dx =
0
√ 1 1 x erfc x · exp − dx . 2 ξ ξ
0
(8.124) Mit (6.154) und der Regel der partiellen Integration ergibt sich
8.6 Anhang
√ − x 1 erfc x − e ξ Pb = 2 1 1 = − √ 2 2 π
∞
1 −x √ ·e x
∞
“
∞ −
0
1 −1 √ e−x · √ π 2 x
−x ξ
−e
385
dx
0 ”
1 +1 ξ
dx ,
(8.125)
0
und weiter folgt mit ∞ Γ (m) =
−x m−1
e 0
x
∞ dx ⇒
e−cx xm dx =
Γ (m + 1) cm+1
(8.126)
0
√ sowie dem Wert der Gamma-Funktion Γ (1/2) = π * + 4 1 Γ − 12 + 1 1 1 1 Pb = − √ − 12 +1 = 2 1 − 1 + 1 . 2 2 π 1 ξ + 1 ξ
(8.127)
2 3 Wird das Modell so normiert, dass E v 2 = 1 wird39 , ergibt sich schließlich 4 * + 1 1 1− . (8.128) Pb = 2 1 + 2N0 /Eb Nach demselben Prinzip lassen sich die Bitfehlerwahrscheinlichkeiten unter ¨ Rayleigh-Fading f¨ ur andere Ubertragungsverfahren berechnen, sofern nur die Bitfehlerwahrscheinlichkeit f¨ ur den Gauß-Kanal in Abh¨angigkeit von Eb /N0 bekannt ist. In einer Erweiterung ist die Empfangsamplitude eine Rice-Verteilung mit entsprechender Parametrierung (Rice-Fading-Kanal ), wenn cr (t) und ci (t) nicht mittelwertfrei sind. Dies wird z. B. typischerweise der Fall sein, wenn ein bestimmter Minimalpegel des empfangenen Signals erwartet wird, oder wenn bei der Superposition mehr als 2 Wege ber¨ ucksichtigt werden. Bei Bewegung des Senders oder Empf¨ angers entsteht in Mobilfunkkan¨alen eine zeitliche Variation des Nutzsignalpegels, wobei der Fading-Effekt je nach geographischer Situation k¨ urzer oder l¨ anger andauern kann. Dies f¨ uhrt zu einem burstartigen (d.h. zeitlich korrelierten) Bitfehlerverhalten. Da Burstfehler mittels Kanalcodierung schwerer zu korrigieren sind als einzelne, statistisch unabh¨ angige Bitfehler, ist hier die mittlere Bitfehlerrate in der Regel weniger interessant als andere Parameter wie z.B. H¨aufigkeit und mittlere Dauer von Fehlerbursts. Derartiges Verhalten l¨asst sich jedoch mit den oben beschriebenen Modellen nur simulieren, wenn zus¨atzlicher Einfluss auf die Steuerparameter von v(t) genommen wird. 39
Dies ist bei der Chi-Quadrat-Verteilungsdichte mit 2 Freiheitsgraden der Fall, wenn die Varianzen der beiden quadriert zusammengef¨ uhrten Gauß-Prozesse jeweils σ 2 = 12 betragen.
386
8. Modulation, Multiplex und Codierung
In Mobilfunkkan¨ alen muss nicht unbedingt der direkte Empfangsweg derjenige mit der h¨ ochsten Amplitude sein; vielmehr wird in vielen F¨allen gar kein direkter Weg existieren, z.B. wenn ein Hindernis zwischen Sender und Empf¨ anger steht. Hierbei ist zu beachten, dass die durch Mehrwegeempfang verursachte Amplitudenvariation frequenzselektiv wirkt: Eine bestimmte Verz¨ ogerungsdifferenz zwischen zwei Empfangswegen f¨ uhrt zu einer linear von der Frequenz abh¨ angigen Phasendifferenz der beiden Signale zueinander; dies kann bei bestimmten Frequenzanteilen f zu einer Ausl¨oschung f¨ uhren (z.B. wenn mit einer beliebigen ganzzahligen Konstanten k gilt: f · [τ2 − τ1 ] = [2k − 1]π), bei anderen Frequenzanteilen hingegen sogar zu einer Anhebung der Empfangsamplitude (z.B. wenn f · [τ2 − τ1 ] = 2kπ). Dieses frequenzselektive Fading wird ebenfalls mit den einfachen hier beschriebenen Modellen nicht erfasst. 8.6.2 Zur Charakterisierung von MIMO-Kan¨ alen Die Matrix H, welche die Signal¨ ubertragung u ¨ ber einen MIMO-Kanal beschreibt, ist im generellen Fall als nicht-quadratische Matrix der Gr¨oße L × M nicht invertierbar, es l¨ asst sich auch keine Determinante berechnen. Jedoch lassen sich quadratische Teilmatrizen (Ausschnitte) der Gr¨oße P × P, 1 ≤ P < min(M, L) definieren. Der Rang R der nicht-quadratischen Matrix H ist die Seitenl¨ ange P ihrer gr¨ oßten quadratischen Teilmatrix, welche noch eine Determinante ungleich Null besitzt. Typischerweise wird f¨ ur das MIMO-Problem R = min(M, L) sein. Es werden nun eine M × M -Matrix U sowie eine L × L-Matrix V definiert, die mit H in folgendem Zusammenhang stehen40 :
UH HV = Λ(1/2)
⎡ λ(1) 0 · · · 0 ⎢ ⎢ 0 λ(2) · · · 0 ⎢ ⎢ . . .. = ⎢ .. 0 0 ⎢ ⎢ ⎣ 0 0 · · · λ(R) 0 0 ··· 0
⎤ 0 .. ⎥ .⎥ ⎥ ⎥ 0⎥ ⎥ .. ⎥ .⎦
(8.129)
0
Die Eintr¨ age der Matrix Λ(1/2) werden als die R Singul¨arwerte λ(r) von H bezeichnet. Die Matrix besitzt ebenfalls L Spalten und M Zeilen, die Nullspalten bzw. Nullzeilen am rechten und unteren Rand tauchen dort auf, wo R < L bzw. R < M . Die Quadrate der Singul¨arwerte sind identisch mit den von Null verschiedenen Eigenwerten der M × M -Matrix HHH und der L × L-Matrix HH H. Die Spalten der Matrix U sind die Eigenvektoren ur 40
Der Hochindex H“ beschreibt die sogenannte Hermite’sche Matrix, d.h. die ” konjugiert-komplex Transponierte
8.6 Anhang
387
von HHH , die Spalten von V die Eigenvektoren vr von HH H. Es gelten also die folgenden Beziehungen: (8.130) UH HHH U = Λ(M) ; VH HH H V = Λ(L) , wobei Λ(M) und Λ(L) jeweils quadratische M × M - bzw. L × L-Matrizen sind, auf denen die ersten R Positionen der Hauptdiagonale mit den Eigenwerten λ(r) besetzt sind. Durch Umkehrung von (8.129) ist es m¨oglich, H wie folgt auszudr¨ ucken41 : H = UΛ(1/2) VH =
R
λ(r)ur vH r .
(8.131)
r=1
Die Matrix H l¨asst sich also als Linearkombination von R Matrizen ur vH r, jeweils gewichtet mit den Singul¨ arwerten λ(r), ausdr¨ ucken. Gem¨ aß (8.87) l¨ asst sich der MIMO-Kanal nun vollkommen a¨quivalent als ¨ eine √Reihe von R parallelen Kan¨ alen mit Amplituden-Ubertragungsfaktoren λr darstellen (s. Abb. 8.30). Unter der Annahme, dass die einzelnen Parallelkan¨ ale Gauß-Kan¨ ale darstellen, sowie unter der Annahme, dass die Kanalmatrix H so normalisiert wurde, dass das S/N -Verh¨altnis an den Ka¨ nalausg¨ angen dem eines SISO-Kanals in der gleichen Ubertragungsumgebung entspricht, ergibt sich als Kanalkapazit¨ at des MIMO-Kanals mit (8.101)42 * * R √ 2 + + R 8 λ λ S S r r = fB lb bit/s. C ∗ = fB lb 1 + 1+ N L N L r=1 r=1 (8.132) Die Normierung der Eigenwerte auf die Anzahl der tats¨achlichen Kanaleing¨ ange L ist notwendig, weil die gesamte Nutzsignalleistung u ¨ ber alle L Eing¨ ange nicht gr¨ oßer werden darf als bei dem zum Vergleich herangezogenen SISO-Kanal. Da das Produkt der Eigenwerte den Determinanten der Matrizen Λ(M) bzw. Λ(L) aus (8.130) entspricht, und weiterhin auf Grund der Orthonormalit¨ at der Eigenvektorzerlegung mit den Determinanten von HHH bzw. HH H identisch sein muss, kann (8.132) noch wie folgt umformuliert und gem¨aß (8.109) in die Bandbreiteneffizienz η umgerechnet werden: ' * +( H C∗ S HH ηMIMO = = lb det I(M) + bit/s/Hz. (8.133) fB N L 41
42
Die vereinfachte Summenform folgt auf Grund der Tatsache, dass die in U und V enthaltenen Basisvektoren orthonormal sind. Der Sender muss im Optimalfall die u ale u ¨ ber die R Unterkan¨ ¨ bertragenen Bits so zuordnen, dass die jeweilige Kapazit¨ at der Kan¨ ale nicht u ¨ berschritten wird (vgl. hierzu Abschn. 8.4.7). Gegebenenfalls kann es dabei sogar notwendig werden, bestimmte Unterkan¨ ale gar nicht zu verwenden, sofern ihre Kanalkapazit¨ at wegen des Unterschreitens der Shannon-Grenze Null ist.
388
8. Modulation, Multiplex und Codierung
Als Sonderf¨ alle ergeben sich hieraus auch die Bandbreiteneffizienzen des SIMO-Kanals (N = 1) + * M S 2 bit/s/Hz, (8.134) |hm | ηSIMO = lb 1 + N m=1 bzw. des MISO-Kanals (M = 1) + * L S 1 2 ηMISO = lb 1 + |hl | NL
bit/s/Hz.
(8.135)
l=1
¨ Hierbei stellen die Werte hm|l die (ggf. komplexwertigen) Amplituden-Uber¨ tragungsfaktoren beispielsweise bei einer Mehrwege-Ubertragung dar. So entspricht (8.135) beispielsweise der Kanalkapazit¨at, die mit einem Rake-Empf¨ anger (Abb. 8.27) realisiert werden kann.
8.7 Aufgaben ¨ 8.1 Gegeben ist ein PAM-Ubertragungssystem mit der Taktzeit T und einer √ Tr¨ agerfunktion s(t) = rect(t/t0 )/ t0 . Berechnen Sie die Gesamt¨ ubertragungsfunktion des Systems bei Korrelationsfilter-Empfang, wenn mit T < t0 < 2T das l. Nyquist-Kriterium nicht ¨ erf¨ ullt ist. Skizzieren Sie die Ubertragungsfunktion f¨ ur t0 = 1,25 T und T = 125 µs = 1/(2fg ). 8.2 In dem AM-Signal m(t) = f (t) cos(2πf0 t) soll das TP-Signal f (t) der Grenzfrequenz fg f0 durch Multiplikation mit cos[2πf0 t − ϕ(t)] und Tiefpassfilterung zur¨ uckgewonnen werden. a) Wie lautet das demodulierte Signal fe (t). wenn der Empf¨angeroszillator einen konstanten Phasenfehler ϕ(t) = ϕ0 hat? b) Wie ist das Ergebnis bei einem konstanten Frequenzfehler ∆f f0 , also ϕ(t) = 2π∆f t? 8.3 Ein Quellensignal der Form f (t) = a cos(2πf1 t) +
a cos(4πf1 t + ϕ) (ϕ beliebig) 2
wird im Zweiseitenband-Modulationsverfahren mit einem Tr¨agersignal der Amplitude A und der Frequenz f0 = 10f1 u ¨ bertragen. ¨ a) Wie groß darf a/A h¨ ochstens werden, damit keine Ubermodulation nach Bedingung (8.7) auftritt? Zeichnen Sie das Betragsspektrum des modulierten Sendesignals m(t).
8.7 Aufgaben
389
b) In einem vereinfachten H¨ ullkurvenempf¨ anger nach Abb. 8.5b wird der Betrag des modulierten Sendesignals gebildet. Berechnen und skizzieren Sie das Betragsspektrum von |m(t)|. Hinweis: Beschreiben Sie die Betragsbildung als Multiplikation mit einer periodischen Rechteckfunktion nach Aufgabe 3.7b. ¨ 8.4 Gegeben ist ein nichtkoh¨ arenter AM-Uberlagerungsempf¨ anger f¨ ur den Mittelwellenbereich (0,5 MHz < f0 < 1,5 MHz). Die Grenzfrequenz des Quellensignals f (t) betrage fg = 5 kHz (Abb. 8.46).
¨ Abb. 8.46. Uberlagerungsempf¨ anger
a) Geben Sie den Zusammenhang zwischen f0 , fM und der Mittenfrequenz fZF des Bandpasses an. ¨ b) Zeigen Sie, dass der Uberlagerungsempf¨ anger i. Allg. außer dem Signal atzlich ein zweites Signal mit einer m(t) mit der Tr¨ agerfrequenz f0 zus¨ Tr¨ agerfrequenz f0s (Spiegelfrequenz) empf¨angt. Wie l¨ asst sich der Empfang der Spiegelfrequenzsignale unterdr¨ ucken (Abb. 8.5c)? c) Wie groß muss fZF mindestens sein, wenn die Spiegelfrequenzsignale außerhalb des MW-Bereiches liegen sollen? Welche Zwischenfrequenz ergibt sich unter den gleichen Bedingungen f¨ ur den UKW-Bereich (88 MHz < f0 < 108 MHz nach US-Norm)? d) In welchem Bereich muss fM variiert werden k¨onnen (bei fZF wie unter Frage c)? e) Wie groß sind die Bandbreiten der Filter zu w¨ahlen? f) In modernen integrierten Schaltungen k¨ onnen bei Wahl einer hohen Zwischenfrequenz fZF > f0 die Spiegelfrequenzsignale durch einen festen Tiefpass unterdr¨ uckt werden. Wie sind im MW-Bereich die Grenzfrequenzen f1,2 eines solchen Tiefpassfilters (nach Abb. 3.24) f¨ ur fZF = 1,6 MHz zu w¨ahlen? 8.5 Gegeben ist die in Abb. 8.47 gezeigte Modulatorschaltung mit H(f ) = −j sgn(f ) = −j[2ε(f ) − 1] (Aufgabe 8.6), f (t) sei gleichanteilfrei. a) Stellen Sie H(f ) nach Betrag und Phase dar. Berechnen Sie H(f ) und zeigen Sie, dass das System H(f ) die Hilberth(t) Transformation ausf¨ uhrt (Aufgabe 5.14).
390
8. Modulation, Multiplex und Codierung
Abb. 8.47. Einseitenbandmodulator
b) Zeigen Sie am Beispiel des Quellensignals aus Aufgabe 8.3, dass die Schaltung einen Einseitenbandmodulator darstellt. c) Welches Seitenband wird erzeugt? Ver¨ andern Sie die Schaltung so, dass das andere Seitenband erzeugt wird. 8.6 Gegeben ist folgende Schaltung (Abb. 8.48)
Abb. 8.48. Hilbert-Transformator. TP: idealer Tiefpass der Grenzfrequenz fg . HP: idealer Hochpass der Grenzfrequenz fg (Aufgabe 5.3)
a) Berechnen Sie die erlaubte Grenzfrequenz der Signale f¨ ur eigeninterferenzfreien Empfang. ¨ b) Zeigen Sie, dass die Schaltung im Bereich 0 < |f | < fg die Ubertragungsfunktion des Hilbert-Transformators“ H(f ) aus Aufgabe 8.5 realisiert. ” 8.7 Zwei Tiefpasssignale werden abgetastet und im Zeitmultiplexverfahren u ¨ber das PAM-System aus Aufgabe 8.1 u ¨ bertragen, wobei das 1. NyquistKriterium mit t0 = 1,25 T nicht erf¨ ullt ist (T : Taktzeit auf dem Kanal). a) Berechnen Sie die erlaubte Grenzfrequenz der Signale so, dass keine Eigeninterferenzen auftreten. b) Berechnen Sie die Gesamt¨ ubertragungsfunktion eines einzelnen Kanals. ¨ c) Berechnen Sie die Ubertragungsfunktion f¨ ur die Nebensprechsignale, und geben Sie die minimale Nebensprechd¨ ampfung an. 8.8 Q = 100 Fernsprechsignale der Grenzfrequenz fg = 4 kHz werden mit ¨ einem Multiplexverfahren u ¨ bertragen. Berechnen Sie die minimale Ubertragungsbandbreite f¨ ur
8.7 Aufgaben
391
¨ a) PAM-Zeitmultiplex-Ubertragung ¨ b) Frequenzmultiplex-Ubertragung mit Einseitenband-Amplitudenmodulation. 8.9 Zu dem amplitudenmodulierten Signal m1 (t) = f1 (t) cos(2πf0 t) wird ein zweites Signal m2 (t) = f2 (t) sin(2πf0 t) gleicher Tr¨agerfrequenz f0 addiert. Skizzieren Sie Sende- und Empfangsschaltung dieses sog. Quadratur-Duplexverfahrens, und zeigen Sie, dass bei koh¨ arentem Empfang kein Nebensprechen auftritt. ¨ Wie groß ist die Ubertragungsbandbreite im Vergleich zu einem zweikanaligen Multiplexverfahren nach Abb. 8.20? 8.10 Ein Schieberegistergenerator mit r = 3 Stufen erzeugt eine m-Folge der L¨ ange = Periode M = 23 − 1 = 7 sd (n) = {1, 1, 1, 0, 1, 0, 0} oder in bipolarer Form sbd (n) = {− − − + − + +}. a) Berechnen Sie f¨ ur sbd (n) die periodische Autokorrelationsfunktion ϕE ssd (m) und ihr DFT-Spektrum |Sd (k)|2 . b) Wie groß ist die relative unbalance“? ” c) Zeigen Sie an einem Beispiel die shift and add“-Eigenschaft von sbd (n). ” d) Bilden Sie aus sbd (n) = s1bd (n) die 2. Folge s2bd (n) eines preferred pair“ ” (z. B. f¨ ur a = 1) und zeigen Sie die G¨ ultigkeit der Schrankenbedingung (8.78). e) Bilden Sie aus dem preferred pair“ nach (d) die Q = 9 Folgen der zu” geh¨ origen Gold-Familie und je eine ihrer periodischen Auto- und Kreuzkorrelationsfunktionen. 8.11 In einem einfachen FH-System durchl¨ auft der 1. Sender in jeder Taktzeit periodisch die M Frequenzen f1 , f2 , . . . , fn , . . . fM . Diese Frequenzfolge werde in Form der periodischen Folge s1d (n) dargestellt s1d (n) = n,
n = 1...M .
Ist die Zahl der Tr¨ agerfrequenzen M eine Primzahl, dann lassen sich M − 2 weitere Folgen durch Abtastung (Dezimation) der Folge s1d (n) bilden mit skd (n) = s1d (kn),
k = 2...M − 1 .
Zeigen Sie, dass die Sender eines asynchronen FH-Multiplexsystems des Umfangs Q = 4 bzw. 6 nur genau einmal pro Taktperiode die gleiche Tr¨agerfrequenz verwenden. 8.12 Ein UKW-Rundfunksender (f0 = 90 MHz) wird mit einem sin-f¨ormigen Signal der Frequenz f1 = fg = 15 kHz frequenzmoduliert. Der Modulationshub betr¨ agt ∆F = 75 kHz.
392
8. Modulation, Multiplex und Codierung
a) Zeichnen Sie maßst¨ ablich das Spektrum des Ausgangssignals, und kennzeichnen Sie die Carson-Bandbreite. b) Berechnen und skizzieren Sie den zeitlichen Verlauf der Augenblicksfrequenz. 8.13 Gegeben ist die in Abb. 8.49 gezeigte Schaltung (Armstrong-Modulator). Zeigen Sie, dass m(t) f¨ ur |a| 1 ein phasenmoduliertes Sendesignal ist.
Abb. 8.49. Armstrong-Modulator
8.14 Berechnen Sie die Leistung des FM-Signals nach (8.26). 8.15 Skizzieren Sie FM-Spektren gem¨ aß Abb. 8.12 f¨ ur die Modulationsindizes µFM = 1, 3 und 7, und kennzeichnen Sie die Carson-Bandbreite und den Modulationshub. ¨ 8.16 Bei der FM-Stereofonie-Ubertragung (nach FCC-Norm) werden die Quellensignale r(t) und l(t) (Grenzfrequenz fg = 15 kHz) in der Multiplexschaltung nach Abb. 8.14 kombiniert.
¨ Abb. 8.50. Stereofonie-Ubertragung
a) Entwerfen Sie eine Schaltung, die aus den Summensignalen l(t) − r(t) und l(t) + r(t) die Signale l(t) und r(t) zur¨ uckgewinnt. b) Skizzieren Sie das Spektrum |M (f )| des Multiplexsignals m(t). c) Entwerfen Sie eine geeignete Empf¨ angerschaltung zur R¨ uckgewinnung der Signale r(t) und l(t) aus m(t). d) Begr¨ unden Sie die Lage der Pilotfrequenz fp .
8.7 Aufgaben
393
8.17 Gegeben ist ein Tr¨ agersignal s(t) der Energie E, welches das 1. Nyquist(nT ) = 0 f¨ u r n = 0 erf¨ ullt. Zeigen Sie, dass die Summe Kriterium ϕE ss ∞
s(t − nT )
n=−∞
die Leistung St = E/T hat. ) ) ) Hinweis: Benutzen Sie die Umformung ( n an )2 = n m (an am ) und die Orthogonalit¨ atseigenschaft der um nT gegeneinander verschobenen Signale s(t). 8.18 F¨ uhren Sie den Grenz¨ ubergang in (8.106) durch, und skizzieren Sie S/N0 als Funktion von fB mit C ∗ als Parameter. 8.19 F¨ uhren Sie den Grenz¨ ubergang in (8.113) durch. 8.20 Ein TP-Signal der Bandbreite fg wird mit der Nyquistrate abgetastet und in vier Stufen quantisiert. Die vier Quantisierungsstufen treten mit den Wahrscheinlichkeiten p1 = p2 = 1/8 und p3 = 3/8 auf, sie seien unabh¨angig voneinander. Berechnen Sie Informationsfluss und Redundanz. 8.21 Zeigen Sie, dass mit S/N 1 f¨ ur die zeitbezogene Kanalkapazit¨at des Gaußkanals mit guter Genauigkeit die zugeschnittene Gr¨oßengleichung gilt C∗ 1 fB S/N = . kbit/s 3 kHz dB Wie groß ist dann C ∗ f¨ ur einen Fernsprechkanal der Bandbreite fB = 4 kHz bei S/N = 40 dB?
9. Zusatzu ¨bungen
Die folgenden Zusatzaufgaben wurden so ausgew¨ahlt, dass sie den Stoff dieses Buches in einer Reihe wichtiger Anwendungsf¨alle erg¨anzen. Diese Erg¨anzung in der Form etwas anspruchsvollerer Aufgaben mit L¨osungen soll dar¨ uber hinaus zur eigenen Weiterarbeit anregen.
9.1 Orthogonalentwicklung Ein im Intervall [0; T ] zeitbegrenztes Energiesignal f (t) wird bei der Orthogonalentwicklung als gewichtete Summe von M in diesem Intervall definierten (hier reellwertigen) orthogonalen Funktionen si (t) dargestellt (Franks, 1969) f (t) =
M−1
bi si (t) + r(t)
i=0
mit der Orthogonalit¨ atseigenschaft (Abschn. 7.2.5)
T si (t)sj (t)dt = 0
1 0
f¨ ur
i=j i = j .
Die Approximationskoeffizienten bi sollen dabei so gew¨ahlt werden, dass die Energie Er der Restfunktion r(t) minimal wird. a) Zeigen Sie, dass f¨ ur die bi dann gilt T f (t)si (t)dt ≡ ϕE f si (0)
bi = 0
!
Ansatz: dEr /dbi = 0 f¨ ur alle bi . ur zwei orthogonale b) Geben Sie eine Filterschaltung zur Bildung der bi f¨ Grundfunktionen s0 (t) und s1 (t) an. Vergleichen Sie mit dem Empf¨ anger in Abb. 7.12.
396
9. Zusatz¨ ubungen
c) Vergleichen Sie die Entwicklung nach den orthogonalen, zeitbegrenzten sin-cos-Funktionen in Abb. 7.13 mit der Fourier-Reihenentwicklung (3.14). d) Wie l¨ asst sich die Energie Ef des Signals f (t) aus den Approximationskoeffizienten berechnen (bei vernachl¨ assigbarer Energie der Restfunktion)? L¨ osung (2 T ' M−1 r (t)dt = bi si (t) dt, f (t) −
T
2
a) Er = 0
i=0
0
mit Differentiation unter dem Integral folgt ' ( T M−1 dEr ! = −2 f (t) − bi si (t) sj (t)dt = 0 und dbj i=0 0
T
f (t)sj (t)dt =
M−1 i=0
0
T si (t)sj (t)dt = bj
bi 0
= 0 f¨ ur i = j
b)
¨ Abb. 9.1. L¨ osung zu Ubung 9.1b
T f (t)dt ≈ 2
d) Ef = 0
=
M−1 M−1 i=0 j=0
T 'M−1 0
(2 bi si (t)
T si (t)sj (t)dt =
bi bj 0
dt
i=0
= 0 f¨ ur i = j
M−1
b2i
i=0
(s. Hinweis zu Aufgabe 8.17). Bei vollst¨ andigen“ Orthogonalsystemen verschwindet die Restfehlerener” gie f¨ ur) M → ∞. Es gilt dann die verallgemeinerte Parseval’sche Beziehung 2 Ef = ∞ i=0 bi .
9.2 Signalraum
397
9.2 Signalraum Die Approximationskoeffizienten bi eines nach M orthogonalen Grundfunktionen si (t) entwickelten Signals f (t) k¨ onnen als die Komponenten eines Vektors in einem M -dimensionalen Vektorraum geometrisch interpretiert werden ¨ (Ubung 9.1). a) Zeichnen Sie in einem zweidimensionalen, durch die Grundfunktionen s0 (t) und s1 (t) aufgespannten Signalraum“ die Vektoren folgender Sig” nale fi (t): f1 (t) = 2s0 (t) f2 (t) = s1 (t) + s0 (t) f3 (t) = −s0 (t) − 0,5s1 (t) f4 (t) sei orthogonal zu s0 (t) und s1 (t) ¨ 9.1d). b) Wie groß sind die Energien dieser Signale fi (t)? (Ubung Wo liegen alle Signalvektoren f (t) = b0 s0 (t) + b1 s1 (t) mit konstanter Energie Ef ? c) Zeichnen Sie den Vektor des St¨ orsignals“ n(t), das zu dem Signal s0 (t) ” addiert werden muss, um es in das Signal s1 (t) zu verf¨alschen. Welche Bedeutung hat der geometrische Abstand dmin der Endpunkte der Signalvektoren? d) Wie sind zwei Tr¨ agersignale f0 (t) und f1 (t) der maximalen Energie Ef = 1 so in dem zweidimensionalen Vektorraum anzuordnen, dass die notwendige St¨ orsignalenergie nach (c) m¨ oglichst hoch wird? Vergleichen Sie mit den Tr¨ agersignalvektoren bei unipolarer, bipolarer ¨ und orthogonaler Ubertragung. e) Ordnen Sie M = 3, 4 und 5 Signalvektoren der jeweils gleichen Energie Ef so in den Signalraum ein, dass der minimale Abstand dmin der Vektoren maximal wird. Wie groß ist Ef f¨ ur dmin = 1 als Funktion von M ? Anmerkung: L¨ asst man Vektoren unterschiedlicher L¨ange zu, dann lassen ur M > 5 bessere Anordnunsich bei gegebenem Minimalabstand dmin f¨ gen, d. h. Signalkonfigurationen mit geringerer mittlerer Energie finden. Ein Beispiel f¨ ur M = 8 wird in (h) diskutiert (zum entsprechenden Problem in h¨ oherdimensionalen Signalr¨ aumen in popul¨arwissenschaftlicher Form s. Sloane, 1984). ¨ f) In dem orthogonalen Ubertragungssystem nach Abschn. 7.2.6 k¨onnen die beiden ungest¨ orten Tr¨ agersignale durch die zugeordneten Signalvektoren s0 (t) und s1 (t) geometrisch interpretiert werden. Bei St¨orung durch weißes, Gauß’sches Rauschen werden St¨ orvektoren kn(t) = kbn0 s0 (t) + k bn1 s1 (t) addiert, deren Koeffizienten bn0 , bn1 nach den Ergebnissen von Abschn. 7.2.6 zwei unkorrelierte, Gauß-verteilte Zufallsgr¨oßen sind. Skizzieren Sie die Nutz- und einige St¨ orvektoren.
398
9. Zusatz¨ ubungen
Teilen Sie den Signalraum in zwei Bereiche, die den Entscheidungen s0 (t) ” gesendet“ und s1 (t) gesendet“ entsprechen. ” Wie l¨ asst sich die Lage der Signalvektoren im Signalraum oszillografieren? ¨ g) Skizzieren Sie ein entsprechendes Bild f¨ ur ein Ubertragungssystem mit vier Signalvektoren [nach (e)]. (Dieses Verfahren kann z.B. als quatern¨are Phasenumtastung realisiert werden, Abschn. 7.3.7). ¨ h) Diskutieren Sie folgende Ubertragungssysteme mit je 8 Tr¨agersignalen in kombinierter 8-PSK/ASK-Modulation (auch 8-QAM-Quadratur-Amplitudenmodulation). Dargestellt sind die Endpunkte der Signalvektoren (Abb. 9.2a). Berechnen Sie f¨ ur den Mindestabstand dmin = 1 jeweils die mittlere Energie Eα , Eβ der beiden modulierten Sendesignale unter der Voraussetzung, dass alle Signalvektoren gleich h¨ aufig sind. Vergleichen Sie mit (e). Welcher Schaltungsaufbau ist einfacher?
min
min
dmin min
Abb. 9.2a. Signalvektoren f¨ ur 8-QAM
i) Erweitern Sie beide Anordnungen entsprechend auf 16 Tr¨agersignale. L¨ osung
¨ Abb. 9.2b. L¨ osung zu Ubung 9.2a (f4 (t): Vektor der L¨ ange Null)
9.2 Signalraum
399
b) Ef = b20 + b21 (f¨ ur f4 (t) Energie beliebig). Die Endpunkte aller Signalvektoren f (t) liegen auf dem Kreis mit Radius Ef um den Ursprung. c)
¨ Abb. 9.3. L¨ osung zu Ubung 9.2c
d)
¨ Abb. 9.4. L¨ osung zu Ubung 9.2d
¨ Die notwendige St¨ orsignalenergie ist bei bipolarer Ubertragung am h¨ ochsten. e)
¨ Abb. 9.5. L¨ osung zu Ubung 9.2e
Ef (M ) = 1/[2 sin(π/M )]2 .
400
9. Zusatz¨ ubungen
f)
¨ Abb. 9.6a. L¨ osung zu Ubung 9.2f
Zur oszillografischen Darstellung werden die Ausg¨ange b1 und b0 der Schaltung in Abb. 9.1 (bzw. eines entsprechenden Empf¨angers) an Horizontalund Vertikaleing¨ ange des Oszillografen gelegt. g)
¨ Abb. 9.6b. L¨ osung zu Ubung 9.2g (QPSK-Variante, die sich nicht mit separaten Entscheidungen in den beiden Quadraturkomponenten realisieren l¨ asst)
√ h) α) r1 = 1, r2 = 2 Eα = (4r12 + 4r22 )/8 = 1,5 √ √ β) r3 = 2/2, r4 = (1 + 3)/2 Eβ = (4r32 + 4r42 )/8 = 1,18 das zweite Verfahren ben¨ otigt also eine um etwa 1 dB geringere Sendeenergie. Allerdings ist zu ber¨ ucksichtigen, dass die inneren 4 Signalvektoren jeweils Nd = 4 Nachbarn im Abstand dmin besitzen, so dass die Symbolund Bitfehlerwahrscheinlichkeiten gr¨ oßer werden. Modems zu α) k¨onnen etwas einfacher aufgebaut sein. Die Signalkonfiguration β ist die in diesem Sinn bestm¨ ogliche Anordnung f¨ ur M = 8. F¨ ur die einfachste Signalkonfiguration nach e) ergibt sich die gr¨ oßere Energie E8 = 1,707.
9.3 Matched-Filter bei farbigem Rauschen
401
i)
¨ Abb. 9.7. M¨ ogliche L¨ osungen zu Ubung 9.2i
9.3 Matched-Filter bei farbigem Rauschen Ein Energiesignal mit dem Spektrum S(f ) wird durch farbiges Rauschen mit dem Leistungsdichtespektrum φnn (f ) = N0 |G(f )|2 additiv gest¨ort. a) Berechnen Sie das Nutz-/St¨ orleistungsverh¨altnis Sa /N am Ausgang eines ¨ Empfangsfilters mit der Ubertragungsfunktion H(f ) zur Zeit t = 0. ¨ b) Welche Ubertragungsfunktion H(f ) ergibt ein maximales Sa /N -Verh¨altnis? Wie groß ist dieses Verh¨ altnis? Hinweis: Benutzen Sie die Schwarz’sche Ungleichung in der f¨ ur komplexwertige Funktionen g¨ ultigen Form " b "2 " " b b " " " f (x)g(x)dx" ≤ |f (x)|2 dx · |g(x)|2 dx, " " " " a
a
a
wobei das Gleichheitszeichen gilt f¨ ur f (x) = cg ∗ (x)
(c beliebige reelle Konstante).
Setzen Sie dabei f (x) = H(f )|G(f )| und g(x) = S(f )/|G(f )|. c) Wie lautet das Ergebnis f¨ ur |G(f )|2 = 1? d) Das farbige Rauschen werde durch Filtern von weißem Rauschen mittels eines RC-Tiefpasses erzeugt. Das Spektrum des Sendesignals sei ¨ S(f ) = rect[f /(2fg)]. Berechnen und skizzieren Sie die Ubertragungsfunktion des matched-filter. Wie groß ist das Sa /N -Verh¨altnis?
402
9. Zusatz¨ ubungen
L¨ osung a) Mit ∞ S(f )H(f )e j2πf t df
g(t) = −∞
⎡
Sa = g (0) = ⎣
∞
2
⎤2 S(f )H(f )df ⎦
−∞
∞
N0 |G(f )|2 |H(f )|2 df.
N= −∞
b) Sa /N kann umgeformt werden in ∞ Sa = N
−∞
|S(f )/|G(f )||2 df
N0 "2 " " " ∞ " " H(f )|G(f )| · S(f )/|G(f )|df " " " "−∞ , · ∞ ∞ |H(f )|G(f )||2 df · |S(f )/|G(f )||2 df −∞
−∞
da |G(f )|2 eine reelle, nicht negativwertige Funktion ist. Der untere Bruch wird maximal 1 und zwar f¨ ur H(f )|G(f )| = cS ∗ (f )/|G(f )|, ¨ Das matched-filter“ f¨ ur farbiges Rauschen hat demnach die Ubertragungs” funktion H(f ) = cS ∗ (f )/|G(f )|2 , damit ist " ∞ Sa "" 1 = |S(f )|2 /|G(f )|2 df. N "max N0 −∞
Das Ergebnis kann interpretiert werden als Kettenschaltung eines ersten Filters 1/|G(f )| mit einem zweiten Filter cS ∗ (f )/|G(f )|. Das erste Filter erzeugt aus dem farbigen Rauschen wieder weißes Rauschen ( prewhitening“-Filter). ” Das zweite Filter ist dann ein Korrelationsfilter f¨ ur das im prewhiteningFilter verzerrte Nutzsignal mit dem Spektrum S(f )/|G(f )|.
9.4 Frequenzumtastung mit nichtkoh¨ arentem Empfang
403
c) Korrelationsfilter – s. (6.56 und 49). d) |G(f )|2 = 1/[1 + (2πT f )2 ] (Aufgabe 6.6) f H(f ) = c rect · [1 + (2πT f )2 ] 2fg "
fg Sa "" 1 Es 1 2 2 = 1 + (2πT f ) df = 1 + (2πT fg ) . N "max N0 N0 3 −fg
9.4 Frequenzumtastung mit nichtkoh¨ arentem Empfang Ein digital moduliertes Sendesignal m(t) mit den zwei orthogonalen Tr¨agersignalen si (t) = rect(t/T ) cos[2π(f0 + i/T )t] mit i ∈ {0; 1} wird mit einem nichtkoh¨ arenten Empf¨ anger der in Abb. 9.8 dargestellten Struktur empfangen.
Abb. 9.8. Nichtkoh¨ arenter Empf¨ anger
a) Geben Sie ein m¨ ogliches Blockschaltbild der nichtkoh¨arenten Empf¨anger f¨ ur si (t) an. b) Skizzieren Sie bei St¨ orung des u ¨ bertragenen Signals m(t) nach (7.13) durch weißes, Gauß’sches Rauschen n(t) die Verteilungsdichtefunktionen der Zufallsgr¨oße u(nT ) f¨ ur an = 0 und an = 1. c) Zwei statistisch unabh¨ angige Zufallsgr¨ oßen u(t1 ) und v(t1 ) haben die Verteilungsdichtefunktionen pu (x) und pv (x). Berechnen Sie aus ihrer Verbundverteilungsdichtefunktion die Wahrscheinlichkeit P = Prob[u(t1 ) > v(t1 )]. d) Berechnen Sie mit dem Ergebnis aus (c) die Fehlerwahrscheinlichkeit des oben beschriebenen Daten¨ ubertragungssystems. Es gilt ∞ xI0 (ax) exp[−(a2 + x2 )/2]dx = 1. 0
404
9. Zusatz¨ ubungen
L¨ osung a) Siehe die H¨ ullkurvenempf¨ anger in den Abb. 7.22–7.24 bis zum Abtaster. b) Siehe Abb. 7.26. c) F¨ ur die Verbundverteilungsdichtefunktion gilt nach (6.86) puv (x, y) = pu (x) · pv (y). Unter der Bedingung, dass v(t1 ) in einem schmalen Amplitudenbereich ur, dass (y0 ; y0 + dy) liegt, ergibt sich die Wahrscheinlichkeit Py0 daf¨ u(t1 ) > y0 (y0 = konst) ist, zu ∞ Py0 =
∞ puv (x, y0 )dx = pv (y0 )
y0
pu (x)dx. y0
Die Wahrscheinlichkeit P daf¨ ur, dass u(t1 ) > v(t1 ) ist, folgt dann durch Integration u ber alle y zu ¨ ⎡∞ ⎤ ∞ P = pv (y) ⎣ pu (x)dx⎦ dy. −∞
y
d) Wird an = 1 gesendet, dann hat u(nT ) eine Rayleigh- und v(nT ) eine ur falschen Empfang unter Rice-Verteilung. Die Wahrscheinlichkeit Pe1 f¨ dieser Bedingung lautet damit Pe1 = Prob[u(nT ) > v(nT )]. Mit dem Ergebnis aus (c) und mit (7.58) folgt ∞ Pe1 =
y I0 N0
0
⎛
·⎝
∞
√
Sa y exp[−(y 2 + Sa )/(2N )]· N ⎞
x exp[−x2 /(2N )]dx⎠ dy N
y
∞ =
y I0 N0
√
Sa y exp[−(y 2 + Sa /2)/N ]dy, N
0
mit der Substitutiony = x N/2 und Einsetzen des bestimmten Integrals aus (d) [wobei a = Sa /(2N ) sei], folgt Pe1 =
1 −Sa /(4N ) e . 2
9.5 Deltamodulation und Differenz-Pulscodemodulation
405
F¨ ur an ∈ {0; 1} gleich wahrscheinlich ergibt sich derselbe Ausdruck entsprechend (6.105) auch f¨ ur die Gesamtfehlerwahrscheinlichkeit. Mit Sa /N = Es /N0 (Abschn. 7.3.5) folgt also Pe =
1 −Es /(4N0 ) e . 2
Der Vergleich mit (7.59) ergibt, dass die nichtkoh¨arente Orthogonal¨ uber¨ tragung um 3 dB besser als die entsprechende unipolare Ubertragung ist. Man beachte allerdings, dass dieser Vorteil sich bei Bezug auf die pro bit gesendete Energie Eb = Es /2 bei unipolarer und Eb = Es bei orthogonaler ¨ Ubertragung relativiert.
9.5 Deltamodulation und Differenz-Pulscodemodulation Beim Verfahren der Deltamodulation (DM), einer modifizierten DPCM, wird die Verwendung eines zweistufigen Quantisierers (harter Begrenzer) durch die R¨ uckkopplung eines Referenzsignals fR (t) erm¨oglicht, wodurch die Schaltungstechnik besonders einfach wird. Gegeben sei die Prinzipschaltung eines Deltamodulators in Abb. 9.9.
Abb. 9.9. Deltamodulator
a) Zeichnen Sie f¨ ur ein Eingangssignal f (t) = ε(t)[a sin(2πt)] das Referenzsignal fR (f ) f¨ ur A = 1, a = 5 und T0 = 0,025 sowie 0,1. b) Wie kann f (t) n¨ aherungsweise aus m(t) demoduliert werden? c) Wie groß darf die Amplitude a eines sinusf¨ormigen Signals mit der Frequenz fs bei gegebenem T0 maximal werden, damit das Referenzsignal fR (t) dem Signal f (t) auch im Bereich seiner maximalen Steilheit noch folgen kann? (Vermeidung von slope overload“) ” d) In welchem Verh¨ altnis steht die Abtastrate rD eines Deltamodulators zur ur beliebige Werte von a Nyquist-Rate rN des Eingangssignals, wenn f¨ slope overload“ vermieden werden soll? ”
406
9. Zusatz¨ ubungen
L¨ osung a)
¨ Abb. 9.10. L¨ osung zu Ubung 9.5a. [fR (t) gezeichnet f¨ ur einen Startwert fR (t) = 0 f¨ ur t < 0]
b) Mit einem Integrator l¨ asst sich f (t) n¨ aherungsweise demodulieren. c) Die Treppenkurve fR (t) kann einem Signal f (t) nur folgen, wenn dessen Steigung dem Betrage nach ≤ A/T0 ist. F¨ ur f (t) = a sin(2πfs t) gilt also 2πfs a ≤ A/T0 , damit A a≤ . 2πfs T0 d) Mit rD = 1/T0 und rN = 2fs sowie dem Wert f¨ ur T0 aus (c) ergibt sich rD 1/T0 a = ≥π . rN 2fs A
9.6 Optimaler Quantisierer Gegeben ist ein M -stufiger Quantisierer mit nichtlinear gestufter Kennlinie nach Abb. 9.11. Auf den Eingang des Quantisierers wird eine Zufallsgr¨oße s(t1 ) mit der Verteilungsdichtefunktion ps (x) gegeben. a) Berechnen Sie den mittleren quadratischen Quantisierungsfehler 2 3 Nq = E [g(t1 ) − s(t1 )]2 . Zur Vorbereitung: Wie groß ist das Quadrat des Quantisierungsfehlers, wenn s(t1 ) in einem schmalen Amplitudenbereich (x; x + dx) mit ui < x ≤ ui+1 liegt? Mit welcher Wahrscheinlichkeit tritt dieser Fall auf? (Vgl. das Vorgehen in Abschn. 6.3.2.)
9.6 Optimaler Quantisierer
407
Abb. 9.11. Nichtlinear gestufte Quantisierungskennlinie
b) Welche notwendige Bedingung muss der Repr¨asentativwert vi der Quantisierungskennlinie erf¨ ullen, damit bei vorgegebenen Entscheidungsschwellen ui der Quantisierungsfehler Nq minimal wird? c) Welche notwendige Bedingung muss die Entscheidungsschwelle ui der Quantisierungskennlinie erf¨ ullen, damit bei vorgegebenen Repr¨asentativwerten vj der Quantisierungsfehler Nq minimal wird? d) Aus den in (d) und (e) gefundenen Regeln l¨asst sich (wenn auch nicht in jedem Fall eindeutig) iterativ die optimale Quantisierungskennlinie f¨ ur eine gegebene Verteilungsdichtefunktion und Stufenzahl M bestimmen. Der so gefundene Quantisierer wird Lloyd-Max-Quantisierer genannt. Zeigen Sie, dass f¨ ur eine gleichverteilte, mittelwertfreie Zufallsgr¨oße der linear gestufte Quantisierer nach Abb. 7.26 die notwendigen Bedingungen erf¨ ullt. Wie ist in diesem Fall die Quantisierungsstufenbreite ∆ zu w¨ahlen? (Jayant und Noll, 1984). L¨ osung a) Mit Prob[x < s(t1 ) ≤ x + dx] = ps (x)dx folgt f¨ ur das Quadrat des Quantisierungsfehlers, wenn s(t1 ) einen Wert im infinitesimalen Bereich (x; x + dx) annimmt, (vi − x)2 ps (x)dx und damit f¨ ur den mittleren quadratischen Quantisierungsfehler durch Integrieren zwischen den Grenzen der einzelnen Entscheidungsschwellen und Aufsummieren u ¨ ber alle Quantisierungsstufen
408
9. Zusatz¨ ubungen
¨ Abb. 9.12. L¨ osung zu Ubung 9.6b
Nq =
M−1
u i+1
(vi − x)2 ps (x)dx.
i=0 u i
b) Bedingung f¨ ur minimalen Quantisierungsfehler dNq ! = 0 f¨ ur i = 0, 1, . . . , M − 1, dvi nach Differentiation unter dem Integral wird u i+1
2(vi − x)ps (x)dx = 0, also ui
9 ui+1
u i+1
vi =
xps (x)dx ui
ps (x)dx . ui
ussen also mit Die Repr¨ asentativwerte vi der Quantisierungskennlinie m¨ den Fl¨ achenschwerpunkten der durch die Entscheidungsschwellen ui geteilten Verteilungsdichtefunktion u ¨bereinstimmen. c) Bedingung f¨ ur minimalen Quantisierungsfehler dNq ! = 0 f¨ ur i = 0, 1, . . . , M − 1, also dui ⎡ u ⎤ u i i+1 d ⎣ (vi−1 − x)2 ps (x)dx + (vi − x)2 ps (x)dx⎦ = 0; dui ui−1
mit
d du
ui
u f (x)dx = f (u) ergibt sich a
(vi−1 − ui )2 ps (ui ) − (vi − ui )2 ps (ui ) = 0
9.7 Radarempf¨ anger
409
und schließlich 1 ui = (vi + vi+1 ). 2 Die Entscheidungsschwellen ui der Quantisierungskennlinie m¨ ussen also den arithmetischen Mittelwert der jeweils benachbarten Repr¨asentativwerte annehmen. d) F¨ ur ps (x) = a−1 rect(x/a) sind mit einer linear gestuften Quantisierungskennlinie der Stufenbreite ∆ = a/M die Bedingungen (b) und (c) erf¨ ullt.
¨ Abb. 9.13. L¨ osung zu Ubung 9.6f
9.7 Radarempf¨ anger Der Sender eines Rundsichtradars erzeugt eine Impulsfolge r(t) r(t) = [rect(t/t0 ) cos(2πf0 t)] ∗ III − (t/T ). Diese Impulse werden von einem Zielobjekt reflektiert und gelangen nach einer Laufzeit τ wieder zum Empf¨ anger. Durch horizontales Schwenken der Richtantenne ist das empfangene Signal s(t) zus¨atzlich mit einer Funktion w(t) gewichtet, es hat damit (ohne Ber¨ ucksichtigung von D¨ampfung und, bei bewegten Zielen, von Dopplerverschiebungen) die Form (Skolnik, 1981) s(t) = r(t − τ ) · w(t). a) Skizzieren Sie die Einh¨ ullenden von r(t) und s(t) f¨ ur f0 = 3 GHz,
t0 = 0,1 µs,
T = 100 µs,
τ = 20 µs
und (vereinfacht) w(t) = rect[t/(21 T )]. Wie groß ist die Zielentfernung R? ucksichtigung der In welchem Entfernungsbereich Rmax ist (ohne Ber¨ Wichtungsfunktion) eine eindeutige Entfernungsmessung m¨oglich? Welchen Abstand ∆R m¨ ussen zwei hintereinander befindliche Ziele mindestens haben, damit sich die reflektierten Impulse nicht u ¨ berlappen?
410
9. Zusatz¨ ubungen
b) Berechnen und skizzieren Sie den Betrag des Spektrums des empfangenen Signals (f¨ ur τ = 0). ¨ c) Bestimmen und skizzieren Sie Impulsantwort und Betrag der Ubertragungsfunktion eines Korrelationsfilters zum Empfang von s(t). Geben Sie ein m¨ ogliches Blockschaltbild eines solchen Filters an. d) Ein Flugzeug bewegt sich mit einer Geschwindigkeit von v = 600 km/h auf das Radarger¨ at zu. Durch Dopplerverschiebung ist das Spektrum des empfangenen Signals in der Umgebung von f0 angen¨ahert um fd = 2vf0 /c in Richtung h¨ oherer Frequenzen verschoben. Skizzieren Sie den Betrag des ¨ Spektrums des empfangenen Signals. Entwerfen Sie die Ubertragungsfunktion eines Filters, das nur die Echos unbewegter oder langsam sich bewegender Ziele (wie Geb¨ aude, Regenwolken) m¨oglichst gut unterdr¨ uckt. Wie beeinflusst diese sogenannte Festzielunterdr¨ uckung den Empfang schnellerer Flugziele? Diskutieren Sie die in Abb. 9.14 gezeigte einfache Schaltung zur Festzielunterdr¨ uckung.
Abb. 9.14. Filter zur Festzielunterdr¨ uckung
L¨ osung cτ = 3 km (c Lichtgeschwindigkeit) 2 cT Rmax = = 15 km 2 ct0 ∆R = = 15 m 2 0
1 t t t b) s(t) = rect · cos(2πf0 t) ∗ III · rect − T t0 21 T
a) R =
1 t0 T [si(πt0 f ) ∗ δ(f − f0 ) + δ(f + f0 )] · III − (T f ) 2 ∗ [21 T si(π21 T f )] c) h(t) = Ks(T 1 − t) S(f ) =
H(f ) = KS ∗ (f ) exp(−j2πT1 f ), also |H(f )| = K|S(f )| In praktischen Schaltungen wird h0 (t) im Zwischenfrequenzbereich des Radarempf¨ angers realisiert, das Transversalfilter z.B. als digitales Filter im Videobereich (sog. post detection integration“). ”
9.7 Radarempf¨ anger
411
¨ Abb. 9.15. L¨ osung zu Ubung 9.7b
¨ Abb. 9.16. L¨ osung zu Ubung 9.7c
d) fd = 3,333 kHz F¨ ur fd = 1/T = 10 kHz und Vielfache dieser Frequenz wird das Bewegtzielecho ebenfalls unterdr¨ uckt. Diese Blindgeschwindigkeiten“ liegen also ” in diesem Beispiel bei c = 1800 km/h und Vielfachen. v= 2f0 T
¨ Abb. 9.17. L¨ osung zu Ubung 9.7d (α: Filter zur Festzielunterdr¨ uckung; β: vereinfachtes Filter zur Festzielunterdr¨ uckung)
412
9. Zusatz¨ ubungen
9.8 St¨ orverhalten von AM-Systemen Teil 1 Gegeben ist ein station¨ arer Zufallsprozess f (t), dessen Realisationen kf (t) jeweils mit dem Tr¨ agersignal ks(t) = cos(2πf0 t + ϕk ) multipliziert werden. Die Phasen ϕk sind gleichverteilt im Bereich [0, 2π]. a) Berechnen Sie die Autokorrelationsfunktion des Produktprozesses g(t) = f (t) · s(t). Ist g(t) station¨ ar? b) Berechnen Sie das Leistungsdichtespektrum des Produktprozesses. c) Die Realisationen des Produktprozesses kg(t) werden zur Demodulation mit dem koh¨ arenten Tr¨ ager ks(t) multipliziert. Wie lauten jetzt die Autokorrelationsfunktion und das Leistungsdichtespektrum des zweiten Produktprozesses h(t) = f (t) · s2 (t)? Teil 2 Ein Nutzsignal f (t) mit weißem, auf die Grenzfrequenz fg tiefpassbegrenzten Leistungsdichtespektrum wird amplitudenmoduliert u ¨ bertragen. Die Nutzleistung am Empf¨ angereingang ist SK . Der Empfang wird durch weißes Rauschen (N0 ) gest¨ ort. Skizzieren Sie mit Hilfe der Ergebnisse aus Teil 1 die Leistungsdichtespektren von Nutz- und St¨ orsignal am Eingang und Ausgang eines koh¨arenten ur Empf¨ angers und ermitteln Sie daraus das Sa /N -Verh¨altnis am Ausgang f¨ d) Zweiseitenband-Amplitudenmodulation ohne Tr¨ager e) Einseitenband-AM ohne Tr¨ ager, wenn am Empf¨angereingang ein Bandpass der Bandbreite fg liegt. L¨ osung a) Da f (t) und s(t) unabh¨ angig sind: ϕgg (t1 , t2 ) = E {g(t1 )g(t2 )} = E {f (t1 )f (t2 )} · E {cos(2πf0 t1 + ϕk ) cos(2πf0 t2 + ϕk )}
ϕff (t1 − t2 ) = ϕff (τ ) mit cos α cos β = wird
1 1 cos(α − β) + cos(α + β), 2 2
9.8 St¨ orverhalten von AM-Systemen
413
1 E {cos[2πf0 (t1 − t2 )]} 2 1 + E {cos[2πf0 (t1 + t2 ) + 2ϕk ]} . 2
E {cos(·) cos(·)} =
Der letzte Scharmittelwert verschwindet, da die ϕk gleichverteilt sind, also ist ϕgg (t1 , t2 ) = ϕff (τ ) ·
1 cos(2πf0 τ ) = ϕgg (τ ); 2
g(t) ist damit (zumindest schwach) station¨ar.
1 1 b) ϕgg (τ ) φgg (f ) = φff (f ) ∗ δ(f − f0 ) + δ(f + f0 ) . 4 4 2 2 3 c) ϕhh (τ ) = E {f (t)f (t + τ )} · E cos (2πf0 t + ϕk ) cos2 [2πf0 (t + τ ) + ϕk ] , weiter mit cos2 α · cos2 β =
1 1 1 + cos(2α) + cos(2β) 4 4 4 1 1 + cos(2α − 2β) + cos(2α + 2β) 8 8
wird 2 3 1 1 E cos2 (·) cos2 (·) = + E {cos(4πf0 t + 2ϕk )} 4 4 1 + E {cos[4πf0 (t + τ ) + 2ϕk ]} 4 1 + E {cos(2πf0 · 2τ )} 8 1 + E {cos[4πf0 (2t + τ ) + 4ϕk ]} . 8 Wieder verschwinden die Scharmittelwerte der Ausdr¨ ucke mit ϕk , und es ergibt sich
1 1 + cos(4πf0 τ ) ϕhh (τ ) = ϕff (τ ) 4 8
1 1 1 φhh (f ) = φff (f ) ∗ δ(f ) + δ(f − 2f0 ) + δ(f + 2f0 ) . 4 16 16 d) Das Nutzleistungsdichtespektrum φmm (f ) am Empf¨angereingang erh¨alt man mit der L¨ osung zu b). Bei einer Nutzleistung SK betr¨agt die Nutzleistungsdichte S0 = SK /(4fg ) (s. Abb. 9.18a).
¨ Ubungen
414
Am Empf¨ angerausgang erh¨ alt man mit der L¨osung zu c) im TP-Bereich ein Nutzleistungsdichtespektrum φee (f ) der gleichen Leistungsdichte S0 . Die St¨ orleistungsdichte ergibt sich mit den Ergebnissen zu b). Durch Falten des weißen Rauschens mit 0,25[δ(f − f0 ) + δ(f + f0 )] und Leistungsaddition der beiden unkorrelierten Anteile (vgl. Aufgabe 6.7) erh¨alt man am Empf¨ angerausgang das St¨ orleistungsdichtespektrum in Abb. 9.18b.
0
a)
b)
0
Abb. 9.18. Nutz- und St¨ orleistungsdichtespektren am Eingang (a) und Ausgang (b) eines koh¨ arenten Zweiseitenband-AM-Empf¨ angers
Damit folgt f¨ ur das Leistungsverh¨ altnis am Empf¨angerausgang [vgl. (8.17), (8.101)] S0 · 2fg SK Sa = = . N 0,5N0 · 2fg 2fg N0 ¨ e) Es gelten prinzipiell die gleichen Uberlegungen wie zu d). Die Ergebnisse zeigt Abb. 9.19. Das Leistungsverh¨ altnis am Empf¨angerausgang ist damit 0,25S0 · 2fg Sa SK = = . N 0,25N0 · 2fg 2fg N0 Bei gleicher Nutzeingangsleistung besitzt die Einseitenband¨ ubertragung also denselben St¨ orabstand wie die Zweiseitenband¨ ubertragung.
¨ 9.9 Digitale Ubertragung mit M orthogonalen Tr¨ agersignalen und die Shannon-Grenze ¨ ¨ In Abschn. 7.3.1 und in Ubungen 9.4 wurde die digitale Ubertragung mit zwei orthogonalen Tr¨ agersignalen u ¨ ber Bandpasskan¨ale diskutiert. Zunehmend ¨ werden auch Ubertragungsverfahren mit sehr vielen orthogonalen Tr¨agersignalen eingesetzt. Ein Beispiel ist das Verfahren aus Abschn. 8.3.4c mit ¨ z.B. 64 Walsh-Funktionen. Das Fehlerverhalten solcher orthogonaler Ubertragungsverfahren bei koh¨ arentem und nichtkoh¨arentem Empfang wird in ¨ Verallgemeinerung von Ubungen 9.4 hier n¨ aher betrachtet.
¨ Digitale Ubertragung mit M orthogonalen Tr¨ agersignalen
0
a)
b)
415
0
Abb. 9.19. Nutz- und St¨ orleistungsdichtespektren am Eingang (a) und Ausgang (b) eines koh¨ arenten Einseitenband-AM-Empf¨ angers
Mit M orthogonalen Tr¨ agersignalen si (t), i = 1 . . . M , der L¨ange T lassen sich K = lb(M ) bit pro Taktzeit T u ¨bertragen. Das Sendesignal am Empf¨angereingang lautet m(t) =
∞
san (t − nT ) cos(2πf0 t), mit f0 T 1, ganz,
n=−∞
wobei an ∈ {1; 2; . . . ; M } das zum Zeitpunkt t = nT gesendete Datensymbol ist. Alle Tr¨ agersignale sind reell und besitzen die Energie Es . Weiter sei die auf ein einzelnes Bit entfallende Energie E = Es /k. Die Empf¨angerstruktur ist in Abb. 9.20 dargestellt. Das St¨ orsignal n(t) sei weißes, Gauß-verteiltes Rauschen der Leistungsdichte N0 .
Abb. 9.20. Empf¨ anger f¨ ur ein Bandpass¨ ubertragungssystem mit M orthogonalen Tr¨ agersignalen
a) Geben Sie f¨ ur koh¨ arenten und inkoh¨ arenten Empfang jeweils eine m¨ogliche Empf¨ angerschaltung f¨ ur si (t) an.
¨ Ubungen
416
Die folgenden Untersuchungen sollen f¨ ur koh¨arenten und f¨ ur inkoh¨arenten Empfang durchgef¨ uhrt werden. Zun¨ achst wird angenommen, dass nur s1 (t) ¨ gesendet wird). (Hinweis: Bearbeiten Sie zuerst Ubungen 9.4). b) Bestimmen Sie die Verteilungsdichtefunktionen pyi (x) von yi (nT ) f¨ ur i = 1 . . . M . Welche statistischen Abh¨ angigkeiten bestehen zwischen den Zufallsgr¨ oßen yi (nT )? ¨ ur mindestens c) Ein Ubertragungsfehler tritt auf, wenn yi (nT ) ≥ y1 (nT ) f¨ ein i = 2 . . . M ist. Bestimmen Sie f¨ ur i = 2 . . . M die Wahrscheinlichkeit Pi (z) = Prob[yi (nT ) < z]. Wie groß ist die Wahrscheinlichkeit Pa (z), dass yi (nT ) < z f¨ ur alle i = 2 . . . M ist? Wie groß ist die Wahrscheinlichkeit Pc (z), dass yi (nT ) ≥ z f¨ ur mindestens ein i = 2 . . . M ist? Die Datensymbole an seien statistisch unabh¨angig und gleich h¨aufig. d) Stellen Sie die Symbolfehlerwahrscheinlichkeit Ps des hier beschriebenen Systems in Abh¨ angigkeit von den in Unterpunkt (b) und (c) bestimmur diese ten Gr¨ oßen dar. Wie groß ist die Bitfehlerwahrscheinlichkeit Pe f¨ Systeme? e) Bestimmen Sie mit Hilfe der Absch¨ atzung Pc (z) ≤ (M − 1)(1 − Pi (z)) eine obere Grenze f¨ ur Ps . Welche Fehlerwahrscheinlichkeiten Ps ergeben sich f¨ ur M → ∞, wenn E/N0 > 4/lb(e) = 4 ln(2) ist? f) Die Absch¨ atzung aus (e) wird modifiziert. F¨ ur koh¨arenten Empfang gilt: 1 f¨ ur z ≤ z0 = 2 ln(2)kN Pc (z) ≤ M exp(−z 2 /2N ) f¨ ur z ≥ z0 . Begr¨ unden Sie die G¨ ultigkeit dieser Absch¨atzung und bestimmen Sie mit diesem Ergebnis f¨ ur koh¨ arenten Empfang die Bitfehlerwahrscheinlichkeit f¨ ur M → ∞. Vergleichen Sie das Ergebnis mit der Shannon-Grenze in Abschn. 8.4.7. ur v ≥ 0 und damit insbesondere Hinweis: Es gilt erfc(v) ≤ exp(−v 2 ) f¨ 1 √ 2π
w exp[−(u − v)2 /2]du −∞
1 = erfc 2 und
v−w √ 2
≤
1 exp[−(v − w)/2] f¨ ur v ≥ w 2
¨ Digitale Ubertragung mit M orthogonalen Tr¨ agersignalen
1 √ 2π
417
∞ exp(−u2 /2) exp[−(u − v)2 /2]du w
1 v 1 = √ exp(−v 2 /4) erfc w − 2 2 2 √ 2 ≤ exp(−v 2 /4) exp[−(w − v/2)2 /2] f¨ ur w ≥ v/2. 4 L¨ osung a) Siehe die Empf¨ anger in den Abb. 7.21 und 7.22 bis zum Abtaster mit agersignalen werden die KorrelatisT (−t) = si (−t) (bei komplizierten Tr¨ onsfilter i. Allg. durch Korrelatoren ersetzt). ¨ ¨ ¨ b) Die Uberlegungen in Abschn. 7.2.6 und Ubungen 9.4 zur Ubertragung mit zwei orthogonalen Tr¨ agersignalen k¨ onnen u bernommen werden. F¨ u r beide ¨ Empfangsarten sind die Signale yi (nT ) an den Ausg¨angen der orthogonalen Filter also statistisch unabh¨ angig. √ Bei koh¨arentem Empfang sind die Ausgangsgr¨ oßen Gauß-verteilt. Mit Sa = Es und N = Es N0 ist also 1 exp[−(x − Es )2 /2N ] bzw. py1 (x) = √ 2πN 1 exp(−x2 /2N ) f¨ pyi (x) = √ ur i = 2 . . . M. 2πN Bei inkoh¨ arentem Empfang ergibt sich f¨ ur y1 (nT ) eine Rice- und f¨ ur die u ange eine Rayleigh-Verteilung: ¨ brigen Ausg¨ x py1 (x) = ε(x) I0 (Es x/N ) exp[−(x2 + Es2 )/2N ] bzw. N x pyi (x) = ε(x) exp(−x2 /2N ) f¨ ur i = 2 . . . M. N c) Bei koh¨ arentem Empfang ist f¨ ur i = 1 z Pi (z) =
pyi (x)dx = −∞
1 erfc 2
−z √ 2N
1 = 1 − erfc 2
z √ 2N
.
F¨ ur inkoh¨ arenten Empfang erh¨ alt man z pyi (x)dx = ε(z)[1 − exp(−z 2 /2N )].
Pi (z) = 0
Da die Filterausgangssignale statistisch unabh¨angig sind, gilt f¨ ur beide Empfangsarten Pa (z) = [Pi (z)]M−1 und Pc (z) = 1 − Pa (z) = 1 − [Pi (z)]M−1 .
418
¨ Ubungen
d) Wegen der Symmetrie des betrachteten Problems (die Tr¨agersignale sind paarweise orthogonal und werden gleich h¨ aufig und statistisch unabh¨angig gesendet), kann die Betrachtung auf den Fall, dass s1 (t) gesendet wird, beschr¨ ankt werden. Zur Bestimmung der Symbolfehlerwahrscheinlichkeit muss in Verallgemei¨ nerung von Ubungen 9.4 f¨ ur alle Schwellenwerte z die Wahrscheinlichkeit Pc (z), dass mindestens ein yi (nT ) mit i = 2 . . . M gr¨oßer als z ist, mit der Wahrscheinlichkeit py1 (z)dz, dass y1 (nT ) = z ist, gewichtet und u ¨ber die m¨ oglichen Schwellenwerte integriert werden: ∞ Ps =
∞ [1 − [Pi (z)]M−1 ]py1 (z)dz.
Pc (z)py1 (z)dz = −∞
−∞
F¨ ur koh¨ arenten Empfang ergibt sich nach√Einsetzen der Ergebnisse aus (b) und (c) und mit der Substitution z = u N , sowie N = Es N0 = KEb N0 und der Abk¨ urzung γ = Eb /N0 : M−1 ( ∞ ' √ 1 1 − 1 − erfc(z/ 2N ) py1 (z)dz Ps = 2 −∞
1 =1− √ 2π
M−1 ∞ u 1 exp[−(u − Kγ)2 /2]du. 1 − erfc √ 2 2
−∞
F¨ ur inkoh¨ arenten Empfang ergibt sich entsprechend: ∞ √ Ps = [1 − (1 − exp(−z/ 2N ))M−1 ]py1 (z)dz 0
∞ = 1 − (1 − exp(−u2 /2))M−1 uI0 (u Kγ) exp[−(u2 + Kγ)/2]du. 0
Anmerkung: Im Gegensatz zum koh¨ arenten Fall lassen sich die Fehlerraten f¨ ur inkoh¨ arenten Empfang explizit bestimmen. Man erh¨alt M 1 M Ps = (−1)m exp[−Kγ(m − 1)/2m]. M m=2 m ¨ F¨ ur M = 2 ergibt sich damit das in Ubungen 9.4 bestimmte Ergebnis Ps = Pe =
1 exp(−Eb /4N0 ). 2
Die M u ¨bertragenen Symbole lassen sich durch bin¨are Codew¨orter der L¨ ange lb(M ) beschreiben. In jeder Position dieser Codew¨orter unterscheiden sich genau M/2 Codew¨ orter von dem u ¨ bertragenen Codewort. Da die
¨ Digitale Ubertragung mit M orthogonalen Tr¨ agersignalen
419
Auftrittswahrscheinlichkeit jedes der M − 1 m¨oglichen falsch empfange¨ nen Symbole wegen der Symmetrie der Ubertragung aber gleich ist, ist die Bitfehlerwahrscheinlichkeit nur (1/(M − 1))M/2-mal so groß wie die Symbolfehlerwahrscheinlichkeit. Unabh¨ angig von der Empfangsart gilt also f¨ ur die Bitfehlerwahrscheinlichkeit (s. Abb. 9.21) Pe =
M Ps . 2(M − 1)
Abb. 9.21. Bitfehlerwahrscheinlichkeit bei koh¨ arentem (k) und nichtkoh¨ arentem (n: gestrichelt) Empfang f¨ ur M orthogonale Tr¨ agersignale
e) Die angegebene Absch¨ atzung f¨ ur Pc (z) ergibt sich aus M−2 1 − aM−1 = an ≤ M − 1 f¨ ur 0 ≤ a ≤ 1. 1−a n=0
Nach Einsetzen dieser Absch¨ atzung und Vergleich des Ergebnisses mit der L¨ osung von (d) folgt, dass die obere Grenze f¨ ur Ps genau M − 1-mal die Bitfehlerwahrscheinlichkeit f¨ ur M = 2 mit der Signalenergie Es = KEb ¨ ist. Aus Abschn. 7.2.6 und Ubungen 9.4 ergibt sich somit f¨ ur koh¨arenten Empfang Ps (M ) ≤
M −1 erfc( Kγ/4) 2
und f¨ ur inkoh¨ arenten Empfang Ps (M ) ≤
M −1 exp(−Kγ/4). 2
420
¨ Ubungen
F¨ ur M = 2 gilt f¨ ur beide Absch¨ atzungen die Gleichheit, und man erh¨alt ¨ die in Abschn. 7.2.6 und Ubungen 9.4 bestimmten Bitfehlerwahrscheinlichkeiten. F¨ ur inkoh¨ arenten Empfang ist M ln(M ) γ M −1 exp(−Kγ/4) ≤ exp − Ps (M ) ≤ 2 2 ln(2) 4 1 (1−(1/ ln(2))·(γ/4)) . = M 2 F¨ ur γ = Eb /N0 > 4 ln(2) = 4/lb(e) gilt somit Ps (M ) → 0, wenn M → ∞ strebt. Dies gilt auch f¨ ur koh¨ arenten Empfang, da die hierbei auftretenden Fehlerraten geringer als bei inkoh¨ arentem Empfang sind. f) Die G¨ ultigkeit der Absch¨ atzung ergibt sich aus der in e) angegebenen Absch¨ atzung mit z 1 1 √ 1 − Pi (z) = erfc ≤ exp(−z 2 /2N ) < exp(−z 2 /2N ) 2 2 2N und der Tatsache, dass Pc (z) als Wahrscheinlichkeit kleiner oder gleich ¨ eins ist. Der Ubergangspunkt z0 kann beliebig gew¨ahlt werden. Die beste Absch¨ atzung ergibt sich aber f¨ ur beide Bereiche, wenn der Schnittpunkt gew¨ ahlt wird. Die Symbolfehlerwahrscheinlichkeit wird ausgehend von dem Integralausdruck aus (c) in zwei Abschnitten bestimmt. Man erh¨ alt: z0 Ps (M ) ≤
∞ M exp(−z 2 /2N )py1 (z)dz.
py1 (z)dz + −∞
z0
√ √ Mit der Substitution z = u N und u0 = z0 / N = 2 ln(2)K ergibt sich: u0 1 Ps (M ) ≤ √ exp[−(u − Kγ)2 /2]du 2π −∞
√ ≤(1/2) exp[−( Kγ−u0 )2 /2]
∞ M +√ exp(−u2 /2) exp[−(u − Kγ)2 /2]du 2π u0
√ √ ≤( 2/4)M exp(−Kγ/4) exp[−(u0 −0,5 Kγ)2 /2]
√ Diese Absch¨atzungen sind g¨ ultig, Kγ ≥ u0 , folglich also √ sofern γ = Eb /N0 ≥ 2 ln(2), oder wenn Kγ/2 ≤ u0 , also γ = Eb /N0 ≤ 8 ln(2) gilt. F¨ ur M → ∞ erh¨ alt man Ps (M ) → 0. Mit dem Ergebnis aus (e) folgt
¨ Digitale Ubertragung mit M orthogonalen Tr¨ agersignalen
421
somit, dass die Symbolfehlerwahrscheinlichkeit und damit auch die Bitfehlerwahrscheinlichkeit f¨ ur γ = Eb /N0 ≥ 2 ln(2) mit wachsendem M beliebig klein wird. Somit wird die Shannon-Grenze f¨ ur nicht bandbegrenzte ¨ Ubertragung erreicht! Es l¨ asst sich zeigen, dass diese Aussage auch f¨ ur inkoh¨ arenten Empfang gilt.
10. Entwicklung der Nachrichtentechnik
Die Notwendigkeit, Mitteilungen oder Nachrichten u ¨ ber gewisse Entfernungen zu u ¨ bertragen, tritt bei allen Gemeinschaften von Lebewesen auf, so ist z.B. im Tierreich die lautbezogene Kommunikation sehr verbreitet. Eng verbunden insbesondere mit der Entwicklung der menschlichen Gesellschaft ist aber die Entwicklung technischer Vorrichtungen, die ausschließlich dem Zweck der Nachrichten¨ ubertragung dienen, wobei zus¨atzlich die Aufzeich¨ nung von Nachrichten im Sinne einer Ubermittlung u ¨ber Zeitr¨aume hinweg eine wichtige Rolle spielt. Eine essentielle Grundlage jeder Kommunikation und Nachrichten¨ ubertragung bilden vereinbarte Codes und Signale, die diese Codes repr¨asentie¨ ren k¨ onnen, sowie deren Ubermittlung u ¨ ber bestimmte physikalische Medien. Historisch gesehen waren hier bis zum Beginn der Neuzeit Bilder- und Buchstabencodes vorherrschend, die zun¨ achst auf Stein oder Ton, sp¨ater dann haupts¨ achlich auf Papiermedien verbreitet wurden. Eine Nachrichten¨ ubermittlung u oßere Entfernungen hinweg war aber meist mit einer hohen ¨ber gr¨ Verz¨ ogerungszeit verbunden, bzw. bei optischer oder visueller Signalisierung oranf¨ allig. Ein gr¨ oßerer Bedarf, schnelle Kommunikation auch u ¨außerst st¨ ¨ ber gr¨ oßere Entfernungen hinweg zu realisieren, f¨allt etwa mit dem Beginn der Neuzeit zusammen. Man kann an sich erst seit dieser Zeit von einer Entwicklung der Nachrichtentechnik als eigenst¨ andiger Disziplin sprechen (Aschoff, 1984/1987). In der Tat gibt es immer eine Wechselbeziehung zwischen der gesellschaftlichen und technischen Entwicklung sowie mit dem mathematischnaturwissenschaftlichen Erkenntnisstand, durch den bestimmte technische Entwicklungen erst m¨ oglich werden. Der Bedarf f¨ ur eine neue Technik bzw. die Voraussetzung f¨ ur deren breitere Durchsetzung und Anwendung ist in der Regel durch eine gesellschaftliche Entwicklung bedingt. Andererseits werden auch nicht selten technische Erfindungen gemacht, f¨ ur die aktuell noch gar kein gesellschaftlicher Bedarf besteht. Interessant ist hier besonders der Fall, in dem eine technische Entwicklung selbst die Voraussetzung f¨ ur bestimmte gesellschaftliche Ver¨ anderungen bildet oder diese antizipiert. So kann man deutlich beobachten, dass die technischen M¨oglichkeiten der Informations- und Kommunikationstechnik heute tiefgreifende Auswirkungen auf die pers¨onlichen Beziehungen der Menschen untereinander, auf Ar-
424
10. Entwicklung der Nachrichtentechnik
beitswelt, Ausbildung, Freizeit und die Wirtschaft haben. Die allgegenw¨artige weltweite Verflechtung (Globalisierung) w¨ are ohne eine leistungsf¨ahige Echtzeitkommunikation ebenso wenig denkbar gewesen wie ohne die weltpolitischen Ver¨ anderungen der letzten beiden Jahrzehnte. Abb. 10.1. stellt die Entwicklung der Nachrichtentechnik in der Neuzeit von ca. 1790-1980 in einer Zeitreihe dar, aus der die Wechselbeziehungen von gesellschaftlicher Entwicklung (vielfach als ¨außerer Anlass), naturwissenschaftlichen Voraussetzungen und technischer Entwicklung hervorgehen. Unter anderem wird deutlich, dass viele nachrichtentechnische Entwicklungen zuerst f¨ ur milit¨ arische Zwecke eingef¨ uhrt wurden, bevor dann auch ihr Nutzen f¨ ur zivile Anwendungen erkannt wurde. Dies ist auch in der Gegenwart noch h¨ aufig der Fall. Es ist weiterhin bemerkenswert, dass bis zum Ende des 19. Jahrhunderts die digitalen“, d.h. auf diskreten Zeichen basierenden Methoden der Nach” ¨ richten¨ ubertragung vorherrschten, und zwar vorrangig f¨ ur die Ubermittlung von Buchstabencodes. Erst mit der Telefonie setzte ein Siegeszug der ana” logen“ Signal¨ ubertragungsverfahren ein, mit denen erstmals eine Fern¨ ubertragung akustischer und visueller Signale mit hoher Qualit¨at m¨oglich wurde. Inzwischen werden diese Signale ebenfalls in erster Linie in codierter Form digital (wert- und zeit-/ortsdiskret) u ¨ bertragen, da dies eine noch h¨ohere Zu¨ verl¨ assigkeit bietet, sowie in der Anpassung an verschiedene Ubertragungsstrecken flexibler und kosteng¨ unstiger ist. Die bisher in der Nachrichtentechnik vorherrschenden Techniken zur Signal¨ ubertragung verwenden traditionell in erster Linie optische, akustische, mechanische, elektrische oder elektromagnetische Ph¨anomene, wobei ¨ die Mechanik in der eigentlichen Ubertragung heute keine signifikante Rolle mehr spielt. Seit ca. 1980 hat hingegen eine bemerkenswerte Konvergenz von Informations- und (Tele-)Kommunikationstechnik eingesetzt, die es u.a. erm¨ oglicht hat, dass mathematische und speziell informationstheoretische Methoden durch algorithmische Implementierung in unmittelbarer Weise als produktive technische L¨ osungen in der Nachrichten- und Informationsu onnen. Die seit 1990 beobachtete rasante ¨bertragung eingesetzt werden k¨ Entwicklung der mobilen Kommunikation wie auch die weltumspannenden schnellen Datennetze w¨ aren ohne diese Voraussetzung nicht denkbar gewesen. Insofern bedeutet die derzeit stattfindende Digitalisierung der Nachrichtentechnik einen Quantensprung, dessen Auswirkungen man gerade erst erahnen unftig kann; jedoch ist es unstrittig, dass die heutige Entwicklung in der zuk¨ zu schreibenden Geschichte der Nachrichtentechnik eine herausragende Rolle spielen wird.
10. Entwicklung der Nachrichtentechnik
425
Abb. 10.1. Entwicklung der Nachrichtentechnik ca. 1800-1980. Nach V. Aschoff in Forschung in Deutschland (v. Hase & Koehler, Mainz 1974)
Literaturverzeichnis∗
Achilles, D. (1985): Die Fourier-Transformation in der Signalverarbeitung (Springer, Berlin, Heidelberg) Ameling, W. (1984): Grundlagen der Elektrotechnik, Band I, II (Bertelsmann Universit¨ atsverlag, D¨ usseldorf) Arthurs, E., Dym, H. (1962): On the optimum detection of digital signals. IRE Trans. CS-10, 336–372 Aschoff, V. (1968): Nachrichten¨ ubertragungstechnik (Springer, Berlin, Heidelberg) Baghdady, E. J. (ed.) (1961): Lectures on Communication System Theory (McGrawHill, New York) Babovsky, H. e. a. (1987): Mathematische Methoden in der Systemtheorie: Fourieranalysis (Teubner, Stuttgart) Bendat, J. S. (1958): Principles and Applications of Random Noise Theory (Wiley, New York) Bennett, W. R., Davey, J. R. (1965): Data Transmission (McGraw-Hill, New York) ¨ 34, 345– Berauer, G. (1980): Informations¨ ubertragung u orte Kan¨ ale. AEU ¨ ber gest¨ 349 Berger, T. (1971): Rate Distortion Theory (Prentice-Hall, Englewood Cliffs, NJ) Bhargava, V. K., Haccoun, D., Matyas, R., Nuspl, P. P. (1981): Digital Communications by Satellite (Wiley, New York; 1991 Krieger, Melbourne) Blahut, R. E. (1987): Principles and Practice of Information Theory (AddisonWesley, Reading, MA) Blahut, R. E. (1990): Digital Transmission of Information (Addison-Wesley, Reading, MA) Bocker, P. (1983, 1979): Daten¨ ubertragung, Bd. I, II (Springer, Berlin, Heidelberg) Bocker, P. (1997): ISDN (Springer, Berlin, Heidelberg) B¨ ohme, J. R. (1998): Stochastische Signale (Teubner, Stuttgart) Bossert, M., Frey T. (1998): Signal- und Systemtheorie (Teubner, Stuttgart) Bossert, M. (1998): Kanalcodierung (Teubner, Stuttgart) Bracewell, R. M. (1986): The Fourier-Transform and Its Applications (McGrawHill, New York) Brigham, E. O. (1988): The Fast Fourier Transform and Its Applications (Prentice Hall, Englewood Cliffs, NJ) [deutsch: FFT, Schnelle Fourier-Transformation (Oldenbourg, M¨ unchen 1995)] ∗
Neben der im Text zitierten Literatur enth¨ alt diese Zusammenstellung eine Auswahl weiterer Beitr¨ age zu den behandelten Themen. Anzumerken ist, daß die zitierten Literaturstellen zumeist keine Erstver¨ offentlichungen sind, sondern neuere Arbeiten darstellen, die zur Erg¨ anzung des behandelten Stoffes dienen. Einige klassische Erstver¨ offentlichungen sind im Anhang zum Literaturverzeichnis zusammengestellt.
428
Literaturverzeichnis
Burdic, W. S. (1968): Radar Signal Analysis (Prentice-Hall, Englewood Cliffs, NJ) Childers, D. G. (1997): Probability and Random Processes using MATLAB (McGraw-Hill, New York) Coulon de, F. (1986): Signal Theory and Processing (Artech House, Dedham, MA) Cover, T. M., Thomas, J. A. (1991): Elements of Information Theory (Wiley, New York) Davenport, W. B., Root, W. L. (1968): An Introduction to the Theory of Random Signals and Noise (McGraw-Hill, New York) Davenport, W. B. (1970): Probability and Random Processes (McGraw-Hill, New York) David, K., Benkner, T. (1996): Digitale Mobilfunksysteme (Teubner, Stuttgart) Doetsch, G. (1989): Anleitung zum praktischen Gebrauch der LaplaceTransformation und der z-Transformation (Oldenbourg, M¨ unchen) Elsner, R. (1981): Nichtlineare Schaltungen (Springer, Berlin, Heidelberg) Fan, R, Darnell, M. (1996): Sequence Design for Communications Applications (Wiley, New York) Fano, R. M. (1966): Informations¨ ubertragung (Oldenbourg, M¨ unchen) Fante, R. L. (1988): Signal Analysis and Estimation (Wiley, New York) Fettweis, A. (1990): Elemente nachrichtentechnischer Systeme (Teubner, Stuttgart) Finger, A. (1997): Pseudorandom-Signalverarbeitung (Teubner, Stuttgart) Fliege, N. (1991): Systemtheorie (Teubner, Stuttgart) Fontolliet, P.-G. (1986): Telecommunication Systems (Artech House, Dedham, MA) Franks, L. E. (1969): Signal Theory (Prentice-Hall, Englewood Cliffs, NJ) Franks, L. E. (1980): Carrier and bit synchronization in data communication. IEEE Trans. COM-28, 1107–1120 Fritzsche, G. (1972, 1987): Theoretische Grundlagen der Nachrichtentechnik (Vlg. Technik, Berlin) Fritzsche, G. (1972): Tats¨ achliche und normierte Signal- und Systemgr¨ oßen. Nachrichtentechnik 22, 77–80 Gallager, R. (1968): Information Theory and Reliable Communication (Wiley, New York) Gebhardt, P. J., Kohlbacher, G. (1978): CCD-Transversalfilter in monolithischer Integration. Wiss. Ber. AEG-Telefunken 51, 91–96 Gerke, P. R. (1991): Digitale Kommunikationsnetze (Springer, Berlin, Heidelberg) Gesbert, D., Shafi, M., Shiu, D.-S., Smith, P. J., Naguib, A. (2003): From theory to practice: An overview of MIMO space-time coded wireless systems. IEEE Journal SAC-21, 281–301 Girod, B., Rabenstein, R., Stenger, A. (2005): Einf¨ uhrung in die Systemtheorie, 3. Auflage (Teubner, Stuttgart) Gitlin, R. D., Hayes, J. F., Weinstein, S. B. (1992): Data Communication Principles (Plenum, New York) Gnedenko, B. W. (1957): Lehrbuch der Wahrscheinlichkeitsrechnung (Akademie Verlag, Berlin) Gold, B., Rader, C. (1969): Digital Processing of Signals (McGraw-Hill, New York) Golomb, S. W. (1967): Shift Register Sequences (Holden-Day, San Francisco)
Literaturverzeichnis
429
Hagenauer, J. (1998): Das Turbo-Prinzip in Detektion und Decodierung. ITGFachbericht 146, 131–136 Hamming, R. W. (1989): Coding and Information Theory (Prentice-Hall, Englewood Cliffs, NJ) Hamming, R. W. (1988): Digital Filters (Prentice-Hall, Englewood Cliffs, NJ) [deutsch: Digitale Filter (VCH, Weinheim 1987)] Hancock, J. C. (1962): On comparing the modulation systems. Proc. Nat. Electronics Conf. 18, 45–50 H¨ ansler, E. (1997): Statistische Signale (Springer, Berlin, Heidelberg) Harmuth, H. (1968): Sequenz-Multiplexsystem f¨ ur Telephonie und Daten¨ ubertra¨ 22, 27–35 gung. AEU Haykin, S. (1983): Communication Systems (Wiley, New York) Heise, W., Quattrocchi, P. (1995): Informations- und Codierungstheorie (Springer, Berlin, Heidelberg) H¨ olzler, E., Thierbach, D. (1966): Nachrichten¨ ubertragung (Springer, Berlin, Heidelberg) Huber, J. (1992): Trelliscodierung (Springer, Berlin, Heidelberg) Huffman, D. A. (1952): A method for the construction of minimum redundancy codes. Proc. IRE 40, 1098–1101 Jayant, N. S., Noll, P. (1984): Digital coding of waveforms (Prentice-Hall, Englewood Cliffs, NJ) Jeruchim, M. C., Balaban, P. S., Shanmugan, K. S. (2000): Simulation of Communication Systems (Kluwer, Dordrecht) Jondral, F. (1991): Funksignalanalyse (Teubner, Stuttgart) Jung, P. (1997): Analyse und Entwurf digitaler Mobilfunksysteme (Teubner, Stuttgart) Kammeyer, K. D., Kroschel, K. (1998): Digitale Signalverarbeitung (Teubner, Stuttgart) Kammeyer, K. D. (1996): Nachrichten¨ ubertragung (Teubner, Stuttgart) Kreß, D., Irmer, R. (1990): Angewandte Systemtheorie (Oldenbourg, M¨ unchen) Kroschel, K. (1996): Statistische Nachrichtentheorie (Springer, Berlin, Heidelberg) Kroschel, K. (1991): Daten¨ ubertragung (Springer, Berlin, Heidelberg) ¨ 24, 139–150; K¨ uhne, F. (1970, 1971): Modulationssysteme mit Sinustr¨ ager. AEU 25, 117–128 uller, K. (1974): Systemtheorie der elektrischen Nachrichten¨ ubertragung K¨ upfm¨ (Hirzel, Stuttgart; 1. Auflage 1949) K¨ upfm¨ uller, K. (1954): Die Entropie der deutschen Sprache. FTZ 7, 265–272 Lacroix, A. (1996): Digitale Filter (Oldenbourg, M¨ unchen) Lafrance, P. (1990): Fundamental Concepts in Communication (Prentice-Hall, Englewood Cliffs, NJ) Lange, F. H. (1971): Signale und Systeme, Bd. I, III (Vlg. Technik, Berlin) Lange, F. H. (1962): Korrelationselektronik (Vlg. Technik, Berlin) Lee, Y. W. (1960): Statistical Theory of Communication (Wiley, New York) Lighthill, M. J. (1966): Theorie der Fourier-Analyse (Bibliograph. Institut, Mannheim) Lindner, J. (2005): Informations¨ ubertragung (Springer, Berlin, Heidelberg) Lochmann, D. (1995): Digitale Nachrichtentechnik (Vlg. Technik, Berlin) Lucky, R. W., Salz, J., Weldon, E. J. (1968): Principles of Data Communication (McGraw-Hill, New York)
430
Literaturverzeichnis
L¨ uke, H. D. (1968): Nachrichtentech. Z. L¨ uke, H. D. (1977): L¨ uke, H. D. (1992):
Multiplexsysteme mit orthogonalen Tr¨ agerfunktionen. 21, 672–680 ¨ 31, 441–445 Zeitinvariante Abtast- und PAM-Systeme. AEU Korrelationssignale (Springer, Berlin, Heidelberg)
Mansuripur, M. (1987): Introduction to Information Theory (Prentice-Hall, Englewood Cliffs, NJ) Marko, H. (1995): Systemtheorie (Springer, Berlin, Heidelberg) Meinke, H., Gundlach, F. W. (1992): Taschenbuch der Hochfrequenztechnik (Springer, Berlin, Heidelberg) Merlins, A. (1996): Signaltheorie (Teubner, Stuttgart) Meyr, H., Ascheid, G. (1990): Synchronization in Digital Communications, (Wiley, New York) Meyr, H., Ascheid, G. (1990): Digital Communication Receivers, Phase-, FrequencyLocked Loops, and Amplitude Control, (Wiley, New York) Meyr, H., Moeneclaey, M., Fechtel, S. A. (1997): Digital Communication Receivers, Vol. 2: Synchronization, Channel Estimation, and Signal Processing (Wiley, New York) Middleton, D. (1960): The Introduction to Statistical Communication Theory (McGraw-Hill, New York) (Neuauflage 1996: (IEEE Press, Piscataway, New Jersey) Mitra, S. K. (1997): Digital Signal Processing: A Computer Based Approach (McGraw-Hill, New York) Nee, R. van, Prasad, R. (2000): OFDM for Wireless Multimedia Communications (Artech House, Boston, London) Ohm, J.-R. (2004): Multimedia Communication Systems (Springer, Berlin, Heidelberg, New York) Oppenheim, A. V., Schafer, R. W. (1989): Discrete Time Signal Processing (Prentice-Hall, Englewood Cliffs, NJ) [deutsch: Zeitdiskrete Signalverarbeitung (Oldenbourg, M¨ unchen 1995)] Oppenheim, A. V. (ed.) (1978): Applications for Digital Signal Processing (PrenticeHall, Englewood Cliffs, NJ) Oppenheim, A. V., Willsky, A. S. (1996): Signals and Systems (Prentice-Hall, Englewood Cliffs, NJ) [deutsch: Signale und Systeme (VCH, Weinheim 1991)] Panter, P. F. (1965): Modulation, Noise and Spectral Analysis (McGraw-Hill, New York) Papoulis, A. (1962): The Fourier Integral (McGraw-Hill, New York) Papoulis, A. (1991): Probability, Random Variables and Stochastic Processes (McGraw-Hill, New York) Papoulis, A. (1977): Signal Analysis (McGraw-Hill, New York) Papoulis, A. (1990): Probability & Statistics (Prentice-Hall, Englewood Cliffs, NJ) Peterson, W. W. (1967): Pr¨ ufbare und korrigierbare Codes (Oldenbourg, M¨ unchen) Pierce, J. R., Posner, E. C. (1980): Introduction to Communication Science and Systems (Plenum, New York) Proakis, J. G. (1995): Digital Communications (McGraw-Hill, New York) Proakis, J. G., Salehi, M. (1994):Communication System Engineering (PrenticeHall, Englewood Cliffs, NJ) Rabiner, L., Gold, B. (1975): Theory and Application of Digitial Signal Processing (Prentice-Hall, Englewood Cliffs, NJ)
Literaturverzeichnis
431
Reimers, U. (1997): Digitale Fernsehtechnik (Springer, Berlin, Heidelberg) Reza, F. M. (1961): An Introduction to Information Theory (McGraw-Hill, New York) Rohling, H. (1995): Einf¨ uhrung in die Informations- und Codierungstheorie (Teubner, Stuttgart) ¨ Rupprecht, W. (1993): Signale und Ubertragungssysteme (Springer, Berlin, Heidelberg) Sakrison, D. J. (1968): Communication Theory (Wiley, New York) Sch¨ onfelder, H. (1996): Fernsehtechnik im Wandel (Springer, Berlin, Heidelberg) Schr¨ oder, H. (1998): Mehrdimensionale Signalverarbeitung, Bd. 1 (Teubner, Stuttgart) ¨ Sch¨ ußler, W. (1963): Der Echoentzerrer als Modell eines Ubertragungskanals. Nachrichtentechn. Z. 16, 155–163 ¨ Sch¨ ußler, W. (1964): Uber den Entwurf optimaler Suchfilter. Nachrichtentechn. Z. 17, 605–613 Sch¨ ußler, H. W. (1990): Netzwerke, Signale und Systeme, Bd. 1, 2 (Springer, Berlin, Heidelberg) Sch¨ ußler, H. W. (1994): Digitale Signalverarbeitung, Bd. 1 (Springer, Berlin, Heidelberg) Schwartz, M. (1990): Information Transmission, Modulation and Noise (McGrawHill, New York) Schwartz, M., Shaw, L. (1975): Signal Processing (McGraw-Hill, New York) Shanmugan, K. S. (1979): Digital and Analog Communication Systems (Wiley, New York) Shanmugan, K. S., Breipohl, A. M. (1988): Random Signals (Wiley, New York) Shannon, C. E., Weaver, W. (1949): The Mathematical Theory of Communication (Univ. Illinois Press, Urbana, IL) Simon, M. K., Omura, J. K., Scholtz, R. A., Levitt, B. K. (1994): Spread Spectrum Communications (McGraw-Hill, New York) Skolnik, M. I. (1981): Introduction to Radar Systems (McGraw-Hill, New York) Sloane, N. J. A. (1984) Kugelpackungen im Raum. Spektrum der Wissenschaft, M¨ arz, 120–131 ¨ S¨ oder, G., Tr¨ ondle, K. (1985): Digitale Ubertragungssysteme, Nachrichtentechnik, Bd. 14 (Springer, Berlin, Heidelberg) Stark, H., Tuteur, F. B. (1987): Modern Electrical Communications (Prentice-Hall, Englewood Cliffs, NJ) Stearns, S., Hush, D. R. (1990): Digital Signal Analysis (Hayden, Rochelle Park) [deutsch: Digitale Verarbeitung analoger Signale (Oldenbourg, M¨ unchen 1994)] Stein, S., Jones, J. (1967): Modern Communication Principles (McGraw-Hill, New York) Taub, H., Schilling, D. L. (1987): Principles of Communication Systems (McGrawHill, New York) Temes, G. C., et al. (1973): The Optimization of Bandlimited Systems. Proc. IEEE 61, 196–234 Thomas, J. B. (1969): Statistical Communication Theory (Wiley, New York) Torrieri, D. J. (1992): Principles of secure communication systems (Artech House, Boston) Trees, H. L. van (1968, 1971): Detection, Estimation and Modulation Theory, Vols. I–III (Wiley, New York) Unbehauen, R. (1998): Systemtheorie, Bd. 1 u. 2 (Oldenbourg, M¨ unchen)
432
Literaturverzeichnis
Ungerboeck, G. (1974): Adaptive Maximum Likelihood Receiver for Carrier Modulated data Transmission Systems. IEEE Trans. Commun. 22, 624-636 Ungerboeck, G. (1982): Channel Coding with Multilevel/Phase Signals. IEEE Trans. Inform. Theor. 28, 55-67 Vary, P., Heute, U., Hess, W. (1998): Digitale Sprachsignalverarbeitung (Teubner, Stuttgart) Vary, P., Martin, R. (2006): Digital Speech Transmission (Wiley, New York) Verdu, S. (1998): Multiuser Detection (Cambridge University Press, Cambridge) Viterbi, A. J. (1966): Principles of Coherent Communication (McGraw-Hill, New York) Viterbi, A. J. (1967): Error Bounds for Convolutional Codes and an Asymptotically Optimum Decoding Algorithm. IEEE Trans. Inform. Theor. 13, 260-269 Viterbi, A. J., Omura, J. K. (1979): Principles of Digital Communications and Coding (McGraw-Hill, New York) Viterbi, A. J. (1995): CDMA. Principles of spread spectrum communication (Addison-Wesley, Reading, MA) Wahl, F. M. (2001): Digitale Bildsignalverarbeitung, 5. Auflage, Nachrichtentechnik, Bd. 13 (Springer, Berlin, Heidelberg) Walke, B. (2001): Mobile Radio Networks, 2nd edition (Wiley, New York) [deutsch: Mobilfunknetze und ihre Protokolle, 3. Auflage (Teubner, Stuttgart 2001)] Whalen, A. D. (1971): Detection of Signals in Noise (Academic, New York) Winkler, G. (1977): Stochastische Systeme (Akadem. Verlagsgesellschaft, Wiesbaden) Wolf, D. (1999): Signaltheorie (Springer, Berlin) Woodward, P. N. (1964): Probability and Information Theory (Pergamon, Oxford; 1. Auflage 1953) Woschni, E. G. (1987): Informationstechnik (H¨ uthig, Heidelberg) Wozencraft, J. M., Jakobs, I. W. (1965): Principles of Communication Engineering (Wiley, New York) Wunsch, G. (1967): Systemanalyse, Bd. I–III (H¨ uthig, Heidelberg) Ziemer, R. E., Tranter, W. H. (1976): Principles of Communications (Houghton, Boston, MA)
Anhang zum Literaturverzeichnis 1. Klassische Aufs¨ atze zur Nachrichten¨ ubertragung Aschoff, V. (1984, 1987): Geschichte der Nachrichtentechnik, Bd. 1 u. 2 (Springer, Berlin, Heidelberg) Armstrong, E. H. (1936): A method of reducing disturbances in radio signaling by a system of frequency modulation. Proc. IRE 24, 689–740; Nachdruck in Proc. IEEE 72 (1984), 1041 Bayes, T. (1763): An essay towards solving a problem in the doctrine of chances, in: Philosophical Transactions of the Royal Society of London 53, 370-418. Deut¨ sche Ubersetzung von H.E. Timerding (1908) in Ostwald’s Klassiker der exakten Naturwissenschaften 169, Leipzig 1908, 12-20. Neu abgedruckt in: Schneider, Ivo (1988, Hrsg.), S. 135-144. Carson, I. R. (1922): Notes on the theory of modulation. Proc. IRE 10, 57
Literaturverzeichnis
433
Gabor, D. (1946) Theory of communication. J. IEE 93, (III)429–457 Hartley, R. V. L. (1928): Transmission of information. Bell Syst. Techn. J. 7, 535– 563 Korn, A. (1923): Bildtelegraphie (de Gruyter, Berlin) ¨ ¨ Kotelnikov, V. A. (1933): Die Ubertragungskapazit¨ at des “Athers” und des Drahts bei der elektrischen Nachrichtentechnik. I. Allunionskonferenz, UdSSR [vgl. L¨ uke, H. D. (1999): The origins of the sampling theorem. IEEE Comm. Mag. 37, 106–108] ¨ K¨ upfm¨ uller, K. (1924): Uber Einschwingvorg¨ ange in Wellenfiltern. Elektr. Nachr. Techn. 1, 141–152 North, D. O. (1963): An analysis of the factors which determine signal/noise discrimination in pulsed-carrier systems. Proc. IRE 51, 1016–1027; Nachdruck aus: RCA-Laboratories, Princeton, NJ, Techn. Rpt. No. PTR-6C, June 25, 1943 Nyquist, H. (1928): Certain topics in telegraph transmission theory. AIEE Trans. 47, 617–644; Nachdruck in Proc. IEEE 90 (2002), 280 Nyquist, H. (1928): Thermal agitation of electric charge in conductors. Phys. Rev. 32, 110–113 Oliver, B. M., Pierce, J. R., Shannon, C. E. (1948): The philosophy of PCM. Proc. IRE 36, 1324–1332 Raabe, H. (1939): Untersuchungen an der wechselzeitigen Mehrfach¨ ubertragung. Elektr. Nachr. Techn. 16, 213–228 Reeves, A. H. (1938): Syst`emes de signalisation ´electriques. Franz. Patent 852183 Reeves, A. H. (1965): The past, present and future of PCM. IEEE Spectrum 2, 58–63 Rice, S. O. (1944, 1945): Mathematical analysis of random noise. Bell Syst. Techn. J. 23, 282–332; 24, 46–156 Shannon, C. E. (1948): A mathematical theory of communication. Bell Syst. Techn. J. 27, 379–423, 623–656 Shannon, C. E. (1949): Communication in the presence of noise. Proc. IRE 37, 10–21; Nachdruck in Proc. IEEE 86 (1998), 447 Thomson, W. (1855): On the theory of the electric telegraph. Proc. Royal Soc. 7, 382–399 Whittaker, E. T. (1915): On the functions which are represented by the expansions of the interpolation theory. Proc. R. Soc. Edinburgh 35, 181–194 Wiener, N. (1930): Generalized harmonic analysis. Acta Math. 55, 117–258 Wiener, N. (1949): Extrapolation, Interpolation and Smoothing of Stationary Time Series (Wiley, New York; Nachdruck eines Reports von 1942)
2. Normen und Begriffe Im folgenden ist eine Auswahl von Ver¨ offentlichungen zusammengestellt, die sich mit Normen und Begriffen aus dem Gebiet der Nachrichten¨ ubertragung befassen. DIN-Normen Einheiten und Begriffe f¨ ur physikalische Gr¨ oßen. DIN-Taschenbuch 22, 7. Aufl. (Beuth, Berlin 1990) Formelzeichen, Formelsatz, Mathematische Zeichen und Begriffe. DIN-Taschenbuch 202 (Beuth, Berlin 1994) Internationales Elektrotechnisches W¨ orterbuch (IEV). Reihe 700 “Telekommunikation” (VDE-Verlag, Berlin 1998)
434
Literaturverzeichnis
ITG-(NTG)-Empfehlungen Begriffsdefinitionen – Auswahl NTG 0101 Modulationstechnik-Begriffe. Nachrichtentechn. Z. 24, 282–286 (1971) NTG 0102 Informationstheorie-Begriffe. Nachrichtentechn. Z. 19, 231–234 (1966) NTG 0103 Impuls- und Pulsmodulations-Technik-Begriffe. Nachrichtentechn. Z. 25, K219–K225 (1972) NTG 0104 Codierung, Grundbegriffe. Nachrichtentechn. Z. 35, 59–66 (1982) NTG 1202 Begriffe der Telegrafentechnik. Nachrichtentechn. Z. 24, 481 (1971) NTG 1203 Daten und Textkommunikation. Nachrichtentechn. Z. 36, 697–708 (1983) NTG 0406 Rauschen. Nachrichtentechn. Z. 16, 107 (1963) NTG 2001 Fernwirktechnik-Begriffe. Nachrichtentechn. Z. 31, 353–373 (1978) NTG/DGON 1801 Radartechnik. Nachrichtentechn. Z. 37, 59–68; 127–136 (1984) ITG 1.6/01 ISDN-Begriffe. Nachrichtentechn. Z. 40, 85–89 (1987) Sonstiges Terminology in digital signal processing. IEEE Trans. AU-20, 322 (1972) Englische Aussprache mathematischer Formeln. Elektron. Rundsch. 10, 107 (1956) Meschkowski, H. (1976): Mathematisches Begriffsw¨ orterbuch (Bibliograph. Institut, Mannheim) ¨ Irmer, T., Kersten, R., Schweitzer, L. (1978): Begriffe der Digital-Ubertragungstechnik. Frequenz 32, 241, 269, 297 IEEE Standard Dictionary of Electrical and Electronics Terms (IEEE, Piscataway, NJ, 1997)
Symbolverzeichnis und Abku ¨rzungen
a, A a(f ) b(f ) b c C C∗ d dH dmin Eb Es f, F F [·] f (t), g(t) fD (t) fQ (t) H H H∗ H(f ) h(t) hε (t) h(nT ), h(n) i I(L K, k Ls L
Amplitudenfaktor, Amplitudenbereich D¨ ampfungsmaß D¨ ampfungswinkel Dehnfaktor Konstante Kapazit¨ at, Schwellenwert Kanalkapazit¨ at Distanz, Differenz Hamming-Distanz minimale euklidische Distanz Energie pro bit bei Bin¨ aru ¨ bertragung Energie von s(t) Frequenzvariable, Frequenzparameter Funktion (allgemein) Zeitfunktionen Differenzsignal quantisiertes Signal Entropie Kanalmatrix Informationsfluß ¨ Ubertragungsfunktion Impulsantwort Sprungantwort zeitdiskrete Impulsantwort ganzzahlige Variable Einheitsmatrix L × L Konstanten Leistung von s(t) ganzzahlige Konstante
M ms m m(t), M (f ) N Nd
ganzzahlige Konstante, L¨ange zeitdiskreter Signale linearer Mittelwert von s(t) ganzzahlige Variable moduliertes Sendesignal
Leistung eines St¨orsignals Anzahl von Nachbarsymbolen Rauschleistungsdichte N0 n ganzzahlige Variable n(t) St¨orsignal Bitfehlerwahrscheinlichkeit Pb Pe Symbolfehlerwahrscheinlichkeit Wahrscheinlichkeitswert pi Ps (x) Verteilungsfunktion von s(t) Verteilungsdichtefunktion von ps (x) s(t) Q Umfang Multiplexsystem (τ ) normierte KorrelationsfunkpE sg tion f¨ ur Energiesignale R Widerstand ¨ r Ubertragungs-, Abtastrate S Nutzsignalleistung S(f ) Spektrum des Signals s(t) Sa (f ) Spektrum zeitdiskreter Signale Sc,a (f ) Spektrum gedehnter zeitdiskreter Signale Sd (k) frequenzdiskretes, periodisches Spektrum S(p) Laplace-Transformierte S(z) z-Transformierte S T (f, t) Kurzzeit-Fourier-Transformierte
436
s(t) si (t) s(nT ), s(n) sc (n)
Symbolverzeichnis und Abk¨ urzungen
Signalfunktion, Tr¨ agersignal mehrwertiges Tr¨ agersignal zeitdiskretes Signal
zeitdiskretes, gedehntes Signal zeitdiskretes, periodisches sd (n) Signal periodisches Signal sp (t) sT (τ, t) Kurzzeit-Signalauschnitt t, T Zeitvariable, Zeitdauer Tabs absolute Temperatur U Spannung U, V Transformationsmatrizen u(t) Spannungsverlauf ¨ u¨ Uberschwingverh¨ altnis w(t), Bewertungsfunktionen W (f ) x, y Variable y(t) Zeitfunktion z komplexe Zahl β Bandbreitedehnfaktor θ(t) Winkelfunktion arwertmatrix Λ(1/2) Singul¨ µ Modulationsindex, -grad µsg (τ ) Kovarianzfunktion Kreuzkovarianzkoeffizient Streuung von s(t) σs2 τ Zeitvariable ϕ(f ) Winkelfunktion ϕsg (τ ) Korrelationsfunktion ϕE sg (τ ) Impulskorrelationsfunktion von Energiesignalen ϕLsg (τ ) Korrelationsfunktion von Leistungssignalen ϕsg (m) Korrelationsfunktion zeitdiskreter Signale Φsg (f ) Leistungsdichtespektrum ΦE sg (f ) Energiedichtespektrum ψ(t) Argument winkelmodulierter Signale
Spezielle Funktionen d(·, ·) rect(t) Λ(t) ε(t) ε(n) δ(t) δ(n) δc (n) δ (t)
Distanzfunktion Rechteckfunktion (1.4) Dreieckfunktion (1.5) Sprungfunktion (1.3) zeitdiskrete Sprungfunktion (3.22) Dirac-Impuls (1.14) Einheitsimpuls (3.20) Einheitsimpulsfolge (3.48) Dirac-Impuls 2. Ordnung (1.38)
III − (t)
Dirac-Impulsfolge (2.65)
E{·}
Erwartungswert, Scharmittelwert (6.1) erf(x) Fehlerfunktion (6.151) erfc(x) komplement¨are Fehlerfunktion (6.153) F {·} Fourier-Transformation k{·} Kennlinien-Transformation L{·} lineare Transformation lb(x) bin¨arer Logarithmus sgn(x) Signum-Funktion (2.75) si(t) si-Funktion, Spaltfunktion (2.53) Si(t) Integralsinusfunktion(5.13) Tr{·} Transformation, allgemein int(x) Rundungsfunktion (Aufgabe 7.18) Jn (x), Bessel-Funktionen (8.82 und Anhang 7.6) I0 (x)
Symbolverzeichnis und Abk¨ urzungen
Abk¨ urzungen AKF AM AR ASK ATM BP BPSK CDM CDMA COFDM DAB DVB DFT DM DPCM DPSK dB DS DSL EM FDM FDMA FIR FFT FH FM FSK GLONASS GPS HP IDFT IFFT IIR ISDN LAN LDS LSI LTI KKF MA MIMO MISO MPEG
Autokorrelationsfunktion Amplitudenmodulation Autoregressiv (stat. Prozess) Amplitude Shift Keying Asynchronous Transfer Mode Bandpass Bipolar (od. Binary) Phase Shift Keying Code Division Multiplex Code Division Multiple Access Coded OFDM Digital Audio Broadcast Digital Video Broadcast Discrete Fourier Transform Delta-Modulation Differential Pulse Code Modulation Differential Phase Shift Keying DeziBel (Maßeinheit) Direct Sequence (CDMA) Digital Subscriber Loop Einseitenband-(Amplituden)modulation Frequency Division Multiplex Frequency Division Multiple Access Finite Impulse Response (Filter) Fast Fourier Transform Frequency Hopping Frequenzmodulation Frequency Shift Keying Global Navigation Satellite System Global Positioning System Hochpass Inverse Discrete Fourier Transform Inverse Fast Fourier Transform Infinite Impulse Response (Filter) Integrated Services Digital Network Local Area Network Leistungsdichtespektrum Linear Shift Invariant Linear Time Invariant Kreuzkorrelationsfunktion Moving Average (stat. Prozess) Multiple Input Multiple Output Multiple Input Single Output Moving Pictures Experts Group
437
438
Symbolverzeichnis und Abk¨ urzungen
MSK NAVSTAR Np OFDM PAM PCM PLL PM PN PSK QAM QPSK SDH SDM SDMA SIMO SISO STFT TCM TDM TDMA TP UMTS WAN WLAN
Minimum Shift Keying Navigation System with Time and Ranging Neper (Maßeinheit) Orthogonal Frequency Division Multiplex Pulse Amplitude Modulation Pulse Code Modulation Phase Locked Loop Phasenmodulation Pseudo Noise Phase Shift Keying Quadrature Amplitude Modulation Quaternary (od. Quadrature) Phase Shift Keying Synchronous Digital Hierarchy Space Division Multiplex Space Division Multiple Access Single Input Multiple Output Single Input Single Output Short Time (od. Term) Fourier Transform Trellis Coded Modulation Time Division Multiplex Time Division Multiple Access Tiefpass Universal Mobile Telecommunication System Wide Area Network Wireless Local Area Network
Sachverzeichnis
Abh¨ angigkeitsl¨ ange 367 Abtastperiode 76 Abtastrate 78 Abtastratenkonversion 97 Abtasttheorem 78 f¨ ur Bandpasssignale 109, 162 Abtastung im Zeitbereich 74 im Frequenzbereich 79 Abtastwert 76 adaptive Kanalentzerrung 260 ¨ Ahnlichkeitsmaß 117 ¨ Ahnlichkeitssatz 41 aquivalentes Tiefpasssystem 150 ¨ AKF s. Autokorrelationsfunktion Aliasing 79 Allpass 134 AM s. Amplitudenmodulation AMI-Code 303 Amplitudendichtespektrum 31 Amplitudenmodulation 308 Einseitenband 314 mit Tr¨ ager 312 Restseitenband 315 St¨ orverhalten 316, 379, 412 Zweiseitenband 314 amplitudenstabil 23, 110 Amplitudentastung 262 Analog-Digital-Umsetzer 290 analoges Signal 73 analytische Komponente 55, 69, 154, 170 ARMA-Prozess 218 Armstrong-Modulator 392 ASK s. Amplitudentastung Assoziativgesetz der Faltung 15 asynchrones Multiplexsystem 334, 342 Augenblicksfrequenz 319 Augenblicksleistung 179 Augendiagramm 245 Ausgangssignal 5 Autokorrelationsfunktion f¨ ur Bandpasssignale 263 f¨ ur Energiesignale 119 f¨ ur Leistungssignale 129, 180 f¨ ur periodische Folgen 128
f¨ ur Pseudonoise-Folgen 344 f¨ ur zeitdiskrete Signale 126 station¨ arer Prozesse 179 statistische Definition 176 Zeitmittelwert 177 Autokovarianzfunktion 181 autoregressiver Prozess 218, 233 Bandbreitedehnfaktor AM 314 DS-CDMA 336 Einseitenband-AM 315 FM 323 PCM 295 Restseitenband-AM 315 Bandbreiteneffizienz 377, 387 Bandpass(-system) 150 Bandpass-Abtastsystem 162 Bandpass-Abtasttheorem 162 Bandpass-Autokorrelationsfunktion 263 Bandpassrauschen 230, 272 Bandpasssignal 153 Bandpass-Tr¨ agersignal 261 Barker-Folge 131, 288 Baud (Bd) 257 Bayes-Entscheidung 211 Bayes-Theorem 211 bedingte Verteilungsdichtefunktion 209 bedingte Wahrscheinlichkeit 211 Bernoulli-Prozess 233 Bessel-Funktionen 271, 322 BIBO-Eigenschaft 23 bin¨ ar 73 Bin¨ arcode 363 Bin¨ arquelle 362 Bin¨ ubertragung 235 ar¨ Bin¨ arwert 238 Binomial-Prozess 233 ¨ bipolare Ubertragung 245, 261 bit 256, 361 Bitfehlerrate ¨ bei bipolarer Ubertragung 247, 282 bei H¨ ullkurvenempfang 272 bei Mehrpegel¨ ubertragung 259 bei M-PSK 281
440
Sachverzeichnis
bei M-QAM 283 ¨ bei orth. Ubertragung 254, 282, 414 bei Rayleigh-Fading 385 ¨ bei unipolarer Ubertragung 242, 282 Boltzmann-Konstante 188 BP s. Bandpass Butterworth-Tiefpass 169 Carson-Bandbreite 323 CDM s. Codemultiplex charakteristische Funktion 203 Chipdauer 336 Chi-Quadrat-Verteilungsdichte 384 Codegenerator 337, 347 Codemultiplex 337 Coderate 363, 366 codierte Distanz 371 Codierung 74, 256, 362 comb 109 cosine rolloff 244 DAB s. Digital Audio Broadcast D¨ ampfungsmaß 134 D¨ ampfungswinkel 135 Daten¨ ubertragung 235 dB s. Dezibel Deemphasis 329 Dehnung, Dehnungsfaktor 4 Deltamodulation 297, 405 determinierte Signale 1, 173 Dezibel 134 Dezimation 97 DFT s. Diskrete Fourier-Transformation Differentiationstheorem der Fourier-Transformation 42 Differentiator 21, 171 Differenz-Pulscodemodulation 296, 405 Digital-Analogumsetzer 290 Digital Audio Broadcast 236, 359 digitales Signal 73 ¨ digitale Ubertragung 237 Digitalfilter 149 Digital Video Broadcast 236, 359 Dirac-Impuls 16 Fourier-Transformation 47 mit Dehnungsfaktor 19 2. Ordnung 22 Dirac-Impulsfolge 49, 64 direct sequence CDMA 336 diskrete Faltung 86 diskrete Fourier-Transformation 94 diskrete Verteilung 196, 223 Distribution 16 Distributivgesetz der Faltung 15 Diversit¨ ats¨ ubertragung 349 DM s. Deltamodulation DMT s. Discrete Multi Tone Doppelimpuls 22 DPCM s. Differenz-Pulscodemodulation
DPSK s. Phasendifferenztastung Dreieckimpuls 3, 46 Discrete Multi Tone 359 duobin¨ are Codierung 249 Durchlassbereich 135 DVB s. Digital Video Broadcast Echo, Echoamplitude 142 Echomethode 141 Eigenfunktion 29, 59, 103 Eigeninterferenzen 240 Eingangssignal 5 Einheitsimpuls 86 Einheitssprung 87 Einh¨ ullende eines Bandpasssignals 155, 161 Einschwingzeit 138 Einseitenband-AM 314 Einseitenbandmodulator 389 Einseitenbandsignal 163, 172 Einselement der Faltungsalgebra 14 Elementarsignale 1 zeitdiskrete 86 Empf¨ anger 188, 207, 237 Energie 115, 126 Energiedichtespektrum 122, 126 Energiesignal 116 Entropie 361 Entscheidungsbereich 280, 400 Entscheidungsgehalt 360 Entscheidungsstufe 207 Entscheidungsgrenze 211, 279 Entzerrer 20 ergodischer Prozess 176 error function 226 Erwartungswert 175, 214 Euklid’sche Distanz 280 Existenz der Fourier-Transformation 58 Exponentialimpuls 10, 33, 87, 90 Faltung 10 diskrete 86 periodische 96 segmentierte 97 Faltungsalgebra 13 Faltungscodierung 367 Faltungsintegral 7 faltungsinverses Filter 111 Faltungsprodukt 13, 118 farbiges Rauschen 187 fast-orthogonale Folgen 341 FDM s. Frequenzmultiplexsystem Fehlerfunktion 226 Fehlerwahrscheinlichkeit 207 Fensterfunktion 57, 140, 148 Festzielunterdr¨ uckung 410 FH s. Frequenzsprungverfahren Filter 134
Sachverzeichnis
FIR-Filter 147 FM s. Frequenzmodulation Fourier-Integral 31, 63 -Koeffizienten 83 -Reihenentwicklung 83 -Spektrum 32 -Transformation 31, 90 diskrete Transformation 94 Frequenz 4 Frequenzbereich 32 Frequenzgruppe 164 Frequenzmodulation 319 Diskriminator 324 Empf¨ anger 324 Schwelle 328 Sender (Modulator) 321 Signal 319 Spektrum 323 Stereofonie 392 St¨ orverhalten 325, 379 Frequenzmultiplexsystem 333 frequenzselekt. Fading 347, 350, 386 Frequenzsprungverfahren 347 Frequenzumtastverfahren 261 nicht koh¨ arent 403 FSK s. Frequenzumtastverfahren
Huffman-Code 363 ideal verzerrungsfreies System 13 ¨ ideale Ubertragung 378 idealer Bandpass 150 idealer Empf¨ anger 379 idealer Hochpass 167, 169 idealer Tiefpass 77, 135 Impulsantwort 10 Impulskorrelationsfunktion 116, 126 Impulsrahmen 332 Informationsfluss 365 Informationsgehalt 361 Informationstheorie 360 inkoh¨ arenter Empf¨ anger 266, 311 Inphase-Komponente 154 int 303 Integralsinusfunktion 138, 168 Integration des Dirac-Impulses 20 Integrationstheorem 54 Integrator 21 integriertes Netz 235 Interpolation 100 inverse Fourier-Transformation 31, 91 inverses System 20 ISDN 235 jitter 287
Gauß-Kanal 373 Gauß-Prozess 205 Gauß-Impuls 1, 66 Gauß-Tiefpass 232 Gauß-Verteilung 204 Gauß’sches Fehlerintegral 204 gerade Komponente 36 Geradeausempf¨ anger 313 Gewicht des Dirac-Impulses 16 Gibbs’sches Ph¨ anomen 139 Gleichanteil 48, 179 Gleichverteilung 195 Gold-Folgen 344 GPS-Systeme 336 Gray-Code 256, 280, 284 Grenzfrequenz 135 Grenzwertsatz 67, 203 Gr¨ oßen dimensionslose 3 normierte 3 Gruppenlaufzeit 135, 164 Guard-Intervall 358 Hamming-Distanz 366 Hamming-Fenster 149 Herabtastung s. Dezimation Hilbert-Transformation 54 Hilbert-Transformator 390 Hochpass 167, 169, 171 Hochtastung s. Interpolation H¨ ullkurve 154 H¨ ullkurvenempf¨ anger 267, 313
Kammfilter 169 Kanal 188, 372 Kanalcodierer 238 Kanalcodierung 366 Kanalkapazit¨ at 372 Kanalmatrix (MIMO) 351, 386 Kanalsch¨ atzung 354 kausales Signal 23 kausales System 23, 140 Kennlinien-Transformationen 219 KKF s. Kreuzkorrelationsfunktion koh¨ arenter Empf¨ anger 266 kommafreier Code 363 Kommutativgesetz der Faltung 14 Kompandierung 220 komplement¨ are Fehlerfunktion 208, 226 komplexe H¨ ullkurve 154 komplexe Signaldarstellung 153 komplexe Wechselstromrechnung 5 komplexer Tr¨ ager 153, 354 konjugiertes Filter 192 kontinuierliche Verteilung 193 Kophasal-Komponente 154 Korrelationsfilter 191 Korrelationsfunktion s. Auto- oder Kreuzkorrelationsf. Korrelationskoeffizient 117, 190 Korrelationsprodukt 118 korrelative Codierung 248 Korrelator 192 Kreuzenergiedichtespektrum 124
441
442
Sachverzeichnis
Kreuzkorrelationsfunktion f¨ ur Energiesignale 118 f¨ ur Leistungssignale 129 f¨ ur periodische Folgen 128 f¨ ur zeitdiskrete Signale 126 station¨ arer Prozesse 181 Kreuzkovarianzfunktion 182 Kreuzleistungsdichtespektrum 186 Kurzzeit-Fourier-Transformation 56, 186 Kurzzeitintegrator 26, 46 Kurzzeitmittelwert 229 Laplace-Transformation 59 laufende Integration 20 Laufzeitglied 20, 42 Laufzeitverzerrungen 164 Leistung 116, 179 Leistungsdichtespektrum 185, 216 Leistungssignal 116 Leitungscodierer 238 Lempel-Ziv-Codierer 365 lineare Verzerrungen 134 lineares Modulationsverfahren 306 lineares verschiebungsinvariantes System (LSI) 88 lineares zeitinvariantes System (LTI) 6 linearphasiges System 141, 149 Linienspektrum 82 Lloyd-Max-Quantisierer 407 Manchester-Codierung 246 Marcum’sche Q-Funktionen 272 matched filter 191 Maximum-length-Folge 342 Mehrpegel¨ ubertragung 256 Mehrwegeempfang 348, 351, 359, 382 m-Folge s. Maximum-length-Folge MIMO 351 MISO 351 minimale Euklid’sche Distanz 280 minimum shift keying 262 Mittelwerte 1. Ordnung 175 h¨ oherer Ordnung 176 Mittenfrequenz 150 Mobilfunkkan¨ ale 382 Mobilfunksysteme 236 Modem 239 Modulationsgrad 312 Modulationshub 323 Modulationsindex 321 Modulationstheorem 44 moduliertes Sendesignal 239 Momente einer Verteilung 197 Moving-average-Prozess 218 MSK s. minimum shift keying Multiple-access-Verfahren 331 ¨ Multiplex-Ubertragung 329
Multiplikationstheorem 44 multi user detection 349 Musterfunktion eines Zufallsprozesses 176 Nachrichtentechnik, Entwicklung 423 Nachrichtenquelle 237 Nachrichtensenke 238 Nebensprechst¨ orung 331 Neper (Np) 134 Netzwerktheorie 5 nichtdeterminiertes Signal 173 nichtlineare Modulationssysteme 319 nichtlineare Verzerrungen 79 Normalverteilung 204 Nullfunktion 2 Nutzsignalpunkt 278 Nutz-/St¨ orleistungsverh¨ altnis 189, 292, 378 Nyquist-Flanke 243, 315 Nyquist-Kriterium 242, 331 Nyquist-Rate 78, 243 OFDM s. orthogonal frequency division multiplex Offset-QPSK 277 orthogonale Funktionen 117, 124, 251, 341 Orthogonalentwicklung 395 orthogonal frequency division multiplex 354 Orthonormalsystem 251 Overlap-add-Faltung 97 Paley-Wiener-Beziehung 141 PAM s. Pulsamplitudenmodulation Papierstreifenfaltung 110 Parit¨ atspr¨ ufung 367 Parseval’sches Theorem 69, 122, 127 Partial-response-Codierung 248 PCM s. Pulscodemodulation periodische Faltung 96 periodische Korrelationsfunktion 128 Phase Locked Loop 286 Phasendifferenztastung 262 Phasenlaufzeit 135, 164 Phasenmodulation 319 Phasenregelkreis 286 Phasenumtastverfahren 261, 274 Phasenverzerrung 145 PLL s. Phase Locked Loop PM s. Phasenmodulation PN-Folge s. Pseudonoise-Folge Polybin¨ ar-Codierung 248 Pr¨ adiktor 296 preemphasis 329 Prewhitening-Filter 402 Pseudoeinheiten 134, 360 Pseudonoise-Folge 342 Pseudotern¨ ar-Code 303
Sachverzeichnis
Pseudozufallszahlen 216 PSK s. Phasenumtastverfahren Pulsamplitudenmodulation 306 Multiplex 329 St¨ orverhalten 316, 379 Pulscodemodulation 288, 380 Pulsformfilter 143 QAM s. QuadraturAmplitudenmodulation Q-Funktion 226 QPSK s. quatern¨ are Phasenumtastung quadratischer Mittelwert 175, 197 QuadraturAmplitudenmodulation 282, 354 Quadratur-Duplex 391 Quadraturkomponenten 154 Quadraturschaltung 160 Quantisierung 222, 289, 406 Quantisierungsfehler 223, 291 Quantisierungskennlinie 223 Quantisierungsrauschen 291 Quantisierungsstufen 223 quatern¨ are Phasenumtastung 275, 400 Quellenalphabet 360 Quellencodierer 238 Quellencodierung 362 Radarempf¨ anger 409 Rademacher-Folge 131 Rahmensynchronisation 288 Rahmentaktzeit 332 raised cosine 57, 68, 242 Rake-Empf¨ anger 348, 388 Rampenfunktion 138 Randverteilung 199 Rate-distortion-Funktion 375 Raummultiplex 349 Rauschbandbreite 230 Rauschen 174 Rauschmodulation 341 Rayleigh-Fading-Kanal 383 Rayleigh-Verteilungsdichtefunktion 274 RC-System 5, 9, 33 Realisation einer Zufallsgr¨ oße 176 eines Zufallsprozesses 176 Rechteckimpuls 3, 44, 66 Rechteckverteilung 195 rect 3 Redundanz 362 rekursives System 88 rep 109 Restseitenband-AM 315 Rice-Fading-Kanal 385 Rice-Verteilungsdichtefunktion 271 Richtungstaktschriftverfahren 246 RL-System 27, 71 Rolloff-Faktor 58
Rundungsfehler 289 sampling s. Abtastung sampling theorem s. Abtasttheorem Sch¨ atztheorie 215 Schar von Zufallssignalen 174 Scharmittelwerte 175 Schieberegistergenerator 342 schnelle Faltung 96 schnelle Fourier-Transformation 96, 113 schnelle Korrelation 128 schwach ergogisch 178 schwach station¨ ar 177 Schwarz’sche Ungleichung 129, 401 Schwelleneffekt 211, 289 bei FM 329, 380 bei PCM 284, 381 Schwellenentscheidung 207 Schwellenwert 193 scrambling 233 SDM s. Raummultiplex Seitenband 163, 314 selbstreziproke Funktionen 51 Sender 189, 237 Sendesignal 237, 239 Shannon-Funktion 363 Shannon-Grenze 376 Shannon’sches Abtasttheorem 78 Shift-and-add-Eigenschaft 343 Siebeigenschaft des Dirac-Impulses 17 si-Funktion 45, 168 Si-Funktion 138, 168 Signal 1, 73 signalangepasstes Filter 191 Signaldauer 136 Signalenergie 115, 126 Signalraum 277, 397 Signalvektor 397 Signum-Funktion 2, 54 SIMO 351 singul¨ are Signale 22 Singul¨ arwerte 386 Sinussignal 1, 48 SISO 350 soft decision 370 space time code 353 Spektrum 31 Sperrbereich 135 Spiegelfrequenzbereich 314 Sprachcodierung 298 spread spectrum-Verfahren 336 Sprungantwort 21 id. Tiefpass 137 id. Bandpass 157 Sprungfunktion 2, 51, 87 stabiles System 23 Standardabweichung 179 station¨ ar im weiten Sinn 177 station¨ arer Prozess 176
443
444
Sachverzeichnis
statistisch unabh¨ angig 196 ¨ Stereofonie-Ubertragung 392 STFT s. Kurzzeit-Fourier-Transformation Streuung 179 Streuungsbreite 232 Summe von Zufallsgr¨ oßen 179, 202 Superpositionssatz bei linearen Systemen 6 bei Fourier-Transformation 39 bei Zufallsgr¨ oßen 178 Symbolsynchronisation 286 Symbolfehlerwahrscheinlichkeit 257, 281, 418 Symmetrieeigenschaft der Fourier-Transformation 43 symmetrisches Bandpasssystem 152 Synchronisation 285 System 5 Systemtheorie 5, 133 Taktzeit 239, 287 thermisches Rauschen 188 TDM s. Zeitmultiplex Tiefpass(-system) 77, 135, 148 Tiefpasssignal 76 Torschaltung 80 TP s. Tiefpass Tr¨ agerfrequenz 151 Tr¨ agerfrequenzverfahren 335 Tr¨ agerleistung 317 Tr¨ agersignal 308 Tr¨ agersynchronisation 286 Transformation(-sgleichung) 6 Transversal-Filter 147 Trellis-Diagramm 368 trelliscodierte Modulation 370 Turbo-Decodierung 370 ¨ Uberabtastung 78 ¨ Uberlagerungsempf¨ anger 313 ¨ Ubermodulation 312 ¨ Uberschwingen 139 ¨ Ubertragungsfunktion 30 ¨ Ubertragungssystem 237 ideales 378 unbalance 343 ungerade Komponente 36 ¨ unipolare Ubertragung 246 unkorreliert 201 unsymmetrisches Bandpasssystem 152 Unterabtastung 78 Varianz 179 verallgemeinerte Differentiation 21 verbunden ergodisch 182 verbunden station¨ ar 181 Verbundmittelwerte 176, 200 Verbundmomente 200 Verbundverteilungsdichtefunktion 199
Verbundverteilungsfunktion 198 Verschiebung, zeitliche 4 Verschiebung des Dirac-Impulses 19 Verschiebungsfaktor 42 Verschiebungsinvarianz 88 Verschiebungssatz 42 Verteilungsdichtefunktion 195 Verteilungsfunktion 193 verzerrungsfreies System 133 Videokompression 298 ¨ Vielfach-Ubertragung 329 Vierphasenumtastung s. quatern¨ are PSK Viterbi-Algorithmus 369 Vorhersagefilter 296 W¨ armerauschen 188 Wahrscheinlichkeit 193 Wahrscheinlichkeitsintegral 204 Wahrscheinlichkeitsverteilungsfunktion 193 Walsh-Funktionen 131, 252, 341 Walsh-Multiplexsystem 341 weißes Rauschen zeitkontinuierlich 186 zeitdiskret 216 wertdiskrete Signale 73 wertkontinuierliche Signale 72 Widerstandsrauschen 188 Wiener-KhintchineTheorem 121, 125, 186 Wiener-Lee-Beziehung 125, 184, 215 Winkelmodulation 318 WiMax 351 wireless LAN 236 z-Transformation 102 Zeit-Bandbreite-Produkt 137, 233 Zeitbereich 32 zeitdiskrete Signale 73 zeitdiskrete Bandpasssysteme 166 zeitdiskrete Systeme 88 zeitdiskrete Tiefpasssysteme 148 Zeitgesetz der Nachrichtentechnik 41, 137 zeitgespiegeltes Signal 4 zeitinvariantes System 4 zeitkontinuierliche Signale 73 Zeitmittelwert 179, 214 Zeitmultiplex-System 332 Zeitsieb 17 zentraler Grenzwertsatz 67, 203 Zufallsgr¨ oße 176 Zufallsprozess 176 zeitdiskret 212 Zufallssignal 173, 212 Zufallsvariable 176 zweidimensionale Gauß-Vert. 206, 224 zweidimensionale Gleichverteilung 200 Zweiseitenband-AM 314 Zwischenfrequenz 314