Digitale Signalverarbeitung 1: Analyse diskreter Signale und Systeme [5 ed.] 9783540782506, 3540782508 [PDF]

Dieser Bestseller von Professor Schüssler ist eine umfassende Darstellung der Analyse diskreter Signale und Systeme in d

159 44 9MB

German Pages 611 [619] Year 2008

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Front Matter....Pages I-XII
Einleitung....Pages 1-11
Diskrete determinierte Signale....Pages 13-128
Stochastische Folgen....Pages 129-219
Diskrete Systeme....Pages 221-290
Kausale, lineare Systeme, beschrieben durch Differenzengleichungen....Pages 291-428
Strukturen....Pages 429-510
Anhang....Pages 511-602
Back Matter....Pages 603-611
Papiere empfehlen

Digitale Signalverarbeitung 1: Analyse diskreter Signale und Systeme [5 ed.]
 9783540782506, 3540782508 [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Digitale Signalverarbeitung 1

Hans W. Schüßler

Digitale Signalverarbeitung 1 Analyse diskreter Signale und Systeme Bearbeitet von Günter Dehner, Rudolf Rabenstein und Peter Steffen Fünfte, neu bearbeitete und ergänzte Auflage

123

Hans W. Schüßler † Universität Erlangen-Nürnberg Erlangen Deutschland

ISBN 978-3-540-78250-6

e-ISBN 978-3-540-78251-3

DOI 10.1007/978-3-540-78251-3 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. c 2008 Springer-Verlag Berlin Heidelberg  Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Einbandgestaltung: eStudio Calamar S. L., F. Steinen-Broo, Girona, Spain Gedruckt auf säurefreiem Papier 987654321 springer.com

Vorwort

Vorwort zur 5. Auflage In den Jahren seit dem Erscheinen der vierten Auflage dieses Buchs hat sich die Digitale Signalverarbeitung von einem eigenst¨andigen Forschungsgegenstand zur Basistechnologie f¨ ur viele Anwendungen entwickelt. Dieser Entwicklung folgend, setzt sich diese f¨ unfte Auflage das Ziel, die klassischen Grundlagen der digitalen Signalverarbeitung mit einer umfangreichen Sammlung von algorithmischen Beispielen zu verbinden. Der Anfang dazu wurde bereits in der vierten Auflage gelegt und ist hier von G. Dehner zu einer vollst¨ andigen Programm-Bibliothek erweitert worden. Dabei soll jedoch nicht etwa die Theorie der Signalverarbeitung hinter einer graphischen Oberfl¨ ache verborgen werden. Stattdessen ist jedes einzelne Programm ein Lehrst¨ uck f¨ ur die praktische Implementierung der mathematischen Beschreibung zeitdiskreter Signale und Systeme. Als Mittel zur Umsetzung wurde die zum Industriestandard gewordene Programmierumgebung ahlt. Die im Text verwendeten Funktionen sind im Anhang MATLAB gew¨ mit einer Kurzbeschreibung aufgef¨ uhrt. Weiter werden Beispiele zur Erstellung der angesprochenen Diagramme gezeigt. Die vollst¨andige Beschreibung der erg¨ anzenden Programm-Bibliothek und deren Quelltext stehen im Internet zum Herunterladen bereit. F¨ ur die umfangreiche Arbeit an den Textdateien und den zahlreichen Zeichnungen geb¨ uhrt Frau Sperk und Frau Koschny Dank. Ebenfalls sei dem Verlag f¨ ur die gute Zusammenarbeit gedankt. Leider war es Herrn Prof. Dr. H. W. Sch¨ ußler, dem Autor dieses Buchs, nicht mehr verg¨ onnt, dieses Vorhaben bis zum Ende zu begleiten. Daher ist diese Neuauflage auch seinem Andenken als Pionier der digitalen Signalverarbeitung gewidmet. Erlangen, im Januar 2008 G¨ unter Dehner

Rudolf Rabenstein

Peter Steffen

VI

Vorwort

Vorwort zur 4. Auflage Die hier vorgelegte vierte Auflage des ersten Teils der Digitalen Signal” verarbeitung“ ist eine stark erweiterte und v¨ollig neu geschriebene Fassung der Darstellung von 1988. Die sehr schnelle Entwicklung des Gebietes hat eine Neubearbeitung erforderlich gemacht. Neben der vorhersehbaren Erweiterung der Anwendungsm¨ oglichkeiten der Signalverarbeitung haben sich auch in den Grundlagen neue Ergebnisse und ge¨ anderte Bewertungen ergeben, die bei einer n¨ otig gewordenen Neuauflage zu ber¨ ucksichtigen waren. Die starke Steigerung des Interesses an diesem Gebiet wurde weiterhin durch die Fortschritte der Mikroelektronik sehr gef¨ordert. Die verf¨ ugbaren leistungsf¨ ahigen Signalprozessoren erleichtern wesentlich die Erschließung neuer Anwendungen. Hinzu kamen die Verbesserung der Entwicklungswerkzeuge, der PCs und Arbeitsplatzrechner, deren Leistungsf¨ahigkeit auf vielen Gebieten sogar unmittelbar den Einsatz von Algorithmen der Signalverarbeitung in Realzeit gestattet. Dabei hat auch die Verwendung geeigneter Software einen großen Einfluß. Es entstanden eine Reihe von allgemein verwendbaren anwenderfreundlichen Interpretersprachen zur Ausf¨ uhrung von arithmetischen Operationen, mit denen auch der Zugang zu den Methoden der Signalverarbeitung wesentlich erleichert wurde. Sie werden inzwischen f¨ ur sehr umfangreiche Aufgabenstellungen eingesetzt und f¨ uhren schnell zu L¨osungen. Wichtig ist, daß sie im Zusammenhang mit der Lehre verwendet werden. Das gilt selbstverst¨ andlich f¨ ur die Durchf¨ uhrung studentischer Arbeiten, aber auch f¨ ur ¨ Ubungen zur Signalverarbeitung. Zu erw¨ ahnen ist weiterhin, daß in den letzten Jahren zu einigen grundlegenden Aussagen und Fragestellungen ein weitergehendes Verst¨andnis und neue Erkenntnisse erreicht worden sind. All dies ist in einer Neuauflage zu ber¨ ucksichtigen, deren Fertigstellung noch vor Abschluß der Arbeiten am bereits angek¨ undigten zweiten Band zweckm¨ aßig erschien. Mit dem hier vorgelegten Buch wird eine weitgehende Darstellung der Kenntnisse u ¨ber die Analyse digitaler Signale und der Systeme zu ihrer Verarbeitung angestrebt. Zugleich soll aber der Zugang zu dem Gebiet durch einfache Beispiele und zahlreiche Bilder erleichtert und damit auch die Verwendung des Buches in der Lehre und vor allem zum Selbststudium m¨oglich werden. ¨ Inhaltlich haben sich gegen¨ uber der letzten Auflage die folgenden Anderungen ergeben: Das Kapitel u ¨ber die Analyse determinierter Signale wurde erg¨ anzt. Insbesondere wurde der Abschnitt u ¨ber die Diskrete Fouriertransformation durch die Behandlung der schnellen Algorithmen zu ihrer andigt. Stochastische Signale werden jetzt in einem eiDurchf¨ uhrung vervollst¨ genen Kapitel behandelt. Dabei wurde insbesondere eine Darstellung der verschiedenen meßtechnischen M¨ oglichkeiten zur Bestimmung von Sch¨atzwerten f¨ ur die Kenngr¨ oßen der Prozesse aufgenommen. Im 4. Kapitel u ¨ber die Theorie allgemeiner, speziell linearer Systeme und ihrer Eigenschaften im Zeit- und Frequenzbereich wurde insbesondere der Ab-

Vorwort

VII

schnitt u ¨ber kausale und minimalphasige Systeme wesentlich erweitert; ein neuer Abschnitt u ¨ber Multiratensysteme wurde aufgenommen. Das 5. Kapitel u ¨ber Systeme, die durch lineare Differenzengleichungen beschrieben werden, wurde insbesondere in den Abschnitten u ¨ber Stabilit¨at, den Frequenzgang und u anzt. Ein neuer Unterabschnitt u ¨ber minimalphasige Systeme erg¨ ¨ber passive Systeme wurde aufgenommen, andere weitgehend u ¨berarbeitet. Den Strukturen ist jetzt ein eigenes Kapitel gewidmet. Erweitert wurden die Abschnitte u asse, Systeme aus gekoppelten Allp¨assen und ¨ber Allp¨ Leiterstrukturen; neu ist ein Abschnitt u ¨ber Blockverarbeitung in rekursiven Systemen. Neu ist auch, daß an zahlreichen, geeignet erscheinenden Stellen beschrieben wurde, wie die vorher erkl¨ arten Beziehungen mit Hilfe von Befehlen der inzwischen viel verwendeten Interpretersprache MATLAB ausgewertet werden k¨ onnen. Dort werden gegebenenfalls auch zus¨ atzliche Programme f¨ ur weitere Aufgaben in Kurzform angegeben. Damit wird die Behandlung auch von numerisch anspruchsvollen Beispielen wesentlich erleichtert. Lehrerfahrungen haben gezeigt, daß auf diese Weise das Verst¨ andnis auch komplizierter Zusammenh¨ ange schneller erreicht werden kann. Der geplante zweite Band wird sich mit dem Entwurf digitaler Systeme f¨ ur unterschiedliche Aufgabenstellungen befassen sowie Realisierungsprobleme unter Ber¨ ucksichtigung der Wortl¨ angeneffekte behandeln. Es ist vorgesehen, auch dort Programme f¨ ur die verschiedenen Entwurfsverfahren und die Bestimmung der Eigenschaften realisierter Systeme anzugeben. Das Buch basiert weitgehend auf Vorlesungen u ¨ber Signalverarbeitung, die seit vielen Jahren an der Universit¨ at Erlangen-N¨ urnberg gehalten werden, auf Ergebnissen von Dissertationen und studentischen Arbeiten u ¨ber Teilproble¨ me sowie auf Erfahrungen mit rechnergest¨ utzten Ubungen zu dem Gebiet. ¨ Bei der Uberarbeitung waren mir zu einzelnen Abschnitten der Rat und die Hinweise der Herren Dr. Dittrich, Krauß, Martin, Professor Mecklenbr¨auker, Dr. Rabenstein und Reng sehr wichtig. Besonders erw¨ahnen m¨ochte ich die Hilfe von Dr. Steffen, der mir f¨ ur das ganze Buch ein kritischer Gespr¨achspartatzlichen Programme stammt von den ner war. Ein Teil der angegebenen zus¨ Herren Heinle, Krauß, Schulist und Schwarz. Bei der m¨ uhevollen Arbeit des Korrekturlesens haben mir insbesondere die Herren Krauß und Dr. Steffen, bei einzelnen Abschnitten die Herren Dr. Dittrich, Heinle, Martin und Dr. Rabenstein geholfen. Die Reinschrift des Textes und die Anfertigung der zahlreichen Zeichnungen haben in bew¨ ahrter Weise Frau B¨artsch, Frau Koschny und Frau Sperk u ¨bernommen. Ihnen allen danke ich sehr. Mein Dank gilt weiterhin dem Springer-Verlag f¨ ur die gute Zusammenarbeit und das Eingehen auf meine W¨ unsche. Erlangen, im August 1994

H.W. Schu ¨ ßler

Inhaltsverzeichnis

1

Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2

Diskrete determinierte Signale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.1 Einf¨ uhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.2 Betrachtung im Zeitbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.3 Betrachtung im Frequenzbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.3.1 Periodische Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.3.2 Spektren allgemeiner Folgen . . . . . . . . . . . . . . . . . . . . . . . . 24 2.3.3 Das Abtasttheorem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 2.4 Die Diskrete Fouriertransformation . . . . . . . . . . . . . . . . . . . . . . . . 44 2.4.1 Definition und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 2.4.2 S¨atze der Diskreten Fouriertransformation . . . . . . . . . . . . 51 2.4.3 Die DFT in Matrizenschreibweise . . . . . . . . . . . . . . . . . . . . 61 2.4.4 Die schnelle Fouriertransformation . . . . . . . . . . . . . . . . . . . 66 2.5 Die Z-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 2.5.1 Definition und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85 2.5.2 S¨atze der Z-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . 89 2.5.3 Zweiseitige Z-Transformation . . . . . . . . . . . . . . . . . . . . . . . 95 2.5.4 Die R¨ ucktransformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 2.5.5 Weitere Beziehungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 2.6 Orthogonaltransformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 2.6.1 Einf¨ uhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 2.6.2 Ein Satz orthonormaler, zeitl. unbegrenzter Folgen . . . . 118 2.6.3 Diskrete Sinustransformationen . . . . . . . . . . . . . . . . . . . . . 120 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

3

Stochastische Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 3.1 Betrachtung im Zeitbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 3.1.1 Einf¨ uhrung und grundlegende Beziehungen . . . . . . . . . . . 129 3.1.2 Funktionen einer Zufallsvariablen . . . . . . . . . . . . . . . . . . . . 139

X

Inhaltsverzeichnis

3.1.3 Erwartungswert, Charakteristische Funktion . . . . . . . . . . 145 3.1.4 Zwei Zufallsvariablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 3.1.5 Summen und Produkte von Zufallsvariablen . . . . . . . . . . 157 3.1.6 Korrelation und Kovarianz . . . . . . . . . . . . . . . . . . . . . . . . . 162 3.1.7 Zeitmittelwerte, Ergodische Prozesse . . . . . . . . . . . . . . . . . 166 3.2 Betrachtung im Frequenzbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 3.3 Messung von Kenngr¨ oßen stochastischer Prozesse . . . . . . . . . . . . 173 3.3.1 Mittelungen quer zum Prozeß . . . . . . . . . . . . . . . . . . . . . . 173 3.3.2 Mittelungen in Zeitrichtung . . . . . . . . . . . . . . . . . . . . . . . . . 180 3.3.3 N¨ aherungsweise Bestimmung der Verteilungsdichte . . . . 184 3.3.4 Messung von Kovarianzfolgen . . . . . . . . . . . . . . . . . . . . . . . 186 3.3.5 Sch¨ atzung des Leistungsdichtespektrums . . . . . . . . . . . . . 191 3.4 Abtastung stochastischer Funktionen . . . . . . . . . . . . . . . . . . . . . . . 202 3.5 Quantisierungseffekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 3.5.1 Analog-Digital-Umsetzung . . . . . . . . . . . . . . . . . . . . . . . . . . 205 3.5.2 Realer Multiplizierer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217 4

Diskrete Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 4.1 Systemeigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 4.2 Beschreibung von linearen Systemen im Zeitbereich . . . . . . . . . . 223 4.3 Beschreibung von linearen, zeitinvarianten Systemen im Frequenzbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 ¨ 4.3.1 Definition der Ubertragungsfunktion . . . . . . . . . . . . . . . . . 229 4.3.2 Reellwertige Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 4.3.3 Komplexwertige Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 4.4 Idealisierte lineare, zeitinvariante Systeme . . . . . . . . . . . . . . . . . . 238 ¨ 4.4.1 Aquivalente Folgen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238 ¨ 4.4.2 Verzerrungsfreie Ubertragung . . . . . . . . . . . . . . . . . . . . . . . 243 4.4.3 Idealisierter digitaler Tiefpaß . . . . . . . . . . . . . . . . . . . . . . . 244 4.4.4 Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246 4.4.5 Systeme linearer Phase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247 4.5 Kausale, lineare, zeitinvariante Systeme . . . . . . . . . . . . . . . . . . . . 251 4.5.1 Kausalit¨ at und Minimalphasigkeit . . . . . . . . . . . . . . . . . . . 251 4.5.2 Passive verlustlose Systeme . . . . . . . . . . . . . . . . . . . . . . . . . 262 4.6 Reaktion auf ein Zufallssignal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268 4.7 Multiratensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276 4.7.1 Einf¨ uhrung und grundlegende Beschreibung . . . . . . . . . . . 276 4.7.2 Polyphasendarstellung von Signalen und Systemen . . . . . 285 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289

Inhaltsverzeichnis

XI

5

Kausale, lineare Systeme, beschrieben durch Differenzengleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291 5.1 Vorbemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291 5.2 Beschreibung und Basisstrukturen linearer Systeme . . . . . . . . . . 294 5.2.1 Einf¨ uhrende Beispiele zu Systemen 2. Ordnung . . . . . . . . 294 5.2.2 Verallgemeinerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300 5.2.3 Transformation von Zustandsvektoren . . . . . . . . . . . . . . . . 315 5.2.4 Steuerbarkeit und Beobachtbarkeit . . . . . . . . . . . . . . . . . . 317 5.3 Untersuchung im Zeitbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322 5.3.1 Allgemeine L¨ osung der Systemgleichung . . . . . . . . . . . . . . 322 5.3.2 Zusammenhang mit allgemeinen linearen Systemen . . . . 330 5.3.3 Zeitverhalten zweier ¨ aquivalenter Systeme zweiten Grades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333 5.3.4 Reaktion des Systems auf ein Zufallssignal . . . . . . . . . . . . 338 5.4 Die L¨ osung der Systemgleichung im Frequenzbereich . . . . . . . . . 341 5.4.1 Differenzengleichung zweiter Ordnung . . . . . . . . . . . . . . . . 341 5.4.2 Behandlung des allgemeinen Falles . . . . . . . . . . . . . . . . . . . 344 ¨ 5.5 Eigenschaften der Ubertragungsfunktion . . . . . . . . . . . . . . . . . . . . 349 5.5.1 Stabilit¨ at . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349 5.5.2 Kausalit¨ at . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359 5.5.3 Frequenzgang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360 5.5.4 Beziehungen zwischen den Komponenten einer ¨ Ubertragungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372 5.5.5 Verfahren zur Messung der Eigenschaften von Systemen 380 5.6 Spezielle Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391 5.6.1 Allp¨ asse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391 5.6.2 Minimalphasige Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . 397 5.6.3 Passive Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410 5.6.4 Bedingt stabile Systeme zur Spektralanalyse . . . . . . . . . . 414 5.6.5 Nichtkausale“ Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417 ” 5.6.6 Nichtrekursive Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427

6

Strukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429 6.1 Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429 6.2 Allp¨ asse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435 6.3 Blockverarbeitung in rekursiven Systemen . . . . . . . . . . . . . . . . . . 441 6.4 Nichtrekursive Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 449 6.4.1 Realisierung nach der Radix-2 Filtermethode“ . . . . . . . . 450 ” 6.4.2 Realisierung mit Schneller Faltung“ . . . . . . . . . . . . . . . . . 452 ” 6.5 Wellendigitalfilter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 458 6.5.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 458 6.5.2 Bauelemente und ihre Verbindungen . . . . . . . . . . . . . . . . . 462 6.5.3 Entwicklung der Strukturen . . . . . . . . . . . . . . . . . . . . . . . . 469 6.6 Systeme aus gekoppelten Allp¨ assen . . . . . . . . . . . . . . . . . . . . . . . . 480

XII

Inhaltsverzeichnis

6.6.1 Reellwertige Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 480 6.6.2 Komplexwertige Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . 488 6.6.3 Bestimmung der Teil¨ ubertragungsfunktionen eines gekoppelten Allpasses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 491 6.7 Leiterstrukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 495 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 508 7

Anhang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 511 7.1 Simulation der Systeme mit MATLAB . . . . . . . . . . . . . . . . . . . . . 511 7.1.1 Zur Verwendung von MATLAB . . . . . . . . . . . . . . . . . . . . . 511 7.1.2 DSV-Bibliothek . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 514 ¨ 7.1.3 Filterstrukturen in der Ubersicht . . . . . . . . . . . . . . . . . . . . 515 7.1.4 Zusammenstellung der verwendeten MATLAB Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 520 7.1.5 Dokumentation der DSV-Funktionen . . . . . . . . . . . . . . . . . 549 7.1.6 Implementierung von diskreten Systemen als Datenobjekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 549 ¨ 7.1.7 Ubungsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 552 7.2 Signalflußgraphen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 585 7.3 Einige Matrizenoperationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 589 7.3.1 Aufgabenstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 589 7.3.2 Eigenschaften der Matrix A . . . . . . . . . . . . . . . . . . . . . . . . 590 ¨ 7.3.3 Bestimmung der Ubertragungsmatrix . . . . . . . . . . . . . . . . 594 7.4 Spiegelpolynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 596 7.4.1 Reelle Polynome mit Spiegeleigenschaften . . . . . . . . . . . . 596 7.4.2 Komplexwertige Spiegelpolynome . . . . . . . . . . . . . . . . . . . . 600 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 602

Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 603

1 Einleitung

Die Aufgabe der digitalen Signalverarbeitung wird vordergr¨ undig durch das Wort selbst beschrieben: Es geht um die Verarbeitung von Signalen mit digitalen Verfahren. Aber die hier verwendeten Begriffe bed¨ urfen zumindest einer kurzen Erl¨ auterung. Ein Signal ist im allgemeinen eine physikalische Erscheinung, die zugleich Tr¨ ager einer Nachricht ist. Nur in dieser Eigenschaft ist es f¨ ur uns von Interesse. Die Nachricht wiederum ist dadurch gekennzeichnet, daß sie potentiell geeignet ist, dem Empf¨ anger einen Kenntniszuwachs zu bringen. Sie ist also sicher nicht physikalischer Natur. Signale k¨ onnen in unterschiedlichen Formen vorliegen. Ein Bild oder ein gedruckter Text kann Nachrichten tragen, es kann sich um einen Zeitvorgang handeln, z.B. die Schalldruckfunktion bei gesprochenen Worten oder das Ergebnis der Messung bei einem Experiment. Die Verarbeitung des Signals bedeutet dann die Umsetzung in eine andere Form derart, daß die interessierende Nachricht f¨ ur den Empf¨anger besser zug¨anglich wird. Eine solche Verarbeitung leistet z.B. der Mensch, der aus einem sehr komplexen, von einer Vielzahl von Nebenger¨ auschen begleiteten Schallereignis eine gesprochene Information zu entnehmen vermag. Derartige sehr beeindruckende Beispiele f¨ ur eine analoge Signalverarbeitung gibt es u urli¨berall in der nat¨ chen Umwelt. Aber auch in der Technik setzt man analoge Mittel ein, f¨ ur die kennzeichnend ist, daß sie analoge Signalfunktionen, d.h. f¨ ur alle Werte der unabh¨ angigen Variablen definierte i.allg. kontinuierliche Funktionen zu behandeln verm¨ ogen. Entsprechend setzt die digitale Verarbeitung voraus, daß die Signale in Form von diskreten Werten bzw. Wertefolgen vorliegen, die als Zahlen oder Symbole dargestellt werden. Das ist sicher dann der Fall, wenn die Information prim¨ ar aus Zahlen besteht. Sollen dagegen Signalfunktionen mit digitalen Mitteln verarbeitet werden, so ist offenbar zun¨achst die Umsetzung des urspr¨ unglichen analogen Signals v0 (t) in eine in der Regel ¨aquidistante Folge von Zahlenwerten v(k) = v0 (t = kT ) erforderlich, denn nur die kann das digitale System dann mit einem f¨ ur die vorliegende Aufgabe geeigneten Algorithmus

2

1 Einleitung

Abb. 1.1. Schema einer digitalen Signalverarbeitung

verarbeiten. Gegebenenfalls ist dann noch eine Umsetzung der Ausgangswerte y(k) in ein wiederum analoges Signal y0 (t) erforderlich (Bild 1.1). Das digitale System wird dabei z.B. mit einem Allzweckrechner zu realisieren sein, der geeignet programmiert ist, oder mit einem auf die Aufgabe zugeschnittenen speziellen Ger¨ at. Die digitale — oder in diesem Fall besser diskrete — Verarbeitung von Signalen begann, als man anfing, Zusammenh¨ange zwischen kontinuierlichen Funktionen durch die Untersuchung der Beziehungen zwischen diskreten Werten dieser Funktionen zu bestimmen. In dieser Weise haben z.B. die Astronomen des 17. und 18. Jahrhunderts die Gesetze der Bewegung der Himmelsk¨ orper gefunden. Dieses Vorgehen basierte auf der zun¨achst intuitiven Sicherheit, daß es m¨ oglich sein muß, mit einer Folge von diskreten Zahlen eine kontinuierliche Funktion exakt zu erfassen, wenn diese Werte der Funktion nur in hinreichend kleinen Abst¨ anden entnommen werden. Diese Annahme ist z.B. auch die Basis f¨ ur die numerischen Methoden zur L¨osung von Differentialgleichungen. Generell sind die Zusammenh¨ange zwischen der numerischen Mathematik und der digitalen Signalverarbeitung sehr eng. Verfahren zur numerischen Differentiation, Integration oder Interpolation liefern n¨aherungsweise oder — unter bestimmten Voraussetzungen — exakt die Zahlenwerte der jeweils gew¨ unschten Funktion als L¨ osung einer Differenzengleichung, bei der Abtastwerte der bekannten Eingangsfunktion verwendet werden. Damit ist zugleich das Verarbeitungsschema gegeben. Dar¨ uber hinaus liefert die Signalverarbeitung f¨ ur diese Probleme auf der Basis variierter Kriterien andere L¨ osungen, die manchen Anwendungen besser angepaßt sind. Wir kommen weiter unten beim Beispiel der numerischen Differentiation darauf zur¨ uck. Signalfunktionen lassen sich bekanntlich nicht nur in der urspr¨ unglichen gegebenen Form, z.B. in ihrer Abh¨ angigkeit von der Zeit angeben. In vielen F¨ allen ist es zweckm¨ aßig, eine ¨ aquivalente Beschreibung zu verwenden, insbesondere in Gestalt des Spektrums, d.h. der Fouriertransformierten der Funktion. Das gleiche gilt f¨ ur Folgen, f¨ ur die man ebenfalls eine ¨aquivalente spektrale Darstellung angeben kann. Wir werden diese Aufgabe ausf¨ uhrlich in Abschnitt 2.3 behandeln. Bild 1.2 zeigt als Beispiel das Spektrum einer Rechteckfolge im Vergleich zu dem eines Rechteckimpulses. Offenbar gibt es Verwandtschaften; wesentlich ist aber, daß man f¨ ur die Folge v(k) ein periodisches Spektrum erh¨ alt im Gegensatz zu dem der Funktion v0 (t). Dieser prinzipielle Unterschied der Spektren l¨ aßt es zun¨achst fraglich erscheinen, ob

1 Einleitung

3

die Darstellung einer Funktion durch ihre Abtastwerte u ¨berhaupt m¨oglich ist. Die Voraussetzungen, unter denen aus den Abtastwerten die urspr¨ ungliche Funktion rekonstruiert werden kann, sind Gegenstand der Aussage des Abtasttheorems, das wir in Abschn. 2.3.3 behandeln.

Abb. 1.2. Rechteckfolge und Rechteckimpuls und ihre Spektren

Die periodische Spektralfunktion einer Folge l¨aßt sich ihrerseits diskretisieren. Unter bestimmten Voraussetzungen sind die dabei entstehenden Abtastwerte im Spektralbereich zur angen¨ aherten Berechnung des Spektrums der urspr¨ unglichen kontinuierlichen Funktion geeignet. Das ist deshalb von großer praktischer Bedeutung, weil diese Folge von Spektralwerten mit sehr effizienten Methoden, der sogenannten schnellen Fouriertransformation, aus der Wertefolge im Zeitbereich berechnet werden kann. Damit wird die Bestimmung des Spektrums auch dann m¨ oglich, wenn die Fouriertransformation nicht geschlossen durchgef¨ uhrt werden kann. Wir werden im Abschn. 2.4.4 darauf eingehen. Die Entwicklung der digitalen Signalverarbeitung wurde nat¨ urlich sehr stark von der Elektrotechnik her beeinflußt. Die dort im Zusammenhang mit der L¨ osung linearer Differentialgleichungen entwickelten Begriffe wie Impulsund Sprungantwort zur Beschreibung des Zeitverhaltens eines Systems so¨ wie vor allem Ubertragungsfunktion und Frequenzgang zur Kennzeichnung im Frequenzbereich ließen sich leicht auf diskrete Systeme u ¨bertragen, die durch lineare Differenzengleichungen beschrieben werden. Damit verbunden ¨ war die Ubernahme vertrauter Aufgabenstellungen wie der Entwurf von Filtern mit gew¨ unschtem Selektionsverhalten, aber auch die M¨oglichkeit, die Eigenschaften von Verfahren der numerischen Mathematik in ungewohnter Weise, n¨ amlich durch Angabe eines Frequenzgangs zu beschreiben. Bild 1.3a zeigt ein einfaches System zur numerischen Differentiation, das durch

4

1 Einleitung

1 [v(k) − v(k − 1)] (1.0.1) T beschrieben wird. Das angegebene Blockschaltbild enth¨alt einen Speicher zur Verz¨ ogerung eines Zahlenwerts um T = 1 sowie ein Element zur Subtraktion von Zahlenwerten. Dargestellt sind zun¨ achst die Reaktionen h0 (k) und h−1 (k) ⎧ ⎧ ⎨1 k = 0 ⎨1 k ≥ 0 auf den und die γ0 (k) := γ−1 (k) := ⎩ ⎩ Impuls Sprungfolge 0 k = 0 0 k < 0. y(k) =

Abb. 1.3. Systeme zur numerischen und exakten Differentiation und ihre Beschreibung im Zeit- und Spektralbereich

Im Bild 1.3b sind zum Vergleich Impuls- und Sprungantwort eines idealisierten kontinuierlichen Differenzierers angegeben. Bemerkenswert ist der Frequenzgang des diskreten Systems. Entsprechend dem Vorgehen bei der komplexen Wechselstromrechnung erhalten wir ihn, wenn wir in (1.0.1)

1 Einleitung

5

v(k) = ejΩk , ∀k einsetzen (s. Abschn. 4.3). Nach elementarer Umformung folgt y(k) = je−jΩ/2 · 2 sin

Ω jΩk ·e =: H(ejΩ ) · ejΩk . 2

(1.0.2)

Das Bild 1.3a zeigt |H(ejΩ )|. Die mit wachsender Frequenz gr¨oßer werdenden Abweichungen von dem Betragsfrequenzgang des idealen Differenzierers ergeben sich, weil die Ann¨ aherung eines Differentialquotienten durch einen Differenzenquotienten umso schlechter wird, je st¨arker sich die zu differenzierende Funktion v0 (t) zwischen den Abtastpunkten zu ¨andern vermag. Diese sehr pauschale Aussage u ¨ber eine Eigenschaft von v0 (t) werden wir im Abschn. 2.3.2 genauer formulieren. Andererseits stellt sich hier die Aufgabe, einen Algorithmus zur numerischen Differentiation zu entwickeln, in variierter Form. Sie erscheint als Approximationsproblem im Frequenzbereich, bei dem der Wunschfrequenzgang jΩ durch den des zu entwerfenden Systems anzun¨ahern ist. Wir werden diese Aufgabe in Bd. II neben anderen aus der numerischen Mathematik behandeln. Als ein zweites Beispiel betrachten wir ein System, das durch die Differenzengleichung (1.0.3) y(k + 1) = −c0 · y(k) + v(k) beschrieben wird (Bild 1.4a). Hier ergibt sich ein Wert der Ausgangsfolge y(k) aus einer Linearkombination des vorher errechneten Ausgangswertes und eines Wertes der Eingangsfolge v(k). Das Blockschaltbild enth¨alt außer Speicher und Addierer einen Baustein f¨ ur die Multiplikation mit −c0 . Durch schrittweise Rechnung erh¨ alt man hier bei Impulserregung die exponentielle Ausgangsfolge h0 (k) = (−c0 )k−1 , k ≥ 1. Das kontinuierliche Pendant ist ein RC-Glied, f¨ ur das die Differentialgleichung y0 (t) =

1 [−y0 (t) + v0 (t)] RC

(1.0.4)

gilt.Das Bild 1.4b zeigt wieder Impuls- und Sprungantworten beider Systeme sowie die Frequenzg¨ ange. Abgesehen von einer Verschiebung um einen Schritt stimmen die h0 (k) mit den Abtastwerten der Impulsantwort h0 (τ ) des RC-Gliedes u ¨berein, wenn ahlt. Entsprechendes gilt, bis auf eine multiplikative man c0 und T geeignet w¨ Konstante, f¨ ur die Sprungantworten. Wesentliche Unterschiede zeigen sich dagegen im Frequenzgang, f¨ ur den wir beim diskreten System, wie schon vorher bei der numerischen Differentiation, eine periodische Funktion erhalten. Die Bestimmung der das Verhalten diskreter Systeme beschreibenden Gr¨ oßen werden wir im 4. und 5. Kap. ausf¨ uhrlich behandeln. Die hier vorgestellten Beispiele sollten lediglich die engen Verwandtschaften, aber auch die Unterschiede zwischen diskreten und kontinuierlichen Systemen zeigen. Ausf¨ uhrlicher werden diese Beziehungen z.B. in [1.1] dargestellt. Sie sind die Basis f¨ ur die Anwendung der Signalverarbeitung bei der Simulation analoger Schaltungen auf dem Digitalrechner, mit der eine Analyse des Verhaltens

6

1 Einleitung

Abb. 1.4. Diskretes und kontinuierliches System erster Ordnung. Das Verhalten der Systeme im Zeit- und Frequenzbereich

erfolgen und eine optimale Dimensionierung vor einer Realisierung als kontinuierliches System gefunden werden kann. Aufgabenstellungen dieser Art bestimmten in den 50er und 60er Jahren zun¨achst die Entwicklung der digitalen Signalverarbeitung [1.2]. Der technologische Fortschritt hat hier inzwischen zu einer wesentlichen ¨ Anderung gef¨ uhrt. Digitale Systeme werden jetzt an Stelle von analogen unmittelbar f¨ ur die permanente Signalverarbeitung in Realzeit verwendet. Wichtiger ist aber noch, daß auch komplizierte Algorithmen ausgef¨ uhrt werden k¨ onnen, die einer analogen Realisierung gar nicht oder nur sehr eingeschr¨ankt zug¨ anglich sind. Das gilt z.B. f¨ ur adaptive Verfahren, wie sie bei der Datenu ¨bertragung oder der Sprachkodierung erforderlich sind. Verfahren der digi-

1 Einleitung

7

talen Signalverarbeitung wurden damit auch in Bereichen der Konsumelektronik eingesetzt. Sie haben inzwischen z.B. mit der Compact Disc oder beim Mobilfunk weite Verbreitung gefunden. Die Anwendungsm¨ oglichkeiten gehen aber inzwischen weit u ¨ber den Bereich der Nachrichtentechnik hinaus. Der Einsatz von Signalverarbeitungsmethoden in der Steuer- und Regelungstechnik oder bei Aufgaben der Energieund Medizintechnik w¨ achst sehr schnell. Ihre Verwendung bei meßtechnischen Aufgaben in allen naturwissenschaftlichen Gebieten ist heute selbstverst¨andlich, meistens allerdings ohne Bezug auf den Zusammenhang mit den hier zu behandelnden allgemeinen Aussagen. Wir stellen die M¨ oglichkeiten zur Realisierung digitaler Systeme zusammen, nennen aus heutiger Sicht ihre Vor- und Nachteile und die wichtigsten Anwendungen. 1. Allzweck-Digitalrechner sind vor allem als PC’s und Arbeitsplatzrechner allgemein verf¨ ugbar. Sie bieten volle Flexibilit¨ at und gestatten die Behandlung von Aufgaben der Signalverarbeitung nach minimaler Vorbereitungszeit, insbesondere bei Verwendung geeigneter Programmsysteme wie MATLAB. Sie sind ein hervorragendes Werkzeug f¨ ur die Entwicklung und Erprobung von Algorithmen. Ihr permanenter Einsatz f¨ ur Realzeitaufgaben ist schon wegen der vergleichweise geringen Geschwindigkeit i.allg. nicht sinnvoll. 2. Mikroprozessoren handels¨ ublicher Art (Reduced Instruction-Set Computer) sind in ihrer Architektur nicht speziell auf Aufgaben der Signalverarbeitung zugeschnitten. Sie bieten aber eine hohe Flexibilit¨at bei niedrigem Preis und lassen sich f¨ ur eine Vielzahl von Realzeitaufgaben mit entsprechenden Geschwindigkeitsanforderungen permanent verwenden. 3. Universelle integrierte Signalprozessoren mit Festkomma- oder Gleitkommaarithmetik haben eine den Algorithmen der Signalverarbeitung angepaßte Struktur. Insbesondere gestatten sie eine interne Parallelverarbeitung durch unabh¨ angige Arithmetik- und Steuereinheiten und entsprechend mehrere Speicherbereiche und Busse. Es ist bemerkenswert, daß z.B. die Zeit f¨ ur die Ausf¨ uhrung einer schnellen Fouriertransformation in den letzten Jahren durch technologische Verbesserungen um den Faktor 4, durch zweckm¨aßige Ver¨ anderungen der Struktur um den Faktor 10 reduziert werden konnte. Integrierte Signalprozessoren sind auf Mikroebene programmierbar. Sie werden f¨ ur Signalverarbeitungsaufgaben in Realzeit zumindest bei kleiner und mittlerer St¨ uckzahl der Ger¨ate eingesetzt. 4. Spezielle integrierte Systeme sind Bausteine, die f¨ ur eine bestimmte Aufgabe entwickelt werden und diese optimal, d.h. mit minimalem Aufwand l¨osen k¨ onnen. Sie sind das geeignete Werkzeug f¨ ur die Ausf¨ uhrung eines festgelegur ten Algorithmus in einer großen Zahl identischer Ger¨ate. Z.B. wurden sie f¨ Compact-Disc Spieler und den Mobilfunk entwickelt. Wir betrachten eine bei jedem mit digitalen Bausteinen realisierten Ger¨at auftretende Erscheinung. Wie stets bei natur- und ingenieurwissenschaftlichen Problemen geht auch die Analyse und Synthese von Systemen der Signalverarbeitung zun¨ achst nicht von der Realit¨at, sondern zur Erleichterung

8

1 Einleitung

der Aufgabe von einer modellhaften Beschreibung aus, die zwangsl¨aufig nur approximativen Charakter haben kann. Bei digitalen Systemen bedeutet das insbesondere, daß wir alle auftretenden Werte als Elemente der Menge der reellen bzw. komplexen Zahlen behandeln. In einem realen Rechenwerk k¨onnen aber immer nur endlich viele verschiedene Zahlen dargestellt und verarbeitet werden, die ein ganzzahliges Vielfaches einer Quantisierungsstufe Q sind. Das hat u.a. zur Folge, daß das Ergebnis einer Multiplikation in der Regel z.B. durch Rundung in eine im Ger¨ at darstellbare Zahl der Form λQ u uhrt ¨berf¨ wird, wobei λ eine ganze Zahl innerhalb eines eingeschr¨ankten Bereichs ist. Damit wird das urspr¨ unglich zur L¨ osung einer linearen Differenzengleichung realisierte System zwangsl¨ aufig nichtlinear. Wir erl¨autern die entstehende Abweichung vom Verhalten des linearen Modells am Beispiel des durch (1.0.3) beschriebenen Systems erster Ordnung. Die Anordnung von Bild 1.4a ist durch einen Block zu erg¨ anzen, der die Rundung des Multiplikationsergebnisses vornimmt (s. Bild 1.5). Alle auftretenden Folgen sind jetzt quantisiert. Wir nehmen nun an, daß c0 = −(1 − 2−6 ) ist und eine Erregung mit ⎧ −6 k≥0 ⎨2 v(k) = ⎩ 0 k n

(2.3.8a)

und w¨ ahlt man die Zahl der Abtastwerte pro Periode M ≥ 2n + 1, ⎧ ⎨ cν ,

so ist c˜ν =



(2.3.8b)

ν = 0(1)M/2 (2.3.8c)

cν−M , ν = (M/2 + 1)(1)(M − 1).

Hier ist M/2 die gr¨ oßte ganze Zahl ≤ M/2. Die Aussage (2.3.7) und die mit (2.3.8) ausgedr¨ uckten Folgerungen sind eine Verallgemeinerung der im letzten Abschnitt bei der Abtastung einer sinusf¨ormigen Funktion gefundenen Ergebnisse (2.2.10a-e). Die Bedingung (2.3.8b) bedeutet, daß innerhalb einer Periode der in v0 (t) enthaltenen Sinusfunktion mit der h¨ochsten Freussen. Das entspricht quenz nω0 mindestens zwei Abtastungen stattfinden m¨ der Beziehung (2.2.10e). Die Gln. (2.3.8) geben auch an, unter welchen Bedingungen und wie die Koeffizienten cν exakt aus den c˜ν gewonnen werden k¨onnen. Ist (2.3.8a) nicht erf¨ ullt, v0 (t) also nicht spektral begrenzt, so ist mit Hilfe von (2.3.8c) nur oglich. Zur Absch¨atzung des dabei eine n¨ aherungsweise Bestimmung der cν m¨ gemachten Fehlers nehmen wir an, daß v0 (t) stetig ist und Ableitungen besitzt, von denen die ersten − 1 stetig sind und die -te u ¨ber eine Periode

2.3 Betrachtung im Frequenzbereich

23

absolut integrabel ist. Aus der Theorie der Fourierreihen ist bekannt, daß unter diesen Umst¨ anden die Folge der |cν | durch die Folge K|ν|−(+1) majorisiert wird, wenn man die reelle Zahl K > 0 geeignet w¨ahlt (z.B. [2.6]). Dann folgt aus (2.3.8) f¨ ur ν = 0(1)M/2 nach Zwischenrechnung   +1  ∞ 2 K  1 |˜ cν − cν | ≤ +1 + . (2.3.9a) M r+1 2r − 1 r=1 Bei einer stetigen Funktion v0 (t) mit Knickstellen (d.h. bei = 1) ist z.B. |cν | ≤ K/|ν|2 . Es ist dann |˜ cν − cν | ≤ Δ 1 mit

∞ K  1 4 K 2 Δ1 = 2 + = 2 π2 . 2 2 M r=1 r (2r − 1) M 3

(2.3.9b)

Der Fehler kann also unter den genannten Voraussetzungen durch Wahl eines hinreichend großen Wertes f¨ ur M beliebig klein gemacht werden. Wir betrachten zwei Beispiele. Bild 2.4a zeigt eine gerade, periodische Rechteckschwingung v0 (t) und die aus ihr durch Abtastung gewonnene Folge v˜(k). F¨ ur die Koeffizienten der Fourierreihenentwicklung von v0 (t) erh¨alt man mit den Bezeichnungen von Bild 2.4a cν =

2t1 sin νπ2t1 /τ . τ νπ2t1 /τ

(2.3.10a)

Die aus v0 (t) durch Abtastung bei t = kT gewonnene periodische Folge ist ⎧ ⎨ 1, k = 0(1)k1 , k = (M − k1 )(1)(M − 1) v˜(k) = (2.3.10b) ⎩ 0, k = (k1 + 1)(1)(M − k1 − 1), wobei k1 = t1 /T . Mit (2.3.4a) erh¨ alt man c˜ν =

1 sin[νπ(2k1 + 1)/M ] . M sin νπ/M

(2.3.10c)

¨ Die Teilbilder 2.4 b und c erl¨ autern, wie nach dem Uberlagerungssatz die Folge c˜ν aus den Folgen cν+rM entsteht. Es ist bemerkenswert, daß sich bei Ver¨ anderungen der Rechteckimpulsbreite t1 dieselben Werte c˜ν aus unterandert. schiedlichen cν ergeben, solange sich k1 nicht ¨ Bei Bild 2.5 gehen wir von der Approximation einer periodischen Rechteckfunktion durch 7  cν ejν2πt/τ (2.3.10d) v0 (t) = ν=−7

aus, wobei die cν nach (2.3.10a) gew¨ ahlt wurden. Mit M = 16 ist

24

2 Diskrete determinierte Signale

¨ Abb. 2.4. Zur Erl¨ auterung des Uberlagerungssatzes der DFT im Falle einer spektral nicht begrenzten periodischen Funktion. Gew¨ ahlt wurde (2k1 + 1)/M = 9/32 (< 2t1 /τ )

⎧ cν , ν = 0(1)7 ⎪ ⎪ ⎪ ⎪ ⎨ ν=8 c˜ν = 0, ⎪ ⎪ ⎪ ⎪ ⎩ cν−16 , ν = 9(1)15.

(2.3.10e)

Dieses Beispiel illustriert die Aussagen (2.3.8). 2.3.2 Spektren allgemeiner Folgen In diesem Abschnitt behandeln wir die spektrale Darstellung von weitgehend allgemeinen Folgen, wobei uns erneut der Zusammenhang mit den Spektren der Funktionen interessieren wird, aus deren Abtastung sie entstanden sein k¨ onnen (z.B. [2.1 - 2.5]). Zun¨ achst setzen wir voraus, daß v(k) ∈ l1 , die Folge also absolut summierbar sei. Das ist eine hinreichende Bedingung daf¨ ur, daß die Funktion

2.3 Betrachtung im Frequenzbereich

25

¨ Abb. 2.5. Zur Erl¨ auterung des Uberlagerungssatzes der DFT im Falle einer spektral begrenzten periodischen Funktion. Es ist cν = 0, |ν| > 7. Gew¨ ahlt wurde M = 16

V (ejΩ ) =

+∞ 

v(k)e−jkΩ =:



{v(k)}

(2.3.11a)

k=−∞

f¨ ur alle reellen Werte von Ω existiert. Wir bezeichnen V (ejΩ ) als Fouriertransformierte des diskreten Signals v(k) oder k¨ urzer als Spektrum der Folge v(k). Offensichtlich handelt es sich um eine in Ω periodische Funktion mit der Periode 2π, deren Fourierreihenentwicklung (2.3.11a) ist. Die Werte v(k) sind dabei die Fourierreihenkoeffizienten, die sich als 1 v(k) = 2π

+π V (ejΩ )ejkΩ dΩ =:



−1

 V (ejΩ )

(2.3.11b)

−π

ergeben. F¨ ur die Darstellung der Beziehungen zwischen v(k) und V (ejΩ ) verwenden wir die Kurzform V (ejΩ ) •—–◦ v(k).

(2.3.11c)

Den Spezialfall von Folgen endlicher L¨ ange, der zur Diskreten Fouriertransformation, der DFT, f¨ uhrt, werden wir im Abschnitt 2.4 ausf¨ uhrlich behandeln.

26

2 Diskrete determinierte Signale

F¨ ur die durch (2.3.11) beschriebene Transformation gelten die f¨ ur Fourierreihen bzw. Fouriertransformation bekannten Gesetze (z.B. Abschnitte 7.5 in [2.6] bzw. 2.2.2.3 in [2.5]). Dar¨ uberhinaus besteht ein enger Zusammenhang mit der in Abschnitt 2.5 zu behandelnden Z-Transformation, deren Regeln dann entsprechend anzuwenden sind. Wir begn¨ ugen uns hier mit der Darstellung einiger Zusammenh¨ ange, die z.T. auch mit Beispielen erl¨autert werden. Zun¨ achst gilt auch f¨ ur allgemeine Folgen v(k) ∈ l1 die Parsevalsche Gleichung in der Form ||v(k)||22

=

+∞  k=−∞

1 |v(k)| = 2π 2

+π |V (ejΩ )|2 dΩ.

(2.3.12)

−π

Wir betrachten weiterhin die Beziehungen zwischen den Komponenten der Folge v(k) und denen des Spektrums V (ejΩ ). Dazu stellen wir bei der komplexen Folge v(k) = v (R) (k) + jv (I) (k) beide Komponenten als Summe von geradem und ungeradem TeilTeil!ungerade dar. Es ist also z.B. v (R) (k) = vg(R) (k) + vu(R) (k) mit vg(R) (k) =

(2.3.13a)

1 (R) [v (k) + v (R) (−k)] 2

(2.3.13b)

und

1 (R) [v (k) − v (R) (−k)]. (2.3.13c) 2 Nach einer entsprechenden Zerlegung des Spektrums V (ejΩ ) ergibt sich zwischen den einzelnen Termen ein Zuordnungsschema, das die Komponenten der beliebigen Folge v(k) ∈ l1 zu denen der periodischen Funktion V (ejΩ ) in Beziehung setzt. Es ist vu(R) (k) =

v(k)

= vg(R) (k) + vu(R) (k) + jvg(I) (k) + jvu(I) (k) (2.3.14)

V (ejΩ ) = Vg(R) (ejΩ ) + Vu(R) (ejΩ ) + jVg(I) (ejΩ ) + jVu(I) (ejΩ ) Zum Beispiel ist Vg(R) (ejΩ ) =

+∞ 

vg(R) (k) cos kΩ = vg(R) (0) + 2

k=−∞

und Vu(I) (ejΩ ) = −

∞ 

vg(R) (k) cos kΩ

k=1 +∞ 

k=−∞

vu(R) (k) sin kΩ = −2

∞  k=1

vu(R) (k) sin kΩ.

2.3 Betrachtung im Frequenzbereich

27

Das Schema liefert leicht die Beziehungen = Vg (ejΩ ), jΩ ), ∗{vu (k)} = Vu (e −jΩ ), ∗{v(−k)} = V (e ∗ ∗ −jΩ {v (k)} = V (e ). ∗ ∗{vg (k)}

(2.3.15a) (2.3.15b) (2.3.15c) (2.3.15d)

Besonders wichtig sind die Zusammenh¨ ange f¨ ur kausale oder rechtsseitige FolgenFolge!rechtsseitig. Wegen v(k) = 0, ∀k < 0 folgt hier zun¨achst ⎧ k>0 ⎨ vu (k) = 0, 5 · v(k) k=0 vg (k) = v(k) (2.3.16) ⎩ −vu (k) = 0, 5 · v(−k) k < 0. Man findet unmittelbar Vg (ejΩ ) =

∞ 

v(k) cos kΩ

(2.3.17a)

k=0

und Vu (e



) = −j

∞ 

v(k) sin kΩ.

(2.3.17b)

k=1

Die v(k) sind also einerseits die Koeffizienten der Fourierreihenentwicklung ur k > 0 die der von Vg (ejΩ ) und damit einer Kosinusreihe, andererseits f¨ achst gilt allgemein Sinusreihe zur Darstellung von Vu (ejΩ ). Zun¨ 1 v(0) = 2π



Vg (ejΩ )dΩ .

(2.3.18a)

−π

Da v(k) f¨ ur k < 0 verschwindet, folgt jetzt f¨ ur k > 0 1 v(k) = π =

j π

+π Vg (ejΩ ) cos kΩ dΩ −π π

Vu (ejΩ ) sin kΩ dΩ

(2.3.18b)

(2.3.18c)

−π

und damit der Zusammenhang zwischen dem geraden und ungeraden Teil des Spektrums einer kausalen Folge ⎡ +π ⎤  ∞  j ⎣ Vu (ejη ) sinkη dη ⎦ cos kΩ, Vg (ejΩ ) = v(0) + (2.3.19a) π k=1 −π

28

2 Diskrete determinierte Signale

⎡ +π ⎤  ∞  j ⎣ Vg (ejη ) coskη dη ⎦ sin kΩ. Vu (ejΩ ) = − π

(2.3.19b)

k=1 −π

Im Falle rein reeller kausaler Folgen ergibt sich, daß Vg (ejΩ ) rein reell und ar ist. F¨ ur derartige Folgen gibt es unter gewissen zus¨atzVu (ejΩ ) rein imagin¨ lichen Voraussetzungen noch einen weiteren Zusammenhang zwischen den Komponenten des Spektrums. Stellen wir V (ejΩ ) mit v(k) ∈ R in der Form V (ejΩ ) =

∞ 

v(k)e−jkΩ = e−[α(Ω)+jβ(Ω)]

(2.3.20a)

k=0

dar, so ist die D¨ampfung  α(Ω) = − Re lnV (ejΩ ) = −ln|V (ejΩ )| eine gerade, periodische Funktion, die sich, falls |V (ejΩ )| h¨ochstens in isolierten Punkten verschwindet, als Kosinusreihe in der Form α(Ω) =

∞ 

αν cos νΩ

(2.3.20b)

ν=0

darstellen l¨ aßt. Entsprechend ist die Phase  β(Ω) = −Im lnV (ejΩ ) = −argV (ejΩ ) eine ungerade Funktion, die als β(Ω) = −

∞ 

βν sin νΩ

(2.3.20c)

ν=1

angebbar ist. Im allgemeinen ist nat¨ urlich βν = αν . In dem durch die Bedingung βν = αν gekennzeichneten Spezialfall spricht man in Anlehnung an eine entsprechende Bezeichnung bei Systemen von einem minimalphasigen Signal (siehe die Abschnitte 4.5.1 und 5.6.2). Interessant ist, daß man zu einem gegebenen Signal v(k) die minimalphasige Version vM (k) bestimmen kann. Man erh¨ alt  (2.3.21a) vM (k) = ∗ −1 VM (ejΩ ) 

mit

VM (ejΩ ) = exp −

∞ 

 αν e−jνΩ

.

(2.3.21b)

ν=0

Offenbar ist |VM (ejΩ )| = |V (ejΩ )|. In Abschn. 2.5.2 wird sich daraus mit der Parsevalschen Gleichung (2.5.19c) ergeben, daß auch ∞  k=0

|v(k)|2 =

∞  k=0

|vM (k)|2

(2.3.21c)

2.3 Betrachtung im Frequenzbereich

29

ist, beide Signale also die gleiche Energie haben. Die beiden durch (2.3.19a,b) zueinander in Beziehung stehenden Funktionen Vg (ejΩ ) und Vu (ejΩ ) ebenso wie im Falle minimalphasiger Signale die Funktionen α(Ω) und β(Ω) werden als Paare von Hilbert-Transformierten bezeichnet. Wir werden in den Abschnitten 4.3.3 und 4.5.1 darauf zur¨ uckkommen und dort auch andere Darstellungen der Hilbert-Transformation kennenlernen. Das Pendant zu Folgen im Zeitbereich, die f¨ ur k < 0 identisch verschwinden, sind Spektralfunktionen V (ejΩ ), die in der linken H¨alfte ihrer Periode, also f¨ ur −π ≤ Ω < 0 gleich Null sind. Zu ihnen geh¨oren komplexe, nichtkausale Folgen v(k), deren gerader und ungerader Teil ebenfalls HilbertTransformierte voneinander sind, wobei diese Operation jetzt f¨ ur Folgen zu definieren ist. Sie lasssen sich als Abtastwerte sogenannter analytischer Funktionen auffassen, deren Spektrum f¨ ur ω < 0 verschwindet (z.B. Abschn. 2.2.3 in [2.5]). Die Hilbert-Transformation von Folgen werden wir in den Abschnitten 4.3.3 und 4.4.5 sowie in Band II behandeln. Sehr wichtig ist der Zusammenhang zwischen dem Spektrum V (ejΩ ) der Folge v(k) und den Spektren V0 (jω) der Funktionen v0 (t), die in den Punkten t = kT mit der Folge v(k) u ¨bereinstimmen, also derart, daß v0 (t = kT ) = v(k) ist. Wie schon in Abschnitt 2.2 f¨ ur den Fall einer sinusf¨ormigen Folge betonen wir, daß i.allg. die Funktion v0 (t) durch diese Abtastwerte nicht eindeutig festgelegt ist. Es gibt also eine nicht beschr¨ ankte Anzahl von unterschiedlichen Funktionen v0 (t), die lediglich in den Abtastpunkten t = kT u ¨bereinstimmen und insofern derselben Folge v(k) zugeordnet werden k¨onnen. Wir setzen voraus, daß sie absolut integrabel und von beschr¨ankter Variation sind, so daß die f¨ ur die Existenz des Fourierintegrals V0 (jω) =

+∞  {v0 (t)} = v0 (t)e−jωt dt

(2.3.22a)

−∞

hinreichenden Bedingungen erf¨ ullt sind [2.1]. Zun¨ achst stellen wir fest, daß die approximative Berechnung von (2.3.22a) mit Hilfe der Rechteckregel bei einem Abtastintervall T auf T

∞ 

v(k)e−jkωT = T · V (ejΩ )

k=−∞

f¨ ur Ω = ωT f¨ uhrt. Da das Spektrum der Folge periodisch ist, das der Funktion ¨ aber sicher nicht, kann die n¨ aherungsweise Ubereinstimmung von V0 (jω) und ochstens innerhalb einer Periode, also z.B. f¨ ur |ω| = |Ω/T | ≤ π/T T · V (ejΩ ) h¨ gelten. F¨ ur eine n¨ahere Untersuchung ben¨ otigen wir v0 (t) =

−1

1 {V0 (jω)} = 2π

+∞  V0 (jω)ejωt dω. −∞

(2.3.22b)

30

2 Diskrete determinierte Signale

Diese Beziehung gilt f¨ ur alle Punkte t, in denen v0 (t) stetig ist. Das setzen wir hier f¨ ur alle Abtastpunkte t = kT voraus. Damit ergibt sich f¨ ur die Abtastwerte v(k) = v0 (t = kT ) 1 v(k) = 2π

+∞  V0 (jω)ejωkT dω.

(2.3.23a)

−∞

Dieses Integral l¨aßt sich als unendliche Summe von Integralen u ¨ber Intervalle der Breite 2π/T darstellen. Es ist +∞  +∞  V0 (jω)ejωkT dω =

V0 (jω)ejωkT dω.

(2.3.23b)

κ=−∞ (2κ−1)π/T

−∞

Die Substitution

(2κ+1)π/T 

  1  +π  (2κ+1)π/T ω =: Ω −π + 2κπ (2κ−1)π/T T

u uhrt das κ-te Teilintegral in ¨berf¨ 1 T

+π 1 V0 j (Ω + 2κπ) ejkΩ dΩ. T

−π

Die Vertauschung der Reihenfolge von Summation und Integration in (2.3.23b) ergibt mit (2.3.11b)

+π π +∞ 1  1 jΩ jkΩ V (e )e dΩ = V0 j (Ω + 2κπ) ejkΩ dΩ. T κ=−∞ T

−π

(2.3.23c)

−π

Diese Gleichung besagt, daß die Fourierreihenentwicklungen der beiden periodischen Funktionen V (ejΩ ) und

+∞ 1  1 V0 j (Ω + 2κπ) T κ=−∞ T dieselben Koeffizienten haben. Sie k¨ onnen sich dann nur um eine Nullfunktion unterscheiden. Sieht man davon ab, so gilt V (ejΩ ) =

+∞ 1  1 V0 j (Ω + 2κπ) . T κ=−∞ T

(2.3.24)

¨ Das Spektrum der Folge v(k) ergibt sich also als Uberlagerung gegeneinander verschobener Spektren V0 (jω) der zugeh¨ origen Funktion v0 (t). Wir k¨onnen

2.3 Betrachtung im Frequenzbereich

31

diese Beziehung mit einem Gedankenexperiment veranschaulichen. Dazu den1 ken wir uns die Funktion V0 (jΩ/T ) auf einen Zylinder mit dem Umfang T 2π/T aufgezeichnet. Die Summation aller Werte, die f¨ ur einen bestimmten Punkt Ω/T des Umfangs u ¨bereinander gezeichnet erscheinen, liefert dann den entsprechenden Wert V (ejΩ ). Aufschneiden und Abrollen des Zylinders ¨ unterergibt eine Periode von V (ejΩ ). Offensichtlich kann die Uberlagerung uhren. Die Beziehung schiedlichster Spektren zum selben Ergebnis V (ejΩ ) f¨ ¨ (2.3.24) steht im engen Zusammenhang mit dem Uberlagerungssatz der Dis¨ kreten FouriertransformationUberlagerungssatz@Uberlagerungssatz! der Fouriertransformation (2.3.7). Wir zeigen weiterhin den Zusammenhang zwischen dem Spektrum V (ejΩ ) und den Momenten der Folge v(k). Falls die Taylorentwicklung von V (ejΩ ) im Punkt Ω = 0 existiert, so f¨ uhrt sie unmittelbar auf V (e



∞  (−jΩ)n mn{v(k)} . ) = V (1) + n! n=1

Hier sind mn{v(k)} =

∞ 

k n v(k)

(2.3.25a)

(2.3.25b)

k=−∞

die Momente n-ter Ordnung von v(k). Die Bedingungen f¨ ur die Existenz von (2.3.25) werden in Abschnitt 2.5.3 angegeben. Wir erl¨ autern die Ergebnisse durch einige Beispiele. a) Zun¨ achst sei

⎧ ⎨ 1, k1 ≤ k ≤ k2 v(k) =



(2.3.26a) 0, sonst

eine Rechteckfolge der L¨ ange M = k2 − k1 + 1. Das zugeh¨orige Spektrum ist V (ejΩ ) =

k2  k1

e−jkΩ =

e−jk1 Ω − e−j(k2 +1)Ω 1 − e−jΩ

= e−j[k1 +k2 ]Ω/2 ·

sin M Ω/2 . sin Ω/2

(2.3.26b)

(2.3.26c)

Mit k2 = n/2 = −k1 erh¨ alt man f¨ ur die gerade Rechteckfolge der L¨ange M =n+1 sin M Ω/2 (2.3.26d) V (ejΩ ) = sin Ω/2 (vergl. Bild 1.2) sowie mit k1 = 0 f¨ ur die kausale Rechteckfolge der L¨ange M = k2 + 1 sin M Ω/2 . (2.3.26e) V (ejΩ ) = e−jk2 Ω/2 · sin Ω/2

32

2 Diskrete determinierte Signale

F¨ ur die zugeh¨ origen Komponenten Vg (ejΩ ) = V (R) (ejΩ ) =

sin M Ω/2 cos k2 Ω/2 sin Ω/2

und Vu (ejΩ ) = jV (I) (ejΩ ) = −j

sin M Ω/2 sin k2 Ω/2 sin Ω/2

gelten die Beziehungen (2.3.19). Wir bemerken, daß die Spektren (2.3.26ce) sich nur durch den die Verschiebung beschreibenden Faktor e−j(k1 +k2 )Ω/2 unterscheiden. b) Weiterhin berechnen wir das Spektrum der Folge v(k) von Bild 2.6a:  jkΩ e 0 = cos kΩ0 + j sin kΩ0 , 0 ≤ k ≤ M − 1 v(k) = (2.3.27a) 0, sonst alt f¨ ur beliebige reelle Werte von Ω0 . Man erh¨ V (ejΩ ) =

sin(Ω0 − Ω)M/2 ej(Ω0 −Ω)M − 1 . = ej(M −1)(Ω0 −Ω)/2 j(Ω −Ω) 0 sin(Ω0 − Ω)/2 e −1

(2.3.27b)

Bild 2.6b zeigt eine Periode der in (2.3.27b) angegebenen Spektralfunktion, wobei Ω0 = 3.33 · 2π/M mit M = 32 gew¨ ahlt wurde. Wir kommen auf dieses Beispiel in Abschn. 2.4.1 zur¨ uck (s. Bild 2.14). c) Als n¨ achstes bestimmen wir das Spektrum von v(k) = |k| , k ∈ Z mit 0 < < 1:

V (ejΩ ) =

+∞

|k| e−jkΩ =

k=−∞

∞ k=1

k ejkΩ +



k e−jkΩ

k=0

(2.3.28a) ejΩ ejΩ 1 − 2 − jΩ = jΩ = . −1 e − e −

1 − 2 cos Ω + 2 ¨ Wir wollen dieses Beispiel zur Erl¨ auterung des Uberlagerungssatzes (2.3.24) verwenden. Dazu geben wir zun¨ achst f¨ ur die beiden Terme in (2.3.28a) eine Partialbruchentwicklung an (z.B. Kap. IV in [2.7]). Es ist 1 1 1 ejΩ = = + ejΩ −

1 − e−jΩ 2 2j tan[(ln + jΩ)/2] =

+∞  1 1 + . 2 κ=−∞ j[Ω + 2πκ] − ln

Mit dem entsprechenden Ausdruck f¨ ur

ejΩ folgt die Darstellung ejΩ − −1

2.3 Betrachtung im Frequenzbereich

33

Abb. 2.6. Spektrum einer zeitlich begrenzten Exponentialfolge

V (ejΩ ) =

+∞ 

+∞  1 1 − . j(Ω + 2κπ) − ln

j(Ω + 2κπ) + ln

κ=−∞ κ=−∞

(2.3.28b)

Andererseits sind die v(k) = |k| als Abtastwerte der Funktion v0 (t) = e−α|t| , ∀t in den Punkten t = kT zu interpretieren, wobei e−αT = ist. alt man F¨ ur das Spektrum von v0 (t) erh¨ {v0 (t)} = V0 (jω) =

1 1 − . jω + α jω − α

Es ist dann mit ωT = Ω und αT = −ln

+∞ 1  1 V0 j (Ω + 2κπ) = T κ=−∞ T +∞ 

+∞  1 1 = − . j [Ω + 2πκ] − ln

j [Ω + 2πκ] + ln

κ=−∞ κ=−∞

¨ in Ubereinstimmung mit (2.3.28b).

34

2 Diskrete determinierte Signale

d) Wir berechnen das Spektrum der Folge v(k) =

sin Ω1 k , Ω1 k

∀k ∈ Z,

(2.3.29a)

die i. allg. nicht absolut summierbar ist und daher die oben genannte hinreichende Bedingung f¨ ur die Existenz des Spektrums nicht erf¨ ullt. Eine Be¨ rechnung von V (ejΩ ) ist trotzdem z.B. mit dem Uberlagerungssatz (2.3.24) m¨ oglich, wenn wir die Folge (2.3.29a) als Ergebnis der Abtastung von v0 (t) =

sin ω1 t , ω1 t

(2.3.29b)

in den Punkten t = kT auffassen, wobei ω1 T = Ω1 ist. Das Spektrum dieser

Abb. 2.7. Spektrum der Folge v(k) = (sin Ω1 k)/(Ω1 k)

Funktion ist (z.B. Abschn. 2.2.2.3 in [2.5]) ⎧ ⎨ π/ω1 , |ω| ≤ ω1 V0 (jω) = ⎩ 0, |ω| > ω1 ,

(2.3.29c)

2.3 Betrachtung im Frequenzbereich

35

und daraus folgt mit (2.3.24) das gesuchte V (ejΩ ). Wir betrachten zwei F¨alle: Bild 2.7a: F¨ ur Ω1 = ω1 T < π ist im Intervall |Ω| ≤ π ⎧   ⎨ π/Ω1 , |Ω| ≤ Ω1 1 Ω V (ejΩ ) = V0 j = ⎩ T T 0, Ω1 < |Ω| ≤ π.

(2.3.29d)

alt man f¨ ur |Ω| ≤ π Bild 2.7b: Ist dagegen π < Ω1 < 2π, so erh¨ ⎧

⎨ π/Ω1 , |Ω| < 2π − Ω1 +1 j 1  V (ejΩ ) = (Ω + 2κπ) = V0 . ⎩ T κ=−1 T 2π/Ω1 , 2π − Ω1 ≤ |Ω| ≤ π (2.3.29e) ¨ Das Beispiel zeigt, daß eine Ubereinstimmung von V (ejΩ ) mit T1 V0 (jΩ/T ) im Grundintervall |Ω| < π m¨ oglich ist, wenn die Funktion v0 (t) spektral begrenzt ist, s. (2.3.29c), und das Abtastintervall T hinreichend klein gew¨ahlt wird. Die Bestimmung des Spektrums von nicht absolut summierbaren Folgen erfordert ein anderes Vorgehen. Dabei ordnen wir der zu untersuchenden Folge eine verallgemeinerte Funktion v∗ (t) =

+∞ 

v(k)δ0 (t − kT )

(2.3.30a)

k=−∞

zu, deren Spektrum sich nach den Regeln der Fouriertransformation f¨ ur Distributionen mit Ω = ωT als {v∗ (t)} =: V∗ (jω) = V (ejΩ ) =

+∞ 

v(k)e−jkΩ =:



{v(k)} (2.3.30b)

k=−∞

ergibt. Dieses Ergebnis entspricht (2.3.11a), basiert aber nicht auf den dort gemachten, sehr einschr¨ ankenden Voraussetzungen. Tats¨achlich erhalten wir gegebenenfalls auch keine im u ¨blichen Sinne existierende Spektralfunktion. Wir k¨ onnen nun wieder annehmen, daß v(k) durch Abtastung einer derjeniur die v0 (t = kT ) = v(k) gilt. Dann gen Funktionen v0 (t) entstanden ist, f¨ k¨ onnen wir die Entstehung von v∗ (t) durch Multiplikation von v0 (t) mit dem Impulskamm +∞  δ0 (t − kT ) (2.3.31a) p(t) = k=−∞

beschreiben. Es ist bei einer in den Abtastpunkten stetigen Funktion v0 (t) v∗ (t) = v0 (t) · p(t).

(2.3.30c)

Der Multiplikationssatz der Fouriertransformation liefert V∗ (jω) =

{v0 (t) · p(t)} =

1 V0 (jω) ∗ P (jω). 2π

(2.3.30d)

36

2 Diskrete determinierte Signale

Mit P (jω) =

{p(t)} =

+∞ 2π  δ0 (ω − 2κπ/T ) T κ=−∞

(2.3.31b)

¨ und Ω = ωT erh¨ alt man wieder den Uberlagerungssatz  V∗



Ω j T

= V (e



+∞ 1  1 )= V0 j (Ω + 2κπ) , T κ=−∞ T

(2.3.30e)

jetzt f¨ ur weitgehend beliebige Folgen. Wir k¨ onnen nun die Spektren einiger der in Abschn. 2.2 eingef¨ uhrten Testfolgen bestimmen. F¨ ur den Impuls erh¨ alt man sofort mit (2.3.11a) ∗ {γ0 (k)}

= 1.

(2.3.32a)

onnen wir von (2.3.30e) ausgehen. Zur Bestimmung des Spektrums von ejΩ0 k k¨ Wir setzen Ω0 = [ω0 T ]mod2π , um die in Abschn. 2.2 beschriebene Mehrdeutigkeit zu ber¨ ucksichtigen, (s. (2.2.10)). Mit  jω0 t V0 (jω) = e = 2πδ0 (ω − ω0 ) und δ0 (ω) = δ0 (Ω/T ) = T δ0 (Ω) erh¨ alt man aus (2.3.30e) ∗

+∞   jΩ0 k e = 2π δ0 (Ω − Ω0 − κ2π).

(2.3.32b)

κ=−∞

Wir wenden dieses Ergebnis f¨ ur die erneute Berechnung des Spektrums der auf das Intervall 0 ≤ k ≤ M − 1 beschr¨ ankten Folge ejΩ0 k an. Man kann sie unter Verwendung des kausalen Rechteckfensters der L¨ange M ⎧ ⎨ 1, 0 ≤ k ≤ M − 1 rM (k) = (2.3.33) ⎩ 0, sonst, als v(k) = rM (k)·ejΩ0 k darstellen. Das Spektrum des Produktes zweier Folgen l¨ aßt sich mit dem Multiplikationssatz als Faltung der Spektren der Faktoren bestimmen (z.B. Abschn. 2.2.2.3 in [2.5]). Es ist ∗

{rM (k) · v(k)} =

1 2π



{rM (k)} ∗





ejΩ0 k .

Unter Verwendung von (2.3.26e) und (2.3.32b) folgt wieder (vergl. (2.3.27b)) ∗ {v(k)}

= ej(M −1)(Ω0 −Ω)/2 ·

sin(Ω0 − Ω)M/2 . sin(Ω0 − Ω)/2

Schließlich berechnen wir das Spektrum der Sprungfolge γ−1 (k). Dazu setzen wir

2.3 Betrachtung im Frequenzbereich

γ−1 (k) = 0, 5 [1 + γ0 (k) + signk]

(2.3.34a)

⎧ ⎨ 1, k > 0 signk = 0, k = 0 ⎩ −1, k < 0.

(2.3.35a)

mit

Um S(ejΩ ) =



37

{signk} zu berechnen, gehen wir von signk − sign(k − 1) = γ0 (k) + γ0 (k − 1)

(2.3.35b)

aus. Mit dem Verschiebungssatz der Fouriertransformation folgt daraus S(ejΩ ) =

1 + e−jΩ 1 = −j 1 − e−jΩ tan Ω/2

(2.3.35c)

und damit aus der obigen Zerlegung der Sprungfolge und mit (2.3.32b) f¨ ur Ω0 = 0 ∗

{γ−1 (k)} = π

+∞ κ=−∞

δ0 (Ω − κ2π) +

1 1 + 2 2j tan Ω/2

ejΩ =π . δ0 (Ω − κ2π) + jΩ e −1 κ=−∞ +∞

(2.3.34b)

Abb. 2.8. Die Spektren von abgetasteten Kosinusfunktionen unterschiedlicher Frequenz

Wir betrachten als Beispiel die Abtastung einer Kosinusfunktion. Es sei v0 (t) = cos ω0 t ◦—–• V0 (jω) = π[δ0 (ω − ω0 ) + δ0 (ω + ω0 )].

38

2 Diskrete determinierte Signale

Abb. 2.9. Zum Spiegelungseffekt bei der Abtastung kosinusf¨ ormiger Funktionen

Dann gilt mit (2.3.32b) f¨ ur das Spektrum der daraus durch Abtastung gewonnenen Folge v(k) = cos Ω0 k mit Ω0 = ω0 T = 2πω0 /ωa V∗ (jω) = V (ejωT ) =

+∞ π  [δ0 (ω − ω0 − κωa ) + δ0 (ω + ω0 − κωa )] . T κ=−∞

Bild 2.8 zeigt die Spektren von V0 (jω) und V∗ (jω) f¨ ur verschiedene Werte von ω0 bei fester Abtastfrequenz ωa . Die sich bei Vergr¨oßerung von ω0 ergebenden Ver¨ anderungen sind angedeutet. F¨ ur die Frequenz ω1 der Spektrallinie von V∗ (jω) in dem Intervall 0 < ω < ωa /2 gilt ω1 = ω0

wenn 0 < ω0 < ωa /2,

ω1 = ωa − ω0 wenn ωa /2 < ω0 < ωa , ω1 = ω0 − ωa wenn ωa < ω0 < 3ωa /2, usw.. Dieser schon in Abschn. 2.2 beschriebene Spiegelungseffekt, (siehe (2.2.10) und Bild 2.3), wird durch die Oszillogramme in Bild 2.9 erl¨autert. Sie zeigen

2.3 Betrachtung im Frequenzbereich

39

f¨ ur verschiedene Werte von ω0 = 2πf0 jeweils v0 (t), v(k) und die sinusf¨ormige Funktion y0 (t) der Frequenz ω1 , die man am Ausgang eines Tiefpasses erh¨alt, der die Spektralanteile f¨ ur |ω| ≥ ωa /2 unterdr¨ uckt. 2.3.3 Das Abtasttheorem ¨ Wir betrachten noch einmal den durch den Uberlagerungssatz ausgedr¨ uckten Zusammenhang zwischen dem Spektrum V∗ (jω) einer Impulsfolge und V0 (jω), dem Spektrum der zugeh¨ origen Zeitfunktion v0 (t). Dabei nehmen wir an, daß V0 (jω) = 0,

|ω| ≥ ωg

(2.3.36a)

gilt, v0 (t) also spektral begrenzt ist. Bild 2.10 erl¨autert prinzipiell die durch die Abtastung mit unterschiedlichen Frequenzen ωai entstehenden Funktionen origen Spektralfunktionen. v∗i (t) und die zugeh¨

Abb. 2.10. Zur Herleitung des Abtasttheorems

Das Bild veranschaulicht die sich aus (2.3.30e) bei der angenommenen spektralen Begrenzung ergebende Aussage, daß

40

2 Diskrete determinierte Signale

V∗ (jω) = V (ejωT ) =

1 V0 (jω), T

|ω| < ωg

(2.3.36b)

dann gilt, wenn T =

1 2π π = ≤ fa ωa ωg

(2.3.36c)

ist. Offenbar ist in diesem Fall ⎧ +∞ π ωa ⎪ ⎪ = v0 (kT )e−jkωT , |ω| < ⎨T 2 T k=−∞ V0 (jω) = ⎪ ⎪ ⎩ 0, |ω| ≥ π/T. Die inverse Fouriertransformation liefert v0 (t) =

=

−1

T {V0 (jω)} = 2π

+∞  k=−∞

v0 (kT ) ·

+π/T 

+∞ 

v0 (kT )ejω(t−kT ) dω

−π/T k=−∞

sin π(t/T − k) . π(t/T − k)

(2.3.37a)

Abb. 2.11. Zur Rekonstruktion einer bandbegrenzten Funktion

Bild 2.11 veranschaulicht die Rekonstruktion von v0 (t) aus den Abtastwerten durch eine Interpolation mit der Funktion g0 (t) =

sin πt/T . πt/T

(2.3.38a)

2.3 Betrachtung im Frequenzbereich

41

Das so gefundene Abtasttheorem besagt: aßt sich aus ihren Abtastwerten v(k) = v0 (t = kT ) Eine Funktion v0 (t) l¨ exakt rekonstruieren, wenn a) sie spektral begrenzt ist, d.h. wenn V0 (jω) = und wenn ahlt wird. b) das Abtastintervall T ≤ π/ωg gew¨

{v0 (t)} = 0, |ω| ≥ ωg gilt,

Die durch (2.3.37a) beschriebene Darstellung von v0 (t) l¨aßt sich dabei interpretieren als Reaktion eines idealisierten Tiefpasses der Grenzfrequenz ωa /2 auf die Funktion +∞  v∗ (t) = v0 (kT ) · δ0 (t − kT ). k=−∞

Das gefundene Ergebnis l¨ aßt sich noch anders deuten [2.8]. Die Funktionen g0k (t) =

sin π(t/T − k) π(t/T − k)

(2.3.38b)

bilden ein Orthogonalsystem. Es gilt ⎧ +∞  ⎨ T, = k g0k (t) · g0 (t)dt = ⎩ 0, = k. −∞

(2.3.38c)

Daher beschreibt (2.3.37a) eine Orthogonalentwicklung der bandbegrenzten Funktion v0 (t), deren Koeffizienten ihre Abtastwerte sind. Sie lassen sich darstellen als +∞  1 sin π(t/T − k) dt. (2.3.37b) v0 (t) · v0 (kT ) = T π(t/T − k) −∞

Wir machen hier noch einige Anmerkungen: a) Wird f¨ ur das Abtastintervall T = π/ · ωg mit > 1 gew¨ahlt, liegt also ¨ eine Uberabtastung um den Faktor vor, so sind neben der durch (2.3.37a) beschriebenen Darstellung beliebig viele weitere m¨oglich. Bild 2.12 erl¨autert, daß das Spektrum V∗ (jω) im Intervall ωg ≤ |ω| ≤ ωa − ωg gleich Null sein muß. Damit gilt auch v0 (t) = wobei

−1

{T V∗ (jω) · Gi (jω)} ,

⎧ 1, |ω| < ωg ⎪ ⎪ ⎪ ⎪ ⎨ Gi (jω) = beliebig, ωg ≤ |ω| ≤ ωa − ωg ⎪ ⎪ ⎪ ⎪ ⎩ 0, |ω| > ωa − ωg

(2.3.37c)

(2.3.38d)

42

2 Diskrete determinierte Signale

ist. Mit gi (t) = T

−1

{Gi (jω)}

(2.3.38e)

v0 (kT ) · gi (t − kT ),

(2.3.37d)

folgt dann an Stelle von (2.3.37a) v0 (t) =

+∞  k=−∞

¨ ein Ergebnis, das die fr¨ uhere Aussage als Spezialfall enth¨alt. Von dieser Uberlegung ausgehend, kann man ein realisierbares System zur approximativen Rekonstruktion von v0 (t) aus den Abtastwerten finden [2.9].

Abb. 2.12. Zur Herleitung unterschiedlicher interpolierender Funktionen

b) Die durch (2.3.37a) beschriebene spektral begrenzte Funktion v0 (t) kann h¨ ochstens isolierte Nullstellen haben, ist also sicher nicht zeitlich begrenzt. Andererseits sind praktisch vorkommende Funktionen stets zeitlich begrenzt. Sie k¨ onnen daher die Voraussetzungen f¨ ur die G¨ ultigkeit des Abtasttheorems nicht exakt, sondern h¨ ochstens n¨ aherungsweise erf¨ ullen. Bei quadratisch integrablen Funktionen k¨ onnen wir dazu eine Grenzfrequenz ωg so festlegen, daß die im Intervall |ω| < ωg enthaltene Energie groß ist im Vergleich zur Energie im Bereich |ω| ≥ ωg . Es wird also 

ωg

∞

|V0 (jω)|2 dω

|V0 (jω)|2 dω ωg

0

(2.3.39)

2.3 Betrachtung im Frequenzbereich

43

vorgeschrieben und dann T ≤ π/ωg gew¨ ahlt. Man erkennt unmittelbar mit (2.3.30e), daß damit der bei nicht spektral begrenzten Funktionen durch die ¨ Abtastung entstehende Uberlappungsfehler klein gehalten werden kann. c) Die eben gemachte Feststellung, daß spektral begrenzte Funktionen nicht zeitlich begrenzt sein k¨ onnen, bedeutet auch, daß es keine Intervalle gibt, in denen diese Funktionen identisch verschwinden. Das f¨ uhrt zu der bemerkenswerten Konsequenz, daß der Verlauf von v0 (t) innerhalb eines Interurde es n¨amlich eine von v0 (t) valls t ∈ [t1 , t2 ] eindeutig v0 (t), ∀t bestimmt. W¨ verschiedene Funktion v1 (t) gleicher Bandbegrenzung geben, die mit v0 (t) im urde die ebenfalls bandbegrenzte FunktiIntervall [t1 , t2 ] u ¨bereinstimmt, so w¨ on Δv(t) = v0 (t) − v1 (t) in diesem Intervall identisch verschwinden, im Widerspruch zu obiger Aussage. Diese zun¨ achst u ¨berraschende Folgerung h¨angt damit zusammen, daß v0 (t) analytisch. und daher beliebig oft differenzierbar ist. Wir bemerken, daß nat¨ urlich ein anderer Fall vorliegt, wenn zwei in gleicher Weise bandbegrenzte Funktionen v0 (t) und v1 (t) innerhalb eines Intervalls nur in den endlich vielen Abtastpunkten kT, k ∈ [k1 , k2 ] u ¨bereinstimmen. ¨ d) Man kann die in diesem Abschnitt angestellten Uberlegungen auf spektral ur Ωg ≤ |Ω| ≤ π begrenzte Folgen v(k) u ¨bertragen. Sie sind durch V (ejΩ )= 0 f¨ onnen also, wie oben bei a) angenommen, durch mit Ωg < π gekennzeichnet, k¨ ¨ Uberabtastung einer spektral begrenzten Zeitfunktion entstanden sein. Setzt man in (2.3.11b) die in (2.3.11a) gegebene Darstellung von V (ejΩ ) ein, so folgt bei Ber¨ ucksichtigung der spektralen Begrenzung v(k) =

+∞ sin(k − κ)Ωg Ωg  v(κ) . π κ=−∞ (k − κ)Ωg

(2.3.40a)

Sie entspricht insofern nicht (2.3.37a), als sich die Summe nur f¨ ur Ωg = π auf einen Term und damit auf eine triviale Aussage reduziert. F¨ ur 0 < Ωg < π ist die Folge zeitlich nicht begrenzt. Trotzdem kann man hier keine Folgerung ziehen, die der obigen unter c) f¨ ur spektral begrenzte Zeitfunktionen entspricht. Vielmehr lassen sich ohne weitere Voraussetzungen in der zeitlich nicht begrenzten Folge v1 (k) =

k2 Ωg  sin(k − κ)Ωg x(κ) π (k − κ)Ωg

(2.3.40b)

κ=k1

die Koeffizienten x(κ) durch L¨ osung eines linearen Gleichungssystems so bestimmen, daß v1 (k) = v(k), k = k1 (1)k2 ist. Es liegen damit zwei Folgen v(k) und v1 (k) gleicher Bandbegrenzung vor, die lediglich im Intervall [k1 , k2 ] u ¨bereinstimmen, sodaß die ebenfalls bandbegrenzte Folge Δv(k) = v(k) − v1 (k) dort verschwindet. Hier besteht offenbar eine enge Verbindung zu der Bemerkung am Schluß von Punkt c.

44

2 Diskrete determinierte Signale

2.4 Die Diskrete Fouriertransformation 2.4.1 Definition und Beispiele In der Praxis der Signalverarbeitung ist die Behandlung von Folgen endlicher L¨ ange außerordentlich wichtig. Es ist angemessen, ihre Fouriertransformation, die DFT, in einem eigenen Abschnitt darzustellen. Wesentlich ist vor allem, daß die DFT im Gegensatz zu anderen Transformationsverfahren nicht nur angewendet wird, wenn sie in geschlossener Form berechnet werden kann. Vielmehr hat sie ihre große Bedeutung erlangt, weil sie f¨ ur beliebige Folgen bestimmter L¨ ange mit vertretbarem numerischen Aufwand durchf¨ uhrbar ist. Das hat ihr eine Vielzahl von praktisch wichtigen Anwendungsm¨oglichkeiten er¨ offnet. Wir gehen aus von einer Folge v(k) der L¨ange M mit k = 0(1)M − 1 und definieren in Anlehnung an die Behandlung periodischer Folgen in Abschnitt 2.3.1 die Diskrete Fouriertransformierte mit V (μ) = DFT {v(k)} :=

M −1 

μk v(k)wM ,

μ = 0(1)M − 1 .

(2.4.1a)

k=0

Hier ist wieder nach (2.3.1b) wM = e−j2π/M . Die Transformation ist umkehrbar eindeutig. Mit der Summenorthogonalit¨ at (2.3.3) best¨atigt man, daß v(k) = DFT−1 {V (μ)} =

M −1 1  −μk V (μ)wM , M μ=0

k = 0(1)M − 1

(2.4.1b)

ist. Der Vergleich mit (2.3.4) zeigt die enge Verwandtschaft mit der Transformation einer periodischen Folge v˜(k), die als periodische Fortsetzung von v(k) aufgefaßt werden kann. Wir werden sehen, daß sich die Gesetze der DFT an denen der Transformation periodischer Folgen orientieren. Weiterhin zeigt der Vergleich mit (2.3.11a), daß sich  V (μ) = V (ejΩμ ) = ∗{v(k)} Ω=Ωμ =μ·2π/M

ergibt, wenn man die in Abschnitt 2.3.2 eingef¨ uhrte Transformation auf die hier gegebene Folge der L¨ ange M anwendet.2 Die Umkehroperation (2.3.11b) wird zu der in (2.4.1b) angegebenen inversen DFT, wenn man das dortige Integral mit Hilfe der Rechteckformel auswertet. F¨ ur die DFT-Relation verwenden wir auch wieder die abgek¨ urzte Schreibweise V (μ) •—–◦ v(k).

(2.4.1c)

Wir berechnen beispielhaft die DFT einiger Folgen der L¨ange M . 2

Zur Vereinfachung der Schreibweise wird auf die Einf¨ uhrung unterschiedlicher Formelzeichen f¨ ur die Funktion V (ejΩ ) und ihre Abtastwerte verzichtet. Wenn beide Gr¨ oßen wie hier gemeinsam erscheinen, so ist die ganzzahlige Variable μ als Abk¨ urzung f¨ ur ejΩμ mit Ωμ = μ2π/M aufzufassen.

2.4 Die Diskrete Fouriertransformation

45

Abb. 2.13. Beispiele zur Diskreten Fouriertransformation, M = 32 a) v(k) = γ0 (k − 3); b) v(k) = ejkΩ0 , Ω0 = 3 · 2π/M

a) F¨ ur v(k) = γ0 (k − κ),

0≤κ≤M −1

(2.4.2a)

erhalten wir μκ V (μ) = wM = e−jμκ2π/M = cos μκ

2π 2π − j sin μκ . M M

(2.4.2b)

46

2 Diskrete determinierte Signale

b) Umgekehrt folgt aus v(k) = ejkλ2π/M , 0 ≤ k ≤ M − 1 V (μ) = M γ0 (μ − λ).

(2.4.2c) (2.4.2d)

Bild 2.13 zeigt f¨ ur diese Beispiele die Folgen und ihre Spektren. c) Ist dagegen allgemein v(k) = ejkΩ0 , 0 ≤ k ≤ M − 1

(2.4.3a)

mit Ω0 = λ2π/M , so erh¨ alt man sin Ω0 M/2 ejΩ0 M − 1 . = ej[(M −1)Ω0 /2+μπ/M ] sin[(Ω0 − μ2π/M )/2] −1 (2.4.3b) Bild 2.14 erl¨ autert, daß in diesem Fall die periodische Fortsetzung von v(k) nicht zu einer durchgehend einheitlich als ejΩ0 k definierten und damit monofrequenten periodischen Folge v˜(k) f¨ uhrt. Das bedeutet in anderer Formulierung, daß z.B. die zu diesem v˜(k) geh¨ orende periodische Funktion v0 (t), die im Inneren der Periode durch v0 (t) = ejΩ0 t/T beschrieben wird, an den R¨andern der Periode i.allg. unstetig ist; ganz sicher ist sie aber nicht spektral begrenzt. V (μ) =

ej(Ω0 −μ2π/M )

Abb. 2.14. Beispiel zur Diskreten Fouriertransformation, M = 32. v(k) = ejkΩ0 , Ω0 = 3.33 · 2π/M

Wir verwenden dieses Beispiel zur Illustration der Beziehung zwischen der DFT und der Fouriertransformation gleicher Folgen. In (2.3.27b) bzw.

2.4 Die Diskrete Fouriertransformation

47

Bild 2.6 hatten wir das in Ω periodische Spektrum V (ejΩ ) f¨ ur dieselbe Folge angegeben. Die Werte V (μ) in (2.4.3b) bzw. Bild 2.14 sind Abtastwerte von V (ejΩ ) bei Ω = μ · 2π/M . d) Wir bestimmen die DFT der r-ten Schaltfolge pr (k). Es sei M/r =: M1 ∈ N und damit ⎧ M 1 −1 ⎨ 1 , k = k1 r , k1 = 0(1)M1 − 1  γ0 (k − k1 r) = pr (k) = (2.4.4a) ⎩ 0 , sonst. k1 =0 Dann ist Pr (μ) =

M 1 −1 

μrk1 wM

k1 =0

= M1

r−1 

⎧ M , μ = μ1 M1 , μ1 = 0(1)r − 1 μrM1 wM −1 ⎨ 1 = (2.4.4b) = μr ⎩ wM − 1 0 , sonst

γ0 (μ − μ1 M1 ) .

μ1 =0

Die R¨ ucktransformation liefert eine andere Darstellung von pr (k). Es ist pr (k) = DFT−1 {Pr (μ)} =

r−1 r−1 r−1 1  −μ1 M1 k 1  μ1 M1 k 1  μ1 k wM = wM = w , r μ =0 r μ =0 r μ =0 r 1

1

1

(2.4.4c) M1 wenn man wM = wr verwendet. Bild 2.15 zeigt den Zusammenhang f¨ ur M = 15, r = 3 und damit M1 = 5.

Abb. 2.15. Beispiel zur Transformation einer Schaltfolge mit M = 15

In Tabelle 2.1 sind die Transformierten von einigen weiteren Folgen angegeben. Als eine erste Anwendung der Diskreten Fouriertransformation zeigen wir die n¨ aherungsweise Bestimmung des Spektrums einer Funktion v0 (t), die außerhalb eines Intervalls (0, t1 ) identisch verschwindet. Dazu sind aus den Werten v(k) = v0 (t = kT ) hinreichend dicht Abtastwerte der Spektralfunktion

48

2 Diskrete determinierte Signale

v(k)

V (μ)

Gleichung

μ wM −1 sin μπ/M = e−jπ(−1)μ/M μ wM −1 sin μπ/M

(2.4.5)

μ  (z0 wM ) −1 μ z0 wM −1

(2.4.6a)

⎧ ⎨ 1, k = 0(1) − 1 r (k) =



0, sonst

0 4 die vier unterschiedlichen Eigenwerte λW μ = ejμπ/2 , μ = 0(1)3,

(2.4.27d)

die mit den in der Tabelle 2.3 angegebenen Vielfachheiten auftreten (nach [2.11]). Hier wurde M = 4m0 + μ gesetzt.

M

λW 0 = 1 λW 1 = j λW 2 = −1 λW 3 = −j

m0 − 1

m0

m0

4m0 + 1 m0 + 1

m0

m0

m0

4m0 + 2 m0 + 1

m0

m0 + 1

m0

4m0 + 3 m0 + 1

m0

m0 + 1

m0 + 1

4m0

m0 + 1

Tabelle 2.3. Vielfachheit der Eigenwerte von WM n

Die im letzten Abschnitt gefundenen Zuordnungsregeln k¨onnen wir mit 2 ) in einfacher Weise formulieren. Man erkennt Hilfe von PM (bzw. WM zun¨ achst, daß die Multiplikation von PM mit einem wie in (2.4.25a) definierten Vektor v die zugeh¨ orige Folge v(k) in v(−k) u uhrt. Es ist also ¨berf¨ ˆ v(−) = [v(0), v(M − 1), v(M − 2), . . . , v(1)]T (=v(−k)) 1 W2 · v . = PM · v = M M

(2.4.28a)

Dann k¨ onnen wir die durch (2.4.13b,c) eingef¨ uhrten geraden und ungeraden Folgen als Vektoren

64

2 Diskrete determinierte Signale

1 1 1 2 W ·v , vg = [v + v(−) ] = v+ 2 2 M M (2.4.28b)

1 1 1 2 W ·v vu = [v − v(−) ] = v− 2 2 M M angeben. F¨ ur die zugeh¨ origen Transformierten folgt

1 1 2 WM · v g = WM · WM · v = WM · v + 2 M

mit (2.4.26c) 1 [V + V(−) ] = Vg , 2

1 1 1 2 WM · WM · v = [V − V(−) ] = Vu . WM · v u = WM · v − 2 M 2 (2.4.28c) Wir best¨ atigen damit die Ergebnisse (2.4.14a,b). Die Aufteilung von v(k) in Real- und Imagin¨ arteil und deren Transformation, die zu der Zuordnung (2.4.15) f¨ uhrte, l¨ aßt sich entsprechend in Matrizenform darstellen. Weiterhin betrachten wir die zyklische Faltung der Folgen v1 (k) und v2 (k). Wir k¨ onnen (2.4.17a) unter Ber¨ ucksichtigung der Kommutativit¨at als v = C1 · v 2 mit



(2.4.29a)

v1 (M − 1) v1 (M − 2) . . . v1 (0) v1 (M − 1) . . . v1 (1) v1 (0) ... .. .. . . v1 (M − 1) v1 (M − 2) v1 (M − 3) . . .

v1 (0) ⎢ v1 (1) ⎢ ⎢ C1 = ⎢ v1 (2) ⎢ .. ⎣ .

⎤ v1 (1) v1 (2) ⎥ ⎥ v1 (3) ⎥ ⎥ .. ⎥ . ⎦ v1 (0)

(2.4.29b)

schreiben. Charakteristisch f¨ ur die zyklische Faltung ist, daß die hier auftretende Matrix C1 von zyklischer Struktur ist. Sie ist dadurch gekennzeichnet, daß sich, beginnend mit der zweiten Zeile, jede Zeile aus der vorhergehenden durch zyklische Verschiebung um einen Wert nach rechts ergibt. Eine solche Matrix wird als Zirkulante bezeichnet.Zur Berechnung der zyklischen Faltung verweisen wir auf Abschnitt 2.4.4.3 Absatz 3. Es gilt nun generell, daß die Eigenvektoren derartiger Matrizen die Form (−μ)

wM

−(M −1)μ T

−μ −2μ = [1, wM , wM , . . . , wM

]

(2.4.30a)

−1 jede M ×M haben [2.12]. Damit ergibt sich, daß die inverse DFT-Matrix WM Zirkulante C diagonalisiert. Es ist also −1 = Λ = diag[λ0 , . . . , λμ , . . . , λM −1 ] . WM · C · W M

(2.4.30b)

Die Eigenwerte λμ von C erh¨ alt man dabei als λμ =

M −1  k=0

−μk c(k)wM = cT1 · wM

(−μ)

,

(2.4.30c)

2.4 Die Diskrete Fouriertransformation

wobei

65

cT1 = [c(0), c(1), . . . , c(M − 1)] (−μ)

der erste Zeilenvektor von C ist. Daß wM und λμ L¨osungen der Eigenwertgleichung (−μ) (−μ) C · w M = λ μ · wM ¨ sind, erkennt man durch zeilenweise Uberpr¨ ufung. In dem hier interessierenden Fall gilt nach (2.4.29b) f¨ ur den ersten Zeilenvektor von C = C1 cT11 = [v1 (0), v1 (M − 1), v1 (M − 2), . . . , v1 (1)] . Damit folgt aus (2.4.30c) mit v1 (0) = v1 (M ) λμ =

=

M −1 k=0 M −1 k=0

−μk v1 (M − k)wM =

M −1 k=0

−μ(M −k)

v1 (k)wM

(2.4.30d) μk v1 (k)wM = V1 (μ) = DFT{v1 (k)} .

Wir verwenden die zuletzt gefundenen Eigenschaften von WM zur Umformung von (2.4.29a). Zun¨ achst erh¨ alt man aus (2.4.30b) −1 · Λ 1 · WM , C1 = WM

(2.4.30e)

wobei Λ1 die Diagonalmatrix der durch (2.4.30d) bestimmten Eigenwerte ist. Dann folgt aus (2.4.29a) WM · v = Λ 1 · WM · v 2 und mit (2.4.25c) V = Λ1 · V2 . Wegen (2.4.30d) ist dies dasselbe wie die Beziehung (2.4.19) V (μ) = V1 (μ) · V2 (μ),

μ = 0(1)M − 1

f¨ ur die Elemente der beteiligten Vektoren. Schließlich bestimmen wir M −1 

∗ V1∗ (μ)V2 (μ) = V1∗T V2 = (WM v1∗ )T (WM v2 ) .

μ=0

Mit (2.4.26b) folgt v1∗T v2

V1∗T V2 = M v1∗T v2 .

(2.4.31a)

definierte innere Produkt zweier Vektoren der L¨ange M ist Das durch also, abgesehen vom Faktor M , invariant gegen die DFT. Speziell folgt f¨ ur v1 = v2 =: v 1 ∗T V V, (2.4.31b) v∗T v = M die vektorielle Darstellung der Parsevalschen Gleichung (2.4.21).

66

2 Diskrete determinierte Signale

2.4.4 Die schnelle Fouriertransformation Wir befassen uns in diesem Abschnitt mit Methoden zur schnellen Ausf¨ uhrung der Diskreten Fouriertransformation, die allgemein als FFT-Verfahren (von Fast Fourier Transform) bezeichnet werden. Ihre Einf¨ uhrung ist der Grund daf¨ ur, daß die Bedeutung der DFT kaum u ¨bersch¨atzt werden kann. Sie liefert nicht nur das f¨ ur die Beschreibung eines Signals so wichtige Spektrum, sondern l¨ aßt sich auch f¨ ur die Ausf¨ uhrung von prim¨ar im Zeitbereich definierten Operationen wie der linearen Faltung unter Verwendung der FFT mit Vorteil einsetzen. Schnelle Methoden zur Berechnung des Spektrums einer Folge hat schon Gauß verwendet [2.13], sie gerieten in Vergessenheit. In diesem Jahrhundert hat es eine Reihe von Vorschl¨ agen zur Reduzierung des Rechenaufwandes gegeben [2.14]. Aber erst die Arbeit von Cooley und Tukey [2.15] l¨oste eine intensive Besch¨ aftigung mit der Thematik aus, die bis heute zu neuen Verfahren f¨ uhrt. Zusammenfassende Darstellungen finden sich z.B. in [2.16 - 2.18]. 2.4.4.1 Basisalgorithmen Zur Erleichterung des Verst¨ andnisses stellen wir zun¨achst die Grundidee des Algorithmus vor und zeigen seine Eigenschaften. Die Aufgabe wird dann in allgemeinerer Form noch einmal aufgegriffen. Dabei werden weitergehende L¨ osungen gefunden. Die Ausf¨ uhrung der in (2.4.1a) definierten DFT V (μ) =

M −1 

μk v(k)wM ,

μ = 0(1)M − 1

k=0

w¨ urde M 2 komplexe bzw. 4M 2 reelle Multiplikationen und eine entsprechende Zahl von Additionen erfordern. F¨ ur die Herleitung eines Algorithmus mit niedrigerem numerischen Aufwand nehmen wir zun¨achst an, daß M = 2m sei. Die Eingangsfolge wird nun mit v(k) = v(2 ) + v(2 + 1) in zwei Teilfolgen mit geradem und ungeradem Argument aufgespalten. Dann ist 

(M/2)−1

V (μ) =

=0



(M/2)−1 μ2 v(2 )wM

+

μ(2+1)

v(2 + 1)wM

.

=0

μ2 μ Mit wM = wM/2 folgt

V (μ) =

(M/2)−1 =0

=: V1 (μ)

μ μ v(2 )wM/2 + wM ·

(M/2)−1 =0

μ + wM · V2 (μ).

μ v(2 + 1)wM/2

2.4 Die Diskrete Fouriertransformation

67

Abb. 2.23. Zur Entwicklung des Signalflußgraphen der FFT durch sukzessive ¨ Uberf¨ uhrung in DFT’s halber L¨ ange.

Im ersten Schritt wurde derart die DFT der L¨ange M in zwei DFT’s der L¨ ange M/2 u uhrt, wobei zus¨ atzlich M komplexe Multiplikationen ¨berf¨ n¨ otig sind. Damit wurde die Zahl der Multiplikationen bereits von M 2 auf autert dieses Ergebnis f¨ ur M = 8 un2(M/2)2 + M reduziert. Bild 2.23a erl¨ ter Verwendung einer Darstellung mit einem Signalflußgraphen, dessen hier ben¨ otigte Elemente f¨ ur die Multiplikation mit einer Konstanten und die Addition im Teilbild d angegeben sind (f¨ ur eine ausf¨ uhrliche Behandlung siehe Abschn. 7.2) Das Verfahren l¨ aßt sich offenbar fortsetzen. Ist z.B. mit v1 ( ) = v(2 )

68

2 Diskrete determinierte Signale



(M/2)−1

V1 (μ) = DFT {v1 ( )} :=

μ v1 ( ) · wM/2 ,

=0

so liefert die Aufteilung von v1 ( ) in Teilfolgen mit geradem und ungeradem Argument 

(M/4)−1

V1 (μ) =



(M/4)−1 μi v1 (2i)wM/4

+

μ wM/2

·

i=0

μi v1 (2i + 1)wM/4 ,

i=0

(siehe Bild 2.23b). Nach diesem zweiten Schritt bleiben 4 DFT’s der L¨ange M/4 und damit unter Ber¨ ucksichtigung der zus¨atzlichen Operationen insgesamt 4(M/4)2 +2M komplexe Multiplikationen. Die weitere Fortsetzung f¨ uhrt im (m − 1)-ten Schritt dann auf M/2 DFT’s der L¨ange 2 G(μ) =

1 

g(k)w2μk , μ = 0, 1 →

k=0

G(0) = g(0) + g(1) G(1) = g(0) − g(1),

die ohne Multiplikationen ausgef¨ uhrt werden k¨onnen (siehe Bild 2.23c). Damit verbleiben zun¨ achst nur die (m − 1)M Multiplikationen, die bei der Zerlegung zus¨ atzlich auftraten. Bild 2.24 zeigt eine graphische Darstellung der n¨otigen Operationen in Form des Signalflußgraphen. Allgemein wird die Eingangsfolge in m Stufen in das gesuchte Spektrum u berf¨ uhrt. Man erkennt, daß in jeder Stufe M/2 Basisoperationen n¨otig sind, ¨ in denen jeweils 2 komplexe Eingangswerte in 2 komplexe Ausgangswerte umgerechnet werden. Bild 2.25a zeigt den Signalflußgraphen einer solchen Basisoperation in der λ-ten Stufe. Es ist  · Gλ−1 (q) Gλ (p) = Gλ−1 (p) + wM (+M/2)

Gλ (q) = Gλ−1 (p) + wM

· Gλ−1 (q).

 Wegen wM = −wM l¨ aßt sich diese Basisoperation dann mit der in Bild 2.25b dargestellten Struktur ausf¨ uhren, die nur noch eine komplexe Multiplikation erfordert. F¨ ur sie hat sich die im englischen Schrifttum u ¨bliche Bezeichnung Butterfly eingef¨ uhrt, die wir ebenfalls verwenden. Bild 2.26 zeigt den sich insgesamt ergebenden Signalflußgraphen f¨ ur M = 8. Der so erhaltene Algorithmus hat eine Reihe von bemerkenswerten Eigenschaften: a) Wird in allen Stufen derselbe Butterfly entsprechend Bild 2.25b verwendet, ber¨ ucksichtigt man also zur Vereinfachung der Programmierung nicht, daß z.B. in der ersten Spalte von Bild 2.26 keine echten Multiplikationen erforderlich sind, so sind allgemein (+M/2)

g(M ) =

1 1 M · m = M · ldM 2 2

(2.4.32a)

2.4 Die Diskrete Fouriertransformation

69

Abb. 2.24. Vorl¨ aufiger Signalflußgraph der FFT f¨ ur M = 8

Abb. 2.25. Signalflußgraph f¨ ur die Basisoperation (Butterfly) der FFT

komplexe Multiplikationen n¨ otig. Das bedeutet gegen¨ uber der unmittelbaren Ausf¨ uhrung eine Reduzierung um den Faktor 2M/m. b) Der Signalflußgraph in Bild 2.26 zeigt, daß die Eingangswerte eines Butterfly nur einmal ben¨ otigt werden. Seine Ausgangswerte k¨onnen also in den bisher f¨ ur die Eingangswerte verwendeten Speicherpl¨atzen abgelegt werden. Es handelt sich um einen sogenannten in-place Algorithmus, bei dem f¨ ur die Daten lediglich M Speicherpl¨ atze jeweils f¨ ur komplexe Werte n¨otig sind. c) Die oben erkl¨ arte Umordnung der Eingangswerte l¨aßt sich als formal beschreibbare Umaddressierung angeben. Wir erl¨autern das Verfahren f¨ ur M = 8. Dazu geben wir die Eingangswerte in der ge¨anderten Reihenfolge an, wobei wir ihre Argumente als Dualzahl schreiben. Dann identifizieren wir die erhaltenen Werte mit einer Folge u(κ), die in nat¨ urlicher Reihenfolge angegeben wird.

70

2 Diskrete determinierte Signale

Abb. 2.26. Signalflußgraph der FFT f¨ ur M=8; minimaler Speicherbedarf, Bit-Umkehrung am Eingang, Gruppierung der zeitlichen Folge (decimation in time, (DIT))

v(0) = v(000) = ˆ u(0) = u(000) v(4) = v(100) = ˆ u(1) = u(001) v(2) = v(010) = ˆ u(2) = u(010) v(6) = v(110) = ˆ u(3) = u(011) v(1) = v(001) = ˆ u(4) = u(100) v(5) = v(101) = ˆ u(5) = u(101) v(3) = v(011) = ˆ u(6) = u(110) v(7) = v(111) = ˆ u(7) = u(111). Das Beispiel l¨ aßt unmittelbar erkennen, daß die als Dualzahl geschriebenen neuen Adressen entstehen, wenn man die Dualzahlen der nat¨ urlichen Reihenfolge von rechts nach links liest (bit reversed order). Ist allgemein a = {αm αm−1 ...α1 }, αμ ∈ (0, 1) die m-stellige Adresse bei nat¨ urlicher Reihenfolge, so ist a = {α1 α2 ...αm } die Adresse, unter der die Eingangswerte f¨ ur das Verfahren aufgerufen werden. Man erh¨ alt einen zweiten Basisalgorithmus mit gleicher Effektivit¨at, wenn man schrittweise die Spektralwerte V (μ) gruppiert. Dabei nehmen wir wieder an, daß M = 2m ist. Um zugleich eine kompaktere Herleitung zu zeigen, schreiben wir in der Definitionsgleichung V (μ) =

M −1 

μk v(k)wM , μ = 0(1)M − 1

k=0

die Variablen μ und k in der Form μ := 2μ1 + λ;

μ1 = 0(1)(M/2 − 1); λ = 0 oder 1

k := k1 + M/2; k1 = 0(1)(M/2 − 1); = 0 oder 1.

2.4 Die Diskrete Fouriertransformation

71

Offensichtlich f¨ uhrt die Festlegung von λ auf die Wahl der V (μ) mit geradem oder ungeradem Argument, w¨ ahrend bei festem Wert f¨ ur k1 jeweils Werte v(k) im Abstand M/2 zusammengefaßt werden. Damit folgt V (2μ1 + λ) =

(M/2)−1 1  

(2μ1 +λ)(k1 +M/2)

wM

.

=0

k1 =0

Es ist

(2μ1 +λ)(k1 +M/2)

v(k1 + M/2)wM

λM/2

2μ1 k1 μ1 M λk1 = wM · wM · wM · wM μ1 k1 λk1 = (−1)λ · wM/2 · wM .

Nach Umordnung erh¨ alt man   (M/2)−1 1 μ1 k1 λk1 λ V (2μ1 + λ) = v(k1 + M/2)(−1) wM wM/2 k1 =0

=0

  λk1 = DFT|M/2 wM [v(k1 ) + (−1)λ v(k1 + M/2)] , λ = 0 oder 1. Damit ist auch hier die DFT einer Folge der L¨ange M u uhrt in zwei ¨berf¨ DFT’s von Folgen der L¨ ange M/2. Offensichtlich ist eine schrittweise weitere Gruppierung m¨ oglich. Die Basisoperation (der Butterfly) wird hier durch λk1 wM [v(k1 ) + (−1)λ v(k1 + M/2)] , λ = 0 oder 1

beschrieben. Sie erfordert eine komplexe Multiplikation. Bild 2.27a zeigt den zugeh¨ origen Signalflußgraphen. Die weitere Zerlegung liefert f¨ ur M = 8 die in Bild 2.27b gezeigte Struktur. Der Vergleich mit Bild 2.26 l¨aßt die Verwandtschaft erkennen. Auch hier gibt es m · M/2 Butterflies und damit die gleiche Zahl von komplexen Multiplikationen wie im zun¨achst beschriebenen Fall. Man erkennt, daß hier die Eingangsfolge in nat¨ urlicher Reihenfolge erscheint, w¨ ahrend die V (μ) sich in Bit-umgekehrter Folge ergeben. Wir machen noch einige erg¨ anzende Bemerkungen: 1. Struktur Die beschriebenen Algorithmen werden durch die folgenden Stichworte gekennzeichnet: Radix r = 2 (da M als Zweierpotenz gew¨ ahlt wurde), Gruppierung im Zeitbereich (decimation in time, DIT) Bild 2.26 bzw. Gruppierung im Spektralbereich (decimation in frequency, DIF) Bild 2.27, minimaler Speicherbedarf (in place-Verfahren), Bit-Umkehrung (bit reversal) am Eingang (Bild 2.26) bzw. Ausgang (Bild 2.27).

72

2 Diskrete determinierte Signale

Es gibt eine Vielzahl von Varianten. Durch einfache Umordnung kann man ausgehend von Bild 2.26 einen Signalflußgraphen finden, bei dem die Eingangswerte in nat¨ urlicher Reihenfolge, die Ausgangswerte dagegen umgeordnet erscheinen (siehe Bild 2.28a f¨ ur M = 8). Will man die Umordnung generell vermeiden, so verdoppelt sich der Speicheraufwand f¨ ur die Daten. Bild 2.28b zeigt die Struktur, wieder f¨ ur M = 8. 2. Weitere Reduzierung des numerischen Aufwandes Bei der Herleitung des ersten Algorithmus wurden wir bei der Eingangsstufe auf eine Basisoperation gef¨ uhrt, die ohne Multiplikation ausgef¨ uhrt werden kann. Eine genauere Untersuchung zeigt, daß M −1

0 Butterflies mit wM M/4

M/2 − 1 Butterflies mit wM

M/8

M/4 − 1 Butterflies mit wM

3M/8

M/4 − 1 Butterflies mit wM

= 1, = w 14 = −j, √ = w 18 = 12 2(1 − j), √ = w 38 = 12 2(1 + j)

Abb. 2.27. a) Signalflußgraph des Butterfly, b) f¨ ur die FFT bei M = 8 bei Gruppierung im Spektralbereich (decimation in frequency (DIF))

2.4 Die Diskrete Fouriertransformation

73

auftreten. Entsprechendes gilt, wenn die Gruppierung im Frequenzbereich vorgenommen wurde. Die Nutzung der damit gegebenen Einsparungsm¨oglichkeiten erfordert die Programmierung bzw. Realisierung unterschiedlicher Butotigen reellen Multiplikationen bei Verterflies. F¨ ur die Zahl g2ν (M ) der n¨ wendung von ν unterschiedlichen Butterflies in einem Algorithmus mit Radix r = 2 findet man (siehe (2.4.32a)) g21 (M ) = 2M · m [= 4g(M )] ,

(2.4.33a)

g22 (M ) = 2M (m − 2) + 4,

(2.4.33b)

g23 (M ) = 2M (m − 3) + 8,

(2.4.33c)

g25 (M ) = 2M (m − 3, 5) + 12.

(2.4.33d)

Es ist bemerkenswert, daß z.B. nach (2.4.33d) eine FFT der L¨ange M = 8 mit nur 4 reellen Multiplikationen ausgef¨ uhrt werden kann (statt 48 gem¨aß (2.4.33a)). Allerdings ist im Einzelfall zu pr¨ ufen, ob die erreichbare Reduzierung der Zahl der numerischen Operationen zu einer entsprechenden Verminderung der n¨ otigen Rechenzeit f¨ uhrt. Abh¨ angig von der Struktur des Prozessors und der Programmierung kann dieser potentielle Vorteil verlorengehen. Varianten der Aufgabenstellung k¨ onnen ebenfalls zu einer Reduzierung des numerischen Aufwandes genutzt werden. Falls z.B. nur die ersten M1 < M Werte der Eingangsfolge von Null verschieden sein k¨onnen oder wenn nur ein Teil der Spektralwerte interessiert, so kann man entsprechend spezialisierte Verfahren benutzen (siehe z.B. [2.20,21]). 2.4.4.2 Andere Algorithmen Wir erweitern jetzt die Betrachtungen in mehrfacher Hinsicht. Zun¨achst lassen wir Transformationsl¨ angen M = rm mit r > 2 zu. Ausgehend von V (μ) =

M −1 

μk v(k)wM

k=0

und einer Gruppierung im Frequenzbereich schreiben wir die Variablen μ und k in der Form μ1 = 0(1)(M/r − 1);

λ = 0(1)r − 1

k =: k1 + M/r; k1 = 0(1)(M/r − 1);

= 0(1)r − 1.

μ =: rμ1 + λ;

Man erh¨ alt (M/r)−1 r−1

V (rμ1 + λ) =





k1 =0

=0

(λ+rμ1 )(k1 +M /r)

v(k1 + M/r)wM

.

74

2 Diskrete determinierte Signale

Abb. 2.28. Weitere Signalflußgraphen f¨ ur die FFT der L¨ ange M = 8 (DIT), a) minimaler Speicherbedarf, Bit-Umkehrung am Ausgang; b) doppelter Speicherbedarf, keine Ver¨ anderung der Reihenfolge

Es ist

(λ+rμ1 )(k1 +M /r)

wM

λM /r

λk1 = wM · wM

rμ1 k1 μ1 M · wM · wM

μ1 k1 λk1 = wM · wrλ · wM/r .

Damit folgt nach Umordnung

2.4 Die Diskrete Fouriertransformation

V (rμ1 + λ) =

(M/r)−1



k1 =0

  = DFT

λk1 wM

M/r

r−1 =0

 λk1 wM

75

 μ1 k1 v(k1 + M/r)wrλ wM/r

r−1 =0

v(k1 + M/r)wrλ

, λ = 0(1)r − 1.

Die Berechnung der DFT der L¨ ange M ist damit u uhrt in die Berechnung ¨berf¨ von r DFT’s der L¨ ange M/r. Offensichtlich ist eine weitere Zerlegung dieser DFT’s m¨ oglich, bis man nach m − 1 Schritten zur Transformation von Folgen der L¨ ange r kommt. Hier ist m = logr M . Die Basisoperation (der Butterfly) wird durch r−1  λk1 wM v(k1 + M/r)wrλ , λ = 0(1)r − 1 (2.4.34) =0

beschrieben. Es gibt mit M = rm M M M logr M = · lnM/lnr = m r r r

(2.4.35)

derartige Basisoperationen f¨ ur eine FFT. Die Zahl der f¨ ur seine Ausf¨ uhrung n¨ otigen arithmetischen Operationen h¨ angt von r ab. Bei r = 3 erh¨alt man aus λk1 wM

2 

 λ v(k1 + M/3)w3λ , w3λ = e−j2π/3 ; , λ = 0(1)2

=0

die in der folgenden Tabelle dargestellten Zusammenh¨ange:

λ

0

0

v(k1 ) +

1

v(k1 + M/3)

2

+

v(k1 + 2M/3)

1

! k1 wM [v(k1 ) + w3 v(k1 + M/3) + w32 v(k1 + 2M/3)

2

2k1 wM [v(k1 ) + w32 v(k1 + M/3) + w3 v(k1 + 2M/3)]

In Bild 2.29a ist der zugeh¨ orige Signalflußgraph dargestellt. Man ben¨otigt jetzt 6 komplexe Multiplikationen pro Butterfly. Es ergeben sich damit hier insgesamt mit (2.4.35) g3 (M ) = 2M · lnM/ln3 = 2M · m komplexe Multiplikationen f¨ ur eine FFT der L¨ ange M = 3m . G¨ unstigere Werte erh¨ alt man f¨ ur r = 4. In

(2.4.32b)

76

2 Diskrete determinierte Signale

Abb. 2.29. Signalflußgraphen der Basisoperationen f¨ ur a) r = 3 und b) r = 4

λk1 wM

3 

v(k1 + M/4)w4λ ; w4λ = (−j)λ ; λ, = 0(1)3

=0

treten unter der Summe nur Vertauschungen von Real- und Imagin¨arteil sowie Vorzeichenwechsel auf, also keine arithmetisch aufwendigen Operationen. Im einzelnen erh¨ alt man

λ

0

0

v(k1 )

1

+

v(k1 + M/4)

2

3

+ v(k1 + M/2) + v(k1 + 3M/4)

1

k1 wM [v(k1 ) − jv(k1 + M/4) − v(k1 + M/2) + jv(k1 + 3M/4)]

2

2k1 wM [v(k1 ) − v(k1 + M/4) + v(k1 + M/2) − v(k2 + 3M/4)]

3

3k1 wM [v(k1 ) + jv(k1 + M/4) − v(k1 + M/2) − jv(k1 + 3M/4)]

Bild 2.29b zeigt den Signalflußgraphen f¨ ur diesen Butterfly, der i. allg. 8 komplexe Additionen und 3 wesentliche Multiplikationen ben¨otigt. Insgesamt sind damit M M · lnM/ln4 = 3 ·m (2.4.32c) g4 (M ) = 3 4 4 Multiplikationen erforderlich. Hier ist ein unmittelbarer Vergleich mit r = 2 m¨ oglich: Die Zahl der arithmetischen Operationen reduziert sich um 25%, was allerdings nicht zwingend zu einer entsprechenden Reduktion der Rechenzeit f¨ uhrt. Der Butterfly f¨ ur r = 4 ist auch deshalb von Interesse, weil er in einer Kombination mit dem f¨ ur r = 2 zu einer besonders g¨ unstigen Struktur, dem

2.4 Die Diskrete Fouriertransformation

77

sogenannten Split-Radix-Algorithmus f¨ uhrt [2.28]. Wir zeigen das Verfahren f¨ ur eine Gruppierung im Frequenzbereich. Dabei verwendet man f¨ ur die geraden Werte von μ Radix 2 und erh¨ alt 

(M/2)−1

V (2μ1 ) =

2k1 μ1 [v(k1 ) + v(k1 + M/2)] wM , μ1 = 0(1)M/2 − 1.

k1 =0

(2.4.36a) F¨ ur die ungeraden Werte von μ ergibt sich mit r = 4 V (4μ1 + 1) =

(M/4)−1 3   k1 =0



k1 4μ1 k1 v(k1 + M/4)w4 wM wM

=0

(M/4)−1

=

k1 μ1 k1 [v(k1 ) − v(k1 + M/2) − j [v(k1 + M/4) − v(k1 + 3M/4)]] wM wM/4

k1 =0

(2.4.36b) sowie V (4μ1 + 3) =

(M/4)−1 3   k1 =0



3k1 4μ1 k1 v(k1 + M/4)w43 wM wM

=0

(M/4)−1

=

3k1 μ1 k1 [v(k1 ) − v(k1 + M/2) + j [v(k1 + M/4) − v(k1 + 3M/4)]] wM wM/4 .

k1 =0

(2.4.36c) Diese Zerlegung wird wieder fortgesetzt bis sich DFT’s minimaler L¨ange ergeben. Bild 2.30a zeigt den entsprechenden Butterfly bei Bezug auf die obigen Gleichungen sowie im Teilbild b den sich insgesamt ergebenden Signalflußgraphen f¨ ur M = 8. Schließlich behandeln wir den Fall, daß sich die Transformationsl¨ange M in beliebige Faktoren zerlegen l¨ aßt. Es sei zun¨ achst M = M1 M2 . Dann ergibt sich mit μ=: M1 μ1 + λ; μ1= 0(1)M2 − 1; λ= 0(1)M1 − 1 k=: k1 + M2 ; k1 = 0(1)M2 − 1; = 0(1)M1 − 1 entsprechend dem fr¨ uheren Vorgehen   M M 2 −1 1 −1   λ μ1 k1 λk1 V (M1 μ1 + λ) = v(k1 + M2 )wM1 wM . wM 2 k1 =0

=0

Die innere Summe beschreibt M2 Diskrete Fouriertransformationen der L¨ange λk1 zu multiplizieren. Die ¨außere Summe M1 . Deren Ergebnisse sind mit wM ange M2 . Falls M1 und M2 Primbeschreibt dann M1 Transformationen der L¨ zahlen sind, sodaß keine weitere Zerlegung m¨ oglich ist, so sind unter Ber¨ uckλk1 sichtigung der M Multiplikationen mit den Drehfaktoren wM

78

2 Diskrete determinierte Signale

Abb. 2.30. Signalflußgraph f¨ ur den Split-Radix-Algorithmus a) der Butterfly, b) Gesamtstruktur f¨ ur M = 8

g1 (M ) = M2 M12 + M1 M22 + M = M (M1 + M2 + 1)

(2.4.37a)

komplexe Multiplikationen erforderlich. Ist z.B. M = 1073 = 37 · 29, so ergibt uber M 2 eine Reduktion des Aufwandes sich g1 (M ) = 71891 und damit gegen¨ auf 1/16. Kann dagegen M als Produkt von insgesamt m Faktoren Mi , i = 1(1)m dargestellt werden, so f¨ uhrt die weitere Zerlegung auf   m  g(m−1) (M ) = M m − 1 + Mi (2.4.37b) i=1

notwendige Multiplikationen. Die entsprechenden Verfahren werden als MixedRadix-Algorithmen bezeichnet. Die Auswahl einer geeigneten Kombination von Teilalgorithmen mit unterschiedlichen Radices ist abh¨ angig vom jeweils verwendeten Rechnersystem. Von Frigo und Johnson werden in [2.42-2.43] Verfahren zur optimierten Berechnung der DFT beliebiger L¨ ange angegeben. Die zugeh¨origen Algorithmen sind in der frei verf¨ ugbaren FFTW-Bibliothek ver¨offentlicht.

2.4 Die Diskrete Fouriertransformation

79

Der MATLAB -Befehl fft baut ebenfalls auf den oben genannten Verfahren auf. Es ist zu ber¨ ucksichtigen, dass beim ersten Aufruf einer DFT oder beim Wechsel der L¨ ange der DFT stets die Bestimmung des optimalen Rechengangs vorgenommen wird. Der Rechengang wird dann zwischengespeichert, sodass nachfolgende Berechnungen gleicher DFT-L¨ ange auf diese Information zur¨ uckgreifen k¨ onnen und somit schneller ablaufen. Eine Voreinstellung der Optimierung ist mit dem Aufruf fftw(.) m¨ oglich [7.1]. Bild 2.31 zeigt eine Absch¨ atzung der erforderlichen Zahl F an Gleitkommaoperationen f¨ ur die DFT einer komplexen Folge in Abh¨ angigkeit von ihrer L¨ ange M . Maximalwerte ergeben sich in der Regel, wenn M eine Primzahl ist. Eine untere Grenze bilden FFTs der L¨ ange M = 2m .

MATLAB FFT (Optimierung: ’measure’ )

7

10

6

Gleitkommaoperationen F −→

10

5

10

4

10

8

2

7

3

2

10

10

2

29 M = [4,1024] m

M=2

M ≡ Primzahlen

2

10

Grenzlinie 1

10

0

200

400 600 800 Transformationsl¨ange M −→

1000

Abb. 2.31. Zahl der Gleitkommaoperationen als Funktion der Transformationsl¨ ange M beim MATLAB-Programm fft. Zur Bestimmung des notwendigen Rechenaufwands (Gleitkommaoperationen) werden zun¨ achst die mittleren Rechenzeiten der DFTs unterschiedlicher L¨ ange experimentell bestimmt. Mit Hilfe der Meßwerte f¨ ur M = 2m und der hierf¨ ur nach [2.42] gegebenen Anzahl von Rechenoperationen wird eine Bezugsgr¨ oße f¨ ur die theoretisch maximale Rechenleistung des FFT-Algorithmus bei unterschiedlichen L¨ angen der DFTs und damit der zu berechnenden Vektoren approximiert. Mit Hilfe dieser Bezugsgr¨ oße ist eine Angabe der mittleren Anzahl von Rechenoperationen m¨ oglich. F¨ ur die Absch¨ atzung wird vorausgesetzt, daß bei der Berechnung der DFTs kein

80

2 Diskrete determinierte Signale

Umspeichern der Daten im Rechner notwendig ist. Es bleibt zu bemerken, daß die Ergebnisse der Absch¨ atzung von der Wahl des Rechnersystems und dessen Konfiguration abh¨ angen k¨ onnen. ¨ Beispiele zur Berechnung der FFT einfacher Signale werden in den Ubungen im Anhang, Abschn. 7.1.7 angegeben. •

Wir werden in den Abschnitten 2.5.5.4 und 5.6.4 noch einmal auf grunds¨atzliche M¨ oglichkeiten zur effizienten Ausf¨ uhrung der DFT zur¨ uckkommen. Bez¨ uglich spezieller Algorithmen zur Transformation von Folgen, deren L¨ange eine Primzahl ist, wird auf die Literatur verwiesen (z.B. [2.16,17]). 2.4.4.3 Erg¨ anzende Bemerkungen Zum Abschluß dieses Abschnittes u ¨ber Methoden zur schnellen Fouriertransformation betrachten wir die Behandlung reeller Folgen sowie die Verwendung eines Programmes f¨ ur die DFT zur Ausf¨ uhrung der inversen Operation, der DFT−1 . 1. Transformation reeller Folgen In Abschnitt 2.4.2 wurde in Glg. (2.4.15) festgestellt, daß die DFT einer reellen Folge bestimmte Symmetrieeigenschaften aufweist. Sie lassen sich zur weiteren Reduzierung der Rechenzeit, aber auch des Speicheraufwandes ausnutzen: Wir nehmen in der folgenden Herleitung an, daß M gerade ist. Es sei u(k) eine Folge reeller Werte der L¨ ange M . Zur Berechnung von U (μ) = DFT {u(k)} =

M −1 

μk u(k)wM , μ = 0(1)M − 1

k=0

bilden wir zun¨ achst die komplexe Folge v(k) der L¨ange M/2 v(k) = u(2k) + ju(2k + 1), k = 0(1)

M −1 2

und bestimmen 

(M/2)−1

V (μ) =

μk v(k)wM/2 = DFT {v(k)} , μ = 0(1)

k=0

M − 1. 2

Wir betrachten jetzt V (M/2−μ) und den zugeh¨origen konjungiert komplexen ((M/2)−μ)k −μk Wert V ∗ (M/2 − μ). Es ist wegen wM/2 = wM/2  V

 (M/2)−1  M −μk −μ = v(k)wM/2 2 k=0

Damit folgt

und

V∗



 (M/2)−1  M μk −μ = v ∗ (k)wM/2 . 2 k=0

2.4 Die Diskrete Fouriertransformation

V (μ) + V ∗



81

 (M/2)−1 (M/2)−1   M μk μk −μ = [v(k) + v ∗ (k)] wM/2 =2· u(2k)wM/2 2 k=0

k=0

und V (μ)−V ∗



 (M/2)−1 (M/2)−1   M μk μk −μ = [v(k) − v ∗ (k)] wM/2 = 2j· u(2k+1)wM/2 . 2 k=0

μk 2μk −μ = wM = wM wM Mit wM/2

(2k+1)μ

V (μ) − V





k=0

erh¨ alt man

 (M/2)−1  M (2k+1)μ −μ − μ = 2jwM · u(2k + 1)wM . 2 k=0

Andererseits ist f¨ ur μ = 0(1)M − 1 U (μ) =

M −1  k=0



(M/2)−1 μk u(k)wM =



(M/2)−1 2kμ u(2k)wM +

k=0

(2k+1)μ

u(2k + 1)wM

.

k=0

Damit ergibt sich schließlich

1 1 μ M ∗ M ∗ M U (μ) = − μ) + wM V (μ) − V ( − μ) , μ = 0(1) . V (μ) + V ( 2 2 2j 2 2 (2.4.38a) Wie angegeben ist die Gleichung auch f¨ ur μ = M/2 auszuwerten. Sie liefert dort U (M/2) = Re {V (0)}−Im {V (0)}. Die Werte f¨ ur μ = (M/2+1)(1)M −1 erh¨ alt man dann nach dem Zuordnungsschema (2.4.15) als U (μ) = U ∗ (M −μ). Ein Maß f¨ ur die erreichbare Reduzierung des Aufwandes bekommen wir wieder durch Bestimmung der Zahl der notwendigen reellen Multiplikationen. Zur Auswertung sind offenbar eine FFT der L¨ ange M/2 und neben den n¨otigen μ erforderlich. Wenn M = Additionen M/2 komplexe Multiplikationen mit wM m 2 ist und nur ein Butterfly verwendet wird, ergibt sich mit (2.4.33a), daß (r)

g21 (M ) = M (m + 1)

(2.4.38b)

reelle Multiplikationen f¨ ur die DFT einer reellen Folge der L¨ange M n¨otig sind. Eine andere M¨ oglichkeit zur Aufwandsreduktion ergibt sich, wenn zwei ange M zu transformieren sind. Man bildet reelle Folgen u1 (k) und u2 (k) der L¨ daraus zun¨ achst die komplexe Folge v(k) = u1 (k) + ju2 (k), k = 0(1)M − 1. Aus V (μ) = DFT {v(k)} ergeben sich die gesuchten einzelnen Transformierten als

82

2 Diskrete determinierte Signale

U1 (μ) =

1 [Re {V (μ) + V (M − μ)} + jIm {V (μ) − V (M − μ)}] , 2

(2.4.39)

1 U2 (μ) = [Im {V (μ) + V (M − μ)} − jRe {V (μ) − V (M − μ)}] . 2 Man gewinnt diese Beziehungen wieder aus dem Zuordnungsschema (2.4.15). Die Symmetrien in den Komponenten des Spektrums reeller Folgen lassen sich auch f¨ ur die inverse Transformation nutzen. Aus (2.4.38) erh¨alt man zun¨ achst in einem Vorbereitungsschritt f¨ ur μ = 0(1)(M/2 − 1)

1 −μ 1 ∗ M ∗ M − μ) − wM U (μ) − U ( − μ) . V (μ) = U (μ) + U ( 2 2 2j 2 Dann ist v(k) = DFT−1 {V (μ)} = u(2k) + ju(2k + 1), d.h. u(2k)

k = 0(1)

M − 1, 2

(2.4.40)

= Re {v(k)}

u(2k + 1) = Im {v(k)} . Man erreicht bei dieser inversen Operation offenbar dieselbe Reduktion des numerischen Aufwandes wie bei der DFT der reellen Folge v(k). Eine andere M¨ oglichkeit zur Transformation reeller Folgen wird von Bruun in [2.23] beschrieben, eine neuere Untersuchung dazu, in der auch die inverse Operation behandelt wird, in [2.24]. Mit ihr wird eine deutliche Reduzierung der Zahl der arithmetischen Operationen, wegen der komplizierteren Struktur aber keine entsprechende Verminderung der Rechenzeit erreicht. Der Speicherbedarf ist gr¨ oßer (kein in-place-Algorithmus). 2. Inverse Diskrete FouriertransformationFouriertransformation!diskret Nach (2.4.1b) wird die inverse DFT durch M −1 1  −μk V (μ)wM = DFT−1 {V (μ)} v(k) = M μ=0

beschrieben. Abgesehen vom Faktor 1/M unterscheidet sie sich von der DFT durch das Vorzeichen im Exponenten der Drehfaktoren. Es gibt verschiedene M¨ oglichkeiten, f¨ ur die Ausf¨ uhrung dieser R¨ ucktransformation ein prim¨ar f¨ ur die Transformation von Folgen v(k) entwickeltes Programm zu verwenden, wenn man von der Multiplikation mit 1/M absieht. Zun¨achst erh¨alt man einerseits mit der Substitution μ → −μ aus (2.4.1b) unmittelbar

2.4 Die Diskrete Fouriertransformation

83

Abb. 2.32. Zur inversen DFT mit Hilfe eines Algorithmus zur DFT

v(k) =

1 DFT {V (−μ)} , M

(2.4.41a)

1 DFT {V (μ)} . M

(2.4.41b)

andererseits mit (2.4.1a) v(−k) =

In beiden F¨ allen ist das negative Argument modulo M zu verstehen. Die daher vor bzw. nach der Transformation n¨ otige Umordnung erfolgt, wie mit Bild 2.18b beschrieben. Man kann weiterhin von v ∗ (k) =

M −1 1  ∗ 1 μk DFT {V ∗ (μ)} . V (μ)wM = M μ=0 M

ausgehen und erh¨alt (siehe Bild 2.32a) v(k) =

1 ∗ [DFT {V ∗ (μ)}] . M

(2.4.41c)

Eine vierte M¨ oglichkeit ergibt sich, wenn man in dieser Beziehung V ∗ (μ) mit +j und das Ergebnis der DFT mit −j multipliziert. Das l¨aßt sich in der Form v(k) =

 1 " ∗ !∗ −jDFT [−jV (μ)] M

(2.4.41d)

darstellen. Bild 2.32b erl¨ autert, daß hier am Eingang und Ausgang des DFTAlgorithmus eine Vertauschung von Real- und Imagin¨arteil erfolgt. 3. Zyklische und lineare Faltung Die in Abschnitt 2.4.2 mit (2.4.17a) erkl¨ arte zyklische Faltung zweier Folgen ange M v1 (k) und v2 (k) der L¨

84

2 Diskrete determinierte Signale M v2 (k) = v(k) = v1 (k) 

M −1 

v1 (κ) · v2 ([k − κ]modM )

κ=0

erfordert neben den Summationen M 2 i. allg. komplexe Multiplikationen. Unter Verwendung von (2.4.19) M v2 (k)} = V1 (μ) · V2 (μ) DFT {v1 (k) 

erh¨ alt man das Ergebnis auch mit v(k) = DFT−1 {DFT {v1 (k)} · DFT {v2 (k)}} .

(2.4.42)

Eine Reduzierung des numerischen Aufwandes ist auf diesem Wege in der Regel m¨ oglich. In MATLAB wird die zyklische Faltung mittels FFT mit dem Aufruf v = ifft(fft(v1) .* fft(v2))



durchgef¨ uhrt.

Die direkte zyklische Faltung der beiden Folgen der gleichen L¨angen M kann nach (2.4.29a) als Multiplikation der zu v1 (k) geh¨orenden Zirkulanten uhrt werden. Nach (2.4.29b) ist zun¨achst C1 , C1 mit dem Vektor v2 durchgef¨ eine nicht symmetrische Toeplitz-Matrix aus dem Spaltenvektor v1 = [v1 (0), v1 (1), ..., v1 (M − 1)]

T

und dem Zeilenvektor f¨ ur v1 (−k) v1 = [v1 (0), v1 (M − 1), ..., v1 (1)] zu bilden. Man erh¨ alt die zyklische Faltung von v1 und v2 mit v1 = v1([1 M : −1 : 2]); C1 = toeplitz(v1, v1 ); v = C1 ∗ v2;. Haben die beiden Folgen verschiedene L¨ angen, so ist die k¨ urzere durch Hin¨ zuf¨ ugung von Nullen zun¨ achst auf die L¨ ange M zu bringen. Die Uberpr¨ ufung der Rechenzeiten ergeben bei optimiertem FFT-Algorithmus auch bei kurzen L¨ angen M einen Vorteil f¨ ur die Schnelle Faltung. Von gr¨ oßerer praktischer Bedeutung ist, daß die wichtige lineare Faltung angen M1 und M2 als zyklische Faltung zweier Folgen v1 (k) und v2 (k) der L¨ uhrt werden kann, wobei dann M als der L¨ ange M ≥ M1 + M2 − 1 ausgef¨ Zweierpotenz w¨ahlbar ist. Dazu werden v1 (k) und v2 (k) entsprechend ⎧ ⎨ v1,2 (k) , k = 0(1)M1,2 − 1  (k) = v1,2 ⎩ 0 , k = M1,2 (1)M − 1

2.5 Die Z-Transformation

85

durch Anf¨ ugen von Nullen zu Folgen der L¨ ange M erg¨anzt. Die Schnelle Faltung berechnet sich dann nach (2.4.42). Im Vergleich zur direkten linearen Faltung ergibt sich dabei insbesondere im Fall M1 ≈ M2 ab M1,2 > 85 eine Reduzierung der Zahl der Rechenoperationen (s. auch Abschn. 6.4). In MATLAB erfolgt die direkte lineare Faltung mit dem Befehl v = conv (v1,v2); und die durch (2.4.42) beschriebene Operation der Schnellen Faltung mit m = ceil (log2 (M1 + M2 - 1)); M = 2^m; v = ifft (fft (v1, M). * fft (v2, M)); Mit der ersten Zeile wird die kleinste Zweierpotenz M ≥ M1 + M2 − 1 bestimmt. Bem.: Man wird hier auch dann ein komplexes Ergebnis bekommen, wenn v1 (k) ur ist die immer begrenzte Genauigkeit der und v2 (k) reell sind. Der Grund daf¨ numerischen Rechnung. In diesem Fall erh¨ alt man das erwartete reelle Ergebnis mit v = real (ifft(fft(v1,M).* fft(v2,M)));



2.5 Die Z-Transformation 2.5.1 Definition und Beispiele Ein f¨ ur die Behandlung von Folgen und die L¨ osung von Differenzengleichungen geeignetes Hilfsmittel ist die Z-Transformation. Mit ihr wird einer Folge von i. allg. komplexen Zahlenwerten v(k) eine Funktion der komplexen Variablen z zugeordnet. Die folgende Darstellung beschr¨ankt sich auf die im Rahmen dieses Buches notwendigen Gesetze. F¨ ur eine ausf¨ uhrliche Behandlung sei auf die Literatur verwiesen (z.B. [2.25 - 28]). Zun¨ achst betrachten wir Folgen v(k), die f¨ ur k < 0 identisch verschwinden. Die Z-Transformierte einer derartigen kausalen oder rechtsseitigen Folge wird dann als ∞  v(k)z −k =: V (z) (2.5.1a) Z {v(k)} = k=0

definiert. Hier ist die komplexe Variable z so zu w¨ahlen, daß diese Reihe konvergiert. Das ist dann und nur dann m¨ oglich, wenn die Folge der Betr¨age von v(k) durch eine Exponentialfolge majorisiert werden kann. Existieren also positive reelle Werte M0 und r derart, daß |v(k)| < M0 rk ,

∀k ≥ 0

ist, dann konvergiert (2.5.1a) absolut f¨ ur |z| > r und liefert eine in diesem Bereich der z-Ebene analytische Funktion. Alle Singularit¨aten von V (z) liegen

86

2 Diskrete determinierte Signale

im Kreis |z| ≤ r. Ist r < 1, so erh¨ alt man den Zusammenhang mit dem in Abschnitt 2.3.2 bestimmten Spektrum einer Folge hier zun¨achst f¨ ur den Fall einer rechtsseitigen Folge v(k) mit Z {v(k)}|z=ejΩ = V (ejΩ ) =

∗{v(k)}

=

∞ 

v(k)e−jkΩ ,

k=0

(vergl. (2.3.11a)). Die inverse Z-Transformation ergibt sich aus der Feststellung, daß (2.5.1a) die Laurent-Entwicklung einer f¨ ur |z| > r analytischen Funktion beschreibt [2.29]. Dann sind die Werte der Folge v(k) die Koeffizienten dieser Entwicklung, die sich mit der Beziehung  1  V (z)z k−1 dz = Z −1 {V (z)} , k ∈ N0 (2.5.1b) v(k) = 6 2πj C

aus V (z) errechnen lassen. Die Integration erfolgt auf einer einfach geschlossenen KurveKurve!geschlossen C um den Nullpunkt der z-Ebene, die außerhalb eines Kreises mit dem Radius r verl¨ auft. Enth¨alt das Konvergenzgebiet den Einheitskreis |z| = 1, so gilt entsprechend (2.3.11b) 1 v(k) = 2π

+π V (ejΩ )ejkΩ dΩ =

−1 ∗

 V (ejΩ ) .

−π

Die Auswertung von (2.5.1b) erfolgt zweckm¨ aßig mit Hilfe des Residuensatzes. Man erh¨ alt   (2.5.1c) Res V (z)z k−1 , v(k) = ν

wobei die Summation u ¨ber die Residuen der im Innern der Kurve C liegenden Pole erfolgen muß. F¨ ur die Beziehung zwischen der Folge v(k) und der zugeh¨origen Transformierten verwenden wir auch die Schreibweise V (z) = Z {v(k)} •—–◦ v(k), v(k) = Z −1 {V (z)} ◦—–• V (z). ∞  Als Beispiel berechnen wir Z z0k = (z0 /z)k . Die Reihe konvergiert f¨ ur

|z| > |z0 |. Es ergibt sich

k=0

 Z z0k =

z . z − z0 Man erh¨ alt damit eine in der ganzen z-Ebene bis auf den Punkt z = z0 erkl¨ arte Funktion, die f¨ ur |z| > |z0 | mit der Summe u ¨bereinstimmt. Durch alt man die Transformierten weiterer Folgen, z.B. Spezialisierung von z0 erh¨ der Sprungfolge oder einer Kosinusfolge, wobei zus¨atzlich die Linearit¨at der

2.5 Die Z-Transformation

87

Transformation verwendet wird. In der Tabelle 2.4 sind diese sowie weitere Z-Transformierte von einigen Wertefolgen angegeben. Mit einer Ausnahme ist in diesen Beispielen V (z) rational. Das gilt in sehr vielen praktisch wichtigen F¨ allen. Aus (2.5.1a) folgt, daß in V (z) = P (z)/N (z) der Grad des Z¨ahlerpolynomsPolynom!Nenner- P (z) nicht gr¨ oßer sein kann als der des Nennerpolynoms. Ist speziell v(k) = 0 f¨ ur k > n, so ist V (z) ein Polynom n-ten Grades at bei z = 0 holomorph. in z −1 und bis auf die isolierte Singularit¨ Von Interesse ist noch der Zusammenhang der Z-Transformierten mit der Laplace-Transformation, z.B. [2.26]. Um ihn zu zeigen, ordnen wir der Folge v(k) wie in Abschn. 2.3.2 eine verallgemeinerte Funktion v∗ (t) zu, die hier wegen v(k) = 0, ∀k < 0 die Form v∗ (t) =

∞ 

v(k)δ0 (t − kT )

(2.5.7a)

k=0

annimmt. Die Laplace-Transformation von v∗ (t) liefert {v∗ (t)} =

∞ 

v(k)e−skT =: V∗ (s).

(2.5.7b)

k=0

Offenbar erh¨ alt man mit z = esT {v∗ (t)} = Z {v(k)} = V (z).

(2.5.7c)

Weiterhin sei v0 (t) eine f¨ ur t ≥ 0 erkl¨ arte Zeitfunktion derart, daß v0 (t = kT ) = v(k) ist. V0 (s) = {v0 (t)} sei die zugeh¨orige Laplace-Transformierte. Stellt man wie in (2.3.30c) v∗ (t) als Produkt von v0 (t) mit dem Impulskamm p(t) dar, so ergibt sich mit Hilfe des komplexen Faltungssatzes der LaplaceTransformation unter gewissen einschr¨ ankenden Voraussetzungen [2.25] V (esT ) =

+∞ 1  1 V0 (s + j2κπ/T ) + v0 (+0). T κ=−∞ 2

(2.5.7d)

Existiert V0 (s) auch f¨ ur s = jω, so erhalten wir f¨ ur das Spektrum von v∗ (t) V∗ (jω) = V (ejωT ) =

+∞ 1  1 V0 [j(ω + 2κπ/T )] + v0 (+0), T κ=−∞ 2

(2.5.7e)

eine Beziehung, die sich von (2.3.30e) nur durch das additive Glied v0 (+0)/2 unterscheidet, das bei einer Unstetigkeit von v0 (t) im Nullpunkt auftritt. Bei der Herleitung von (2.3.30e) hatten wir vorausgesetzt, daß v0 (t) in den Abtastpunkten, also auch bei t = 0, stetig ist.

88

2 Diskrete determinierte Signale

v(k)

Z {v(k)}

Konvergenzbereich

Gleichung

γ0 (k)

1

ganze z-Ebene

(2.5.2)

z0k

z z − z0

|z| > |z0 |

(2.5.3a)

γ−1 (k)

z z−1

|z| > 1

(2.5.3b)

|z| > 1

(2.5.3c)

⎧ ⎨ 1, k = λr pr (k) =



0, k = λr

zr −1

zr

cos(Ω0 k − ϕ)

z[z cos ϕ − cos(Ω0 + ϕ)] z 2 − 2z cos Ω0 + 1

|z| > 1

(2.5.4a)

cos Ω0 k

z(z − cos Ω0 ) z 2 − 2z cos Ω0 + 1

|z| > 1

(2.5.4b)

sin Ω0 k

z sin Ω0 z 2 − 2z cos Ω0 + 1

|z| > 1

(2.5.4c)

kz0k

zz0 (z − z0 )2

|z| > |z0 |

(2.5.5a)

k 2 z0k

zz0 (z + z0 ) (z − z0 )3

|z| > |z0 |

(2.5.5b)

1 k−1 γ−1 (k − 1) z k 0



z 1 ln z0 z − z0

|z| > |z0 |

(2.5.5c)

zλ (z − z0 )κ+1

|z| > |z0 |

(2.5.6a)

z (z − 1)κ+1

|z| > 1

(2.5.6b)



 k + λ − 1 k+λ−κ−1 z0 κ

(= 0, ∀k < κ + 1 − λ) mit λ, κ ∈ N0 , λ ≤ κ + 1   k κ

(= 0, ∀k < κ)

Tabelle 2.4. Z-Transformierte einiger Folgen v(k) mit v(k) = 0 f¨ ur k < 0

2.5 Die Z-Transformation

89

2.5.2 S¨ atze der Z-Transformation Tabelle 2.5 enth¨alt eine Zusammenstellung der wichtigsten S¨atze der ZTransformation von rechtsseitigen Folgen. Mit ihrer Hilfe lassen sich einige der in Tabelle 2.4 angegebenen Transformierten berechnen. Die in der Spalte Konvergenzbereich gemachten Angaben gehen stets davon aus, daß ur |z| > rν konvergiert. Die durch die behandelte OpeZ {vν (k)} = Vν (z) f¨ ration bedingte Ver¨ anderung des Konvergenzbereichs wird jeweils genannt. atze entsprechend f¨ ur die mit (2.3.11) erkl¨arte Falls rν < 1 ist gelten diese S¨ Fouriertransformation von Folgen, wobei z = ejΩ zu setzen ist und hier die Folge v(k) kausal ist. Wir beweisen im folgenden einige S¨ atze der Z-Transformation und erl¨autern ihre Aussagen durch Beispiele. Die Z-Transformation ist offensichtlich eine lineare Operation, (s. (2.5.8)). Beim Verschiebungssatz ist die hier zun¨ achst vorausgesetzte Kausalit¨at der zu transformierenden Folgen zu beachten (siehe Bild 2.33). F¨ ur > 0 ist ∞  v(k + )z −k . Z {v(k + )} = k=0

Mit κ = k + bzw. k = κ − folgt wegen v(k) = 0, ∀k < 0 Z {v(κ)} = z 

∞ 

v(κ)z −κ = z 

κ=

∞ 

v(κ)z −κ − z 

k=0

−1 

v(λ)z −λ .

λ=0

Es ergibt sich (2.5.9a). Die Aussage (2.5.9b) f¨ ur eine Verschiebung nach rechts erh¨ alt man entsprechend. Der Faltungssatz (2.5.10a) beschreibt die Multiplikation zweier Potenzreihen. Ausgehend von der Definition der Z-Transformierten der Folgen v1 (k) und v2 (k) ist ∞  V1 (z)V2 (z) = v1 (κ)z −κ V2 (z). κ=0 ∞

Es ist z −κ V2 (z) = Z {v2 (k − κ)} = V1 (z)V2 (z) =

=

∞ κ=0 ∞ k=0

k=0

v1 (κ) 



κ=0

v2 (k − κ)z −k . Damit folgt ∞ k=0

v2 (k − κ)z −k

# v1 (κ)v2 (k − κ) z −k .

ur κ > k ergibt sich (2.5.10a) Da aber v2 (k − κ) = 0 ist  f¨ k  V1 (z)V2 (z) = Z v1 (κ)v2 (k − κ) =: Z {v1 (k) ∗ v2 (k)} . κ=0

90

2 Diskrete determinierte Signale

Abb. 2.33. Zur Herleitung des Verschiebungssatzes

Die Faltungsoperation v1 (k) ∗ v2 (k) =

k κ=0

v1 (κ)v2 (k − κ) wird durch Bild 2.34

erl¨ autert; zur numerischen Ausf¨ uhrung siehe auch Abschn. 2.4.4.3, Punkt 3. Mit einer Substitution ist leicht zu zeigen, daß das Faltungsprodukt kommutativ ist. Es gilt also v1 (k) ∗ v2 (k) = v2 (k) ∗ v1 (k) =

k 

v2 (κ)v1 (k − κ).

(2.5.10b)

κ=0

Die Summationsregel (2.5.11) ergibt sich wegen s(k) :=

k 

v(κ) = γ−1 (k) ∗ v(k)

κ=0

unmittelbar aus dem Faltungssatz. Man kann auch s(k) = s(k −1) + v(k) der Z-Transformation unterwerfen und erh¨ alt mit dem Verschiebungssatz S(z) = Z {s(k)} = z −1 S(z) + V (z) und damit (2.5.11). Der Modulationssatz (2.5.12) folgt sofort aus der Definition der Z-Transformation mit einer Substitution. Wir verwenden ihn zun¨achst, um die ZTransformierte der durch Umtastung aus v0 (k) entstehenden Folge v(k) = (−1)k · v0 (k) zu bestimmen. Mit V0 (z) = Z {v0 (k)} und z0 = −1 folgt aus (2.5.12) V (z) = Z {v(k)} = V0 (−z)

(2.5.18a)

2.5 Die Z-Transformation Bedeutung

Eigenschaft

Linearit¨ at

Z



ν

Konvergenzber.

# aν vν (k) = aν Vν (z), ν

aν ∈ C

Verschiebung Z {v(k + )} = z  V (z) −

−1

v(λ)z −λ

λ=0

 Z

Faltung

k κ=0

# v1 (κ)v2 (k − κ) =

Gleichung

|z| > max[rν ]

(2.5.8)

|z| > r

(2.5.9a)

Z {v(k − )} = z − V (z),  ∈ N0

91

(2.5.9b) |z| > max[r1 , r2 ] (2.5.10a)

Z {v1 (k) ∗ v2 (k)} = V1 (z)V2 (z) 

# v(κ) = Z {γ−1 (k) ∗ v(k)}= κ=0 z = V (z) z−1 k

Summation

Z

Modulation

 Z z0k v(k) = V



z z0

|z| > max[r, 1]

(2.5.11)

|z| > |z0 |r

(2.5.12)



d [V (z)] Multiplikation Z {kv(k)} = −z dz mit speziellen  d2 Folgen Z k 2 v(k) = z 2 2 [V (z)] + dz d +z [V (z)] dz  # ∞ $ 1 1 f¨ ur k > 0 : Z v(k) = V (ζ)dζ k z ζ

(2.5.13a)

|z| > r

(2.5.13c)

Multiplikation Z {v1 (k)v2 (k)} =

|z| > r1 r2

allgemein

r1 < r
r

(2.5.15)

(2.5.16a) (2.5.16b)

λ=0

Tabelle 2.5. S¨ atze der Z-Transformation rechtsseitiger Folgen

92

2 Diskrete determinierte Signale

Bedeutung

Eigenschaft

Gleichung

2. Grenzwertsatz:

a) Wenn lim v(k) existiert, so existiert k→∞

V (z) f¨ ur |z| > 1, und es ist lim v(k) = lim (z − 1)V (z). z→1+0

k→∞

k b) Wenn lim v(κ) existiert, so k→∞ κ=0 z V (z) f¨ ur |z| > 1, und es ist existiert z−1 k lim v(κ) = lim V (z). k→∞ κ=0

z→1+0

(2.5.17a)

(2.5.17b)

Tabelle 2.5. S¨ atze der Z-Transformation rechtsseitiger Folgen (Fortsetzung)

Abb. 2.34. Zur Erl¨ auterung der Faltung

und, falls V0 (ejΩ ) existiert, f¨ ur das Spektrum V (ejΩ ) = V0 (ej(Ω−π) ).

(2.5.18b)

2.5 Die Z-Transformation

93

 Die Beziehungen (2.5.13a,b) f¨ ur Z {kv(k)} und Z k2 v(k) best¨atigt man unmittelbar nach einer Differentiation von V (z). Ist speziell v(k) = z0k , so folgen die in der Tabelle 2.4 angegebenen Beziehungen (2.5.5a,b). Entsprechend ergibt sich (2.5.13c) durch Integration von V (ζ)/ζ auf einem beliebigen Weg im Regularit¨ atsbereich von z mit |z| > r nach ∞, der den Nullpunkt nicht umschließt. Die Spezialisierung auf eine bei k = 1 beginnende Exponentialfolge uhrt # f¨ 

auf (2.5.5c) in Tabelle 2.4, woraus sich z.B. z 1 γ−1 (k − 1) = ln Z ergibt, wenn man z0 = 1 setzt. k z−1 Weiterhin beweisen wir den allgemeinen Multiplikationssatz (2.5.14). Vorausgesetzt wird, daß die Z-Transformierten der beiden Folgen v1 (k) und v2 (k) ur f¨ ur |z| > r1 bzw. |z| > r2 und damit die Transformierte des Produktes f¨ |z| > r1 r2 existieren. Ausgehend von V (z) = Z {v1 (k)v2 (k)} =

∞ 

v1 (k)v2 (k)z −k

k=0

stellen wir jetzt v1 (k) mit Hilfe von (2.5.1b) als Inverse von V1 (z) dar. Es ist dann

 ∞  1  V1 (w)wk−1 dw z −k . v2 (k) V (z) = 6 2πj k=0

Die Vertauschung der Reihenfolge von Summation und Integration f¨ uhrt auf    ∞ % z &−k dw  1  V . (w) v (k) V (z) = 1 2 6 2πj w w k=0

Die Summe liefert die Z-Transformierte von v2 (k) als V2 (z/w), wobei unter den genannten Voraussetzungen |z/w| > r2 und damit |w| < |z|/r2 sein muß. Man erh¨ alt (2.5.14)  V1 (w)V2 (z/w) 1  dw. Z {v1 (k)v2 (k)} = 6 2πj w |w|=r

Die Integration erfolgt auf einer einfach geschlossenen Kurve im Kreisring um den Ursprung der w-Ebene mit den Radien r1 und |z|/r2 , also z.B. auf einem Kreis, dessen Radius zwischen diesen Grenzen liegt. Bild 2.35 erl¨autert die auftretenden Konvergenzgebiete sowie den Bereich, in dem r gew¨ahlt werden darf. Wir spezialisieren die Beziehung noch f¨ ur den Fall, daß f¨ ur die Konvergenzradien r1,2 < 1 gilt. Dann sind v1,2 (k) ∈ l1 , und die Z-Transformierte des Produkts existiert auch f¨ ur |z| = 1. Die Integration kann auf dem Einheitsahlt man weiterhin in (2.5.14) z = 1 und schreibt kreis w = ejΩ erfolgen. W¨ danach f¨ ur die Integrationsvariable an Stelle von w wieder z, so erh¨alt man

94

2 Diskrete determinierte Signale

Abb. 2.35. Zur Erl¨ auterung der Z-Transformation eines Produkts von Folgen

Z {v1 (k)v2 (k)}|z=1 =

∞  k=0

 1 dz  V1 (z)V2 (1/z) v1 (k)v2 (k) = 6 2πj z |z|=1

(2.5.19a) +π 1 V1 (ejΩ )V2 (e−jΩ )dΩ. = 2π −π

Ist schließlich noch v2 (k) = v1∗ (k) =: v ∗ (k), so erh¨alt man mit (2.5.15) die Parsevalsche Beziehung f¨ ur kausale Folgen  ∞  1 dz  V (z)V ∗ (1/z ∗ ) , |v(k)|2 = (2.5.19b) 6 2πj z k=0

|z|=1

1 = 2π

+π |V (ejΩ )|2 dΩ.

(2.5.19c)

−π

Die rechte Seite ist das Quadrat der L2 -Norm der periodischen Funktion onnen die Parsevalsche Gleichung dann als V (ejΩ ). Wir k¨ ||v(k)||22 = ||V (ejΩ )||22

(2.5.19d)

schreiben, (vergl. (2.4.21b)) und (2.3.12)). In Abschn. 2.3.2 hatten wir gezeigt, daß bei kausalen Folgen der gerade Teil Vg (ejΩ ) und der ungerade Teil Vu (ejΩ ) des Spektrums V (ejΩ ) u ¨ber die Hilbert-Transformation (2.3.19) miteinander verbunden sind. Mit diesen Teilfunktionen erh¨alt man f¨ ur die Energie ||v(k)||22 = 2||Vg (ejΩ )||22 − |v(0)|2 = 2||Vu (ejΩ )||22 + |v(0)|2 .

(2.5.19e)

Verfahren zur Berechnung von ||v(k)||22 werden wir in Abschn. 2.5.5.3 vorstellen.

2.5 Die Z-Transformation

95

Schließlich behandeln wir die Grenzwerts¨ atze. Die beiden Fassungen des Anfangswertsatzes (2.5.16) folgen unmittelbar aus der Definition der Z-Transformation. Wir bemerken dazu, daß im Falle einer rationalen Funktion V (z) der Gradunterschied von Z¨ ahler- und Nennerpolynom sofort angibt, wo die zugeh¨ orige kausale Folge v(k) beginnt. Zum Beweis des Endwertsatzes (2.5.17a) setzen wir generell die Existenz der Transformierten V (z) voraus und damit, daß |v(k)| von M0 rk majorisiert wird. Da aber bei diesem Satz die Existenz von v(∞) Voraussetzung ist, muß hier mindestens r = 1 sein, so daß V (z) f¨ ur |z| > 1 existiert. Es ist dann v(k) = v(∞)γ−1 (k) + v0 (k), wobei |v0 (k)| von M1 rk mit r < 1 majorisiert wird, sodaß V0 (z) f¨ ur |z| = 1 existiert. Damit folgt aus V (z) = v(∞)

z + V0 (z), z−1

|z| > 1

der Endwertsatz lim (z − 1)V (z) = v(∞).

|z|→1+0

Wir betonen, daß der Satz nicht umkehrbar ist: Aus der Existenz des Grenzwertes im z-Bereich folgt nicht die Existenz von v(∞). Z.B. existiert der Grenzwert von v(k) = ejΩ0 k f¨ ur k → ∞ nicht im Gegensatz zu dem f¨ ur (z − 1)V (z) f¨ ur z → 1 + 0. In (2.5.17b) wird lediglich die oben hergeleitete Fassung des Endwertsatzes k auf die Summenfolge v(κ) angewendet (vergl. (2.5.11)). κ=0

Es ist bemerkenswert, daß es bei der Z-Transformation bzw. der Fourier¨ ¨ transformation von Folgen kein Aquivalent zum Ahnlichkeitssatz der Laplacebzw. Fouriertransformation gibt. Das h¨ angt damit zusammen, daß dort sowohl im Zeit- wie im Frequenzbereich eine lineare Abbildung im unendlichen Intervall erfolgen kann, w¨ ahrend hier bei der Transformation von Folgen im Frequenzbereich nur das endliche Intervall (−π, π] f¨ ur die Variable Ω vorhanden ist. Eine beliebige lineare Abbildung ist daher nicht m¨oglich. Bei Bezug auf ¨ die nicht normierte Frequenzvariable ω gilt dagegen der Ahnlichkeitssatz in dem trivialen Sinne, daß eine Ver¨ anderung von T , also des Abstands der Werte einer Folge, die Periode ωa = 2π/T des Spektrums umgekehrt proportional ver¨ andert. Wir kommen bei der Behandlung der Spreizung in Abschn. 2.5.5.1 sowie im Zusammenhang mit Frequenztransformationen im Band II darauf zur¨ uck. 2.5.3 Zweiseitige Z-Transformation In diesem Abschnitt wird die Z-Transformation von Folgen behandelt, die f¨ ur alle Werte von k von Null verschiedene Werte annehmen k¨onnen. Die

96

2 Diskrete determinierte Signale

Unterschiede zu den bisherigen Untersuchungen werden deutlicher, wenn wir zun¨ achst linksseitigeFolge!linksseitig Folgen betrachten, die f¨ ur k > 0 identisch verschwinden. Um dabei fr¨ uhere Ergebnisse verwenden zu k¨onnen, gehen wir ur |z| > von einer rechtseitigen Folge vr (k) aus, deren Z-Transformierte Vr (z) f¨ r existiert. F¨ ur die daraus durch Spiegelung entstehende linksseitige Folge alt man dann 3 v (k) = vr (−k) erh¨ V (z) = Z {v (k)} =

0 

vr (−k)z −k =

k=−∞

∞ 

vr (k)z k = Vr (z −1 ),

(2.5.20)

k=0

mit dem Konvergenzbereich |z| < r−1 . Bei Beachtung dieser Regel lassen sich die in Tabelle 2.4 angegebenen Korrespondenzen auch f¨ ur linksseitige Folgen verwenden. Zum Beispiel ist  Z z0−k γ−1 (−k) =

1 1 f¨ ur |z| < . 1 − z0 z |z0 |

Ebenso bleiben in Tabelle 2.5 angegebene S¨ atze im wesentlichen g¨ ultig, wenn man beachtet, daß jetzt der Konvergenzbereich das Innere eines Kreises ist, dessen Radius kleiner ist als der jeweils vorkommende kleinste Wert rν . In Erg¨ anzung der Tabelle geben wir die hier geltenden Verschiebungs- und Grenzwerts¨ atze an. Es ist mit ∈ N0 Z {v (k − )} =

0 

v (k− )z

−k

=z

k=−∞

−

V (z)−

0 

v (λ)z −(λ+) , (2.5.9c)

λ=1− 0 

Z {v (k + )} =

v (k + )z −k = z  V (z),

(2.5.9d)

k=−∞

w¨ ahrend f¨ ur die Grenzwerte gilt v (0) = vr (0) = lim V (z) = lim Vr (z) z→0

(2.5.16c)

z→∞

und, falls lim v (k) existiert, k→−∞

lim v (k) = lim vr (k) =

k→−∞

k→∞

lim (1 − z)V (z) =

|z|→1−0

lim

|z|→1+0

Vr (z).

(2.5.17c)

Nun k¨ onnen wir die Transformation einer allgemeinen Folge v(k) betrachten, die f¨ ur beliebige Werte k ∈ Z von Null verschiedene Werte annehmen kann. F¨ ur sie wird die zweiseitige Z-Transformation als 3

Wie u uhren wir hier kein besonderes Symbol f¨ ur die Transformation nicht ¨blich f¨ kausaler Folgen ein (vergl.[2.26]). Die Angabe des jeweiligen Definitionsbereichs der zu transformierenden Folgen m¨ oge zur Kennzeichnung gen¨ ugen.

2.5 Die Z-Transformation

Z {v(k)} =

+∞ 

v(k)z −k = V (z)

97

(2.5.21a)

k=−∞

definiert. Es wurde schon im Zusammenhang mit der Transformation kausaler Folgen angegeben, daß es sich hier um die Laurent-Entwicklung von V (z) handelt, wobei zu pr¨ ufen ist, unter welchen Bedingungen V (z) existiert. Wir stellen v(k) mit v(k) = v (k) + vr (k) − v(0)γ0 (k) als Summe einer linksseitigen Teilfolge vl (k) und einer rechtsseitigen Teilfolge urlich unabh¨ angig voneinander sind. Es ergeben sich f¨ ur vr (k) dar, die hier nat¨ die Konvergenz von (2.5.21a) die folgenden Aussagen: a) Gibt es zwei positive Werte M und R derart, daß |v (k)| ≤ M− Rk , ∀k ≤ 0, ur |z| < R. so konvergiert Z {v (k)} f¨ b) Gibt es zwei positive Werte M+ und r derart, daß |vr (k)| ≤ M+ rk , ∀k ≥ 0, so konvergiert Z {vr (k)} f¨ ur |z| > r. c) Ist weiterhin r < R, so existiert die Entwicklung (2.5.21a) in dem Kreisring r < |z| < R. Die in der Tabelle 2.5 angegebenen S¨ atze (2.5.8), (2.5.12), (2.5.13a,b), (2.5.14) und (2.5.15) gelten im wesentlichen auch f¨ ur zweiseitige Folgen. Es ist dabei zu beachten, daß die Konvergenzbereiche auch hier zu Kreisringen werden. Der Verschiebungssatz (2.5.9) vereinfacht sich zu Z {v(k + )} = z  V (z),

∈ Z.

Beim Faltungssatz (2.5.10) ergibt sich die allgemeine Form  +∞  v1 (κ)v2 (k − κ) = V1 (z)V2 (z) Z

(2.5.22)

(2.5.23)

κ=−∞

mit dem Konvergenzbereich max [r1 , r2 ] < |z| < min [R1 , R2 ] , wobei ri und Ri , i = 1, 2 die Radien der kreisringf¨ormigen Konvergenzbereiche der vi (k) sind. Besonders interessant ist wieder der Fall, daß der Einheitskreis |z| = 1 im Konvergenzgebiet liegt. Dann erh¨ alt man wie in Abschn. 2.3.2 mit z = ejΩ V (ejΩ ) =

∗{v(k)}

=

+∞ 

v(k)e−jkΩ .

(2.5.24)

k=−∞

Es gilt dann auch die bisher nur f¨ ur kausale Folgen hergeleitete Parsevalsche Gleichung (2.5.19b,c), wobei jetzt im Zeitbereich u ¨ber alle k ∈ Z zu summieren ist. Weiterhin existiert auch die in (2.3.25) angegebene Taylorentwicklung von V (ejΩ ). Die hier gemachten Voraussetzungen entsprechen denen, die wir f¨ ur die G¨ ultigkeit von (2.3.11a) gemacht haben.

98

2 Diskrete determinierte Signale

2.5.4 Die Ru ¨ cktransformation F¨ ur die inverse Z-Transformation, d.h. f¨ ur die Bestimmung der zu V (z) geh¨ orenden Folge v(k), kann man unmittelbar von (2.5.21a) ausgehen und die f¨ ur die Berechnung der Koeffizienten dieser Laurententwicklung g¨ ultige Beziehung  1  V (z)z k−1 dz, k ∈ Z (2.5.21b) v(k) = 6 2πj C

verwenden. Die Integration erfolgt auf einer einfach geschlossenen Kurve C um den Nullpunkt der z-Ebene, die im Kreisring r < |z| < R verl¨auft. Enth¨alt das Konvergenzgebiet den Einheitskreis |z| = 1, so gilt 1 v(k) = 2π

+π V (ejΩ )ejkΩ dΩ.

(2.5.21c)

−π

Wir erhalten hier die v(k) als Koeffizienten der Fourierreihenentwicklung der periodischen Funktion V (ejΩ ), wie in (2.3.11b) angegeben. Im Sonderfall der einseitigen Z-Transformation wird R unendlich, alle Singularit¨aten liegen links von der Kurve C und damit im Innern des von ihr umfaßten Gebiets. Schließlich hat man bei der Bestimmung von v(k) f¨ ur eine linksseitige Folge (k ≤ 0) einen Pol der Ordnung |k| + 1 bei z = 0, falls V (0) = 0. Die Auswertung von (2.5.21b) erfolgt wieder zweckm¨aßig mit Hilfe des Residuensatzes. Man erh¨ alt   (2.5.21d) Res V (z)z k−1 , v(k) = ν

wobei die Summation u ¨ber die Residuen der im Innern der Kurve C liegenden Pole erfolgen muß. Wir betonen ausdr¨ ucklich, daß nur dann eine eindeutige R¨ ucktransformation m¨ oglich ist, wenn der Konvergenzbereich von V (z) bekannt ist. Ist z.B. V (z) =

z z + z − z1 z − z2

mit |z1 | < |z2 |, so erh¨ alt man drei unterschiedliche Ergebnisse, je nachdem, welcher der drei in Bild 2.36 angegebenen Konvergenzbereiche vorliegt: ur k ≥ 0 a) va (k) = −(z1k + z2k )γ−1 (−k − 1) ist eine linksseitige Folge, die f¨ verschwindet. b) vb (k) = z1k γ−1 (k) − z2k γ−1 (−k − 1) ist eine zweiseitige Folge, wobei der erste Term der rechten Seite der rechtsseitige Anteil ist. c) vc (k) = (z1k + z2k )γ−1 (k) ist eine rechtsseitige Folge. Eine andere Methode, die bei rechts- oder linksseitigen Folgen die schrittweise Berechnung der v(k) gestattet, ergibt sich aus dem Grenzwertsatz (2.5.16a...c) in Verbindung mit dem Verschiebungssatz. Man erh¨alt f¨ ur rechtsseitige Folgen mit k ≥ 0

2.5 Die Z-Transformation

99

Abb. 2.36. Beispiel f¨ ur unterschiedliche M¨ oglichkeiten zur R¨ ucktransformation einer gegebenen Funktion V (z).

 v(k) = lim

z→∞

z k V (z) −

k−1 

 v(κ)z k−κ ,

(2.5.25a)

κ=0

(s. (2.5.16b)). Entsprechend folgt bei linksseitigen Folgen (k ≤ 0) aus (2.5.9c)   0  k k−κ v(κ)z . (2.5.25b) v(k) = lim z V (z) − z→0

κ=1+k

In vielen praktisch wichtigen F¨ allen ist V (z) eine rationale Funktion. Dann erfolgt die R¨ ucktransformation zweckm¨ aßig nach einer Partialbruchentwicklung von V (z) unter Verwendung der entsprechenden Beziehungen von Tabelle 2.4. Zun¨ achst wird der Fall der einseitigen Z-Transformation betrachtet. Es sei V (z) =

Z(z) = N (z)

Z(z) cn

n0 ' ν=1

.

(2.5.26)

(z − z∞ν )nν

Hier sind die z∞ν Nullstellen des Nennerpolynoms N (z), die mit der Vielfachheit nν auftreten. Es gibt n0 verschiedene Nullstellen z∞ν .Der Grad des n0 nν . Man zerlegt zweckm¨aßig V (z)/z in PartialPolynoms N (z) ist n = ν=1

br¨ uche. Nach anschließender Multiplikation mit z erh¨alt man, falls z∞ν = 0 V (z) = B0 +

n0  nν  ν=1 κ=1

Bνκ

z (z − z∞ν )κ

(2.5.27a)

mit B0 = V (0) Bνκ



1 dnν −κ nν V (z) = lim (z − z∞ν ) . z→z∞ν (nν − κ)! dz nν −κ z

(2.5.27b)

100

2 Diskrete determinierte Signale

Die gliedweise R¨ ucktransformation liefert mit (2.5.6a) die rechtsseitige Folge   n0  nν  k k+1−κ v(k) = B0 γ0 (k) + Bνκ γ−1 (k + 1 − κ). (2.5.28a) z∞ν κ − 1 ν=1 κ=1 Liegt ein Pol z∞1 der Vielfacheit n1 bei z = 0, so f¨ uhrt die entsprechende Rechnung auf   n1 n0  nν   k k+1−κ Bνκ γ−1 (k+1−κ), (2.5.28b) z∞ν v(k) = B1κ γ0 (k−κ)+ κ − 1 κ=0 ν=2 κ=1 wobei die Koeffizienten Bνκ mit ν = 1 wieder mit (2.5.27b) bestimmt werden, w¨ ahrend f¨ ur die B1κ mit κ = 0(1)n1 gilt 1 dn1 −κ n1 [z V (z)] . z→0 (n1 − κ)! dz n1 −κ

B1κ = lim

(2.5.28c)

Im Falle einfacher Pole vereinfachen sich die Beziehungen (2.5.27) und (2.5.28a) zu n  z V (z) = B0 + Bν , (2.5.29a) z − z∞ν ν=1 wobei B0 = V (0), Bν = lim (z − z∞ν ) z→z∞ν

V (z) z

(2.5.29b)

ist. Mit (2.5.3a) erh¨ alt man hier v(k) = B0 γ0 (k) +

n 

k Bν z∞ν γ−1 (k).

(2.5.30)

ν=1

F¨ ur linksseitige Folgen beschr¨ anken wir uns auf den Fall einfacher Pole. Den Ausdruck (2.5.29a) schreiben wir dann in der Form

n  1 Bν 1 − (2.5.29c) V (z) = B0 + −1 . 1 − zz∞ν ν=1 Die R¨ ucktransformation liefert mit B0 + v(k) = V (∞)γ0 (k) −

n ν=1

n 

Bν = V (∞) die linksseitige Folge

k Bν z∞ν γ−1 (−k).

(2.5.31)

ν=1

Im Fall zweiseitiger Folgen schreiben wir (2.5.29a) als n1 

n  z z V (z) = B0 + Bν + Bν , z − z z − z∞ν ∞ν ν=1 ν=n +1 1

(2.5.29d)

2.5 Die Z-Transformation

101

wobei die Aufteilung so erfolgt, daß die Pole z∞ν mit ν = 1(1)n1 links vom Inucktransformation tegrationsweg, die mit ν = (n1 + 1)(1)n rechts liegen. Die R¨ liefert n1 n   k k Bν z∞ν γ−1 (−k). (2.5.32) v(k) = V (∞)γ0 (k) + Bν z∞ν γ−1 (k − 1) − ν=1

ν=n1 +1

Schließlich kann man, ebenfalls bei rationalen Funktionen V (z), die erforderur eine liche Potenzreihe in z −1 (bei einer rechtsseitigen Folge) bzw. in z (f¨ linksseitige Folge) gliedweise bekommen, wenn man eine Durchdivision von Z¨ ahler- und Nennerpolynom von V (z) vornimmt. Wir erl¨ autern die Verfahren der R¨ ucktransformation mit Beispielen, wobei wir auch die mit Bild 2.36 erkl¨ arten drei unterschiedlichen L¨osungen vorstellen. Es sei z+1 z+1 = . V (z) = 2 z − 2, 5z + 1 (z − 0, 5)(z − 2) a)Umkehrintegral (2.5.21b). Linksseitige Folge, k ≤ 0 : Die Integration erfolgt auf einem Kreis |z| = r < 0, 5 entsprechend Bild 2.36a  1 z+1 v(k) = z k−1 dz.  6(z − 0, 5)(z − 2) 2πj |z|=r

W¨ ahrend hier der Integrand im Innern des umfaßten Gebiets einen Pol der ¨ Ordnung |k| + 1 bei z = 0 hat, f¨ uhrt die Anderung der Umlaufrichtung auf einen Integranden, der links vom Integrationsweg unabh¨angig von k nur die einfachen Pole bei z = 0, 5 und z = 2 hat. Man erh¨alt  z+1 1 z k−1 dz v(k) = − ? 2πj (z − 0, 5)(z − 2) |z|=r

! = (0, 5)k−1 − 2 · 2k−1 γ−1 (−k). "

Es ist z.B. v(0) = 1; v(−1) = 3, 5; v(−2) = 7, 75. Zweiseitige Folge, k ∈ Z: Die Integration erfolgt z.B. auf dem Einheitskreis, der hier im Kreisring mit den Radien 0,5 und 2 liegt. Es ist  1 (z + 1)z k−1 dz. v(k) =  6(z − 0, 5)(z − 2) 2πj |z|=1

F¨ ur k ≥ 0 erh¨ alt man die Residuen der Pole bei z = 0 (nur f¨ ur k = 0) und bei z = 0, 5; f¨ ur k < 0 ¨ andern wir wieder die Umlaufrichtung der Integration und gewinnen v(k) als Residuum des Pols bei z = 2. Insgesamt ist

102

2 Diskrete determinierte Signale

v(k) = γ0 (k) − (0, 5)k−1 γ−1 (k) − 2 · 2k−1 γ−1 (−k − 1). Die v(k) sind die Koeffizienten der Fourierreihenentwicklung der periodischen Funktion ejΩ + 1 V (ejΩ ) = j2Ω . e − 2, 5ejΩ + 1 Rechtsseitige Folge, k ≥ 0 : Die Integration erfolgt auf einem Kreis mit Radius r > 2 im mathematisch positiven Sinne. Man erh¨ alt ! " v(k) = γ0 (k) + −(0, 5)k−1 + 2 · 2k−1 γ−1 (k) und damit die Folge {v(k)} = {0; 1; 3, 5; 7, 75; ...} . b) Grenzwertsatz. F¨ ur die linksseitige Folge erh¨ alt man aus (2.5.25b)

z+1 v(0) = lim 2 = 1, z→0 z − 2, 5z + 1 v(−1) = lim z −1

z+1 −1 − z v(0) = 3, 5, z 2 − 2, 5z + 1

v(−2) = lim z −2

z+1 −2 −1 − z v(0) − z v(−1) = 7, 75 z 2 − 2, 5z + 1

z→0

z→0

usw. Entsprechend ist bei der rechtsseitigen Folge nach (2.5.25a)

z+1 v(0) = lim = 0, z→∞ z 2 − 2, 5z + 1

z+1 − z · v(0) = 1, z 2 z − 2, 5z + 1



z+1 2 − z · v(0) − zv(1) = 3, 5. z 2 z − 2, 5z + 1

v(1) = lim

z→∞

v(2) = lim

z→∞

2

c) Partialbruchentwicklung. Es ist V (z) = 1 − 2 ·

z z + . z − 0, 5 z − 2

Aus (2.5.31) folgt die linksseitige Folge " ! v(k) = 2 · (0, 5)k − 2k γ−1 (−k). Mit (2.5.32) erh¨alt man die zweiseitige Folge

2.5 Die Z-Transformation

103

v(k) = −2 · (0, 5)k γ−1 (k − 1) − 2k · γ−1 (−k). Gleichung (2.5.30) liefert die rechtsseitige Folge ! " v(k) = γ0 (k) + −2 · (0, 5)k + 2k γ−1 (k). ¨ Die Ubereinstimmung mit den fr¨ uheren Ergebnissen ist leicht zu best¨atigen. d)Durchdivision. Zu der linksseitigen Folge geh¨ ort die Potenzreihe V (z) = (1 + z)/(1 − 2, 5z + z 2 ) = 1 + 3, 5z + 7, 75z 2 + ... Die Koeffizienten sind unmittelbar die bereits oben gewonnenen Werte v(k) mit k ≤ 0. W¨ ahrend die Durchdivision bei einer beidseitigen Folge erst nach Aufspaltung von V (z) gem¨ aß (2.5.29d) angewendet werden kann, liefert sie bei rechtsseitigen Folgen V (z) = (z + 1)/(z 2 − 2, 5z + 1) = z −1 + 3, 5z −2 + 7, 75z −3 + ... und damit die Best¨ atigung des vorher erhaltenen Ergebnisses. Mit MATLAB erh¨ alt man die bei der R¨ ucktransformation n¨ otige Partialbruchzerlegung der rationalen Funktion m

V (z) = z

bμ z μ

μ=0 n



ν=0

cν z ν

mit dem Befehl [B,p,K] = residue(b,c1). T

ahlerkoeffizienten und c1 = [cn , . . . , c0 , 0]T Hier ist b = [bm , . . . , b0 ] der Vektor der Z¨ der wegen der Division durch z modifizierte Vektor der Nennerkoeffizienten. Das Programm berechnet die Polstellen z∞ν einschließlich der zus¨ atzlichen bei z = 0 (Vektor p) und die Residuen Bν , ν = 0(1)n, (Vektor B). Da hier n + 1 > m ist wird die additive Konstante K = V (∞) = 0. In der MATLAB Signal Processing Toolbox wird weiter die Funktion residuez(.) angegeben, mit der eine direkte Partialbruchzerlegung der Z-Transformierten V (z) m¨ oglich ist. Hierzu ist V (z) im Z¨ ahler und Nenner durch z −1 zu dividieren. Man erh¨ alt m

V (z) =

μ=0 n ν=0

und mit

n

bμ z μ = cν z ν

μ=n−m n ν=0

bn−μ z −μ

cn−ν z −ν

=

104

2 Diskrete determinierte Signale  0 f¨ ur μ < n − m ˜bμ = , ur μ ≥ n − m bn−μ f¨

ergibt sich

c˜μ = cn−μ

n ˜bμ z −μ

μ=0

V (z) = n

ν=0

. c˜ν z −ν

ahlerkoeffizienten und c1 = [˜ c0 . . . c˜n ]T Ist b1 = [˜b0 . . . ˜bn ]T der Vektor der Z¨ der Vektor der Nennerkoeffizienten, so erh¨ alt man mit dem Befehl [B,p,K] = residuez(b1,c1) die Pole p(i), die Residuen B(i) und die additive Konstante K. Eine Partialbruchzerlegung von Nennerfunktionen mit mehrfachen Polen ist mit den Funktionen residue(.) und residuez(.) ebenfalls m¨ oglich. Die im Vektor p mehrfach aufgef¨ uhrten Pole sind entsprechend (2.5.27a) nacheinander in die Potenzausdr¨ ucke einzusetzen. Bem.: Wird die Partialbruchzerlegung auf rationale Funktionen mit mehrfachen Polen oder Nullstellen angewendet, so kann die begrenzte Rechengenauigkeit zu einer Aufteilung der mehrfachen Polstelle in nahe beieinander liegende reelle oder komplexe Pole f¨ uhren. Die Durchdivision zur numerischen Bestimmung der ersten -Werte der Folge v(k) entspricht der schrittweisen L¨ osung einer Differenzengleichung, deren Koeffizienten die Elemente von b und c sind. Dabei ist eine impulsf¨ ormige Erregung zu verwenden. Wir verweisen dazu z.B. auf Abschnitt 5.3.1. Hier begn¨ ugen wir uns mit dem Hinweis, das man die gew¨ unschten Werte v(k), k = 0(1) − 1 mit v = filter(b, c, g0) erh¨ alt. Dabei beschreibt g0 = [1 zeros(1,l-1)] die impulsf¨ ormige Erregung.



2.5.5 Weitere Beziehungen Wir behandeln in diesem Abschnitt einige weitere Beziehungen, deren Herleitungen zugleich als Beispiele f¨ ur die allgemeinen S¨atze der Z-Transformation dienen. Zun¨ achst interessieren wir uns f¨ ur zwei Operationen, die mit einer Ver¨ anderung der Taktrate verbunden sind. 2.5.5.1 Abtastung und Spreizung Wir bestimmen die Z-Transformierte einer durch Abtastung aus v0 (k) gewonnenen rechtsseitigen Folge ⎧ ⎨ v0 (k), k = λr +

v/r (k) := λ ∈ N0 , r ∈ N, ∈ {0, 1, ..., r − 1} , ⎩ 0, k = λr +

(2.5.33a) s. Bild 2.37c,e f¨ ur r = 4 und = 0 bzw. = 3. Sie kann als Ergebnis einer Multiplikation von v0 (k) mit einer um Takte verschobenen r-ten Schaltfolge aufgefaßt werden. Es ist

2.5 Die Z-Transformation

v/r (k) = v0 (k)pr (k − ), ⎧ ⎨ 1, k = λr

wobei pr (k) =



λ ∈ N0 ,

0, k = λr

105

(2.5.33b)

r∈N

die r-te Schaltfolge beschreibt. Ihre Z-Transformierte wurde in (2.5.3c) angegeben. Mit dem Verschiebungssatz und einer Partialbruchentwicklung folgt r−1

Z {pr (k − )} =

1  − z z r− = wr mit wr = e−j2π/r . zr − 1 r z − wr =0

Aus (2.5.3a) ergibt sich, daß  z = Z wrk z − wr gilt, wobei k ≥ 0 ist. Damit l¨ aßt sich die verschobene Schaltfolge in der Form pr (k − ) =

r−1

r−1

=0

=0

1  − k 1   −k wr wr γ−1 (k) = wr wr γ−1 (k) r r

darstellen (vergl. (2.4.4c) in Abschnitt 2.4.1). Unter Verwendung des Modulationssatzes und der Linearit¨ at der Transformation erhalten wir r−1

V/r (z) =

1   wr V0 (zwr ). r

(2.5.33c)

=0

Als Beispiel behandeln wir den Fall einer rationalen Funktion V0 (z) mit einfachen Polstellen, deren Partialbruchzerlegung V0 (z) = B0 +

n 



ν=1

z z − z∞ν

sei. Mit Hilfe von (2.5.33c) folgt zun¨ achst V/r (z) = B0

r−1 n r−1 1    1   zwr wr + Bν wr . r r zwr − z∞ν ν=1 =0

(2.5.33d)

=0

Man erh¨ alt f¨ ur = 0 V0/r (z) = B0 +

n  ν=1

und f¨ ur = 1(1)r − 1



zr r z r − z∞ν

(2.5.33e)

106

2 Diskrete determinierte Signale

V/r (z) =

n 



ν=1

 z r− z∞ν . r r z − z∞ν

(2.5.33f)

Die Bilder 2.37a...f zeigen f¨ ur ein Beispiel die Folgen v0 (k) und v/r (k), die Betr¨ age der zugeh¨origen Spektren sowie die Pol-Nullstellendiagramme. Gew¨ahlt wurden r = 4 sowie = 0 und = 3. Die Nennerpolynome der V/r (z) stimmen f¨ ur alle u ahlerpolynome h¨angen von ab. Die PN¨berein, die Z¨ Diagramme lassen erkennen, daß die Periode der Spektren V/r (ejΩ ) sich gegen¨ uber der f¨ ur V0 (ejΩ ) auf den r-ten Teil reduziert, wie bei der Abtastung mit der Rate r zu erwarten ist. Das wird besonders deutlich beim Vergleich von (2.5.33d) mit der Partialbruchzerlegung von V0 (z). Offenbar geht z = esT r in z r = esrT und z∞ν = es∞ν T in z∞ν = es∞ν rT u ¨ber. Weiterhin liegen wegen ¨ der mit (2.5.33d) beschriebenen Uberlagerung von r Termen die Nullstellen V/r (z) nicht mehr auf dem Einheitskreis, wie die PN-Diagramme und der Verlauf von |V/r (ejΩ )| erkennen lassen. Im engen Zusammenhang mit der Abtastung steht die r-fache Spreizung einer Folge dadurch, daß man zwischen den aufeinanderfolgenden Werten jeweils r − 1 Nullwerte einf¨ ugt, wodurch sich eine um den Faktor r h¨ohere Taktfrequenz ergibt (s. Bild 2.37g,h). Das neue Abtastintervall wird T1 = T /r, ∞ v0 (k)z −k folgt die Variable der Z-Transformation z1 = z 1/r . Aus V0 (z) = k=0

dann VSr (z1 ) =

∞ 

v0 (k)z1−rk = V0 (z1r ).

(2.5.34a)

k=0 m '

Bei rationaler Z-Transformierter V0 (z) =

ν=1 m '

VSr (z1 ) =

μ=1 bm ' n ν=1

(z1r − z0μ )

(z1r − z∞ν )

wobei

m '

V (z1 ) =

μ=1 n ' ν=1

ist. Mit z0μ = 0μ e

jψ0μ

(z − z0μ )

μ=1 bm ' n

= bm

erh¨alt man

(z − z∞ν )

r (

V (z1 ),

(2.5.34b)

=1

(z1 − z0μr wr ) (2.5.34c)

(z1 − z∞νr wr )

ist hier z0μr = 0μ ejψ0μ /r 1/r

(2.5.34d)

2.5 Die Z-Transformation

107

Abb. 2.37. Beispiele zur Erl¨ auterung von Abtastung und Spreizung; a),b) Folge v0 (k) und ihre Transformierte; c)-f) abgetastete Folgen und ihre Transformierten f¨ ur r = 4 sowie = 0 und = 3; g),h) Folge v0 (k) nach Spreizung um r = 3 und ihre Transformierte

108

2 Diskrete determinierte Signale

und z∞νr entsprechend definiert. Bild 2.37g,h erl¨autert den Zusammenhang ¨ f¨ ur r = 3. Bei der Spreizung wird der Einheitskreis ohne Uberlappung rfach auf sich selbst abgebildet. Insofern liegt hier eine Verwandtschaft mit der ¨ Ahnlichkeitstransformation vor, wobei aber die Folge v(k) in bezug auf die absolute Zeitskala unge¨ andert bleibt (vergl. Bemerkung in Abschn. 2.5.2). 2.5.5.2 Summationsformeln Weiterhin leiten wir mit (2.5.11) einige Summationsformeln f¨ ur rechtsseitige Folgen her. alt man 1) F¨ ur v(k) = z0k erh¨  k  Z z0κ

=

κ=0

z z z − 1 z − z0

und damit nach Partialbruchzerlegung und R¨ ucktransformation k 

z0κ =

κ=0

! 1 " k+1 z − 1 γ−1 (k). z0 − 1 0

(2.5.35a)

Mit z0 = ejΩ0 folgt daraus z.B. k 

cos Ω0 κ = cos Ω0 k/2 ·

sin Ω0 (k + 1)/2 , sin Ω0 /2

(2.5.35b)

sin Ω0 κ = sin Ω0 k/2 ·

sin Ω0 (k + 1)/2 . sin Ω0 /2

(2.5.35c)

κ=0 k  κ=0

2) Gesucht wird

k

κν mit ν = 1(1)4.

κ=1

ur Zur Anwendung der Summationsregel ben¨otigen wir zun¨achst Z {k ν }. F¨ ν = 1 u. 2 k¨ onnen wir die Transformierten aus (2.5.5a,b) mit z0 = 1 entnehmen, w¨ ahrend wir f¨ ur ν = 3, 4 den Satz (2.5.13a,b) anwenden. Man erh¨alt Z {k} =

z ; (z − 1)2

 z(z 2 + 4z + 1) Z k3 = ; (z − 1)4

 z(z + 1) Z k2 = ; (z − 1)3

 z(z 3 + 11z 2 + 11z + 1) Z k4 = . (z − 1)5

Mit der Summationsregel (2.5.11) und der aus (2.5.6a) mit z0 = 1 zu gewinnenden Korrespondenz  #   zλ k+λ−1 −1 Z =

(z − 1)+1

2.5 Die Z-Transformation

109

ergibt sich  k+1 1 (2.5.36a) = k(k + 1), 2 2 κ=1     k  k+2 k+1 k(k + 1)(2k + 1) 2 , (2.5.36b) κ = + = 3 3 6 κ=1       k  k+3 k+2 k+1 k 2 (k + 1)2 3 , (2.5.36c) κ = +4 + = 4 4 4 4 κ=1         k  k+4 k+3 k+2 k+1 κ4 = + 11 + 11 + 5 5 5 5 κ=1 k 



κ =

k(k + 1)(2k + 1)(3k 2 + 3k − 1) . 30 ∞ z0k−1 /k. 3) Wir bestimmen weiterhin =

(2.5.36d)

k=1

Die Reihe konvergiert f¨ ur |z0 | ≤ 1 mit Ausnahme von z0 = 1. Mit (2.5.5c) und dem Summationssatz ist  k  z κ−1 z z/z0 0 ln Z . (2.5.37a) = κ z − 1 z − z0 κ=1 Der zweite Grenzwertsatz liefert dann  k   z κ−1 z z 1 1 0 ln = ln . lim = lim z→1+0 z0 k→∞ κ z − z0 z0 1 − z0 κ=1

(2.5.37b)

Man erh¨ alt z.B. speziell f¨ ur z0 = j ∞  (j)k−1 k=1

k

=

1 1 π 1 ln = + j ln2. j 1−j 4 2

Nach Aufspaltung in die Komponenten erh¨ alt man die Reihen 1 1 1 + − ± ... = π/4, 3 5 7   1 1 1 1 1 1 − + − ± ... = ln2. 2 2 3 4 2

1−

(2.5.37c)

2.5.5.3 Energie von Folgen Es sei v(k) eine rechtsseitige Folge reeller Werte, die absolut und damit auch quadratisch summierbar ist. Dann existiert die Z-Transformierte V (z) auch f¨ ur |z| = 1, und es gilt die Parsevalsche Gleichung (2.5.19c) in der Form

110

2 Diskrete determinierte Signale

wv (∞) =

∞ 

v 2 (k) =

k=0

 1 dz  V (z)V (1/z) , 2πj 6 z

(2.5.38a)

|z|=1

=

1 2π

+π

|V (ejΩ )|2 dΩ.

(2.5.38b)

−π

Wir nehmen nun an, daß V (z) rational sei. Im allgemeinen Fall ist wieder nach (2.5.26) Z(z) Z(z) = V (z) = . n0 ' N (z) cn (z − z∞ν )nν ν=1

Unter den gemachten Voraussetzungen gilt |z∞ν | < 1, ∀ν. Die Pole von V (1/z) −1 außerhalb des Einheitskreises, s. Bild 2.38. Die Integration liegen dann bei z∞ν liefert die Summe der Residuen des Integranden in den Polen z∞ν . In dem durch (2.5.26) beschriebenen allgemeinen Fall erh¨alt man  Dν (2.5.39a) wv (∞) = D0 + ν

mit Dν =



dnν −1 1 nν −1 1 lim ) V (z)V (z ) (z − z . ∞ν (nν − 1)! z→z∞ν dz nν −1 z

(2.5.39b)

Falls V (z) keinen Pol z = 0 hat ist D0 = V (0)V (∞).

(2.5.39c)

Die Dν sind dann f¨ ur ν = 1(1)n0 zu bestimmen. Ist z = z∞1 = 0 ein Pol von V (z), so ist " ! (2.5.39d) D0 = lim V (z)V (z −1 ) z→0

und die Summation u uhren. ¨ber ν = 2(1)n0 zu f¨ Hat V (z) nur einfache Pole z∞ν = 0, ν = 1(1)n, so erh¨alt man unter Verwendung der Darstellung V (z) = B0 +

n 



ν=1

wv (∞) = D0 +

n 

z , z − z∞ν

−1 Bν V (z∞ ), ν

(2.5.40a)

ν=1

mit D0 = V (0)V (∞) = B0

n  ν=1

Bν .

(2.5.40b)

2.5 Die Z-Transformation

111

Abb. 2.38. Pole des Integranden V (z)V (z −1 )/z

Liegt bei z = 0 eine Polstelle von V (z) vor, so ist (2.5.40) entsprechend zu ver¨ andern. In [2.26] ist angegeben, wie sich wv (∞) unmittelbar mit den Koeffizienten von Z¨ ahler- und Nennerpolynom von V (z) ausdr¨ ucken l¨aßt. Auf die allgemeine Darstellung sei verzichtet. Es finden sich dort auch explizite Beziehungen f¨ ur n = 1 bis n = 4, von denen wir die ersten beiden zitieren. Dabei setzen wir ohne Einschr¨ ankung der Allgemeing¨ ultigkeit cn = 1. Aus V (z) = folgt mit |c0 | < 1 wv (∞) = F¨ ur V (z) =

b1 z + b0 z + c0

(2.5.41a)

b21 + b20 − 2b1 b0 c0 . 1 − c20

(2.5.41b)

b2 z 2 + b1 z + b0 z 2 + c1 z + c0

(2.5.42a)

erh¨ alt man, falls |c0 | < 1 und |c1 | < 1 + c0 (vergl. Abschn. 5.5.1) wv (∞) =

d0 (1 + c0 ) − d1 c1 + d2 [c21 − c0 (1 + c0 )] , (1 − c0 )[(1 + c0 )2 − c21 ]

mit

(2.5.42b)

d0 = b22 + b21 + b20 , d1 = 2(b2 + b0 )b1 , d2 = 2b0 b2 .

F¨ ur die numerische Berechnung von   1 1 Z(z)Z(z −1 ) dz −1 dz wv (∞) = =  V (z)V (z )  6 6N (z)N (z −1 ) z 2πj z 2πj |z|=1

|z|=1

112

2 Diskrete determinierte Signale

bietet ein von ˚ Astr¨ om angegebenes iteratives Verfahren Vorteile, das ebenfalls nur die Koeffizienten von N (z) und Z(z) verwendet [2.30,31]. Ausgehend von N (z) = cn z n + cn−1 z n−1 + ... + c0 =

n 

cν z ν ,

(2.5.43a)

bμ z μ

(2.5.43b)

ν=0

Z(z) = bn z n + bn−1 z n−1 + ... + b0 =

n  μ=0

werden zwei Folgen von Polynomen Nλ (z), λ = n(−1)0 mit Nn (z) := N (z) sowie Zλ (z), λ = n(−1)0, Zn (z) := Z(z) eingef¨ uhrt mit  " ! λ−1 Nλ−1 (z) = z −1 Nλ (z) − rλ z λ Nλ (z −1 ) = c(λ−1) zν , ν

(2.5.44a)

ν=0

 " ! λ−1 b(λ−1) zμ. Zλ−1 (z) = z −1 Zλ (z) − λ z λ Nλ (z −1 ) = μ

(2.5.44b)

μ=0

Der hochgestellte Index (λ − 1) der Koeffizienten bezeichnet den Grad der zugeh¨ origen Polynome Nλ−1 (z) bzw. Zλ−1 (z). Mit (λ)

rλ =

(λ)

c0

b0





; λ = (λ)

(λ)

(2.5.45)

verschwinden die absoluten Glieder in den Klammern; man erh¨alt die gew¨ unschte Reduktion des Grades. Wir werden bei der Untersuchung der Stabilit¨at in Abschnitt 5.5.1 zeigen, daß zun¨ achst folgende Aussagen gelten: Die Nullstellen z∞ν des Nennerpolynoms N (z) = Nn (z) liegen dann und nur dann im Einheitskreis (wie f¨ ur die Existenz des Integrals (2.5.38a) erforderlich), wenn f¨ ur die f¨ uhrenden Koeffizienten der Polynome Nλ (z) gilt : (λ) cλ > 0, λ = n(−1)0. Ist das der Fall, so liegen alle Nullstellen der Polynome Nλ (z) ebenfalls im Einheitskreis. Dann existieren aber auch die Integrale  Zλ (z)Zλ (z −1 ) dz 1 Iλ = . (2.5.46)  6Nλ (z)Nλ (z −1 ) z 2πj |z|=1

In [2.31] wird in einem l¨ angeren Beweis gezeigt, daß f¨ ur diese Integrale die rekursive Beziehung (λ−1) c · Iλ−1 + 2λ (2.5.47) Iλ = λ−1 (λ) cλ mit der Anfangsbedingung

2.5 Die Z-Transformation

113

I0 = 20 gilt. Daraus folgt dann mit einer schrittweisen L¨osung der Differenzengleichung (2.5.47) das Endergebnis (s. [2.30]) wv (∞) = In =

n (λ) 1  (b0 )2 (n)

cn

λ=0

(λ)

.

(2.5.48)



Die Auswertung erfordert offenbar im wesentlichen die Berechnung der Polynome Nλ und Zλ nach (2.5.44) und dabei die der Parameter rλ und λ mit (λ) (2.5.45). F¨ ur (2.5.48) werden dann die f¨ uhrenden Koeffizienten cλ der Nλ (z) (λ) und die absoluten Glieder b0 der Zλ (z) ben¨ otigt. Man vermeidet also die nach dem eingangs beschriebenen Verfahren n¨otige Nullstellensuche und die Bestimmung der Residuen. Wir geben ein MATLAB -Programm f¨ ur die Berechnung der Energie einer Folge v(k) an, deren Z-Transformierte der Quotient zweier Polynome m-ten und n-ten Grades ist. Es verwendet das eben beschriebene Verfahren von ˚ Astr¨ om. Ausgehend von den Vektoren der Koeffizienten b = [bm , bm−1 . . . , b0 ]T und c = [cn , cn−1 , . . . c0 ]T erh¨ alt man die Energie w mit function w = energy (b,c); %energy: Bestimmung der Energie einer Folge m = length(b)-1; n = length (c)-1; b = [zeros(1,n-m) b]; w = 0;K = c(1); for i= n+1:-1:2; r = c(i)/c(1); ro = b(i)/c(1); w = w + b(i)*ro; b = b(1:i-1) - ro*c(i:-1:2); c = c(1:i-1) - r*c(i:-1:2); end; ro = b/c; w = (w + b*ro)/K; Das Programm wird in der DSV-Bibliothek zur Verf¨ ugung gestellt, siehe im Anhang, Abschn. 7.1.2 und 7.1.4.1. •

2.5.5.4 Z-Transformation von Folgen endlicher L¨ ange, Chirp-Z-Transformation Zum Abschluß dieses Abschnitts betrachten wir den speziellen Fall der Transformation einer Folge v(k) der endlichen L¨ ange M mit k = 0(1)M −1. Offenbar ist dann

114

2 Diskrete determinierte Signale

V (z) =

M −1 

v(k)z −k

(2.5.49)

k=0

ein Polynom in z −1 . Es interessiert hier vor allem insofern, als durch Spezialisierung von z eine Beziehung zur DFT und damit zu einer punktweisen Berechnung von V (z) auf dem Einheitskreis hergestellt werden kann: −μ ist Mit z := zμ = ejμ2π/M = wM V (zμ ) =: V (μ) =

M −1 

μk v(k)wM = DFT {v(k)}

(2.5.50)

k=0

entsprechend (2.4.1a). Wir erhalten so die Z-Transformierte an M Punkten, die ¨ aquidistant auf dem Einheitskreis verteilt sind. Es ist nun zun¨ achst eine Verallgemeinerung m¨oglich, die als Chirp-Z-Transformation bezeichnet wird [2.32-34]. Setzt man in (2.5.49) mit a = a0 ejα , b = b0 ejβ , f¨ ur z die Werte

a0 , b0 positiv reell

(2.5.51a)

μ = 0(1)L − 1,

(2.5.51b)

zμ = abμ ,

ein, so erfolgt jetzt die punktuelle Berechnung von V (z) an L Punkten einer durch b festgelegten Spirale. Der Anfangspunkt a ist w¨ahlbar; i.allg. ist L = M . Bild 2.39a veranschaulicht die Lage der zμ . Mit a0 = b0 = 1 erh¨alt man Punkte auf dem Einheitskreis. Es ist zun¨ achst V (zμ ) =

M −1 

v(k)a−k b−kμ ,

μ = 0(1)L − 1.

(2.5.51c)

k=0

Durch Einf¨ uhrung der Identit¨ at ! " kμ = k2 + μ2 − (μ − k)2 /2 ergibt sich V (zμ ) = b−μ

2

/2

M −1  

v(k)a−k b−k

2

/2



b(μ−k)

(2.5.52)

2

/2

.

k=0

Setzt man hier x(k) := bk und so folgt

2

/2

,

k = −(M − 1)(1)(L − 1)

y(k) := v(k)a−k b−k

2

/2

, k = 0(1)M − 1,

(2.5.53a)

(2.5.53b)

2.5 Die Z-Transformation

V (zμ ) =: V (μ) = b−μ

2

/2

M −1 

x(μ − k)y(k) = b−μ

2

/2

115

· x(μ) ∗ y(μ), (2.5.53c)

k=0

eine Beziehung, die durch das Blockschaltbild 2.39b veranschaulicht wird. Die 2 mit a−k b−k /2 gewichtete Folge v(k) wird mit dem Chirp-Signal“ x(k) linear gefaltet, wobei eine Folge der L¨ ange L + 2M − 1 f¨ ur μ = −(M − 1)(1)(L + M − 2) entsteht. Die ersten L Werte im kausalen Bereich, d.h. f¨ ur μ = 0(1)L − 2 1 werden dann mit b−μ /2 multipliziert. Die numerisch aufwendige Faltung kann ihrerseits mit der DFT als zyklische Operation ausgef¨ uhrt werden, wenn man eine Transformationsl¨ ange M0 ≥ M + L − 1 w¨ahlt und sowohl x(k) als auch y(k) durch Hinzuf¨ ugen von Nullen zu Folgen der L¨ange M0 erg¨anzt) (s. Abschn. 2.4.4.3, Punkt 3). Dabei wird man zur Reduzierung des numerischen ahlen. Aufwandes nat¨ urlich M0 = 2m w¨

Abb. 2.39. Zur Erl¨ auterung der Chirp-Z-Transformation

Charakteristisch f¨ ur die Chirp-Z-Transformation sind im Vergleich zur Diskreten Fouriertransformation die folgenden Eigenschaften: – Es besteht keine Bindung zwischen den L¨ angen M und L der Folgen im Zeit- und Frequenzbereich. Auch bez¨ uglich der Werte M und L gibt es keine Bedingungen, die sich sonst bei der DFT aus dem Wunsch nach Verwendung schneller Algorithmen ergeben. – Der Winkel β und damit die Aufl¨ osung im Frequenzbereich kann beliebig gew¨ ahlt werden. – Durch Wahl von a kann der Startpunkt in der z-Ebene und damit die Grenze des interessierenden Intervalls beliebig festgelegt werden. – Die nach (2.5.53c) notwendige lineare Faltung l¨aßt sich bei großen Werten M und L mit der in Abschn. 2.4.4.3 beschriebenen Methode unter Verwendung schneller Algorithmen f¨ ur die DFT mit vertretbarem Rechenaufwand ausf¨ uhren. Wir geben ein MATLAB -Programm zur Chirp-Z-Transformation f¨ ur den speziellen Fall an, daß die DFT einer Folge v(k) der L¨ ange M in den L Punkten Ωμ = Ω1 +μΩ2 , μ = 0(1)L−1 errechnet werden soll. Dabei ist Ω1 =om1, ˆ Ω2 =om2, ˆ mu=μ. ˆ

116

2 Diskrete determinierte Signale function V = cdft(v,om1,om2,L) %cdft: Berechnung der Chirp-Z-Transformation a = exp(j*om1); b=exp(j*om2); v = v(:); M=length(v); M0= 2^ceil(log2(M+L-1)); k1= (-(M-1):(L-1))’; k = (0:M-1)’; mu=(0:L-1)’; x = b.^(k1.^2/2); y = v.*(a.^(-k)).*(b.^(-k.^2/2)); bmu=b.^(-mu.^2/2); u=ifft(fft(x,M0).*fft(y,M0)); V=bmu.*u(M:(M+L-1));

Das Programm l¨ aßt sich durch Wahl von L = M, Ω1 = 0, Ω2 = 2π/M f¨ ur den Fall der Berechnung einer u ange M verwenden. ¨blichen DFT von Folgen beliebiger L¨ Bild 2.40 zeigt das sich ergebende detaillierte Blockschaltbild als Spezialisierung von Bild 2.39b. In der MATLAB Signal Processing Toolbox wird die Funktion czt(.) zur Berechnung der Chirp-Transformation angegeben. Mit dem Befehl V=czt(v,L,b,a) erfolgt die Berechnung der Transformierten entlang einer nach (2.5.51) durch a und b vorgegebenen Spirale. Dabei gibt L die Anzahl der zu berechnenden Werte, a den Anfangspunkt und b die Inkremente in der komplexen Ebene an, siehe Bild 2.39a. Als Spezialfall ergibt sich die oben beschriebene Berechnung der DFT f¨ ur Teilbereiche. Die Anwendung der Chirp-Z-Transformation kann bei der Berechnung weniger, relativ dicht liegender Frequenzwerte gegen¨ uber einer erweiterten FFT von Vorteil sein. •

Abb. 2.40. Blockschaltbild f¨ ur die Ausf¨ uhrung der DFT mit der Chirp-Z-Transformation.

2.6 Orthogonaltransformationen 2.6.1 Einfu ¨ hrung Neben den bisher behandelten Transformationen gibt es viele weitere, sowohl f¨ ur Folgen unbegrenzter wie begrenzter L¨ ange. Von Interesse sind insbesonde-

2.6 Orthogonaltransformationen

117

re die Orthogonaltransformationen, zu denen die in Abschnitt 2.4 behandelte DFT geh¨ ort. Eine ausf¨ uhrliche Darstellung geht u ¨ber den Rahmen dieses Buches hinaus. Es sei dazu z.B. auf [2.35] verwiesen. Ein Gesichtspunkt f¨ ur die Auswahl einer bestimmten Transformation ist neben der Zahl der f¨ ur die Durchf¨ uhrung erforderlichen Rechenoperationen, ob sie f¨ ur bestimmte Signalklassen auf eine reduzierte Zahl von signifikanten Werten im Bildbereich f¨ uhrt, sodaß dort eine g¨ unstige Codierung m¨ oglich wird. Auch dazu muß auf die Literatur verwiesen werden [2.36]. Wir beschr¨ anken uns hier auf allgemeine Aussagen zu orthogonalen Transformationen sowie auf ein einfaches Beispiel zur Behandlung zeitlich nicht begrenzter kausaler Folgen und die Vorstellung einer Familie von Sinustransformationen von Folgen endlicher L¨ange. Zun¨ achst zeigen wir, daß eine Transformation unter Verwendung einer orthogonalen Basis zweckm¨ aßig ist. Gegeben sei eine Folge v(k) sowie ein Satz von linear unabh¨ angigen Basisfolgen gν (k), ν ∈ Z. Sowohl v(k) wie die gν (k) seien absolut summierbar. Gesucht wird eine Darstellung m 

v(k) ≈ fm (k) =

cν gν (k),

(2.6.1a)

ν=−m

wobei die cν so zu bestimmen sind, daß der quadratische Fehler m =

+∞ 

|v(k) − fm (k)|2

(2.6.1b)

k=−∞

minimal wird. Die Aufgabenstellung entspricht im wesentlichen der von Abschnitt 2.3.1 mit dem Unterschied, daß hier die Folgen gν (k) nicht von vornherein festliegen und daß außer der Summierbarkeit von |v(k)| keine Voraussetzungen f¨ ur die darzustellenden Folgen gemacht werden. Es ist entsprechend (2.3.2b) +∞  ! " ∗ |v(k)|2 − v(k)fm (k) − v ∗ (k)fm (k) + |fm (k)|2 .

m =

k=−∞

Hier ergibt sich +∞ 

|fm (k)|2 =

+m 

+m 

ν=−m λ=−m

k=−∞

+∞ 

cν c∗λ

gν (k)gλ∗ (k).

k=−∞

Bilden die Folgen gν (k) eine orthonormale Basis, so ist +∞  k=−∞

gν (k)gλ∗ (k)

 = δνλ : =

1,ν=λ 0,ν=  λ,

im Gegensatz zu (2.3.3), wo nur Orthogonalit¨ at vorlag. Man erh¨alt

(2.6.2)

118

2 Diskrete determinierte Signale +∞ 

+m 

|fm (k)|2 =

|cν |2 .

ν=−m

k=−∞

Unter Verwendung von +∞ 

+m 

∗ v(k)fm (k) =

ν=−m

k=−∞

+∞ 

c∗ν

v(k)gν∗ (k) =:

+m 

c∗ν dν

ν=−m

k=−∞

ist dann wieder m =

+∞ 

|v(k)|2 −

+m 

|dν |2 +

ν=−m

k=−∞

+m 

[cν − dν ] [c∗ν − d∗ν ] ,

ν=−m

ein Ausdruck, der offensichtlich f¨ ur cν = d ν =

+∞ 

v(k)gν∗ (k)

(2.6.3a)

k=−∞

minimal wird. F¨ ur den verbleibenden quadratischen Fehler erh¨alt man min m =

+∞ 

|v(k)|2 −

k=−∞

+m 

|cν |2 .

(2.6.3b)

ν=−m

Es gilt jetzt, geeignete S¨ atze von Folgen gν (k) zu finden. 2.6.2 Ein Satz orthonormaler, zeitl. unbegrenzter Folgen Wir zeigen beispielhaft die schrittweise Entwicklung der Mitglieder eines Satzes orthonormaler reeller kausaler Folgen gν (k), die zeitlich nicht begrenzt sind. Es sei ν  gν (k) = aνμ · zμk , k ≥ 0, μ=1

wobei die zμ ∈ R mit |zμ | < 1 beliebig vorgebbar sind. Die Koeffizienten aνμ sollen so bestimmt werden, daß ∞ 

gν (k)gλ (k) = δνλ

k=0

ist. Zun¨ achst geben wir eine M¨ oglichkeit zur einfachen Berechnung dieser Summe an. Es ist nach (2.5.14) mit Z{gν,λ (k)} = Gν,λ (z)  % z & dw 1 Z {gν (k)gλ (k)} = =: Gνλ (z).  Gν (w)Gλ 6 2πj w w |w|=1

2.6 Orthogonaltransformationen

Wegen

+∞ k=0

119

gν (k)gλ (k) = Z {gν (k)gλ (k)}|z=1 ist dann, wenn wieder die Varia-

ble z verwendet wird ∞ 

gν (k)gλ (k) =

k=0

sowie

 1 dz  Gν (z)Gλ (z −1 ) 6 2πj z

(2.6.4a)

|z|=1

∞ 

gν2 (k) =

k=0

 1 dz  Gν (z)Gν (z −1 ) . 6 2πj z

(2.6.4b)

|z|=1

Wir beginnen mit z ; |z1 | < 1 beliebig. z − z1 ) = 1 − z12 die Normierungsbedingung

g1 (k) = a11 z1k ◦—–• G1 (z) = a11

Man best¨ atigt leicht, daß mit a11 ∞ 2 g1 (k) = 1 erf¨ ullt ist. Das zweite Mitglied f¨ uhren wir mit

k=0

g2 (k) = a21 z1k + a22 z2k ◦—–• G2 (z) =

Z2 (z) (z − z1 )(z − z2 )

ein, wobei Z2 (z) so zu bestimmen ist, daß nach (2.6.4a)  dz a11 z 1 Z2 (z −1 ) =0 · −1  −1 6 2πj z − z1 (z − z1 )(z − z2 ) z |z|=1

ist und die Normierungsbedingung erf¨ ullt wird. Offenbar muß Z2 (z −1 ) eine Nullstelle bei z = z1 haben. Es ist dann G2 (z) =

a2 z(z − z1−1 ) . (z − z1 )(z − z2 )

Die Konstante a2 folgt aus der Forderung  1 dz = 1.  G2 (z)G2 (z −1 ) 6 2πj z |z|=1

Wegen Z2 (z1−1 ) = 0 liegt hier nur bei z = z2 ein Pol im Innern des Integrationsweges. Ist R2 das Residuum von G2 (z)G2 (z −1 )/(a22 z), so folgt ) a2 = 1/ R2 . Das Verfahren l¨ aßt sich offenbar fortsetzen. Ausgehend von m − 1 Mitgliedern gν (k) des Satzes orthonormaler Folgen, die durch die zμ , μ = 1(1)m − 1

120

2 Diskrete determinierte Signale

gekennzeichnet sind, bestimmt man die n¨ achste Folge gm (k) mit dem zus¨atzlichen Wert zm so, daß ihre Z-Transformierte die Form z Gm (z) = am ·

m−1 ' μ=1 m ' μ=1

(z − zμ−1 ) (2.6.5a)

(z − zμ )

hat. Die Konstante am erh¨ alt man als ) am = 1/ Rm ,

(2.6.5b)

wobei Rm das Residuum von Gm (z)Gm (z −1 )/(a2m z) im Punkte zm ist. Bild 2.41 zeigt m¨ ogliche Pol-Nullstellendiagramme der Z-Transformierten von den ersten drei Mitgliedern eines Satzes orthonormaler Folgen.

Abb. 2.41. Z-Transformierte dreier orthonormaler Folgen

2.6.3 Diskrete Sinustransformationen In diesem Abschnitt stellen wir eine Familie von Diskreten Sinustransformationen vor, die auf Folgen der endlichen L¨ ange M angewendet werden k¨onnen. Sie geh¨ oren zur allgemeineren Klasse von Transformationen, die durch eine unit¨ are Matrix GM beschrieben werden, f¨ ur die also G∗T M · GM = EM

(2.6.6a)

T

gilt. Zu v = [v(0), v(1), ..., v(k), ..., v(M − 1)] ist dann die zugeh¨orige Transformierte (2.6.6b) VG = GM · v. Umgekehrt ist

∗T v = G−1 M · VG = GM · VG .

(2.6.6c)

Prinzipiell kann eine Folge endlicher L¨ ange mit einer beliebigen nichtsingul¨ aren Matrix derart transformiert werden. Die Verwendung unit¨arer Matrizen f¨ uhrt wegen der engen Bindung der Zeilenvektoren potentiell zu g¨ unstigen

2.6 Orthogonaltransformationen

121

Algorithmen und auch dazu, daß Hin- und R¨ ucktransformation im wesentlichen mit demselben Algorithmus ausgef¨ uhrt werden k¨onnen. Die Diskrete Fouriertransformation, die wir in Abschnitt 2.4.3 in Matrizenschreibweise behandelt haben, ist daf¨ ur ein Beispiel. Allgemein gilt, daß eine Matrix KM dann und nur dann unit¨ar auf Diagonalform gebracht werden kann, wenn sie normal ist [2.12]. Es ist also mit G∗T M GM = EM nur dann G∗T M KM GM = Λ = diag(λ1 , ..., λM ), ∗T wenn K∗T aren TransforM KM = KM KM gilt. Die hier interessierenden unit¨ mationsmatrizen erh¨ alt man daher ausgehend von einer geeignet gew¨ahlten normalen Matrix KM . Nach Jain [2.37] ergibt sich insbesondere eine Familie von Sinustransformationen bei Verwendung der von vier Parametern abh¨angigen Matrix ⎡ ⎤ 1 − b1 a −a 0 · · · 0 b0 a ⎢ ⎥ ⎢ ⎥ ⎢ −a ⎥ 1 −a 0 · · · 0 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ 0 ⎥ −a 1 −a · · · 0 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ . . .. .. (2.6.7) KM (b0 , b1 , b2 ) = ⎢ ⎥. ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ 0 ⎥ · · · −a 1 −a 0 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ 0 ⎥ −a 1 −a ⎢ ⎥ ⎦ ⎣ 0 · · · 0 −a 1 − b2 a. b∗0 a

KM ist normal, wenn a, b0 ∈ C und b1 , b2 ∈ R. Die Bestimmung der Matrix osung der Gleichungen GM erfordert im allgemeinen Fall die L¨ KM · gμ = λμ · gμ f¨ ur die Eigenvektoren T

gμ = [gμ (0), gμ (1), ..., gμ (k), ..., gμ (M − 1)] . Sie l¨ aßt sich als L¨osung einer homogenen Differenzengleichung zweiter Ordnung gewinnen, wobei von den Parametern bi , i = 0(1)2 abh¨angige Randbedingungen zu beachten sind [2.35]. Generell ergibt sich, daß die Eigenwerte angen, die Eigenvektoren nur von von KM von a und den Parametern bi abh¨ den bi . Das Vorgehen wird mit vier Beispielen erl¨autert.

122

2 Diskrete determinierte Signale

2.6.3.1 Diskrete Fouriertransformation (DFT) Wir zeigen zun¨achst, daß sich bei spezieller Wahl der Parameter die DFT als L¨ osung der hier allgemein formulierten Aufgabe ergibt. F¨ ur b0 = −1 und b1 = b2 = 0 wird offenbar die Matrix KM zu einer Zirkulanten C mit dem ersten Zeilenvektor cT1 = [1, −a, 0, ..., 0, −a] . In diesem Fall ben¨ otigen wir offenbar nicht die allgemeine L¨osung der Eigenwertaufgabe, da wir in Abschnitt 2.4.3 schon gefunden haben, daß die DFT-Matrix generell eine Zirkulante diagonalisiert. Damit haben wir bereits nach Normierung wie in (2.4.27a) die Transformationsmatrix 1 GM (−1, 0, 0) = √ WM = WM n M

(2.6.8a)

mit den Zeilenvektoren f¨ ur μ = 0(1)M − 1  1  μ(M −1) μ μ2 μk , wM , ..., wM , ..., wM gμ = √ 1, wM . M

(2.6.8b)

2.6.3.2 Diskrete Hartley-Transformation (DHT) Wir k¨ onnen hier unter Bezug auf die DFT noch eine andere Transformation −1 betrachten. Zun¨achst stellen wir fest, daß mit WM n auch WM n die orthogonale Transformation ausf¨ uhrt. Das muß dann auch f¨ ur die Linearkombination −1 GM H := αWM n + α∗ WM n

(2.6.9a)

gelten, wenn man α geeignet w¨ ahlt. Man findet, daß GM H f¨ ur α = (1 ± j)/2 orthonormal wird. Mit dem positiven Vorzeichen erh¨alt man f¨ ur das Element gH,μ,k von GM H

 1 2π 2π 1  μk ∗ −μk =√ αwM + α wM cos μk + sin μk gH,μ,k = √ . (2.6.9b) M M M M 2π 2π 2π := cos μk +sin μk sind die Zeilenvektoren Mit der Bezeichnung casμk M M M von GM H

2π 2π 2π 1 1, casμ , ..., casμk , ..., casμ(M − 1) gHμ = √ . (2.6.9c) M M M M Damit ergibt sich die sogenannte Diskrete Hartley-Transformation (z.B. [2.38]) in der Form (2.6.10a) VH = DHT {v} = GM H · v. Wegen G−1 ur die inverse Operation M H = GM H folgt f¨

2.6 Orthogonaltransformationen

v = DHT−1 {VH } = GM H · VH .

123

(2.6.10b)

Bild 2.42a zeigt f¨ ur M = 8 die Folgen gHμ (k) f¨ ur μ = 0(1)7. Offenbar gestattet die Hartley-Transformation die Vermeidung der komplexen Rechnung, wenn sie auf reelle Folgen angewendet wird. Der Vergleich eines Elementes der normierten DFT-Matrix

1 2π 2π 1 μk =√ cos μk − j sin μk gμ,k = √ wM M M M M mit

 

2π 2π 1 2π 1 + sin μk gH,μ,k = √ cas μk cos μk =√ M M M M M

l¨ aßt unmittelbar erkennen, daß sich die Hartley-Transformierte VH aus dem Ergebnis V der DFT als VH = Re {V} − Im {V}

(2.6.10c)

ergibt. Entsprechend lassen sich die in Abschnitt 2.4.4 behandelten Algorithmen der FFT auch f¨ ur die Hartley-Transformation verwenden. Man kann sie aber auch derart variieren, daß komplexe Rechenoperationen vermieden werden [2.39]. In MATLAB wird zur Berechnung der Hartley-Transformation die Transformationsmatrix GM H (2.6.9) in einer Sammlung von speziellen Matrizen zur Verf¨ ugung gestellt. F¨ ur eine Transformation der L¨ ange M erh¨ alt man mit dem Befehl GMH = gallery(’orthog’,M,5) die Transformationsmatrix vom Grad M. Der Parameter ’orthog’ bezeichnet die Klasse der Orthogonal-Matrizen aus der der Typ 5 ausgew¨ ahlt wird. Mit dem Eingangsvektor v erh¨ alt man mit dem Befehl VH = GMH * v die gew¨ unschte Hartley-Transformation.



ussen die Parameter bi nicht notIn der oben angegebenen Matrix KM m¨ wendig ganzzahlig gew¨ ahlt werden. Beschr¨ ankt man sich aber auf b0 = 0 sowie auf b1 , b2 ∈ {−1, 0, 1}, so ergeben sich bereits neun einfache Transformationen, die in [2.37] tabellarisch aufgef¨ uhrt sind. Wir stellen zwei davon vor. 2.6.3.3 Eine Diskrete Sinustransformation (DST) F¨ ur b0 = 0, b1 = 0 oder −1 sowie b2 ∈ {−1, 0, 1} ergeben sich 6 Diskrete Sinustransformationen. Wir betrachten hier diejenige, die durch b0 = b1 = ur diese Parameter wird KM zur tridiagonalen b2 = 0 gekennzeichnet ist. F¨ Matrix

124

2 Diskrete determinierte Signale

Abb. 2.42. Basisvektoren der a) Hartley-, b) Sinus-, c) Kosinustransformation f¨ ur M =8

2.6 Orthogonaltransformationen



1 ⎢ ⎢ −a KM (0, 0, 0) = ⎢ ⎢ ⎣ 0

−a .. .

..

..

..

0

.

.

. −a

125



⎥ ⎥ ⎥ ⎥ −a ⎦ 1

mit den Eigenwerten (z.B. [2.12]) λμ (0, 0, 0) = 1 − 2a cos

π (μ + 1), M +1

und Eigenvektoren mit den Elementen * 2 (μ + 1)(k + 1)π gSμ (k) = sin , M +1 M +1

μ = 0(1)M − 1

(2.6.11a)

k, μ = 0(1)M − 1.

(2.6.11b)

Bild 2.42b zeigt die Folgen gSμ (k) f¨ ur M = 8. Man erh¨ alt damit eine Diskrete Sinustransformation als VS = DST {v} = GM S · v

(2.6.12a)

und wegen G−1 M S = GM S die inverse Operation v = DST−1 {VS } = GM S · VS .

(2.6.12b)

¨ Bei Uberlegungen zu einer effizienten Ausf¨ uhrung der DST ist zu beachten, daß das Argument in den Folgen gSμ (k) um Vielfache von π/(M + 1) w¨achst. Um bei der DFT dasselbe Inkrement zu erhalten ist dort eine Transformationsl¨ ange 2M + 2 zu w¨ ahlen. Da weiterhin die Variablen in der Form μ + 1 bzw. k + 1 auftreten und außerdem die Normierungsfaktoren unterschiedlich sind, geht man bei Verwendung der FFT zur schnellen Ausf¨ uhrung der DST wie folgt vor: Der zu transformierenden Folge v(k), k = 0(1)M − 1 wird eine Folge u(k) der L¨ ange 2M + 2 zugeordnet ⎧ k = 0 und k = (M + 1)(1)(2M + 1) ⎨ 0, u(k) = (2.6.13a) ⎩ v(k − 1), k = 1(1)M. Die normierte DFT der L¨ ange 2M + 2 liefert die Werte U (μ). Dann erh¨alt man (2.6.13b) VS (μ) = −2 · Im {U (μ + 1)} , μ = 0(1)M − 1. Um effiziente Algorithmen zur Ausf¨ uhrung der DFT verwenden zu k¨onnen, w¨ ahlt man M zweckm¨ aßig so, daß 2M + 2 eine Zweierpotenz ist.

126

2 Diskrete determinierte Signale

2.6.3.4 Eine Diskrete Kosinustransformation (DCT) Die restlichen drei Parameterkombinationen b0 = 0, b1 = 1 und b2 ∈ {−1, 0, 1} f¨ uhren zu Kosinustransformationen, von denen wir die f¨ ur b2 = 1 betrachten. Man erh¨ alt die Eigenwerte λμ (0, 1, 1) = 1 − 2α cos

μπ , M

μ = 0(1)M − 1

(2.6.14a)

und Zeilenvektoren gCμ mit den Elementen f¨ ur k = 0(1)M − 1 1 gC0 (k) = √ M * 2 μ(2k + 1)π cos , gCμ (k) = M 2M

(2.6.14b) μ = 1(1)M − 1.

Die sich ergebende Transformationsmatrix GM C ist im Gegensatz zu GM S nicht symmetrisch. Man erh¨ alt die Diskrete Kosinustransformation VC = DCT {v} = GM C · v

(2.6.15a)

T und wegen G−1 M C = GM C die Umkehrung

v = DCT−1 {Vc } = GTM C · Vc .

(2.6.15e)

Ein Verfahren zur schnellen Ausf¨ uhrung der DCT mit Hilfe der FFT ergibt sich, wenn man beachtet, daß     μ(2k + 1)π −μk = Re ejμk2π/2M · ejμπ/2M = Re w2M cos · ejμπ/2M 2M ist. Im wesentlichen ist demnach eine FFT der L¨ange 2M der um M Nullen erg¨ anzten Folge v(k) und eine Nachverarbeitung n¨otig. In MATLAB wird zur Berechnung der hier vorgestellten Diskreten Kosinustransformation die Funktion dct(.) und f¨ ur die inverse die Funktion idct(.) angegeben. •

Auch bei der Sinus- und der Kosinustransformation ist eine Entwicklung schneller Algorithmen ohne Verwendung der FFT m¨oglich, wobei man ausnutzen kann, daß die Transformationsmatrizen reell sind und das Format M × M haben. F¨ ur eine einheitliche Darstellung, die auch andere hier nicht behandelte unit¨ are Transformationen einschließt, wird auf [2.41] verwiesen.

Literaturverzeichnis 1. Doetsch, G.: Funktionaltransformationen. Abschn. C in Sauer, R.; Szab´ o, I. (Hrsg.): Mathematische Hilfsmittel des Ingenieurs. Teil I. Berlin: Springer 1967

Literaturverzeichnis

127

2. Papoulis,A.: The Fourier integral and its applications. New York: McGraw-Hill 1962 3. Bracewell, R.N.: The Fourier Transform and its appplications. 2nd ed. New York: McGraw-Hill 1978 4. Oppenheim, A.V.; Willsky, A.S.; Young I.T.: Signals and systems. Englewood Cliffs, N.J.: Prentice-Hall 1983 5. Sch¨ ußler, H.W.: Netzwerke, Signale und Systeme. Bd. II. Berlin: Springer 3. Auflage 1991 6. Sch¨ ußler, H.W.: Netzwerke, Signale und Systeme. Bd.I. Berlin: Springer 3. Auflage 1991 7. Erwe, F.: Differential- und Integralrechnung I. BI. Hochschultaschenb¨ ucher Bd. 30/30a. Mannheim: Bibliographisches Institut 1962 8. Marks II, Robert J.: Introduction to Shannon Sampling and Interpolation Theory. New York: Springer 1991 9. Sch¨ ußler, H.W.; Steffen, P.: A hybrid system for the reconstruction of a smooth function from its samples. Circuits, Systems and Signal Processing, Bd. 3(1984), 295-314 10. Achilles, D.: Die Fourier-Transformation in der Signalverarbeitung. 2. Aufl. Berlin: Springer 1985 11. McClellan, J.H.; Parks, T.W.: Eigenvalue and Eigenvector Decomposition of the Discrete Fourier Transform. IEEE Transact. on Audio and Electroacoustics, Bd. AV-20(1972) S. 66-74 12. Zurm¨ uhl, R.: Matrizen und ihre technischen Anwendungen. 4. Aufl. Berlin: Springer 1964 13. Heideman, M.T.; Johnson, D.H.; Burrus, C.S.: Gauss and the history of the FFT. IEEE ASSP Magazine, Bd. 1. S.14-21, Oct. 1984 14. Cooley, J.W.; Lewis, P.A.; Welch, P.D.: Historical Notes on the Fast Fourier Transform. IEEE Transact. on Audio Electroacoustics, Bd. AU-15 (1967) S. 76-79. Auch in: Digital Signal Processing, IEEE Press, Selected Reprint Series 1972, S. 260 - 262 15. Cooley, J.W.; Tukey, J.W.: An Algorithm for the Machine Calculation of Complex Fourier Series. Mathematics of Computation, Bd. 19, 1965, S. 297-301. Auch in: Digital Signalprocessing, IEEE Press, Selected Reprint Series 1972, S. 223-227 16. Burrus, C.W.; Parks, T.W.: DFT/FFT and Convolution Algorithms, Theory and Implementation. John Wiley u. Sons New York 1985 17. Burrus, C.S.: Efficient Fourier Transform and Convolution Algorithms Kap. 4 in Lim J.S.; Oppenheim, A.V.: Advanced Topics in Signal Processing. Englewood Cliffs N.J. Prentice-Hall, 1988 18. Brigham E.O.: FFT, Schnelle Fourier-Transformation. R. Oldenbourg Verlag M¨ unchen 1982 19. Duhamel, P., Vetterli, M.: Fast Fourier Transforms: A Tutorial Review and a State of the Art. Signal Processing, Bd. 19(1990) S. 259-299 20. Markel, John D.: FFT Pruning. IEEE Transact. on Audio and Electroacoustics, Bd. AU-19 (1971), S. 305-311 21. Skinner D.P.: Pruning the Decimation-in-Time FFT Algorithm. IEEE Transact. on Acoustics, Speech and Signal Processing, Bd. ASSP-24 (1976), S. 193-194

128

2 Diskrete determinierte Signale

22. Duhamel, P.: Implementation of split-radix FFT-algorithms for complex, real and real-symmetric data IEEE Transact. on Acoustics, Speech and Signal Processing, Bd. 34 (1986) S. 285 - 295. 23. Bruun, G.: Z-Transform DFT Filters and FFT’s. IEEE Transact. on Acoustics, Speech and Signal Processing, Bd. ASSP-26 (1978), S. 56-63 24. Storn, R.: On the Bruun Algorithm and its Inverse. FREQUENZ, Bd. 46 (1992), S. 110 - 116 25. Doetsch, G.: Z-Transformation. In: Sauer, R; Szab´ o, I. (Hrsg.): Mathematische Hilfsmittel des Ingenieurs. Teil 1 Abschnitt C. Kapitel VI. Berlin: Springer 1967 26. Jury, E.I.: Theory and application of the Z-Transform method. New York: Wiley 1973 27. Ragazzini, J.R.; Franklin, G.F.: Sampled-data control systems. New York: McGraw-Hill 1958 28. Vich, R.: Z-Transform Theory and Applications. D. Reidel Publishing Company, Dordrecht, 1987 29. Tietz, H.: Funktionentheorie. In: Sauer, R.; Szab´ o, I. (Hrsg.): Mathematische Hilfsmittel des Ingenieurs. Teil I. Abschnitt A. Berlin: Springer 1967 30. ˚ Astr¨ om, K.J.; Jury, E.I.; Agniel, R.G.: A Numerical Method for the Evaluation of Complex Integrals. IEEE Transact. on Automatic Control, Bd. AC-15 (1970), S. 468-471 31. ˚ Astr¨ om, K.J.: Recursive Formulas for the Evaluation of certain Complex Integrals. Quarterly of Applied Mathematics, Bd. XXVII, (1970), S. 283-288 32. Oppenheim, A.V.; Schafer, R.W.: Discrete-Time Signal Processing. Englewood Cliffs, N.J.: Prentice-Hall 1989 33. Rabiner, L.R.; Gold, B.: Theory and application of digital signal processing. Englewood Cliffs, N.J.: Prentice-Hall 1975 34. Rabiner, L.R.; Schafer, R.W.; Rader, C.M.: The chirp z-transform algorithm, IEEE Transact. on Audio and Electroacoust. Bd. 17 (1969) 86-92 35. Ahmed, N.; Rao, K.R.: Orthogonal transforms for digital signal processing. Berlin: Springer 1975 36. Jayant, N.S.; Noll, P.: Digital coding of waveforms. Englewood Cliffs, N.J.: Prentice Hall 1984 37. Jain, A.K.: A sinusoidal family of unitary transforms. IEEE Trans. Pattern Analysis and Machine Intelligence, Bd. 1(1979) S. 356-365 38. Bracewell, R.N.: The Hartley Transform. New York: Oxford University Press. 1986 39. Sorensen, H.V.; Jones, D.L.; Burrus, C.S.; Heideman, M.T.: On Computing the Discrete Hartley Transform. IEEE Transact. on Acoustics, Speech, and Signal Processsing, Bd. ASSP-33 (1985) S. 1231-1238 40. Ahmed, N.; Natarajan, T.: Rao, K.R.: Discrete cosine transform. IEEE Trans. Comput., Bd. 29(1974) S. 90-93 41. Algazi, V.R.; Fino, B.J.: A Unified Treatment of Discrete Fast Unitary Transforms. SIAM Journal Comput. Vol. 6(1977) S. 700-717 42. Frigo, M.; Johnson, S.G.: FFTW: An adaptive software architecture for the FFT. IEEE Int’l Conf. Acoustics, Speech, and Signal Processing, Bd. 3, Seattle, USA, 1998, S. 1381-1384 43. Frigo, M.; Johnson, S.G.: The Design and Implementation of FFTW3. Proceedings of the IEEE, Bd. 93, 2005, S. 216-231

3 Stochastische Folgen

3.1 Betrachtung im Zeitbereich 3.1.1 Einfu ¨ hrung und grundlegende Beziehungen Bisher haben wir bei unseren Betrachtungen stets determinierte Folgen verwendet, die f¨ ur alle Werte von k durch Angabe einer sie beschreibenden Gleichung bestimmt sind. Diese Signale sind vor allem deshalb von großer Bedeutung, weil mit ihnen die Kennzeichnung der von uns zu behandelnden Systeme m¨ oglich wird, die durch ihr Verhalten bei Erregung mit diesen determinierten Testfolgen vollst¨ andig gekennzeichnet werden k¨onnen (s. die Abschn. 4.2 und 4.3). Die in der Signalverarbeitung praktisch vorkommenden Signale sind nun aber i. allg. nicht durch eine uns bekannte Beziehung beschreibbar. Sie haben f¨ ur uns Zufallscharakter, entweder, weil ihr Verlauf nach einer unbekannten bzw. v¨ ollig un¨ ubersichtlichen Gesetzm¨aßigkeit verl¨auft, oder weil sie einen echt zuf¨ alligen Verlauf haben. Ein Beispiel f¨ ur die erste Gruppe ist das W¨ urfeln, das zwar im Einzelfall nach den Gesetzen der Mechanik determiniert verl¨ auft, dessen Ergebnis aber wegen der Komplexit¨at des Vorgangs und der Unkenntnis u ¨ber Anfangswerte und Parameter nicht vorhergesagt werden kann und deshalb f¨ ur den Beobachter zuf¨ alligen Charakter hat. Ein Signal, das eine dem Empf¨ anger unbekannte Nachricht tr¨ agt, ist f¨ ur ihn ein Beispiel f¨ ur eine Funktion mit nicht vorhersehbarem und insofern echt zuf¨alligem Verlauf; denn w¨ urde es determiniert einem bestimmten, dem Empf¨anger bekannten Gesetz folgen, k¨ onnte es keine Nachricht u ¨bermitteln. Hier ist offenbar der Bezugspunkt f¨ ur die Beurteilung des Charakters des Signals entscheidend. In diesem Abschnitt besch¨ aftigen wir uns mit Zufallsfolgen. Eine ausf¨ uhrliche Behandlung dieses umfangreichen Gebiets w¨ urde den Rahmen des Buches sprengen. Wir beschr¨ anken uns daher auf die Darstellung der wichtigsten Zusammenh¨ ange und Aussagen, die wir zum Teil auch ohne Herleitung bringen. ussen wir auf die Literatur verweisen, z.B. [3.1-6]. Im u ¨brigen m¨ ¨ Unsere Uberlegungen gehen hier prim¨ ar von den nicht vorhersehbaren Ergebnissen eines Experimentes aus. Sie f¨ uhren zur Definition von Ereignissen,

130

3 Stochastische Folgen

die ihrerseits Untermengen in einem Stichprobenraum sind. Beim M¨ unzwurf mit den m¨ oglichen Ergebnissen “Kopf” oder “Zahl” sind diese Untermengen z.B. leere Menge (weder Kopf noch Zahl → unm¨ogliches Ereignis); Kopf; Zahl; Einsmenge (Kopf oder Zahl → sicheres Ereignis). Beim W¨ urfeln ist das prim¨ are Ergebnis, daß eine der sechs verschiedenen Fl¨achen fi , i = 1(1)6 oben liegt. M¨ ogliche Ereignisse sind dann alle denkbaren Untermengen, also neben den Einzelergebnissen irgendwelche Kombinationen, z.B. die aller Fl¨achen mit geradem Index. Es werden nun stochastische Variablen dadurch eingef¨ uhrt, daß die Ergebnisse auf reelle Zahlen abgebildet werden, beim M¨ unzwurf etwa Kopf → 0, Zahl → 1, beim W¨ urfeln entsprechend den auf den Fl¨achen angegebenen Punktzahlen. Bei einem Signal verwenden wir unmittelbar die Werte, die es in einem bestimmten Zeitpunkt annimmt, wobei wir zun¨achst unterstellen, daß ihre Anzahl endlich sei. Man erh¨ alt auf diese Weise die Werte einer Zufallsvariablen im Betrachtungszeitpunkt. Wird das Experiment in Abh¨angigkeit von der Zeit wiederholt, so werden wir auf eine Folge von Zahlenwerten gef¨ uhrt, die unter den gemachten Annahmen nicht in geschlossener Form beschrieben werden kann. F¨ ur diese Zufallsfolgen bzw. die zugrunde liegenden Folgen von Ergebnissen k¨ onnen wir nur Wahrscheinlichkeitsaussagen machen. Dazu betrachten wir die Gesamtheit aller Zufallswertefolgen vν (k), die durch denselben Entstehungsvorgang gekennzeichnet sind, der z.B. verbal beschrieben wird. Ein so erkl¨ artes Ensemble wird als Zufallsprozeß oder stochastischer Prozeß v(k) bezeichnet, die einzelne Wertefolge vν (k) als eine Realisierung oder Musterfolge des Prozesses. Die beiden Spalten von Bild 3.1 zeigen zun¨achst jeweils drei Realisierungen von zwei verschiedenen Prozessen u(k) und v(k). Bei allen individuellen Unterschieden zwischen den einzelnen u.. (k) bzw. v.. (k) sind doch Verwandtschaften erkennbar. Offensichtlich w¨ achst der mittlere Wert der Musterfolgen ahrend die Schwankungsbreite zun¨achst zunimmt, um u.. (k) mit der Zeit, w¨ dann wieder kleiner zu werden. Diese Eigenschaften “mittlerer Wert” und “Schwankungsbreite” sind noch zu definieren. Wesentlich ist zun¨achst nur, andern. Einen derartigen Prozeß nennt daß sie sich bei den u.. (k) mit der Zeit ¨ man nichtstation¨ar. Im Rahmen dieses Buches werden wir uns im wesentlichen mit station¨aren Prozessen besch¨aftigen, deren statistische Kenngr¨oßen unabh¨angig von der Zeit sind. In der rechten Spalte von Bild 3.1 sind drei Realisierungen v..(k) eines solchen station¨ aren Prozesses dargestellt, bei dem mittlerer Wert und Schwankung konstant bleiben. Wir werden geeignete Beschreibungen solcher Prozesse behandeln. Dabei sind auch die im unteren Teil von Bild 3.1 f¨ ur diese beiden Beispiele dargestellten Gr¨ oßen noch einzuf¨ uhren. Die Betrachtung geht von den m¨ oglichen einzelnen Werten aus. Bei einem Prozeß v(k) liegt in einem bestimmten Augenblick k = k0 eine Zufallsvariable v(k0 ) vor, die Werte in einem Intervall endlicher oder unendlicher Breite annehmen kann. Wir nehmen weiterhin zun¨achst an, daß nur endlich viele Ergebnisse m¨ oglich sind; v(k0 ) sei wertdiskret. Man spricht dann von Elemen-

3.1 Betrachtung im Zeitbereich

131

Abb. 3.1. Musterfolgen aus a) einem nichtstation¨ aren; b) einem station¨ aren Prozeß; c), d) gesch¨ atzte Erwartungswerte; e), f) gesch¨ atzte Varianzen der beiden Prozesse

132

3 Stochastische Folgen

tarereignissen. Unter Bezug auf die m¨ oglichen Werte kann der Prozeß als eine von k unabh¨ angige Menge von Zufallsvariablen betrachtet werden. Ausgehend von N Realisierungen vν (k) des Zufallsprozesses seien die Zahogliche Werte der Zufallsvariablen bekannt. Ist Vi einer der len vν (k0 ) als m¨ m¨ oglichen Werte, so l¨ aßt sich feststellen, daß dieser Wert unter den N gegebenen insgesamt ni (k0 ) mal vorkommt. Dann ist ni (k0 )/N die relative H¨aufigkeit uhrt man diese Betrachtung f¨ ur das Auftreten von v = Vi im Zeitpunkt k0 . F¨ f¨ ur alle m¨ oglichen Werte Vi durch, so ergibt sich eine meßtechnisch gewonnene H¨ aufigkeitsverteilung als erste Beschreibung des Prozesses im Zeitpunkt k0 . Die folgenden Aussagen formulieren wir prim¨ar f¨ ur die Elementarereignisse, die wir auf diskrete Zahlenwerte abgebildet haben. Es sei also in allgemeiner Formulierung Ai (k) = {v(k) = Vi } das Ereignis, dem wir jetzt eine nicht ur das negative Zahl W {Ai (k)} zuordnen. Sie wird als Wahrscheinlichkeit f¨ Eintreten des Ereignisses Ai im Augenblick k bezeichnet. Die schon angek¨ undigte Beschr¨ ankung auf station¨are Prozesse bedeutet, daß die charakteristischen Eigenschaften nicht von der Zeit abh¨angen. Damit entf¨ allt sowohl bei der relativen H¨ aufigkeit wie bei der Wahrscheinlichkeit die Abh¨ angigkeit von k. Die jetzt nur noch von Ai abh¨angige Wahrscheinlichkeit ullen [3.3]: W {Ai } muß die folgenden drei axiomatischen Bedingungen erf¨ 1.

W {Ai } ≥ 0.

(3.1.1a)

Beschreibt S die Gesamtheit aller m¨ oglichen Ereignisse bzw. der zugeordneten Werte, von denen v einen annehmen muß, so ist 2.

W {S} = 1.

(3.1.1b)

Schließen sich zwei Ereignisse gegenseitig aus, ist also Ai ∧ Aj = 0, so gilt f¨ ur das Auftreten der Ereignisse Ai oder Aj 3.

W {Ai ∨ Aj } = W {Ai } + W {Aj }

(3.1.1c)

In [3.3] werden aus diesen Axiomen eine Reihe wesentlicher Aussagen hergeleitet. Z.B. ist W {Ai } = 0, wenn Ai das unm¨ogliche Ereignis bezeichnet. Mit (3.1.1a,b) folgt 0 ≤ W {A} ≤ 1. (3.1.2a) Ist Ai ∧ Aj = | 0 so ergibt sich an Stelle von (3.1.1c) W {Ai ∨ Aj } = W {Ai } + W {Aj } − W {Ai ∧ Aj }.

(3.1.2b)

Weiter wird gezeigt, daß die oben eingef¨ uhrte relative H¨aufigkeit den Axiomen (3.1.1) in dem Sinne gen¨ ugt, daß W {Ai } = W {v(k) = Vi } ≈

ni N

(3.1.2c)

ist, wobei wieder ni angibt, wie oft das Ereignis Ai bei N Versuchen auftritt. Schließlich f¨ uhren wir die bedingte Wahrscheinlichkeit W {Aj | Ai } ein, die als

3.1 Betrachtung im Zeitbereich

W {Aj | Ai } =

W {Ai ∧ Aj } W {Ai }

133

(3.1.3a)

definiert ist, wobei W {Ai } = | 0 vorausgesetzt wird. Sie beschreibt die Wahrscheinlichkeit daf¨ ur, daß das Ereignis Aj eintritt unter der Voraussetzung, daß Ai vorliegt. Es wird gezeigt, daß die bedingte Wahrscheinlichkeit den Axiomen (3.1.1) gen¨ ugt. Von besonderem Interesse ist der Fall, daß W {Aj | Ai } = W {Aj } bzw. W {Ai | Aj } = W {Ai }

(3.1.3b)

ist. Hier sind die beiden Ereignisse Ai und Aj voneinander statistisch unabh¨ angig, und man erh¨ alt mit (3.1.3a) W {Ai ∧ Aj } = W {Ai }W {Aj }.

(3.1.3c)

Im folgenden verallgemeinern wir die Aussagen dahingehend, daß jetzt V ∈ sei. Um mit den oben definierten Wahrscheinlichkeiten arbeiten zu k¨onnen, gehen wir von dem Ereignis {v ≤ V } aus und definieren die Verteilungsfunktion (3.1.4) Pv (V ) = W {v ≤ V }, die in Abh¨ angigkeit von V angibt, mit welcher Wahrscheinlichkeit die Zufallsvariable v einen Wert ≤ V annimmt. Aus (3.1.1,2) folgt, daß es sich um eine mit wachsendem V nicht abnehmende Funktion handelt, die st¨ uckweise differenzierbar ist und dort Sprungstellen aufweist, wo diskrete Werte Vi auftreten. Ihre Eigenschaften sind in der Tabelle 3.1 in (3.1.5) zusammengestellt. Bild 3.2a zeigt als Beispiel die Verteilungsfunktion f¨ ur eine diskrete (W¨ urfel), Teilbild b f¨ ur eine stetige, beliebig angenommene Zufallsvariable.

Abb. 3.2. Beispiele f¨ ur Verteilungs- und Verteilungsdichtefunktion

134

3 Stochastische Folgen

Gleichung

Verteilungsfunktion

Gleichung

(3.1.4)

Pv (V ) = W {v ≤ V }

(3.1.6)

(3.1.5a)

0 ≤ Pv (V ) ≤ 1

(3.1.7a)

(3.1.5b) (3.1.5c)

(3.1.5d) (3.1.5e)

Verteilungsdichtefunktion

pv (V ) = $V

d Pv (V ) dV

pv (ξ)dξ = Pv (V )

−∞

lim Pv (V ) = 0

(3.1.7b)

V →−∞

V $2 V1

lim Pv (V ) = 1

(3.1.7c)

V →∞

pv (V )dV = Pv (V2 ) − Pv (V1 )

pv (V )ΔV ≈ ≈ Pv (V + ΔV ) − Pv (V )

Pv (V2 ) ≥ Pv (V1 ); V2 > V1

(3.1.7d)

Pv (V2 ) − Pv (V1 ) =

(3.1.7e)

W {V1 < v ≤ V2 }; V2 > V1

+∞ $

pv (V )dV = 1

−∞

Wertdiskreter Fall: pv (V ) =

i

pi δ0 (V − Vi )

Tabelle 3.1. Beziehungen f¨ ur Verteilungs- und Verteilungsdichtefunktionen

Weiterhin f¨ uhren wir die Verteilungsdichtefunktion pv (V ) =

d Pv (V ) ≥ 0, ∀V dV

(3.1.6)

ein. Hier ist die Differentiation gegebenenfalls als verallgemeinerte Ableitung (Derivierung) aufzufassen. Die wichtigsten Beziehungen f¨ ur pv (V ) sind in (3.1.7) angegeben. Im wertdiskreten Fall wird die Dichtefunktion zu einer Folge von δ0 -Distributionen, (3.1.7e), deren Gewichte pi gleich der Wahrscheinlichkeit daf¨ ur sind, daß v = Vi gilt. Bild 3.2c,d zeigt die Verteilungsdichten f¨ ur die in Bild 3.2a,b angenommenen F¨ alle. Wir bemerken, daß in dem allgemeinen Fall eines nichtstation¨aren Prozesses die Verteilungsfunktion und die Verteilungsdichtefunktion zus¨atzlich von der Zeit abh¨ angen und als Pv (V, k) bzw. pv (V, k) zu bezeichnen sind. Ein station¨ arer Prozeß wird sehr h¨ aufig prim¨ar, aber nicht vollst¨andig mit pv (V ) beschrieben. Das h¨ angt damit zusammen, daß man in Kenntnis sei¨ ner Entstehung auf Grund prinzipieller Uberlegungen zu einem geschlossenen Ausdruck f¨ ur pv (V ) kommen kann. Weiß man z.B., daß entsprechend dem Erzeugungsverfahren ein Signal nur Werte innerhalb eines Intervalls [−V0 , V0 ] annehmen kann, wobei keiner der m¨ oglichen Werte bevorzugt oder benachtei-

3.1 Betrachtung im Zeitbereich

ligt wird, so spricht man von einer Gleichverteilungsdichte mit ⎧ 1 ⎪ , |V | ≤ V0 ; V0 > 0 ⎨ 2V0 pv (V ) = ⎪ ⎩ 0, |V | > V0 .

135

(3.1.8)

Bild 3.3 zeigt einen Ausschnitt aus einer Musterfolge aus einem n¨aherungsweise gleichverteilten Prozeß. Viele stochastische Folgen kann man mit einem Prozeß modellieren, der eine Gauß- oder Normalverteilungsdichte hat (s. auch Abschn. 3.1.5). Sie wird durch 2 2 1 (3.1.9a) pv (V ) = √ e−V /2σv σv 2π beschrieben. Die zugeh¨ orige Verteilungsfunktion ist

Abb. 3.3. a),b) Zufallsfolgen, die n¨ aherungsweise gleich- bzw. normalverteilt sind; c),d) zugeh¨ orige meßtechnisch ermittelte Histogramme

x √  2 2 Pv (V ) = 0, 5 1 + erf(V /σv 2) mit erf(x) = √ e−ζ dζ, π 

(3.1.9b)

0

wobei erf(−x) = −erf(x) gilt. In MATLAB wird hierf¨ ur die Funktion erf(.) zur Verf¨ ugung gestellt.

136

3 Stochastische Folgen

Bild 3.4a zeigt pv (V ) und Pv (V ) f¨ ur diesen Fall, Bild 3.3b den Verlauf einer ¨ Folge mit n¨ aherungsweise normalverteilten Werten. F¨ ur praktische Uberlegungen ist die Feststellung wichtig, daß bei einem normalverteilten Signal rund 95% der Werte im Intervall −2σv ≤ V ≤ 2σv liegen. In Verallgemeinerung von (3.1.9a) geben wir die Normalverteilungsdichte f¨ ur den Fall an, daß die stochastische Variable um den Mittelwert μv schwankt (vergl. Abschnitt 3.1.3). Es ist dann pv (V ) =

1 √

σv 2π

e−(V −μv )

2

/2σv2

.

(3.1.9c)

Einen durch μv und σv gekennzeichneten normalverteilten Prozeß v bezeichnet man abgek¨ urzt als v ∈ N (μv , σv ). Wir f¨ uhren noch zwei weitere Prozesse ein, die wir sp¨ater ben¨otigen. Zun¨ achst betrachten wir die χ2 -Verteilung (z.B. [3.3], [3.7-9]). Ausgehend von n statistisch unabh¨ angigen Zufallsvariablen vν , die alle normalverteilt sind ur die also vν ∈ N (0, 1) gilt, wird mit mit Mittelwert μv = 0 und σv = 1, f¨ χ2n =

n 

vν2

(3.1.10a)

ν=1

eine neue Zufallsvariable eingef¨ uhrt. Die zugeh¨orige sogenannte χ2 -Verteilungsdichte ist (z.B. [3.3]) ⎧ (n/2−1) −X/2 X e ⎪ ⎪ ⎨ ,X≥0 n/2 2 Γ (n/2) pχ2n (X) = (3.1.10b) ⎪ ⎪ ⎩ 0, X < 0. Sie h¨ angt in starkem Maße von der Zahl n der Freiheitsgrade ab. Γ (x) bezeichnet hier die Gammafunktion, die durch ∞ Γ (x) =

e−ζ ζ x−1 dζ

(3.1.11a)

0

definiert ist. Es gelten folgende Beziehungen Γ (x + 1) = xΓ (x); Γ (1) = 1; Γ (n + 1) = n!.

(3.1.11b)

Bild 3.4b zeigt die in (3.1.10b) angegebene χ2 -Verteilungsdichte f¨ ur ver2 asymptotisch nach schiedene Werte von n. F¨ u r wachsendes n geht χ √ N (n, 2n). Von Interesse ist weiterhin die sogenannte Studentsche-Verteilung. Ausgehend von den unabh¨ angigen Zufallsvariablen v1 und v2 , von denen v1 ∈ N (0, 1) ist, w¨ ahrend v2 eine χ2 -Verteilung mit n Freiheitsgraden hat, wird die neue Zufallsvariable

3.1 Betrachtung im Zeitbereich

137

Abb. 3.4. a) Gauß- oder Normalverteilung, gezeichnet f¨ ur σv = 1; b) χ2 Verteilungsdichte, dargestellt f¨ ur verschiedene Werte von n; c) StudentscheVerteilungsdichte im Vergleich zur Normalverteilung

v1 x= ) v2 /n

(3.1.12a)

eingef¨ uhrt. Ihre Verteilungsdichte ist (z.B. [3.7-9]) Γ ((n + 1)/2) px (X) = √ nπ Γ (n/2)



X2 1+ n

−(n+1)/2 .

(3.1.12b)

Sie wird in Bild 3.4c f¨ ur n = 1 und 4 im Vergleich zur Normalverteilung dargestellt. F¨ ur wachsendes n gilt px (X) → N (0, 1). Als Beispiel f¨ ur den Fall, daß die Variable nur diskrete Werte annehmen kann, betrachten wir einen Prozeß mit Binomial- oder Bernoulli-Verteilung.

138

3 Stochastische Folgen

Hier sind nur zwei Werte m¨ oglich (z.B. 1 oder 0), wobei die Eins mit der Wahrscheinlichkeit p, die Null entsprechend mit 1 − p auftritt. Es interessiert die Wahrscheinlichkeit daf¨ ur, daß in N Werten der Zufallsvariablen ν-mal der Wert Eins erscheint. Wird statistische Unabh¨angigkeit der einzelnen Ereignisse vorausgesetzt (s. Abschn. 3.1.4), so erh¨ alt man f¨ ur die Wahrscheinlichkeit in Abh¨ angigkeit von ν   N ν p (1 − p)N −ν (3.1.13a) WN {ν} = ν und f¨ ur die Verteilungsdichte pv (V ) =

N    N ν=0

ν

pν (1 − p)N −ν δ0 (V − ν).

(3.1.13b)

F¨ ur den speziellen Fall p = 0, 5, der dem Beispiel des M¨ unzwurfs entspricht, zeigt Bild 3.5 pv (V ) sowie die zugeh¨ orige Verteilungsfunktion. Dabei wurde N = 8 bzw. 16 gew¨ ahlt. Ist N p(1 − p)  1, so geht die Einh¨ ullende der Binomialverteilungsdichte in der Umgebung des Mittelwerts μv = N √p in die Normalverteilungsfunktion u ur p = 0, 5 gilt mit σv = N /2 im ¨ber. Speziell f¨ Intervall |ν − N/2| < σv   2 2 N −N 1 (3.1.13c) ≈ √ e(ν−N/2) /2σv . 2 ν σv 2π Bei einer unbekannten stochastischen Variablen kann man durch meßtechnische Bestimmung eines Histogramms die interessierende Verteilungsdichtefunktion n¨ aherungsweise ermitteln. Dazu mißt man mit einer großen Zahl N ur die gilt V < v ≤ V + ΔV . von Versuchen die Anzahl nv der Ergebnisse, f¨ Man setzt dann nv . N (3.1.14) Das Verfahren entspricht der angen¨ aherten Bestimmung der Wahrscheinlichkeit eines Ereignisses durch Messung der relativen H¨aufigkeit seines Auftretens. Als Beispiele wurden in Bild 3.3c,d zus¨ atzlich die Histogramme der beiden betrachteten Zufallsvariablen angegeben, die man auf Grund dieser Messung als n¨ aherungsweise gleich- bzw. normalverteilt bezeichnen w¨ urde. Das hier beschriebene Verfahren zur Sch¨ atzung der Verteilungsdichte behandeln wir erneut in Abschnitt 3.3.3.

W {V < v ≤ V + ΔV } = Pv (V + ΔV ) − Pv (V ) = ΔPv (V ) ≈ pv (V )ΔV ≈

In MATLAB l¨ aßt sich mit dem Befehl v = rand (M, N) eine M × N Matrix v von Zufallswerten erzeugen, die im Intervall (0,1) gleichverteilt sind. Mit dem Befehl v = randn(M,N) erh¨ alt man die Zufallszahlen einer mittelwertfreien Normalverteilung mit σv2 = 1. Eine Normalverteilung mit vorgegebenen Standardabweichung errechnet sich durch Multiplikation der Zufallszahlen mit dem Faktor σv =sig ˆ mit dem

3.1 Betrachtung im Zeitbereich

139

Abb. 3.5. Binomialverteilungen f¨ ur p = 0, 5

Befehl v = sig*randn(M,N). F¨ ur die Berechnung der Zufallsfolgen und der zugeh¨ origen Verteilungsdichtefunktionen werden im Anhang, Abschn. 7.1.4.4 die Funktionen randchi2(.), randstu(.), randbin(.) sowie normvdf(.), chi2vdf(.), stuvdf(.) und binvdf(.) angegeben. Dabei wird die Gammafunktion in MATLAB mit dem Befehl g = gamma(x) zur Verf¨ ugung gestellt. Die Bestimmung des Histogramms einer Folge v ist mit [hi,V] = hist(v,L) m¨ oglich. Mit L wird die Zahl der gew¨ unschten Intervalle der Breite ΔV = [max(v)− min(v)]/L gew¨ ahlt. Die L Elemente Vν des Vektors V bezeichnen die Mitten der Intervalle, in die bei der Messung hi(ν) Werte von v fallen. Es ist dann bei N Werten der Folge v gem¨ aß (3.1.14) pv (Vν ) ≈ pˆv (Vν ) =

hi(ν) 1 · . N ΔV

Die in Bild 3.3 gezeigten Zufallsfolgen wurden mit MATLAB erzeugt, die gesch¨ atzten Verteilungsdichten f¨ ur beide Prozesse mit der Funktion hist(.) f¨ ur N = 100000 und L = 50 gemessen. Entsprechendes gilt f¨ ur die in Bild 3.7 im n¨ achsten Abschnitt • gezeigten Beispiele.

3.1.2 Funktionen einer Zufallsvariablen Ausgehend von einer Zufallsvariablen v aus einem Prozeß v(k) mit der Verteilungsdichte pv (V ) betrachten wir eine andere Zufallsvariable x, die sich durch die eindeutige Transformation

140

3 Stochastische Folgen

x = g(v) bzw. X = g(V )

(3.1.15)

aus v ergibt. Wir beschr¨ anken uns hier zun¨ achst auf den Spezialfall einer im interessierenden Wertebereich monoton verlaufenden Funktion g(V ) mit der eindeutigen Umkehrfunktion v = g −1 (x) bzw. V = g −1 (X). Es interessiert die Verteilungsdichte px (X) der neuen stochastischen Variablen x. Bild 3.6 erl¨ autert den Zusammenhang f¨ ur monoton wachsendes g(V ).

Abb. 3.6. Zur Transformation einer Zufallsvariablen

Offenbar folgt aus V1 < v ≤ V1 + ΔV nach der Transformation X1 < x ≤ ur die Wahrscheinlichkeiten gilt dann X1 + ΔX. F¨ pv (V1 )ΔV ≈ Pv (V1 + ΔV ) − Pv (V1 ) = Px (X1 + ΔX) − Px (X1 ) ≈ px (X1 )ΔX und damit px (X1 ) ≈ pv (V1 )

ΔV . ΔX

Durch Grenz¨ ubergang ΔV → 0 und mit V := V1 folgt px (X) = pv (V ) und daraus mit V = g −1 (X) " ! d[g −1 (X)] . px (X) = pv g −1 (X) dX

dV dX

(3.1.16a)

Falls x = g(v) monoton f¨ allt, ist mit ΔX < 0 pv (V1 )ΔV ≈ Pv (V1 + ΔV ) − Pv (V1 ) = − [Px (X1 + ΔX) − Px (X1 )] ≈ −px (X1 )ΔX.

3.1 Betrachtung im Zeitbereich pv (V )

Operation

pv (V )

X = g(V )

px (X)

141

Gleichung

   d[g −1 (X)]   pv [g −1 (X)]   dX

(3.1.16)

V = g −1 (X)

1; V ∈ [0, 1]

X = Px−1 (V )

0; V ∈ / [0, 1]

V = Px (X)

   d[g −1 (X)]      dX

(3.1.17)

X = aV + b pv (V )

V = (X − b)/a

pv [(X − b)/a]

1 |a|

(3.1.18)

a, b ∈ π

 (2V − 1)

1; V ∈ [0, 1]

X = sin

0; V ∈ / [0, 1]

1 V = arcsin X + 0, 5 π

1; V ∈ [0, 1] 0; V ∈ / [0, 1] 1; V ∈ [0, 1]

2

√ X = σ 2 · erf−1 (2V − 1) √ 1 V = [1 + erf(X/σ 2)] 2 √ X = |α| −2 · lnV −X 2 /2α2

0; V ∈ / [0, 1]

V =e

1; V ∈ [0, 1]

1 X = − ln(1 − V ) α V = 1 − e−αX , α > 0

0; V ∈ / [0, 1]

1 1 √ ; X ∈ [−1, 1] π 1 − X2 0; X ∈ / [−1, 1] 2 2 1 √ e−X /2σ σ 2π

X −X 2 /2α2 e ;X ≥ 0 α2 0; X λ0 mit λ0 n gilt  2 λ0  sin nΩ 1  jΩ 2 jΩ ψvv (λ) ≈ var P ern (e ) ≈ Ψvv (e ) + n sin Ω λ=−λ0

 ≈

2 (ejΩ ) Ψvv

 1+

sin nΩ n sin Ω

2  .

F¨ ur n → ∞ erh¨ alt man schließlich  2 jΩ  2Ψvv (e ), Ω = iπ, i ∈ var P ern (ejΩ ) = 2 Ψvv (ejΩ ), sonst.

(3.3.28c)

(3.3.28d)

Insgesamt hat die Untersuchung damit gezeigt, daß das Periodogramm zwar einen asymptotisch erwartungstreuen, aber nicht konsistenten Sch¨atzwert f¨ ur das Leistungsdichtespektrum liefert. Es gilt die pauschale Aussage, daß seine Varianz dem Quadrat der zu bestimmenden Gr¨oße proportional ist. Das Periodogramm l¨ aßt sich zwar bei geeigneten Werten von n mit Hilfe der FFT sehr schnell berechnen, f¨ uhrt aber in der bisher beschriebenen Form zu nicht brauchbaren Ergebnissen. Wir erl¨ autern diese Aussagen mit einem Beispiel. Bild 3.16a zeigt das Leistungsdichtespektrum eines vollst¨ andig bekannten Prozesses, das Teilbild b die zugeh¨ orige Korrelierte. Der sich nach (3.3.25c) ergebende systematische Fehler wurde f¨ ur ein Rechteckfenster und verschiedene Werte n berechnet und in Bild 3.16c dargestellt. ) Weiterhin zeigt das Teilbild d die mit (3.3.28b) ur n = 128. bestimmte Streuung σP er = var {P ern } des Periodogramms f¨ Zu erkennen ist die enge Beziehung zum gesuchten Spektrum und der nach (3.3.28d) zu erwartende hohe Wert bei Ω = 0. Schließlich wurden f¨ ur n = 64 und n = 256 jeweils Periodogramme von 5 Abschnitten aus v(k) berechnet. Die Teilbilder e und f zeigen die unbrauchbaren Ergebnisse. Sie lassen auch erkennen, daß eine Vervierfachung von n ganz sicher keine Verbesserung bringt. 3.3.5.2 Mittelung von Periodogrammen Es interessiert ein Verfahren, mit dem man bei ¨ahnlich geringem numerischen Aufwand eine deutliche Verbesserung des mit dem Periodogramm erzielbaren Ergebnisses erreichen kann. Man erh¨ alt es durch eine Mittelung von hinreichend vielen Periodogrammen einzelner Segmente aus einer entsprechend langen Wertefolge. Statt also f¨ ur die gesamte Folge ein einziges Periodogramm zu bestimmen, womit zwar eine Verringerung des systematischen Fehlers, aber keine Reduzierung der Varianz erreicht wird, geht man von einer Unterteilung in verh¨ altnism¨ aßig kurze Abschnitte aus. Die Mittelung der Periodogramme f¨ uhrt zu der erforderlichen Verkleinerung der Varianz, aber nicht zu einer Verbesserung des der L¨ ange der Einzelsegmente entsprechenden systematischen Fehlers.

196

3 Stochastische Folgen

Abb. 3.16. Beispiel zur Sch¨ atzung des Leistungsdichtespektrums mit dem Periodogramm. a) b) Ψvv (ejΩ ) und ψvv (λ) des untersuchten Prozesses; c) d) systematischer Fehler und Streuung des Periodogramms; e) f) jeweils 5 Periodogramme f¨ ur n = 64 und n = 256.

Das Verfahren wurde urspr¨ unglich von Bartlett vorgeschlagen [3.18]. Im folgenden wird es einschließlich einer von Welch eingef¨ uhrten Modifikation erl¨ autert [3.19]. Es wird als Welch-Bartlett Methode bezeichnet (z.B. [3.5,13,15,16]). Die gegebene Folge v(k) der L¨ ange n wird mit einer Fensterfunktion fn0 (k) aß der Breite n0 gem¨ uν (k) = fn0 (k) · v[k + ν(n0 − Δn)]; ν = 0(1)N − 1; k = 0(1)n0 − 1 (3.3.29) in N = 1 + (n − n0 )/(n0 − Δn) Segmente zerlegt. Die Verschiebung Δn ¨ beschreibt die Uberlappung (Δn > 0) bzw. die Distanz der Segmente (Δn < 0). Bild 3.17 erl¨ autert das Vorgehen f¨ ur den Fall eines Hann-Fensters mit

3.3 Messung von Kenngr¨ oßen stochastischer Prozesse

197

Abb. 3.17. Segmentierung einer Folge v(k) mit einem Hann-Fenster

n0 = 32 und Δn = 12. Mit einem Rechteck-Fenster und Δn = 0 erh¨alt man die Zerlegung der Bartlett-Methode als Spezialfall. n −1 2 0  1   −jΩk  jΩ Es ist dann mit P erν (e ) = uν (k)e    n0  k=0

N −1 1  Ψˆvv (ejΩ ) = P erν (ejΩ ). N ν=0

(3.3.30)

Offenbar wird hier eine abschnittsweise Mittelung von Funktionen vorgenommen, die in Zeitrichtung aus einem Mitglied des ergodischen Prozesses genommen worden sind. Bez¨ uglich der Eigenschaften des erzielten Ergebnisses gelten ¨ damit die Uberlegungen von Abschnitt 3.3.2. Insbesondere ist festzustellen, daß die einzelnen Segmente zumindest f¨ ur Δn ≥ 0 i.allg. nicht voneinander unabh¨ angig sind. Die angestrebte Reduktion der Varianz wird daher nicht in dem Maße erreicht, wie die Zahl N der Segmente erwarten l¨aßt. Weiterhin ist zu beachten, daß bei normalverteiltem Signal v(k) zwar auch Uν (ejΩ ) = ∗ {uν (k)} normalverteilt ist, dann aber f¨ ur P erν (ejΩ ) notwendig eine χ2 -Verteilung vorliegt. Bei der Bestimmung des Vertrauensintervalls ist also so vorzugehen, wie in Abschnitt 3.3.1 bei der Sch¨ atzung von σv2 (k) beschrieben. Bild 3.18 zeigt die f¨ ur eine Wertefolge der L¨ ange n = 10000 aus dem bereits vorher untersuchten Prozeß gefundenen Sch¨ atzfunktionen. In den Teilbildern a und b sind die Ergebnisse der Mittelungen u ¨ber die Periodogramme der nicht u angen n = 64 und 512 dargestellt. Sie ¨berlappenden Abschnitte der L¨ best¨ atigen qualitativ die obigen Aussagen: Im ersten Fall liefert die Mittelung von N = 156 Periodogrammen ein zwar glattes, aber wegen der kurzen Segmentl¨ ange von n0 = 64 ein mit deutlichem systematischen Fehler behaftetes Ergebnis. Der ist bei n0 = 512 im Teilbild b nicht zu erkennen; da nur u ¨ber N = 19 Periodogramme gemittelt wurde, ist hier die Varianz offenbar wesentlich gr¨ oßer. Bei dem zweiten Versuch wurden die jetzt um 50% u ¨berlappenden Datensegmente mit dem Hann-Fenster bewertet. In der Tendenz stimmen die in den Bildern 3.18c,d gezeigten Ergebnisse mit denen der

198

3 Stochastische Folgen

Rechteck-Fensterung u ¨berein. Der Unterschied in der Wirkung beider Fenster wird mit den Bildern 3.18 e,f deutlicher. Im Bereich 0 ≤ Ω ≤ π/2 liefert das Hann-Fenster wegen der gr¨ oßeren Zahl der zu mittelnden Periodogramme ein glatteres Ergebnis. Die erzielte Verbesserung zeigt sich aber besonders im Intervall π/2 ≤ Ω < π, f¨ ur das im Teilbild f die Spektren in dB dargestellt sind.

Abb. 3.18. Beispiel zur Spektralsch¨ atzung bei einer Folge der L¨ ange n = 10000 mit der Welch-Bartlett-Methode a) b) Rechteck-Fenster, Δn = 0, n0 = 64 bzw. 512; c) d) Hann-Fenster, Δn = n0 /2, n0 = 64 bzw. 512; e) f) Vergleich von Rechteck-Fenster ur n0 = 256 (Δn = 0) und Hann-Fenster (Δn = n0 /2) f¨

Das nachfolgende, mit MATLAB erstellte Programm wblds(.) liefert das gesch¨ atzte Leistungsdichtespektrum Ψˆvv (ejΩ ) der Folge v(k) nach dem WelchBartlett Verfahren [3.19]. W¨ ahlbar ist die Segmentl¨ ange n0 =n ˆ 0 , die Verschiebung

3.3 Messung von Kenngr¨ oßen stochastischer Prozesse

199

dn =Δn, ˆ die Transformationsl¨ ange M und der Fenstertyp: bei ft = true wird das Hann-Fenster, bei ft = false das Rechteck-Fenster verwendet. function lds = wblds(v,n0,dn,M,ft) % wblds: Leistungsdichtespektrum nach dem Welch-Barlett Verfahren % Vorbereitung: N=Zahl der Segmente n = length(v); N = 1+floor((n-n0)/(n0-dn)); v = v(:)’; if ft, f = sqrt(2/3)*(1-cos(2*pi*[0:n0-1]/n0)); else f = ones(1,n0); end % Mittelung ueber N Segment-Periodogramme lds = zeros(1,M/2); for i=0:N-1, ind = i*(n0-dn); perseg = fft(v(ind+1:ind+n0).*f,M); perseg = perseg.*conj(perseg)/n0; lds = lds + perseg(1:M/2); end lds = (lds/N)’; In MATLAB werden entsprechende Funktionen f¨ ur die Berechnung des Leistungsdichtespektrums zur Verf¨ ugung gestellt. Die Berechnung des Periodogramms erfolgt mit dem Befehl Pxx = periodogram(v). Ohne weitere Angaben wird dabei von einem Rechteckfenster und der Berechnung mit einer DFT in der L¨ ange N der Eingangsfolge v ausgegangen. Der Aufruf Pxx = periodogram(v,win,nfft) erm¨ oglicht die Wahl unterschiedlicher Fensterfunktionen [3.15,3.32,3.33,7.1], deren Verlauf im Vektor win abgelegt wird. Die Fenster erstrecken sich stets u ¨ ber das gesamte Eingangssignal. Mit der Angabe von nfft < N wird das bewertete Eingangssignal in Bereiche der L¨ ange nfft unterteilt. Vor der Berechnung des Leistungsdichtespektrums mittels DFT wird u ¨ ber diese Bereiche gemittelt. Die Berechnung des Leistungsdichtespektrums nach Welch und Bartlett erfolgt mit der Funktion pwelch(.). Bei entsprechender Parametrisierung k¨ onnen auch hier unterschiedliche Fensterfunktionen eingesetzt werden. Im Gegensatz zum Periodogramm wird hier u ¨ber die Leistungsspektren der einzelnen Bereiche gemittelt. Mit dem Befehl y=pwelch(v,hann(n0),dn,M) erh¨ alt man das gleiche Ergebnis wie bei der oben vorgestellten Funktion wblds(.). Das Hann-Fenster wird dabei mit der Funktion hann(.) unter Angabe der L¨ ange n0 berechnet. In der MATLAB Signal Processing Toolbox k¨ onnen die anzuwendenden Verfahren zur Berechnung der Leistungsdichtefunktion und deren Parameter in eigenen Objekten (spectrum) vordefiniert werden. F¨ ur die Berechnung des Spektrums oder der Leistungsdichtefunktion werden dann die entsprechenden Methoden zu den Objekten aufgerufen. Eine Einf¨ uhrung zur Anwendung von Objekten wird im Anhang, Abschn. 7.1.6 gegeben. •

200

3 Stochastische Folgen

3.3.5.3 Mittelung unterschiedlich gefensterter Periodogramme Die Berechnung eines Periodogramms entsprechend Abschn. 3.3.5.1 f¨ uhrt zu einem systematischen Fehler (Bias), der mit zunehmender L¨ange der untersuchten Folge v(k) jedoch gegen Null strebt. Unabh¨angig von der L¨ange der Folge bleibt aber die Varianz der Sch¨ atzwerte konstant. Durch Einf¨ uhrung einer Fensterfunktion (z. B. Hann-Fenster) l¨ asst sich der Bias zwar verringern, gleichzeitig steigt aber die Varianz an. Mit der Welch-Barlett-Methode, Abschn. 3.3.5.2, kann wiederum eine Verringerung der Varianz durch Mittelung der Periodogramme von einzelnen Teilbl¨ ocken erreicht werden, gleichzeitig reduziert sich aber hierbei die spektrale Aufl¨ osung. Von Thomson [3.35] wurde 1982 eine Methode zur gleichzeitigen Optimierung von Bias, Varianz und Aufl¨ osung vorgeschlagen. Die mit Multita” per“ oder Multi-Window Spectrum-Estimation“ bezeichnete Methode ist ein ” Verfahren, bei dem u ¨ber R modifizierte Periodogramme gemittelt wird. Die einzelnen Periodogramme werden mit unterschiedlichen, aber zueinander orthogonalen Fenstern erzeugt. Speziell werden in [3.35] R Fensterfunktionen (mt) fL,r (k) aus der Klasse der discrete prolate spheroidal sequences (dpss)“ ” [3.36] vorgeschlagen. Eine ausf¨ uhrliche Beschreibung des Verfahrens wird in [3.35] und [3.37] gegeben. Die dpss-Folgen werden dabei durch deren L¨ange L, ein normiertes Zeit-Bandbreiten-Produkt nw und die Ordnungszahl r de(mt) ur die einzelnen Periodogramme finiert. Mit den Fensterfunktionen fL,r (k) f¨ erh¨ alt man den Sch¨ atzwert des Leistungsdichtespektrums  2 R−1 R−1 L−1  1  ˆ (mt) jΩ 1    (mt) (mt) jΩ −jkΩ  ˆ Ψvv (e ) = Ψr (e ) = fL,r (k) v(k) e  .    R R r=0

r=0

k=0

(3.3.31) Angewendet wird das Verfahren unter anderem in der Geophysik, hierzu werden Beispiele in [3.37] gegeben. Auch in der Sprachverarbeitung konnte eine verbesserte Sch¨atzung der Kurzzeitspektren erzielt werden [3.38, 3.39]. In der MATLAB Signal Processing Toolbox [7.2] wird f¨ ur die Berechnung der Leistungsdichtespektren nach der Multitaper“-oder Multi Window“-Methode die ” ” Funktion pmtm(.) zur Verf¨ ugung gestellt. Dabei werden die intern f¨ ur die Fensterung ben¨ otigten Folgen - Discrete Prolate Spheroidal Sequences (Slepian Se” quences)“- mit dem Befehl [e,v]=dpss(n,nw) aufgerufen. Das Leistungsdichtespek∧ (mt) trum Ψvv (ejΩ ) = Pxx erh¨ alt man mit dem Befehl Pxx=pmtm(v,nw,’method’). Da∧ bei gibt v = v(k) die Eingangsfolge und nw das Zeit-Bandbreiten-Produkt an. Neben der linearen Mittelung der einzelnen Periodogramme (’method’=’unity’), ist die von Thomson [Tho82] vorgeschlagene adaptive Methode (’method’=’adapt’) und eine Bewertung der Periodogramme mit den Gewichten der Eigenwerte der Fensterfunktionen (’method’=’eigen’) m¨ oglich. F¨ ur die objektorientierte Programmierung steht das Objekt spectrum.mtm mit den entsprechenden Eingaben zur Verf¨ ugung. •

3.3 Messung von Kenngr¨ oßen stochastischer Prozesse

201

3.3.5.4 Spektralsch¨ atzung basierend auf gesch¨ atzter Kovarianzfolge Wegen der Definition des Leistungsdichtespektrums in (3.2.1a) liegt es nahe, Ψˆvv (ejΩ ) durch Fouriertransformation der gesch¨atzten Kovarianzfolge ψˆvv (λ) zu bestimmen. Diese M¨ oglichkeit wird als Blackman-Tukey-Methode bezeichnet (z.B. [3.13]). Zun¨ achst untersuchen wir generell die Eigenschaften des mit Ψˆvv (ejΩ ) =

L 

ψvv (λ)e−jλΩ =



  (R) f2L+1 (λ)ψvv (λ)

λ=−L

definierten Sch¨ atzwertes f¨ ur das Leistungsdichtespektrum, der aus der mit dem Rechteck-Fenster bewerteten Kovarianzfolge bestimmt wird. Offenbar ist 1 (R) jΩ 1 sin(2L + 1)Ω/2 Ψˆvv (ejΩ ) = F ∗ Ψvv (ejΩ ); (e ) ∗ Ψvv (ejΩ ) = 2π 2L+1 2π sin Ω/2 eine Funktion, die negativ werden kann. Die rechteckf¨ormig bewertete Kovarianzfolge ist also nicht positiv semidefinit. Es ist daher eine Fensterfolge zu verwenden, deren Spektrum nicht negativ werden kann, z.B. ein Dreieckoder das Hann-Fenster. Die Forderung ist unmittelbar mit der nach (3.3.17a)  = n − 1 zu erf¨ ullen, f¨ uhrt aber nach bestimmten Sch¨ atzfolge ψˆvv (λ) und L Abschnitt 3.3.5.1 zu dem mit dem Periodogramm erzielten inkonsistenten und daher unbrauchbaren Ergebnis. Damit ist entweder von L + 1 Werten der mit n  L nach (3.3.17a) gesch¨ atzten Kovarianzfolge ψˆvv (λ), λ = −L(1)L, oder von dem nach Rader mit (3.3.19) gefundenen Ergebnis auszugehen. In beiden F¨ allen ist eine Bewertung mit einem geeigneten Fenster der L¨ange 2L + 1 vorzunehmen, f¨ ur dessen Spektrum FL+1 (ejΩ ) ≥ 0 gelten muß . Da es hier auf die Kovarianzfolge angewendet wird, ist weiterhin f2L+1 (0) = 1 zu beachten, im Falle des Hann-Fensters also an Stelle von (3.3.27) (H)

f2L+1 (λ) = 0, 5 · [1 + cos πλ/L], λ = −L(1)L.

(3.3.32)

Die mit MATLAB erstellte Funktion covlds(.) bestimmt die M/2 ≥ L Werte von Ψˆvv (ejΩ ) im Bereich 0 ≤ Ω < π bei Verwendung des Hann-Fensters. Die Werte psi = ˆ ψˆvv (),  = 0(1)L werden dabei mit der in Abschnitt 3.3.4 vorgestellten Funktion rader(.) bestimmt. Das mit covlds(.) berechnete Leistungsdichtespektrum ist abh¨ angig von der vorgegebenen L¨ ange der Kovarianzfolge. function lds = covlds(v,L,M) %covlds: Leistungsdichtespektrum mittels Kovarianzfolge l = [0:L]; fh= 0.5*(1+cos(l*pi/L))’; psi = rader(v,L);

% modifiziertes Hann-Fenster % Bestimmung der Kovarianzfolge

202

3 Stochastische Folgen psi=psi(L+1:end); Psi = 2*real(fft(fh.*psi,M))-psi(1); lds = Psi(1:M/2);

Bild 3.19 zeigt ein Beispiel. Ausgehend von einer Musterfolge der L¨ ange 10000 aus dem bereits f¨ ur die Bilder 3.16 und 3.18 verwendeten Prozeß mit Ψvv (ejΩ ) und ψvv (λ) nach Bild 3.16 a,b wurde mit der in Abschnitt 3.3.4 angegebenen Funktion rader(.) die Kovarianzfolge f¨ ur L = 128 gesch¨ atzt. Das Bild 3.19a zeigt das Ergeb(R) (R) nis, das Teilbild c den resultierenden Fehler Δψvv (λ) = ψˆvv (λ) − ψvv (λ). In Bild (R) 3.19e ist das damit errechnete Leistungsdichtespektrum Ψˆvv (ejΩ ) im Vergleich mit dem theoretischen Verlauf dargestellt. Wie erwartet ergab die Rechnung hier intervallweise negative Werte, die allerdings bei dem im Bild gew¨ ahlten Maßstab kaum erkennbar sind. Die Teilbilder 3.19b,d,f zeigen die entsprechenden Ergebnisse f¨ ur (R) den Fall, daß ψˆvv (λ) mit dem Hann-Fenster gewichtet wurde. (H) F¨ ur das im Teilbild f dargestellte Spektrum gilt Ψˆvv (ejΩ ) ≥ 0. Der Vergleich mit Teilbild e l¨ aßt die auch sonst durch die Fensterung erzielte Verbesserung erkennen. Das hier vorgestellte Verfahren und Programm ist von dem bei MATLAB angegebenen parametrischen Verfahren pcov(.), das ebenfalls auf der Berechnung der Kovarianz aufbaut zu unterscheiden. •

3.4 Abtastung stochastischer Funktionen In vielen praktisch wichtigen F¨ allen entsteht eine stochastische Folge v(k) durch Abtastung einer Musterfunktion v0 (t) aus einem kontinuierlichen ergodischen Zufallsprozeß. In diesem Abschnitt bestimmen wir die Eigenschaften des diskreten Prozesses unter der Voraussetzung, daß die den kontinuierlichen Prozeß beschreibenden Funktionen und Erwartungswerte bekannt seien. Wegen der vorausgesetzten Stationarit¨ at gilt zun¨achst, daß die ein- und zweidimensionalen Verteilungsdichtefunktionen von v0 (t) und v(k) u ¨bereinstimmen. Es ist also (3.4.1a) pv (V ) = pv0 (V ) und pvv (V1 , V2 ; λ) = pv0 v0 (V1 , V2 ; τ = λT ).

(3.4.1b)

μv = E {v} = E {v0 } = μv0

(3.4.2a)

  σv2 = E |v − μv |2 = E |v0 − μv0 |2 = σv20 .

(3.4.2b)

Damit folgt sowie

Hier interessieren vor allem die Autokorrelierte ϕvv (λ) und das Leistungsdichtespektrum. Wegen (3.4.1b) ist ϕvv (λ) = E {v0 [(k0 + λ)T ]v0∗ (kT )} = ϕv0 v0 (λT ).

(3.4.3)

Man erh¨ alt also die Autokorrelationsfolge ϕvv (λ) durch Abtastung der Autokorrelationsfunktion ϕv0 v0 (τ ) in den Punkten τ = λT .

3.4 Abtastung stochastischer Funktionen

203

(R) Abb. 3.19. Zur Spektralsch¨ atzung unter Verwendung von ψˆvv (λ); a) ψˆvv (λ) nach (H) (R) (H) (λ) · ψˆvv (λ); c) d) Fehler Rader f¨ ur Folge v(k) der L¨ ange 10000, b) ψˆvv (λ) = f der Kovarianzfolgen; e) f) gesch¨ atzte Leistungsdichtespektren

In Abschn. 2.3.2 haben wir den Zusammenhang zwischen dem Spektrum einer Funktion und dem der daraus durch Abtastung gefundenen Folge dis¨ kutiert und daf¨ ur den in (2.3.24) formulierten Uberlagerungssatz gefunden. Dieses Ergebnis ist hier unmittelbar anwendbar. Ist Φv0 v0 (jω) =

{ϕv0 v0 (τ )}

das Leistungsdichtespektrum des durch v0 (t) repr¨asentierten Prozesses, so folgt

+∞ 1  1 (3.4.4) Φv0 v0 j (Ω + 2kπ) . Φvv (ejΩ ) = T T k=−∞

204

3 Stochastische Folgen

Die Untersuchung der Kreuzkorrelierten ϕv1 v2 (λ) und des Kreuzleistungsdichtespektrums Φv1 v2 (ejΩ ) zweier Folgen v1 (k) und v2 (k), die durch Abtastung von Musterfunktionen aus zwei kontinuierlichen ergodischen Prozessen entstanden sind, f¨ uhrt auf Zusammenh¨ ange mit den diese Prozesse beschreibenden Gr¨ oßen, die v¨ ollig (3.4.4) entsprechen. Wir betrachten zwei Beispiele. Zun¨ achst gehen wir von einem kontinuierlichen ergodischen Prozeß aus, der ein f¨ ur |ω| ≤ ω1 konstantes Leistungsdichtespektrum habe. Es sei also im folgenden  Φ0 , |ω| ≤ ω1 (3.4.5a) Φv0 v0 (jω) = 0, |ω| > ω1 . Die inverse Fouriertransformation f¨ uhrt auf die zugeh¨orige Autokorrelationsfunktion, (vergl. (2.3.29b)) ϕv0 v0 (τ ) =

Φ0 sin ω1 τ . π τ

(3.4.5b)

Die Abtastung einer Musterfunktion v0 (t) aus diesem Prozeß f¨ uhrt auf eine stochastische Folge v(k) mit der Autokorrelationsfolge ϕvv (λ) =

Φ0 sin Ω1 λ , mit Ω1 = ω1 T. πT λ

(3.4.5c)

Das zugeh¨ orige Leistungsdichtespektrum Φvv (ejΩ ) ist intervallweise konstant, (vergl. (2.3.29d,e) und Bild 2.7). Ist insbesondere T = π/ω1 , so gilt Φvv (ejΩ ) =

Φ0 , T

∀Ω.

(3.4.5d)

Weiterhin gehen wir von einem kontinuierlichen Prozeß mit der Autokorrelierten ϕv0 v0 (τ ) = e−α|τ | , mit α > 0 (3.4.6a) aus. F¨ ur das Leistungsdichtespektrum folgt Φv0 v0 (jω) =

1 2α 1 − = 2 . jω + α jω − α ω + α2

(3.4.6b)

Die durch Abtastung einer Musterfunktion bei t = kT gewonnene stochastische Folge hat dann die Autokorrelierte ϕvv (λ) = e−αT |λ| =: |λ| mit = e−αT < 1.

(3.4.6c)

In Abschn. 2.3.2 haben wir das Spektrum einer entsprechenden Folge bestimmt. Mit (2.3.28a) erhalten wir hier f¨ ur das Leistungsdichtespektrum Φvv (ejΩ ) =

ejΩ ejΩ 1 − 2 − = . ejΩ − ejΩ − −1 1 − 2 cos Ω + 2

(3.4.6d)

3.5 Quantisierungseffekte

205

Nach (2.3.28b) ist dann Φvv (ejΩ ) =

+∞ 

+∞  1 1 − . j(Ω + 2κπ) − ln

j(Ω + 2κπ) + ln

κ=−∞ κ=−∞

(3.4.6e)

Andererseits folgt aus (3.4.6b) mit ωT = Ω und αT = −ln dieselbe rechte

+∞ 1  1 ¨ Seite f¨ ur Φv v j (Ω + 2κπ) in Best¨atigung des UberlagerungssatT κ=−∞ 0 0 T zes (3.4.4).

3.5 Quantisierungseffekte Die Behandlung stochastischer Vorg¨ ange ist in der Signalverarbeitung nicht nur deshalb wichtig, weil die auftretenden Signale h¨aufig stochastischer Natur sind. Vielmehr ist es zweckm¨ aßig, auch bestimmte bei realen Systemen durch die Begrenzung der Wortl¨ ange verursachte Fehler durch stochastische Folgen zu beschreiben. Wir beschr¨ anken uns hier auf die Behandlung der bei der Analog-Digital-Umsetzung und durch die Rundung nach einer Multiplikation entstehenden rauschartigen unkorrelierten Fehler. Korrelierte Fehler bei der Anwendung anderer Quantisierungskennlinien (z.B. betragsm¨aßiges Abschneiden), sowie der Einfluß von “kurzen” Koeffizienten (Koeffizienten mit nur wenigen Bin¨ arstellen) bleiben ebenfalls unber¨ ucksichtigt. 3.5.1 Analog-Digital-Umsetzung Bei der Einf¨ uhrung der Folgen v(k) im Abschn. 2.1 haben wir angenommen, daß diese beliebige Werte annehmen k¨ onnen. In realen Systemen ist aber die Zahl der m¨ oglichen unterschiedlichen Werte stets endlich. Es gilt daher einerseits vmin ≤ v(k) ≤ vmax , mit endlichen Werten f¨ ur die Extremwerte vmax und vmin , andererseits wird z.B. bei einer Festkommadarstellung dieser Wertebereich gleichm¨aßig unterteilt, so daß der Abstand zwischen zwei m¨ oglichen Werten die Quantisierungsstufe Q > 0 ist. Ist w die verwendete Wortl¨ ange, so gilt Q = 2−(w−1) .

(3.5.1)

Wird die Wertefolge durch Abtastung einer kontinuierlichen, i.allg. stochastischen Funktion v0 (t) gewonnen, so wird die Beziehung zwischen v0 (t) und der Folge der quantisierten Werte [v(k)]Q = [v0 (kT )]Q z.B. durch die in Bild 3.20 gezeichnete Quantisierungskennlinie beschrieben. [v(k)]Q ist stets ein ganzzahliges Vielfaches von Q. Es gilt dann

206

3 Stochastische Folgen

Abb. 3.20. Quantisierungskennlinie eines A/D-Umsetzers

     1 1 [v(k)]Q = μQ, f¨ ur v(k) ∈ μ− Q, μ + Q , 2 2 mit μ ∈

(3.5.2a)

und |μ| ≤ M, M Q = vmax = |vmin |.

Bei der folgenden eingehenden Untersuchung der stochastischen Variablen [v(k)]Q und des Quantisierungsfehlers 

Q Q δ(k) = [v(k)]Q − v(k) ∈ − , (3.5.2b) 2 2 ber¨ ucksichtigen wir nicht die Effekte, die zus¨ atzlich durch die offenbar m¨ogli¨ che Ubersteuerung entstehen. Wir nehmen an, daß die Verteilungsdichtefunktion pv (V ) und die charakteristische Funktion Cv (jχ) der durch eine idealisierte, d.h. nicht quantisierte Abtastung der Funktion v0 (t) entstandenen Folge v(k) = v0 (kT ) bekannt seien und bestimmen zun¨ achst die entsprechenden Funktionen f¨ ur die quantisierte Folge [v(k)]Q , (s. [3.20-3.22]). Da sie nur die diskreten Werte μQ annnehmen kann, gilt f¨ ur ihre Verteilungsdichte (siehe Bild 3.21a)

3.5 Quantisierungseffekte

pvQ (V ) =

+∞ 

W {μQ}δ0 (V − μQ),

207

(3.5.3a)

μ=−∞

wobei sich die Werte W {μQ} nach (3.1.7b) als (μ+0,5)Q 

W {μQ} =

pv (V )dV = Pv [(μ + 0, 5)Q] − Pv [(μ − 0, 5)Q]

(3.5.3b)

(μ−0,5)Q

ergeben. Die durch (3.5.3) beschriebene Operation, mit der jeweils der Fl¨ache des μ-ten Intervalls der Breite Q aus der Funktion pv (V ) die impulsf¨ormige Wahrscheinlichkeitsdichte W {μQ}δ0 (VQ − μQ) zugeordnet wird, l¨aßt sich (r) als Ergebnis der “Abtastung” einer Funktion pv (V ) bei V = μQ auffassen, die durch Integration von pv (V ) u ¨ber ein rechteckf¨ormiges Fenster rQ (V ) der Breite Q entstanden ist (s. Bild 3.21b).Die Bestimmung der zugeh¨origen cha¨ rakteristischen Funktion CvQ (jχ) gelingt dann mit Hilfe des Uberlagerungs(r) satzes (2.3.24), der auf die Fouriertransformierte von pv (V ) = pv (V )∗rQ (V ), d.h. auf sin χQ/2 Q (3.5.4) Cv(r) (jχ) = Cv (jχ) χQ/2 anzuwenden ist. Hier ist wieder Cv (jχ) die charakteristische Funktion der gegebenen stochastischen Variablen v. Man erh¨alt

Abb. 3.21. Zur Herleitung des Quantisierungstheorems

208

3 Stochastische Folgen

CvQ (jχ) =

=

+∞ 1  (r) C [j(χ + 2μπ/Q)] Q μ=−∞ v +∞ 

Cv [j(χ + 2μπ/Q)]

μ=−∞

sin(χQ/2 + μπ) . χQ/2 + μπ

(3.5.5a)

(3.5.5b)

Wir betrachten nun speziell den Fall, in dem Cv (jχ) = 0,

∀ |χ| ≥

π Q

(3.5.6)

ist. Offenbar ist dann f¨ ur |χ| < π/Q CvQ (jχ) =

1 (r) sin χQ/2 Cv (jχ) = Cv (jχ) , Q χQ/2

(3.5.7)

und es gilt, da bei der hier angenommenen “spektralen Begrenzung” f¨ ur pv (V ) (r) und damit auch f¨ ur pv (V ) die Voraussetzungen des Abtasttheorems erf¨ ullt sind +∞  sin π[V /Q − μ] p(r) . (3.5.8a) (V ) = W {μQ} v π[V /Q − μ] μ=−∞ Die Verteilungsdichte pv (V ) selbst l¨ aßt sich dann in der Form +∞ 

pv (V ) =

W {μQ}f (V − μQ)

(3.5.8b)

μ=−∞

darstellen, wobei mit der interpolierenden Funktion Q f (V ) = 2π

π/Q 

χQ/2 cos V χdχ sin χQ/2

(3.5.8c)

−π/Q

die Verzerrung durch die Integration u ¨ber das rechteckf¨ormige Fenster aufgehoben wird. Bild 3.22 zeigt f (V ) im Vergleich mit der vom Abschn. 2.3.3 her gewohnten Interpolationsfunktion, die mit den hier zu verwendenden Bezeichnungen die Form g0 (V ) = sin(πV /Q)/(πV /Q) annimmt, s. (2.3.38a). Die Beziehungen (3.5.8) besagen, daß die Verteilungsdichtefunktion unter der mit (3.5.6) formulierten Voraussetzung aus den Werten W {μQ} exakt rekonstruiert werden kann. Diese Aussage wird als Quantisierungstheorem bezeichnet [3.20]. Wir haben in Abschn. 2.3.3 festgestellt, daß praktisch vorkommende Zeitfunktionen nicht spektral begrenzt sein k¨ onnen und daher die wesentliche Voraussetzung des Abtasttheorems nicht exakt erf¨ ullen. Ebenso gen¨ ugen Verteilungsdichtefunktionen i.allg. h¨ ochstens n¨ aherungsweise den Bedingungen

3.5 Quantisierungseffekte

209

Abb. 3.22. Interpolierende Funktionen f (V ) und g0 (V )

des Quantisierungstheorems. Man kann es aber trotzdem zur meßtechnischen Bestimmung der Verteilungsdichte aus den bei grober Quantisierung gewonnenen Werten W {μQ} verwenden, wenn pv (V ) hinreichend glatt ist und daher ur wachsendes Argument schnell abnimmt. Wir veranschaulichen den Cv (jχ) f¨ Zusammenhang am Beispiel der Normalverteilung. Nach (3.4.9a) ist pv (V ) =

1 √

σv 2π

e−v

2

/2σv2

und daher Cv (jχ) = e−χ

2

σv2 /2

.

Die Voraussetzung des Quantisierungstheorems ist also sicher nicht erf¨ ullt. Wir berechnen nun n¨ aherungsweise das zweite Moment der quantisierten Folge. Entsprechend (3.1.27c) ist   2 d2 CvQ (jχ)  . E vQ = −  dχ2 χ=0 Setzen wir Cv (jχ) in (3.5.5b) ein, so erhalten wir mit μ = 0 als nullte N¨aherung f¨ ur das zweite Moment nach Zwischenrechnung  2 Q2 , = σv2 + E vQ 12 (s. die folgende Bestimmung der Leistung des Quantisierungsfehlers). Mit den Gliedern f¨ ur μ = ±1 in (3.5.5b) ergibt sich als bessere Ann¨aherung    2 Q2 1 2 2 −2[πσv /Q]2 E vQ = σv + − σv e 4+ . 12 [πσv /Q]2

210

3 Stochastische Folgen

Bereits bei Q = σv ist der Betrag dieses Zusatzterms < 1, 1 · 10−8 σv2 . Offenbar ¨ ist schon bei dieser groben Quantisierung die Uberlappung zu vernachl¨assigen. Unsere bisherigen Betrachtungen der Quantisierung sind die Basis f¨ ur die wichtige Untersuchung der entstehenden Fehlerfolge δ(k), f¨ ur die wir eine modellhafte Beschreibung mit Angaben u ¨ber Mittelwert, Leistungsdichtespektrum und ihre Korrelation zum Signal v(k) anstreben. Dazu bestimmen wir zun¨ achst ihre Verteilungsdichte pδ (Δ) aus pv (V ), der Verteilungsdichte der gegebenen Folge v(k). Der Quantisierungsprozeß f¨ uhrt unmittelbar auf die ¨ Uberlagerung von Intervallen der Breite Q aus der Funktion pv (V ). Es ist +∞ 

pδ (Δ) = rQ (Δ)

pv (Δ + μQ),

(3.5.9a)

μ=−∞



wobei wieder rQ (Δ) =

1, |Δ| ≤ Q/2 0, sonst

(3.5.9b)

das rechteckf¨ ormige Fenster der Breite Q ist. F¨ ur die zugeh¨orige charakteristische Funktion erh¨ alt man mit dem Faltungs- und dem Verschiebungssatz der Fouriertransformation   +∞  1 sin χQ/2 −jμQχ ∗ Cv (jχ) · e Cδ (jχ) = 2π χ/2 μ=−∞     +∞ 1 sin χQ/2 2π  2π 2π = ∗ Cv jμ δ0 χ − μ 2π χ/2 Q μ=−∞ Q Q =

+∞  μ=−∞

 Cv

2π jμ Q



sin(χQ/2 − μπ) . χQ/2 − μπ

Daraus folgt unmittelbar durch R¨ ucktransformation mit Cv (0) = 1 ⎤ ⎡   +∞ ⎥  1 ⎢ 2π ⎥ ⎢ pδ (Δ) = rQ (Δ) ⎢1 + Cv jμ e−jμ2πΔ/Q ⎥ . Q⎣ Q ⎦

(3.5.10)

(3.5.11)

μ=−∞ | 0 μ=

Offenbar ergibt sich die Gleichverteilung  1/Q, |Δ| ≤ Q/2 pδ (Δ) = 0, |Δ| > Q/2,

(3.5.12)

wenn Cv (jμ2π/Q) = 0 ist f¨ ur μ = | 0. Das ist sicher dann der Fall, wenn die Voraussetzung (3.5.6) f¨ ur die G¨ ultigkeit des Quantisierungstheorems erf¨ ullt ist. Aber auch dann, wenn nur

3.5 Quantisierungseffekte

∀ |χ| ≥

Cv (jχ) = 0,

2π Q

211

(3.5.13)

gilt, die Breite des Intervalls, in dem Cv (jχ) = | 0 ist, also doppelt so groß ist, folgt (3.5.12).4 Noch weitergehend ist festzustellen, daß bereits ¨aquidistante Nullstellen ur eine gleichvon Cv (jχ) bei ganzzahligen Vielfachen von 2π/Q hinreichend f¨ verteilte Fehlerfolge sind. Es folgt dann E {δ} = μδ = 0 und

+Q/2 

 1 E δ 2 = σδ2 = Q

Δ2 dΔ =

(3.5.14a)

Q2 . 12

(3.5.14b)

−Q/2

F¨ ur eine Betrachtung des Falls Cv (jμ2π/Q) = | 0 nehmen wir zur Vereinfachung der Darstellung an, daß pv (V ) eine gerade Funktion ist. Dann ist Cv (jχ) eine reelle und ebenfalls gerade Funktion und man erh¨alt aus (3.5.10)     ∞  1 2π pδ (Δ) = rQ (Δ) Cv jμ 1+2 cos μ2πΔ/Q . (3.5.15) Q Q μ=1 F¨ ur Mittelwert und Varianz folgt jetzt 

E {δ} = μδ = 0

 ∞  12  (−1)μ Q2 2π 1+ 2 E δ 2 = σδ2 = C v jμ 2 12 π μ=1 μ Q

(3.5.16a)

 .

(3.5.16b)

Ist die urspr¨ ungliche Folge z.B. normalverteilt und daher Cv (jχ) = 2 2 e−χ σv /2 , so ist bereits f¨ ur Q = σv der Betrag des Beitrags des Summenterms in (3.5.15) f¨ ur Δ = 0 etwa 5,4 · 10−9 und in (3.5.16b) < 3,3 ·10−9 . Selbst bei einer derart groben Quantisierung gelten in diesem Fall also die Aussagen (3.5.12) und (3.5.14) in sehr guter N¨aherung. Wesentlich kritischer sind die Zusammenh¨ ange, wenn die Verteilungsdichte singul¨ are Punkte hat. Wir betrachten den Fall einer nicht periodischen √ Sinusfolge v(k) = sin Ωk mit der Verteilungsdichte pv (V ) = 1/(π 1 − V 2 ), s. (3.1.19c). Dazu geh¨ ort die charakteristische Funktion Cv (jχ) = J0 (χ), wobei J0 (χ) die Besselfunktion erster Art nullter Ordnung bezeichnet. Zur Berechnung der charakteristischen Funktion einer Sinusfolge wird im Anhang, Abschn. 7.1.4.4 die Funktion sinchr(.) angegeben. 4

Eine erneute Betrachtung von (3.5.5) l¨ aßt erkennen, daß im Falle Cv (jχ) = 0 f¨ ur ¨ |χ| ≥ 2π/Q − ε mit ε > 0 die sich ergebende Uberlagerung der Cv [j(χ + 2μπ/Q)] den Wert der charakteristischen Funktion CvQ und ihrer Ableitungen bei χ = 0 nicht beeinflußt (vergleiche die entsprechenden Zusammenh¨ ange f¨ ur Spektren von Zeitfunktionen in Bild 2.10) und daher die Momente der quantisierten Folge mit denen der urspr¨ unglichen u ¨ bereinstimmen.

212

3 Stochastische Folgen

Die Bedingung f¨ ur die G¨ ultigkeit des Quantisierungstheorems ist damit sicher nicht erf¨ ullt. F¨ ur die hier interessierende ur ) Untersuchung kann die f¨ χ > 50 hinreichend genaue N¨ aherung J0 (χ) ≈ 2/πχ·cos(χ−π/4) verwendet werden. Aus (3.5.15) folgt damit   ∞ 2)  1 2π π 2π 1 Q pδ (Δ) ≈ rQ (Δ) 1+ − ) · cos Δμ . (3.5.17) √ cos(μ Q π μ Q 4 Q μ=1 Offensichtlich divergiert die Summe f¨ ur Δ = 0; die Verteilungsdichte von pδ (Δ) ist dort singul¨ ar. Weiterhin findet man bei diesem Beispiel mit (3.5.16b) f¨ ur die Varianz 2 /12. Z.B. erh¨ a lt man f¨ ur Q = 2−3 eine von Q abh¨ a ngige Abweichung von Q  den Wert E δ 2 ≈ 0, 9162 · Q2 /12 und bei Q = 2−7 bereits 0, 9790 · Q2 /12. Bei gen¨ ugend kleiner Quantisierungsstufe gilt also auch hier n¨aherungsweise (3.5.14b). Es interessiert weiterhin das Leistungsdichtespektrum der Fehlerfolge δ(k). Dazu ben¨ otigen wir die Verbundverteilungsdichtefunktion pδ1 δ2 (Δ1 , Δ2 ; λ). ¨ Mit Uberlegungen, die v¨ ollig denen zur Herleitung von pδ (Δ) entsprechen, kann man zeigen, daß ⎧ ⎨ 1 , |Δ1 |, |Δ2 | ≤ Q/2 = pδ1 (Δ1 )pδ2 (Δ2 ); λ = | 0 pδ1 δ2 (Δ1 , Δ2 ; λ) = Q2 ⎩ 0, |Δ |, |Δ | > Q/2 1

2

(3.5.18) gilt [3.22]. Dazu muß die Verbund-Charakteristische Funktion, die man durch zweidimensionale Fouriertransformation von pδ1 δ2 (Δ1 , Δ2 ; λ) erh¨alt, Eigenur die G¨ ultigkeit schaften haben, die im zweidimensionalen denen von Cv (jχ) f¨ von (3.5.12) entsprechen. Offenbar sind also unter sehr allgemeinen Voraussetzungen aufeinanderfolgende Werte der Fehlerfolge δ(k) statistisch voneinander unabh¨ angig. Dann ist Q2 γ0 (λ) (3.5.19a) ϕδδ (λ) = 12 und Q2 Φδδ (ejΩ ) = = const. ∀Ω. (3.5.19b) 12 Schließlich untersuchen wir die Korrelation zwischen der Eingangsfolge v(k) und der Fehlerfolge δ(k). Offensichtlich sind die beiden nicht unabh¨angig voneinander. Vielmehr besteht zwischen ihnen die determinierte Beziehung (3.5.2b). Wir werden aber zeigen, daß sie nicht korreliert sind, wenn die Voraussetzungen f¨ ur die G¨ ultigkeit des Quantisierungstheorems erf¨ ullt ist [3.22]. Zun¨ achst folgt f¨ ur ein mittelwertfreies Signal aus [v(k)]Q = v(k) + δ(k) f¨ ur den quadratischen Mittelwert mit (3.5.14b) allgemein

3.5 Quantisierungseffekte

 2 Q2 . = σv2 + 2E {v(k)δ(k)} + E vQ 12 Andererseits ist E



2 vQ



213

(3.5.20a)

 ! d2 " = − 2 CvQ (jχ)  . dχ χ=0

Unter der Voraussetzung (3.5.6) ist nun nach (3.5.7) CvQ (jχ) = Cv (jχ)

sin χQ/2 . χQ/2

Damit erh¨ alt man, wie schon oben angegeben  2 Q2 E vQ . = σv2 + 12 Der Vergleich mit (3.5.20a) liefert dann die gesuchte Beziehung E {v(k)δ(k)} = 0.

(3.5.20b)

(3.5.21)

Als Beispiel betrachten wir den bei der Quantisierung einer nicht periodischen Sinusfolge entstehenden Fehler, f¨ ur den die obigen Betrachtungen insbesondere bei der Verteilungsdichte wesentliche Abweichungen von dem u ¨blichen Verhalten ergaben. Bild 2.23a zeigt zun¨achst die mit Q = 2−3 quantisierte, hier periodische Sinusfolge, Teilbild b die zugeh¨orige Fehlerfolge δ(k) nach Normierung auf Q. Es wurde dann v(k) = sin ϕ(k) quantisiert, wobei f¨ ur die Phase ϕ(k) 10000 im Intervall (−π/2, π/2) gleichverteilte Zufallswerte gew¨ ahlt wurden. Die Bilder 3.23 c,d zeigen die mit einer Intervallbreite 0,01 gemessenen Histogramme f¨ ur Q = 2−3 und Q = 2−7 . In der Umgebung von Δ = 0 ergibt sich insbesondere f¨ ur Q = 2−3 eine deutliche Abweichung von der in (3.5.12) angegebenen Gleichverteilung, aber damit eine Best¨atigung der Betrachtung von (3.5.17). Die Ergebnisse der Kovarianzmessung zeigen ur λ = 0 gefundenen die Bilder 3.23 e,f nach Normierung auf Q2 /12. Die f¨ Werte sind fast genau gleich denen der obigen numerischen Auswertung von (3.5.16b). F¨ ur λ = | 0 ist max |ψˆδδ (λ)|/(Q2 /12) < 0, 02. Weiterhin ergaben sich die Meßwerte E {δ} = 0 entsprechend der Symmetrie der gefundenen Histogramme. F¨ ur die Kreuzkorrelierte E {v(k)δ(k)} /(Q2 /12) wurden die Werte 0,0192 f¨ ur Q = 2−3 und 0,005 bei Q = 2−7 gemessen. Die Untersuchungen haben damit ergeben, daß der Quantisierungsfehler des quantisierenden Abtasters (des Analog-Digital-Umsetzers) bei hinreichend kleiner Quantisierungsstufe Q als eine mittelwertfreie Zufallsfolge mit weißem Spektrum modelliert werden kann, die mit dem nichtquantisierten Signal nicht korreliert ist. Sie ist außerdem n¨ aherungsweise gleichverteilt, wenn die Verteilungsdichte des zu quantisierenden Signals keine Singularit¨aten aufweist. Ein A/D-Umsetzer wird daher modellhaft durch die in Bild 3.24 gezeigte Zusammenschaltung eines idealen Abtasters mit einer Quelle beschrieben, die die Fehlerfolge δ(k) liefert. Ihre Eigenschaften wurden durch (3.5.14), (3.5.19) und (3.5.21) in sehr guter N¨ aherung beschrieben. F¨ ur ihre Verteilungsdichte gilt abgesehen von Sonderf¨ allen (3.5.12).

214

3 Stochastische Folgen

Abb. 3.23. Zur Untersuchung einer quantisierten Sinusfolge. a) [v(k)]Q mit Q = 2−3 ; b) Quantisierungsfehler δ(k); c) d) Histogramme der Quantisierungsfehler f¨ ur Q = 2−3 und Q = 2−7 ; e) f) normierte Kovarianzfolgen der Quantisierungsfehler

3.5.2 Realer Multiplizierer Wir betrachten die Multiplikation einer Folge v(k) mit einer Konstanten a. Es gelte |v(k)| ≤ 1, |a| ≤ 1. Beide Faktoren seien als Festkommazahlen mit einer Wortl¨ ange w dargestellt, seien also ganzzahlige Vielfache der Quantisierungsstufe Q = 2−(w−1) . Dann hat das Produkt y(k) = a·v(k) i.allg. zun¨achst die Wortl¨ ange 2w und ist ein ganzzahliges Vielfaches der Quantisierungsstufe Q2 . Vor einer weiteren Verarbeitung des Produkts y(k) ist in der Regel eine Verk¨ urzung der Wortl¨ ange auf w n¨ otig. Dabei ergibt sich ein Quantisierungsfehler (3.5.22) δ(k) = [y(k)]Q − y(k) = λ(k)Q2 ,

3.5 Quantisierungseffekte

215

Abb. 3.24. Ersatzschaltung eines A/D-Umsetzers

wobei λ wieder eine ganze Zahl ist. Die Eigenschaften dieser Fehlerfolge h¨ angen von der Zahlendarstellung und der Quantisierungsvorschrift ab. Wir beschr¨ anken uns auf die Rundung des Betrages von y(k). Es ist dann  QQ−1 y(k) + 0, 5 f¨ ur y(k) ≥ 0 (3.5.23) [y(k)]BR = ur y(k) < 0 QQ−1 y(k) − 0, 5 f¨

Abb. 3.25. Zur Untersuchung eines Multiplizierers mit Betragsrundung. a) b) Kennlinie und Fehlerfolge f¨ ur Q = 2−3 ; c) Modellierung des Multiplizierers

216

3 Stochastische Folgen

Bild 3.25a zeigt die zugeh¨ orige Kennlinie, das Teilbild b die Fehlerfolge f¨ ur eine grobe Quantisierung. Wir bemerken, daß die Rundung des einzelnen Produktes y(k) nat¨ urlich determiniert erfolgt. Unterstellt man, daß die Folge v(k) aus einem stochastischen Prozeß stammt, so ist es sinnvoll, auch die Fehlerfolge δ(k) als stochastische Folge zu betrachten und entsprechend zu beschreiben. Offenbar liegen aber deutliche Unterschiede zur Quantisierung in einem A/D-Umsetzer vor, da die hier zu quantisierende Folge y(k) selbst bereits quantisiert ist. Innerhalb des durch Q festgelegten Intervalls kann sie maximal Q−1 verschiedene Werte annehmen. Nach Bild 3.25b ist (1)

δBR (k) = δBR (k) + sign [y(k)] · Q2 /2

(3.5.24)

   (1)  mit δBR (k) ≤ (Q−Q2 )/2. Es besteht also eine Abh¨angigkeit vom Vorzeichen des Produktes und insofern eine Korrelation zwischen δ(k) und v(k). F¨ ur eine modellhafte Beschreibung des Multiplizierers mit Rundung nehmen wir an, daß die Vorzeichen von v(k) mit gleicher Wahrscheinlichkeit auftreten und (1) daß die wertdiskrete Zufallsvariable δBR (k) gleichverteilt ist. Dann ist δBR (k) mittelwertfrei. Abgesehen vom Intervall |y(k)| < Q/2 gilt ur y(k) < 0, −Q/2 ≤ δBR (k) < Q/2, f¨ ur y(k) > 0. −Q/2 < δBR (k) ≤ Q/2, f¨ 2 Da wir nur δBR (k) ben¨ otigen, k¨ onnen wir uns auf −Q/2 < δBR (k) ≤ Q/2 beschr¨ anken, so daß in δBR (k) = λBR (k)Q2 die Folge der ganzen Zahlen λBR (k) im Bereich −Q−1 /2 < λBR (k) ≤ Q−1 /2 liegt. Hier wurde unterstellt, daß der ganzzahlige Wert Q−1 gerade ist. Bei Gleichverteilung der insgesamt oglichen Werte f¨ ur λBR ist dann Q−1 m¨ ⎡ ⎤ Q−1 /2 Q−1 /2    2 λ2 Q4 Q = Q5 ⎣ 2 · λ2 − (Q−1 /2)2 ⎦ . E δBR =: σδ2 = λ=1−Q−1 /2

λ=1

Unter Verwendung von (2.5.36b) folgt nach kurzer Zwischenrechnung  2 Q2 Q4 Q2 E δBR = + ≈ 12 6 12

(3.5.25)

f¨ ur eine hinreichend kleine Quantisierungsstufe Q. Wir erhalten also n¨ aherungsweise dasselbe Ergebnis wie beim A/D-Umsetzer und damit die in Bild 3.25c angegebene Modellierung des realen Multiplizierers. In der Regel kann angenommen werden, daß aufeinander folgende Fehlerwerte δBR (k) voneinander statistisch unabh¨angig sind. Die angegebene Rauschquelle liefert dann ein konstantes Leistungsdichtespektrum. Neben der hier beschriebenen Kennlinie f¨ ur betragsm¨aßiges Runden werden bei der Realisierung von Systemen weitere Quantisierungskennlinien (z.B.

Literaturverzeichnis

217

betragsm¨ aßiges Abschneiden) zur Verk¨ urzung der Produkte nach den Multiplikationen eingesetzt. Beispiele werden in der Literatur genannt, z.B. [3.23, 3.24, 3.25]. Abh¨ angig von der Art der Quantisierung k¨onnen beim Quantisierer rauschartige unkorrelierte und mit dem Signal korrelierte Fehler sowie ein konstanter Versatz (Gleichanteil) entstehen. Dabei ist bei Koeffizienten endlicher Wortl¨ ange von einem diskreten Fehlermodell [3.26] auszugehen. Die unkorrelierten Fehleranteile der verschiedenen Quantisierungsstellen werden entsprechend den Rausch¨ ubertragungsfunktionen von der Quelle zum Ausgang des Systems bewertet und summiert. Bei den mit dem Signal korrelierten Fehleranteilen ist dar¨ uber hinaus das Leistungsspektrum der Polarit¨ atskorrelierten (3.1.64b) des Signals an den Quantisierungsstellen mit in die Berechnung der Ausgangsleistung einzubeziehen. Weiter sind die bewerteten Kreuzleistungsspektren der korrelierten Rauschanteile untereinander zu ber¨ ucksichtigen [3.27]. Beispiele zur Berechnung und zum Vergleich mit Messungen werden in [3.28, 3.29, 3.30] gegeben. Eine Anwendung finden die erweiterten Fehlermodelle bei der Optimierung des Rauschverhaltens von digitalen Filtern in Kaskadenstruktur (siehe Abschnitt 5.2.3) mit dem in [3.31] beschriebenen Programm zum Entwurf rekursiver digitaler Filter.

Literaturverzeichnis 1. Schlitt, H.: Systemtheorie f¨ ur regellose Vorg¨ ange, Berlin: Springer 1960 2. Schlitt, H.; Dittrich, F.: Statistische Methoden der Regelungstechnik. B.I. Hochschultaschenb¨ ucher, Bd. 526. Mannheim: Bibliographisches Institut 1972 3. Papoulis, A.: Probability, random variables and stochastic processes. New York: McGraw-Hill 3. Auflage 1991 4. Papoulis, A.: Signal analysis. New York: McGraw-Hill 1977 5. Schwartz, M.; Shaw, L.: Signal processing. Discrete spectral analysis, detection and estimation. New York: McGraw-Hill 1975 6. H¨ ansler, E.: Statistische Signale; Grundlagen und Anwendungen Berlin: Springer 1991 7. Kreyszig, E.: Statistische Methoden und ihre Anwendungen. G¨ ottingen: Vandenhoeck & Ruprecht 1965 8. Giloi, W.: Simulation und Analyse stochastischer Vorg¨ ange. M¨ unchen: R. Oldenbourg 1967 9. Bendat, J.S., Piersol, A.G.: Random Data, Analysis and Measurement Procedures. New York: Wiley, 2. Auflage 1986 10. Vettman, B.P. Th.; Kwakernaak, H.: Theorie und Technik der Polarit¨ atskorrelation f¨ ur die dynamische Analyse niederfrequenter Signale und Systeme. Regelungstechnik 9 (1961) 357-364 11. Wolf, D.: Zur Genauigkeit der Bestimmung der Autokorrelationsfunktion ¨ aus der Polarit¨ atskorrelationsfunktion. Arch. Elektronik Ubertragungstech. 27 (1973) 279-284 12. Jordan, J.R.: Correlation algorithms, circuits and measurements applications. IEE Proceedings, Part G 133 (1986) 58-74 13. Kammeyer, K.D., Kroschel, K.: Digitale Signalverarbeitung, Filterung und Spektralanalyse. Stuttgart, B.G. Teubner 1989

218

3 Stochastische Folgen

14. Rader, Ch. M.: An improved algorithm for high speed autocorrelation with application to spectral estimation. IEEE Trans. Audio Electroacoust. 18 (1970) 439-441 15. Marple, S.L.: Digital Spectral Analysis with Application, Englewood Cliffs, N.J. 1987 16. Therien, Ch.W.: Discrete Random Signals and Statistical Signal Processing. Englewood Cliffs, N.J. Prentice Hall, 1992 17. Harris, F.J.: On the Use of Windows for Harmonic Analysis with the Discrete Fourier Transform. Proc. of the IEEE 66 (1978) 51-83 18. Bartlett, M.S.: Smoothing Periodograms from Time Series with Continuous Spectra, Nature, London, 161 (1948) 686-687 19. Welch, P.D.: The Use of the Fast Fourier Transform for the Estimation of Power Spectra: A Method Based on Time Averaging over Short Modified Periodograms. IEEE Trans. Audio Electroacoust. 15 (1967) 70-73 20. Widrow, B.: Statistical analysis of amplitude-quantized sampled-data systems. Trans. Am. Inst. Electr. Eng. Part 2 79 (1961) 555-568 21. Korn, G.A.: Random-process simulation and measurements. New York: McGraw Hill 1966 22. Sripad, A.B.; Snyder, D.L.: A necessary and sufficient condition for quantization errors to be uniform and white. IEEE Trans. Acoust. Speech Signal Process. 25(1977) 442-448 23. Sch¨ ußler, H.W.: Digitale Systeme zur Signalverarbeitung, Springer, Berlin (1973) 24. Jackson, L.B.: Digital Filters and Signal Processing, Third Edition with MATLAB Exercises, Kluwer Academic Publishers, Boston, (1996) 25. Oppenheim, A.V.; Schafer, R.W.: Discrete-Time Signal Processing, PrenticeHall, Upper Saddle River, NJ, USA (1999) 26. Eckhardt, B.; Sch¨ ußler, H.W.: On the Quantization Error of a Multiplier. IEEE Proc. ISCAS (1976) 634-637 27. Claasen, T.A,C.M.; Mecklenbr¨ auker, W.F.G.; Peek, J.B.: Quantization Noise Analysis for Fixed Point Digital Filters using Magnitude Truncation for Quantization. IEEE Trans. Circuits and Systems, 22 (1975) 887-895 28. Dehner, G.F.: On the Noise Behaviour of Digital Filter Blocks of Second Order. ¨ ¨ 30 (1976) 394-398 Archiv f¨ ur elektrische Ubertragungstechnik (AEU), 29. Dehner, G.F.: Ein Beitrag zum rechnergest¨ utzten Entwurf rekursiver digitaler Filter minimalen Aufwands, in H.W. Sch¨ ußler (Hrsg.), Ausgew¨ ahlte Arbeiten u at Erlangen-N¨ urnberg (1976) ¨ ber Nachrichtensysteme, Nr. 23, Universit¨ 30. Meyer, R.: Zur Realisierung von digitalen Systemen mit FestkommaSignalprozessoren, in H.W. Sch¨ ußler (Hrsg.), Ausgew¨ ahlte Arbeiten u ¨ ber Nachrichtensysteme, Nr. 86, Universit¨ at Erlangen-N¨ urnberg (1994) 31. Dehner, G.F.: Program for the Design of Recursive Digital Filters. in “Programs for Digital Signal Processing”, IEEE Press, New York (1979) 6.1.1-105 32. Proakis, J.G.; Manolakis, D.G.: Digital Signal Processing: Principles, Algorithms, and Applications. Prentice Hall, Englewood Cliffs, NJ, USA (1996) 33. Proakis, J.G. et al.: Algorithms for Statistical Signal Processing. Prentice Hall, Upper Saddle River, NJ, USA (2002) 34. Gradshteyn, I.S.; Ryzhik, I.M.: Table of Integrals, Series, and Produts. Fifth Edition, Academic Press (1996) 35. Thomson, D.J.: Spectrum Estimation and Harmonic Analysis. Proceedings of the IEEE, Vol. 70, No. 9, Sept 1982, S. 1055 - 1096

Literaturverzeichnis

219

36. Slepian, D.: Prolate Spheroidal Wave Functions, Fourier Analysis, and Uncertainty - V: The Discrete Case. Bell System Technical Journal, Vol. 57 (1978), S. 1371 - 1430 37. Percival, D.B.; Walden, A.T.: Spectral Analysis for Physical Applications Multitaper and Conventional Univariate Techniques. Cambridge University Press, 1998 38. Janardhanan, D.; Heute, U.: Wideband Speech Enhancement With a MultiWindow Method for Spectrum Estimation. ITG-Fachtagung Sprachkommunikation Kiel, April 2006 39. Yi,H.; Loizou, P.C.: Speech Enhancement Based on Wavelet Thresholding the Multitaper Spectrum. IEEE Trans. on Speech and Audio Processing, Vol. 12, N0. 1, Jan. 2004, S. 59 - 67

4 Diskrete Systeme

4.1 Systemeigenschaften In diesem Kapitel betrachten wir allgemeine diskrete Systeme, Methoden zu ihrer Beschreibung sowie ihr Verhalten bei bestimmten Erregungen. Wir definieren zun¨ achst verschiedene Systemarten, indem wir Angaben u ¨ber die Art der Operation machen, mit der die Systeme die Eingangsfolge v(k) in die Ausgangsfolge y(k) u uhren (z.B. [4.1]). Dabei beschr¨anken wir uns auf ¨berf¨ Systeme, die durch eine determinierte Reaktion auf ihre Eingangssignale gekennzeichnet sind. Wir schließen damit also Systeme aus, deren Parameter selbst Zufallsvariable sind, an deren Ausgang daher auch bei Erregung mit determinierten Signalen stochastische Folgen erscheinen. Weiterhin nehmen wir zun¨ achst an, daß am Eingang und Ausgang dasselbe Taktintervall T vorliegt. Den Fall unterschiedlicher Taktraten behandeln wir in Abschnitt 4.7. In allgemeiner Form beschreiben wir die Systeme durch y(k) = S{v(k)} ,

(4.1.1)

wobei der Operator S durch die im folgenden einzuf¨ uhrenden Systemeigenschaften bestimmten Einschr¨ ankungen unterworfen ist. Wir nehmen an, daß sich aus v(k) = 0, ∀k stets y(k) = 0, ∀k ergibt. Das bedeutet, daß eine von Null verschiedene Ausgangsgr¨ oße letztlich nur durch eine Speisung am Eingang verursacht worden sein kann. Das System wird bei verschwindendem Eingangssignal als in Ruhe befindlich bezeichnet. Sind dagegen f¨ ur einen Punkt k0 im Innern Werte = | 0 gespeichert, so wird man y(k) nur angeben k¨onnen, wenn neben v(k) f¨ ur k ≥ k0 auch der Anfangszustand im Punkt k0 in geeigneter Weise beschrieben worden ist (s. Abschn. 5.1). Dabei interessiert nicht, wie dieser Zustand w¨ ahrend der Zeit k < k0 entstanden ist. Wir werden uns vor allem mit dynamischen Systemen befassen. Sie sind dadurch gekennzeichnet, daß y(k) in jedem Punkt k = k0 nicht nur durch ur k < k0 beeinflußt wird. Man bev(k0 ), sondern i. allg. auch durch v(k) f¨ zeichnet sie auch als Systeme mit Ged¨achtnis.

222

4 Diskrete Systeme

Ein System wird reellwertig genannt, wenn es auf jede Folge reeller Eingangswerte mit einer Folge reeller Ausgangswerte reagiert. Aus v(k) ∈

,

∀k ∈

,

folgt dann also y(k) ∈

,

∀k ∈

.

(4.1.2)

F¨ ur kausale Systeme gilt, daß der Ausgangswert in einem bestimmten, aber beliebigen Punkt k0 ausschließlich von v(k) mit k ≤ k0 abh¨angt, nicht dagegen von v(k) mit k > k0 . Insbesondere folgt aus v(k) = 0 f¨ ur

k ≤ k0 ,

stets

y(k) = 0 f¨ ur

k ≤ k0 .

(4.1.3)

Lineare Systeme sind durch die G¨ ultigkeit des Superpositionsgesetzes gekenn-

Abb. 4.1. Pr¨ ufung der Linearit¨ at

zeichnet (Bild 4.1). Die Reaktionen des durch (4.1.1) beschriebenen Systems auf zwei beliebige Eingangswertefolgen v1 (k) und v2 (k) seien y1 (k) = S{v1 (k)}

und y2 (k) = S{v2 (k)} .

(4.1.4a)

Das System ist nun genau dann linear, wenn seine Reaktion auf jede Linearkombination aller Eingangsfolgen gleich derselben Linearkombination der Einzelreaktionen ist. Mit beliebigen komplexen Konstanten α1 und α2 muß also gelten (4.1.4b) S{α1 v1 (k) + α2 v2 (k)} = α1 y1 (k) + α2 y2 (k) . ¨ Bei der in Bild 4.1 dargestellten meßtechnischen Uberpr¨ ufung der Linearit¨at erh¨ alt man dann stets y3 (k) = 0. Diese Kontrolle ist gleichzeitig mit drei identischen Systemen durchzuf¨ uhren, da zeitliche Invarianz nicht vorausgesetzt wird. ¨ Die durch (4.1.4) beschriebene Eigenschaft l¨aßt sich auf die Uberlagerung unendlich vieler Eingangsfolgen erweitern. Ein lineares System wird daher generell durch  +∞ +∞   αν vν (k) = αν S{vν (k)} , αν ∈ (4.1.5) S ν=−∞

ν=−∞

4.2 Beschreibung von linearen Systemen im Zeitbereich

223

gekennzeichnet. Wir werden meist voraussetzen, daß die von uns betrachteten Systeme linear sind, obwohl f¨ ur reale diskrete Systeme das Superpositionsgesetz h¨ ochstens n¨ aherungsweise und dann auch nur in einem eingeschr¨ankten ultig ist. Die in Kapitel 1 sowie im Abschnitt Wertebereich f¨ ur vν (k) bzw. αν g¨ 3.5 vorgestellten Quantisierungseffekte sind wichtige Beispiele solcher Nichtlinearit¨ aten, die in realen Systemen auftreten. Bei einem zeitlich invarianten System ist die Reaktion auf eine Eingangsfolge v(k) unabh¨ angig vom Zeitpunkt der Untersuchung. Ist y1 (k) = S{v(k)}, so gilt f¨ ur derartige Systeme y2 (k) = S{v(k − κ)} = y1 (k − κ) ,

∀κ ∈

.

(4.1.6)

Schließlich bezeichnen wir ein System als stabil bez¨ uglich des an seinen Klemmen meßbaren Verhaltens, wenn es auf jede beschr¨ankte Eingangswertefolge mit einer ebenfalls beschr¨ ankten Ausgangswertefolge reagiert. Ist also |v(k)| ≤ M1 < ∞ ,

∀k ∈

,

(4.1.7a)

∀k ∈

.

(4.1.7b)

so muß bei einem stabilen System gelten |y(k)| ≤ M2 < ∞ ,

4.2 Beschreibung von linearen Systemen im Zeitbereich Wir beschr¨ anken uns im Folgenden auf lineare Systeme. Zeitinvarianz, Kausalit¨ at und Stabilit¨ at werden zun¨ achst nicht vorausgesetzt, sondern sp¨ater als Spezialisierungen der generellen Aussagen eingef¨ uhrt. Allgemein beschreiben wir ein System durch die Angabe seiner Reaktion auf eine Testfolge. F¨ ur Untersuchungen im Zeitbereich eignet sich daf¨ ur insbesondere der Impuls γ0 (k). Die Reaktion eines vorher in Ruhe befindlichen Systems auf eine derartige Erregung im Punkte k = κ wird als Impulsantwort h0 (k, κ) = S{γ0 (k − κ)}

(4.2.1)

bezeichnet. Wie angegeben, h¨ angt sie zus¨ atzlich vom Zeitpunkt der Erregung ab, wenn das System zeitlich variabel ist. Im speziellen Fall eines kausalen Systems ist (4.2.2) h0 (k, κ) = 0 , ∀k < κ , w¨ ahrend bei Zeitinvarianz S{γ0 (k − κ)} = h0 (k − κ) ,

∀κ

(4.2.3)

gilt. Hier h¨ angt die Reaktion also nur von k − κ, dem Abstand zum Zeitpunkt der Erregung ab. Bild 4.2 zeigt beispielhaft Impulsantworten eines zeitvarianten und eines zeitinvarianten Systems, wobei zur Vereinfachung der Darstellung zus¨ atzlich Kausalit¨ at unterstellt worden ist. Die Kenntnis der Impulsantwort h0 (k, κ) eines linearen Systems reicht aus, um seine Reaktion auf

224

4 Diskrete Systeme

eine beliebige Erregung v(k) zu bestimmen. Da nach (2.2.5a) jede Folge v(k) ¨ als eine Uberlagerung von gegeneinander verschobenen gewichteten Impulsen aufgefaßt werden kann, gilt wegen (4.1.5)  +∞ +∞   v(κ) · γ0 (k − κ) = v(κ) · h0 (k, κ) . y(k) = S{v(k)} = S κ=−∞

κ=−∞

(4.2.4)

Abb. 4.2. Beispiele f¨ ur Impulsantworten von kausalen Systemen. a) zeitvariant; b) zeitinvariant

Mit (4.2.2) und (4.2.3) ergeben sich folgende Spezialisierungen: Beim kausalen, zeitvarianten System ist y(k) =

k  κ=−∞

v(κ) · h0 (k, κ) .

(4.2.5)

4.2 Beschreibung von linearen Systemen im Zeitbereich

225

F¨ ur ein nichtkausales, zeitinvariantes System gilt y(k) =

+∞ 

v(κ) · h0 (k − κ) .

(4.2.6)

κ=−∞

Liegt zus¨ atzlich Kausalit¨ at vor, so ist y(k) =

k 

v(κ) · h0 (k − κ) .

(4.2.7)

κ=−∞

Die f¨ ur zeitinvariante Systeme g¨ ultigen Beziehungen (4.2.6) und (4.2.7) beschreiben die Ausgangsfolge v(k) als Ergebnis der Faltung der Eingangsfolge urzt als v(k) mit der Impulsantwort h0 (k). Diese Operation wird abgek¨ y(k) = v(k) ∗ h0 (k)

(4.2.8a)

angegeben. Wir hatten sie in Abschn. 2.4.2 zur Unterscheidung von der dort beschriebenen zyklischen Faltung als lineare Faltung bezeichnet (siehe auch Abschn. 2.5.2). Dort wird angegeben, daß die Operation kommutativ ist. Aus (4.2.6) folgt also +∞ 

y(k) = h0 (k) ∗ v(k) =

h0 (κ) · v(k − κ) .

(4.2.8b)

κ=−∞

Bild 4.3 erl¨ autert die Faltung f¨ ur einen festen Wert k = k0 und f¨ ur den Fall, daß v(k) = γ−1 (k) ist. Wir k¨ onnen die gefundenen Beziehungen auch in vektorieller Form schreiben. Zur Vereinfachung der Darstellung beschr¨ anken wir uns dabei auf kausale Systeme und setzen außerdem v(k) = 0, ∀k < 0. Mit den Vektoren v = [v(0), v(1), v(2), . . .]T , y = [y(0), y(1), y(2), . . .]T wird aus y(k) =

k 

(4.2.9a) (4.2.9b)

v(κ) · h0 (k, κ)

κ=0

die Gleichung y = S·v, wobei



h0 (0, 0)

0

(4.2.10a) 0

0 ...



⎢ ⎥ 0 0 ...⎥ ⎢ h0 (1, 0) h0 (1, 1) ⎢ ⎥ S = ⎢ h (2, 0) h (2, 1) h (2, 2) 0 . . . ⎥ 0 0 ⎥ ⎢ 0 ⎦ ⎣ .. .

(4.2.10b)

226

4 Diskrete Systeme

Abb. 4.3. Zur Erl¨ auterung der Faltungsbeziehung

eine untere Dreiecksmatrix von unendlicher Dimension ist. Ist das System außerdem zeitinvariant, so wird S zur Faltungsmatrix ⎤ ⎡ h0 (0) 0 0 0 ... ⎥ ⎢ ⎢ h0 (1) h0 (0) 0 0 . . . ⎥ ⎥ ⎢ S = ⎢ h (2) h (1) h (0) 0 . . . ⎥ . (4.2.10c) 0 0 ⎢ 0 ⎥ ⎣ ⎦ .. . Wir spezialisieren unsere Ergebnisse f¨ ur den Fall, daß v(k) = γ−1 (k − κ) ist, also im Punkte k = κ eine Sprungfolge auf den Eingang gegeben wird. Die Reaktion ist die Sprungantwort h−1 (k, κ) = S{γ−1 (k − κ)} .

(4.2.11)

Aus (4.2.4) folgt f¨ ur v(κ1 ) = γ−1 (κ1 − κ), d.h. f¨ ur eine bei κ1 = κ einsetzende Sprungfolge ∞  h0 (k, κ1 ) . (4.2.12a) h−1 (k, κ) = κ1 =κ

Die Spezialisierung auf den kausalen Fall ergibt

4.2 Beschreibung von linearen Systemen im Zeitbereich k 

h−1 (k, κ) =

h0 (k, κ1 ) .

227

(4.2.12b)

κ1 =κ

Bei Zeitinvarianz gilt mit κ = 0 und der Notation κ1 → κ h−1 (k) =

∞ 

h0 (k − κ) =

k 

h0 (κ)

(4.2.12c)

κ=−∞

κ=0

(siehe Bild 4.3) und bei zus¨ atzlicher Kausalit¨ at h−1 (k) =

k 

h0 (κ) .

(4.2.12d)

κ=0

Die Beschreibung der Reaktion eines linearen Systems mit Hilfe der Impulsantwort gestattet die Formulierung einer Stabilit¨atsbedingung, die auf der mit (4.1.7) gegebenen Definition basiert. Aus (4.2.4) folgt   ∞ +∞       v(κ) · h0 (k, κ) ≤ |y(k)| =  |v(κ)| · |h0 (k, κ)| κ=−∞  κ=−∞ und daraus mit |v(k)| ≤ M1 < ∞ |y(k)| ≤ M1

+∞ 

|h0 (k, κ)| .

κ=−∞

F¨ ur die Erf¨ ullung der Stabilit¨ atsbedingung |y(k)| ≤ M2 < ∞, ∀k ist offenbar hinreichend, daß +∞  M2 , ∀k (4.2.13a) |h0 (k, κ)| ≤ M1 κ=−∞ ist. Diese Forderung erweist sich auch als notwendig: W¨ahlen wir mit beliebigem festen k0 die Eingangsfolge ⎧ ⎫ 1 h0 (k0 , k) > 0 ⎪ ⎪ ⎨ ⎬ h0 (k0 , k) 0 h0 (k0 , k) = 0 = sign h0 (k0 , k) , v(k) = = ⎪ |h0 (k0 , k)| ⎪ ⎩ ⎭ −1 h0 (k0 , k) < 0 so folgt y(k) =

+∞ 

h0 (k0 , κ) · h0 (k, κ) |h 0 (k0 , κ)| κ=−∞

und speziell f¨ ur k = k0 y(k0 ) =

+∞  κ=−∞

|h0 (k0 , κ)| .

228

4 Diskrete Systeme

Im zeitinvarianten Fall lautet die Stabilit¨ atsbedingung +∞ 

|h0 (k)| ≤ M < ∞ .

(4.2.13b)

k=−∞

Abb. 4.4. System mit  Eing¨ angen und r Ausg¨ angen

¨ Wir k¨ onnen unsere Uberlegungen leicht auf Systeme mit Eing¨angen und r Ausg¨ angen erweitern (s. Bild 4.4). Sind

und

v(k) = [v1 (k), v2 (k), . . . , v (k)]T

(4.2.14a)

y(k) = [y1 (k), y2 (k), . . . , yr (k)]T

(4.2.14b)

die Vektoren der Eingangs- bzw. Ausgangsfolgen, so wird das System allgemein durch y(k) = S{v(k)} (4.2.14c) beschrieben. Wir nehmen nun an, daß vλ (k) = γ0 (k − κ), aber vν (k) = 0, ∀ν = | λ ist. Dann erscheinen an den r Ausg¨angen die zugeh¨origen Impulsantworten (4.2.15a) h0λ (k, κ) , = 1(1) r . Bei beliebiger Folge vλ (k) am Eingang λ und weiterhin vν (k) = 0, ∀ν = | λ ist entsprechend (4.2.4) yλ (k) =

+∞ 

vλ (κ) · h0λ (k, κ) ,

= 1(1) r .

(4.2.15b)

κ=−∞

¨ Wird an allen Eing¨ angen erregt, so ergibt sich am -ten Ausgang die Uberlagerung dieser Einzelreaktionen y (k) =

∞   

vλ (κ) · h0λ (k, κ) ,

= 1(1) r .

(4.2.15c)

λ=1 κ=−∞

Faßt man schließlich die Impulsantworten h0λ (k, κ) zu einer Matrix

4.3 Beschreibung von linearen, zeitinvarianten Systemen im Frequenzbereich

229





h011 (k, κ) . . . h01λ (k, κ) . . . h01 (k, κ) ⎥ ⎢ .. .. .. ⎥ ⎢ . . . ⎥ ⎢ ⎢ h0 (k, κ) = ⎢ h01 (k, κ) . . . h0λ (k, κ) . . . h0 (k, κ) ⎥ ⎥ ⎥ ⎢ .. .. .. ⎦ ⎣ . . .

(4.2.16a)

h0r1 (k, κ) . . . h0rλ (k, κ) . . . h0r (k, κ) zusammen, so erh¨alt man an Stelle von (4.2.14c) y(k) =

+∞ 

h0 (k, κ) · v(κ) .

(4.2.16b)

κ=−∞

Im Falle der Zeitinvarianz folgt y(k) =

+∞ 

h0 (k − κ) · v(κ) = h0 (k) ∗ v(k) ,

(4.2.16c)

κ=−∞

wobei hier nat¨ urlich keine Kommutativit¨ at vorliegt. In MATLAB wird die lineare Faltung nach (4.2.8) mit h0=h ˆ 0 (k) und dem Befehl y=conv(v,h0) durchgef¨ uhrt (siehe auch Abschn. 2.4.4.3). Dabei ist vorausgesetzt, daß die Eingangsfolge und die Impulsantwort des Systems endlich lang sind. Mit der MATLAB Signal Processing Toolbox kann zur direkten Ausf¨ uhrung der Faltung mittels Vektormultiplikation die Faltungsmatrix (4.2.10c) mit der Funktion convmtx(.) erstellt werden. Zur Berechnung eines mehrkanaligen Filters mit  Eing¨ angen und r Ausg¨ angen nach (4.2.16) kann mit der Matrix der Impulsantworten h0 (k)=H(rho, ˆ la, k) und der Matrix der Eingangssignale v(k)=v(ne, ˆ la) die Matrix der Ausgangssignale y(k)=y(ne, ˆ la) mit dem Programm Na=Ne+M-1; for rho=1:r, yy=zeros(Na,1); for la=1:l, yy=yy + conv(H(rho,la,:),v(:,la)); end y(:,rho)=yy; end bestimmt werden. Dabei wird von Eingangssignalen der L¨ ange Ne und den Impulsantworten der L¨ ange M ausgegangen. Wir erhalten Ausgangssignale der L¨ ange Na= Ne+M+1. •

4.3 Beschreibung von linearen, zeitinvarianten Systemen im Frequenzbereich ¨ 4.3.1 Definition der Ubertragungsfunktion F¨ ur die folgenden Betrachtungen setzen wir nun zus¨atzlich zeitliche Invarianz sowie Stabilit¨ at der Systeme voraus. Wir w¨ ahlen als Eingangsfolge

230

4 Diskrete Systeme

v(k) = ejkΩ ,

∀k ∈

0 ≤ Ω < 2π

,

(4.3.1)

und erhalten mit (4.2.6) bzw. (4.2.8b) die beschr¨ankte Ausgangsfolge y(k) =

+∞ 

ej(k−κ)Ω · h0 (κ) = ejkΩ ·

κ=−∞

+∞ 

h0 (κ) · e−jκΩ .

(4.3.2)

κ=−∞

Da h0 (κ) wegen der vorausgesetzten Stabilit¨at absolut summierbar ist, existiert nach Abschn. 2.3.2, Glchg. (2.3.11a) H(ejΩ ) =

+∞ 

h0 (κ) · e−jκΩ .

(4.3.3)

κ=−∞

Offenbar ist H(ejΩ ) damit einerseits das Spektrum der Impulsantwort. Da andererseits f¨ ur die Ausgangsfolge nach (4.3.2) y(k) = H(ejΩ ) · ejkΩ

(4.3.4)

gilt, ist H(ejΩ ) zugleich der Frequenzgang des Systems. Wir k¨ onnen dieses Ergebnis verallgemeinern. Dazu w¨ahlen wir die mit (2.2.3) eingef¨ uhrte Exponentialfolge in der Form v(k) = z k ,

∀k ∈

mit z ∈

, |z| > 1

(4.3.5)

als Eingangsfolge und bestimmen y(k) = S{v(k) = z k } . Wegen der vorausgesetzten zeitlichen Invarianz ist S{v(k + κ) = z k+κ } = y(k + κ) ,

∀κ ∈

.

Es ist aber v(k + κ) = z κ · z k = z κ · v(k). Dann muß wegen der Linearit¨at auch gelten S{v(k + κ) = z κ · v(k)} = z κ · y(k) , und wir erhalten

y(k + κ) = z κ · y(k) ,

∀k, κ ∈

.

Speziell ergibt sich f¨ ur k = 0 y(κ) = y(0)z κ . Dabei wird y(0) i. allg. von z abh¨ angen. Wir schreiben daher y(0) = H(z) und erhalten, wenn wir die Variable κ durch k ersetzen y(k) = H(z) · z k .

(4.3.6)

4.3 Beschreibung von linearen, zeitinvarianten Systemen im Frequenzbereich

231

Dieses Ergebnis f¨ uhrt zusammen mit (4.3.4) zu der Aussage, daß eine bei k = −∞ einsetzende Erregung mit einer Exponentialfolge z k mit |z| ≥ 1 zu ¨ einer Reaktion gleicher Form f¨ uhrt, wobei die so definierte Ubertragungsfunktion H(z) die F¨ ahigkeit des Systems beschreibt, diese Exponentialfolge zu u ¨bertragen. Einen anderen Zugang erhalten wir mit der zweiseitigen Z-Transformation. Wir wenden sie auf (4.2.8) an, wobei wir voraussetzen, daß Z{v(k)} = V (z) in einem Kreisring existiert, der den Einheitskreis enth¨alt. Dann folgt Z{y(k)} = Y (z) = Z{v(k) ∗ h0 (k)} = V (z) · H(z) .

(4.3.7)

¨ Hier erh¨ alt man die Ubertragungsfunktion als H(z) = Z{h0 (k)} =

+∞ 

h0 (k)z −k =

k=−∞

Z{y(k)} . Z{v(k)}

(4.3.8)

Wegen der vorausgesetzten Stabilit¨ at enth¨ alt der Konvergenzbereich von H(z) ¨ sicher den Einheitskreis |z| = 1. Dort ist die Ubertragungsfunktion gleich dem eben eingef¨ uhrten Frequenzgang. F¨ ur z = ejΩ folgt aus (4.3.7) Y (ejΩ ) = V (ejΩ ) · H(ejΩ ) ,

(4.3.9a)

wobei nach (2.3.11a) V (ejΩ ) =

+∞ 

v(k) · e−jkΩ

(4.3.10a)

k=−∞

das Spektrum der Eingangsfolge und entsprechend Y (e



)=

+∞ 

y(k) · e−jkΩ

(4.3.10b)

k=−∞

das der Ausgangsfolge ist. Man erh¨ alt dann mit (2.3.11b) 1 y(k) = 2π



Y (ejΩ ) · ejkΩ dΩ =

−1 ∗ {Y

(ejΩ )} .

(4.3.9b)

−π

Die Beziehung (4.3.9) bietet damit f¨ ur weitgehend beliebige Eingangsfolgen v(k) eine M¨ oglichkeit zur Berechnung der Ausgangsfolge y(k). Bild 4.5 veranschaulicht das Berechnungsschema, das wir vielfach verwenden werden. In MATLAB kann mit om=Ω ˆ der zu einer endlichen reellen oder komplexen ˆ H(ejΩ ) entspreImpulsantwort h0 = ˆ h0 (k) mit n + 1 Werten der Frequenzgang H = chend (4.3.3) mit den Befehlen

232

4 Diskrete Systeme

Abb. 4.5. Zur Bestimmung der Ausgangsfolge linearer, zeitinvarianter Systeme mit einer Rechnung im Frequenzbereich

om=[0:N-1]*pi/N; z=exp(j*om); H =polyval(h0,z); berechnet werden. Bei Bedarf kann der Frequenzvektor om auch anders gew¨ ahlt werden. In der MATLAB Signal Processing Toolbox wird f¨ ur die Berechnung des Fre¨ quenzganges einer rationalen Ubertragungsfunktion die Funktion freqz(.) zur Verf¨ ugung gestellt (siehe auch Abschn. 5.5.3). Setzt man den Vektor der Nennerkoef¨ fizienten c=1, so erh¨ alt man die Ubertragungsfunktion des nichtrekursiven Systems mit dem Befehl H=freqz(h0,1,om). Beim Aufruf der Funktion kann die Angabe der bei der Berechnung eingesetzten Frequenzen entsprechend [7.2] variiert werden. •

4.3.2 Reellwertige Systeme Wir diskutieren jetzt die Eigenschaften von H(z) f¨ ur ein reellwertiges System. Aus (4.1.2) folgt zun¨ achst sofort, daß zu v(k) = γ0 (k) eine reelle Impulsantwort geh¨ ort. Dann erh¨ alt man unmittelbar aus (4.3.8) H(z ∗ ) = H ∗ (z) .

(4.3.11)

Daraus ergeben sich die folgenden Einzelaussagen:

Speziell f¨ ur z = ejΩ ist In ist dann

H(z) ist reell f¨ ur z ∈ , ∗ |H(z )| = |H(z)| , arg H(z) = − arg H(z ∗ ) .

(4.3.12a) (4.3.12b) (4.3.12c)

H(ejΩ ) = H ∗ (e−jΩ ) .

(4.3.13a)

H(ejΩ ) = P (ejΩ ) + jQ(ejΩ )

(4.3.13b)

P (ejΩ ) = P (e−jΩ )

(4.3.13c)

4.3 Beschreibung von linearen, zeitinvarianten Systemen im Frequenzbereich

eine gerade und

Q(ejΩ ) = −Q(e−jΩ )

233

(4.3.13d)

eine ungerade Funktion. Setzt man

wobei

H(ejΩ ) = |H(ejΩ )| e−jb(Ω) = e−[a(Ω)+jb(Ω)] ,

(4.3.14a)

a(Ω) = −Re{ln H(z)|z=ejΩ } = − ln |H(ejΩ )|

(4.3.14b)

die D¨ampfung und b(Ω) = −Im{ln H(z)|z=ejΩ } = − arg H(ejΩ )

(4.3.14c)

die Phase ist, so ergibt sich a(Ω) = a(−Ω) , b(Ω) = −b(−Ω) .

(4.3.15a) (4.3.15b)

Wie bei kontinuierlichen Systemen wird eine Gruppenlaufzeit τg definiert als   # d dz  db(Ω) = −Im [ln H(z)] τg (Ω) = (4.3.16a) dΩ dz dΩ z=ejΩ   # H  (z)  = −Re z (4.3.16b) H(z) z=ejΩ

  −1 )  H  (z) 1 −1 H (z +z z . (4.3.16c) =− 2 H(z) H(z −1 ) z=ejΩ Offenbar ist τg (Ω) eine gerade Funktion. τg (−Ω) = τg (Ω) .

(4.3.16d)

Mit (4.3.3) kann man sie in der Form ⎫ ⎧ +∞ ⎪ −jkΩ ⎪ ⎪ ⎪ k · h0 (k) · e ⎪ ⎪ ⎬ ⎨ k=−∞ τg (Ω) = Re +∞ ⎪ ⎪ ⎪ ⎪ ⎪ h0 (k) · e−jkΩ ⎪ ⎭ ⎩

(4.3.16e)

k=−∞

angeben, eine Darstellung, die die Existenz von l¨ aßt sich in τg (Ω) =

∗ {k · h0 (k)}

+∞  1 k · h0 (k) cos[kΩ − b(Ω)] |H(ejΩ )| −∞

u uhren. Speziell f¨ ur Ω = 0 folgt daraus ¨berf¨

voraussetzt. Sie

(4.3.16f)

234

4 Diskrete Systeme +∞ 

k · h0 (k) = τg (0)H(1) .

(4.3.16g)

−∞

Wir zeigen noch einen anderen Zusammenhang zwischen der Impulsantwort einerseits sowie Gruppenlaufzeit und Frequenzgang andererseits. Es ist mit (4.3.3) und (4.3.14a) ∗ {k

· h0 (k)} = j

d H(ejΩ ) = τg (Ω) · H(ejΩ ) + j|H(ejΩ )| · e−jb(Ω) . dΩ

Die Spezialisierung auf Ω = 0 liefert zun¨ achst wieder (4.3.16g). Hier interessiert das erste Moment von h20 (k), das sich als Z{kh0 (k) · h0 (k)}|z=1 bestimmen l¨ aßt. Unter der Voraussetzung, daß die Z-Transformierte in einem Gebiet existiert, das den Einheitskreis einschließt, erh¨alt man mit dem Multiplikationssatz der Z-Transformation und entsprechend (2.5.19a) +∞ 



h20 (k)

−∞

1 = 2π 1 = 2π

+π ∗ {k

· h0 (k)} · H ∗ (ejΩ )dΩ

−π

+π τg (Ω) · |H(ejΩ )|2 dΩ .

(4.3.16h)

−π

Schließlich kann man noch die Gruppenlaufzeit unter Verwendung der mit (4.3.13b) eingef¨ uhrten Komponenten von H(ejΩ ) angeben. Es ist τg (Ω) = −

P  (ejΩ ) · Q(ejΩ ) − Q (ejΩ ) · P (ejΩ ) . P 2 (ejΩ ) + Q2 (ejΩ )

(4.3.16i)

Die bisher f¨ ur Systeme mit einem Eingang und Ausgang gemachten Aussagen lassen sich bei entsprechenden Voraussetzungen ohne weiteres auf Systeme mit

Eing¨ angen und r Ausg¨ angen u ¨bertragen. Dazu ist die vom λ-ten Eingang zum -ten Ausgang wirksame Teil¨ ubertragungsfunktion Hλ (z) = Z{h0λ (k)}

(4.3.17a)

¨ zu bestimmen. Das Gesamtsystem l¨ aßt sich dann durch die Ubertragungsmatrix ⎤ ⎡ H11 (z) . . . H1λ (z) . . . H1 (z) ⎢ .. .. .. ⎥ ⎢ . . . ⎥ ⎥ ⎢ ⎢ (4.3.17b) H(z) = ⎢ H1 (z) . . . Hλ (z) . . . H (z) ⎥ ⎥ ⎢ .. .. .. ⎥ ⎣ . . . ⎦ Hr1 (z) . . . Hrλ (z) . . . Hr (z) beschreiben. Wird an den Eing¨ angen mit Folgen gleicher Frequenz Ω erregt, ist also mit dem Vektor der komplexen Amplituden V = [V1 , V2 , . . . , V ]T

4.3 Beschreibung von linearen, zeitinvarianten Systemen im Frequenzbereich

v(k) = V · ejΩk ,

235

(4.3.18a)

so erh¨ alt man f¨ ur den Vektor der Ausgangsfolgen

mit

y(k) = Y · ejΩk

(4.3.18b)

Y = H(ejΩ ) · V .

(4.3.18c)

jΩ In MATLAB kann man ausgehend vom Frequenzgang H=H(e ˆ ) den D¨ ampfungsgang a=a(Ω) ˆ nach (4.3.14b) mit dem Befehl a=-log(abs(H)) und den Phasengang b=b(Ω) ˆ nach (4.3.14c) mit dem Befehl b=-angle(H) bestimmen. Weiter kann zur Impulsantwort h0=h ˆ 0 (k) die Gruppenlaufzeit tg=τ ˆ g (Ω) mit dem Befehl tg=grpdelay(h0,1,N) berechnet werden. F¨ ur nichtrekursive Systeme mit der Impulsantwort h0 (k) wird hier der Nennervektor (c=1) gesetzt. Die Berechnung erfolgt entsprechend (4.3.16e). •

4.3.3 Komplexwertige Systeme Insbesondere f¨ ur die Nachrichtentechnik ist auch die Untersuchung komplexwertiger Systeme von großer Bedeutung. Das gilt z.B. im Zusammenhang mit der Einseitenbandmodulation, bei der im Idealfall ein Signal vorliegt, dessen Spektrum f¨ ur negative Werte der Frequenz verschwindet und das daher komplex ist (s. Abschn. 2.3.2). Entsprechend Bild 4.5 kann man ein derartiges Signal unmittelbar erzeugen oder verarbeiten, wenn die Operation prim¨ar im Frequenzbereich erfolgt. In Abschn. 6.4 wird ein daf¨ ur geeignetes Verfahren vorgestellt. Aber es muß auch m¨ oglich sein, die Komponenten des komplexen Signals getrennt in geeigneter Weise mit reellwertigen Systemen zu verarbeiten. Dieser Fall wird hier diskutiert: Mit h0 (k) = h01 (k) + jh02 (k) beschreibe H(z) =

+∞ 

h0 (k) · z −k

(4.3.19a)

k=−∞

ein komplexwertiges System, das sich in zwei reellwertige Teilsysteme mit den ¨ Ubertragungsfunktionen H1,2 (z) = Z{h01,2 (k)}

(4.3.19b)

und den Frequenzg¨ angen entsprechend (4.3.13) H1,2 (ejΩ ) = P1,2 (ejΩ ) + jQ1,2 (ejΩ )

(4.3.19c)

aufteilen l¨ aßt. Man erh¨ alt f¨ ur den Frequenzgang des komplexen Systems H(ejΩ ) = P1 (ejΩ ) − Q2 (ejΩ ) + j[Q1 (ejΩ ) + P2 (ejΩ )] .

(4.3.20a)

236

4 Diskrete Systeme

Weiterhin ist das Quadrat des Betrags |H(ejΩ )|2 = [H1 (ejΩ ) + jH2 (ejΩ )][H1∗ (ejΩ ) − jH2∗ (ejΩ )] = |H1 (ejΩ )|2 + |H2 (ejΩ )|2 + 2Im{H1 (ejΩ )H2∗ (ejΩ )} und die Phase b(Ω) = − arctan

Q1 (ejΩ ) + P2 (ejΩ ) . P1 (ejΩ ) − Q2 (ejΩ )

(4.3.20b)

(4.3.20c)

Offenbar weisen diese Funktionen nicht die Symmetrieeigenschaften auf, die wir im letzten Abschnitt bei der Behandlung reellwertiger Systeme gefunden haben. Aus (4.3.20a) ergibt sich, daß man ein Einseitenbandsystem mit H(ejΩ ) = 0 f¨ ur −π < Ω < 0 erh¨ alt, wenn Q2 (ejΩ ) = −sign Ω · P1 (ejΩ ) , und bzw. insgesamt

P2 (ejΩ ) = sign Ω · Q1 (ejΩ ) ,

|Ω| < π |Ω| < π

H2 (ejΩ ) = −j sign Ω · H1 (ejΩ )

(4.3.21)

gew¨ ahlt wird. Dann folgt aus (4.3.20a) ⎧ jΩ ⎪ ⎨ 2H1 (e ) 0 < Ω < π H(ejΩ ) = H1 (ejΩ ) · (1 + sign Ω) = H1 (ej0 ) Ω = 0 ⎪ ⎩ 0 −π < Ω < 0 .

(4.3.22)

Die Beziehung (4.3.21) kann man in der Form H2 (ejΩ ) = HH (ejΩ ) · H1 (ejΩ ) schreiben, wobei

HH (ejΩ ) = −j sign Ω ,

|Ω| < π

(4.3.23)

(4.3.24)

der Frequenzgang eines idealen Hilbert-Transformators ist. F¨ ur die Impulsantworten gilt h02 (k) = =

−1 jΩ ) ∗ {HH (e π

1 2πj

· H1 (ejΩ )}

sign Ω · H1 (ejΩ ) · ejkΩ dΩ

(4.3.25a)

−π

= h0H (k) ∗ h01 (k) .

(4.3.25b)

Hier ist h0H (k) die nichtkausale Impulsantwort des Hilbert-Transformators, f¨ ur die sich mit einer Fourierreihenentwicklung von HH (ejΩ )

4.3 Beschreibung von linearen, zeitinvarianten Systemen im Frequenzbereich

⎧ 2 ⎪ ⎨ , k ungerade πk h0H (k) = ⎪ ⎩ 0 , k gerade

237

(4.3.26)

ergibt (z.B. [4.2]). Damit ist dann h02 (k) =

ˆ 01 (k) {h01 (k)} = h

(4.3.25c)

die Hilbert-Transformierte der Impulsantwort h01 (k). Das durch (4.3.22) beschriebene System liefert bei beliebiger komplexer Erregung ein Ausgangssignal, dessen Spektrum f¨ ur −π < Ω < 0 verschwindet (vergl. Abschnitt 2.3.2). F¨ ur den Entwurf von realisierbaren Systemen zur angen¨aherten HilbertTransformation gibt es mehrere M¨ oglichkeiten, die in Bd. II dargestellt werden. Abschließend bemerken wir, daß ein komplexwertiges System als ein reellwertiges mit zwei Eing¨ angen und Ausg¨ angen aufgefaßt werden kann und in dieser Form realisierbar ist. Die beiden reellen Eingangsfolgen v1 (k) und v2 (k) sind dann die Komponenten des komplexen Eingangssignals v(k), entsprechend y1 (k) und y2 (k) die des komplexen Ausgangssignals y(k). Die komplexwertige Beziehung y(k) = h0 (k) ∗ v(k) wird dann zu der reellen Gleichung       y1 (k) h01 (k) −h02 (k) v1 (k) = ∗ y2 (k) h02 (k) h01 (k) v2 (k) ¨ zwischen Vektoren. Die Ubertragungsmatrix wird damit   H1 (z) −H2 (z) . H(z) = H2 (z) H1 (z)

(4.3.27)

(4.3.28)

In MATLAB kann die Simulation des Frequenz-, Amplituden- und Phasenganges eines Systems mit komplexer Impulsantwort ohne Aufteilung in den Real- und Imagin¨ arteil durchgef¨ uhrt werden. In der MATLAB Signal Processing Toolbox wird zur Berechnung der HilbertTransformierten h02 (k) (4.3.25c) einer reellen Eingangsfolge h01 (k) der Befehl h02 = hilbert(h01,N) zur Verf¨ ugung gestellt. Der Parameter N bestimmt die L¨ ange der intern verwendeten DFT und die L¨ ange des Ausgangssignals. Wird N nicht angegeben, so entspricht die interne Berechnung und die L¨ ange des Ausgangssignals der des Eingangssignals. •

238

4 Diskrete Systeme

4.4 Idealisierte lineare, zeitinvariante Systeme ¨ 4.4.1 Aquivalente Folgen In diesem Abschnitt betrachten wir Systeme, die in idealer Weise bestimmten Vorschriften zur Verarbeitung von Folgen gen¨ ugen. Vielfach wird es sich dabei um Operationen handeln, die prim¨ ar im Zeitbereich und dort f¨ ur Funktionen definiert sind. Beispielsweise werden wir uns f¨ ur differenzierende oder interpolierende SystemeSystem!interpoliert interessieren. Wegen des dabei ben¨otigten Zusammenhangs zwischen Folgen und Funktionen erweist es sich als zweckm¨ aßig, zun¨ achst eine weitere Beziehung zwischen beiden aufzuzeigen. Im Gegensatz zu der in Abschn. 2.3.2 betrachteten Entstehung einer Folge v(k) aus einer Abtastung der Funktion v0 (t) gehen wir jetzt umgekehrt vor. Dabei ordnen wir einer prim¨ ar gegebenen, absolut summierbaren Folge v(k) eindeutig die bandbegrenzte Funktion +∞ 

v0 (t) =

v(k) ·

k=−∞

sin π(t/T − k) π(t/T − k)

(4.4.1)

entsprechend (2.3.37a) zu. F¨ ur ihr Spektrum gilt dann ⎫ ⎧ +∞ π ⎪ ⎪ ⎪ −jkωT ⎪ v(k) · e |ω| ≤ , ⎪ ⎪ ⎨T T ⎬ k=−∞ V0 (jω) = ⎪ ⎪ ⎪ π ⎪ ⎪ ⎪ ⎩0 |ω| > . ⎭ T

(4.4.2)

Offenbar ist V0 (jω) = T · V (ejωT ) f¨ ur |ω| ≤ π/T , wobei V (ejωT ) = V (ejΩ ) das periodische Spektrum der Folge v(k) ist. In Abschn. 2.3.3 wurde bereits ausgef¨ uhrt, daß man v0 (t) als Reaktion eines idealisierten Tiefpasses mit der Grenzfrequenz π/T und Laufzeit Null auf die verallgemeinerte Funktion v∗ (t) =

+∞ 

v(k) · δ0 (t − kT )

k=−∞

auffassen kann. Es ist nun bemerkenswert, daß wir zwar v0 (t) eindeutig der Folge v(k) zuordnen k¨ onnen, daß es aber umgekehrt beliebig viele Folgen gibt, uhren. Wir finden sie durch zeitlich verschobene Abtastung von die zu v0 (t) f¨ urlich gew¨ ahlter fester Wert, so folgt mit v0 (t). Ist ξ ∈ ein willk¨ vξ (k, ξ) := v0 [t = (k + ξ)T ] ,

k∈

,

(4.4.3)

nach dem Abtasttheorem ebenfalls v0 (t), jetzt in der Form v0 (t) =

+∞  k=−∞

vξ (k, ξ) ·

sin π(t/T − k − ξ) . π(t/T − k − ξ)

(4.4.4)

4.4 Idealisierte lineare, zeitinvariante Systeme

239

Die vξ (k, ξ) wurden hier als Werte einer im verschobenen Raster liegenden Folge definiert. Sie lassen sich auch als Abtastwerte der um ξT nach links verschobenen Funktion v0 (t) bei t = kT auffassen (s. Bild 4.6). Gleichung (4.4.4) l¨ aßt sich jetzt unterschiedlich interpretieren: Die Funktion v0 (t) erscheint entweder als Reaktion eines idealisierten Tiefpasses der Laufzeit Null auf die um ξT verschobene Distribution +∞ 

vξ (k, ξ) · δ0 (t − (k + ξ)T )

k=−∞

oder eines idealisierten Tiefpasses der Laufzeit τg = ξT auf +∞ 

vξ (k, ξ) · δ0 (t − kT ) .

k=−∞

Abb. 4.6. Zur Definition ¨ aquivalenter Folgen

F¨ ur die Beziehungen zwischen vξ (k, ξ) und v(k) erhalten wir mit (4.4.1) und (4.4.3) +∞ 

vξ (k, ξ) =

κ=−∞

v(κ) ·

sin π[k + ξ − κ] π[k + ξ − κ]

= v(k) ∗ gξ (k, ξ) . Hier ist die Interpolationsfolge

(4.4.5)

240

4 Diskrete Systeme

gξ (k, ξ) =

sin π(k + ξ) , π(k + ξ)

durch Abtastung der Funktion g0 (t) = Es ist ∗ {gξ (k, ξ)}

k∈

(4.4.6a)

sin πt/T bei t = (k + ξ)T entstanden. πt/T

= ejξΩ , |Ω| < π .

(4.4.6b)

Die Folgen vξ (k, ξ), die in dem beschriebenen Sinne zu der aus der Folge oren, nennen wir zu v(k) ¨aquivalent. v(k) entstandenen Funktion v0 (t) geh¨ Charakteristisch f¨ ur sie ist, daß man aus ihnen die urspr¨ ungliche Folge v(k) zur¨ uckgewinnen kann. Aus (4.4.4) bzw. (4.4.5) folgt unmittelbar v(k) = vξ (k, ξ) ∗ g−ξ (k, −ξ) .

(4.4.7)

Etwas eingehender diskutieren wir den wichtigen Spezialfall, der durch Beschr¨ ankung von ξ auf die diskreten Werte ξ = /r, r ∈ , = 0(1)r − 1, entsteht. Dabei ergeben sich offensichtlich (r − 1) zu v(k) ¨aquivalente Folgen. Es ist zweckm¨ aßig, f¨ ur ihre Darstellung eine andere Zeitskala mit den diskreten Punkten t = λT1 = λT /r zu verwenden. Mit u(λ) := v0 (t = λT1 ) sind dann  u(λ), λ = kr +

u/r (λ) = k ∈ , = 1(1)r − 1 (4.4.8) 0, λ= | kr +

ˆ v(k) a¨quivalenten Folgen. Mit (4.4.5) die zu u0/r (λ) := u0 (λ) = v0 (t = kT ) = ¨ und (4.4.6) lassen sie sich nach entsprechender Anderung der Bezeichnungen als (4.4.9) u/r (λ) = u0 (λ) ∗ g/r (λ) darstellen, wobei ⎧ ⎪ ⎨ gr (λ) = sin πλ/r , λ = r +

πλ/r g/r (λ) = ⎪ ⎩0, λ= | r +

(4.4.10)

ist (siehe Bild 4.7a,b). F¨ ur das ebenfalls interessierende Spektrum von u/r (λ) erh¨ alt man mit Ω1 = ωT1 = Ω/r U/r (ejΩ1 ) =

+∞ 

u/r ( r + ) · e−j(r+)Ω1

(4.4.11a)

=−∞

und mit dem Faltungssatz aus (4.4.9) U/r (ejΩ1 ) = U0 (ejΩ1 ) · G/r (ejΩ1 ) .

(4.4.11b)

4.4 Idealisierte lineare, zeitinvariante Systeme

241

Abb. 4.7. Die Folge g/r (λ) und die Phase ihres Spektrums f¨ ur r = 8, = 3

Wir diskutieren zun¨ achst das hier ben¨ otigte Spektrum G/r (ejΩ1 ) der Inalt es aus terpolationsfolge g/r (λ). Man erh¨ ⎧ +∞ 0 ≤ |Ω1 | ≤ π/r ⎨r  sin πλ/r · e−jλΩ1 = Gr (ejΩ1 ) = ∗ {gr (λ)} = ⎩ πλ/r 0 π/r < |Ω1 | ≤ π , λ=−∞ (4.4.12) (vergl. (2.3.29)) mit (2.5.33c) als G/r (ejΩ1 ) =

r−1 1  κ w · Gr [ej(Ω1 +κ2π/r) ] , r κ=0 r

(4.4.13a)

eine in Ω1 periodische Funktion der Periode 2π. Es ist |G/r (ejΩ1 )| = 1 ,

∀Ω1 , = 0(1)r − 1 ,

(4.4.13b)

w¨ ahrend die Phase bereichsweise konstant ist. Bild 4.7c zeigt ihren treppenf¨ ormigen, sogenannten Polyphasen-Verlauf (s. auch Abschn. 4.4.4, spez. (4.4.28b) und Abschnitt 4.7.2). Im Sinne der oben gegebenen Definition sind aquivalent. Da speziell g0/r (λ) = γ0 (λ) ist, sind die Folgen g/r (λ) zueinander ¨ aquivalent. Wir bemerken, daß die aus diese Folgen auch zum Impuls γ0 (λ) ¨

242

4 Diskrete Systeme

den g/r (λ) durch Verschiebung um Schritte nach links entstehenden Folgen g/r (λ + ) im beschriebenen Sinne ebenfalls zu den bisher betrachteten aquivalent sind. Da sie aber im urspr¨ unglichen Raster liegen, hat ihr in Ω1 ¨ periodisches Spektrum die Periode 2π/r. Bild 4.8 zeigt ein Beispiel, wieder f¨ ur r = 8 und = 3.

Abb. 4.8. Die Folge g/r (λ + ) und ihr Spektrum f¨ ur r = 8, = 3

Ganz entsprechend hat auch das Spektrum U0 (ejΩ1 ) der Folge u0 (λ) in Ω1 die Periode 2π/r. Das in (4.4.11) angegebene Spektrum U/r (ejΩ1 ) hat dann ebenso wie G/r (ejΩ1 ) die Periode 2π. Es ist |U/r (ejΩ1 )| = |U0 (ejΩ1 )| eine Funktion mit der Periode 2π/r, w¨ ahrend sich zur Phase von U0 (ejΩ1 ) der treppenf¨ ormige Verlauf der Phase von G/r (ejΩ1 ) addiert. Die durch Verschiebung von u/r (λ) nach links um Schritte entstehenden zu u0 (λ) ¨aquivalenten Folgen u/r (λ + ) haben dann wieder ein Spektrum mit der Periode 2π/r. Abschließend weisen wir ausdr¨ ucklich auf eine charakteristische Eigenschaft ¨ aquivalenter Folgen hin, die sich aus ihrer Definition ergibt: Die zu

4.4 Idealisierte lineare, zeitinvariante Systeme

243

einer kausalen Folge ¨ aquivalenten Folgen sind i.allg. nicht kausal; die zu einer zeitlich begrenzten Folge ¨ aquivalenten Folgen sind i.allg. unendlich lang (s. ¨ die oben erw¨ ahnte Aquivalenz von γ0 (λ) und g/r (λ)). ¨ 4.4.2 Verzerrungsfreie Ubertragung Bekanntlich nennt man ein kontinuierliches System verzerrungsfrei, wenn die am Ausgang erscheinende Funktion mit der Eingangsfunktion abgesehen von einer beliebigen zeitlichen Verschiebung und einem konstanten Faktor u ¨berein¨ stimmt. Die unmittelbare Ubertragung dieser Definition auf diskrete Systeme f¨ uhrt auf die Vorschrift y(k) = H0 · v(k − k0 ) ,

H0 ∈

= | 0 , k0 ∈

(4.4.14)

¨ und damit auf die Ubertragungsfunktion H(ejΩ ) = H0 · e−jΩk0 , |Ω| ≤ π |H(ejΩ )| = |H0 | = const. b(Ω) = Ωk0 (+π · sign Ω) .

mit

(4.4.15a) (4.4.15b) (4.4.15c)

In b(Ω) ist der Term π· sign Ω zu ber¨ ucksichtigen, wenn H0 < 0 ist. Die Impulsantwort eines verzerrungsfreien Systems ist dann h0 (k) = H0 · γ0 (k − k0 ) .

(4.4.16)

Wir k¨ onnen die in (4.4.14) gegebene Definition eines verzerrungsfreien diskreten Systems erweitern, wenn wir lediglich vorschreiben,daß y(k) = H0 · vξ (k, ξ) ,

ξ∈

(4.4.17)

aquivalente Folge ist. Mit (4.4.5) erhalten sein soll, wobei vξ (k, ξ) eine zu v(k) ¨ wir (4.4.18) y(k) = H0 · v(k) ∗ gξ (k, ξ) . Offenbar ist die Impulsantwort h0 (k) = H0 · gξ (k, ξ) = H0 ·

sin π(k + ξ) π(k + ξ)

(4.4.19)

¨ i.allg. nicht kausal. F¨ ur die Ubertragungsfunktion folgt mit (4.4.6b) H(ejΩ ) = H0 · ejΩξ .

(4.4.20a)

Die Phase b(Ω) ist hier b(Ω) = −Ωξ f¨ ur die Gruppenlaufzeit ergibt sich

(+π · sign Ω) ,

(4.4.20b)

244

4 Diskrete Systeme

τg (Ω) = −ξ = const .

(4.4.20c)

Eine Einschr¨ ankung der Forderung (4.4.20) ist m¨oglich, wenn V (ejΩ ) = 0 ,

∀|Ω| ∈| [Ωg1 , Ωg2 ]

mit 0 ≤ Ωg1 < Ωg2 < π

ist. Dann gen¨ ugt die Erf¨ ullung der Bedingung (4.4.20) in dem entsprechenden Bereich Ωg1 ≤ |Ω| ≤ Ωg2 . H¨ aufig wird neben der Konstanz des Betrags von H(ejΩ ) nicht die Linearit¨ at der Phase nach (4.4.20b), sondern lediglich die Konstanz der Gruppenlaufzeit nach (4.4.20c) in diesem eingeschr¨ankten Intervall verlangt. Die folgende Betrachtung zeigt, daß diese Bedingung zwar notwendig, aber nicht hinreichend ist. Mit b(Ω) = −[ξΩ + b0 sign Ω] , 0 ≤ Ωg1 ≤ |Ω| ≤ Ωg2 < π, b0 ∈ [−π, π) (4.4.21a) erh¨ alt man aus (2.3.11b) ⎧ ⎫ Ωg2 ⎪ ⎪  ⎨ ⎬ H0 Re V (ejΩ ) · ej[ξΩ+b0 signΩ] ejkΩ dΩ y(k) = ⎪ ⎪ π ⎩ ⎭ Ωg1

und damit y(k) = H0 [v(k) ∗ gξ (k, ξ) cos b0 − v(k) ∗ gˆξ (k, ξ) sin b0 ] .

(4.4.21b)

Dabei ist entsprechend (4.3.24,25) 1 gˆξ (k, ξ) = 2πj



ejΩξ · signΩ · ejkΩ dΩ =:

{gξ (k, ξ)}

(4.4.21c)

−π

die Hilbert-Transformierte von gξ (k, ξ). Wir haben die durch (4.4.21c) beschriebene Operation schon im Abschn. 4.3.3 vorgestellt, werden sie aber im Abschn. 4.5 noch eingehender behandeln. Hier halten wir nur fest, daß die durch (4.4.21b) beschriebene Folge nur dann in die von (4.4.18) u ¨bergeht, wenn b0 ein ganzzahliges Vielfaches von π ist. 4.4.3 Idealisierter digitaler Tiefpaß Wir betrachten Impuls- und Sprungantwort des durch  H(ej0 ) · e−jΩk0 , |Ω| ≤ Ωg jΩ H(e ) = 0, Ωg < |Ω| ≤ π

(4.4.22)

beschriebenen allgemeinen idealisierten Tiefpasses, wobei zun¨achst k0 ∈ F¨ ur die Impulsantwort folgt

sei.

4.4 Idealisierte lineare, zeitinvariante Systeme

1 h0 (k) = 2π

Ωg

H(ej0 ) · ejΩ(k−k0 ) dΩ = H(ej0 ) ·

−Ωg

245

Ωg sin Ωg (k − k0 ) · . π Ωg (k − k0 )

(4.4.23a) Bild 4.9a zeigt den auf H(ej0 ) bezogenen Verlauf f¨ ur Ωg = π/4. Die Impuls-

Abb. 4.9. Impuls- und Sprungantwort des idealisierten diskreten Tiefpasses. Es ahlt. wurde Ωg = π/4 und k0 = 10 gew¨

antwort ist eine bez¨ uglich des Punkts k = k0 gerade Folge. Es ist also h0 (k0 + Δk) = h0 (k0 − Δk) , Weiterhin ist

+∞ 

h0 (k) = H(ej0 ) .

Δk ∈

.

(4.4.23b)

(4.4.23c)

k=−∞

Der idealisierte diskrete Tiefpaß ist offenbar nicht kausal. Er erweist sich dar¨ uber hinaus als nicht stabil, da h0 (k) die Bedingung (4.2.13b) verletzt. In Bild 4.9b ist die Sprungantwort h−1 (k) dargestellt. Sie ist gem¨aß (4.2.12c) durch Aufsummation von h0 (k) bestimmt worden. Wegen (4.4.23b,c) ist k 0 −1 h0 (κ) + h0 (k0 ) = h−1 (∞) H(ej0 ) = 2 κ=−∞ j0

und mit h0 (k0 ) = H(e ) · Ωg /π

246

4 Diskrete Systeme



1 Ωg j0 h−1 (k0 − 1) = h0 (κ) = H(e ) 1 − . 2 π κ=−∞ k 0 −1

(4.4.24a)

Weiterhin ist h−1 (k0 − Δk − 1) = h−1 (k0 ) −

k0 +Δk κ=k0

h0 (κ) ,

Δk ≥ 0



1 Ωg j0 h−1 (k0 ) = · H(e ) · 1 + , 2 π h−1 (k0 + Δk) = h−1 (k0 ) +

k0 +Δk κ=k0 +1

(4.4.24b)

h0 (κ) ,

Δk ≥ 1 .

Die Symmetrie wird damit hier durch h−1 (k0 + Δk) + h−1 (k0 − Δk − 1) = H(ej0 ) = h−1 (∞), Δk ∈

, (4.4.24c)

beschrieben. W¨ahrend sich die Impulsantwort h0 (k) eines diskreten Tiefpasses durch Abtastung der Impulsantwort eines idealisierten kontinuierlichen Tiefpasses der Laufzeit τg = k0 T bei t = kT ergibt, gilt die entsprechende Aussage nicht f¨ ur die Sprungantworten [4.1]. Wir k¨ onnen die Ergebnisse dadurch verallgemeinern, daß wir f¨ ur die Verjetzt ξ ∈ zulassen. Als Impulsantworten schiebung an Stelle von k0 ∈ bekommen wir dann die zu (4.4.23a) im Sinne von Abschn. 4.4.1 ¨aquivalenten Folgen. Die Symmetrieeigenschaft (4.4.23b) geht dabei verloren. 4.4.4 Interpolation Die klassische Interpolationsaufgabe der angewandten Mathematik k¨onnen wir als Problem der Signalverarbeitung in der folgenden Weise formulieren: Zu einer gegebenen Folge v(k) sollen an ¨ aquidistanten Punkten jeweils r − 1 geeignete Zwischenwerte errechnet werden. Nach den Ergebnissen von Abur diese schn. 4.4.1 liegt es nahe, die zu v(k) ¨ aquivalenten Folgen v/r (k) f¨ Zwischenwerte zu verwenden. Wie in Abschn. 4.4.1 beziehen wir die Bezifferung der Zeitachse auf die Ausgangsfolge des Interpolators, verwenden aber f¨ ur das Argument wieder die Bezeichnung k. Die Eingangsfolge wird durch Einf¨ ugung von Nullwerten gespreizt (s. Abschn. 2.5.5.1, Bild 2.37g,h und Abschnitt 4.7.1). Sie wird dann durch  v(k/r) , k = λr (4.4.25a) v0 (k) = 0, k= | λr beschrieben. Die zu v0 (k) ¨ aquivalenten Folgen sind v/r (k) = v0 (k) ∗

sin π[k + /r] . π[k + /r]

(4.4.25b)

4.4 Idealisierte lineare, zeitinvariante Systeme

247

Sie k¨ onnen nur f¨ ur k = λr + von Null verschiedene Werte annehmen. Damit ist die Ausgangsfolge y(k) =

r−1 

v/r (k) = v0 (k) ∗

=0

r−1  sin π[k + /r] =0

= v0 (k) ∗

π[k + /r]

sin πk/r . πk/r

(4.4.26a) (4.4.26b)

Offenbar ist mit (4.4.10) h0 (k) =

sin πk/r = gr (k) πk/r

(4.4.27a)

die Impulsantwort des Systems, das eine ideale Interpolation in Hinblick auf die der Folge v(k) zugeordnete bandbegrenzte Funktion v0 (t) nach (4.4.1) ¨ ausf¨ uhrt. F¨ ur die Ubertragungsfunktion des Interpolators findet man mit (4.4.12), wenn man sich auf das Abtastintervall am Ausgang bezieht  r , 0 ≤ |Ω| ≤ π/r H(ejΩ ) = (4.4.27b) 0 , π/r < |Ω| ≤ π . ¨ Der im Sinne dieser Uberlegungen ideale Interpolator erweist sich also als digitaler Tiefpaß mit der Grenzfrequenz Ωg = π/r und H(ej0 ) = r. Entsprechend (4.4.26a) ist er darstellbar als eine Parallelanordnung von r Systemen, deren Impulsantworten sin π(k + /r) (4.4.28a) h0/r (k) = π(k + /r) ¨ durch Abtastung aus h0 (k) hervorgehen und deren Ubertragungsfunktionen jΩ mit H(e ) durch H/r (ejΩ ) =

r−1 1  κ w · H(ej(Ω+κ2π/r) ) , r κ=0 r

(4.4.28b)

verbunden sind, s. (4.4.13a). Derartige Systeme werden als Polyphasenfilter bezeichnet (siehe Abschn. 4.7.2, vergl. [4.3]). 4.4.5 Systeme linearer Phase Abschließend betrachten wir allgemeine diskrete Systeme linearer Phase. Wir beschreiben sie zun¨ achst durch H(ejΩ ) = H0 (ejΩ ) · e−jΩξ ,

|Ω| < π ,

ξ∈

,

(4.4.29a)

wobei H0 (ejΩ ) eine gerade, reelle Funktion ist. Die stets periodische Funktion ur |Ω| = π unstetig. Die Impulsantwort ist H(ejΩ ) ist i.allg. f¨

248

4 Diskrete Systeme

1 h0 (k) = 2π



H0 (ejΩ ) · cos Ω[k − ξ] dΩ .

(4.4.29b)

−π

h0 (k) k¨ onnen wir als Ergebnis einer Abtastung der kontinuierlichen Funktion 1 h00 (t) = 2π



H0 (ejΩ ) · cos[Ω(t/T − ξ)] dΩ

(4.4.29c)

−π

in den Punkten t = kT auffassen. h00 (t) ist eine bez¨ uglich des Punkts t = ξT ur spezielle Werte von gerade Funktion. Dagegen weist h0 (k) wieder nur f¨ ξ Symmetrieeigenschaften auf. Wir beschr¨ anken uns auf die Diskussion der beiden m¨ oglichen F¨ alle. altnisse vor, die wir schon bei der Ist ξ = k0 ∈ , so liegen die Verh¨ Untersuchung des idealisierten diskreten Tiefpasses im letzten Abschnitt angenommen haben. F¨ ur die Impulsantwort erh¨alt man aus (4.4.29b) 1 h0 (k) = 2π

(Typ 1)



H0 (ejΩ ) cos Ω [k − k0 ]dΩ .

−π

Die dort gemachten Symmetrieaussagen (4.4.23b) f¨ ur die Impulsantwort und (4.4.24c) f¨ ur die Sprungantwort gelten allgemein f¨ ur beliebige, gerade Funktionen H0 (ejΩ ). Ist ξ = k0 + 1/2 mit ganzzahligem k0 , so liegt bei |Ω| = π eine Nullstelle ¨ der Ubertragungsfunktion mit Vorzeichenwechsel des Imagin¨arteils vor. F¨ ur die Impulsantwort erh¨ alt man aus (4.4.29b) 1 h0 (k) = 2π

(Typ 2)



H0 (ejΩ ) · cos Ω[k − (2k0 + 1)/2] dΩ . (4.4.30a)

−π

Sie ist symmetrisch zu k0 + 1/2, also zu einem Punkt, der nicht im Raster liegt. Damit gilt an Stelle von (4.4.23b) h0 (k0 + Δk + 1) = h0 (k0 − Δk) , Weiterhin ist

k0  κ=−∞

h0 (κ) =

Δk ∈

.

(4.4.30b)

1 H0 (ej0 ) , 2

(4.4.30c)

die Sprungantwort erreicht also in diesem Fall bei k0 ihren halben Endwert. Entsprechend ergibt sich hier im Gegensatz zu (4.4.24c) h−1 (k0 − Δk) + h−1 (k0 + Δk) = H0 (ej0 ) = h−1 (∞) , Die Sprungantwort verl¨ auft also jetzt komplement¨ar zu k0 .

Δk ∈

.

4.4 Idealisierte lineare, zeitinvariante Systeme

249

Wir k¨ onnen die Klasse der linearphasigen Systeme erweitern, wenn wir zulassen, daß H(ejΩ ) bei Ω = 0 eine Nullstelle mit Vorzeichenwechsel des Imagin¨ arteils hat. Dann ist H(ejΩ ) = jH0 (ejΩ ) · e−jΩξ ,

|Ω| < π ,

(4.4.31a)

wobei jetzt H0 (ejΩ ) eine ungerade, reelle Funktion ist. Offenbar erh¨alt man hier, abgesehen von der linearen Phasenverschiebung, einen rein imagin¨aren Frequenzgang. Dann folgt f¨ ur die dazu geh¨ orige Impulsantwort 1 h0 (k) = − 2π



H0 (ejΩ ) · sin Ω(k − ξ) dΩ ,

(4.4.31b)

−π

die ¨ ahnlich wie (4.4.29b) als Ergebnis der Abtastung einer in Bezug auf den Punkt t = ξT ungeraden kontinuierlichen Funktion aufgefaßt werden kann. Wir spezialisieren erneut den Wert ξ. F¨ ur ξ = k0 ∈ ist 1 h0 (k) = − 2π

(Typ 3)



H0 (ejΩ ) · sin Ω(k − k0 ) dΩ

(4.4.32a)

−π

und damit h0 (k0 ) = 0 ,

h0 (k0 + Δk) = −h0 (k0 − Δk) ,

∀Δk ∈

.

(4.4.32b)

Die Sprungantwort wird jetzt eine gerade Folge bez¨ uglich k0 − 0, 5. Es ist h−1 (k0 + Δk) = h−1 (k0 − Δk − 1)

(4.4.32c)

und nat¨ urlich h−1 (∞) = H(ej0 ) = 0. W¨ ahlen wir ξ = k0 + 1/2 mit k0 ∈ so ist (Typ 4)

1 h0 (k) = − 2π



,

H0 (ejΩ ) · sin Ω[k − (2k0 + 1)/2] dΩ (4.4.33a)

−π

und entsprechend (4.4.30b) h0 (k0 + Δk + 1) = −h0 (k0 − Δk) ,

Δk ∈

.

(4.4.33b)

Wir betrachten zwei praktisch wichtige Beispiele f¨ ur den durch (4.4.31a) beschriebenen Fall: a) Differenzierer : Ein idealisiertes kontinuierliches System, das zu jeder differenzierbaren Funktion exakt den Differentialquotienten bestimmt, hat die ¨ Ubertragungsfunktion H(jω) = jω (vergl. Kap. 1, Bild 1.3). Entsprechend ist bei einem idealen digitalen Differenzierer unter Ber¨ ucksichtigung einer Verz¨ ogerung

250

4 Diskrete Systeme

H(ejΩ ) = jΩ · e−jΩξ ,

|Ω| < π .

(4.4.34a)

F¨ ur die Impulsantwort eines solchen Systems findet man im Falle ξ = k0 mit (4.4.32a) ⎧ 1 ⎪ (−1)k−k0 , k = | k0 , ⎨ k − k0 (4.4.34b) h0 (k) = ⎪ ⎩ 0 k = k0 . alt man mit (4.4.33a) die zu (4.4.34b) ¨aquivalente Folge Ist ξ = k0 +1/2, so erh¨ h0 (k) =

(−1)k−k0 1 · , π [k − (2k0 + 1)/2]2

k∈

.

(4.4.34c)

F¨ ur den mit Bild 1.3a vorgestellten einfachen Differenzierer gilt ξ = 1/2; seine Impulsantwort ist aber kein spezieller Fall von (4.4.34c). b) Hilbert-Transformator : In den Abschn. 4.3.3 und 4.4.2 haben wir bereits die Hilbert-Transformation einer Folge eingef¨ uhrt. Ein diese Operation f¨ ur beliebige Folgen ausf¨ uhrendes System hat den Frequenzgang HH (ejΩ ) = −j sign Ω · e−jΩξ

(4.4.35a)

(vergl. (4.3.24)). Setzen wir speziell ξ = k0 ∈ , so ist entsprechend (4.3.26) ⎧2 1 ⎪ (k − k0 ) ungerade , ⎨ π k − k0 h0H (k) = (4.4.35b) ⎪ ⎩ 0 (k − k0 ) gerade . In Abschnitt 5.6.6.2 werden reellwertige Systeme mit linearer Phase untersucht, die durch nichtrekursive Differenzengleichungen beschrieben werden. Die hier vorgestellten vier m¨ oglichen F¨ alle (Typ 1 – Typ 4 nach [4.24]) werden auch dort diskutiert (s. (5.6.46-49) und Bild 5.33). Der Entwurf von realisierbaren Systemen mit Selektionseigenschaften und von speziellen Systemen zur angen¨ aherten Differentiation, Interpolation oder Hilbert-Transformation wird in Band II beschrieben. In der MATLAB Signal Processing Toolbox werden entsprechende Entwurfsverfahren nach dem Remez-Algorithmus unter dem Index “Optimal FIR Filter Designs” angegeben. •

Die in diesem Abschnitt bisher behandelten Systeme waren reellwertig. Komplexwertige Systeme linearer Phase werden durch H(ejΩ ) = ejϕ · H0 (ejΩ ) · e−jΩξ ,

ϕ∈

(4.4.36)

beschrieben, wobei ϕ beliebig und H0 (ejΩ ) eine reelle Funktion ist. Die beiden bisher betrachteten reellwertigen, linearphasigen Systeme sind hier als

4.5 Kausale, lineare, zeitinvariante Systeme

251

Spezialf¨ alle mit ϕ = 0, H0 (ejΩ ) gerade, bzw. ϕ = π/2, H0 (ejΩ ) ungerade, enthalten. Wir diskutieren wieder die Symmetrieeigenschaften der jetzt komplexen Impulsantwort f¨ ur bestimmte Werte von ξ. F¨ ur ξ = k0 ∈ ist 1 jϕ e h0 (k) = 2π



H0 (ejΩ ) · ejΩ(k−k0 ) dΩ .

(4.4.37a)

−π

Damit folgt hier h0 (k0 + Δk) = ej2ϕ · h∗0 (k0 − Δk) ,

Δk ∈

(4.4.37b)

eine Beziehung, die bei den angegebenen Spezialisierungen f¨ ur die Wahl von ϕ und H0 (ejΩ ) in die Ausdr¨ ucke (4.4.23b) und (4.4.32b) f¨ ur reellwertige Systeme u ur ξ = k0 + 1/2 folgt aus ¨bergeht. F¨ h0 (k) =

1 jϕ e 2π



H0 (ejΩ ) · ejΩ[k−(2k0 +1)/2] dΩ

(4.4.38a)

−π

h0 (k0 + Δk + 1) = ej2ϕ · h∗0 (k0 − Δk) ,

Δk ∈

(4.4.38b)

als allgemeine Darstellung, die die F¨ alle (4.4.30b) und (4.4.33b) einschließt. ¨ Die Eigenschaften der Ubertragungsfunktionen realisierbarer komplexwertiger Systeme mit linearer Phase werden in Abschnitt 7.4.2 behandelt.

4.5 Kausale, lineare, zeitinvariante Systeme 4.5.1 Kausalit¨ at und Minimalphasigkeit Die im Abschn. 4.4 durchgef¨ uhrten Untersuchungen haben auf Systeme gef¨ uhrt, deren Impulsantworten auch f¨ ur k < 0 von Null verschiedene Werte haben. Sie waren also nicht kausal und insofern irreal. Der Grund daf¨ ur ist, daß wir ¨ in unseren Betrachtungen von Ubertragungsfunktionen ausgegangen sind, die wir im Hinblick auf ein gew¨ unschtes Verhalten gew¨ahlt haben, ohne die aus der Kausalit¨ atsforderung erwachsenden Bedingungen zu beachten. Wir haben aber bereits in Abschn. 2.3.2 gefunden, daß bei kausalen Folgen eine enge Bindung zwischen dem geraden und ungeraden Teil des Spektrums besteht (s. (2.3.19a,b)). Die genauere Untersuchung der Beziehungen zwischen den ¨ Komponenten der Ubertragungsfunktion eines kausalen Systems ist der Gegenstand dieses Abschnitts. Wir zeigen zun¨ achst an einem Beispiel, wie sich die Kausalit¨atsbedingung auf den Frequenzgang auswirkt. Dazu gehen wir von dem idealisierten Tiefpaß mit der Grenzfrequenz Ωg und der Laufzeit k0 aus, dessen Impulsantwort

252

4 Diskrete Systeme

Abb. 4.10. Frequenzgang eines kausalen Systems, dessen Impulsantwort f¨ ur k ≥ 0 mit der des idealisierten Tiefpasses von Bild 4.9 u ¨bereinstimmt.

h0 (k) in (4.4.23a) angegeben und f¨ ur Ωg = π/4 und k0 = 10 in Bild 4.9a dargestellt ist. Wir definieren jetzt einen kausalen Tiefpaß durch Angabe seiner Impulsantwort h0k (k) = h0 (k) · γ−1 (k) =

Ωg sin Ωg (k − k0 ) · , k ≥ 0. π Ωg (k − k0 )

Den zugeh¨ origen Frequenzgang bestimmen wir als Hk (ejΩ ) = ∗ {h0k (k)} mit (4.3.3), die Gruppenlaufzeit mit (4.3.16i). Bild 4.10 zeigt den Betrag, die Komponenten von Hk (ejΩ ) sowie τg (Ω) als Ergebnis einer N¨aherungsrechnung mit 1024 Werten von h0k (k). Zum Vergleich wurden die entsprechenden Gr¨ oßen von H(ejΩ ) des idealisierten Tiefpasses dargestellt. Wesentlich ist, daß hier stets |Hk (ejΩ )| > 0 ist. Es wird sich zeigen, daß generell der Betrag des Frequenzganges eines kausalen Systems h¨ ochstens isolierte Nullstellen haben kann. Die folgende allgemeine Untersuchung beschr¨ankt sich zun¨achst auf reellwertige Systeme. Bei der Behandlung der Z-Transformation in Abschn. 2.5.1 wurde festgestellt, daß die Z-Transformierte einer rechtsseitigen Folge f¨ ur |z| > r eine analytische Funktion ist, wobei r der von der jeweiligen Folge abh¨ angige Konvergenzradius ist. Bei einer analytischen Funktion besteht nun allgemein eine feste Bindung zwischen Real- und Imagin¨arteil derart, daß z.B. der Wert des Imagin¨ arteils in einem Punkt z0 innerhalb des Regularit¨atsgebiets vollst¨ andig bestimmt ist durch den Verlauf des Realteils auf einer einfach

4.5 Kausale, lineare, zeitinvariante Systeme

253

geschlossenen Kurve in diesem Gebiet, das z0 enth¨alt. Von diesem Zusammenhang, der in allgemeiner Form durch die Poissonschen Integrale beschrieben wird [4.4], machen wir hier Gebrauch. Unser Vorhaben entspricht dem bei der Untersuchung der Spektren kausaler Signale in Abschn. 2.3.2. Wir ben¨ otigen daf¨ ur zun¨achst eine Aussage u ¨ber ¨ das Gebiet, in dem die Ubertragungsfunktion analytisch ist. Setzen wir Stabilit¨ at voraus, so ist nach Abschn. 4.2 die Impulsantwort absolut summierbar. Dann konvergiert H(z) =

∞ 

h0 (k) · z −k

|z| ≥ 1 .

f¨ ur

(4.5.1)

k=0

Bei einem kausalen, stabilen System k¨ onnen wir daher den Einheitskreis als Randkurve des Regularit¨ atsgebiets von H(z) verwenden und damit Beziehunur die Impulsgen zwischen Real- und Imagin¨ arteil von H(ejΩ ) herleiten. F¨ antwort gilt (= 0, ∀k < 0)

h0 (k) = h0g (k) + h0u (k) ,

h0g (k) = 0, 5 · [h0 (0) · γ0 (k) + h0 (k)], h0u (k) = 0, 5 · h0 (k),

k≥0

(4.5.2a)

k>0

und daher, vergl. (2.3.16), h0g (k) = h0 (0) · γ0 (k) + h0u (k) sign k , h0u (k) = h0g (k) · sign k .

(4.5.2b) (4.5.2c)

Bild 4.11 erl¨ autert den Zusammenhang. Es ist nun mit H(ejΩ ) =

∞ 

h0 (k) · e−jkΩ = P (ejΩ ) + jQ(ejΩ )

(4.5.3a)

k=0

P (e



)=

∞ 

h0 (k) · cos kΩ = h0 (0) + 2

k=0 ∞ 

Q(ejΩ ) = −

∞ 

h0g (k) · cos kΩ , (4.5.3b)

k=1

h0 (k) · sin kΩ = −2

k=1

∞ 

h0u (k) · sin kΩ .

(4.5.3c)

k=1

Die Kosinusreihenentwicklung der geraden Funktion P (ejΩ ) und die Sinusreiuhren also f¨ ur k > 0 auf henentwicklung der ungeraden Funktion −Q(ejΩ ) f¨ dieselben Koeffizienten π 1 h0 (k) = P (ejΩ ) · cos kΩdΩ , (4.5.4a) π −π

1 =− π



−π

Q(ejΩ ) · sin kΩdΩ .

(4.5.4b)

254

4 Diskrete Systeme

Abb. 4.11. Zerlegung einer kausalen Impulsantwort in geraden und ungeraden Teil

Weiterhin ist h0 (0) =

1 2π



P (ejΩ )dΩ .

(4.5.4c)

−π

Setzt man (4.5.4b,a) in (4.5.3b,c) ein, so folgt entsprechend (2.3.19a,b) ⎡ π ⎤  ∞  1 ⎣ Q(ejη ) · sin kηdη ⎦ cos kΩ (4.5.5a) P (ejΩ ) = h0 (0) − π k=1 −π ⎡ π ⎤  ∞  1 ⎣ P (ejη ) · cos kηdη ⎦ sin kΩ . Q(ejΩ ) = − (4.5.5b) π k=1 −π

Als Komponenten einer analytischen Funktion k¨onnen P (ejΩ ) und Q(ejΩ ) nicht beide in einem Intervall endlicher Breite verschwinden. Damit kann ochstens isolierte Nullstellen haben. |H(ejΩ )| h¨ Wir leiten aus (4.5.2b,c) noch ein zweites Gleichungspaar her, mit dem eine geschlossene Bestimmung der einen Komponente aus der andern m¨oglich ist [4.5; 4.6]. F¨ ur das dazu ben¨ otigte Spektrum S(ejΩ ) der sign-Folge hatten wir in Abschn. 2.3.2, (2.3.35c) S(ejΩ ) =

1 j tan Ω/2

4.5 Kausale, lineare, zeitinvariante Systeme

255

bekommen. Der Multiplikationssatz der ∗ -Transformation, der sich formal aus (2.5.14) f¨ ur |z| = 1 ergibt, f¨ uhrt auf die gesuchten Beziehungen1 P (e



1 VP ) = h0 (0) + 2π

Q(ejΩ ) = −

1 VP 2π

π −π

π −π

Q(ejη ) · dη = h0 (0) + tan[(Ω − η)/2]

{Q(ejΩ )} , (4.5.6a)



P (e ) · dη = − tan[(Ω − η)/2]

{P (ejΩ )} .

(4.5.6b)

Die in (4.5.6) angegebenen Integrale beschreiben die Hilberttransformation f¨ ur periodische Funktionen. Sie lassen sich auch mit Hilfe des Cauchyschen Integralsatzes gewinnen. Auf die Herleitung sei hier verzichtet (z.B. [4.5]). Der Zusammenhang zwischen den scheinbar sehr verschiedenen Gleichungspaaren (4.5.5) und (4.5.6) wird deutlich, wenn man die durch (4.5.6) beschriebenen Faltungen im Frequenzbereich mit Hilfe entsprechender Fouriertransformationen als Multiplikationen im Zeitbereich ausf¨ uhrt. Es ist dann z.B. Q(ejΩ ) = −j ·

∗{

−1 jΩ )} ∗ {P (e

· sign k}

die abgek¨ urzte Schreibweise f¨ ur (4.5.5b). Da f¨ ur die numerische Fourierreihenentwicklung die in Abschnitt 2.4.4 beschriebenen sehr effektiven Algorithmen zur Verf¨ ugung stehen, sind f¨ ur die Ausf¨ uhrung der Hilbert-Transformation in der Regel die Beziehungen (4.5.5) der Auswertung der Integrale (4.5.6) vorzuziehen. Das gilt nat¨ urlich insbesondere dann, wenn die n¨ otige Entwicklung von P (ejΩ ) bzw. Q(ejΩ ) exakt auf endlich viele Glieder, d.h. auf eine Impulsantwort begrenzter L¨ange f¨ uhrt, wie das bei einer wichtigen Klasse realer Systeme der Fall ist (s. Abschn. 5.6.6). Im allgemeinen Fall erreicht man nur eine N¨ aherungsl¨osung, deren Genauigkeit nach Abschn. 2.3.1 nicht nur von der endlichen Anzahl der verwendeten Glieder, sondern insbesondere von den Stetigkeitseigenschaften der zu transformierenden Funktionen und ihrer Ableitungen bestimmt wird (s. Abschn. 5.5.3). Wir behandeln ein einfaches Beispiel. Ausgehend von  1 , |Ω| ≤ Ωg jΩ P (e ) = 0 , Ωg < |Ω| ≤ π bestimmen wir den bei Kausalit¨ at zugeh¨ origen Imagin¨arteil Q(ejΩ ). Mit (4.5.4a,c) erh¨ alt man 1

VP bezeichnet den Cauchyschen ⎤(valor principalis). Es ist z.B. ⎡ Ω−ε Hauptwert  π 1 P (ejΩ ) = h0 (0) + ... + . . .⎦ lim ⎣ 2π ε→0 −π

Ω+ε

256

4 Diskrete Systeme

Ωg sin Ωg k · γ−1 (k − 1) . h0 (k) = γ0 (k) + 2 π Ωg k Damit folgt aus (4.5.3c) Q(ejΩ ) = −

∞ 2Ωg  sin Ωg k · sin kΩ π Ωg k k=1

nach Zwischenrechnung Q(e



  1  sin[(Ω − Ωg )/2]  . ) = ln  π sin[(Ω + Ωg )/2] 

Bild 4.12 zeigt den Betrag und die Komponenten von H(ejΩ ) sowie die ersten Werte der Impulsantwort. F¨ ur die Berechnung von H(ejΩ ) wurden wieder 1024 Werte der angegebenen Impulsantwort verwendet.

Abb. 4.12. Frequenzgang und Impulsantwort eines kausalen Systems mit bereichsweise verschwindender Realteilfunktion P (ejΩ ).

¨ Wir k¨ onnen die Uberlegungen auf komplexwertige kausale Systeme ausdehnen. Dabei werden wir auf Zusammenh¨ ange zwischen geradem und ungeradem Teil des Frequenzgangs gef¨ uhrt, die den Ergebnissen (2.3.19a,b) f¨ ur kausale Folgen entsprechen. Zerlegt man Real- und Imagin¨arteil von Impulsantwort h0 (k) und Frequenzgang H(ejΩ ) jeweils in geraden und ungeraden

4.5 Kausale, lineare, zeitinvariante Systeme

257

Teil, so lassen sich die insgesamt vorliegenden Beziehungen durch (4.5.7) beschreiben. Der Vergleich mit (2.3.14) zeigt die sich aus der jetzt vorausgesetzten Kausalit¨ at ergebende Erweiterung. h0 (k)

(I) (R) (I) = h(R) 0g (k) + h0u (k) + jh0g (k) + jh0u (k) = 0, ∀k < 0

(4.5.7)



H(ejΩ ) = Pg (ejΩ ) + Pu (ejΩ ) + jQg (ejΩ ) + jQu (ejΩ )

−j Wir suchen weiterhin eine Beziehung zwischen der D¨ampfung a(Ω) und der Phase b(Ω) eines diskreten Systems, wobei wir uns auf reellwertige Systeme beschr¨ anken. Nach Abschnitt 4.3.2, Glchg. (4.3.14), ist a(Ω) + jb(Ω) = − ln H(ejΩ ) . Dann ist − ln H(z) die zugeh¨ orige, abgesehen von isolierten Punkten in der ganzen z-Ebene erkl¨ arte Funktion. Um die obigen Betrachtungen anwenden zu k¨ onnen, m¨ ussen wir verlangen, daß ln H(z) zumindest außerhalb des Ein¨ heitskreises analytisch ist. Wir beschr¨ anken die Betrachtung damit auf Ubertragungsfunktionen, die f¨ ur |z| > 1 keine Nullstellen haben. Sie werden als minimalphasig bezeichnet (s. Abschn. 5.6.2 bzw. [4.1]). Auf dem Einheitskreis sind isolierte Nullstellen von H(z) beliebiger Ordnung zugelassen. Die damit auftretenden logarithmischen Singularit¨ aten von ln H(z) beeintr¨achtigen nicht die G¨ ultigkeit der folgenden Aussagen. Unter den gemachten Voraussetzungen ist ∞  jΩ cp (k) · e−jkΩ . (4.5.8a) − ln H(e ) = k=0

Hier ist cp (k) = −

1 2π



ln H(ejΩ ) · ejkΩ dΩ



(4.5.8b)

−π

eine kausale Folge. Offenbar besteht wegen (4.5.3a) ein enger Zusammenhang mit der Impulsantwort h0 (k). Abgesehen vom Vorzeichen ist cp (k) =

−1 ∗ {− ln[

∗ {h0 (k)}]}

(4.5.8c)

das Cepstrum zu h0 (k) [4.6]. Mit (4.3.14b,c) folgt aus (4.5.8a) entsprechend (4.5.3b,c)

258

4 Diskrete Systeme

a(Ω) =

∞ 

cp (k) · cos kΩ ,

k=0 ∞ 

b(Ω) = −

cp (k) · sin kΩ .

(4.5.9a) (4.5.9b)

k=1

Dann ist die Gruppenlaufzeit ∞

τg (Ω) =

 db(Ω) =− kcp (k) · cos kΩ , dΩ

(4.5.9c)

k=1

und es gilt

π τg (Ω)dΩ = b(π) − b(−π) = 0 .

(4.5.9d)

−π

Die Koeffizienten cp (k) kann man aus a(Ω) mit 1 cp (0) = 2π

π a(Ω)dΩ; −π

1 cp (k) = π

π a(Ω) · cos kΩdΩ,

k ≥ 1 (4.5.10a)

−π

oder f¨ ur k ≥ 1 aus b(Ω) oder τg (Ω) als 1 cp (k) = − π =−

1 π

π −π π

−π

b(Ω) · sin kΩdΩ

(4.5.10b)

τg (Ω) · cos kΩdΩ k

(4.5.10c)

bestimmen. Schließlich erh¨ alt man den gesuchten Zusammenhang zwischen a(Ω) und b(Ω) wie in (4.5.5) als ⎡ π ⎤  ∞ 1 ⎣ a(Ω) = cp (0) − b(η) · sin kηdη ⎦ cos kΩ , (4.5.11a) π k=1 −π ⎡ π ⎤  ∞  1 ⎣ a(η) · cos kηdη ⎦ sin kΩ . b(Ω) = − (4.5.11b) π k=1

−π

Mit (4.5.10c) findet man die Beziehung zwischen a(Ω) und der Gruppenlaufzeit ⎤ ⎡ π  ∞  τg (η) 1 ⎣ a(Ω) = cp (0) − · cos kηdη ⎦ cos kΩ . (4.5.11c) π k k=1

−π

4.5 Kausale, lineare, zeitinvariante Systeme

259

Entsprechend (4.5.6) gibt es auch hier ein zweites Gleichungspaar. Es ist 1 VP a(Ω) = cp (0) + 2π

π −π

und 1 VP b(Ω) = − 2π

π −π

b(η) dη tan[(Ω − η)/2]

a(η) dη . tan[(Ω − η)/2]

(4.5.12a)

(4.5.12b)

Diese Beziehungen lassen sich noch in andere Formen u uhren (z.B. [4.5]). ¨berf¨ Wir begn¨ ugen uns wieder mit der Angabe des Zusammenhangs zwischen der D¨ ampfung und der Gruppenlaufzeit, den man aus (4.5.12a) durch partielle Integration erh¨ alt: a(Ω) = cp (0) +

1 VP π

π τg (η) ln | sin(Ω − η)/2|dη .

(4.5.12c)

−π

Die Beziehungen (4.5.11b,12b) lassen erkennen, daß a(Ω) integrabel sein muß. Damit folgt erneut, daß |H(ejΩ )| = e−a(Ω) nicht intervallweise verschwinden kann.

Abb. 4.13. Frequenzgang, Cepstrum und Impulsantwort eines minimalphasigen kausalen Tiefpasses mit aS = 1, Ωg = π/4.

260

4 Diskrete Systeme

Als Beispiel behandeln wir einen Tiefpaß mit der endlichen D¨ampfung aS im Sperrbereich. Es sei   0 1 , |Ω| ≤ Ωg jΩ a(Ω) = bzw. |H(e )| = . −aS aS e , Ωg < |Ω| ≤ π Man erh¨ alt mit (4.5.10a) das negative Cepstrum

Ωg sin kΩg Ωg cp (k) = aS (1 − )γ0 (k) − 2 · γ−1 (k − 1) π π kΩg und daraus die Phase b(Ω) mit (4.5.9b)   aS  sin[(Ω + Ωg )/2]  ln  . b(Ω) = π sin[(Ω − Ωg )/2]  Bild 4.13 zeigt f¨ ur aS = 1 die Funktionen a(Ω), |H(ejΩ )| und b(Ω) sowie die ersten Werte von cp (k) und der Impulsantwort   h0 (k) = ∗−1 e−(a(Ω)+jb(Ω)) . Die numerische Rechnung ging von den ersten 1024 Werten der Folge cp (k) aus. Die oben beschriebenen Zusammenh¨ ange gestatten auch die Bestimmung desjenigen minimalphasigen Systems, dessen Frequenzgang HM (ejΩ ) densel¨ ben Betrag hat wie die Ubertragungsfunktion H(ejΩ ) eines beliebigen nichtminimalphasigen Systems. Ausgehend von den Koeffizienten f¨ ur die Fourierreihenentwicklung der D¨ ampfung 1 cp (0) = − 2π

π ln |H(e



)|dΩ;

−π

1 cp (k) = − π

erh¨ alt man unmittelbar



HM (e



) = exp −

∞ 



ln |H(ejΩ )|·cos kΩdΩ, k ≥ 1

−π

 cp (k) · e

−jkΩ

(4.5.13a)

k=0

und h0M (k) =

−1 jΩ )} ∗ {HM (e

(4.5.13b)

(vergl. die Untersuchung minimalphasiger Signale in Abschn. 2.3.2). Wir werden die Aufgabe im 5. Kap. erneut aufgreifen. Sie interessiert u.a. beim Filterentwurf. Die Betrachtungen in diesem Abschnitt haben nicht nur zu dem Ergebnis gef¨ uhrt, daß man die Komponenten des Frequenzgangs eines kausalen Systems nicht unabh¨ angig voneinander vorschreiben kann. Vielmehr kann auch

4.5 Kausale, lineare, zeitinvariante Systeme

261

die einzelne Komponente nicht beliebig gew¨ ahlt werden, sondern nur so, daß ihre Fourierreihenentwicklung m¨ oglich ist. Dazu m¨ ussen sie u ¨ber eine Periode ussen die f¨ ur die Bestimmung der Koquadratisch integrabel sein,2 und es m¨ effizienten h0 (k) bzw. cp (k) zu berechnenden Integrale (4.5.4) bzw. (4.5.10) existieren. Wie mehrfach betont wurde, kann |H(ejΩ )| nicht in Intervallen endlicher Breite zu Null werden. Idealisierte Filter sind daher nicht realisierbar. Mit MATLAB kann das Cepstrum zur Impulsantwort h0 (k); k = 0(1)L nach (4.5.8b) berechnet werden. Mit h =h ˆ 0 (k) und M L berechnet man n¨ aherungsweise M Werte cp =c ˆ p (k) H = fft(h,M); lnH= log(abs(H)) + j*unwrap(angle(H)); cp = real(ifft(-lnH)); dabei wird ber¨ ucksichtigt, daß in den Standardfunktionen der Winkel eines komplexen Wertes stets im Hauptbereich ausgegeben wird und somit f¨ ur die Berechnung des Cepstrums zuerst mit der Funktion unwrap(.) die kontinuierliche Winkelfunktion hergestellt werden muß. In der MATLAB Signal Processing Toolbox wird f¨ ur die Bestimmung des komplexen Cepstrums die Funktion cceps(.) zur Verf¨ ugung gestellt. In Erg¨ anzung zu der oben gezeigten Berechnung wird dort eine zus¨ atzliche Korrektur der Phase f¨ ur |∠H(Ω) = π| > π durchgef¨ uhrt. Gegen¨ uber dem oben angegebenen Algorithmus ist jedoch bei MATLAB das Vorzeichen vertauscht. Liegen Pole- oder Nullstellen der zu untersuchenden Impulsantwort auf den Einheitskreis, so f¨ uhrt die Berechnung des Logarithmus zu numerischen Problemen. Entsprechend [4.23, Abschnitt 10.5.3] kann dieses Problem durch eine geringe radiale Verschiebung der Pole und Nullstellen in den Einheitskreis umgangen werden. Hierzu ist die Eingangsfolge h0 (k) mit einer exponentiellen Folge ak , (a < 1) zu multiplizieren. Mit Hilfe des Cepstrums k¨ onnen wir pr¨ ufen, ob eine gegebene Impulsantwort zu einem minimalphasigen System geh¨ ort. Hierzu wird das Ergebnis der CepstrumBerechnung entsprechend cpr = [cp(M/2+2:M) cp(1:M/2+1)] ort zu einem nicht umgeordnet und u ¨ber k = -M/2+1 : M/2 aufgetragen. h0 (k) geh¨ minimalphasigen System, wenn cpr f¨ ur k < 0 von Null verschiedene Werte annimmt. Das mit (4.5.13) beschriebene Verfahren zur Bestimmung des minimalphasigen Systems, dessen Betragsfrequenzgang mit dem des gegebenen u aßt ¨bereinstimmt, l¨ sich mit MATLAB in der folgenden Weise ausf¨ uhren: Die Koeffizienten der Fourierentwicklung der D¨ ampfung erh¨ alt man n¨ aherungsweise mit a(i) = ifft(-log(abs(fft(h,M)))). Daraus folgen M/2 + 1 Werte von cp (k) des minimalphasigen Systems mit cpm = [a(1) 2*a(2:M/2) a(M/2+1)], 2

Bei der Gruppenlaufzeit ist eine Verallgemeinerung erforderlich, falls sie nur mit Diracanteilen angegeben werden kann.

262

4 Diskrete Systeme

aus denen sich der Frequenzgang und die Impulsantwort des minimalphasigen Systems entsprechend (4.5.13) ergeben als Hm = exp(fft(-cpm,M)); hm = ifft(Hm); Weiter wird in MATLAB f¨ ur den Entwurf eines minimalphasigen Systems mit entsprechendem Betragsfrequenzgang der Funktionsaufruf [cp,hm]=rceps(h) zur Verf¨ ugung gestellt. Im Gegensatz zum oben beschriebenen Verfahren werden bei rceps(.) die interne DFT und die Berechnung der Impulsantwort des minimalphasigen Systems nur mit der L¨ ange der Eingangsfolge berechnet. Zur Approximation eines Systems mit erweiterter Impulsantwort ist die Impulsantwort des linearphasigen Systems vor dem Aufruf von rceps(.) entsprechend mit Nullen zu erg¨ anzen. •

4.5.2 Passive verlustlose Systeme Von kontinuierlichen Systemen ist bekannt, daß sie im Falle der Passivit¨at und Verlustfreiheit einige f¨ ur die Anwendung interessante Eigenschaften haben. ¨ Da erwartet werden kann, daß sich Ahnliches auch im diskreten Fall ergeben wird, f¨ uhren wir hier derartige Systeme ein und untersuchen zun¨achst, welche ¨ Bedingungen ihre Ubertragungsfunktionen erf¨ ullen m¨ ussen (z.B. [4.6]). Wie im Kontinuierlichen bezeichnen wir dabei ein System als passiv, wenn die an seinem Ausgang bis zum Punkt k insgesamt austretende Energie nicht gr¨oßer sein kann als die bis dahin am Eingang eingespeiste. Es ist verlustfrei, wenn f¨ ur k → ∞ beide Energiewerte u bereinstimmen. Wir verwenden hier den Begriff ¨ Energie im u ¨bertragenen Sinne, wie das im Abschn. 2.1 erkl¨art wurde (s. auch Abschn. 2.5.5.3). Das betrachtete System sei stabil und zun¨achst reellwertig. Es befinde sich f¨ ur k < 0 in Ruhe. Beginnend mit k = 0 wird es mit der reellen Folge v(k) erregt. Es ist dann k  v 2 (κ) (4.5.14a) wv (k) = κ=0

die bis zum Zeitpunkt k in das System fließende Energie. Ihr Grenzwert, die Gesamtenergie am Eingang wv (∞) =

∞ 

v 2 (k) = v(k)22

(4.5.14b)

k=0

sei endlich. F¨ ur die Energie der Ausgangsfolge y(k) gilt dann bei passiven, kausalen Systemen wy (k) =

k  κ=0

y 2 (κ) ≤ wv (k), ∀k

(4.5.15a)

4.5 Kausale, lineare, zeitinvariante Systeme

263

und im Falle der zus¨ atzlichen Verlustfreiheit f¨ ur alle Eingangssignale v(k) ∈ l2 wy (∞) = y(k)22 = v(k)22 .

(4.5.15b)

Wie in Abschnitt 4.3.1 beschreiben wir das System im Frequenzbereich durch (4.3.7) Y (z) = H(z) · V (z) . Mit der Parsevalschen Beziehung erh¨ alt man f¨ ur die Ausgangsenergie  1 dz  Y (z) · Y (z −1 ) y(k)22 = (4.5.16a) 6 2πj z |z|=1

und mit (4.3.7) y(k)22 =

 1 dz  V (z) · H(z) · H(z −1 ) · V (z −1 ) . 6 2πj z

(4.5.16b)

|z|=1

Offensichtlich ist (4.5.15b) f¨ ur ein passives, verlustfreies System erf¨ ullt, wenn H(z)H(z −1 ) = 1

(4.5.17a)

|H(ejΩ )|2 = 1, ∀Ω .

(4.5.17b)

ist. Speziell f¨ ur |z| = 1 folgt

Allgemein nennt man ein System mit einem konstanten Betragsfrequenzgang einen Allpaß . Ein diskretes passives und verlustloses System mit einem Eingang und einem Ausgang ist also ein Allpaß mit |H(ejΩ )| = 1. Da es sich um ein stabiles und kausales System handelt, ist H(z) f¨ ur |z| ≥ 1 und H(z −1 ) ¨ f¨ ur |z| ≤ 1 analytisch, siehe (4.5.1). Damit folgt f¨ ur die Ubertragungsfunktion dieses Allpasses nach dem Prinzip vom Maximum in Erg¨anzung zu (4.5.17b) |H(z)| < 1 ,

∀z

mit |z| > 1

(4.5.17c)

(abgesehen von dem trivialen Fall, daß H(z) generell konstant ist). Entsprechend ist |H(z −1 )| < 1, ∀z mit |z| < 1. Wegen (4.5.17a) ist aber H(z −1 ) = 1/H(z) und daher schließlich |H(z)| > 1 ,

∀z

mit

|z| < 1 .

(4.5.17d)

Das gefundene Ergebnis ist insofern unbefriedigend, als es selektive Systeme ausschließt, die f¨ ur Anwendungen besonders interessant w¨aren. In verlustlosen, kontinuierlichen Systemen mit selektivem Verhalten wird die gew¨ unschte D¨ ampfung bestimmter Spektralbereiche dadurch erreicht, daß der speisenden Quelle in diesen Bereichen weniger Energie entnommen wird. Diese M¨oglichkeit ist nicht unmittelbar auf digitale Systeme zu u ¨bertragen. Wir k¨onnen aber

264

4 Diskrete Systeme

einen Teil der einfließenden Energie zu einem zweiten Ausgang leiten und damit die gew¨ unschte Selektivit¨ at eines insgesamt verlustlosen Systems erhalten. ¨ Einer erneuten Uberlegung legen wir also ein System mit zwei Ausg¨angen zugrunde. Aus Symmetriegr¨ unden nehmen wir an, daß auch zwei Eing¨ange vorhanden sind (Bild 4.14a). Unter sonst gleichen Voraussetzungen wie oben erfolgt jetzt eine Erregung mit der reellen, vektoriellen Folge

Abb. 4.14. a) Zur Einf¨ uhrung eines verlustlosen Systems; b) zueinander komplement¨ are Betragsfrequenzg¨ ange

v(k) = [v1 (k), v2 (k)]T ,

(4.5.18a)

deren Gesamtenergie v(k)22 =

∞ 

vT (k) · v(k) = v1 (k)22 + v2 (k)22

(4.5.18b)

k=0

wieder endlich sei. F¨ ur die vektorielle Ausgangsfolge y(k) = [y1 (k), y2 (k)]T

(4.5.19a)

erh¨ alt man entsprechend die Gesamtenergie y(k)22 =

∞ 

yT (k) · y(k) = y1 (k)22 + y2 (k)22 .

(4.5.19b)

k=0

Die Bedingung (4.5.15b) f¨ ur ein passives, verlustloses System geht jetzt u ¨ber in (4.5.20) y(k)22 = v(k)22 .

4.5 Kausale, lineare, zeitinvariante Systeme

265

Die Beschreibung des Systems im Frequenzbereich hat hier die Form Y(z) = H(z) · V(z) ,

(4.5.21)

wobei V(z) und Y(z) die vektoriellen Z-Transformierten der Eingangs- und Ausgangssignale und   H11 (z) H12 (z) H(z) = (4.5.22) H21 (z) H22 (z) ¨ die Ubertragungsmatrix mit den reellwertigen Teil¨ ubertragungsfunktionen ur die Ausgangsenergie Hλ (z) ist. Die (4.5.16b) entsprechende Beziehung f¨ ergibt sich als  1 dz 2  VT (z) · HT (z) · H(z −1 ) · V(z −1 ) . y(k)2 = (4.5.23) 6 2πj z |z|=1

Aus (4.5.20) folgt damit, daß ein System mit zwei Ein- und Ausg¨angen dann passiv und verlustfrei ist, wenn HT (z) · H(z −1 ) = E ,

∀z

(4.5.24)

gilt. Das f¨ uhrt f¨ ur die Teil¨ ubertragungsfunktionen Hλ (z) mit , λ = 1, 2 auf die Bedingungen: H11 (z) · H11 (z −1 ) + H21 (z) · H21 (z −1 ) = 1 , H12 (z) · H12 (z −1 ) + H22 (z) · H22 (z −1 ) = 1 , H11 (z) · H12 (z −1 ) + H21 (z) · H22 (z −1 ) = 0 ,

∀z ∀z ∀z .

(4.5.25a) (4.5.25b) (4.5.25c)

¨ Wir werden so auf zwei Paare von Ubertragungsfunktionen H11 (z), H21 (z) uhrt. Die Funktionen eines Paares sind im Sinne von und H12 (z), H22 (z) gef¨ (4.5.25a,b) zueinander komplement¨ ar. Die Gln. (4.5.25) implizieren außerdem die Beziehungen H11 (z) · H11 (z −1 ) = H22 (z) · H22 (z −1 ) ,

(4.5.26a)

H21 (z) · H21 (z −1 ) = H12 (z) · H12 (z −1 ) .

(4.5.26b)

Zwischen den Paaren besteht also eine enge Bindung, die im Sinne dieser Glei¨ chungen zu einem symmetrischen Ubertragungsverhalten von den Einzeleing¨ angen zu den Einzelausg¨ angen f¨ uhrt. Aus (4.5.25) folgt f¨ ur |z| = 1 |H11 (ejΩ )|2 + |H21 (ejΩ )|2 = 1 ,

∀Ω

(4.5.27a)

|H12 (ejΩ )|2 + |H22 (ejΩ )|2 = 1 ,

∀Ω

(4.5.27b)

H11 (e





∗ H12 (ejΩ )

+ H21 (e

Es ergibt sich die wichtige Eigenschaft





∗ H22 (ejΩ )

= 0,

∀Ω . (4.5.27c)

266

4 Diskrete Systeme

|Hλ (ejΩ )| ≤ 1 ,

∀Ω ,

, λ = 1, 2 .

(4.5.28a)

Alle Teil¨ ubertragungsfunktionen sind also beschr¨ankt. Die durch sie beschriebenen Systeme nennen wir verlustlos, beschr¨ ankt und reellwertig. In (4.5.17b¨ d) wurden die Eigenschaften der Ubertragungsfunktion eines Allpasses angegeben. Mit derselben Argumentation folgt aus (4.5.28a) |Hλ (z)| < 1 ,

∀z

mit |z| > 1 .

(4.5.28b)

Die genannte Komplementarit¨ at der Funktionen eines Paares bedeutet, daß z.B. zu einer Funktion H1λ (ejΩ ) mit Tiefpaßcharakter eine andere H2λ (ejΩ ) mit Hochpaßverhalten geh¨ ort. Gemeinsam bilden beide eine Frequenzweiche, die die Aufteilung eines Spektrums in die tiefer- und h¨oherfrequenten Anteile gestattet, wenn wir nur einen Eingang, aber zwei Ausg¨ange verwenden. Bild 4.14b zeigt schematisch zwei derartige Betragsfrequenzg¨ange. Die Spezialisierung der gefundenen Ergebnisse auf Systeme mit einem Eingang und einem oder zwei verwendeten Ausg¨angen ist offensichtlich. Eine m¨ ogliche realisierende Struktur behandeln wir in Abschnitt 6.6. Von Interesse ist auch ein anderer Spezialfall, bei dem wir annehmen, daß arteil einer komplexen Eingangsfolge eines v1 (k) und v2 (k) Real- und Imagin¨ nunmehr komplexwertigen Systems sind. Die Gesamtenergie am Eingang ist dann als v(k)22 =

∞ 

v(k)v ∗ (k) = v1 (k)22 + v2 (k)22

(4.5.29)

k=0

zu definieren. Entsprechendes gilt f¨ ur y(k)22 . Jetzt ist nach Abschn. 4.3.3 H(z) = H1 (z) + jH2 (z) ¨ die Ubertragungsfunktion des komplexwertigen Systems mit den reellwertigen Teil¨ ubertragungsfunktionen H1 (z) und H2 (z). Die Gesamtenergie der Ausgangsfolge ist dann gem¨ aß (2.5.19b)  1 dz  V (z) · H(z) · H ∗ (1/z ∗ ) · V ∗ (1/z ∗ ) · y(k)22 = , 6 2πj z |z|=1

woraus hier und wieder

H(z)H ∗ (1/z ∗ ) = 1

(4.5.30a)

|H(ejΩ )|2 = 1

(4.5.30b)

f¨ ur ein verlustloses System folgt. Diese Beziehungen beschreiben einen kom¨ plexwertigen Allpaß, f¨ ur dessen Ubertragungsfunktion die in (4.5.17) angegebenen Eigenschaften gelten. F¨ ur die zugeh¨ origen Teil¨ ubertragungsfunktionen folgen mit H ∗ (1/z ∗ ) = H1 (z −1 ) − jH2 (z −1 ) die Bedingungen

4.5 Kausale, lineare, zeitinvariante Systeme

und

267

H1 (z) · H1 (z −1 ) + H2 (z) · H2 (z −1 ) = 1

(4.5.31a)

H1 (z) · H2 (z −1 ) − H2 (z) · H1 (z −1 ) = 0 .

(4.5.31b)

Da nach (4.3.27,28) generell ein komplexwertiges System als ein reellwertiges ¨ mit zwei Ein- und Ausg¨ angen und der Ubertragungsmatrix   H1 (z) −H2 (z) H(z) = H2 (z) H1 (z) aufgefaßt werden kann, zeigt der Vergleich mit (4.5.25) die hier vorliegende Spezialisierung. Beim komplexwertigen Allpaß sind dabei die beiden Teilu ¨bertragungsfunktionen nicht nur im Sinne von (4.5.31a) zueinander komplement¨ ar, sondern zus¨ atzlich u upft. ¨ber (4.5.31b) eng miteinander verkn¨ F¨ ur die Anwendung der hier definierten passiven und verlustlosen diskreten Systeme ist es entscheidend, daß man Strukturen mit einem oder zwei Einund Ausg¨ angen angeben kann, deren Teil¨ ubertragungsfunktionen die Bedingungen (4.5.25) stets erf¨ ullen, solange ihre Koeffizienten in bestimmten, leicht angebbaren Bereichen bleiben. Man nennt sie strukturell beschr¨ankt und verlustlos; sie sind zwangsl¨ aufig stets stabil. Im Fall selektiver Systeme besitzen sie die f¨ ur die Anwendung wichtige Eigenschaft der geringen Empfindlichkeit im Durchlaßbereich, d.h. dort, wo |H(ejΩ )| ≈ 1 sein soll (Fettweis-OrchardTheorem [4.7], s. auch [4.8]). Das ist eine unmittelbare Folge der Beschr¨ankung ¨ des Betrags der Ubertragungsfunktion entsprechend (4.5.28a). Wenn an einem Punkt Ω = Ωi der Betrag |H(ejΩi )| = 1 ist, so muß jede Ver¨ anderung eines beliebigen Koeffizienten cν des Systems zu uhren. Es gilt also einer Abnahme von |H(ejΩi )| f¨  ∂|H(ejΩ )|  = 0 , ∀cν . (4.5.32)  ∂cν Ω=Ωi Damit wird die Empfindlichkeit erster Ordnung, die als eine Linearkombina∂|H(ejΩ )| definiert ist, in den Punkten Ωi zu Null. tion der ∂cν Ein m¨ ogliches Verfahren zur Entwicklung strukturell beschr¨ankter Strukturen wird in [4.8] beschrieben. Von besonderem Interesse sind aber in diesem Zusammenhang die Wellendigitalfilter, die sich aus einer Transformation von kontinuierlichen Schaltungen ergeben, die ihrerseits aus physikalischen Gr¨ unden a priori passiv und verlustlos sind. Sie wurden erstmalig 1971 von Fettweis vorgeschlagen [4.9]. Eine zusammenfassende Darstellung der seitdem durchgef¨ uhrten Arbeiten u ¨ber diese Filter findet sich in [4.10]. Wir werden sie im Abschnitt 6.5 behandeln. Zu ihnen geh¨ oren auch Anordnungen, die man ohne Bezug auf kontinuierliche Systeme direkt entwickeln kann (z.B. [4.11]). Sie werden in Abschn. 6.6 vorgestellt.

268

4 Diskrete Systeme

¨ Wir machen noch eine Anmerkung zur Tragf¨ahigkeit der Ubertragung des Energiebegriffs von physikalischen auf diskrete (numerische) Systeme. Verwendet man bei einem verlustlosen System mit zwei Ausg¨angen nur ein Ausgangssignal, so ist die Energiebedingung (4.5.20) nat¨ urlich nicht mehr erf¨ ullt, am Ausgang erscheint i.allg. nur ein Teil der am Eingang eingespeisten Energie. Im Gegensatz zu physikalischen Systemen wird die Differenzenergie nicht ¨ im Innern “verbraucht”. Das System bleibt verlustfrei. Insofern ist die Ubertragbarkeit der Energiebetrachtungen eingeschr¨ankt, nicht dagegen die der Eigenschaften der mit ihrer Hilfe eingef¨ uhrten Systeme.

4.6 Reaktion eines linearen, zeitinvarianten und reellwertigen Systems auf ein Zufallssignal In diesem Abschnitt untersuchen wir die Reaktion eines durch die Impulsantwort h0 (k) beschriebenen linearen und reellwertigen Systems auf eine Zufallsfolge v(k) aus einem ergodischen Prozeß. Es seien der Mittelwert μv , die Varianz σv2 sowie die Autokorrelierte ϕvv (λ) und das zugeh¨orige Leistungsdichtespektrum Φvv (ejΩ ) bekannt. Am Ausgang erscheint dann eine Folge y(k), die ebenfalls Zufallscharakter hat. Wir suchen ihre Beschreibung durch die entsprechenden Gr¨ oßen. Allgemein gilt f¨ ur ein lineares, nicht notwendig kausales System nach Abschn. 4.2, Glchg. (4.2.6), +∞ 

y(k) =

h0 (k − κ) · v(κ) =

κ=−∞

+∞ 

h0 (κ) · v(k − κ) .

κ=−∞

Dann ergibt sich der Mittelwert μy = E {y(k)} =

+∞ 

+∞  h0 (κ) · E {v(k − κ)} = μv · h0 (κ) . : ;< = κ=−∞ κ=−∞ μv

Wegen (4.3.8) folgt μy = μv H(z = 1) = μv H(ej0 ) .

(4.6.1)

Der Mittelwert des Eingangssignals wird also entsprechend der F¨ahigkeit des ¨ Systems zur Ubertragung einer Gleichgr¨ oße u ¨bertragen. F¨ ur die Autokorrelierte der Ausgangsfolge erhalten wir

4.6 Reaktion auf ein Zufallssignal

269

ϕyy (λ) = E {y(k)y(k + λ)}  =E

=

+∞

+∞

μ=−∞ κ=−∞ +∞

+∞

μ=−∞ κ=−∞

h0 (κ) · h0 (μ) · v(k − κ) · v(k + λ − μ)

h0 (κ) · h0 (μ) E {v(k − κ) · v(k + λ − μ)} . : ;< = ϕvv (λ+κ−μ)

Mit = μ − κ folgt ϕyy (λ)=

+∞ 

h0 (κ) ·

κ=−∞

=

+∞ 

+∞ 

h0 ( + κ) · ϕvv (λ − )

=−∞

ϕvv (λ − ) ·

+∞ 

h0 (κ) · h0 ( + κ) = (λ) ∗ ϕvv (λ) .(4.6.2)

κ=−∞

=−∞

Hier ist

(λ) =

+∞ 

h0 (κ) · h0 (λ + κ) = h0 (λ) ∗ h0 (−λ)

(4.6.3a)

κ=−∞

die Autokorrelationsfolge der Impulsantwort. Es gilt Z{ (λ)} = Z{h0 (λ) ∗ h0 (−λ)} = H(z) · H(z −1 )

(4.6.3b)

und (vergleiche (2.5.19b,c))

(0) =

+∞  k=−∞

h20 (k)

1 = 2π



|H(ejΩ )|2 dΩ .

(4.6.3c)

−π

Ist die Eingangsfolge mittelwertfrei, so erh¨ alt man nach Abschnitt 3.2 f¨ ur das Leistungsdichtespektrum am Ausgang Φyy (ejΩ ) = Φvv (ejΩ ) · |H(ejΩ )|2 .

(4.6.4)

Die Bewertung des Leistungsdichtespektrums Φvv (ejΩ ) mit dem Quadrat des Betragsfrequenzgangs liefert also das Leistungsdichtespektrum am Ausgang. ubertragungsfunktion. Entsprechend bezeichnet man |H(ejΩ )|2 als Leistungs¨ Aus (4.6.4) folgt mit (3.2.1b) 1 ϕyy (λ) = 2π



Φvv (ejΩ ) · |H(ejΩ )|2 cos λΩdΩ .

(4.6.5)

−π

Man erkennt hier ebenso wie in (4.6.2), daß das lineare System i.allg. die Autokorrelierte der Folge ver¨ andert. Sie bleibt nur dann – abgesehen von einem

270

4 Diskrete Systeme

konstanten Faktor |H0 | – unge¨ andert, wenn es sich um einen Allpaß handelt, der durch |H(ejΩ )| = |H0 | = const. bzw. (λ) = H02 γ0 (λ) gekennzeichnet ist (s. Abschn. 4.5.2 und 5.6.1). Aus (4.6.5) erh¨ alt man f¨ ur die Varianz des Ausgangssignals σy2

1 = 2π



Φvv (ejΩ ) · |H(ejΩ )|2 dΩ .

(4.6.6a)

−π

Bei Erregung mit weißem Rauschen der Varianz σv2 ergibt sich σy2 = σv2

1 · 2π



|H(ejΩ )|2 dΩ

(4.6.6b)

−π

und daraus mit der Parsevalschen Beziehung (4.6.3c) +∞ 

σy2 = σv2 (0) = σv2 ·

h20 (k) .

(4.6.6c)

k=−∞

Unter Verwendung von (4.6.6a) k¨ onnen wir mit verwandter Argumentation noch einmal die Aussage (3.2.2c) beweisen, daß das Leistungsdichtespektrum nicht negativ werden kann. Dazu nehmen wir an, daß das betrachtete System ein idealisierter Bandpaß ist, der durch  1 |Ω| ∈ [Ω1 , Ω2 ] jΩ |H(e )| = 0 |Ω| ∈| [Ω1 , Ω2 ] mit beliebigen Grenzfrequenzen Ω2 > Ω1 gekennzeichnet ist. Da σy2 die mittlere Leistung am Ausgang beschreibt, gilt σy2

1 = π

Ω2 Φvv (ejΩ )dΩ ≥ 0 ,

∀Ω1 , Ω2 ∈ [0, π] .

Ω1

Das ist aber nur m¨ oglich, wenn Φvv (ejΩ ) ≥ 0 ,

∀Ω

ist, wie bereits in (3.2.2c) angegeben. Weiterhin untersuchen wir die Kreuzkorrelierte von Eingangs- und Ausgangsfolge. Es ist ϕvy (λ) = E {v(k)y(k + λ)}  +∞  = E v(k) h0 (κ) · v(k + λ − κ) κ=−∞

4.6 Reaktion auf ein Zufallssignal

=

+∞  κ=−∞

271

h0 (κ) · E {v(k)v(k + λ − κ)} : ;< = ϕvv (λ−κ)

= h0 (λ) ∗ ϕvv (λ) .

(4.6.7a)

Wird mit weißem Rauschen der Varianz σv2 erregt, so erh¨alt man daraus ϕvy (λ) = σv2 h0 (λ)

(4.6.7b)

und damit eine interessante M¨ oglichkeit zur Messung der Impulsantwort. Die ¨ Uberf¨ uhrung von (4.6.7a,b) in den Spektralbereich liefert

sowie

Φvy (ejΩ ) = H(ejΩ ) · Φvv (ejΩ )

(4.6.8a)

Φvy (ejΩ ) = σv2 · H(ejΩ ) .

(4.6.8b)

In Bild 4.15 werden die hier hergeleiteten Beziehungen zusammenfassend

y(k)

v(k)

μy = H(1) · μv

μv ϕvv (λ)

Φvv (ejΩ )

ϕvy (λ) = h0 (λ) ∗ ϕvv (λ)

ϕyy (λ) = (λ) ∗ ϕvv (λ)

Φvy (ejΩ ) = H(ejΩ ) · Φvv (ejΩ )

Φyy (ejΩ ) = = |H(ejΩ )|2 · Φvv (ejΩ )

Abb. 4.15. Beziehungen zwischen Kenngr¨ oßen bei Erregung eines Systems mit einem stochastischen Signal

dargestellt. Bild 4.16 zeigt die Ergebnisse von Messungen an einem System, das mit mittelwertfreiem, gleichverteilten Rauschen erregt wurde. Die Varianz des Eingangssignals war σv2 = 1/3. Dargestellt sind die gesch¨atzten Autokorrelierten des Eingangs- und des Ausgangssignals jeweils f¨ ur λ ≥ 0 und die Sch¨ atzwerte ihrer Kreuzkorrelierten. Mit MATLAB kann die Autokorrelierte mit dem in Abschnitt 3.3.4 beschriebene Meßverfahren von Rader berechnet werden. Eine Erweiterung der Funktion

272

4 Diskrete Systeme

rader(.) zur Berechnung der Kreuzkorrelierten zweier Eingangsfolgen wird im Anhang, Abschn. 7.1.4.4 angegeben. Um Aliasing-Fehler zu vermeiden, ist jedoch auf eine hinreichende L¨ ange der berechneten Funktion zu achten. G¨ unstiger ist die Verwendung der MATLAB-Funktion xcov (.)(Signal Processing Toolbox) zur Berechnung der Auto- und Kreuzkorrelierten. Mit phi yy=φ ˆ yy (λ), alt man mit dem Aufruf phi yy = L=50 und einer Signalfolge y der L¨ ange 106 erh¨ xconv(y,y,L, unbiased ) die Autokorrelierte und mit phi vy=φ ˆ vy (λ) und phi vy = xconv(v,y,L, unbiased ) die Kreuzkorrelierte zwischen dem Eingangs- und dem Ausgangssignal. •

Bei dem f¨ ur die Kreuzkorrelierte gefundenen Ergebnis erkennt man im Bereich λ < 0 den sich aus der Beschr¨ ankung auf Folgen endlicher L¨ange resultierenden Meßfehler.

0.4

b)

0.2 0 0

0.04 ϕˆyy (λ) −→

ϕˆvv (λ) −→

a)

ϕˆyy (−λ) = ϕˆyy (λ) 0.02 0

10 20 λ −→

0

20

ρ(λ)

40

60

0.04 ϕˆvy (λ) −→

c)

λ −→

0.02 0 −20

0

20 λ −→

40

60

Abb. 4.16. a)b) Gemessene Autokorrelationsfolgen der Eingangs- und Ausgangssignale eines Tiefpasses; c) gemessene Kreuzkorrelierte

Die Frage liegt nahe, wie sich die Verteilungsdichte eines Zufallsprozesses unter dem Einfluß eines linearen Systems ¨ andert. Hier ist eine verh¨altnism¨aßig einfache Aussage m¨ oglich, wenn die einzelnen Werte der Eingangsfolge als voneinander statistisch unabh¨ angig angesehen werden k¨onnen. Die Ausgangsfolge des Systems  h0 (κ) · v(k − κ) y(k) = κ

ist dann eine Linearkombination von statistisch unabh¨angigen Zufallsfolgen. Damit sind aber die Voraussetzungen erf¨ ullt, die wir bei den Untersuchungen u ¨ber Summenprozesse in Abschn. 3.1.5 gemacht haben, so daß wir die dort

4.6 Reaktion auf ein Zufallssignal

273

gefundenen Ergebnisse unmittelbar u ¨bernehmen k¨onnen. Insbesondere gilt, daß ein lineares System einen normalverteilten Prozeß am Eingang stets in einen normalverteilten Prozeß am Ausgang u uhrt, wobei Mittelwert und ¨berf¨ Varianz entsprechend (4.6.1) und (4.6.6b,c) ge¨andert sind (vergl. (3.1.49)). Weiterhin ergibt sich, daß bei Erregung eines linearen Systems mit einem Prozeß beliebiger Verteilungsdichte, bei dem aufeinanderfolgende Werte voneinander statistisch unabh¨ angig sind, am Ausgang n¨aherungsweise ein normalverteilter Prozeß erscheint (vergl. (3.1.51)). Bild 4.17a zeigt die Histogramme zweier mittelwertfreier Prozesse gleicher Varianz, von denen der eine gleich-, der andere normalverteilt ist, Bild 4.17b die Histogramme der zugeh¨origen Ausgangsprozesse. Sie erweisen sich als normalverteilt mit gleicher Varianz.

a)

pˆv (V )

b)

pˆyv (V )

pˆu (V )

0.6

pˆyu (V )

2

0.4 1

0.2 0

−2

0 1 2 V −→ pˆyy (Y1 , Y2 , 3); r3 ≈ 0, 82

c)

−0.4

0 0.4 Y −→ pˆyy (Y1 , Y2 , 9); r9 ≈ −0, 002

d) 0.5 Y2 −→

0.5 Y2 −→

0

−1

7

0.0 4 1 0.25

−0.5 −0.5

0.0 Y1 −→

4

0.0 1 0.25

−0.5 0.5

−0.5

0.0 Y1 −→

0.5

Abb. 4.17. a,b Histogramme zweier mittelwertfreier Eingangsprozesse gleicher Varianz und der zugeh¨ origen Ausgangsprozesse f¨ ur das im Beispiel von Bild 4.16 verwendete System. Die Eingangsprozesse waren gleich- bzw. normalverteilt. c,d H¨ ohenlinien der zweidimensionalen Histogramme der Ausgangsfolge y(k) im gleichen Beispiel. Gew¨ ahlt wurde λ = 3 und λ = 9.

274

4 Diskrete Systeme

Es interessiert weiterhin die Verbundverteilungsdichte des am Ausgang eines linearen Systems erscheinenden Prozesses. Wegen der durch das Filter hervorgerufenen Korrelation erh¨ alt man jetzt an Stelle von (3.1.40g) mit der Abk¨ urzung rλ := ϕyy (λ)/σy2 nach [4.11] pyy (Y1 , Y2 ; λ) =

σy2 2π

2 2 2 2 1 ) · e−(Y1 −2rλ ·Y1 ·Y2 +Y2 )/2σy (1−rλ ) . 1 − rλ2

(4.6.9)

Im Fall der statistischen Unabh¨ angigkeit f¨ ur λ = | 0 ist rλ = 0 und (4.6.9) geht | 0 erh¨ alt man als H¨ ohenlinien in (3.1.40g) u ur rλ = ¨ber. F¨ √ Ellipsen, die um −π/4 gedreht sind. Ihre Halbachsen sind proportional zu 1 ± rλ . Bild 4.17c,d zeigt f¨ ur das hier betrachtete Beispiel die aus den zweidimensionalen Histogrammen ∧ bestimmten H¨ ohenlinien f¨ ur die beiden Werte λ = 3 (= r3 ≈ 0, 81) und ∧ λ = 9(= r9 ≈ −0, 01). Wir bemerken, daß man im Falle normalverteilter Eingangsprozesse die bisher gemachte Voraussetzung einer statistischen Unabh¨angigkeit aufeinanderfolgender Werte fallen lassen kann. Da ein solcher Prozeß stets als Ergebnis einer linearen Filterung einer Folge von statistisch unabh¨angigen Werten aufgefaßt werden kann, schließen wir, daß ein normalverteilter Prozeß auch bei vorliegender Abh¨ angigkeit der Werte beim Durchgang durch ein lineares System normalverteilt bleibt. Die bisherigen Betrachtungen gingen von einem station¨aren Ausgangssignal y(k) aus. Diese Annahme gilt offensichtlich nicht mehr, wenn das station¨ are Zufallssignal v(k) im Punkt k = 0 auf den Eingang des durch h0 (k) beschriebenen kausalen Systems geschaltet wird. Der entstehende Ausgangsprozeß ist f¨ ur k < 0 gleich Null und daher sicher nicht station¨ar. Damit h¨angen z.B. der Mittelwert und die Varianz von der Zeit ab. Man erh¨alt zun¨achst f¨ ur den Mittelwert  k k   h0 (κ) · v(k − κ) = μv h0 (κ) μy (k) = E {y(k)} = E κ=0

κ=0

und mit (4.2.12d) μy (k) = μv · h−1 (k) .

(4.6.10)

Die Varianz des Ausgangsprozesses ist σy2 (k) = E {y 2 (k) − μ2y (k)}  =E

k k μ=0 κ=0

h0 (μ) · h0 (κ) · v(k − μ) · v(k − κ)

− μ2y (k) .

Bei statistischer Unabh¨ angigkeit aufeinander folgender Eingangswerte ist mit (3.1.61b) E {v(k − μ)v(k − κ)} = ϕvv (μ − κ) = σv2 γ0 (μ − κ) + μ2v .

4.6 Reaktion auf ein Zufallssignal

e)

f)

275

0.04

σ ˆy2 (k), σy2 (k) −→

μ ˆy (k), h−1 (k) −→

1 0.8 0.6 0.4 0.2

0.01

0.01 σ ˆy2 (k) σy2 (k)

μ ˆy (k) h−1 (k) 20

40 k −→

60

80



0 −0.01 0

0.02

σy2 (k) −→

μy (k) −→

0 0

0.03

−Δ 20

40 k −→

60

80

0 0 20 −3 x 10 1 2 +σ δ

40 k −→

60

80

40 k −→

60

80

y

0 2 y

−σ δ −1 0

20

Abb. 4.18. Zum Einschwingen eines Systems bei Erregung mit einem bei k = 0 eingeschalteten stochastischen Signal

276

4 Diskrete Systeme

Dann folgt unter Verwendung von (4.6.10)  k  k  k k    2 2 2 2 h0 (μ)h0 (κ)γ0 (μ−κ) + μv h0 (μ) h0 (κ) − h−1 (k) σy (k) = σv μ=0 κ=0

= σv2

k 

μ=0

κ=0

h20 (κ) =: σv2 w(k) .

(4.6.11)

κ=0

Bild 4.18 zeigt die Ergebnisse von Messungen an dem bereits vorher verwendeten Tiefpaß. Als Eingangssignale werden statistisch unabh¨angige Folgen vν (k) aus einem im Intervall [0, 2] gleichverteilten Prozeß verwendet. In den Teilbildern 4.18a und c sind zwei beliebig ausgew¨ahlte Eingangsfolgen gezeigt. Die zugeh¨ origen Reaktionen yν (k) sind daneben in den Teilbildern c und d dargestellt. Teilbild 4.18e zeigt die Ergebnisse μ ˆy (k) der Messung bei Mittelung u ¨ber 2000 Ausgangssignale und das erwartete Ergebnis μy (k) der Sprungantwort h−1 (k) zum Vergleich. Die Untersuchung der Vertrauensintervalle nach Abschnitt 3.3.1 liefert mit (3.3.4a) und mit der f¨ ur k > 20 n¨aherungsweise konstanten Varianz σy2 = 0, 0339, daß mit einer Wahrscheinlichkeit von 95 % der gemessene Wert μ ˆy (k) um Δ ≈ 0, 008 vom Mittelwert μy (k) abweicht. Die Aussage wird durch die Messung und die vergr¨oßerte Darstellung des Fehlers ˆy (k) − μy (k) im Teilbild 4.18e best¨atigt. μy (k) = μ Schließlich wird im Teilbild 4.18f σ ˆy2 (k) zusammen mit σy2 (k) dargestellt. Das Ergebnis basiert auf 20000 Versuchen. Nach (3.3.8b) ergibt sich mit derselben Wahrscheinlichkeit f¨ ur den relativen Fehler δ ≈ 0, 02. Die Darstellung des Fehlers σy2 (k) = σˆy2 (k) − σy2 (k) zeigen, daß die Ergebnisse in den damit gegebenen absoluten Schranken ±σy2 · δ bleiben. Die beschriebenen Messungen k¨ onnen mit MATLAB verifiziert werden. Hierzu wird das zur Erstellung der Diagramme verwendete Programm in ei¨ nem Ubungsbeispiel n¨ aher erl¨ autert, siehe Anhang, Abschn. 7.1.7.

4.7 Multiratensysteme 4.7.1 Einfu ¨ hrung und grundlegende Beschreibung Wir haben bereits an einigen Stellen Systeme behandelt, die am Eingang und Ausgang unterschiedliche Taktraten aufweisen. Insbesondere haben wir in den Abschnitten 2.4.2 und 2.5.5.1 die Spreizung von Folgen und deren Auswirkung auf das Spektrum mit Hilfe der DFT bzw. der Z-Transformation untersucht (siehe die Bilder 2.22 und 2.37g,h). Zu erw¨ ahnen sind hier auch die Bemerkungen zur Interpolation in Abschn. 4.4.4 und ihr enger Zusammenhang mit den in Abschn. 4.4.1 vorgestellten ¨ aquivalenten Folgen. Es handelte sich dabei um einfache Beispiele f¨ ur Multiraten-Systeme, die eine st¨andig wachsende Bedeutung gewinnen. Neben einer Vielzahl von Publikationen zu einzelnen Themen gibt es inzwischen mehrere zusammenfassende Darstellungen [4.12-15].

4.7 Multiratensysteme

277

Dieser Abschnitt bringt eine kurze allgemeine Beschreibung derartiger Systeme im Zeit- und Frequenzbereich zur Vorbereitung des Entwurfs und der eingehenden Untersuchung in Band II. Verwendet werden Elemente einer einheitlichen und systematischen Beschreibung in [4.16]. Das betrachtete System sei linear. Es wird von einer Folge von Werten v(k1 ) erregt, die im zeitlichen Abstand T1 aufeinander folgen. An seinem Ausgang erscheint die Wertefolge y(k2 ), deren Abstand T2 ist. Es gilt also y(k2 ) = S{v(k1 )} , ∀k1 , k2 ∈

.

(4.7.1)

uhrt auf die bisher betrachteten SysteDie Spezialisierung auf T2 = T1 =: T f¨ me, die durch die Impulsantwort h0 (k, κ) nach (4.2.1) bzw. (4.2.3) beschrieben werden. Hier interessiert der Fall eines periodisch zeitvarianten Systems, das neben der allgemeinen Beziehung (4.7.1) zus¨ atzlich durch y(k2 + L2 ) = S{v(k1 + L1 )}, ∀k1 , k2 ∈

(4.7.2)

gekennzeichnet ist [4.16-4.18]. Das System reagiert zeitinvariant auf ein um L1 Takte verschobenes Eingangssignal insofern, als die Ausgangsfolge um L2 Werte verschoben erscheint. Bei Bezug auf die kontinuierliche Zeitskala muß dann (4.7.3a) L1 · T1 = L2 · T2 gelten und damit f¨ ur das Verh¨ altnis der Abtastintervalle bzw. Abtastfrequenzen L2 T1 fa2 = = . (4.7.3b) L1 T2 fa1 Die Impulsantwort dieses Systems ist eine Funktion der beiden Variablen k1 und k2 . Sie unterscheidet sich damit von der mit (4.2.1) eingef¨ uhrten Impulsantwort h0 (k, κ) eines zeitvarianten Systems mit gleichen Taktraten am Eingang und Ausgang. Wir bezeichnen sie mit h(k2 , k1 ). Aus (4.7.2) ergibt sich (4.7.4a) h(k2 , k1 ) = h(k2 + L2 , k1 + L1 ) . F¨ ur die Impulsantwort gilt offenbar die generelle Beziehung h(k2 , k1 ) = h(k2 + L2 , k1 + L1 ) , ∈

,

(4.7.4b)

durch die dieses sogenannte (L2 , L1 )-System gekennzeichnet ist. Man erh¨alt mit ihr zu einer gegebenen Folge v(k1 ) das Ausgangssignal y(k2 ) entsprechend (4.2.4) mit +∞  h(k2 , k1 ) · v(k1 ) . (4.7.5) y(k2 ) = k1 =−∞

Eine Aussage u at ist wieder auf der Basis der kontinuierlichen ¨ber die Kausalit¨ Zeitskala zu formulieren. Ist v(k1 ) der Eingangswert im Zeitpunkt k1 T1 , so origen Reaktion y(k2 ), die Bedingung muß f¨ ur k2 T2 , den Moment der zugeh¨

278

4 Diskrete Systeme

k2 T2 ≥ k1 · T1 bzw. k2 ≥ k1 · T1 /T2 = k1 · L2 /L1 erf¨ ullt sein. Kennzeichnend f¨ ur ein kausales, periodisch zeitvariantes System ist damit h(k2 , k1 ) ≡ 0,

∀k2 < k1

L2 . L1

(4.7.6)

Zur Erl¨ auterung zeigt Bild 4.19 f¨ ur k1 ≥ 0 den Bereich in der k1 , k2 -Ebene, in dem h(k2 , k1 ) von Null verschiedene Werte annehmen kann. Zugleich wird veranschaulicht, daß die zweidimensionale Impulsantwort wegen (4.7.4b) z.B. durch L1 eindimensionale Impulsantworten in Abh¨angigkeit von k2 dargestellt werden kann, die sich hier durch vertikale Schnitte ergeben. F¨ ur k1 = κ1 = 0(1)L1 − 1 definieren wir die Folgen h0κ1 (k2 ) := h(k2 , κ1 ) .

(4.7.7a)

Bei Kausalit¨ at gilt h0κ1 (k2 ) ≡ 0,

∀k2 < κ1

L2 . L1

(4.7.7b)

Zur Erl¨ auterung der Zusammenh¨ ange wurden in den ersten beiden vertikalen Streifen 0 ≤ k1 < L1 und L1 ≤ k1 < 2L1 beispielhaft jeweils 5 Punkte markiert, in denen h(k2 , k1 ) identische Werte annimmt.

Abb. 4.19. Zur Erl¨ auterung der Impulsantwort h0 (k2 , k1 ) eines kausalen periodisch zeitvarianten Systems mit L1 = 5, L2 = 3

¨ Nach der Uberf¨ uhrung von h(k2 , k1 ) in L1 eindimensionale Impulsantworten kann jetzt auch eine Aussage u ¨ber die Stabilit¨at gemacht werden. Ausgehend von (4.7.7a) erweist sich das periodisch zeitvariante System dann als stabil, wenn entsprechend (4.2.13b) gilt

4.7 Multiratensysteme +∞ 

|h0κ1 (k2 )| ≤ M < ∞ ,

∀κ1 = 0(1)L1 − 1 .

279

(4.7.8)

k2 =−∞

Die Darstellungen (4.7.2,4) enthalten das zeitinvariante System als den durch L1 = L2 = 1 gekennzeichneten Spezialfall: Aus (4.7.4b) erh¨alt man mit = −k1 h(k2 , k1 ) = h(k2 − k1 , 0) ∀k1 , k2 ∈ . (4.7.9a) Der Verlauf der Impulsantwort h¨ angt dann nur noch von der Differenz der Argumente ab. Es ergibt sich entsprechend (4.2.6) mit h(k2 −k1 , 0) =: h0 (k2 − k1 ) +∞  h0 (k2 − k1 ) · v(k1 ) . (4.7.9b) y(k2 ) = k1 =−∞

Bei Kausalit¨ at ist hier die Summation nur bis k2 zu f¨ uhren (vergl. (4.2.7)). Eine Beschreibung des Systems im Frequenzbereich erh¨alt man in der folgenden Weise (s. [4.12,19]): Aus (4.7.5) folgt f¨ ur das Ausgangsspektrum Y (ejΩ2 ) =

+∞ 

∗ {y(k2 )} =

+∞ 

h(k2 , k1 )v(k1 )e−jΩ2 k2 .

k2 =−∞ k1 =−∞

Setzt man hier v(k1 ) =

−1 ∗ {V

(e

jΩ1

1 )} = 2π



V (ejΩ1 )ejΩ1 k1 dΩ1

−π

ein, so ergibt sich Y (e

jΩ2

π 1 )= h(k2 , k1 ) V (ejΩ1 ) · ejΩ1 k1 dΩ1 e−jΩ2 k2 2π k2 =−∞ k1 =−∞ −π : ;< = +∞ 

+∞ 

: 1 = 2π

π  +∞

;
k0 ,

(5.1.1a)

y(k) = g[x(k), v(k)],

k ≥ k0

(5.1.1b)

vollst¨ andig beschrieben. Die Zustandsgleichung (5.1.1a) gibt an, wie sich der Zustand des Systems ausgehend von x(k0 ) unter dem Einfluß der Erregung ver¨ andert. Die Ausgangsgleichung (5.1.1b) gestattet die Bestimmung von y(k) aus Zustands- und Eingangsvektor. Die vektoriellen Funktionen f und g sind i.allg. weitgehend beliebig. Wir werden uns hier mit linearen, zeitinvarianten Systemen befassen. F¨ ur sie geht bei bekanntem Anfangszustand x(k0 ) (5.1.1) u ¨ber in

292

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Abb. 5.1. Zur Beschreibung eines Systems mit Zustandsgleichungen

x(k + 1) = A · x(k) + B · v(k), y(k) = C · x(k) + D · v(k),

k ≥ k0 , k ≥ k0 .

(5.1.2a) (5.1.2b)

Die hier auftretenden konstanten Matrizen haben die folgenden Dimensionen A :n × n; B :n × ; C : r × n; D :r × .

(5.1.2c)

In dem wichtigen Fall eines Systems mit einem Eingang und einem Ausgang werden aus den Matrizen B und C die Vektoren b und cT mit jeweils n Elementen und aus D der Skalar d. Es kann zweckm¨aßig sein, (5.1.2a) und (5.1.2b) zu einer einzigen Gleichung zusammenzufassen. Man erh¨alt         x(k + 1) AB x(k) x(k) = · =: S . (5.1.3a) y(k) CD v(k) v(k) Die Systemmatrix

 S=

AB



CD

(5.1.3b)

hat im allgemeinen die Ordnung (n + r) × (n + ). Die Ausf¨ uhrung der in (5.1.2) auftretenden Operationen erfordert offenbar Multiplikationen und Additionen. Neben den entsprechenden arithmetischen Bausteinen ist ein Verz¨ ogerungsglied notwendig, das durch den Operator D{v(k)} = v(k − 1)

(5.1.4)

beschrieben wird. Es speichert einen Wert f¨ ur die Zeit T , die Dauer eines Takts. Seine Impulsantwort ist also h0 (k) = γ0 (k − 1) .

(5.1.5a)

5.1 Vorbemerkungen

293

¨ F¨ ur seine Ubertragungsfunktion folgt nach (4.3.8) daher H(z) = z −1 .

(5.1.5b)

Bild 5.2 zeigt eine Zusammenstellung der Bausteine linearer, diskreter Systeme. Da wir die zu entwickelnden Strukturen in Form von Signalflußgraphen beschreiben werden, in deren Theorie wir im Abschn. 7.2 einf¨ uhren, wurden im rechten Teil des Bildes zus¨ atzlich die graphischen Symbole f¨ ur die Kurzbeschreibung der Bausteine angegeben. Wir hatten sie z.T. schon in Bild 2.23d im Abschn. 2.4.4 verwendet.

Abb. 5.2. Elemente linearer Systeme

Aus (5.1.2) kann man unmittelbar die in Bild 5.3 angegebene realisierende Struktur ablesen. Die hier verwendeten Bausteine gestatten jeweils die Verz¨ ogerung und Addition von Vektoren bzw. ihre Multiplikation mit Matrizen. Sie sind insofern eine Verallgemeinerung der in Bild 5.2 dargestellten Strukturen. ¨ Unsere bisherigen Uberlegungen bedeuten nicht, daß die Beschreibung des betrachteten Systems prim¨ ar z.B. in Form von n gekoppelten Differenzengleichungen erster Ordnung vorliegen muß, wie in (5.1.2a) angegeben. Vielmehr kann die Untersuchung statt dessen z.B. von einer einzigen linearen Differenzengleichung n-ter Ordnung ausgehen, die stets in die Form (5.1.2a) u uhrt ¨berf¨ werden kann. Wir werden das Verfahren in Beispielen vorstellen. Gegenstand dieses Kapitels ist die eingehende Behandlung linearer zeitinvarianter Systeme und der sie beschreibenden Folgen und Funktionen, wobei wir uns meist auf Systeme mit einem Eingang und einem Ausgang beschr¨anken.

294

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Abb. 5.3. Allgemeine Struktur eines linearen Systems n-ter Ordnung mit  Eing¨ angen und r Ausg¨ angen

In realen digitalen Systemen treten alle Gr¨oßen stets mit begrenzter Wortl¨ ange auf. Eine vollst¨ andige Beschreibung erfordert daher, daß neben den oben eingef¨ uhrten Elementen zus¨ atzlich nichtlineare verwendet werden, mit denen z.B. die durch die arithmetischen Operationen vergr¨oßerte Wortl¨ange der Variablen wieder reduziert wird (s. Abschn. 3.5.2). Reale diskrete Systeme sind in der Regel nichtlinear. Die vorl¨ aufige Beschr¨ankung auf lineare Systeme vereinfacht die folgende Untersuchung erheblich, liefert aber nur eine angen¨aherte Beschreibung realer Gebilde. Die dabei erreichte Genauigkeit kann allerdings durch Vergr¨ oßerung der Wortl¨ ange beliebig gesteigert werden. Wortl¨angeneffekte im Zusammenhang mit Entwurfs- und Realisierungsproblemen werden wir in einem weiteren Band untersuchen.

5.2 Beschreibung und Basisstrukturen linearer Systeme 5.2.1 Einfu ¨ hrende Beispiele zu Systemen 2. Ordnung Direkte Strukturen Wir betrachten ein System, das durch die Differenzengleichung 2. Ordnung y(k + 2) + c1 y(k + 1) + c0 y(k) = b2 v(k + 2) + b1 v(k + 1) + b0 v(k) (5.2.1a) beschrieben werde. Sind die Werte y(k0 +1) und y(k0 ) sowie die Eingangswerte v(k) mit k ≥ k0 bekannt, so lassen sich daraus offenbar die Ausgangswerte y(k) ogliche Struktur des Systems erh¨alt mit k ≥ k0 + 2 rekursiv berechnen. Eine m¨ man, wenn man (5.2.1a) nach y(k + 2) aufl¨ ost und auf die ganze Gleichung zweimal die Verz¨ ogerungsoperation anwendet. Es ergibt sich nach Umformung y(k) = b2 v(k) + D{D{b0 v(k) − c0 y(k)} + b1 v(k) − c1 y(k)} .

(5.2.1b)

5.2 Beschreibung und Basisstrukturen linearer Systeme

295

Das durch diese Gleichung beschriebene Strukturdiagramm zeigt Bild 5.4a. Es gibt zugleich die Anordnung der Grundbausteine zum Verz¨ogern, Multiplizieren und Addieren von Werten in einem System an, f¨ ur das die Differenzengleichung (5.2.1) gilt. Bild 5.4b zeigt den zugeh¨ origen Signalflußgraphen.1 Die Koeffizienten der Differenzengleichung werden direkt“ im Z¨ ahler und Nenner des Signalfluß” graphen realisiert. Dies f¨ uhrte zu der Bezeichnung direkte Struktur“. Die ” Zahl der ben¨ otigten speichernden Elemente entspricht der Ordnung der Differenzengleichung; die angegebene Struktur ist in diesem Sinne kanonisch.

Abb. 5.4. Strukturen f¨ ur Systeme zweiter Ordnung. a) erste Struktur; b) zugeh¨ origer Signalflußgraph; c) transponierte erste Struktur; d) zweite Struktur; e) zweite Struktur in nichtkanonischer Form

Der Zustand des Systems wird durch Angaben u ¨ber den Inhalt der Speicher beschrieben. F¨ ur eine allgemeine Darstellung eines durch lineare Differenzengleichungen mit konstanten Koeffizienten beschriebenen Systems f¨ uhren wir daher die am Ausgang der Verz¨ ogerer erscheinenden Gr¨oßen als Zustandsvariable ein. Mit x2 (k) = D{b0 v(k) − c0 y(k)} , 1

Wie schon in Abschn. 2.4.4 wird zur Vereinfachung der Darstellung auf die Angabe des Faktors 1 verzichtet.

296

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

x1 (k) = D{x2 (k) + b1 v(k) − c1 y(k)} y(k) = x1 (k) + b2 v(k) erh¨ alt man x1 (k + 1) = −c1 x1 (k) + x2 (k) + (b1 − b2 c1 )v(k) , x2 (k + 1) = −c0 x1 (k)

+ (b0 − b2 c0 )v(k) .

F¨ ur den Anfangszustand x(k0 ) findet man x1 (k0 ) = y(k0 ) − b2 v(k0 ) , x2 (k0 ) = c1 y(k0 ) + y(k0 + 1) − b2 v(k0 + 1) − b1 v(k0 ) . Zusammenfassend ergibt sich als Spezialisierung von (5.1.2) auf ein System mit einem Eingang und einem Ausgang x(k + 1) = Ax(k) + bv(k) , y(k) = cT x(k) + dv(k)

(5.2.2a) (5.2.2b)

mit x(k) = [x1 (k), x2 (k)]T , ⎡ A =: A1 = ⎣

−c1 −c0

cT =: cT1 = [c11

1





⎦;

b =: b1 =

0 c12 ] = [1

0] ;

b11 b12

⎡ =⎣

b 1 − b 2 c1

⎤ ⎦;

(5.2.3a)

b 0 − b 2 c0

d =: d1 = b2 .

Die in Bild 5.4a, b dargestellte erste kanonische Struktur eines Systems 2. Ordnung ist eine von zahlreichen m¨ oglichen. Eine zweite erhalten wir durch Transponierung des Signalflußgraphen, einer Operation, bei der hier in allen Zweigen die Pfeilrichtungen ge¨ andert werden. Im Abschn. 7.2 wird f¨ ur ein System mit einem Eingang und einem Ausgang gezeigt, daß sich dabei die ¨ Ubertragungsfunktion nicht ¨ andert. Hier entsteht aus dem Signalflußgraphen von Bild 5.4b zun¨ achst der von Bild 5.4c mit den Werten ⎡ ⎡ ⎤ ⎤

−c1 −c0 1 b 01 T ⎣ ⎣ ⎦ ⎦; = c1 = ; b0 = A0 =: A1 = b02 1 0 0 (5.2.3b) cT0 = [c01

c02 ] = [b1 − b2 c1

b 0 − b 2 c0 ] ;

d0 = b 2 .

Nach Umklappen des Graphen erhalten wir mit den neuen Bezeichnungen X1 =: X20 , X2 =: X10 schließlich das Bild 5.4d, das eine zweite m¨ogliche Anordnung f¨ ur die Realisierung des Systems darstellt. Sie wird im Zustandsraum durch die Gr¨ oßen

5.2 Beschreibung und Basisstrukturen linearer Systeme

⎡ A2 = ⎣

0

1

⎤ ⎦;

−c0 −c1

⎡ ⎤ 0 b2 = ⎣ ⎦ ; 1

cT2 = [c21

c22 ] = [b0 − b2 c0

297

b 1 − b 2 c1 ] ;

d2 = b 2 (5.2.3c) beschrieben. Der Vergleich mit (5.2.3a) zeigt, daß gilt ⎡ ⎡ ⎡ ⎤ ⎤ ⎤ 0 1 0 1 0 1 ⎣ ⎦ ; b2 = ⎣ ⎦ AT1 ⎣ ⎦ c1 ; A2 = 1 0 1 0 1 0 ⎡ cT2 = bT1 ⎣

0

1

1

0

(5.2.3d)

⎤ ⎦;

d2 = d1 .

Neben der n¨ otigen Transponierung wird hier die Vertauschung der Reihenfolge der Variablen ber¨ ucksichtigt. Die in Bild 5.4d dargestellte Struktur ist ebenfalls eine direkte“ Realisierung der Differenzengleichung und wird im ” folgenden als 2. kanonische Struktur bezeichnet. F¨ ur die Realisierung kann die in Bild 5.4e angegebene Version dieser Struktur von Interesse sein. Sie ist nichtkanonisch, da sie vier speichernde Elemente enth¨ alt, ben¨ otigt aber nur einen Summierer. Zustandsraumstrukturen F¨ ur die ersten beiden Strukturen nach Bild 5.4 werden mit (5.2.3) die Zustandsgleichungen angegeben. Wie man sieht, treten nur die Koeffizienten c1 und c0 direkt als Elemente der Zustandsraummatritzen auf. Der Eingangsvektor b in (5.2.3a) und der Ausgangsvektor cT in (5.2.3c) ergeben sich dagegen durch Kombination mehrerer Koeffizienten. Gesucht werden Strukturen, die die Zustandsgleichungen direkt in eine realisierbare Struktur u ¨bertragen. In Bild 5.3 wird das Blockschaltbild eines linearen Systems n-ter Ordnung in Matrix-Schreibweise angegeben. Wir l¨ osen nun die Matrix-Operationen f¨ ur ein System 2. Ordnung auf und erhalten die Struktur nach Bild 5.5, bei der alle neun m¨oglichen Variablen der Zustandsgleichungen als Multiplizierer enthalten sind. Diese Struktur wird als vollst¨ andige Zustandsraumstruktur bezeichnet. Im Zusammenhang mit der Programmierung von Systemen werden wir diese Struktur auch mit ssf-Form (state space f orm) bezeichnen. Eine Differenzengleichung 2. Ordnung kann bereits mit 5 Koeffizienten eindeutig realisiert werden. Somit ist die Zustandsraumstruktur mit 9 Koeffizienten u atzlichen Freiheitsgrade erm¨oglichen eine Optimie¨berbestimmt. Die zus¨ rung der Empfindlichkeit einzelner Koeffizienten und der Quantisierungsfehler bei der Realisierung der Zustandsvariablen mit endlicher Wortl¨ange [5.3, 5.24, 5.26].

298

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Abb. 5.5. Vollst¨ andige Zustandsraumstruktur 2. Ordnung mit 9 Koeffizienten

Die Realisierung der Zustandsgleichungen nach (5.2.3a) und (5.2.3c) erm¨ oglichen die Angabe weiterer kanonischer Strukturen f¨ ur Systeme 2. Ordnung. Wie man aus Bild 5.6a,c,e im Vergleich zu Bild 5.5 entnehmen kann, bleiben bei diesen Strukturen einige Pfade unbesetzt oder enthalten feste Verbindungen. Die Zustandsgleichung (5.2.3a) wird mit der Struktur nach Bild 5.6a realisiert. Durch entsprechende Umzeichnung erh¨alt man das Blockdiagramm in Bild 5.6b in der gewohnten Form. Im Vergleich zur Struktur nach Bild 5.4a wurde hierbei die Summation des direkten Pfads hinter den R¨ uckkopplungspunkt verschoben. In Anlehnung an die Nomenklatur der direkten Strukturen bezeichnen wir diese als 1. kanonische Zustandsraumstruktur oder ss1-Form (state space 1). Entsprechend l¨ aßt sich nach (5.2.3b) mit Bild 5.6c und d die hierzu transponierte Struktur angeben. Mit einer Umbenennung der Zustandsspeicher ergibt sich schließlich in Bild 5.6e,f die 2. kanonische Zustandsraumstruktur nach (5.2.3c). Dabei ist auf die unterschiedliche Bezeichnung der Z¨ ahlerkoeffizienten zu achten. Bez¨ uglich der vollst¨andigen Zustandsraumstruktur, Bild 5.5, entspricht dies einer Spiegelung an der horizontalen Achse. ¨ Wir bezeichnen diese auch als ss2-Form, siehe die Ubersicht zu den Strukturen im Anhang, Abschn. 7.1.2. ¨ Zur Herleitung der Ubertragungsfunktion der Systeme gehen wir entspre¨ chend der Uberlegung in Abschn. 4.3 von einer bei k = −∞ einsetzenden ur exponentiellen Erregung v(k) = V (z)z k mit |z| > 1 aus und verwenden f¨ die L¨ osung von (5.2.1) den Ansatz y(k) = Y (z)z k . Dann ergibt sich aus (z 2 + c1 z + c0 )Y (z)z k = (b2 z 2 + b1 z + b0 )V (z)z k ¨ die Ubertragungsfunktion H(z) =

Y (z) b2 z 2 + b1 z + b0 = 2 V (z) z + c1 z + c0

und f¨ ur z = ejΩ der Frequenzgang

(5.2.4a)

5.2 Beschreibung und Basisstrukturen linearer Systeme

299

Abb. 5.6. Kanonische Zustandsraumstrukturen f¨ ur Systeme zweiter Ordnung in unterschiedlicher Darstellung der Flußgraphen. a,b) 1. kan. Zustandsraumstruktur; c,d) direkte Transponierung der Struktur nach a,b; e,f) 2. kan. Zustandsraumstruktur nach Umbenennung der Koeffizienten.

H(ejΩ ) =

b2 ej2Ω + b1 ejΩ + b0 . ej2Ω + c1 ejΩ + c0

(5.2.4b)

Wir k¨ onnen ebenso von (5.2.2) ausgehen. Mit dem Ansatz x(k) = X(z)z k erh¨ alt man zun¨ achst aus der Zustandsgleichung zX(z)z k = AX(z)z k + bV (z)z k und damit f¨ ur den Vektor der komplexen Amplituden X(z) = (zE − A)−1 bV (z) .

(5.2.5a)

300

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Die Ausgangsgleichung (5.2.2b) f¨ uhrt dann auf H(z) = cT (zE − A)−1 b + d .

(5.2.5b)

Setzt man hier die in (5.2.3a) und (5.2.3b) gegebenen Parameter der beiden behandelten Strukturen ein, so ergibt sich jeweils wieder (5.2.4). ¨ Die Koeffizienten der Differenzengleichung (5.2.1) bzw. der Ubertragungsfunktion erscheinen unmittelbar als Parameter in den Strukturen von Bild 5.4. Sie werden daher vielfach als direkte Strukturen bezeichnet. ∧

In MATLAB kann die Umrechnung der mit den Koeffizienten b = [b2 b1 b0 ] ∧ ¨ in die Zustandsgleichung nach und c = [1 c1 c0 ] gegebenen Ubertragungsfunktion (5.2.3b) mit dem Befehl [A,B,C,D]=tf2ss(b,c) durchgef¨ uhrt werden. Als Ergebnis erhalten wir mit

! " −c1 −c0 1 ∧ ∧ ∧ A = A0 = ; C = cT0 = b1 − b2 c1 b0 − b2 c0 ; ; B = b0 = 0 1 0 ∧ D = d = b2 die gespiegelte“ zweite kanonische Zustandsraumstruktur. Des weiteren besteht ” die M¨ oglichkeit die Zustandsgleichungen f¨ ur eine durch die Null- und Polstellen, " " !T !T ∧ ∧ ∧ ¨ und dem Faktor k = bm gegebene Ubertraz = z = z1 z2 ; p = p = p1 p2 gungsfunktion zu berechnen. Hierzu werden zun¨ achst mit dem Befehl [z,p,k]=tf2zp(b,c) die Null- und Polstellen berechnet. Mit dem Befehl [A3,B3,C3,D3]=zp2ss(z,p,k) ergeben sich hieraus die Zustandsraummatrizen. Entsprechend [7.2] erhalten wir f¨ ur diese Transformation >)   −(p1 + p2 ) −p1 p2 |p1 p2 | 1 ∧ ∧ A3 = A3 = ; ; B3 = b3 = ) 0 0 + |p1 p2 | (5.2.3e)

z1 z2 − p1 p2 ∧ ∧ T ) ; D3 = d3 = k . C3 = c3 = bm p1 + p2 − z1 − z2 |p1 p2 | Die so gewonnene Struktur ist jedoch nicht kanonisch bez¨ uglich der Anzahl von Multiplikationen. Es sei nochmals vermerkt, daß die Befehle tf2ss(.) und zp2ss(.) zu unterschiedlichen Zustandsraummatrizen f¨ uhren. Die jeweiligen R¨ ucktransformationen lassen sich mit den Funktionen ss2tf(.) und ss2zp(.) angeben. Zur Berechnung der Koeffizienten eines Blocks 2. Grades in der Zustandsraumstruktur (ssf-Form) wird auf den Befehl sos2ssf(.) der DSVBibliothek im Anhang, Abschn. 7.1.4.3 verwiesen. •

5.2.2 Verallgemeinerung ¨ Die bisherigen Uberlegungen lassen sich unmittelbar auf Systeme n-ter Ordnung verallgemeinern. F¨ ur die beiden direkten Strukturen soll dies hier n¨aher erl¨ autert werden. Wir gehen dazu von

5.2 Beschreibung und Basisstrukturen linearer Systeme n 

cν y(k + ν) =

ν=0

m 

bμ v(k + μ),

cn = 1 ,

301

(5.2.6)

μ=0

aus. Wegen der vorausgesetzten Kausalit¨ at muß hier m ≤ n sein. Ohne Einschr¨ ankung der Allgemeing¨ ultigkeit setzen wir im folgenden m = n. Mit xν (k) = D{−cn−ν x1 (k) + xν+1 (k) + (bn−ν − bn cn−ν )v(k)} ,

ν = 1(1)n ,

y(k) = x1 (k) + bn v(k) , wobei xν (k) = 0, ∀ν > n, folgt wieder (5.2.2). Hier gilt jetzt in Verallgemeinerung von (5.2.3a) ⎡ ⎤ ⎤ ⎡ −cn−1 1 0 . . . 0 bn−1 −bn cn−1 ⎢ ⎥ ⎢ bn−2 −bn cn−2 ⎥ ⎢ −cn−2 0 1 . . . 0 ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ .. ⎥ ; b =: b1 = ⎢ . . . . A =: A1=⎢ ⎥; ⎢ .. . . . . ⎥ . ⎢ .. ⎥ ⎢ ⎥ ⎢ ⎣ b1 −bn c1 ⎦ ⎣ −c1 0 . . . 0 1 ⎦ b0 −bn c0 −c0 0 . . . . . . 0 cT =: cT1 =[1, 0, . . . , 0];

d =: d1 = bn .

(5.2.7a)

Bild 5.7a zeigt den Signalflußgraphen der zugeh¨origen Struktur. Sie ist offenbar immer angebbar, die Zahl ihrer Speicher ist minimal und gleich der Ordnung der Differenzengleichung. Es handelt sich um eine kanonische Struktur. Durch die eben bei dem System zweiter Ordnung beschriebene Transponierung mit anschließender Umkehrung der Reihenfolge der Zustandsvariablen erh¨ alt man die in Bild 5.7b dargestellte zweite kanonische Struktur. F¨ ur sie gilt in Verallgemeinerung von (5.2.3b) ⎡

0 ⎢ 0 ⎢ ⎢ .. ⎢ . A2 = ⎢ ⎢ . ⎢ .. ⎢ ⎣ 0 −c0

⎤ 0 0 ... 0 1 0 ... 0 ⎥ ⎥ .. ⎥ .. .. .. . . . . ⎥ ⎥; ⎥ .. .. . . 0 ⎥ ⎥ ... ... ... 0 1 ⎦ −c1 −c2 . . . . . . −cn−1 1 0

⎡ ⎤ 0 ⎢0⎥ ⎢ ⎥ ⎢ .. ⎥ ⎢.⎥ ⎥ b2 = ⎢ ⎢.⎥ ⎢ .. ⎥ ⎢ ⎥ ⎣0⎦ 1

cT2 = [b0 − bn c0 , b1 − bn c1 , . . . , bn−1 − bn cn−1 ] ; ⎡ ⎤ 0 ... 1 ⎢ ⎥ Entsprechend (5.2.3c) ist mit Jn = ⎣ ... ··· ... ⎦

(5.2.7b)

d =: d2 = bn .

1 ... 0 A2 = Jn AT1 Jn ,

b2 = Jn c1 ,

c2 = bT1 · Jn ,

d2 = d 1 .

(5.2.7c)

302

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

A2 wird auch als Frobenius-Matrix bezeichnet. Ebenso wie in Bild 5.4e f¨ ur ein System 2. Ordnung gezeigt, l¨ aßt sich auch im allgemeinen Fall eine nichtkanonische Struktur f¨ ur die zweite direkte Form angeben, die nur einen Summierer, aber 2n Speicher enth¨ alt. Auf die Darstellung wird hier verzichtet. In der englischsprachigen Literatur werden nach Oppenheim [Opp99] die hier gezeigten kanonischen Strukturen auch mit df2t-Form (direct f orm 2 transposed), mit df2-Form (siehe Bild 5.7a,b) und die beschriebene nichtka¨ nonische Struktur entsprechend mit df1-Form bezeichnet. Eine Ubersicht u ¨ber die Bezeichnung der verschiedenen Strukturen wird im Anhang, Abschn. 7.1.3 gegeben.

Abb. 5.7. Erste und zweite direkte Struktur eines Systems n-ter Ordnung

¨ F¨ ur die Ubertragungsfunktion erh¨ alt man auf dem f¨ ur ein System 2. Ordnung beschriebenen Wege m bμ z μ Z(z) μ=0 . (5.2.8) H(z) = = n N (z) cν z ν ν=0

Ausgehend von (5.2.8) entwickeln wir zwei weitere kanonische Strukturen. Sind z0μ die Nullstellen des Z¨ ahler- und z∞ν die des Nennerpolynoms von H(z), so gilt allgemein m ' μ=1

H(z) = bm ' n

ν=1

(z − z0μ ) ,

(5.2.9)

(z − z∞ν )

wobei wir wieder ohne Beschr¨ ankung der Allgemeing¨ ultigkeit cn = 1 angenommen haben. Wir setzen jetzt ein reellwertiges System voraus, f¨ ur das

5.2 Beschreibung und Basisstrukturen linearer Systeme

303

nach (4.3.11) H(z ∗ ) = H ∗ (z) gilt. Dann sind Pol- und Nullstellen, soweit sie nicht reell sind, paarweise zueinander konjugiert komplex. Durch Ausmultiplikation entsprechender Linearfaktoren erh¨ alt man Polynome 2. Grades mit reellen Koeffizienten. Kaskadenanordnung Die Gesamt¨ ubertragungsfunktion kann man in der Form H(z) =

 (

Hλ (z)

(5.2.10)

λ=1

¨ von reellwertigen darstellen, wobei die Hλ (z) die Ubertragungsfunktionen Teilsystemen sind. Beschr¨ anken wir uns auf Teilsysteme maximal 2. Ordnung, so sind (2)

Hλ (z) =

(z − z0λ )(z − z0(λ+1) ) b2λ z 2 + b1λ z + b0λ = b2λ 2 z + c1λ z + c0λ (z − z∞λ )(z − z∞(λ+1) )

und (1)

Hλ (z) =

z − z0λ b1λ z + b0λ = b1λ z + c0λ z − z∞λ

(5.2.11a)

(5.2.11b)

¨ die m¨ oglichen zugeh¨ origen Ubertragungsfunktionen. F¨ ur m < n wird bei mindestens einem der Teilsysteme der f¨ uhrende Koeffizient des Z¨ahlerpolynoms verschwinden. Weiterhin gilt bm =

 (

b iλ λ ,

(5.2.11c)

λ=1

wenn im λ-ten Teilsystem das Z¨ ahlerpolynom von Grad iλ ist. Welche Nullstellen und Pole bzw. Null- und Polstellenpaare zu Teilsystemen zusammengefaßt werden, ist zun¨ achst gleichg¨ ultig. Ebenso f¨ uhrt nat¨ urlich die Darstellung nach (5.2.10) nicht auf eine ganz bestimmte Reihenfolge der Teilsysteme. Die Wahl der Zuordnung von Polen und Nullstellen und der Reihenfolge der Teilsysteme ist Gegenstand der Untersuchungen zur Reduzierung von Quantisierungsfehlern bei Systemen endlicher Wortl¨ange. Siehe hierzu auch [5.24, 5.26]. Die Struktur der sich ergebenden Anordnung zeigt Bild 5.8a f¨ ur den Fall, daß m = n = 2 ist, also alle Teilsysteme den Grad 2 haben und in der ersten kanonischen Form dargestellt werden. Diese Kaskadenanordnung wird in der englischsprachigen Literatur auch mit df2tsos-Form ( Second Order Sections“ ” in der zweiten transponierten Form nach [5.25]) bezeichnet. Entsprechend zeigt das Bild 5.8b die Kaskade mit Bl¨ ocken 2. Ordnung in der 2. kanonischen Form (df2sos-Form). Das Teilbild c illustriert, daß bei Verwendung der in Bild 5.4e vorgestellten nichtkanonischen Version der zweiten Form n + 2 Speicher

304

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Abb. 5.8. Kaskadenstruktur eines Systems n-ter Ordnung. a) Teilsysteme in 1. kanonischer Stuktur (df2tsos-Form); b) in der 2.kanonischen Struktur (df2sos-Form); c) in der 2. nichtkanonischen Struktur (df1sos-Form)

erforderlich sind. Die Strukturen f¨ ur den Fall anderer Teilsysteme oder f¨ ur m < n lassen sich leicht entsprechend finden. Wir betrachten kurz den Zusammenhang zwischen den Koeffizienten der (2) in (5.2.11a) angegebenen Teil¨ ubertragungsfunktion Hλ (z) und den Polen und Nullstellen. Die beschriebene Ausmultiplikation der Linearfaktoren von (5.2.11a) liefert beim Nennerpolynom allgemein c0λ = z∞(2λ−1) z∞(2λ) , c1λ = −(z∞(2λ−1) + z∞(2λ) )

(5.2.12a)

∗ und speziell bei z∞(2λ−1) = z∞(2λ) = ∞(2λ−1) ejψ∞(2λ−1) :

c0λ = 2∞(2λ−1) , c1λ = −2 Re {z∞(2λ−1) } = −2 ∞(2λ−1) cos ψ∞(2λ−1) .

(5.2.12b)

5.2 Beschreibung und Basisstrukturen linearer Systeme

305

Bild 5.9 veranschaulicht, wie die Ver¨ anderung der Koeffizienten die Lage von alt man f¨ ur die Koeffizienten der z∞λ beeinflußt. Entsprechende Aussagen erh¨ Z¨ ahlerpolynome.

Abb. 5.9. Variation der Pollagen bei Ver¨ anderung der Nennerkoeffizienten eines Blocks 2. Ordnung

Die Zustandsgleichungen f¨ ur die Kaskadenform sind verh¨altnism¨aßig kompliziert. Um sie herzuleiten, nehmen wir an, daß das separate λ-te Teilsystem durch xλ (k + 1) = Aλ xλ (k) + bλ vλ (k) yλ (k)

= cTλ xλ (k) + dλ vλ (k)

mit xλ (k) = [x2λ−1 (k),

x2λ (k)]

beschrieben wird. F¨ ur die Kaskadenform ist kennzeichnend, daß vλ (k) = yλ−1 (k) = cTλ−1 xλ−1 (k) + dλ−1 vλ−1 (k) ist. Damit folgt in der Kaskade xλ (k + 1) = bλ cTλ−1 xλ−1 (k) + Aλ xλ (k) + bλ dλ−1 vλ−1 (k) yλ (k)

= dλ cTλ−1 xλ−1 (k) + cTλ xλ (k) + dλ dλ−1 vλ−1 (k) .

Hier ist entsprechend vλ−1 (k) = yλ−2 (k) einzusetzen. So ist fortzufahren, bis man mit v1 (k) = v(k) zur Eingangsfolge des Gesamtsystems kommt. Man erh¨ alt zusammenfassend

306



5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

x1 (k + 1)





A1

0

⎢ ⎥ T ⎢ x2 (k + 1) ⎥ ⎢ ⎢ ⎥ ⎢ b2 c1 A2 ⎢ x (k + 1) ⎥ = ⎢ ⎢ 3 ⎥ ⎢ b d cT b cT ⎣ ⎦ ⎣ 3 .2 1 3. 2 .. .. .. .

0 0... 0 0 A3 0 .. .

⎤ ⎤ ⎡ x (k) ⎤ ⎡ b 1 1 ⎥ ⎢ ⎥ ⎥⎢ x2 (k) ⎥ ⎢ b2 d1 ⎥ ⎥⎢ ⎢ ⎥ ⎥ ⎢ ⎥⎢ + ⎢ b d d ⎥ · v(k) ⎥ ⎢ x3 (k) ⎥ 3 2 1⎥ ⎢ ⎥ ⎦⎣ ⎦ ⎦ ⎣ .. .. . . ⎡

x1 (k)





⎢ ⎢ x2 (k) ⎥ '  ⎥ ⎢ y(k) = dλ · dλ · dλ · d · v(k) ⎢ x (k) ⎥ + ⎥ λ=1 λ ⎢ 3 λ=2 λ=3 λ=4 ⎦ ⎣ .. . (5.2.13) Dieses Ergebnis gilt f¨ ur die Kaskadenschaltung von beliebigen Teilsystemen mit jeweils einem Eingang und einem Ausgang, ist also nicht auf Bl¨ocke maximal 2. Ordnung beschr¨ ankt. In diesem Fall haben dann die Zustandsteilvektoren xλ jeweils die Dimension, die dem Grad des entsprechenden Blocks entspricht. Bei der Anwendung auf die in Bild 5.8c angegebene Struktur geht ¨ man dabei zweckm¨ aßig von den Teilsystemen mit den folgenden Ubertragungsfunktionen aus

 '

cT1 ;

 '

cT2 ;

 '

cT3 ; . . .

b21 z 2 + b11 z + b01 , z2 b2λ z 2 + b1λ z + b0λ Hλ (z) = 2 , z + c1(λ−1) z + c0(λ−1) 1 H+1 (z) = 2 . z + c1 z + c0 H1 (z) =

λ = 2(1)

Kennzeichnend f¨ ur die Kaskadenstruktur ist, daß die A-Matrix des Gesamtsystems l¨ angs der Hauptdiagonalen die Matrizen Aλ der Teilsysteme enth¨ alt. Die Kopplung zwischen den Bl¨ ocken wird durch die Elemente unterhalb der Hauptdiagonalen beschrieben. Neben der Kaskadenanordnung mit Bl¨ ocken 2. Ordnung in den direkten Formen kann die Zustandsraumstruktur, Bild 5.5, mit normalisierten oder optimierten Koeffizienten zur Bildung der Teilsysteme verwendet werden, siehe [5.24] und [5.26]. Daneben k¨ onnen auch die in Abschn. 6 vorgestellten weiteren rekursiven Strukturen als Bl¨ ocke 2. Ordnung eingesetzt werden. Parallelanordnung Die vierte kanonische Struktur folgt aus einer Partialbruchentwicklung von H(z). Wir beschr¨ anken uns zur Vereinfachung der Darstellung auf den praktisch wichtigen Fall, daß alle Polstellen von H(z) verschieden sind. Man erh¨alt in diesem Fall

5.2 Beschreibung und Basisstrukturen linearer Systeme

307

n

bμ z μ n  Bν Z(z) μ=0 = ' H(z) = + = B ∞ n N (z) z − z∞ν ν=1 (z − z∞ν )

(5.2.14a)

ν=1

mit B∞ = lim H(z) = bn , z→∞

Bν

Z(z∞ν ) . = lim (z − z∞ν )H(z) =  z→z∞ν N (z∞ν )

(5.2.14b)

Die einzelnen Terme in (5.2.14a) beschreiben Teilsysteme, deren Parallelan¨ ordnung zu einem System mit der darzustellenden Ubertragungsfunktion H(z) f¨ uhrt. Wir bezeichnen die so erhaltene Struktur als Parallelstruktur 1. Art. Die Partialbruchzerlegung nach (5.2.14) kann mit MATLAB an den Polstellen uhrt werden (siehe Abschn. 2.5.4). Hierz = z∞ mittels Residuenrechnung durchgef¨ ∧ ∧ zu steht mit Bi = Bν und Bn = B∞ der Befehl [Bn,p,Bi] = residue(b,c) zur • Verf¨ ugung.

¨ der TeilBei reellen Werten von z∞ν ergibt sich die Ubertragungsfunktion systeme sofort als b0ν Hν(1) (z) = (5.2.15a) z + c0ν mit b0ν = Bν , c0ν = −z∞ν . ∗ sind die Bei zueinander konjugiert komplexen Polstellen z∞ν und z∞ν ¨ entsprechenden beiden Terme in (5.2.14a) zu einer Ubertragungsfunktion mit reellen Koeffizienten zusammenzufassen. Dann ist Hν(2) (z) = mit

c1ν = −2 Re {z∞ν } , b1ν = 2 Re {Bν } ,

b1ν z + b0ν z 2 + c1ν z + c0ν

(5.2.15b)

c0ν = |z∞ν |2 , ∗ b0ν = −2 Re {Bν z∞ν }.

(5.2.15c)

Ist n1 die Zahl der reellen und 2 n2 die Zahl der komplexen Polstellen, so gilt f¨ ur die Zahl der Teilsysteme = n1 + n2 . Dabei sind entsprechend n1 Teilsysteme vom Grad 1 und n2 Teilsysteme vom Grad 2 vorhanden. Wir erhalten deshalb H(z) = bn +

n1 

Hν(1) (z)

+

ν=1

Wir ordnen die Pole jetzt derart an, daß gilt:

n2  ν=1

Hν(2) (z) .

(5.2.16a)

308

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

z∞1 , . . . z∞n2 , komplexe Pole, z∞,n2 +1 , . . . z∞ , reelle Pole, ∗ λ = 1(1)n2 . z∞,+λ = z∞,λ Damit wird H(z) = bn +

 

Hλ (z) ,

(5.2.16b)

λ=1

ur λ = 1(1)n2 vom Grad 2 sind und f¨ ur λ = wobei die Teilsysteme Hλ f¨ n2 + 1(1) vom Grad 1. Bild 5.10 zeigt die sich ergebende Struktur f¨ ur den Fall, daß mindestens eins der Teilsysteme zweiter Ordnung und eins erster Ordnung ist. Die Teilsysteme wurden wieder in der ersten kanonischen Struktur dargestellt. Werden sie durch xλ (k + 1) = Aλ xλ (k) + bλ v(k) = cTλ xλ (k) + dλ v(k)

yλ (k)

beschrieben, so sind die Gleichungen f¨ ur das Gesamtsystem ⎤ ⎡ ⎡ ⎡ ⎤ ⎤ ⎡ ⎤ A1 0 . . . 0 b1 x1 (k) x1 (k + 1) . . .. ⎥ ⎢ x2 (k) ⎥ ⎢ b2 ⎥ ⎢ x2 (k + 1) ⎥ ⎢ ⎢ ⎥ . . ⎥ ⎢ ⎥ ⎢ 0 A2 ⎢ ⎥ ⎢ ⎥ ⎢ .. ⎥=⎢ . ⎥ + ⎢ .. ⎥ · v(k) , .. ⎥·⎢ ⎣ ⎣. ⎦ ⎣ . ... ... ⎦ ⎣ . ⎦ . . 0 ⎦ x (k + 1) (k) b x  0 . . . 0 A y(k) =

 λ=1

=

(5.2.17a)

yλ (k) + bn v(k) , (5.2.17b)

[cT1 , cT2 , . . . , cT ] x(k)

mit d = bn +

 

+ dv(k) ,

dλ .

λ=1

ur λ = 1(1)n2 die Dimension 2, Hier haben jetzt die Teilvektoren xλ f¨ w¨ ahrend sie f¨ ur λ = n2 + 1(1) die Dimension 1 besitzen. Im Fall mehrfacher Polstellen wird man auf die Parallelschaltung von Teilsystemen gef¨ uhrt, die ihrerseits als eine Kaskade von Untersystemen mit glei¨ chen Polen der Ubertragungsfunktion dargestellt werden k¨onnen (siehe z.B. [5.1]). Auf die Behandlung wird hier verzichtet. Bei der in Bild 5.10 gezeigten Struktur wird der direkte Durchgriff des Filters ausschließlich durch den Pfad bn realisiert. Die Bl¨ocke 2-ter Ordnung entsprechen der 1. kanonischen Form ohne Realisierung des direkten Pfades (siehe Bild 5.4a und Bild 5.6b). Entsprechend der im Anhang, Abschn. 7.1.3 beschriebenen Klassifizierung wird die Struktur mit df2tpar1-Form bezeichnet.

5.2 Beschreibung und Basisstrukturen linearer Systeme

309

Abb. 5.10. Parallelstruktur 1. Art eines Systems n-ter Ordnung mit Teilsystemen in der 1. kanonischen Form (df2tpar1-Form)

Zu einer modifizierten Parallelstruktur kommt man, indem man von der ¨ in der englischsprachigen Literatur h¨ aufig verwendeten Darstellung der Uber−1 tragungsfunktion als Quotient zweier Polynome in z ausgeht und eine entsprechende Partialbruchzerlegung nach der Variablen z −1 vornimmt [5.24, 5.25]. Wir werden diese Form als Parallelstruktur 2. Art bezeichnen. F¨ ur die ¨ Berechnung der Ubertragungsfunktion H(z) verweisen wir auf Abschn. 2.5.4. Mit (2.5.29) ergibt sich n

H(z) =

μ=0 n ν=0

bμ z μ = B0 + cν z ν

n 



ν=1

n  z 1 = B0 + Bν . −1 z − z∞ν 1 − z ∞ν z ν=1

Ein Vergleich mit der Darstellung in (5.2.14a,b) zeigt unmittelbar B∞ = B0 +

n 



und

 B∞ = z∞ν Bν .

ν=1

Entsprechend erhalten wir jetzt an Stelle von (5.2.16b) die Zerlegung H(z) = gn +

n 

Gλ (z),

gn = B0 ,

λ=1

wobei jetzt die Teilsysteme Gλ bei reellwertigen Polen direkt durch Gλ (z) = g1λ

z , z − z∞λ

g1λ = Bλ ,

und im Fall eines Paares konjugiert komplexer Pole durch

310

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Gλ (z) = mit

g2λ z 2 + g1λ z z 2 + c1λ z + c0λ

∗ } g1λ = −2 · Re{Bλ · z∞λ

und

g2λ = 2 · Re{Bλ }

gegeben sind. Die Nenner-Koeffizienten cκλ entsprechen mit (5.2.15c) denen der Parallelstruktur 1. Art. Entsprechend kann mit MATLAB f¨ ur die Partialbruchzerlegung nach z −1 der ∧ ∧ ∧ ∧ Befehl [K,p,Bi]=residuez(bi,ci) mit Bi = Bν , K = gn , bi = [bn , . . . , b0 ] und ci = • [1, cn − 1, . . . , c0 ] verwendet werden.

Bild 5.11 zeigt die sich ergebende Struktur f¨ ur den Fall, daß mindestens eines der Teilsysteme zweiter Ordnung und eines erster Ordnung ist. Im Vergleich zu Strukturen der 1. Art (z.B. Bild 5.10) ist bei denen der 2. Art ein Teil des direkten Durchgriffs auf alle Teilsysteme verteilt. Wir bemerken noch, daß ¨ die Parallelstrukturen erster und zweiter Art die gleiche Ubertragungsfunktion haben. Somit lassen sich ihre Koeffizienten auch direkt ineinander u uhren. ¨berf¨ Mit (5.2.15) ergibt sich

gn = bn +

 λ=1

b0λ c0λ

,

g2i = − bc0i , 0i

g1i = b1i −

c1i c0i b0i

,

g0i = 0

und entsprechend bn = gn +

 

g2λ ,

b2i = 0 ,

b1i = gi − g2i c1i ;

b0i = −g2i c0i .

λ=1

Bei den in Bild 5.10 und 5.11a vorgestellten Parallelstrukturen wurden die einzelnen Teilsysteme in der 1. kanonischen Form realisiert. Durch Transponierung von (5.2.17) gehen die Teilsysteme in die 2. kanonische Form u ¨ber, die entsprechend Bild 5.4d realisiert werden. Wir erhalten die Parallelstruktur 2. Art nach Bild 5.11b. Nach der im Anhang, Abschn. 7.1.3 vorgestellten Klassifizierung wird die Struktur mit df2par2-Form bezeichnet. Entsprechend kann eine zur Struktur in Bild 5.10 transponierte Struktur angegeben werden (df2par1-Form), auf deren Darstellung wir hier verzichten. Einheitliche Darstellung mit den Matrizen der Zustandsraumdarstellung Wir haben damit unterschiedliche Strukturen gefunden, die sich immer angeben lassen. Die Zahl der f¨ ur ihre Realisierung n¨otigen Speicher ist, abgesehen von den in den Bildern 5.4e und 5.8b gezeigten F¨allen, jeweils gleich der Ordnung der zugeh¨ origen Differenzengleichung bzw. der Zahl der Zustandsvariablen. Alle werden durch die bereits f¨ ur das System 2. Ordnung hergeleitete ¨ Ubertragungsfunktion (5.2.5)

5.2 Beschreibung und Basisstrukturen linearer Systeme

311

Abb. 5.11. Parellelstruktur 2. Art eines Systems n-ter Ordnung a) mit Teilsystemen in der 1. kanonischen Form (df2tpar2), b) mit Teilsystemen in der 2. kanonischen Form (df2par2)

H(z) = cT (zE − A)−1 b + d beschrieben, wobei f¨ ur die einzelnen Strukturen die jeweils genannten Gr¨oßen A, b, c und d einzusetzen sind. Im letzten Abschnitt hatten wir bereits mit (5.1.2) die Beziehungen f¨ ur ein System mit Eing¨ angen und r Ausg¨ angen und in Bild 5.3 die zugeh¨orige generelle Struktur angegeben. Eine Verallgemeinerung von (5.2.5) liefert die ¨ Ubertragungsmatrix H(z) = C[zE − A]−1 B + D ,

(5.2.18)

¨ deren Elemente Hλ (z) das Ubertragungsverhalten des Systems vom λ-ten Eingang zum -ten Ausgang beschreiben (vergl. (4.3.17b) in Abschn. 4.3.2).

312

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Im n¨ achsten Abschnitt zeigen wir, wie man mit Hilfe von Transformationen beliebig viele weitere Strukturen herleiten kann, die durch dieselbe ¨ Ubertragungsmatrix beschrieben werden. Mit MATLAB und der Signal Processing Toolbox ist die Berechnung der ¨ Zustandsbeschreibung aus den Koeffizienten bμ und cν der Ubertragungsfunktion H(z) und umgekehrt wie folgt m¨ oglich: Sind b=[b ˆ m , bm−1 , . . . , b0 ]T und ¨ c=[c ˆ n , cn−1 , . . . , c0 ]T die Vektoren der Koeffizienten der Ubertragungsfunktion eines uhrt der Befehl Systems mit einem Eingang und einem Ausgang2 , so f¨ [A, B, C, D] = tf2ss(b,c) auf die Matrizen der Zustandsgleichung der allgemeinen Struktur nach Bild 5.3. Speziell erhalten wir die Zustandsgleichung f¨ ur die 2. kanonische Zustandsraumstruktur (siehe [5.24]). Als Beispiel wird ein System 2. Ordnung in Bild 5.6c,d gezeigt. Durch Transponierung A1 = AT , b1 = cT , c1 = bT , d1 = d . erhalten wir wiederum die Zustandsgleichungen f¨ ur die 1. direkte Zustandsraumstruktur nach Bild 5.6a. Die Transponierung entspricht den MATLAB Anweisungen A1 = A.’ ;

B1 = C.’ ;

C1 = B.’ ;

D1 = D ;

Die in (5.2.7e,f) f¨ ur die 2. kanonische Struktur angegebene Berechnung der Matrix A2 l¨ aßt sich mit MATLAB mit den Befehlen n = size(A,1); A2 = Jn*A*Jn;

Jn = fliplr(eye(n)); B2=Jn*B; C2=C*Jn; D2=D;

ausf¨ uhren. Zur Erzeugung der Transformationsmatrix Jn liefert eye(n) die Einheitsmatrix n-ter Ordnung, deren Spalten mit flipr(.) in ihrer Reihenfolge vertauscht werden. Die Funktion tf2ss(.) ist auch anwendbar f¨ ur ein System mit einem Eingang ¨ und r Ausg¨ angen, das durch einen Spaltenvektor von Ubertragungsfunktionen H (z) beschrieben wird, die dasselbe Nennerpolynom haben. Anstelle von b ist dann eine r × n Matrix einzugeben, deren Zeilen die Koeffizienten der verschiedenen Z¨ ahlerpolynome sind. Umgekehrt erh¨ alt man aus einer durch A, B, C, D gegebenen Zustandsbeschreibung eines Systems mit  Eing¨ angen und r Ausg¨ angen der Reihe nach die  Spalten ¨ der Ubertragungsmatrix H(z), wobei die gew¨ unschte Spaltennummer einzusetzen ist. Das verwendete Verfahren wird im Abschnitt 7.3.3 beschrieben. Es ergeben sich z.B. mit dem MATLAB-Befehl [b2,c] = ss2tf(A,B,C,D,2) ¨ die Ubertragungsfunktionen von dem zweiten Eingang zu allen r Ausg¨ angen. Dabei ist c=c ˆ der Vektor der Koeffizienten des gemeinsamen Nennerpolynoms und b2=b ˆ 2 eine r×(n+1) Matrix, deren -ter Zeilenvektor die Koeffizienten des Z¨ ahlerpolynoms 2

Zur Vereinfachung der Schreibweise verwenden wir im Zusammenhang mit Berechnungen in MATLAB, die auf H(z) basieren, erneut die Bezeichnungen b und c, jetzt mit anderer Bedeutung als in Zustandsgleichungen, z.B. in (5.2.2).

5.2 Beschreibung und Basisstrukturen linearer Systeme

313

der Teil¨ ubertragungsfunktion H2 (z) vom zweiten Eingang zum -ten Ausgang ist. Mit [n2,p,bm2] = ss2zp(A,B,C,D,2) ergeben sich die Nullstellen (als Spaltenvektoren der Matrix n2 ), die gemeinsamen Polstellen (Vektor p) und die konstanten Faktoren (Vektor bm2). Bemerkung: Bei der Funktion tf2ss(b,c) ist darauf zu achten, daß die Vektoren b und c gleich lang sind, bzw. bei Systemen mit mehreren Eing¨ angen, daß die Matrix b eine der L¨ ange von a entsprechende Anzahl von Spalten besitzt. Die Anpassung der Vektoren kann mit der Funktion eqtflength(.) erzwungen werden. Die Null¨ und Polstellen einer durch die Vektoren b und c gegebenen Ubertragungsfunktion k¨ onnen mit dem Befehl [z,p,bm] = tf2zpk(b,c) ¨ berechnet werden. Dabei wird mit bm der Verst¨ arkungsfaktor der Ubertragungsfunktion angegeben. Die Funktion tf2zpk(.) verwendet intern die Funktion roots(.) 3 ¨ zur Bestimmung der Null- und Polstellen einer rationalen Ubertragungsfunktion . ¨ Bemerkung: Um numerische Probleme zu vermeiden, sollten in MATLAB Ubertragungsfunktionen mit mehrfachen Nullstellen und/oder Polstellen sowie kritischen Polstellen in der N¨ ahe des Einheitskreises grunds¨ atzlich in Form von Null- und Polstellen (z, p) oder in der unten dargestellten Struktur von Bl¨ ocke 2. Ordnung [sos,s] gespeichert werden und, soweit m¨ oglich, auch in dieser Form weiterverarbeitet werden. Dies wird in MATLAB bei der objektorientierten Verarbeitung von Filtern mit den dfilt-Objekten, siehe Anhang Abschn. 7.1.6, ber¨ ucksichtigt. Ausgehend von den so berechneten oder vorgegebenen Null- und Polstellen lassen sich wiederum die Zustandsmatrizen berechnen. Es gilt [A,B,C,D] = zp2ss(z,b,k) , wobei jedoch zu ber¨ ucksichtigen ist, daß die A-Matrix hier abweichend von den kanonischen Strukturen (5.2.7) bestimmt wird. Zun¨ achst werden bei diesem Befehl die konjugiert komplexen Null- und Polstellen jeweils zu Paaren zusammengefaßt, nach aufsteigendem Realteil sortiert und entsprechend der Reihenfolge zu Bl¨ ocken 2. Ordnung zusammengefaßt. Daran anschließend werden reelle Null- und Polstellen an die Vektoren z und p angegliedert. Die Zustandsmatrizen der Teilsysteme werden dann entsprechend Absch. 5.2.1 (5.2.3e) f¨ ur Hλ (z) gebildet und nach (5.2.13) in die Zustandsmatrizen der Kaskadenschaltung eingeordnet. F¨ ur die Berechnung der Teil¨ ubertragungsfunktionen einer Kaskadenstruktur kann, ausgehend von den Koeffizienten b und c, der Befehl [sos,s] = tf2sos(b,c) ¨ verwendet werden. Als Ergebnis erh¨ alt man die Ubertragungsfunktion ? @ L L ( ( n+1 Z(z, bλ ) H(z) = s , L= , Hλ (z) = s N (z, cλ ) 2 λ=1

3

λ=1

Mit der Funktion roots(.) werden mehrfache Nullstellen nur mit Einschr¨ ankungen erkannt. MATLAB stellt in der Control System Toolbox“ zur Erkennung mehr” facher (multiple) Nullstellen die Funktion mroots(.) zur Verf¨ ugung. Mit dieser Funktion konnte die 16-fache Nullstelle eines Butterworth-Tiefpasses 16. Grades exakt aufgel¨ ost werden.

314

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

in der SOS-Form (Second Order Sections) mit L Teilbl¨ ocken 2. Ordnung ⎡

b21 b11 b01 .. .. ⎢ .. ⎢ . . . ⎢ ∧ b b b sos = SOS = ⎢ 2λ 1λ 0λ ⎢ ⎢ . .. .. ⎣ .. . . b2L b1L b0L

1 .. . 1 .. . 1

c11 .. . c1λ .. . c1L

⎤ ⎡ b1 c01 .. ⎥ ⎢ .. ⎢ . ⎥ ⎥ ⎢ . ⎢ c0λ ⎥ = ⎥ ⎢ bλ ⎢ . .. ⎥ . ⎦ ⎣ .. bL c0L

⎤ c1 .. ⎥ . ⎥ ⎥ cλ ⎥ ⎥ . .. ⎥ . ⎦ cL

Als weitere Parameter der Funktion tf2sos(.) k¨ onnen Vorgaben f¨ ur die Zuordnung und Reihenfolge der Pole und Nullstellen zu Bl¨ ocken 2. Ordnung sowie f¨ ur die Skalierung der einzelnen Teilsysteme gew¨ ahlt werden (Optimierung der Kaskadenschaltung u.a. bei [5.24, 5.26]). Die Funktionen zp2sos(.) und ss2sos(.) liefern das gleiche Ergebnis, ausgehend von den Gr¨ oßen z, p und k bzw. A, b, cT und d des Systems. Die Transformation der Kaskadenstruktur in die Zustandsraumdarstellung (A, B, C, D) erfolgt mit der Funktion sos2ss(.) . Dabei ist zu ber¨ ucksichtigen, daß die Ausf¨ uhrung dieser Funktion u ¨ber eine Transformation in die direkte Form (tf) erfolgt und somit die Zustandsmatrizen nach (5.2.7a) entsprechend der Funktion tf2ss(.) angegeben werden. Soll die Zustandsdarstellung entsprechend der Kaskadenstruktur nach (5.2.13) erfolgen, so ist eine Umrechnung der SOS-Form in die zpForm notwendig. Die Berechnung der gew¨ unschten Zustandsmatrizen erfolgt dann, wie oben dargestellt, mit dem Befehl zp2ss(.). Die beiden Schritte werden in der DSV-Bibliothek in der Funktion sos2ssc(.) zusammengefaßt. F¨ ur die Berechnung der Koeffizienten einer Kaskadenanordnung mit Bl¨ ocken 2. Ordnung in der Zustandsraumstruktur (ssf-Form) wird die Funktion sos2ssf(.) in der DSV-Bibliothek, siehe Anlage, Abschn. 7.1.4.3 zur Verf¨ ugung gestellt. Die Umrechnung der Koeffizienten in die Parallelstruktur erfolgt wie beschrieben durch Partialbruchzerlegung mittels der Funktionen residue(.) bzw. residuez(.). Unter der Voraussetzung von einfachen Polen werden die Residuen und die zugeh¨ origen Polstellen zu Teilsystemen maximal 2. Ordnung zusammengefaßt. Zur leichteren Handhabung der Datens¨ atze ordnen wir die Koeffizienten der Parallelstruktur ebenfalls in eine Matrix, die SOP-Matrix ein. F¨ ur die Parallelstruktur 1. Art ergibt sich ⎡

0 ⎢ .. ⎢ . ⎢ ⎢ 0 ∧ sop1 = SOP1 = ⎢ ⎢ . ⎢ .. ⎢ ⎣ 0 bn und f¨ ur die Parallelstruktur 2.Art

b11 .. . b1λ .. . b1L 0

b01 .. . b0λ .. . b0L 0

1 .. . 1 .. . 1 0

c11 .. . c1λ .. . c1L 0

⎤ c01 .. ⎥ . ⎥ ⎥ c0λ ⎥ ⎥ .. ⎥ . ⎥ ⎥ c0L ⎦ 0

5.2 Beschreibung und Basisstrukturen linearer Systeme ⎡

g21 g11 0 1 c11 .. .. .. .. ⎢ .. ⎢ . . . . . ⎢ ⎢ g2λ g1λ 0 1 c1λ ∧ ⎢ sop2 = SOP2 = ⎢ .. .. .. .. ⎢ ... . . . . ⎢ ⎣g g 0 1 c 2L 1L 1L gn 0 0 0 0

315

⎤ c01 .. ⎥ . ⎥ ⎥ c0λ ⎥ ⎥ .. ⎥ . ⎥ ⎥ c0L ⎦ 0

dabei wird der Parameter bm bzw. gn f¨ ur den direkten Pfad als L+1-te Zeile angegliedert. Die Umrechnung in die Parallelstruktur kann mit den Funktionen der DSVBibliothek (siehe Anhang Abschn. 7.1.4.3) erfolgen. Ausgehend von der direkten Form steht die Funktion tf2par(.), von der Kaskadenstruktur mit Funktion sos2par(.) zur Verf¨ ugung. Die Transformation zur¨ uck in die SOS-Form und die direkte Form ist mit den Funktionen par2sos(.) und par2tf(.) m¨ oglich. Die Umwandlung der beiden Parallelformen untereinander erfolgt mit der Funktion par2par(.). Die Umrechnung der SOP-Form in die entsprechende Zustandsbeschreibung ist mit der Funktion par2ssp(.) und die Transformation in umgekehrter Richtung mit der Funktion ssp2par(.) m¨ oglich. Weiter werden in der DSV-Bibliothek die Module sosfreqz(.) und parfreqz(.) bereitgestellt, mit denen in geeigneter Weise der Frequenzgang zu einem Koeffizientensatz in SOS- oder SOP-Form berechnet werden kann, siehe Anhang Abschn. 7.1.4.1. •

5.2.3 Transformation von Zustandsvektoren Ausgehend von der Beschreibung (5.1.2) des Systems f¨ uhren wir mit Hilfe einer nichtsingul¨ aren (n×n)-Transformationsmatrix T einen neuen Zustandsvektor q(k) derart ein, daß x(k) = Tq(k) (5.2.19) ist. Durch Einsetzen in (5.1.2) erhalten wir nach elementaren Umformungen q(k + 1) = T−1 ATq(k) + T−1 Bv(k) =: Aq q(k) + Bq v(k) , (5.2.20) y(k) = CTq(k) + Dv(k)

=: Cq q(k) + Dq v(k) .

Die Beziehungen f¨ ur die durch den Index q gekennzeichneten Matrizen des transformierten Systems sind unmittelbar zu erkennen. Wir zeigen zun¨achst, unglichen System daß die Eigenwerte von Aq und A identisch sind. Im urspr¨ seien sie mit z∞ν bezeichnet. Sie ergeben sich als L¨osungen der Gleichung |zE − A| = 0 (s. Abschn. 7.3). Entsprechend sind nach der Transformation die Nullstellen des Polynoms |zE − Aq | zu bestimmen. Es gilt zE − Aq = zT−1 TE − T−1 AT = T−1 (zE − A)T und damit

316

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

|zE − Aq | = |T−1 | · |zE − A| · |T| = |zE − A| . Die charakteristischen Polynome beider Matrizen und damit ihre Eigenwerte ¨ stimmen also u des Systems ¨andert ¨berein. Aber auch die Ubertragungsmatrix sich bei der Transformation nicht: Entsprechend (5.2.18) ist Hq (z) = Cq (zE − Aq )−1 Bq + Dq . Mit

(5.2.21a)

(zE − Aq )−1 = T−1 (zE − A)−1 T

sowie den durch (5.2.20) definierten Gr¨ oßen Cq , Bq und Dq best¨atigt man unmittelbar, daß Hq (z) = C[zE − A]−1 B + D = H(z)

(5.2.21b)

ist. In diesem Sinne liefert die Transformation ein ¨aquivalentes System mit ¨ ge¨ anderter Struktur. Zum Beispiel k¨ onnen wir die Uberf¨ uhrung in die Parallelform vornehmen, der im Fall einfacher Eigenwerte die Transformation von A in eine Diagonalmatrix entspricht, wobei die Teilsysteme i.a. nicht reellwertig sind. Wir beschr¨ anken uns auf diesen wichtigen Sonderfall und setzen dazu T = M, wobei M die zu A geh¨ orige Modalmatrix ist, deren Spaltenvektoren angiger Eigenvektoren von A sind (siehe mν , ν = 1(1)n ein Satz linear unabh¨ Abschnitt 7.3.2). Damit erh¨ alt man f¨ ur Aq die Diagonalmatrix der Eigenwerte von A. Es ist also Aq = M−1 AM = diag [z∞1 , . . . , z∞ν , . . . , z∞n ] .

(5.2.22)

Da die Eigenvektoren mν nur bis auf multiplikative Konstanten eindeutig sind, liefert die Transformation auf die Diagonalform bez¨ uglich der Matrizen Bq und Cq kein eindeutiges Ergebnis. Wir zeigen abschließend, wie man die Matrix T findet, mit der man eine durch A gekennzeichnete gegebene Struktur in eine ¨aquivalente Form u uhrt, die eine Matrix Aq gew¨ unschter Gestalt hat. Dazu gehen wir von ¨berf¨ der Transformation beider in die Diagonalform aus. Sind M und Mq die zu ¨ orenden Modalmatrizen, so folgt aus der zu fordernden UberA und Aq geh¨ einstimmung der Eigenwerte M−1 AM = M−1 q Aq Mq . Dann erh¨ alt man

Aq = Mq M−1 AMM−1 q

und daher f¨ ur die gesuchte Transformationsmatrix T = MM−1 q .

(5.2.23)

Wird in speziellen F¨ allen eine numerische Bestimmung der Transformationsmatrix ben¨ otigt, so k¨ onnen in MATLAB die Modalmatrix M und Mq mit der ∧ ∧ Funktion eig(.) bestimmt werden. Mit A = A und Aq = Aq erh¨ alt man die Transformationsmatrix T mit den Befehlen

5.2 Beschreibung und Basisstrukturen linearer Systeme

317

[M,D] = eig(A); [Mq,Dq= eig(aq); T = M / Mq;



5.2.4 Steuerbarkeit und Beobachtbarkeit Wir betrachten ein System mit Eing¨ angen und r Ausg¨angen, das durch (5.1.2) x(k + 1) = Ax(k) + Bv(k) , y(k) = Cx(k) + Dv(k) , ¨ bzw. durch die Ubertragungsmatrix (5.2.18) H(z) = C[zE − A]−1 B + D ¨ beschrieben sei. Unsere bisherigen Uberlegungen legen den Gedanken nahe, daß der Grad jeden Elements Hλ (z) von H(z) gleich der Ordnung von A ist, ubertragungsfunkbzw. daß alle Eigenwerte z∞ν von A die Polstellen aller Teil¨ tionen Hλ (z) sind. Das ist durchaus nicht immer der Fall, wie wir zun¨achst an einem Beispiel zeigen. Es sei ein System zweiter Ordnung gegeben mit       2, 5 1 −2 2 42 A= , B= , C= , D = [0] . −1 0 4 −1 12

Abb. 5.12. Beispiel eines nicht vollst¨ andig steuerbaren und beobachtbaren Systems

318

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

¨ Bild 5.12a zeigt die zugeh¨ orige Struktur. F¨ ur die Ubertragungsmatrix findet man mit (5.2.18) ⎤ ⎡ 6 0 ⎢ z−2⎥ H(z) = ⎣ ⎦. 6 0 z − 0, 5 Lediglich zwischen Eingang 1 und Ausgang 2 sowie Eingang 2 und Ausgang 1 ¨ erfolgt eine Ubertragung jeweils mit unterschiedlichen Systemen erster Ordnung. Die Verh¨ altnisse werden deutlicher, wenn wir eine Transformation in die Parallelform vornehmen. Dazu ben¨ otigen wir die Modalmatrix M zu der f¨ ur die erste kanonische Form angegebenen Matrix A. Allgemein kann man zu einer derartigen n × n Matrix die Inverse der Modalmatrix im Fall einfacher Eigenwerte in geschlossener Form als ⎡ n−1 ⎤ z∞1 . . . z∞1 1 ⎢ n−1 ⎥ ⎢ z∞2 . . . z∞2 1 ⎥ ⎢ ⎥ −1 (5.2.24a) M = ⎢. .. .. ⎥ ⎢. ⎥ . .⎦ ⎣. n−1 . . . z∞n 1 z∞n

angeben (s. Abschn. 7.3.2). Bei n = 2 folgt dann   1 −1 1 M= . z∞1 − z∞2 −z∞2 z∞1

(5.2.24b)

Mit den hier gew¨ ahlten Zahlenwerten ist z∞1 = 2, z∞2 = 0, 5. Man erh¨alt f¨ ur den speziellen Fall nach Absch. 5.2.3 die Transformationsmatrix   2 −2 1 T=M= 3 −1 4 und damit entsprechend (5.2.20)     2 0 03 , Bq = , Aq = 0 0, 5 30

 Cq =

20 02

 .

Bild 5.12b zeigt die entsprechende Struktur. Offenbar hat das durch den Eigenwert z∞1 gekennzeichnete Teilsystem keine Verbindung zum Eingang 1. Man sagt, es ist von dort nicht steuerbar. Entsprechendes gilt f¨ ur das Teilsystem 2 und Eingang 2. Weiterhin hat das Teilsystem 1 keine Verbindung zum Ausgang 2, es ist von dort nicht beobachtbar. Ebenso ist das Teilsystem 2 vom Ausgang 1 nicht beobachtbar. Bild 5.12b erl¨autert damit anschaulich ¨ das oben f¨ ur die Ubertragungsmatrix gefundene Ergebnis. Im allgemeinen Fall eines Systems n-ter Ordnung mit Eing¨angen, r Ausg¨ angen und einfachen Eigenwerten sprechen wir von

5.2 Beschreibung und Basisstrukturen linearer Systeme

319

vollst¨andiger Steuerbarkeit, wenn nach Transformation auf Parallelform jedes der n Teilsysteme von jedem der Eing¨ange her angeregt werden kann und von vollst¨andiger Beobachtbarkeit, wenn jedes der n Teilsysteme eine Verbindung zu jedem der r Ausg¨ ange hat. Es stellt sich damit die Aufgabe, durch eine Untersuchung der Matrizen A, B und C die Steuerbarkeit und Beobachtbarkeit des Systems zu kontrollieren. Dazu k¨ onnen wir nat¨ urlich wie im Beispiel eine Transformation auf Parallelform durchf¨ uhren, wozu aber zun¨ achst die Bestimmung der Eigenwerte von A, der Modalmatrix und ihrer Inversen n¨ otig ist. Wir zeigen ein Verfahren, bei dem das vermieden wird, bei dem wir aber den Ansatz von dieser Transformation u ¨bernehmen. Der einfacheren Darstellung wegen beschr¨anken wir uns auf den Fall, daß alle Eigenwerte von A einfach sind. Zun¨ achst untersuchen wir die Steuerbarkeit vom Eingang λ. Offenbar ist nach der Transformation jedes der n Teilsysteme vom Eingang λ her zug¨ anglich, wenn keines der Elemente des entsprechenden Spaltenvektors bqλ verschwindet. Ein System mit n verschiedenen Eigenwerten ist demnach dann vollst¨ andig steuerbar, wenn alle Elemente der transformierten Matrix Bq = M−1 B von Null verschieden sind. Es muß also sein | 0; bqνλ = [Bq ]νλ =

ν = 1(1)n , λ = 1(1) .

(5.2.25a)

Zur Untersuchung der Steuerbarkeit vom Eingang λ wird nun u uft, ob ¨berpr¨ eine n × n Matrix S0λ nicht singul¨ ar ist, die zun¨achst als S0λ = M[E, Aq , A2q , . . . , An−1 ]bqλ q = M[bqλ , Aq bqλ , . . . , An−1 bqλ ] q definiert ist. Sie ist unter der Voraussetzung verschiedener Eigenwerte z∞ν nur dann nicht singul¨ ar, wenn alle Elemente von bqλ von Null verschieden sind. Wegen Aνq bqλ = M−1 Aν · bλ ist aber S0λ in der Form S0λ = [bλ , Abλ , A2 bλ , . . . , An−1 bλ ] ,

(5.2.25b)

also ausschließlich mit den urspr¨ unglichen Gr¨ oßen des Systems angebbar. Damit kann man die Bedingung f¨ ur die vollst¨ andige Steuerbarkeit eines Systems mit unterschiedlichen Eigenwerten als |S0λ | = | 0;

λ = 1(1)

(5.2.25c)

formulieren. Ganz entsprechend erfordert die vollst¨ andige Beobachtbarkeit am Ausgang ()

, daß s¨ amtliche Elemente des Zeilenvektors cq ungleich Null sind. Bei r Ausg¨ angen ist demnach zu fordern, daß alle Elemente der transformierten Matrix ussen. Es muß also gelten Cq = CM von Null verschieden sein m¨

320

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

c() | 0; qν = [Cq ]ν =

= 1(1)r , ν = 1(1)n .

(5.2.26a)

F¨ ur die Kontrolle der Beobachtbarkeit am -ten Ausgang pr¨ uft man, ob die Matrix B0 = [c()T , AT c()T , (AT )2 c()T , . . . , (AT )n−1 c()T ] ()

(5.2.26b)

nicht singul¨ ar ist. Als Bedingung f¨ ur die vollst¨andige Beobachtbarkeit eines Systems mit unterschiedlichen Eigenwerten erhalten wir schließlich ()

| 0; |B0 | =

= 1(1)r .

(5.2.26c)

Ohne Herleitung geben wir an, daß diese Aussage ebenso wie (5.2.25c) auch f¨ ur den hier nicht behandelten Fall mehrfacher Eigenwerte gilt (s. z.B. [5.2]). ¨ Wir zeigen noch die Verbindung zur Ubertragungsmatrix H(z), die wir im obigen Beispiel zun¨ achst errechnet haben. Es ist nach (5.2.21) H(z) = Hq (z) = Cq (zE − Aq )−1 Bq + D , wobei mit (5.2.22) −1

(zE − Aq )



1 1 1 = diag ,..., ,..., z − z∞1 z − z∞ν z − z∞n

eine Diagonalmatrix ist. F¨ ur die Teil¨ ubertragungsfunktion vom λ-ten Eingang zum -ten Ausgang erh¨ alt man dann Hλ (z) = cq · (zE − Aq )−1 · bqλ + dλ ()

=

n ν=1

()

cqν

1 bqνλ + dλ . z − z∞ν

(5.2.27)

¨ Diese Ubertragungsfunktion hat also nur dann einen Pol bei z∞ν , wenn sowohl () cqν als auch bqνλ von Null verschieden sind, wenn also das entsprechende Teilsystem sowohl vom λ-ten Eingang steuerbar als auch am -ten Ausgang beobachtbar ist. Das ganze System ist demnach dann vollst¨andig steuerbar ur = 1(1)r und beobachtbar, wenn alle Teil¨ ubertragungsfunktionen Hλ (z) f¨ und λ = 1(1) Polstellen bei allen Werten z∞ν , ν = 1(1)n enthalten. Eine nicht vollst¨andige Steuerbarkeit bzw. Beobachtbarkeit liegt vor, wenn jede Eigenschwingung wenigstens von einem Eingang her steuerbar bzw. von einem Ausgang beobachtbar ist. Zur Kontrolle dieser Eigenschaften werden in Verallgemeinerung von (5.2.25b) die n × n · Matrix S0 = [B, AB, A2 B, . . . , An−1 B]

(5.2.28)

sowie unter Bezug auf (5.2.26b) die n · r × n Matrix B0 mit BT0 = [CT , AT CT , (AT )2 CT , . . . , (AT )n−1 CT ]

(5.2.29)

5.2 Beschreibung und Basisstrukturen linearer Systeme

321

gebildet. Das System ist dann in dem genannten eingeschr¨ankten Sinne steuerbar, wenn S0 den Rang n hat. Entsprechend ist es beobachtbar, wenn B0 den Rang n hat. Abschließend zeigen wir die Anwendung der Ergebnisse (5.2.25) und (5.2.26) auf das eingangs behandelte Beispiel. Es ist        −2 2, 5 1 −2 −2 −1 , = S01 = [b1 , Ab1 ] = 4 −1 0 4 4 2  S02 = [b2 , Ab2 ] =

(1) B0

(2) B0

= [c

(1)T

2 −1

T (1)T

,A c

  ,

2, 5 1 −1 0



2



 =

−1

2

4

−1 −2

 ,

        4 2, 5 −1 4 48 ]= , = , 2 1 0 2 24

        1 2, 5 −1 1 1 0, 5 = [c(2)T , AT c(2)T ] = , = . 2 1 0 2 21

Offensichtlich sind all diese Matrizen singul¨ ar, wie wir nach dem in Bild 5.12b dargestellten Ergebnis erwarten mußten. Andererseits erh¨alt man mit (5.2.28,29)

−2 2 −1 4 S0 = 4 −1 2 −2 BT 0 =

4 1 8 0.5 2 2 4 1

Beide Matrizen haben den Rang 2, das System ist sowohl steuerbar wie beobachtbar, weil nach Bild 5.12b jede Eigenschwingung von wenigstens einem Ein- bzw. Ausgang zug¨ anglich ist. ¨ Mit MATLAB kann die Uberpr¨ ufung von Steuerbarkeit und Beobachtbarkeit in einfacher Weise erfolgen. Hierzu stellen wir in der DSV-Bibliothek (siehe Anhang, Abschn. 7.1.4.1) die Funktionen syscontrol(.) und sysobserve(.) zur Verf¨ ugung. Mit dem Befehl [ctr,S0,vctr]=syscontrol(A,B) kann gepr¨ uft werden, ob das System nur steuerbar (ctr=1) oder vollst¨ andig steuerbar (ctr=2) ist4 . F¨ ur nicht steu∧ erbare Systeme wird ctr=0 gesetzt. Zus¨ atzlich k¨ onnen die Matrix S0 = S0 und der Kontroll-Vektor vctr abgefragt werden. Der Vektor vctr gibt die Steuerbarkeit der einzelnen Teilsysteme mit den Matrizen S0λ an. Sind alle Elemente des Vektors, vctr(la) = 1, so ist das System vollst¨ andig steuerbar. Entsprechende Ergebnisse erh¨ alt man f¨ ur die Beobachtbarkeit eines Systems mit dem Befehl[ctr,S0,vctr]=sysobserve(A,B) . • 4

Die Bezeichnung ctr leitet sich aus controllable“ab. ”

322

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

5.3 Untersuchung im Zeitbereich 5.3.1 Allgemeine L¨ osung der Systemgleichung Wie schon im Abschn. 5.2.1 erw¨ ahnt, ist stets die schrittweise L¨osung einer das System beschreibenden Differenzengleichung bei bekannten Anfangswerten und f¨ ur eine gegebene Eingangsfolge m¨ oglich. Das entspricht in der Regel der Arbeitsweise des realisierten Systems. Hier interessieren wir uns f¨ ur eine geschlossene L¨ osung. Dazu bestimmen wir zun¨achst den Zustandsvektor x(k), ur k > k0 der beginnend mit dem Anfangswert x(k0 ) die Gleichung (5.1.2a) f¨ erf¨ ullt. F¨ ur k = k0 ist x(k0 + 1) = Ax(k0 ) + Bv(k0 ) . Damit folgt im n¨ achsten Schritt aus x(k0 + 2) = Ax(k0 + 1) + Bv(k0 + 1) : x(k0 + 2) = A2 x(k0 ) + ABv(k0 ) + Bv(k0 + 1) . Entsprechend erh¨ alt man x(k0 + 3) = A3 x(k0 ) + A2 Bv(k0 ) + ABv(k0 + 1) + Bv(k0 + 2) . Durch vollst¨ andige Induktion ist leicht zu beweisen, daß f¨ ur k > k0 allgemein gilt k−1  Ak−1−κ Bv(κ) . (5.3.1a) x(k) = A(k−k0 ) x(k0 ) + κ=k0

F¨ ur den Ausgangsvektor ergibt sich aus (5.1.2b) y(k) = CA(k−k0 ) x(k0 ) + C ·

k−1 

Ak−1−κ Bv(κ) + Dv(k) .

(5.3.1b)

κ=k0

¨ Wir f¨ uhren hier die Ubergangsmatrix Φ(k) := Ak

(5.3.2a)

ein. Ihre Berechnung zeigen wir f¨ ur den Fall, daß A die einfachen Eigenwerte z∞ν , ν = 1(1)n und die Modalmatrix M hat. Es ist ⎡ k ⎤ z∞1 0 . . . 0 ⎢ ⎥ k ... 0 ⎥ ⎢ 0 z∞2 ⎢ ⎥ −1 Φ(k) = M ⎢ . . . ⎥M ⎢ .. . . . . ... ⎥ (5.3.2b) ⎦ ⎣ k 0 . . . 0 z∞n k k k = M diag [z∞1 , . . . , z∞ν , . . . , z∞n ] M−1 .

5.3 Untersuchung im Zeitbereich

323

k Die Folgen der Form z∞ν bezeichnen wir als die Eigenschwingungen des Systems. Im Abschn. 7.3 werden verschiedene Verfahren zur Berechnung von Φ(k) f¨ ur den allgemeinen Fall behandelt. Unter Beschr¨ ankung auf ein System mit einem Eingang und einem Ausgang f¨ uhren wir nach Spezialisierungen von (5.3.1) zwei Vektorfolgen ein, mit denen man das Verhalten des Systems vom Eingang zu den Zustandsgr¨oßen bzw. von dort zum Ausgang getrennt beschreiben kann. Zun¨achst setzen wir x(k0 = 0) = 0 und v(k) = γ0 (k). Aus (5.3.1a) folgt mit b an Stelle von B

x0 (k) = Ak−1 bγ−1 (k − 1) =: f (k) .

(5.3.3a)

f (k) ist also der Zustandsvektor bei impulsf¨ ormiger Erregung am Eingang und insofern der Vektor der “inneren Impulsantworten”. Dann ist aber bei einer Erregung mit beliebigem v(k) der Zustandsvektor x(k) = f (k) ∗ v(k) =

k 

f (κ)v(k − κ) , k ≥ 1

(5.3.3b)

κ=1

(s. Bild 5.13). Weiterhin nehmen wir an, daß bei identisch verschwindendem Eingangssignal der Anfangszustand x(k0 = 1) = eν vorliegt, wobei eν der νte Einheitsvektor ist. Die unter diesen Umst¨ anden am Ausgang erscheinende Reaktion ist mit cT an Stelle von C gν (k) = cT Ak−1 eν γ−1 (k − 1) . Man erh¨ alt mit dem Anfangszustand x(k0 = 0) = 0 die Folge gν (k) auch als Impulsantwort des Systems, wenn man b durch eν ersetzt und d = 0 ist. Alle gν (k), ν = 1(1)n werden zu einer Vektorfolge gT (k) = cT Ak−1 γ−1 (k − 1)

(5.3.3c)

zusammengefaßt. g(k) ist hier der Vektor der Impulsantworten von den n inneren Punkten, an denen die Zustandsgr¨ oßen auftreten, zu dem einen Ausgang (s. Bild 5.13). Wir stellen eine Verbindung her zu unserer Untersuchung der Steuerbarkeit und Beobachtbarkeit in Abschnitt 5.2.4. Unter Verwendung von (5.3.2b) und achst mit b = Mbq erh¨alt man zun¨ ! " k−1 k−1 k−1 · bq · γ−1 (k − 1) . , . . . , z∞ν , . . . , z∞n f (k) = M diag z∞1 k wurde als nicht steuerbar bezeichnet, wenn das EleDie Eigenschwingung z∞ν urlich nicht, daß fν (k) verschwindet, ment bqν = 0 ist. Das bedeutet i.allg. nat¨ bzw. daß die Zustandsvariable xν (k) vom Eingang nicht steuerbar ist, sondern nur, daß alle Elemente von f (k) diese Eigenschwingung nicht enthalten. Nach einer Transformation auf Diagonalform w¨ urde dagegen in fq (k) = M−1 f (k) das Element fqν (k) verschwinden, wenn die ν-te Eigenschwingung nicht steuerbar ist. Entsprechend erkennt man aus der Darstellung

324

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Abb. 5.13. Zur Definition von f (k) und g(k)

! −1 " k−1 k−1 k−1 M · γ−1 (k − 1) , gT (k) = cTq diag z∞1 , . . . , z∞ν , . . . , z∞n k am Ausgang nicht auftritt, wenn das Eledaß die ν-te Eigenschwingung z∞ν T ment cqν = 0 ist, ohne daß i.allg. gν (k) ≡ 0 ist. Dagegen verschwindet in anden gqν (k). gqT (k) = gT (k) · M unter diesen Umst¨ Mit den Vektoren f (k) und g(k) f¨ uhren wir zwei n × n Matrizen ein, die vielfach verwendet werden [5.3]. Es ist

K= W=

∞  k=1 ∞ 

f (k)f T (k) = g(k)gT (k) =

k=1

∞ 

Ak b[Ak b]T ,

k=0 ∞ 

[cT Ak ]T cT Ak .

(5.3.4a) (5.3.5a)

k=0

Die Summen konvergieren, wenn alle steuerbaren bzw. beobachtbaren Eigenschwingungen zu Eigenwerten im Innern des Einheitskreises geh¨oren. Die Elemente von K ∞  kνμ = fν (k)fμ (k) (5.3.6a) k=1

sind offenbar die Werte der Kreuzkorrelierten der beiden Folgen bei λ = 0. Entsprechendes gilt f¨ ur W. Die Matrizen sind symmetrisch und positiv definit, wenn die Folgen fν (k) bzw. gν (k) linear unabh¨angig sind. Sie werden als Gramsche Matrizen bezeichnet. Wir zeigen eine Verbindung von K zu der in (5.2.28) angegebenen Steuerbarkeitsmatrix S0 . Bei Spezialisierung auf einen Eingang definieren wir zun¨ achst eine Matrix mit n Zeilen und unendlich vielen Spalten S∞ = [b, Ab, A2 b, . . .] = [f (1), f (2), f (3), . . .] . Dann folgt aus (5.3.4a)

5.3 Untersuchung im Zeitbereich

K = S∞ ST∞ .

325

(5.3.4b)

Offenbar bilden die ersten n Spalten von S∞ die Matrix S0 . Aus den Aussagen u ¨ber S0 in Abschnitt 5.2.4 folgt dann, daß das System steuerbar ist, wenn die Matrix K den Rang n hat. Das korrespondiert wiederum mit der obigen Aussage, daß K positiv definit ist, wenn die Folgen fν (k) linear unabh¨angig sind. Dazu ist aber erforderlich, daß alle n Eigenschwingungen steuerbar sein m¨ ussen. Entsprechende Aussagen sind u ¨ber die Matrix W m¨oglich. Man erh¨alt mit B∞ = [g(1), g(2), g(3), . . .] W = B∞ BT∞ .

(5.3.5b)

Hier stimmen die ersten n Spalten von B∞ mit der Beobachtbarkeitsmatrix BT0 u ¨berein, wenn wir (5.2.29) auf einen Ausgang spezialisieren. Es ergibt sich, daß im Falle eines beobachtbaren Systems W den Rang n hat. Einen f¨ ur die Berechnung von K besser geeigneten Ausdruck gewinnt man mit (5.3.4a) aus AKAT =

∞ 

Ak+1 b[Ak+1 b]T = K − bbT .

k=0

Es ergibt sich die implizite Gleichung K = AKAT + bbT ,

(5.3.4c)

osung eines linearen Gleichungsaus der man die Komponenten kνμ durch L¨ systems gewinnt, das sich in der folgenden Weise ergibt [5.4]: Es ist vec[K] − vec[AKAT ] = vec[bbT ] , ¨ wobei die Operation vec[·] die Uberf¨ uhrung der jeweiligen n×n Matrix in einen 2 Spaltenvektor der L¨ ange n beschreibt. Mit Hilfe des Kronecker-Produktes zweier Matrizen (Zeichen ⊗) erh¨ alt man vec[AKAT ] = A ⊗ Avec[K] und damit schließlich [E − A ⊗ A]vec[K] = vec[bbT ] ,

(5.3.4d)

woraus vec [K] folgt. Die Berechnung der Matrix K wird anhand eines MATLAB-Programs gezeigt. In Abh¨ angigkeit von A=A ˆ und b=b ˆ erhalten wir function K = gram(A,b); Q = b*b’; q = Q(:); n = size(Q,1); E = eye(n^2); R = E - kron(A,A); k = R\q; K = reshape(k,n,n);

326

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

dabei wird das Kronecker-Produkt mit der MATLAB-Function kron(.) berechnet. Das Ergebnis k des vektorisierten Gleichungssystem wird mit dem Befehl reshape(.) in die Matrik K zur¨ uckgef¨ uhrt. Die Funktion gram(.) kann der DSV-Bibliothek entnommen werden, siehe Anhang, Abschn. 7.1.4.7. F¨ ur die Matrix W l¨ aßt sich entsprechend zu (5.3.4d) die implizite Gleichung (5.3.5c) W = AT WA + ccT angeben, die dann ebenso in ein lineares Gleichungssystem der obigen Form ∧ f¨ ur die n2 Elemente wνμ u uhrt werden kann. Mit der Zuordnung C = ¨berf¨ ur die Berechnung der Matrix W cT kann man den Befehl W=gram(A’,C’) f¨ ebenfalls verwenden. Schließlich erw¨ ahnen wir, daß eine Transformation des Zustandsvektors gem¨ aß x(k) = Tq(k) mit einer nichtsingul¨aren n × n Matrix T (s. Abschn. 5.2.3) auf ge¨ anderte Gramsche Matrizen f¨ uhrt. Es ergeben sich Kq = T−1 K(T−1 )T , Wq = TT WT .

(5.3.4e) (5.3.5d)

Als eine erste Anwendung untersuchen wir die Energie¨ ubertragung bei determinierter Erregung. Offenbar beschreibt das ν-te Element der Hauptdiagonalen von K ∞  fν2 (k) (5.3.6b) kνν = k=1

die Energie der Zustandsvariablen xν (k) f¨ ur den Fall v(k) = γ0 (k) und x(0) = 0. Damit ergibt sich mit ∞ 

f T (k)f (k) =

n 

kνν = spur[K]

(5.3.7)

ν=1

k=1

die Gesamtenergie des Zustandsvektors unter diesen Bedingungen. Weiterhin ist mit v(k) = 0 und dem Anfangsvektor x(0) = x0 die Ausur die Energie des gangsfolge y(k) = cT Ak x0 , k ≥ 0. Damit erh¨alt man f¨ Ausschwingvorganges wy =

∞  k=0

y 2 (k) = xT0

∞ 

[cT Ak ]T (cT Ak )x0 = xT0 Wx0 .

(5.3.8)

k=0

Die Matrix K wird auch ben¨ otigt, wenn das Eingangssignal minimaler Energie zu bestimmen ist, mit dem ein gew¨ unschter Anfangswert x(k0 = 0) = x0 erreicht wird. Ausgehend von einem Vektor vT = [v(−1), v(−2), v(−3) , . . . ] , der das Eingangssignal v(k) f¨ ur alle negativen Werte von k beschreibt, erh¨alt man zun¨ achst allgemein x0 = S∞ v .

5.3 Untersuchung im Zeitbereich

327

Die gew¨ unschte Minimierung von vT v unter Beachtung dieser Nebenbedingung ergibt sich, wenn vT v + λT (x0 − S∞ v) in Abh¨ angigkeit von v und dem Vektor λT = [λ1 , . . . , λn ] der Lagrangeschen Multiplikatoren minimal wird. Differentiation nach v und Nullsetzen liefert uhrt bei Verwendung von 2v = ST∞ λ. Die Multiplikation mit S∞ von links f¨ (5.3.4b) auf 2S∞ v = 2x0 = Kλ . Dann folgt mit λ = 2K−1 x0 schließlich v = ST∞ K−1 x0

(5.3.9a)

und f¨ ur die mindestens erforderliche Eingangsenergie zum Erreichen des Zustandes x0 wv = vT v = xT0 (K−1 )T x0 = xT0 K−1 x0 . (5.3.9b) Der Quotient

wy xT Wx0 = T0 −1 wv x0 K x0

(5.3.9c)

ist dann ein Maß f¨ ur die Energie¨ ubertragung vom Eingang zum Ausgang. Speziell betrachten wir den Fall x0 = eν . Es ist [K−1 ]νν die minimale Eingangsenergie zur Erzeugung des Zustands x0 = eν und [W]νν die sich daraus am Ausgang ergebende Energie. Abschließend betrachten wir die Impuls- und Sprungantwort des Systems. Man erh¨ alt zun¨ achst aus (5.3.1b) mit x(k0 = 0) = 0, v(k) = γ0 (k), cT statt C und d an Stelle von D y(k) =: h0 (k) = cT Ak−1 bγ−1 (k − 1) + dγ0 (k) .

(5.3.10a)

Unter Verwendung von (5.3.3a,c) erhalten wir die Darstellungen

sowie

h0 (k) = cT f (k) + dγ0 (k)

(5.3.10b)

h0 (k) = gT (k)b + dγ0 (k) .

(5.3.10c)

Aus der Impulsantwort k¨ onnen wir mit (4.2.12d) h−1 (k) =

k 

h0 (κ)

κ=0

die Sprungantwort bestimmen. Es ist h−1 (k) = cT

k κ=1

Aκ−1 bγ−1 (k − 1) + dγ−1 (k)

= cT (E − A)−1 (E − Ak )b · γ−1 (k − 1) + dγ−1 (k) .

(5.3.11)

328

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Interessant ist eine Betrachtung des Grenzwerts h−1 (∞) = lim h−1 (k). k→∞

Zun¨ achst u ¨berlegen wir, unter welchen Bedingungen er existiert. Nach (4.2.13b) reagiert ein System auf eine beliebige beschr¨ ankte Eingangsfolge mit einer be+∞ schr¨ ankten Ausgangsfolge, wenn |h0 (k)| < ∞ ist. Dann existiert aber auch −∞

bei einem kausalen System h−1 (∞) =



h0 (k). Bei einem System mit einer

0

durch (5.3.10a) beschriebenen Impulsantwort ist daf¨ ur notwendig und hinreichend, daß lim h0 (k) = 0, also auch lim Ak = 0 k→∞

k→∞

ist. Damit ergibt sich schließlich aus (5.3.11) h−1 (∞) = cT (E − A)−1 b + d .

(5.3.12)

¨ Wir k¨ onnen dieses Ergebnis durch einfache Uberlegungen auch auf anderen Wegen bekommen. Bei einem stabilen System wird bei Sprungerregung der Zustandsvektor x(k) f¨ ur wachsendes k in den Grenzwert x(∞) u ¨bergehen. Die Zustandsgleichung (5.2.2a) liefert dann x(∞) = Ax(∞) + b . Mit

x(∞) = (E − A)−1 b

(5.3.13)

erh¨ alt man aus (5.2.2b) wieder das in (5.3.12) angegebene Ergebnis. Schließlich ¨ folgt es aber auch aus der Ubertragungsfunktion (5.2.5b) H(z) = cT [zE − A]−1 b + d , wenn man der Sprungerregung entsprechend z = 1 setzt. Die Verallgemeinerung des Ergebnisses (5.3.10a) auf ein System mit l Eing¨ angen und r Ausg¨ angen ergibt die in Abschnitt 4.2 eingef¨ uhrte Matrix der Impulsantworten. Man erh¨ alt mit x(k0 = 0) = 0 und vλ (k) = eλ · γ0 (k), λ = 1(1) aus (5.3.1b) die einzelnen Spalten von h0 (k) = CΦ(k − 1)Bγ−1 (k − 1) + Dγ0 (k) .

(5.3.14a)

In Verallgemeinerung von (4.2.12d) gewinnen wir durch Aufsummation daraus die Matrix der Sprungantworten h−1 (k) = C(E − A)−1 (E − Ak )Bγ−1 (k − 1) + Dγ−1 (k) .

(5.3.14b)

In MATLAB wird die numerische L¨ osung der Differenzengleichung (5.2.6) f¨ ur eine Eingangsfolge v(k) der L¨ ange K mit dem Befehl y = filter(b,c,v)

5.3 Untersuchung im Zeitbereich

329

berechnet. Hier sind wieder b = ˆ [bn , bn−1 , . . . , b0 ]T und c = ˆ = [1, cn−1 , . . . , c0 ]T die Vektoren der Koeffizienten von H(z)5 . Die L¨ ange der errechneten Ausgangsfolge y(k) ist K. Das Programm basiert auf der ersten kanonischen Form. ˆ h1 (k) k¨ onnen bei entDie Impulsantwort h = ˆ h0 (k) und die Sprungantwort h = sprechender Wahl der Eingangssignale mit der Funktion filter(.) berechnet werden. Mit der MATLAB Signal Processing Toolbox ist jedoch eine direkte Bestimmung der Impuls- und der Sprungantwort m¨ oglich. Man erh¨ alt mit dem Befehl h = impz(b,c,K), K Werte der Impulsantwort h0 (k) und mit h_ = stepz(b,c,k) entsprechend die Werte der Sprungantwort h−1 (k). Wird beim Aufruf der beiden Funktionen kein Ausgabeparameter angegeben, so erfolgt eine direkte graphische Ausgabe der Antworten auf dem Bildschirm. Eine Anfangsbedingung x0 = ˆ x0 l¨ aßt sich mit y = filter(b,c,v,x0) ber¨ ucksichtigen; die Programmversion [y,x] = filter(b,c,v,x0) liefert neben K Werten von y(k) den Wert x = ˆ x(K −1) des Zustandsvektors, jeweils f¨ ur die erste kanonische Form. Sind bi = [b2i , b1i , b0i ]T , ci = [1, c1i , c0i ]T , i = 1 : L die Vektoren der Koeffi¨ zienten der Ubertragungsfunktion des i-ten Teilsystems einer Kaskadenstruktur, so bestimmt man die Ausgangsfolge y(k) z.B. speziell f¨ ur L = 3 mit y = filter(b3,c3,filter(b2,c2,filter(b1,c1,v))). Unter der Voraussetzung, daß das zur Realisierung verwendete System mit hinreichender Genauigkeit arbeitet, hat die Wahl der Filterstruktur praktisch keinen Einfluß auf das Ergebnis. Bei begrenzter Genauigkeit der Rechner-Systeme zeigen die verschieden in Abschn. 5.2. dargestellten Realisierungen der Filterfunktion ein unterschiedliches Fehlerverhalten. Zur Untersuchung des Fehlerverhaltens verweisen wir hier auf die einschl¨ agige Literatur, z.B. [5.24, 5.27]. In der MATLAB Signal Processing Toolbox k¨ onnen f¨ ur die Simulation der Filterfunktion unterschiedliche Strukturen angew¨ ahlt werden. Hierzu werden im Rahmen der Objektorientierten Programmierung eigens Filterobjekte eingef¨ uhrt, die zun¨ achst nur f¨ ur die Berechnung mit doppeltgenauer Gleitkomma-Rechnung (double) ausgelegt sind. Diese Filterobjekte k¨ onnen zur Untersuchung von Quantisierungseffekten mit der Fixed-Point Toolbox auf Festkomma-Rechnung erweitert werden. Eine Einf¨ uhrung in die Programmierung mit Filterobjekten wird im Anhang Abschn. 7.1.6 gegeben. Ein System mit  Eing¨ angen und r Ausg¨ angen sei durch die Gleichungen (5.1.2) und damit durch die Matrizen A, B, C und D beschrieben. Weiter sei der Anfangszustand x0 gegeben. Liegt das Eingangssignal in Form einer  × K Matrix v(k) vor, dann kann man die Folgen der Zustandsvektoren x(k) und Ausgangsvektoren y(k) mit der Funktion zust(.) berechnen, siehe DSV-Bibliothek im Anhang Abschn. 7.1.4.3. function [x,y] = zust(A,B,C,D,v,x0); K = size(v,2) x = x0(:); for k = 1:K; x(:,k+1) = A*x(:,k) + B*v(:,k); y(:,k) = C*x(:,k) + D*v(:,k); end 5

Siehe Fußnote in Abschnitt 5.2.2

330

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Hiermit lassen sich auch mit x(0) = 0 mit entsprechenden Eingangssignalen v(k) die Spaltenvektoren der Matrizen h0 (k) und h−1 (k) berechnen. Nach Spezialisierung von B und C f¨ ur ein System mit einem Eingang und einem Ausgang kann man mit dem Programm auch f (k) = x(k) mit x(0) = 0 und v(k) = γ0 (k) sowie die • Komponenten gν (k) von g(k) mit x(k0 = 1) = eν und v(k) = 0 bestimmen.

5.3.2 Zusammenhang mit allgemeinen linearen Systemen Die Ausgangsfolge eines linearen, kausalen Systems, f¨ ur dessen Anfangszustand x(0) = 0 gilt, k¨ onnen wir f¨ ur den Fall einer bei k = 0 einsetzenden Erregung nach Spezialisierung von Glchg. (4.2.7) als y(k) =

k 

h0 (κ)v(k − κ) = h0 (k) ∗ v(k)

(5.3.15)

κ=0

angeben. Wir fragen nun, wie die zun¨ achst beliebige Impulsantwort h0 (k) beschaffen sein muß, damit sie zu einem System geh¨ort, das durch eine Differenzengleichung n-ter Ordnung beschrieben wird. Spezialisieren wir die Differenzengleichung (5.2.6) auf v(k) = γ0 (k), so erh¨alt man mit y(k) = h0 (k) nach n-facher Verz¨ ogerung h0 (k) = −

n−1 

cν h0 (k + ν − n) +

ν=0

n 

bμ γ0 (k + μ − n) .

(5.3.16a)

μ=0

F¨ ur k > n ist daher mit der Substitution n − ν → ν h0 (k) = −

n 

cn−ν h0 (k − ν) ,

(5.3.16b)

ν=1

der n¨ achste Wert also eine Linearkombination der n vorhergehenden. Mit der f¨ ur k > 0 g¨ ultigen Beziehung h0 (k) = cT Ak−1 b, s. (5.3.10b), geht (5.3.16b) f¨ ur k = n + 1 u ¨ber in  n   T ν (5.3.16c) c cν A b = 0 . ν=0

Insofern ist (5.3.16b) eine Folge der Aussage des Cayley-Hamilton-Theorems, daß eine Matrix A ihre eigene charakteristische Gleichung erf¨ ullt, s. Abschn. 7.3.2. Zur Pr¨ ufung, ob ein prim¨ ar durch h0 (k) gekennzeichnetes System durch eine Differenzengleichung beschrieben und daher durch eine der im Abschn. 5.2.2 behandelten Strukturen realisiert werden kann, ist also die lineare Abh¨ angigkeit der Werte h0 (k) zu untersuchen. Dazu bildet man die unendliche Hankelsche Matrix

5.3 Untersuchung im Zeitbereich



h0 (1) ⎢ ⎢ h0 (2) ˜=⎢ S ⎢ h (3) ⎢ 0 ⎣ .. .

h0 (2) h0 (3) . . .

331



⎥ h0 (3) h0 (4) . . . ⎥ ⎥ . h0 (4) h0 (5) . . . ⎥ ⎥ ⎦ .. .. . .

(5.3.16d)

Hat sie den endlichen Rang n, so geh¨ oren die gegebenen Werte h0 (k) zu einem durch eine Differenzengleichung n-ter Ordnung bzw. durch eine rationale ¨ Ubertragungsfunktion der Form (5.2.8) beschriebenen System [5.5]. Wir zeigen, wie man unter diesen Umst¨ anden aus den ersten 2n+1 Werten ¨ orige Ubertragungsfunktion H(z) in der der Impulsantwort h0 (k) die zugeh¨ Form (5.2.8) als Quotient zweier Polynome bekommen kann. Schreibt man die Gleichung (5.3.16b) f¨ ur k = (n + 1)(1)2n an, so entsteht ein lineares Gleichungssystem f¨ ur die Koeffizienten cν , ν = 0(1)n − 1: Hc c = −h

(5.3.17a)

mit c = [c0 , c1 , . . . , cn−2 , cn−1 ]T ,

(5.3.17b)

h = [h0 (n + 1), h0 (n + 2), . . . , h0 (2n)]T

(5.3.17c)

und ⎡

h0 (1)

h0 (2)

. . . h0 (n − 1) h0 (n)



⎥ ⎢ h0 (n + 1) ⎥ ⎢ h0 (2) h0 (3) . . . h0 (n) ⎥ ⎢ Hc = ⎢ . ⎥. .. ⎥ ⎢ .. . ⎦ ⎣ h0 (n) h0 (n + 1) . . . h0 (2n − 2) h0 (2n − 1)

(5.3.17d)

Offensichtlich ist ˜ : n, 1 : n) , Hc = S(1

(5.3.18)

˜ ergebende “nordwestliche” n × n Teilmatrix. Damit folgt aus die sich aus S (5.3.17a) c = −H−1 (5.3.19) c · h. Mit den so bestimmten Koeffizienten cν , ν = 0(1)(n − 1) gewinnt man die ¨ ahlerpolynoms der Ubertragungsfunktion, indem n + 1 Koeffizienten bμ des Z¨ man (5.3.16a) f¨ ur k = 0(1)n anschreibt. Es ist b = Hb · c mit

(5.3.20a)

b = [bn , bn−1 , . . . , b0 ]T c = [1, cn−1 , . . . , c0 ]T

(5.3.20b)

332

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

und der unteren Dreiecksmatrix mit T¨ oplitzstruktur ⎡ ⎤ h0 (0) 0 ... 0 ⎢ ⎥ ⎢ h0 (1) h0 (0) ... 0 ⎥ ⎢ ⎥ ⎥ ⎢ . . . ⎢ .. .. .. ⎥ Hb = ⎢ ⎥. ⎥ ⎢ ⎢ h (n − 1) h (n − 2) h (0) 0 ⎥ 0 0 ⎦ ⎣ 0 h0 (n)

(5.3.20c)

h0 (n − 1) h0 (1) h0 (0)

Bei der praktischen Ausf¨ uhrung der beschriebenen Operationen geht man nat¨ urlich von endlich vielen Werten der Impulsantwort h0 (k) aus. Mit h0 (k), k = 0(1)( − 1) erh¨ alt man dann eine /2 × /2 Hankelsche Matrix, mit der bei hinreichend großem Wert die Rechnung durchgef¨ uhrt werden kann. Ist h0 (k) die Impulsantwort eines Systems h¨ oheren Grades oder wurde die Folge meßtechnisch und daher fehlerbehaftet ermittelt, so wird i. allg. die Bestimmung des Rangs der Matrix S einen zu hohen Wert liefern. Man erh¨alt dann eine ¨ Ubertragungsfunktion, bei der entsprechend einige der Pole und Nullstellen im Rahmen der Rechengenauigkeit u uhrt ¨bereinstimmen. Ihre Eliminierung f¨ dann in der Regel zu einem brauchbaren Ergebnis. Wir kommen im Bd. II bei dem Entwurf von Systemen mit vorgeschriebener Impulsantwort auf dieses Verfahren und seine Anwendung noch einmal zur¨ uck. Mit MATLAB ist die R¨ ucktransformation einer vorgegebenen Impulsantwort in ¨ eine rationale Ubertragungsfunktion mit der nachfolgend beschriebenen Funktion [b,c]=imp2tf(h,tol) m¨ oglich. Dabei werden die Funktion hankel(.) f¨ ur die Erzeugung der Matrizen S und Hc sowie die Funktion toeplitz(.) f¨ ur die Matrix Hb ¨ verwendet. Der Rang der Matrix S und somit der Grad der Ubertragungsfunktion l¨ aßt sich mit der Funktion rank(.) bestimmen. Durch eine entsprechende Wahl des ¨ Parameters tol k¨ onnen Uberdeckungen von Pol- und Nullstellen eingeschr¨ ankt wer¨ den. Es wird empfohlen stets eine Uberpr¨ ufung des approximierten Frequenzgangs mit freqz(.) und der Pol- und Nullstellenlage mit zplane(.) durchzuf¨ uhren. Das ∧ Programm geht von dem Vektor h = hl = h0 (k) , k = 0(1)( − 1) aus. function [b,c] = imp2tf(hl,tol) % hl = hl(:); l =length(hl); % Hankelsche Matrix generieren; n = Systemgrad: l1 = floor (l/2); S = hankel(hl(2:l1),hl(l1:2*l1)); if nargin == 1, n = rank(S); else n = rank(S,tol); end % Nennerkoeffizienten: Hc= S(1:n,1:n); h = hl(n+2:2*n+1); c= -Hc\h; c= [1 fliplr(c’)]; % Zaehlerkoeffizienten: Hb = toeplitz(hl(1:n+1),[hl(1) zeros(1,n)]); b = (Hb * c’)’ ;

5.3 Untersuchung im Zeitbereich

333

Das Programm wird in der DSV-Bibliothek, siehe Anhang, Abschn. 7.1.4.5 zur Verf¨ ugung gestellt. •

5.3.3 Zeitverhalten zweier ¨ aquivalenter Systeme zweiten Grades ¨ Zur Erl¨ auterung der bisherigen Uberlegungen behandeln wir als Beispiel ein System 2. Grades. Es sei zun¨ achst in der ersten kanonischen Form gegeben, wird also nach (5.2.3a) durch ⎤ ⎡ ⎡ ⎤ −c1 1 b 1 − b 2 c1 ⎦ , cT1 = [1 0] , d1 = b2 ⎦ , b1 = ⎣ A1 = ⎣ b 0 − b 2 c0 −c0 0 beschrieben. Die Eigenwerte von A1 sind * % c &2 c1 1 . z∞1,2 = − ± −c0 + 2 2 Mit (5.2.24b)

⎡ 1 ⎣ M= z∞1 − z∞2

1

−1

⎤ ⎦

−z∞2 z∞1

folgt aus (5.3.2b) ⎡ Φ(k) = Ak = M ⎣

0

1 = z∞1 − z∞2



k 0 z∞1



⎦ M−1

k z∞2

k+1 k+1 z∞1 − z∞2

k k z∞1 − z∞2



. k−1 k−1 −z∞1 z∞2 [z∞1 − z∞2 ] (5.3.21a) ∗ = ejψ , wobei c1 = −2Re {z∞1 } = −2 cos ψ und Es sei nun z∞1 = z∞2 alt zun¨ achst nach elementaren Umformungen c0 = 2 ist. Man erh¨  

k−1 sin kψ

k sin[(k + 1)ψ] 1 k A = . (5.3.21b) sin ψ − k+1 sin kψ − k sin[(k − 1)ψ] k k −z∞1 z∞2 [z∞1 − z∞2 ]

ur v(k) ≡ 0, Ausgehend von einem Anfangszustand x(0) = [x(0) x(0)]T folgt f¨ also bei einem nicht erregten System ⎤ ⎡1 sin[kψ + ψ ] 1 k

x(0) √ ⎥ ⎢

1 + c0 − c1 ⎣ (5.3.21c) xa (k) = Ak x(0) = ⎦. sin ψ − sin[kψ − ψ2 ]

334

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Hier ist ψ1 = arctan

Im {z∞1 } ; 1 + Re {z∞1 }

ψ2 = arctan

Im {z∞1 } . c0 + Re {z∞1 }

ur ein numerisches Beispiel. Bild 5.14b zeigt xa (k) in der Zustandsebene f¨ Dabei wurden die folgenden Zahlenwerte verwendet    0, 95 ± j0, 2236 c0 = 0, 9525 1 → z∞1,2 = x(0) = . o , ±j13,245 1 c1 = −1, 9 0, 97596 · e Die am Ausgang erscheinende Folge ya (k) = xa1 (k) zeigt Bild 5.14c. Es sei nun bT1 = [1 ], d = 0. Ist jetzt x(0) = 0, so ergibt sich bei Impulserregung mit (5.3.3a) nach Zwischenrechnung   sin[(k − 1)ψ + ψ/2]

k−1 x0 (k) = f (k) = (5.3.21d) γ−1 (k − 1) sin ψ/2 − sin[(k − 1)ψ − ψ/2] sowie entsprechend aus (5.3.3c)  

k−2 sin kψ g(k) = γ−1 (k − 1) . sin ψ sin[(k − 1)ψ]

(5.3.21e)

Die beiden Folgen f (k) und g(k) zeigt Bild 5.14d. Offensichtlich sind f (k) = x0 (k) und xa (k) im Teilbild b sehr ¨ ahnlich. Tats¨achlich erkennt man mit (5.3.1a), daß diese beiden Zustandsvektoren bis auf eine Verschiebung um einen Schritt u ¨bereinstimmen, wenn xa (0) = b1 gew¨ahlt wird. Bild 5.14e zeigt noch die Impulsantwort des Systems, die sich aus f (k) oder g(k) mit (5.3.10b) bzw. (5.3.10c) ergibt. Weiterhin untersuchen wir die Reaktion des Systems bei Sprungerregung. Man erh¨ alt f¨ ur Zustandsvektor und Sprungantwort sehr un¨ ubersichtliche Ergebnisse, auf deren Angabe verzichtet sei. Wir begn¨ ugen uns mit ihrer bildlichen Darstellung, die in den Bildern 5.14f und g gezeigt wird. F¨ ur den Grenzwert findet man   1+

1 . (5.3.21f) x−1 (∞) = 1 + c1 + c0 −c0 + (1 + c1 ) Wir benutzen das Beispiel, um auch die Wirkung einer Transformation der Zustandsvariablen nach Abschn. 5.2.3 zu demonstrieren. Das transformierte System sei durch ⎤ ⎡ Re {z∞ } Im {z∞ } ⎦ (5.3.22a) Aq = ⎣ −Im {z∞ } Re {z∞ } gekennzeichnet, wobei z∞ ein Eigenwert von A ist. Mit (5.2.23) erh¨alt man nach Zwischenrechnung die Transformationsmatrix

5.3 Untersuchung im Zeitbereich

335

Abb. 5.14. Zeitverhalten eines Systems 2. Ordnung. a) Signalflußgraph des untersuchten Systems; b), c) Ausschwingverhalten; d), e) Verhalten bei Impulserregung; f), g) Verhalten bei Sprungerregung

336

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

⎡ T=⎣

−1

0

⎤ ⎦

(5.3.22b)

Im {z∞ } Re {z∞ } und damit



bq = T−1 b1 = ⎣

1/ tan(ψ/2)

⎤ ⎦,

−1

cTq = cT1 · T = [0

− 1] .

Der zugeh¨ orige Signalflußgraph entspricht der Zustandsraumstruktur nach Bild 5.5 durch Umzeichnen erh¨ alt man die Darstellung nach Bild 5.15a. Wir betrachten das Zeitverhalten dieser Struktur. Zun¨achst ist ⎡ ⎤ cos kψ sin kψ ⎦ Akq = k · ⎣ (5.3.22c) − sin kψ cos kψ ⎡

und damit

qa (k) = Akq q(0) = k qˆ ⎣

sin(kψ + ϕq )

⎤ ⎦,

(5.3.22d)

cos(kψ + ϕq ) wobei qˆ =

A q12 (0) + q22 (0) und

ϕq = arctan

q1 (0) q2 (0)

ist. Mit dem Anfangszustand des transformierten Systems ⎤ ⎡ Re {z∞ } 1 1 ⎦ x(0) ⎣ q(0) = T−1 x(0) = Im {z∞ } −Im {z∞ } 0 erh¨ alt man nach Zwischenrechnung, wenn man den Ausgangszustand wie bei der vorausgehenden Untersuchung mit x(0) = [x(0), x(0)]T w¨ahlt, qˆ =

√ x(0) · 1 + c0 − c1 ; Im {z∞ }

ϕq = − arctan

Re {z∞ } + 1 . Im {z∞ }

Charakteristisch f¨ ur diese Struktur ist, daß q(k)2 = qT (k)q(k) = q12 (k) + q22 (k) = 2k qˆ2

(5.3.22e)

ist, also wegen < 1 mit wachsendem k monoton f¨allt (vergl. Abschn. 5.6.3). Bild 5.15b zeigt qa (k) in der Zustandsebene. Der am Ausgang zu beobachtende Vorgang ist derselbe wie schon in Bild 5.14c dargestellt, da die Transformation das am Ausgang zu beobachtende Verhalten nicht ¨andert. Daher stimmen auch die Impuls- und Sprungantworten mit den in den Bildern 5.14e und g gezeigten f¨ ur das urspr¨ ungliche System u ¨berein. Den durch die Transformation ge¨ anderten Verlauf der Zustandsvektoren f¨ ur Impuls- und Sprungerregung zeigen die Bilder 5.15c und d.

5.3 Untersuchung im Zeitbereich

337

Abb. 5.15. Zur Untersuchung eines zu Bild 5.14a ¨ aquivalenten Systems. a) Signalflußgraph; b) Zustandsvektoren beim Ausschwingen; c) bei Impulserregung; d) bei Sprungerregung

Den Grenzwert des Zustandsvektors findet man mit (5.3.13) oder aus q−1 (∞) = T−1 x−1 (∞). Es ist 1− ⎤ ⎢ tan(ψ/2) ⎥ ⎦. ⎣ ⎡ q−1 (∞) =

1 1 + c1 + c0

(5.3.22f)

−(1 + )

F¨ ur die in (5.3.22a) angegebene Matrix Aq des hier betrachteten Systems gilt ATq Aq = Aq ATq .

(5.3.23)

Die durch derart gekennzeichnete normale Matrizen beschriebenen Systeme nennt man ihrerseits normal.

338

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Die zugeh¨ orige Struktur wird als Normal-Form [5.3, 5.24] oder auch Zustandsraumstruktur in der Normal-Form bezeichnet. Sie zeigt g¨ unstige Eigenschaften bez¨ uglich Quantisierungsfehler bei endlicher Wortl¨ange der Koeffizienten und der Zustandsvariablen. 5.3.4 Reaktion des Systems auf ein Zufallssignal In Abschnitt 4.6 haben wir in allgemeiner Form die Reaktion eines stabilen, linearen, zeitinvarianten Systems auf eine Zufallsfolge aus einem ergodischen Prozeß behandelt. Wir greifen die Aufgabe erneut auf, wobei wir eine Darstellung unter Verwendung der ein System mit einem Eingang und einem Ausgang beschreibenden Gr¨ oßen A, b, cT und d suchen. Zun¨ achst wollen wir zeigen, daß bei einer Erregung mit weißem Rauschen der Varianz σv2 = 1 die Kovarianzmatrix des Zustandsvektors der Gramschen Matrix K aus (5.3.4a) entspricht: E{x(k)xT (k)} = K .

(5.3.24)

Dazu setzen wir nach (5.3.1a) mit k0 = −∞ und b statt B x(k) =

k−1 

Ak−1−κ bv(κ) =

κ=−∞

∞ 

Aκ bv(k − κ − 1)

κ=0

und erhalten mit ϕvv (κ − μ) = E{v(k − κ − 1)v(k − μ − 1)} die allgemeine Beziehung E{x(k)xT (k)} =

∞  ∞ 

Aκ bϕvv (κ − μ)[Aμ · b]T .

κ=0 μ=0

Mit ϕvv (κ − μ) = γ0 (κ − μ) wie in (5.3.4a) ergibt sich dann E{x(k)xT (k)} =

∞ 

Ak b[Ak b]T = K .

k=0

Jetzt bestimmen wir f¨ ur λ ≥ 0 ϕyy (λ) = E{y(k + λ)y(k)} . Mit (5.1.2b) erh¨alt man ϕyy (λ) = E{[cT x(k + λ) + dv(k + λ)][cT x(k) + dv(k)]T } = = E{cT x(k + λ)xT (k)c + dv(k + λ)xT (k)c + +[cT x(k + λ)v(k) + dv(k + λ)v(k)]d} .

5.3 Untersuchung im Zeitbereich

339

Hier ist zun¨ achst E{x(k + λ)xT (k)} = T ⎫ ⎬ =E Aκ bv(k + λ − κ − 1) Aμ bv(k − μ − 1) ⎭ ⎩κ=0 μ=0 ⎧ ⎨ ∞

=

∞ ∞ κ=0 μ=0





Aκ b[Aμ b]T · ϕvv (λ − κ + μ) .

Nehmen wir wieder eine Erregung mit weißem Rauschen der Varianz σv2 = 1 an, so ist ϕvv (λ − κ + μ) = γ0 (λ − κ + μ) und man erh¨alt mit κ = λ + μ E{x(k + λ)xT (k)} =

∞ 

Aλ Aμ b[Aμ b]T = Aλ K ,

∀λ ≥ 0 .

(5.3.25)

μ=0

Weiterhin muß E{v(k + λ)xT (k)} = 0T sein f¨ ur λ ≥ 0, da der Zustandsvektor im Augenblick k nicht mit den Eingangswerten f¨ ur k + λ ≥ k korreliert sein kann. Schließlich ist  E [cT x(k + λ)v(k) + dv(k + λ)v(k)]d =

∞ = cT Aκ bγ0 (λ − κ − 1) + dγ0 (λ) d κ=0

! " = cT Aλ−1 bγ−1 (λ − 1) + dγ0 (λ) d = h0 (λ)d . Damit ergibt sich f¨ ur λ ≥ 0 ϕyy (λ) = cT Aλ Kc + h0 (λ)d .

(5.3.26)

Unter den gemachten Voraussetzungen ist ϕyy (λ) zugleich die Autokorrelierte der Impulsantwort, die wir mit (4.6.3a) als (λ) = h0 (λ)∗h0 (−λ) definiert haben. Im Abschnitt 5.6.2 werden wir sie in anderer Form darstellen, s. (5.6.20). Speziell f¨ ur λ = 0 findet man hier ϕyy (0) =

∞ 

h20 (k) = cT Kc + d2 .

(5.3.27)

k=0

Der Wert der Autokorrelierten ϕyy (0) der Impulsantwort bei Verschiebung λ = 0 entspricht der bei Erregung mit weißem Rauschen u ¨bertragenen Leistung. Wir hatten bereits in Abschnitt 4.6 festgestellt, daß die Betrachtungen zu modifizieren sind, wenn das stochastische Eingangssignal v(k) im Punkte k = 0 eingeschaltet wird. F¨ ur das sich ergebende nicht station¨are Ausgangssignal y(k) hatten wir den Mittelwert μy (k) und die Varianz σy2 (k) errechnet,

340

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

wobei wir von der Impulsantwort h0 (k) zur Beschreibung des Systems ausgingen (s. (4.6.10,11) und Bild 4.18). Entsprechende Untersuchungen kann man unter Verwendung der Gr¨ oßen A und b f¨ ur den Zustandsvektor machen. Man erh¨ alt  k  f (κ)v(k − κ) μx (k) = E{x(k)} = E κ=1

= μv

k 

f (κ) = μv (E−A)−1 (E−Ak ) · b · γ−1 (k−1).(5.3.28a)

κ=1

Der Vektor der “inneren Sprungantworten” beschreibt offenbar den Verlauf are Wert von μx (k), dessen Grenzwert der station¨ μx = lim μx (k) = μv (E − A)−1 · b k→∞

(5.3.28b)

ist (vergl. (5.3.13)). Dann folgt f¨ ur den Erwartungswert der Ausgangsfolge μy (k) = cT μx (k) + μv dγ−1 (k) ,

(5.3.28c)

ein Ausdruck, der sich mit (5.3.11) unmittelbar in das fr¨ uher gefundene Ergebnis (4.6.10) u uhren l¨ aßt. ¨berf¨ Die Varianz der einzelnen Komponenten xν (k) bestimmen wir mit  k k  2 σxν (k) = E fν (μ)fν (κ)v(k − μ)v(k − κ) − μ2xν (k) . μ=1 κ=1

Setzt man statistische Unabh¨ angigkeit aufeinander folgender Werte v(k) voraus, so erh¨ alt man wie in Abschnitt 4.6 σx2ν (k) = σv2

k 

fν2 (κ) =: σv2 · wfν (k) .

(5.3.29a)

κ=1

Die wfν (k) lassen sich zu einer Vektorfolge wf (k) zusammenfassen. Damit ergibt sich (5.3.29b) σ 2x (k) = σv2 · wf (k) . Mit MATLAB k¨ onnen wir ein weiteres Programm zur Berechnung der Energie¨ ubertragung angeben.Das System werde mit weißem Rauschen erregt und sei ∧ ∧ durch die Zustandsmatrizen [A,B, C,D] definiert. Dabei entspricht A = A ; B = ∧ T ∧ b; C = c ; D = d. function w = energyss(A,B,C,D) K = gram(A,B); w = C*K*C’ + D*D; Das Programm wird in der DSV-Bibliothek, siehe Anhang, Abschn. 7.1.4.1 zur • Verf¨ ugung gestellt.

5.4 Die L¨ osung der Systemgleichung im Frequenzbereich

341

5.4 Die L¨ osung der Systemgleichung im Frequenzbereich Die L¨ osung der ein lineares, zeitinvariantes System beschreibenden Differenzengleichung kann mit Hilfe der Z-Transformation in sehr u ¨bersichtlicher Weise im Frequenzbereich erfolgen, wobei der durch den Anfangszustand hervorgerufene Anteil unmittelbar mit bestimmt wird. Wir ben¨otigen dabei insbesondere die in Abschnitt 2.5.2 behandelte einseitige Z-Transformation. 5.4.1 Differenzengleichung zweiter Ordnung Zur Einf¨ uhrung betrachten wir erneut ein System, das durch die Differenzengleichung (5.2.1a) y(k + 2) + c1 y(k + 1) + c0 y(k) = b2 v(k + 2) + b1 v(k + 1) + b0 v(k) bzw. durch die entsprechende Zustandsgleichung (5.2.2) mit (5.2.3a)         x1 (k + 1) −c1 1 x1 (k) b 1 − b 2 c1 v(k) = · + b 0 − b 2 c0 x2 (k + 1) −c0 0 x2 (k) y(k)

x1 (k)

=

+

b2 · v(k)

beschrieben sei. Das System werde mit einer bei k = 0 einsetzenden Folge v(k) erregt. Sein Anfangszustand x(0) = [x1 (0), x2 (0)]T sei bekannt. Wir wenden auf (5.2.1a) die Z-Transformation an und erhalten mit dem Verschiebungssatz (2.5.9a) Y (z)[z 2 + c1 z + c0 ] − (z 2 + c1 z)y(0) − zy(1) = = V (z)[b2 z 2 + b1 z + b0 ] − (b2 z 2 + b1 z)v(0) − zb2 v(1) . Hier sind V (z) = Z{v(k)} und Y (z) = Z{y(k)} die Z-Transformierten der bekannten Eingangsfolge v(k) bzw. der gesuchten Ausgangsfolge y(k). Es ergibt sich (5.4.1a) Y (z) = Ya (z) + H(z)V (z) mit Ya (z) =

z 2 [y(0) − b2 v(0)] + z[c1 y(0) − b1 v(0) + y(1) − b2 v(1)] z 2 + c1 z + c0

und H(z) =

b2 z 2 + b1 z + b0 . z 2 + c1 z + c0

(5.4.1b)

(5.4.1c)

In (5.4.1a) beschreibt Ya (z) den durch die Anfangswerte bestimmten Beitrag zur Gesamtl¨ osung. Die beiden hier ben¨ otigten Werte y(0) und y(1) gewinnt man aus dem gegebenen Anfangszustand x(0), wenn man (5.2.2) f¨ ur k = 0 und k = 1 auswertet. Es ist

342

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

y(0) = x1 (0) + b2 v(0) , y(1) = −c1 x1 (0) + x2 (0) + (b1 − b2 c1 )v(0) + b2 v(1) . Damit folgt unmittelbar Ya (z) =

x1 (0)z 2 + x2 (0)z . z 2 + c1 z + c0

(5.4.1d)

¨ H(z) ist wieder die mit (5.2.4a) eingef¨ uhrte Ubertragungsfunktion des Systems, mit der aber jetzt offenbar das Verhalten f¨ ur weitgehend beliebige Eingangsfolgen beschrieben werden kann und nicht nur, wie fr¨ uher, f¨ ur v(k) = V z k . Die Beziehungen zwischen diesen beiden Betrachtungen werden deutlicher, wenn wir hier eine Erregung der Form v(k) = V0 z0k γ−1 (k) annehmen, wobei V0 und z0 beliebige komplexe Konstante sind. Nach (2.5.3a) ist dann z . V (z) = Z{v(k)} = V0 z − z0 Weiterhin gelte f¨ ur das Nennerpolynom von H(z) und Ya (z) z 2 + c1 z + c0 = (z − z∞1 )(z − z∞2 ) mit z∞1 = | z∞2 = | z0 . Dann k¨ onnen wir Y (z) mit einer Partialbruchzerlegung in der folgenden Form darstellen z z z Y (z) = Ba1 + Ba2 + H(z0 )V0 z − z∞1 z − z∞2 z − z0 (5.4.2a) z z +V (z∞1 )B1 + V (z∞2 )B2 . z − z∞1 z − z∞2 Hier sind x1 (0)z∞1,2 + x2 (0) Ya (z) = ,(5.4.2b) z z∞1,2 − z∞2,1 V0 z∞1,2 H(z) = = lim (z − z∞1,2 )V (z) B1,2 .(5.4.2c) z→z∞1,2 z z∞1,2 − z0

Ba1,2 = V (z∞1,2 )B1,2

lim (z − z∞1,2 )

z→z∞1,2

Die R¨ ucktransformation von (5.4.2a) liefert mit (2.5.3a) f¨ ur k ≥ 0 k k y(k) = Ba1 z∞1 + Ba2 z∞2 + H(z0 )V0 z0k +

V0 z∞1 V0 z∞2 k k B1 z∞1 + B2 z∞2 . z∞1 − z0 z∞2 − z0 (5.4.3a)

Wir unterscheiden drei Anteile: Der Ausschwinganteil k k ya (k) = Ba1 z∞1 + Ba2 z∞2

(5.4.3b)

wird in seinem zeitlichen Verlauf durch die Eigenwerte z∞1,2 des Systems bestimmt. Die Gleichung zeigt, daß er nur f¨ ur x(0) = | 0 auftritt.

5.4 Die L¨ osung der Systemgleichung im Frequenzbereich

Abb. 5.16. Einschwingverhalten eines System zweiter Ordnung. a) |H(ejΩ )| und b(Ω), b) v(k) = cos Ω0 k, Ω0 = π/16; c) y(k); d) yein (k); e) yerr (k) = |H(ejΩ0 )| cos[Ω0 k − b(Ω0 )]

343

344

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Der Erregeranteil

yerr (k) = H(z0 )V0 z0k

(5.4.3c)

ist von der Form der erregenden Folge. Seine Gr¨oße wird durch die F¨ahigkeit des Systems bestimmt, eine durch z0 charakterisierte Exponentialfolge zu ¨ u H(z) bei z = z0 . ¨bertragen, d.h. durch den Wert der Ubertragungsfunktion Nur dieser Anteil wurde bei der Betrachtung in Abschn. 5.2.1 erfaßt. Der Einschwinganteil yein (k) =

V0 z∞1 V0 z∞2 k k B1 z∞1 + B2 z∞2 z∞1 − z0 z∞2 − z0

(5.4.3d)

besteht ebenfalls aus den f¨ ur das System charakteristischen Eigenschwingunk k und B2 z∞2 , die entsprechend dem Wert von V (z) in den Punkten gen B1 z∞1 z = z∞1 bzw. z = z∞2 angeregt werden. Bild 5.16 zeigt als Beispiel das Einschwingverhalten des in Abschn. 5.3.3 ur verwendeten Systems zweiter Ordnung bei Erregung mit v(k) = cos Ω0 k f¨ Ω0 = π/16. Dabei wurde eine Skalierung vorgenommen derart, daß H(1) = 1 ist. Es wurde x(0) = 0 gew¨ ahlt, so daß der Ausschwinganteil entf¨allt. 5.4.2 Behandlung des allgemeinen Falles Wir k¨ onnen das bisher am Beispiel eines Systems zweiter Ordnung vorgestellte Verfahren ohne weiteres auf Systeme h¨ oherer Ordnung verallgemeinern. Die Beschr¨ ankung auf Anordnungen mit einem Eingang und Ausgang behalten wir zun¨ achst bei. Zweckm¨ aßig gehen wir von der in (5.2.2) gegebenen Zustandsbeschreibung aus x(k + 1) = Ax(k) + bv(k) , y(k) = cT x(k) + dv(k) . Der Anfangszustand x(0) sei bekannt, die Eingangsfolge beginne bei k = 0. Die Z-Transformation der ersten obigen Gleichung liefert zX(z) − zx(0) = AX(z) + b · V (z) . Hier sind X(z) = Z{x(k)} und V (z) = Z{v(k)} die Z-Transformierten des Zustandvektors und der Eingangsfolge. Man erh¨alt X(z) = (zE − A)−1 zx(0) + (zE − A)−1 b · V (z) . Wir f¨ uhren nun die zu A geh¨ orige charakteristische Matrix N(z) und ihr charakteristisches Polynom N (z) ein. Es ist N(z) = zE − A , N (z) = det {N(z)} . Man erh¨ alt mit der Bezeichnung

(5.4.4a) (5.4.4b)

5.4 Die L¨ osung der Systemgleichung im Frequenzbereich

Φ(z) = z(zE − A)−1 = zN−1 (z) = z

Nadj (z) N (z)

X(z) = Φ(z)x(0) + z −1 Φ(z)b · V (z) .

345

(5.4.4c) (5.4.5a)

Unterwirft man weiterhin die Ausgangsgleichung (5.2.2b) der Z-Transformation und setzt X(z) ein, so folgt Y (z) = cT Φ(z)x(0) + [cT z −1 Φ(z)b + d]V (z) .

(5.4.5b)

Wie in dem oben betrachteten Beispiel k¨ onnen wir dieses Ergebnis in der Form Y (z) = Ya (z) + H(z)V (z) (5.4.6a) darstellen. Der Term

Ya (z) = cT Φ(z)x(0)

(5.4.6b)

bestimmt offenbar das Ausschwingverhalten. Der Vergleich mit (5.3.1) zeigt f¨ ur k0 = 0, daß Φ(k) = Ak = Z −1 {(zE − A)−1 z} = Z −1 {Φ(z)}

(5.4.5c)

sein muß. Weiterhin ist wie in (5.2.5b) H(z) = cT z −1 Φ(z)b + d = cT (zE − A)−1 b + d

(5.4.6c)

¨ die Ubertragungsfunktion des Systems, jetzt aber mit einer f¨ ur weitgehend beliebige Eingangsfolgen g¨ ultigen Bedeutung. F¨ ur die weitere Untersuchung stellen wir H(z) in anderer Form dar. Im Anhang 7.3.3 wird gezeigt, daß H(z) =

Z(z) det {zE − A + bcT } = − 1 + d. N (z) N (z)

(5.4.7)

¨ ist. Damit erh¨ alt man die Ubertragungsfunktion unmittelbar als Quotient zweier Polynome wie in (5.2.8). Entsprechend kann man auch bei den anderen oben eingef¨ uhrten Gr¨ oßen vorgehen. Zun¨ achst sind die Elemente der Matrix Φ(z)

det {zE − A + eμ eTν } φνμ (z) = z − 1 ; ν, μ = 1(1)n , (5.4.8a) N (z) wobei eμ und eν die μ-ten bzw. ν-ten Einheitsvektoren sind. Weiterhin wird das Ausschwingverhalten mit Ya (z) = z

det {zE − A + x(0)cT } N (z)

beschrieben. F¨ ur die ν-te Komponente von X(z) gilt

(5.4.8b)

346

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen



 det {zE − A + x(0)eTν } det{zE − A + beTν } −1 + − 1 V (z) Xν (z) = z N (z) N (z) (5.4.8c) Weiterhin kann man die in Abschnitt 5.3.1 eingef¨ uhrten Gr¨oßen detaillierter angeben. Zun¨ achst folgt f¨ ur die Z-Transformierte des mit (5.3.3a) definierten Vektors f (k) der Zustandsvariablen bei Impulserregung

F(z) = Z{f (k)} = z −1 Φ(z)b = (zE − A)−1 b .

(5.4.9)

Die Z-Transformierte des Vektors g(k) der Impulsantworten von den n inneren Punkten zum Ausgang ist mit (5.3.3c) GT (z) = Z{gT (k)} = z −1 cT Φ(z) = cT (zE − A)−1 .

(5.4.10)

Die einzelnen Komponenten dieser Vektoren kann man offensichtlich entsprechend (5.4.8c) als rationale Funktionen angeben. Die im Abschnitt 5.3.1 eingef¨ uhrten Gramschen Matrizen lassen sich mit (5.4.9,10) auch ausgehend vom z-Bereich formulieren. Mit Hilfe des Multiplikationssatzes (2.5.14) der Z-Transformation erh¨ alt man  1 dz  F(z)FT (z −1 ) , (5.4.11) K= 6 2πj z |z|=1

W=

 1 dz  G(z)GT (z −1 ) . 6 2πj z

(5.4.12)

|z|=1

¨ Der Ubergang in den Zeitbereich erfolgt unmittelbar durch inverse Z-Transformation der oben gefundenen rationalen Funktionen. Wir erl¨autern die Zusammenh¨ ange f¨ ur die Impulsantwort h0 (k) = Z −1 {H(z)} .

(5.4.13)

Wenn wir voraussetzen, daß das System vollst¨andig steuerbar und beobacht¨ bar ist, so gilt hier f¨ ur die Ubertragungsfunktion H(z) m

H(z) =

μ=0 n ν=0

bμ z μ = cν z ν

Z(z) = N (z)

Z(z) cn

n0 '

.

(5.4.14a)

(z − z∞ν )nν

ν=1

Bei einem kausalen System ist h0 (k) = 0, k < 0. Nach der Definition der Z-Transformation ist daher H(z) = Z{h0 (k)} =

∞  k=0

h0 (k)z −k .

(5.4.14b)

5.4 Die L¨ osung der Systemgleichung im Frequenzbereich

347

Mit Hilfe einer Durchdivision erhalten wir andererseits mit cn = 1 H(z) = bm z m−n + (bm−1 − bm cn−1 )z m−(n+1) + . . . . Der Vergleich mit (5.4.14a) zeigt, daß aus Kausalit¨atsgr¨ unden m≤n

(5.4.15)

sein muß (vergl. Abschn. 5.5.2). Nehmen wir ohne Einschr¨ankung der Allgemeing¨ ultigkeit an, daß m = n ist, so l¨ aßt sich der Zusammenhang zwischen den Werten h0 (k) und den Koeffizienten bμ und cν in der Form ⎡

h0 (0)





bn





0

...

⎢ ⎥ ⎢ ⎥ ⎢ 0 ⎢ h0 (1) ⎥ ⎢ bn−1 ⎥ ⎢ h0 (0) ⎢ ⎥ ⎢ ⎥ ⎢ ⎢ h0 (2) ⎥ ⎢ bn−2 ⎥ ⎢ h0 (1) h0 (0) ⎢ ⎥ ⎢ ⎥ ⎢ ⎢ ⎥ ⎢ ⎥ ⎢ ⎢ ⎥ ⎢ .. ⎥ ⎢ .. .. .. ⎢ ⎥=⎢ . ⎥−⎢ . . . ⎢ ⎥ ⎢ ⎥ ⎢ ⎢ ⎥ ⎢ ⎥ ⎢ ⎢ h0 (n) ⎥ ⎢ b0 ⎥ ⎢ h0 (n − 1) h0 (n − 2) ⎢ ⎥ ⎢ ⎥ ⎢ ⎢ ⎥ ⎢ ⎥ ⎢ ⎢ h0 (n + 1) ⎥ ⎢ 0 ⎥ ⎢ h0 (n) h0 (n − 1) ⎣ ⎦ ⎣ ⎦ ⎣ .. .. .. .. . . . .

... ... ... ..

.

... ...

0



⎥ ⎡ ⎤ ⎥ cn−1 ⎥ ⎢ ⎥ 0 ⎥ ⎥ ⎢ cn−2 ⎥ ⎥ ⎢ ⎥ ⎥ ⎥ ⎢ ⎥ · ⎢ cn−3 ⎥ ⎥ ⎢ ⎥ ⎥ ⎢ ⎥ h0 (0) ⎥ ⎢ ... ⎥ ⎥ ⎣ ⎦ ⎥ h0 (1) ⎥ c0 ⎦ .. . 0

(5.4.16) darstellen. Sie l¨ aßt erneut erkennen, daß sich nicht nur die Werte der Impulsantwort aus den insgesamt 2n + 1 Koeffizienten bμ , cν ergeben, sondern daß auch umgekehrt diese Koeffizienten aus 2n + 1 Werten h0 (k) bestimmbar sein m¨ ussen. Wir hatten die Methode bereits in Abschnitt 5.3.2 vorgestellt. Aus (5.4.14a) gewinnen wir einen geschlossenen Ausdruck f¨ ur h0 (k), wenn wir entsprechend dem in Abschnitt 2.5.4 gezeigten Verfahren H(z) = B0 +

n0  nν 

Bνκ

ν=1 κ=1

z (z − z∞ν )κ

(5.4.17a)

der R¨ ucktransformation unterwerfen. Hier ist B0 = H(0), w¨ahrend Bνκ die Koeffizienten der Partialbruchentwicklung von H(z)/z sind, die mit (2.5.27b) zu bestimmen sind. Es folgt mit (2.5.28b) h0 (k) = B0 γ0 (k) + = B0 γ0 (k) +

n0  nν  ν=1 κ=1 n0  nν 

 Bνκ

 k z k+1−κ γ−1 (k) κ − 1 ∞ν

k+1−κ Pν,κ−1 (k)z∞ν γ−1 (k) ,

(5.4.18a) (5.4.18b)

ν=1 κ=1

wobei Pν,κ−1 (k) ein Polynom in k vom Grad κ − 1 ist. Im Fall einfacher Pole spezialisieren sich diese Ausdr¨ ucke auf

348

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

H(z) = B0 +

n 



ν=1

und h0 (k) = B0 γ0 (k) +

n 

z z − z∞ν

k Bν z∞ν γ−1 (k) .

(5.4.17b)

(5.4.18c)

ν=1

Wir geben noch die Sprungantwort an. Man erh¨alt sie als #  z H(z) h−1 (k) = Z −1 z−1 oder nach (4.2.12d) durch Aufsummation von h0 (k). Im Falle einfacher Pole ist   n  z∞ν k z∞ν h−1 (k) = H(1) + Bν (5.4.19) γ−1 (k) . z − 1 ∞ν ν=1 Es interessiert schließlich die Verallgemeinerung auf ein System mit Eing¨angen und r Ausg¨ angen. Man erh¨ alt jetzt in Erweiterung von (5.4.6a) Y(z) = Ya (z) + H(z)V(z) ,

(5.4.20a)

wobei V(z) die Z-Transformierte des Eingangsvektors v(k) ist. Entsprechend (5.4.6b) beschreibt (5.4.20b) Ya (z) = CΦ(z)x(0) das Ausschwingverhalten, w¨ ahrend H(z) = C(zE − A)−1 B + D

(5.4.20c)

¨ die schon mit (5.2.18) eingef¨ uhrte (r × ) Ubertragungsmatrix ist. Ihre Elealt man unter Verwendung von (5.4.7) mit mente Hλ (z) erh¨ Hλ (z) =

det{zE − A + bλ cT } Zλ (z) = − 1 + dλ . N (z) N (z)

(5.4.21)

Hier ist bλ der λ-te Spaltenvektor von B und cT der -te Zeilenvektor in C. Die Elemente hλ (k) der Matrix der Impulsantworten h0 (k) = Z −1 {H(z)} = Z −1 {C(zE − A)−1 B + D}

(5.4.22)

gewinnt man dann durch R¨ ucktransformation dieser Teil¨ ubertragungsfunktionen. In MATLAB k¨ onnen bei einem durch A, B, C und D beschriebenen System mit  Eing¨ angen und r Ausg¨ angen mit dem Befehl [b,c] = ss2tf(A,B,C,D,la) mit ¨ la =λ ˆ alle Ubertragungsfunktionen Hλ (z), = 1(1)r vom Eingang λ aus berechnet werden, wobei die Matrix der Koeffizienten der Z¨ ahlerpolynome b und das Nennerpolynom c angegeben wird. Bei einem System mit einem Eingang ist la=1 zu setzen.

¨ 5.5 Eigenschaften der Ubertragungsfunktion

349

Das Programm verwendet die Beziehung (5.4.7). Bez¨ uglich der Rechengenauigkeit verweisen wir auf die in Abschnitt 5.2.2 eingebrachte Bemerkung. Bei h¨ ohergradigen Systemen f¨ uhrt die folgende Berechnung zu einer h¨ oheren Genauigkeit des Frequenzgangs. Mit dem Befehl [sos,g]=ss2sos(A,B,C,D,la) aus der Signal Processing Toolbox wird das System zun¨ achst nach Abschnitt 5.2.2 in die SOS-Form umgerechnet. Mit der Funktion sosfreqz(.) aus der DSV-Bibliothek (siehe Anhang, Abschn. 7.1.4.1) wird dann der Frequenzgang des Systems durch Multiplikation der Teilfrequenzg¨ ange der Bl¨ ocke 2. Grades berechnet. ¨ Der Ubergang in den Zeitbereich kann entsprechend (5.4.17,18) u ¨ber eine Partialbruchzerlegung mit den Funktionen residue(.) bzw.residuez(.) erfolgen, siehe hierzu die Angaben zur Z-R¨ ucktransformation in Absch. 2.5.4. Die Impulsantwort hλ kann z. B. mit der Funktion impz(.) berechnet werden. Weiter verweisen wir auf die Ausf¨ uhrung zu MATLAB in Abschnitt 5.3.1. Die Berechnug der Folgen Φ(z) oder die Funktion X(z) undYa (z) sind entsprechend m¨ oglich. Aus den Angaben zu (5.4.8) ist unmittelbar zu entnehmen, welche Varianten bez¨ uglich B und C zu verwenden sind. Die Berechnung der zugeh¨ origen zeitlichen Folgen geschieht danach ebenso wie oben f¨ ur die Impulsantwort angegeben. •

¨ 5.5 Eigenschaften der Ubertragungsfunktion ¨ Die in Abschn. 4.3 eingef¨ uhrte Ubertragungsfunktion beschreibt die F¨ahigkeit eines linearen, zeitinvarianten Systems, eine Exponentialfolge zu u ¨bertragen. Bei den in diesem Kapitel behandelten Systemen haben wir sie in (5.2.8) und (5.2.9) als rationale Funktion m

H(z) =

μ=0 n ν=0

m '

bμ z μ = cν z ν

μ=1 bm ' n ν=1

(z − z0μ )

(z − z∞ν )

=

Z(z) N (z)

erhalten. Im letzten Abschnitt hatte sie sich als Z-Transformierte der Impulsantwort erwiesen und damit als geeignet f¨ ur die Bestimmung des Systemver¨ haltens bei beliebiger Erregung. Hier untersuchen wir die Ubertragungsfunktion selbst bzw., wie sich bestimmte Eigenschaften des Systems in ihr zeigen. 5.5.1 Stabilit¨ at In Abschnitt 4.2 haben wir gefunden, daß die Impulsantwort eines bez¨ uglich seines Eingangs–Ausgangsverhaltens stabilen diskreten Systems absolut summierbar sein muß. In dem hier betrachteten Fall muß also ∞  k=0

|h0 (k)| = M < ∞

350

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

sein. Mit (5.4.18b) gilt ∞ 

|h0 (k)| ≤ |B0 | +

n0  nν  ∞ 

k+1−κ |Pν,κ−1 (k)z∞ν |.

ν=1 κ=1 k=0

k=0

k+1−κ Demnach m¨ ussen alle Terme Pν,κ−1 (k)z∞ν absolut summierbar sein. Als notwendige und hinreichende Bedingung f¨ ur die von außen erkennbare Stabi¨ lit¨ at eines Systems erhalten wir damit f¨ ur die Pole der Ubertragungsfunktion

|z∞ν | < 1, ∀ν .

(5.5.1a)

Gilt f¨ ur einen oder mehrere Pole |z∞ν | = 1,

nν = 1 ,

(5.5.1b)

liegen also einfache Pole auf dem Einheitskreis, w¨ahrend die u ¨brigen im Innern liegen, so haben wir eine zwar nicht abklingende, aber beschr¨ankte Impulsantwort. In diesem Fall liegt ein bedingt stabiles System vor, das z.B. im Falle einer beschr¨ ankten Erregung endlicher Dauer zu einer beschr¨ankten Reaktion f¨ uhrt (vergl. Abschn. 5.6.3). Schließlich haben wir ein instabiles System, wenn gilt |z∞ν | > 1 oder |z∞ν | = 1 mit

nν > 1 f¨ ur wenigstens ein ν .

(5.5.1c)

Wir haben dieses Ergebnis unter Verwendung der in der Impulsantwort auftretenden Eigenschwingungen gewonnen, die nach Abschnitt 5.2.4 also sowohl steuerbar wie beobachtbar sind. Eine vollst¨ andige Stabilit¨atsbetrachtung wird offenbar von den Komponenten des Zustandsvektors ausgehen m¨ ussen, die alk+1−κ enthalten. Bei den steuerlerdings ebenfalls Terme der Form Pν,κ−1 (k)z∞ν baren Eigenschwingungen wird man damit wieder auf die Forderung (5.5.1a) gef¨ uhrt. Die nicht steuerbaren Eigenschwingungen bleiben beschr¨ankt, wenn (5.5.1b) erf¨ ullt ist. Offenbar ist der wesentliche Unterschied zu der von der Impulsantwort ausgehenden Betrachtung, daß die Aussagen (5.5.1) sich jetzt auf die Eigenwerte der Matrix A beziehen und nicht nur auf die Pole der ¨ Ubertragungsfunktion H(z), die bei nicht vollst¨andiger Steuerbarkeit oder Beobachtbarkeit nur einen Teil der Eigenwerte erfassen. Die Kontrolle der Stabilit¨ at eines linearen Systems f¨ uhrt also auf die Untersuchung, ob die Nullstellen des charakteristischen Polynoms N (z) seiner ¨ Matrix A (bzw. des Nennerpolynoms seiner Ubertragungsfunktion H(z)) ausschließlich im Innern des Einheitskreises der z-Ebene liegen. Bei kontinuierlichen Systemen gibt es bekanntlich eine Reihe von algebraischen Methoden zur Stabilit¨ atsuntersuchung, mit denen festgestellt werden kann, ob das charakteristische Polynom ein Hurwitzpolynom ist, d.h. ob seine Nullstellen in der offenen linken Halbebene liegen, ohne daß diese Nullstellen selbst errechnet werden m¨ ussen (z.B. [5.6]). Diese Verfahren lassen sich auch hier anwenden, wenn wir zuvor durch eine geeignete rationale Transformation das Innere

¨ 5.5 Eigenschaften der Ubertragungsfunktion

351

des Einheitskreises der z-Ebene umkehrbar eindeutig auf die offene linke wHalbebene abbilden. Die bilineare Transformation z=−

w+1 w−1

(5.5.2)

leistet diese Abbildung. Wird sie auf N (z) angewendet, so entsteht eine rationale Funktion mit einem n-fachen Pol bei w = 1 und einem Z¨ahlerpolynom, auf das einer der Stabilit¨ atstests, z.B. der Hurwitz- oder der Routh-Test angewendet werden kann. Wegen der umkehrbar eindeutigen Abbildung ist die dabei gewonnene Aussage zugleich die Antwort auf die Frage, ob das vorgelegte Polynom N (z) stabil ist. Zur Erl¨ auterung leiten wir mit diesem Verfahren die Bedingungen her, die die Koeffizienten eines Polynoms 2. Grads im Stabilit¨ atsfall erf¨ ullen m¨ ussen. Aus N (z) = z 2 + c1 z + c0 folgt   w+1 (1 − c1 + c0 )w2 + 2(1 − c0 )w + (1 + c1 + c0 ) N − . = w−1 (w − 1)2 F¨ ur ein Hurwitzpolynom zweiten Grads ist notwendig und hinreichend, daß alle Koeffizienten das gleiche Vorzeichen haben und nicht verschwinden (z.B. [5.6]). Zun¨ achst gilt im Falle der Stabilit¨ at f¨ ur c0 = z∞1 z∞2 wegen (5.5.1a) sicher |c0 | < 1

(5.5.3a)

und daher f¨ ur den Koeffizienten von w im obigen Z¨ahlerpolynom 2(1−c0 ) > 0. Damit muß 1 − c1 + c0 > 0 und 1 + c1 + c0 > 0 sein, und es folgt die zweite Bedingung (5.5.3b) |c1 | < 1 + c0 . Bild 5.17 zeigt das Dreieck, in dem die Koeffizientenpaare (c0 , c1 ) liegen m¨ ussen. Es ist angegeben, welche charakteristischen Pollagen sich f¨ ur bestimmte Wertepaare ergeben. Insbesondere best¨atigt man leicht, daß sich f¨ ur √ (5.5.4a) 0 < c0 < 1 , |c1 | < 2 c0 Paare von zueinander konjugiert komplexen Polen ergeben, f¨ ur die gilt:

√ c1 z∞1,2 = ∞ e±jψ∞ , ∞ = + c0 , ψ∞ = arccos − √ . (5.5.4b) 2 c0 Die eben f¨ ur das einfache Beispiel eines Polynoms zweiten Grads erl¨auterte bilineare Transformation wird bei h¨ oheren Graden sehr m¨ uhsam, wenn man sie in der beschriebenen elementaren Weise vornimmt. In [5.7] und [5.8] wird

352

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Abb. 5.17. Wertebereich der Koeffizienten c0 , c1 bei einem stabilen System 2. Ordnung

z.B. gezeigt, daß sich bei einem Polynom n-ten Grads die n¨otigen Operationen als Multiplikation einer (n + 1) × (n + 1) Matrix mit bestimmten ganzzahligen Koeffizienten mit dem Vektor der n+1 Koeffizienten des zu transformierenden Polynoms ausf¨ uhren lassen. Die Zahl der erforderlichen arithmetischen Operationen l¨ aßt sich weiter reduzieren, wenn man die Transformation in eine Folge von elementaren Manipulationen an dem zu untersuchenden Polynom aufl¨ ost (z.B. [5.9; 5.10]). Wichtiger sind algebraische Methoden, mit denen die Stabilit¨atsuntersuchung unmittelbar im z-Bereich durchgef¨ uhrt werden kann. Eine ausf¨ uhrliche Behandlung findet sich z.B. in [5.11]. Wir behandeln hier zwei Stabilit¨atstheoreme f¨ ur diskrete Systeme, die auch die Basis f¨ ur numerische Methoden zur

¨ 5.5 Eigenschaften der Ubertragungsfunktion

353

Stabilit¨ atskontrolle bilden. Zun¨ achst zeigen wir in Anlehnung an [5.12] Eigenschaften eines stabilen Polynoms N (z), die eng mit denen eines HurwitzPolynoms verwandt sind, dem Nennerpolynom eines stabilen kontinuierlichen Systems (z.B. [5.6]). Es sei mit cν ∈ R N (z) =

n  ν=0

cν z ν =

n (

(z − z∞ν ) mit

cn = 1 und

|z∞ν | < 1, ∀ν .

ν=1

Offenbar folgt aus (5.5.1a) als notwendige Stabilit¨atsbedingung |c0 | =

n (

|z∞ν | < 1 .

(5.5.5a)

ν=1

Wir betrachten nun z n N (z −1 ) =

n ' ν=1

−1 z∞ν

(1 − zz∞ν ) , ein Polynom, dessen Null-

∗ stellen bei liegen, sich also durch Spiegelung von z∞ν am Einheitskreis ∗ ) und ergeben. Durch Vergleich der entsprechenden Linearfaktoren (z − z∞ν (1 − zz∞ν ) ergibt sich dann

|N (z)| < |z n N (z −1 )| , |z| < 1 , |N (z)| = |z n N (z −1 )| , |z| = 1 , n

|N (z)| > |z N (z Mit Q(z) =

−1

(5.5.5b)

)| , |z| > 1 .

N (z)

(5.5.5c)

z n N (z −1 )

und ersichtlicher Bedeutung der Bezeichnung l¨ aßt sich das in der Form |Q(z)|

1

f¨ ur

|z|

1

(5.5.5d)

darstellen. Die Aussage (5.5.5b) bzw. (5.5.5d) ist notwendig und hinreichend f¨ ur die Stabilit¨ at von N (z). Sie l¨ aßt sich aber nur schwer f¨ ur eine Stabilit¨atskontrolle verwenden. Wir f¨ uhren nun die Polynome D1 (z) = N (z) + z n N (z −1 ) =

n 

ν d(1) ν z

mit d(1) ν = cν + cn−ν

(5.5.6a)

ν d(2) ν z

mit

d(2) ν = cν − cn−ν

(5.5.6b)

ν=0

und D2 (z) = N (z) − z n N (z −1 ) =

n  ν=0

ein. Hier ist D1 (z) ein sogenanntes Spiegelpolynom mit der Eigenschaft D1 (z) = z n D1 (z −1 )

(5.5.7a)

354

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

und D2 (z) ein Antispiegelpolynom, das durch D2 (z) = −z n D2 (z −1 )

(5.5.7b)

gekennzeichnet ist (vergleiche Abschn. 7.4). Damit l¨aßt sich das folgende Stabilit¨ atstheorem f¨ ur diskrete Systeme formulieren: n n ' Ein Polynom N (z) = (z − z∞ν ) = cν z ν mit cn = 1 ist dann und ν=1

ν=0

nur dann stabil, d.h. es ist |z∞ν | < 1, ∀ν, wenn gilt D1 (z) a) Die Pole und Nullstellen von R(z) = oder R−1 (z) liegen auf D2 (z) dem Einheitskreis; sie sind einfach. b) Wenn ein Pol von R(z) (oder R−1 (z)) bei ejψν liegt, so ist der Winkel des Residuums dieses Pols gleich ψν . c) Die Funktion Im {R(ejΩ )} (oder Im {R−1 (ejΩ )}) hat stets positiven Anstieg. Wir bemerken, daß die oben eingef¨ uhrte Funktion R(z) das diskrete Gegenst¨ uck einer Reaktanzfunktion im kontinuierlichen Bereich ist (vergl. [5.6]). Bild 5.18 zeigt als Beispiele die Nullstellen zweier stabiler Polynome 7. und 8. Grades und jeweils die Lage der Pol- und Nullstellen der zugeh¨origen Funktionen R(z).

Abb. 5.18. Zur Erl¨ auterung des Stabilit¨ atstheorems. + Nullstellen von N (z); ◦, × Null- und Polstellen von R(z)

Zum Beweise des Stabilit¨ atstheorems wird der Realteil von R(z) =

D1 (z) N (z) + z n N (z −1 ) Q(z) + 1 = = D2 (z) N (z) − z n N (z −1 ) Q(z) − 1

betrachtet. Unter Ber¨ ucksichtigung von (5.5.5d) folgt Re {R(z)} =

|Q(z)|2 − 1 |Q(z) − 1|2

0 f¨ ur

|z|

1.

(5.5.8)

¨ 5.5 Eigenschaften der Ubertragungsfunktion

355

Dieselbe Aussage erh¨ alt man f¨ ur Re {1/R(z)}. Wesentlich ist, daß die Bedingung (5.5.8) notwendig und hinreichend f¨ ur die Stabilit¨at ist. Mit ihr zeigen wir, daß die Eigenschaften a) und b) gelten. Dazu nehmen wir zun¨achst an, daß R(z) einen Pol der Ordnung m bei z = zν = |zν |ejψν hat. Dann gilt in der engen Umgebung von zν R(z) ≈

Bνm |Bνm | j(−mα+βν ) = e (z − zν )m

m

mit Bνm = |Bνm |ejβν und z − zν = ejα , wobei hinreichend klein und 0 ≤ α < 2π ist. F¨ ur den Realteil erhalten wir Re {R(z)} ≈

|Bνm | cos(mα − βν ) .

m

(5.5.9)

Offensichtlich wird das Vorzeichen dieses Ausdruckes vom Vorzeichen des Kosinusterms bestimmt, das 2m mal wechselt, wenn z auf einem Kreis mit Radius um den Punkt zν und damit α von 0 bis 2π ver¨andert wird (siehe Bild 5.19). Da nach (5.5.8) ein Vorzeichenwechsel von Re {R(z)} nur an den Schnittpunkten mit dem Einheitskreis zugelassen ist, ergibt sich als erste notwendige Bedingung (5.5.10a) |zν | = 1, m = 1 . |Bν | cos(α −

< (α − βν ) < π2 . Andererseits folgt aus

Man erh¨ alt so in der Umgebung von zν aus (5.5.9) Re {R(z)} ≈ βν ). Damit ist Re {R(z)} > 0 f¨ ur − π2 (5.5.8) (siehe Bild 5.19) Re {R(z)} > 0 f¨ ur





& π − ψν < α < + ψν 2 2

und damit βν = ψν .

(5.5.10b)

Da die Bedingung (5.5.8) auch f¨ ur Re {1/R(z)} gilt, folgen die Aussagen a) und b). Um zu zeigen, daß die Funktion Im {R(ejΩ )} stets einen positiven Anstieg hat, gehen wir von der sich aus (5.5.8) ergebenden Feststellung aus, daß mit z = rejΩ  ∂Re {R(z)}  >0  ∂r r=1 ist. Nach den Cauchy-Riemannschen Gleichungen in Polarkoordinaten ist aber ∂Re {R(z)} 1 ∂Im {R(z)} = . ∂r r ∂Ω Es ist damit

 ∂Im {R(z)}  > 0,  ∂Ω r=1

(5.5.10c)

356

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Abb. 5.19. Zur Herleitung des Stabilit¨ atstheorems

wie in Bedingung c) angegeben. Wir bemerken, daß sich daher die Pole und Nullstellen von R(z) abwechseln m¨ ussen, wie es die Beispiele von Bild 5.18 erl¨ autern. Damit ist die Notwendigkeit der Bedingungen des Theorems bewiesen. Um zu zeigen, daß sie auch hinreichend sind, gehen wir von der Partialbruchentwicklung von R(z) aus, die wir entsprechend (5.5.10) und der Definition von D1 (z) und D2 (z) ansetzen. Es ist (1)

R(z) =

dn

(2)

+

dn (1)

n  |Bν |ejψν ν=1

z − ejψν

(1)

. (2)

(5.5.11) (2)

Da nach (5.5.6) D1 (0) = d0 = dn und D2 (0) = d0 = −dn ist, folgt mit (5.5.11) n (1) (1) (1)  dn d dn R(0) = (2) − |Bν | = 0(2) = − (2) dn d0 dn ν=1 und daher

n 

(1)

|Bν | = 2

ν=1

dn

(2)

.

(5.5.12)

dn

Die Aussage des Theorems ist nun auch hinreichend, wenn Rν (z) = kν +

|Bν |ejψν z − ejψν

(5.5.13)

ullt. Die kν sind reelle, mit geeignet gew¨ ahltem kν die Bedingung (5.5.8) erf¨ ¨ positive Konstanten, f¨ ur die nach obigen Uberlegungen zun¨achst n  ν=1

n

kν =

1 |Bν | 2 ν=1

¨ 5.5 Eigenschaften der Ubertragungsfunktion

357

gelten muß. Man erh¨ alt aus (5.5.13) f¨ ur z = rejΩ (r2 + 1)kν − |Bν | + r cos(Ω − ψν )[|Bν | − 2kν ] . r2 + 1 − 2r cos(Ω − ψν )

Re {Rν (rejΩ )} =

W¨ ahlt man hier kν = 12 |Bν |, so ergibt sich Re {Rν (rejΩ )} = Damit erf¨ ullt

r2 − 1 |Bν | 2 r2 + 1 − 2r cos(Ω − ψν )

0 f¨ ur

r

1.

ejψν Rν (z) = |Bν | + 0, 5 z − ejψν

(5.5.14)

die Bedingung (5.5.8). Das gleiche gilt f¨ ur die aus derartigen Termen gebildete Funktion n  Rν (z) . R(z) = ν=1

Es wurde oben bereits bemerkt, daß R(z) die diskrete Version der Reaktanzfunktion bei kontinuierlichen Systemen ist. Ebenso wie die Kettenbruchentwicklung einer Reaktanzfunktion zum Routh-Test zur Stabilit¨atspr¨ ufung f¨ uhrt, kann man R(z) in die Form R(z) = K1

z+1 + z−1

1 1 z+1 + K2 z+1 z−1 + K3 z−1 .. .

1 z+1 Kn z−1

bringen. Das Ausgangspolynom N (z) ist dann stabil, wenn Kν > 0, ∀ν = 1(1)n ist. Aus dieser Stabilit¨ atsaussage ergibt sich unmittelbar eine Testmethode, deren numerische Durchf¨ uhrung in [5.13] beschrieben wurde. Wir behandeln noch einen anderen Stabilit¨atstest, der auf dem Satz von Schur-Cohn beruht und ebenfalls aus (5.5.5) folgt (z.B. [5.11; 5.14], siehe auch Abschn. 2.5.5.3). Dabei wird eine Folge von Polynomen Nλ (z), λ = n(−1)0, nacheinander aus Nn (z) := N (z) errechnet, die wir rekursiv mit Nλ−1 (z) =

=

z −1 [Nλ (z) − rλ z λ Nλ (z −1 )] 1 − rλ2 λ−1 ν=0

einf¨ uhren, wobei mit

(5.5.15a) (λ−1) ν



z ,

(λ−1)

cλ−1 = 1,

λ = n(−1)1

358

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen (λ)

rλ = c0

(5.5.15b)

das absolute Glied in der Klammer verschwindet. Der Satz von Schur-Cohn besagt: n Ein Polynom N (z) = cν z ν ist genau dann stabil, wenn in der ν=0

Folge der durch (5.5.15a) rekursiv eingef¨ uhrten Polynome f¨ ur die mit (5.5.15b) definierten Koeffizienten gilt: |rλ | < 1, λ = n(−1)1. Es ist zun¨ achst festzustellen, daß im Stabilit¨atsfall bei λ = n f¨ ur den nach (5.5.15b) bestimmten Wert rn gem¨ aß (5.5.5a) |rn | = |c0 | < 1 gilt. Der Beweis des Satzes von Schur-Cohn erfordert dann f¨ ur alle weiteren Werte von λ den Nachweis, daß die durch (5.5.15a) definierten Polynome Nλ (z) die durch (5.5.5a,b) beschriebenen Eigenschaften des Ausgangspolynoms N (z) haben. Um das zu zeigen, verwenden wir den Satz von Rouch´e [5.15], der folgendes besagt: Sind die Funktionen f (z) und g(z) auf dem abgeschlossenen Einheitskreis holomorph und gilt auf dem Rande |g(z)| < |f (z)| f¨ ur |z| = 1, so haben die Funktionen f (z) und f (z) + g(z) die gleiche Zahl von Nullstellen im Einheitskreis. Wir f¨ uhren den Beweis durch vollst¨ andige Induktion. Unter der Annahme, ullt, was f¨ ur λ = n der Fall ist, daß Nλ (z) die Bedingungen (5.5.5a,b) erf¨ ur |z| = 1 sein. Dann ist mit |rλ | < 1 aber muß |Nλ (z)| = |z λ Nλ (z −1 )| f¨ ur |z| = 1. Damit sind mit f (z) = Nλ (z) und |Nλ (z)| > |rλ z λ Nλ (z −1 )| f¨ ullt, und g(z) = −rλ z λ Nλ (z −1 ) die Voraussetzungen des Satzes von Rouch´e erf¨ es gilt, daß Nλ (z) − rλ z λ Nλ (z −1 ) im Innern des Einheitskreises λ Nullstellen hat. Wegen der speziellen Wahl von rλ nach (5.5.15b) liegt eine davon im Ursprung. Sie wird durch die Multiplikation mit z −1 aufgehoben, so daß das mit (5.5.15a) definierte Polynom Nλ−1 (z) dann λ − 1 Nullstellen im Innern (λ−1) des Einheitskreises hat, also stabil ist. Speziell muß sein absolutes Glied c0 (λ−1) die Bedingung (5.5.5a) erf¨ ullen. Es ist also |c0 | = |rλ | < 1. Damit ist der Satz bewiesen. (λ) F¨ ur die f¨ uhrenden Koeffizienten cλ der Polynome Nλ (z) gilt wegen (λ+1) rλ+1 = c0 und cn = 1 (λ)

cλ =

  1 (λ+1) (λ+1) − r c c = 1 , λ = (n − 1)(−1)0 λ+1 0 λ+1 2 1 − rλ+1

wie in (5.5.15a) angegeben. Wir bemerken, daß die nach (5.5.15b) ermittelten Koeffizienten im Abschnitt 6.7 bei der Synthese der Leiterstrukturen ben¨otigt werden.

¨ 5.5 Eigenschaften der Ubertragungsfunktion

359

Mit MATLAB erstellen wir die Funktion sysstable(.) zum Stabilit¨ atstest nach Schur-Cohn. Das Programm steht in der DSV-Bibliothek, siehe Anhang Abschn. 7.1.4.1, zur Verf¨ ugung. Der Befehl stab=sysstable(c) berechnet zun¨ achst, entsprechend (5.5.15b), den Vektor r der Koeffizienten rλ , ausgehend von den Nen¨ nerkoeffizienten der Ubertragungsfunktion in c. In Abh¨ angigkeit von rλ wird dann die logische Antwort stab bestimmt. Mit stab=1 ist das System stabil. Optional k¨ onnen zur Veranschaulichung der Vektor r und die Matrix N der Koeffizienten der Polynome Nλ (z) mit dem Befehl [stab,r,N]=sysstable(c) ausgegeben werden. •

5.5.2 Kausalit¨ at Wir haben bereits im Abschnitt 5.4.2 festgestellt, daß die in diesem Kapitel bisher stets vorausgesetzte Kausalit¨ at auf ein Z¨ahlerpolynom f¨ uhrt, dessen Grad nicht gr¨ oßer als der des Nennerpolynoms sein kann, s. (5.4.15). Zur Abgrenzung ist nun eine kurze Betrachtung nichtkausaler Systeme von Inter¨ esse, die ebenfalls durch lineare Differenzengleichungen bzw. rationale Ubertragungsfunktionen beschrieben werden. Wir begn¨ ugen uns dabei mit einem Beispiel. Dazu bestimmen wir die Impulsantwort des durch y(k + 1) + c0 y(k) = v(k + 1) erkl¨ arten Systems derart, daß jetzt h0 (k) = 0, ∀k > 0 sei. Es liege also Antikausalit¨at vor. Tats¨ achlich erh¨ alt man eine m¨ogliche L¨osung der Differenzengleichung aus 1 y(k) = [v(k + 1) − y(k + 1)] c0 und mit v(k) = γ0 (k) y(k) = h0 (k) = −(−c0 )k γ−1 (−k − 1) =

⎧ ⎨0, ⎩

k ≥ 0,

−(−c0 )k , k < 0 .

(5.5.16a)

Das System erweist sich f¨ ur |c0 | > 1 als stabil. Mit Hilfe der zweiseitigen ¨ Z-Transformation erh¨ alt man nach Abschn. 2.5.3 f¨ ur die Ubertragungsfunktion z mit |z| < |c0 | . (5.5.16b) H(z) = z + c0 Im Stabilit¨ atsfall liegt also hier die Polstelle außerhalb des Einheitskreises. Dieses an einem einfachen Beispiel gewonnene Ergebnis l¨aßt sich dahingehend verallgemeinern, daß ein antikausales System mit linksseitiger Impulsantwort ¨ stabil ist, wenn f¨ ur die Pole seiner Ubertragungsfunktion |z∞ν | > 1, ∀ν gilt. Weiterhin gehen wir von H(z) =

z z + z − z∞1 z − z∞2

(5.5.17a)

360

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Abb. 5.20. Zeitverhalten kausaler und nichtkausaler Systeme

mit |z∞1 | < 1 und |z∞2 | > 1 aus. Das zugeh¨orige kausale System ist sicher instabil, ebenso ein antikausales System. Beschreibt dagegen H(z) ein uckallgemeines nichtkausales System f¨ ur |z∞1 | < |z| < |z∞2 |, so liefert die R¨ transformation nach Abschn. 2.5.4 die beidseitige Impulsantwort k k h0 (k) = z∞1 γ−1 (k) − z∞2 γ−1 (−k − 1) ,

(5.5.17b)

die unter den gemachten Voraussetzungen zu einem stabilen System geh¨ort. Bild 5.20 veranschaulicht die gefundenen Ergebnisse. 5.5.3 Frequenzgang ¨ In diesem Abschnitt betrachten wir die Ubertragungsfunktion H(z) f¨ ur z = ejΩ . Aus (5.2.8) und (5.2.9) erhalten wir m μ=0

H(ejΩ ) = n

ν=0

bμ ejμΩ cν ejνΩ

m '

(ejΩ − z0μ )

μ=1

= bm ' n

ν=1

(ejΩ − z∞ν )

=

Z(ejΩ ) := |H(ejΩ )|e−jb(Ω) , N (ejΩ )

(5.5.18) offenbar eine periodische Funktion in Ω. Bild 5.21 zeigt an einem Beispiel mit n = m = 3, wie sich die Funktion aus den einzelnen Linearfaktoren von

¨ 5.5 Eigenschaften der Ubertragungsfunktion

361

Z¨ ahler- und Nennerpolynom zusammensetzt. Die Reellwertigkeit des Systems, uhrt zu H(ejΩ ) = H ∗ (e−jΩ ) und damit die sich aus bμ , cν ∈ R ergibt, f¨ zu einer Kurve, die spiegelbildlich zur reellen Achse liegt. |H(ejΩ )| ist eine gerade, b(Ω) eine ungerade Funktion (s. Abschn. 4.3.2). Weiterhin interessiert die ebenfalls schon eingef¨ uhrte Gruppenlaufzeit (4.3.16) τg (Ω) =

d b(Ω) . dΩ

Sind die Koeffizienten bμ und cν von Z¨ ahler- und Nennerpolynom gegeben, so erh¨ alt man Abtastwerte des Frequenzganges und der daraus abgeleiteten Funktionen am einfachsten, wenn man zun¨ achst Z ∗ (ejΩ ) =

∗ {bμ } =

m 

bμ e−jμΩ

und

N ∗ (ejΩ ) =

∗ {cν } =

μ=0

n 

cν e−jνΩ

ν=0

f¨ ur Ω = Ωλ = λ · 2π/M mit der DFT berechnet. Dazu werden die Folgen {bμ } ange M erg¨anzt, wobei M die Anzahl und {cν } mit Nullen zu Folgen der L¨ ur die der Frequenzgang H(ejΩλ ) interessiert. der Punkte Ωλ = λ · 2π/M ist, f¨ Zweckm¨ aßig w¨ ahlt man M als Zweierpotenz. Die modifizierten Folgen der Koeffizienten von Z¨ ahler- und Nennerpolynom sind b(k) = {b0 , b1 , . . . , bm−1 , bm , 0, . . . , 0} ; c(k) = {c0 , c1 , . . . , cn−1 , cn , 0, . . . , 0} . Es ergibt sich Z ∗ (ejΩλ ) = DFTM {b(k)}

und N ∗ (ejΩλ ) = DFTM {c(k)}

und damit H ∗ (ejΩλ ) = P (ejΩλ ) − jQ(ejΩλ ) =

Z ∗ (ejΩλ ) N ∗ (ejΩλ )

(5.5.19)

sowie a(Ωλ ) = − ln |H ∗ (ejΩλ )| ; b(Ωλ ) = arg{H ∗ (ejΩλ )} .

(5.5.20)

Die Gruppenlaufzeit berechnet man zweckm¨aßig nicht durch numerische Differentiation der Phase. Man erh¨ alt f¨ ur sie nach (4.3.16b) mit G(z) = −zH  (z)/H(z)

(5.5.21a)

τg (Ω) = Re { G(z)|z=ejΩ } . Unter der Voraussetzung der Reellwertigkeit des Systems f¨ uhren wir mit Tg (z) = eine Funktion ein, f¨ ur die

! 1" G(z) + G(z −1 ) 2

(5.5.21b)

362

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Abb. 5.21. Beispiel f¨ ur den Frequenzgang H(ejΩ ), den Betrag sowie Phase und Gruppenlaufzeit

¨ 5.5 Eigenschaften der Ubertragungsfunktion

Tg (ejΩ ) = τg (Ω)

363

(5.5.21c)

gilt. Ohne Beschr¨ankung der Allgemeing¨ ultigkeit setzen wir m = n. Dann folgt aus n bν z ν Z(z) ν=0 H(z) = = n N (z) cν z ν ν=0

die Beziehung n

zN  (z) zZ  (z) − = ν=1 G(z) = n N (z) Z(z)

n

νcν z ν

ν=0

cν z ν



ν=1 n

νbν z ν

ν=0

. bν z ν

Man erh¨ alt G(z −1 ) = n n n n (n − ν)cn−ν z ν (n − ν)bn−ν z ν νcn−ν z ν νbn−ν z ν ν=0 ν=0 ν=1 ν=1 = − =− + . n n n n cn−ν z ν bn−ν z ν cn−ν z ν bn−ν z ν ν=0

ν=0

ν=0

ν=0

Mit n

U (z) =

ν=1 n

n

νcν z ν

ν=0

+ cν z ν

ν=1 n

n

νbn−ν z ν

ν=0

und bn−ν z ν

W (z) =

ν=1 n

n

νcn−ν z ν

ν=0

+ cn−ν z ν

ν=1 n

νbν z ν

ν=0

bν z ν

folgt aus (5.5.21a) Tg (z) =

1 [U (z) − W (z)] . 2

Weiterhin gilt " ! z N  (z)z n Z(z −1 ) + [z n Z(z −1 )] · N (z) U (z) = N (z) · z n Z(z −1 ) " ! z N (z)z n Z(z −1 ) z · D (z) =: . = n −1 N (z)z Z(z ) D(z) Schließlich best¨ atigt man leicht, daß W (z) = 2n − U (z −1 ) ist, so daß sich Tg (z) = und

! 1" U (z) + U (z −1 ) − n 2

τg (Ω) = Re {U (ejΩ )} − n

(5.5.21d)

(5.5.21e)

364

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

ergibt. Zur numerischen Berechnung von τg (Ω) ist dann zun¨achst das Nen2n nerpolynom D(z) = dν z ν zu bilden. Die Folge {dν } seiner Koeffizienten ν=0

ergibt sich aus den Folgen {cν } = {c0 , c1 , . . . , cn } von N (z) und {bn−ν } = {bn , bn−1 , . . . , b0 } von z n Z(z −1 ) als {dν } = {cν } ∗ {bn−ν } . Das Z¨ ahlerpolynom von U (z) hat dann die Koeffizienten ν · dν . Wie oben f¨ ur ullung mit Nullen Folgen d(k) und die bμ und cν beschrieben, liefert die Auff¨ kd(k) der L¨ ange M , aus deren diskreten Fouriertransformationen dann die Gruppenlaufzeit f¨ ur Ωλ = λ · 2π/M mit  # DFTM {kd(k)} τg (Ωλ ) = Re −n (5.5.21f) DFTM {d(k)} berechnet werden kann. F¨ ur manche Anwendungen ist die Kenntnis der Gruppenlaufzeit bei Ω = 0 und Ω = π von Interesse. Ausgehend von  #

zN  (z) zZ  (z) − τg (Ω) = Re { G(z)|z=ejΩ } = Re N (z) Z(z) z=ejΩ erh¨ alt man n

τg (0) = ν=1 n

m

νcν

ν=0

− cν

μ=1 m

n

μbμ

μ=0

,

τg (π) =



ν=1

m

(−1)ν νcν

n



(−1)μ μbμ

μ=1

ν

(−1) cν

ν=0

m μ=0

. μ

(−1) bμ

(5.5.21g) Betrag, Phase und Gruppenlaufzeit sollen nun unter Verwendung der Pole und Nullstellen noch n¨ aher untersucht werden. Mit z0μ = 0μ ejψ0μ ,

z∞ν = ∞ν ejψ∞ν

erh¨ alt man nach elementarer Zwischenrechnung aus (5.5.18) m A '

|H(ejΩ )| = |bm |

μ=1 n ) ' ν=1

b(Ω) =

n

arctan

ν=1 m

1 − 2 0μ cos(Ω − ψ0μ ) + 20μ ,

(5.5.22)

1 − 2 ∞ν cos(Ω − ψ∞ν ) + 2∞ν

sin Ω − ∞ν sin ψ∞ν − cos Ω − ∞ν cos ψ∞ν

sin Ω − 0μ sin ψ0μ − arctan (±π sign Ω) . cos Ω − 0μ cos ψ0μ μ=1

(5.5.23a)

¨ 5.5 Eigenschaften der Ubertragungsfunktion

365

Abb. 5.22. Beitr¨ age von Polen und Nullstellen auf der positiv reellen Achse zum Frequenzgang der Phase und der Gruppenlaufzeit. a) Polstellen mit ν < 1; b) Nullstellen mit μ ≤ 1; c) Nullstellen mit μ > 1. n

τg (Ω) =

db(Ω)  1 − ∞ν cos(Ω − ψ∞ν ) = − dΩ 1 − 2 ∞ν cos(Ω − ψ∞ν ) + 2∞ν ν=1 m

1 − 0μ cos(Ω − ψ0μ ) − (±2πδ0 (Ω)) . 1 − 2 0μ cos(Ω − ψ0μ ) + 20μ μ=1

(5.5.24a)

366

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Der in (5.5.23a) angegebene additive Term (±π sign Ω) entf¨allt f¨ ur bm > 0. Hier interessieren vor allem die Beitr¨ age der einzelnen Pole und Nullstellen zur Phase und zur Gruppenlaufzeit. Sie wurden in Bild 5.22 f¨ ur unterschiedliche Werte von und f¨ ur ψ = 0 dargestellt, also f¨ ur Pol- bzw. Nullstellen auf der positiv reellen Achse. Die Verl¨ aufe f¨ ur ψ = | 0 ergeben sich daraus als bψ (Ω) = b0 (Ω − ψ) + ψ

(5.5.23b)

τgψ (Ω) = τg0 (Ω − ψ) ,

(5.5.24b)

und wobei der Index 0 sich auf ψ = 0, also die gezeichneten Verl¨aufe bezieht. Das Teilbild 5.22a zeigt die Beitr¨ age von Polstellen. Sie f¨ uhren zu einer f¨ ur alle Werte von Ω positiven Gruppenlaufzeit. Entsprechend ist die Gruppenlaufzeit der im abgeschlossenen Einheitskreis liegenden Nullstellen stets negativ (siehe Bild 5.22b). Hervorzuheben ist der Beitrag einer bei z0μ = 0μ = 1 liegenden Nullstelle. Man erh¨ alt bμ (Ω) = −0, 5[Ω + π sign Ω] ,

(5.5.23c)

τgμ (Ω) = −[0, 5 + πδ0 (Ω)] .

(5.5.24c)

sowie Die Beitr¨ age der Nullstellen mit μ > 1 wurden in Bild 5.22c getrennt dargestellt. Hier ist der Zuwachs der Phase bemerkenswert, der sich ergibt, wenn Ω von −π bis +π monoton w¨ achst. Man erh¨ alt +π Δb = bμ (π) − bμ (−π) = τgμ (Ω)dΩ = 0 .

(5.5.25a)

−π

Damit l¨ aßt sich der Gesamtzuwachs der Phase angeben, wobei ihre Mehrdeutigkeit und der Beitrag durch ein gegebenenfalls negatives Vorzeichen von bm nicht ber¨ ucksichtigt wird. Wesentlich ist dabei die Lage der Nullstellen des Z¨ ahlerpolynoms Z(z). Mit m = m1 + m2 ist Z(z) = bm

m1 (

(z − z0μ )

μ=1

m2 (

(z − z0λ ) ,

λ=1

wobei |z0μ | ≤ 1 und |z0λ | > 1 sei. Dann erh¨ alt man f¨ ur den Phasenzuwachs Δb =

lim b(Ω) −

Ω→π+0

lim

Ω→−π+0

+π b(Ω) = τg (Ω)dΩ = 2π(n − m1 ) . (5.5.25b) −π

Bei dem in Bild 5.21 vorgestellten System ist n = m1 = 3, wobei alle drei Nullstellen auf dem Einheitskreis liegen. Entsprechend zeigt die f¨ ur 0 ≤ Ω ≤ π

¨ 5.5 Eigenschaften der Ubertragungsfunktion

367

dargestellte Phase zwei Sprungstellen um jeweils −π und die Gruppenlaufzeit die zugeh¨ origen Dirac-Anteile. Interessant ist der Beitrag, den zwei spiegelbildlich zum Einheitskreis liegende Nullstellen z0μ und z0λ liefern. Wir setzen ∗ , z0μ = 1/z0λ

d.h. 0μ = 1/ 0λ

und ψ0μ = ψ0λ

und erhalten f¨ ur das Produkt der entsprechenden Linearfaktoren mit z = ejΩ

1 ∗ (ejΩ − z0μ )(ejΩ − 1/z0μ ) = 0μ + − 2 cos(Ω − ψ0μ ) ej(Ω+ψ0μ +π) .

0μ Der Phasenbeitrag ist also b0μ (Ω) + b0λ (Ω) = −(Ω + ψ0μ + π) ,

(5.5.26a)

eine lineare Funktion der Frequenz. Dann erh¨alt man f¨ ur den Beitrag zur Gruppenlaufzeit (5.5.26b) τg0μ (Ω) + τg0λ (Ω) = −1 . Wir werden im Abschn. 5.6.6.2 von diesem Ergebnis Gebrauch machen. ¨ Unter Verwendung der Pole und Nullstellen der Ubertragungsfunktion H(z) eines reellwertigen Systems kann man eine Fourierreihenentwicklung der | 1 voraussetzen. Wir beGruppenlaufzeit angeben, wobei wir zun¨ achst |z0μ | = ginnen mit dem Beitrag einer bei z = z∞ν = ∞ν ejψ∞ν liegenden Polstelle. ¨ Die zugeh¨ orige, i.a. komplexwertige Ubertragungsfunktion H(z) = 1/(z−z∞ν ) f¨ uhrt auf G(z) = z/(z − z∞ν ). An Stelle von (5.5.21b) verwenden wir jetzt

z 1 1 1 Tg∞ν (z) = [G(z) + G∗ (1/z ∗ )] = + . (5.5.27) ∗ 2 2 z − z∞ν 1 − zz∞ν Diese Funktion kann offenbar in einem Kreisring, der den Einheitskreis enth¨alt und durch ∞ν < |z| < 1/ ∞ν gekennzeichnet ist, in eine Laurentreihe entwickelt werden. Es ist Tg∞ν (z) =

∞ 

dν (k)z −k

k=−∞

mit den Koeffizienten



z 1 1 1 dν (k) = + z k−1 dz .  ∗ 6 2 z − z∞ν 2πj 1 − zz∞ν |z|=1

Man erh¨ alt

 1 jkψ∞ν γ0 (k) + |k| ∞ν · e 2 und damit die Fourierreihenentwicklung dν (k) =

368

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Tg∞ν (ejΩ ) = τg∞ν (Ω) = 1 +

∞ 

k∞ν cos k(Ω − ψ∞ν ) .

(5.5.28a)

k=1

Entsprechend folgt f¨ ur eine bei z = z0μ = 0μ ejψ0μ mit 0μ < 1 liegende Nullstelle der Beitrag Tg0μ (ejΩ ) = τg0μ (Ω) = −1 −

∞ 

k0μ cos k(Ω − ψ0μ ) ,

(5.5.28b)

k=1

w¨ ahrend sich mit 0λ > 1 ergibt Tg0λ (ejΩ ) = τg0λ (Ω) =

∞ 

−k 0λ cos k(Ω − ψ0λ ) .

(5.5.28c)

k=1 ∗ erh¨ alt man in Best¨atigung von (5.5.26b) wieder Mit z0μ = 1/z0λ τg0μ + τg0λ = −1. ur weitere m2 Nullstellen 0λ > 1, so Gilt f¨ ur m1 Nullstellen 0μ < 1 und f¨ ergibt sich insgesamt die Fourierreihenentwicklung der Gruppenlaufzeit eines Systems n-ten Grades

τg (Ω) = n − m1 + −

∞ m 1 k=1 μ=1

n ∞ k=1 ν=1

k∞ν cos k(Ω − ψ∞ν )

k0μ cos k(Ω − ψ0μ ) +

∞ m 2 k=1 λ=1

−k 0λ cos k(Ω − ψ0λ ) .

(5.5.29a) Liegen weitere m3 Nullstellen auf dem Einheitskreis bei ψ0κ , so erh¨alt man nach (5.5.24c) f¨ ur −π < Ω ≤ π zus¨ atzlich den Term τg (Ω) = −

m3  m3 −π δ0 (Ω − ψ0κ ) . 2 κ=1

(5.5.29b)

Wir bemerken, daß hier ebenso wie in (5.5.23a) und (5.5.24a) der Fall mehrfacher Pol- und Nullstellen enthalten ist. Es sind dann die betreffenden Summanden lediglich mit den entsprechenden Vielfachheiten zu multiplizieren. Zum Abschluß dieses Abschnittes beschreiben wir kurz weitere M¨oglichkeiten zur Berechnung bzw. Messung des Frequenzganges H(ejΩ ) in den diskreten Punkten Ω = Ωμ . Wegen H(ejΩ ) =

∞ 

h0 (k)e−jkΩ =

∗ {h0 (k)}

(5.5.30a)

k=0

kann zun¨ achst seine Bestimmung auch ausgehend von den Zahlenwerten der Impulsantwort erfolgen, die z.B. durch Messung bestimmt wurden. Hier sind zwei F¨ alle zu unterscheiden: Hat h0 (k) die endliche L¨ange n + 1 (siehe Abschn. 5.6.6), so liefert die DFT exakt den Frequenzgang in den Punkten

¨ 5.5 Eigenschaften der Ubertragungsfunktion

369

Ωμ = μ · 2π/M , wobei M ≥ n + 1 zweckm¨ aßig als Zweierpotenz gew¨ahlt wird und die Impulsantwort mit Nullen zu einer Folge der L¨ange M erg¨anzt wird. Ist h0 (k) zeitlich nicht begrenzt, so liefert die DFT der ersten M Werte der Impulsantwort Abtastwerte von ˆ jΩ ) = H(e

M −1 

h0 (k)e−jkΩ .

(5.5.30b)

k=0

F¨ ur eine Betrachtung des dabei entstehenden Fehlers nehmen wir beispielhaft an, daß H(z) die einfachen Pole z∞ν hat. Dann folgt mit der in (5.4.18c) angegebenen zugeh¨ origen Impulsantwort ˆ jΩ ) = B0 + H(e

n 



ν=1

M −j(M −1)Ω ejΩ − z∞ν e jΩ e − z∞ν

an Stelle von H(ejΩ ) = B0 +

n 



ν=1

ejΩ

(5.5.30c)

ejΩ . − z∞ν

ˆ jΩ ) ≈ H(ejΩ ), wenn |z∞ν |M 1, ∀ν, eine Bedingung, die Offenbar ist H(e durch Wahl eines hinreichend großen Wertes f¨ ur M immer zu erf¨ ullen ist, wobei aber Annahmen u ¨ber max |z∞ν | erforderlich sind. Mit der Impulsantwort ergibt sich auch eine einfache Beziehung f¨ ur die Gruppenlaufzeit. Ausgehend von (4.3.13b) H(ejΩ ) = P (ejΩ ) + jQ(ejΩ ) hatten wir in Abschn. 4.3.2 die Beziehung (4.3.16i) τg (Ω) =

−Q (ejΩ )P (ejΩ ) + P  (ejΩ )Q(ejΩ ) P 2 (ejΩ ) + Q2 (ejΩ )

(5.5.31a)

gefunden. Die hier auftretenden Funktionen sind nach (5.5.30a) P (ejΩ ) = Re { Q(e



) = Im {

∗ {h0 (k)}} ; ∗ {h0 (k)}} ;

P  (ejΩ ) = Im { 

−Q (e



) = Re {

∗ {kh0 (k)}} ; ∗ {kh0 (k)}} .

(5.5.31b)

Wir untersuchen abschließend, inwieweit die durch Rechnung oder Messung, siehe Abschnitt 5.5.4, gewonnenen Werte H(ejΩμ ) , Ωμ = μπ/M , μ = 0(1)M − 1 hinreichend f¨ ur die vollst¨ andige Beschreibung des Systems ¨ sind, ob also mit ihnen z.B. die Koeffizienten bμ und cν der Ubertragungsfunktion H(z) berechnet werden k¨ onnen. Dabei unterstellen wir, daß die H(ejΩμ ) exakt sind. Wegen ∞  h0 (k)e−jkΩ H(ejΩ ) = k=0

370

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

sind die M Werte H(ejΩμ ) mit 0 ≤ Ωμ < π sicher dann hinreichend f¨ ur eine vollst¨ andige Beschreibung, wenn die Impulsantwort h0 (k) eine L¨ange ≤ 2M hat, die periodische komplexe Funktion H(ejΩ ) also durch h¨ochstens 2M reelle Fourierkoeffizienten ausgedr¨ uckt werden kann. Aber auch im allgemeinen Fall einer zeitlich nicht begrenzten Impulsantwort reicht eine endliche Zahl der komplexen Werte H(ejΩμ ) zur vollst¨andigen Beschreibung aus, wenn ihre Zahl mindestens halb so groß ist wie die der reellen Koeffizienten bμ und cν , wenn also M/2 ≥ n + m + 1 gilt. Die Bestimmung uhrt auf ein Interpolationsproblem, bei dem eine Folge gegebener der bμ , cν f¨ Werte mit Hilfe einer rationalen Funktion zu interpolieren ist. Wir beschreiben hier kurz ein anderes Verfahren, das von der aus der Folaherungsweise zu bestimmenden Impulsantwort Gebrauch ge der H(ejΩμ ) n¨ macht. Nach (5.5.36c-e) erh¨ alt man meßtechnisch die Werte H(ejΩμ ) als DFT ¨ der periodischen Folge, die sich im eingeschwungenen Zustand aus der Uberlagerung der gegeneinander um Vielfache von M verschobenen Impulsantworten ergibt. Dann gilt umgekehrt ∞   ˜ 0 (k) = DFT−1 H(ejΩμ ) =: h h0 (k + κM ) ,

(5.5.32a)

κ=0

˜ 0 (k) ≈ h0 (k) ist f¨ ur k = 0(1)M − 1. Wir untersuchen die G¨ ute der wobei h N¨ aherung f¨ ur ein System mit der Impulsantwort h0 (k) = B0 γ0 (k) +

n 

k Bν z∞ν γ−1 (k) .

ν=1

Man erh¨ alt ˜ 0 (k) = B0 h

∞ 

γ0 (k + κM ) +

κ=0

n  ∞ 

(k+κM ) Bν z∞ν γ−1 (k + κM ) .

ν=1 κ=0

Die Summation u ur |z∞ν | < 1 ¨ber κ liefert f¨ ˜ 0 (k) = B0 γ0 (k) + h

n  ν=1



1 k · z∞ν , k = 0(1)M − 1 . M 1 − z∞ν

(5.5.32b)

Man erkennt, daß die gefundene N¨ aherung der Impulsantwort die Eigenk schwingungen z∞ν exakt enth¨ alt, w¨ ahrend die Koeffizienten Bν der Partialbruchentwicklung von H(z) mit einem Faktor multipliziert werden, der bei großem M nur wenig von 1 abweicht. Verwendet man hinreichend viele Werte ˜ 0 (k) , k = 0(1) − 1 mit ≥ n + m + 1, so kann man mit dem in Abschnitt h 5.3.2 beschriebenen Verfahren die Koeffizienten cν und bμ bestimmen. Dabei werden sich die cν exakt, die bμ fehlerbehaftet ergeben, wobei der Fehler mit wachsendem M schnell abnimmt. In der MATLAB Signal Processing Toolbox stehen f¨ ur die Berechnung des Frequenzganges einige Funktionen zur Verf¨ ugung. Ausgehend von den Vektoren

¨ 5.5 Eigenschaften der Ubertragungsfunktion

371

b und c der Z¨ ahler- und Nennerpolynome und dem Vektor w der beliebig w¨ ahlbaren Punkte Ωμ ∈ [0, 2π) liefert H = freqz(b,c,w) die Werte H(ejΩμ ). Mit [H,w] = freqz(b,c,M) erh¨ alt man H(ejΩμ ) f¨ ur Ωμ = μ · π/M, μ = 0(1)M − 1, w¨ ahrend [H,w] = freqz(b,c,M, ’whole’) auf die Werte des Frequenzganges bei uhrt. Der ausgegebene Vektor w enth¨ alt die jeweiΩμ = μ · 2π/M, μ = 0(1)M − 1 f¨ ligen Ωμ . Es ist zweckm¨ aßig, aber nicht notwendig, M als Zweierpotenz zu w¨ ahlen. Die Funktion freqz l¨ aßt sich auch f¨ ur komplexwertige Systeme, also mit bν , cν ∈ verwenden. Weiter kann das Frequenzraster auch durch die Angabe der Abtastfrequenz fs=f ˆ s definiert werden. Mit dem Befehl [H,f]=freqz(b,c,f,fs) wird der Frequenzgang an den Werten Ωμ = f /fs berechnet [7.2]. Zu bemerken ist noch, daß die Funktion freqz(.) ohne Angabe von Ausgabewerten eine direkte graphische Ausgabe von Betrag und Phase des Frequenzgangs erm¨ oglicht. Weiterhin ergibt sich der Betrag des Frequenzganges als abs(H), die D¨ ampfung in dB mit -20*log10(abs(H)) sowie die Phase b(Ω) mit -angle(H) im Bereich (−π, π). Die Phasenspr¨ unge um 2π lassen sich mit unwrap(.) aufheben, wenn die Phase in einem hinreichend dichten Raster gerechnet worden ist. Schließlich liefern grpdelay(b,c,M) und grpdelay(b,c,M,’whole’) die Gruppenlaufzeit in den M aquidistanten Punkten Ωμ ∈ [0, π) bzw. Ωμ ∈ [0, 2π). Angewendet wird das oben bei ¨ der Herleitung von (5.5.21e) beschriebene Verfahren. Mit dem Befehl zplane(b,c) kann zus¨ atzlich das Pol- Nullstellendiagramm ausgegeben werden. ¨ Eine interaktive Uberpr¨ ufung der Eigenschaften eines durch die Vektoren b und c beschriebenen System kann dar¨ uber hinaus mit dem Filter Visualization Tool (fvtool) von MATLAB erfolgen. Wir rufen das Tool mit dem Befehl h=fvtool(b,c) auf. Die verschiedenen Auswertungen k¨ onnen dann durch Anklicken der entsprechenden Icons‘aufgerufen werden [7.2]. Bild 5.23 zeigt eine Darstellung des Betrags und der ’ Phase (−b(Ω)/π) entsprechend Bild 5.21. Die Bestimmung der Koeffizientenvektoren b und c aus den H(ejΩμ ) l¨ aßt sich ˜ 0 (k) ausf¨ mit MATLAB auf dem Umweg u uhren. Entspre¨ber die periodische Folge h chend (5.5.32a) berechnet man zun¨ achst aus M Werten H(ejΩμ ), 0 ≤ Ωμ < 2π die ˜ Folge h0 (k) mit h = real(ifft(H)). Aus hl=h(1:l) bestimmt man anschließend mit [b,c]=imp2tf(hl) die gesuchten Koeffizienten. Das Programm imp2tf wurde im Abschnitt 5.3.2 bereits besprochen. In Gegensatz zu den vorgestellten Verfahren wird in der MATLAB Signal Processing Toolbox die Funktion invfreqz(.) angegeben, mit der in der Umkehr zu freqz(.) eine approximative Bestimmung der Koeffizienten m¨ oglich ist. Neben dem komplexen Frequenzgang ist der Grad des gew¨ unschten Z¨ ahlerpolynoms an zu gegeben. Zur genaueren Approximation bestimmter Bereiche eines z. B. gemessenen Frequenzganges, siehe Abschnitt 5.5.5, kann hierbei eine zus¨ atzlichen Gewichtsfunk¨ tion angegeben werden [7.2]. Zur Approximation der Ubertragungsfunktionen werden von Levi [5.28] sowie Dennis und Schnabel [5.29] vorgestellt Verfahren genutzt.



372

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Abb. 5.23. Auswertung mit dem in der Signal Processing Toolbox enthaltenen Verfahren fvtool zur Visualisierung von Frequenzg¨ angen

5.5.4 Beziehungen zwischen den Komponenten einer ¨ Ubertragungsfunktion In Abschn. 4.5.1 haben wir gefunden, daß bei kausalen Systemen ein enger Zusammenhang zwischen den Komponenten des Frequenzgangs besteht, derart, daß z.B. aus einer gegebenen Funktion P (ejΩ ) = Re {H(ejΩ )} eindeutig Q(ejΩ ) = Im {H(ejΩ )} bestimmt werden kann. Wir greifen jetzt diese Fragestellung erneut auf, nun f¨ ur die hier betrachteten Systeme. Angestrebt wird ¨ z.B. die Berechnung der rationalen, f¨ ur |z| ≥ 1 analytischen Ubertragungsfunktion H(z) aus einer gegebenen in ejΩ rationalen Funktion P (ejΩ ). Die Betrachtung geht von H(z) aus. Gegebenenfalls im Nennerpolynom bei z = 0 liegende Nullstellen spalten wir ab, setzen also H(z) =

Z(z) Z(z) = n0 , N (z) z N1 (z)

(5.5.33)

wobei f¨ ur die Nullstellen z∞ν von N1 (z) gilt: 0 < |z∞ν | < 1, ν = 1(1)(n − n0 ). Zur Vereinfachung der Darstellung nehmen wir weiterhin an, daß das Z¨ ahlerpolynom Z(z) wie N (z) vom Grad n sei und keine Nullstellen bei z = 0 habe. Allgemein ist nach (4.3.13b) H(ejΩ ) = P (ejΩ ) + jQ(ejΩ ) . Wegen H(e−jΩ ) = H ∗ (ejΩ ) ist

¨ 5.5 Eigenschaften der Ubertragungsfunktion

373

P (ejΩ ) =

1 [H(ejΩ ) + H(e−jΩ )] 2

(5.5.34a)

Q(ejΩ ) =

1 [H(ejΩ ) − H(e−jΩ )] 2j

(5.5.34b)

eine gerade und

eine ungerade Funktion in Ω. Weiterhin gilt f¨ ur das Quadrat des Betrages |H(ejΩ )|2 =: H02 (ejΩ ) = H(ejΩ )H(e−jΩ ) .

(5.5.34c)

Wir f¨ uhren nun die folgenden Funktionen ein: 1 C(z) [H(z) + H(z −1 )] = , 2 D(z) 1 E(z) Q1 (z) := [H(z) − H(z −1 )] = , 2 D(z) F (z) H1 (z) := H(z)H(z −1 ) = . D(z) P1 (z) :=

(5.5.35a) (5.5.35b) (5.5.35c)

F¨ ur sie gilt: P1 (z −1 ) = P1 (z) ; Q1 (z −1 ) = −Q1 (z) ; H1 (z −1 ) = H1 (z) ;

P1 (ejΩ ) = P (ejΩ ) ; Q1 (ejΩ ) = jQ(ejΩ ) ; H1 (ejΩ ) = H02 (ejΩ ) ≥ 0, ∀Ω .

(5.5.36a) (5.5.36b) (5.5.36c)

Die damit beschriebenen Spiegeleigenschaften dieser Funktionen in bezug auf den Einheitskreis zeigen sich in bestimmten Symmetrien bei den oben eingef¨ uhrten Polynomen C(z), D(z), E(z) und F (z). Im Abschnitt. 7.4 werden derartige Polynome in allgemeiner Form behandelt, da sie f¨ ur verschiedene Fragestellungen der Signalverarbeitung eine große Bedeutung haben. Wir zitieren die folgenden, hier ben¨ otigten Aussagen: Es sei A(z) =

n  ν=0

aν z ν = an z n0 ·

n−n (0

(z−zν ) mit aν ∈ R , 0 < |zν | < 1 , (5.5.37a)

ν=1

ein reellwertiges Polynom, f¨ ur das zugleich die Darstellung A(z) = an z n0

n−n (0

(z − 1/zν∗ )

(5.5.37b)

ν=1

gilt. Die spiegelbildlich zum Einheitskreis liegenden Punkte zν und 1/zν∗ und wegen der Reellwertigkeit auch die Punkte zν∗ und 1/zν sind also Nullstellen dieser Polynome. Hat A(z) bei z = 1 eine Nullstelle der Ordnung n1 ≥ 0, so ist (5.5.38a) z n A(z −1 ) = (−1)n1 A(z)

374

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

und

aν = (−1)n1 an−ν .

(5.5.38b)

A(z) ist ein Spiegelpolynom, wenn n1 gerade und ein Antispiegelpolynom, wenn n1 ungerade ist. Ist speziell n = 2N gerade, so folgt mit A0 (z) = z −N A(z) beim Spiegelpolynom A0 (ejΩ ) = aN + 2

N 

aN −ν cos νΩ ;

(5.5.39a)

ν=1

und beim Antispiegelpolynom mit aN = 0 A0 (ejΩ ) = −2j

N 

aN −ν sin νΩ .

(5.5.39b)

ν=1

F¨ ur eine detaillierte Darstellung der Spiegelpolynome wird auf Abschn. 7.4 verwiesen. Diese Beziehungen verwenden wir bei der Betrachtung der mit (5.5.35) eingef¨ uhrten Polynome. Unter der eingangs gemachten Annahme, daß Z(z) ebenso wie N (z) vom Grad n ist, erh¨ alt man f¨ ur sie die folgenden Eigenschaften: a) D(z) = z n N (z)N (z −1 ) = z n N1 (z)N1 (z −1 ) = z n0 N2 (z)

(5.5.40a)

ist ein Polynom vom Grad 2n − n0 mit einer n0 -fachen Nullstelle bei z = 0. Das Teilpolynom N2 (z) ist ein Spiegelpolynom vom Grad 2(n − n0 ). Es hat ur die 0 < |z∞ν | < 1 galt, und die dazu die Nullstellen z∞ν von N1 (z), f¨ ∗ . Weiterhin gilt n1 = 0. Bild 5.24a zeigt spiegelbildlichen Nullstellen bei 1/z∞ν ur m¨ ogliche Nullstellenlagen von D(z). Es wurde n0 = 1 und n = 6 gew¨ahlt. F¨ alt man mit (5.5.39a) z = ejΩ erh¨ D0 (ejΩ ) = e−jnΩ · D(ejΩ ) = |N (ejΩ )|2 = |N1 (ejΩ )|2 = d˜n−n0 + 2

n−n 0

d˜n−n0 −ν cos νΩ .

(5.5.40b)

ν=1

1 [Z(z)N (z −1 ) + Z(z −1 )N (z)]z n (5.5.41a) 2 ist ein Spiegelpolynom vom Grad 2n. Seine Nullstellen k¨onnen jetzt auch auf dem Einheitskreis liegen. Da C0 (ejΩ ) = e−jnΩ C(ejΩ ) eine gerade Funktion in Ω ist, muß n1 gerade sein. Es gilt dann mit (5.5.39a) b) C(z) =

C0 (ejΩ ) = c˜n + 2

n 

c˜n−ν cos νΩ .

ν=1

Bild 5.24b zeigt eine m¨ ogliche Nullstellenverteilung f¨ ur n = 6.

(5.5.41b)

¨ 5.5 Eigenschaften der Ubertragungsfunktion

375

Abb. 5.24. M¨ ogliche Nullstellenlagen der Polynome D(z), C(z), E(z) und F (z). Die Bezeichnungen in den Teilbildern a und d beziehen sich auf m¨ ogliche Lagen der ¨ Pole und Nullstellen bei der zugeh¨ origen Ubertragungsfunktion H(z)

c)

E(z) =

1 [Z(z)N (z −1 ) − Z(z −1 )N (z)]z n 2

(5.5.42a)

ist ein Antispiegelpolynom vom geraden Grad ≤ 2n. E0 (ejΩ ) = e−jnΩ E(ejΩ ) ist eine ungerade Funktion in Ω. Damit sind die Nullstellen bei z = ±1 von ungeradzahliger Vielfachheit (s. Bild 5.24c). Mit (5.5.39b) erh¨alt man E0 (ejΩ ) = −2j

n 

e˜n−ν sin νΩ .

(5.5.42b)

ν=1

d) F (z) = Z(z)Z(z −1 )z n

(5.5.43a)

ist ein Spiegelpolynom vom Grad 2n. Offensichtlich m¨ ussen alle auf dem Einheitskreis liegenden Nullstellen, also auch solche, die gegebenenfalls bei z = ±1 liegen, von geradzahliger Vielfachheit sein (s. Bild 5.24d). Es ist F0 (ejΩ ) = e−jnΩ F (ejΩ ) = |Z(ejΩ )|2 = f˜n + 2

n 

f˜n−ν cos νΩ .

ν=1

F¨ ur die in (5.5.34) angegebenen Funktionen gilt damit

(5.5.43b)

376

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

C0 (ejΩ ) C(ejΩ ) = , D(ejΩ ) D0 (ejΩ ) E0 (ejΩ ) 1 E(ejΩ ) Q(ejΩ ) = Q1 (ejΩ ) = = , j jD(ejΩ ) jD0 (ejΩ ) F0 (ejΩ ) F (ejΩ ) = . H02 (ejΩ ) = H1 (ejΩ ) = jΩ D(e ) D0 (ejΩ ) P (ejΩ ) = P1 (ejΩ ) =

(5.5.44a) (5.5.44b) (5.5.44c)

Zusammenfassend ergibt sich die folgende Feststellung: Damit eine Funktion P (ejΩ ) Realteil bzw. Q(ejΩ ) Imagin¨arteil bzw. H02 (ejΩ ) Betragsquadrat des Frequenzgangs eines diskreten Systems sein kann, muß sie in der entsprechenden, in (5.5.44) angegebenen Form darstellbar sein, wobei die Z¨ ahler- und Nennerpolynome die oben beschriebenen Eigenschaften haben m¨ ussen. Diese Bedingungen sind auch hinreichend in dem Sinne, daß aus gegebenen Funktionen P (ejΩ ) bzw. Q(ejΩ ) bzw. H0 (ejΩ ) der Form (5.5.44) rationale ¨ Ubertragungsfunktionen H(z) bestimmt werden k¨onnen, die f¨ ur z = ejΩ — mit einer noch zu nennenden Einschr¨ ankung — den vorgegebenen Verlauf haben. Das sei noch kurz beschrieben. Dazu nehmen wir an, daß eine der Funktionen als Quotient der entsprechenden Kosinus- bzw. Sinuspolynome gegeben ist. Zun¨ achst erh¨ alt man f¨ ur die Polynome in z   n−n 0 n ˜ ν −ν (5.5.40c) d˜n−n −ν (z + z ) , a) D(z) = z dn−n + 0

 b) C(z) = z

n

0

ν=1

c˜n +

n 

 ν

c˜n−ν (z + z

−ν

) ,

(5.5.41c)

ν=1

c) E(z) = −z n  d)

n 

e˜n−ν (z ν − z −ν ) ,

ν=1

F (z) = z n f˜n +

n 

(5.5.42c) 

f˜n−ν (z ν + z −ν ) .

(5.5.43c)

ν=1

Damit sind P1 (z), Q1 (z) und H1 (z) nach (5.5.35) bekannt. Zur Bestimmung von H(z) aus P1 (z) oder Q1 (z) gehen wir zun¨achst von einer Partialbruchentwicklung von H(z) aus, wobei wir zur Vereinfachung der Darstellung annehmen, daß alle Polstellen einschließlich einer gegebenenfalls bei z = 0 liegenden einfach sind. Es ist dann nach (5.2.14) H(z) =

n−n 0 B  B0 ν + + B∞ , z z − z ∞ν ν=1

wobei n0 ≤ 1 ist und dann B0 = 0 wird, wenn n0 = 0 ist. Aus (5.5.42a,b) folgt

¨ 5.5 Eigenschaften der Ubertragungsfunktion



P1 (z) = und

n−n n−n 0 B  0 B  z 1 B0 ν ν + + B∞ + B∞ + B0 z + 2 z z − z 1 − z ∞ν ∞ν z ν=1 ν=1

377



  n−n n−n 0 B  0 B  z 1 B0 ν ν + . − B0 z − Q1 (z) = 2 z z − z 1 − z ∞ν ∞ν z ν=1 ν=1

Wir bekommen offenbar die Koeffizienten B0 und Bν aus B0 =2 lim zP1 (z) = 2 lim zQ1 (z) , z→0

Bν =2

z→0

(5.5.45a)

· lim (z − z∞ν )P1 (z) = 2 · lim (z − z∞ν )Q1 (z) , (5.5.45b) z→z∞ν

z→z∞ν

B∞ dagegen nur aus P1 (z) als B∞ =

n−n 1 1 0 Bν lim [2P1 (z) − B0 z] + . 2 z→∞ 2 ν=1 z∞ν

(5.5.45c)

Aus Q1 (z) ist also H(z) nur bis auf eine additive Konstante bestimmbar. Eine ¨ einfache Uberlegung bzw. der Vergleich mit Abschnitt 4.5.1 zeigt, daß es sich dabei um h0 (0), den Wert der Impulsantwort bei k = 0 handelt (siehe z.B. Bild 4.11 und Glchg. (4.5.4c)). Das beschriebene Verfahren ist auf den Fall mehrfacher Pole von H(z) erweiterbar. In [5.21] sind noch weitere Methoden zur Gewinnung von H(z) aus P1 (z) angegeben. Wir betrachten ein einfaches numerisches Beispiel. Es sei H(z) =

z3 + z2 − z − 1 (z − 1)(z + 1)2 = . z 3 + z 2 + 0, 5z z(z − z∞1 )(z − z∞2 )

Hier ist n0 = 1 und N1 (z) = z 2 + z + 0, 5. Die Pole von H(z) liegen bei z∞1,2 == −0, 5(1 ∓ j) sowie im Nullpunkt. F¨ ur die Komponenten des Frequenzgangs erh¨alt man −2 cos 3Ω − 3 cos 2Ω + 2 cos Ω + 3 , 2 cos 2Ω + 6 cos Ω + 4, 5 2 sin 3Ω + 5 sin 2Ω + 4 sin Ω , Q(ejΩ ) = 2 cos 2Ω + 6 cos Ω + 4, 5 P (ejΩ ) =

Funktionen, die offenbar die in (5.5.51a,b) angegebene Form haben. Gehen wir von ihnen aus, um H(z) zu bestimmen, so erhalten wir zun¨achst P1 (z) =

−z 6 − 1, 5z 5 + z 4 + 3z 3 + z 2 − 1, 5z − 1 = z 5 + 3z 4 + 4, 5z 3 + 3z 2 + z

=

−(z − 1)2 (z + 1)2 (z 2 + 1, 5z + 1) C(z) = , 2z(z 2 + z + 0, 5)(1 + z + 0, 5z 2 ) D(z)

378

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Q1 (z) =

=

z 6 + 2, 5z 5 + 2z 4 − 2z 2 − 2, 5z − 1 = D(z) (z − 1)(z + 1)3 (z 2 + 0, 5z + 1) E(z) = . D(z) D(z)

Bild 5.25 zeigt die Pol-Nullstellenlagen dieser Funktionen. F¨ ur die Koeffizienten der Partialbruchzerlegung folgt

ˆ Abb. 5.25. Pole und Nullstellen von P1 (z), Q1 (z), H(z) und H(z) im numerischen Beispiel

B0 = 2 lim zP1 (z) = 2 lim zQ1 (z) = −2 , z→0

z→0

B1 = 2 · lim (z − z∞1 )P1 (z) = 2 · lim (z − z∞1 )Q1 (z) = 1 + j0, 5 , z→z∞1

z→z∞1

B2 = B1∗ ,

1 + j0, 5 1 − j0, 5 1 1 B∞ = lim [2P1 (z) + 2z] + + = 1. 2 z→∞ 2 −0, 5(1 − j) −0, 5(1 + j) alt man so H(z), aus Q1 (z) lediglich Aus P1 (z) erh¨

¨ 5.5 Eigenschaften der Ubertragungsfunktion

ˆ H(z) = H(z) − B∞ = −

379

1, 5z + 1 . z(z 2 + z + 0, 5)

ˆ Bild 5.26 zeigt auch die Pol-Nullstellenlagen von H(z) und H(z).

¨ Abb. 5.26. Zur Bestimmung der Ubertragungsfunktion H(z) aus dem Betrag des Frequenzgangs

Wenn P (ejΩ ) bzw. Q(ejΩ ) nicht als rationale Funktionen von cos νΩ bzw. sin νΩ sondern als Zahlenwerte P (ejΩμ ) bzw. Q(ejΩμ ), Ωμ = μ · 2π/M gegeben sind, wobei μ = 0(1)M − 1 ist, so kann man daraus durch inverse DFT n¨ aherungsweise die Werte h0 (k) der Impulsantwort errechnen (vergl. (4.5.4)). alt man Mit h0p (k) = DFT−1 {P (ejΩμ )} erh¨ ⎧ ⎪ ⎨ h0p (k), k = 0 ˆ 0 (k) = 2h0p (k), k = 1(1)M/2 − 1 (5.5.46a) h0 (k) ≈ h ⎪ ⎩ h0p (k), k = M/2 . Bez¨ uglich der G¨ ute der N¨ aherung verweisen wir auf den letzten Abschnitt, ˆ 0 (k) lassen sich die zugeh¨origen Ubert¨ insbesondere auf (5.5.32b). Aus den h ˆ ragungsfunktionen H(z) bzw. H(z) mit dem in Abschnitt 5.3.2 beschriebenen Verfahren berechnen. Wir wenden uns jetzt der Bestimmung von H(z) aus H02 (ejΩ ) = |H(ejΩ )|2 zu. Hier ist ein anderes Vorgehen erforderlich. Aus H02 (ejΩ ) =

F (ejΩ ) D(ejΩ )

380

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

erhalten wir mit (5.5.47b,c) und (5.5.50b,c) zun¨achst

n z n f˜n + f˜n−ν (z ν + z −ν ) F (z) ν=1

. H1 (z) = = n−n 0 ˜ D(z) n ν −ν ˜ dn−n0 −ν (z + z ) z dn−n0 +

(5.5.47)

ν=1

Wegen D(z) = z

n0

n−n (0

(z − z∞ν )(1 − zz∞ν ) mit 0 < |z∞ν | < 1

ν=1

stimmen die Polstellen von H(z) mit den im Innern des Einheitskreises liegenden Nullstellen von D(z) u ¨berein, zu denen auch die n0 -fache bei z = 0 geh¨ort. Dagegen bestehen bei der Festlegung des Z¨ahlerpolynoms Wahlm¨oglichkeiten, weil das Spiegelpolynom F (z) in unterschiedlicher Weise zerlegt werden ¨ kann. Damit erh¨ alt man i.allg. mehrere Ubertragungsfunktionen mit demselben Betragsfrequenzgang, die sich bez¨ uglich ihrer Phase unterscheiden. Bild 5.26 erl¨ autert die Zusammenh¨ ange f¨ ur n = 5 und n0 = 1. Hier gibt ¨ es vier Ubertragungsfunktionen mit demselben Nennerpolynom, deren PolNullstellenkombinationen ebenfalls angegeben sind; siehe auch Abschnitt 5.6.2 und ein dort gegebenes numerisches Beispiel. Von besonderem Interesse ist der Fall, bei dem alle Nullstellen im abgeur ein solches schlossenen Einheitskreis |z| ≤ 1 liegen (H (1) (z) in Bild 5.26). F¨ System hatten wir in Abschnitt 4.5 die Bezeichnung minimalphasig eingef¨ uhrt (siehe auch Abschnitt 5.6.2). Generell gilt, daß man zu einer Betragsquadratfunktion, die als Quotient zweier Funktionen F (ejΩ ) und D(ejΩ ) mit den in (5.5.43b) und (5.5.40b) festgelegten Eigenschaften gegeben ist, eindeutig die ¨ Ubertragungsfunktion des zugeh¨ origen minimalphasigen Systems bestimmen kann. Den hier bestehenden Zusammenhang zur Phase und Gruppenlaufzeit haben wir f¨ ur den allgemeinen Fall in Abschnitt 4.5 diskutiert. Auch dazu verweisen wir zus¨ atzlich auf Abschnitt 5.6.2. 5.5.5 Verfahren zur Messung der Eigenschaften von Systemen Das Einschwingverhalten eines Systems wurde in Abschn. 5.4.1 untersucht. Dabei wurde das Signal am Ausgang des Systems in den Einschwing-, den Erreger- und den Ausschwinganteil getrennt. Wird als Eingangssignal v(k) = v˜(k) · γ−1 (k) , speziell mit dem periodischen Anteil v˜(k) = ejkΩμ verwendet, so kann durch Messung der komplexen Amplitude des Erregeranur diskrete Werte teils am Ausgang der Frequenzgang H(ejΩ ) dieses Systems f¨

¨ 5.5 Eigenschaften der Ubertragungsfunktion

381

Ωμ seiner Definition entsprechend, bestimmt werden. Nach Abklingen des Einschwingvorganges erh¨ alt man den Erregeranteil y(k) = yerr (k) = H(ejΩμ )ejΩμ k . Siehe hierzu Abschn. 5.4.1, Bild 5.16). Da in der Regel der Frequenzgang an einer Vielzahl von Punkten Ωμ interessiert, ist diese Messung entsprechend oft zu wiederholen. Das l¨ aßt sich vermeiden, wenn man an den interessierenden Punkten Ωμ = μ2π/M, μ = 0(1)M − 1 gleichzeitig mißt. Messung des Frequenzgangs eines linearen Systems Wir beschreiben zun¨ achst ein Messverfahren zur Bestimmung des Frequenzganges H(ejΩμ ) eines streng linearen Systems. Dabei verwenden wir eine periodische Eingangsfolge v˜(k) der Periode M , von der lediglich vorausgesetzt wird, daß ihre Spektralwerte V˜ (μ) = | 0, ∀μ sind. Die periodische Folge v˜(k) wird z.B. durch eine inverse Diskrete Fouriertransformation geeignet gew¨ ahlter Spektralwerte V˜ (μ) = |V | ejϕ(μ) gebildet, v˜(k) = DFT−1 {V˜ (μ)} =

M −1  1 −μk |V | ejϕ(μ) wM . M μ=0

(5.5.48a)

F¨ ur die Phasenwerte ist dabei die Bedingung ϕ(μ) = −ϕ(M − μ) zu beachten, damit v˜(k) reell wird. Im Hinblick auf die sp¨ atere Erweiterung verwenden wir f¨ ur ϕ(μ) statistisch unabh¨ angige Zahlenwerte, die im Intervall [−π, π) gleichverteilt sind und somit eine n¨ aherungsweise normalverteilte Zufallsfolge v(k) alt man mit dem Verschiebungssatz ergeben [5.30]. F¨ ur v(k) = v˜(k)·γ−1 (k) erh¨ der Z-Transformation (2.5.9b) V (z) = Z{v(k)} =

M −1  zM · v˜(k)z −k . zM − 1

(5.5.48b)

k=0

Damit ist die Folge v(k) selbst darstellbar als v(k) =

M −1 1  ˜ −μk V (μ)wM · γ−1 (k) . M μ=0

(5.5.48c)

Die Erregung des zu untersuchenden Systems mit v(k) liefert das Ausgangssignal y(k) mit der Z-Transformierten Y (z) = H(z) V (z) . Die Aufspaltung in Einschwing- und Erregeranteil f¨ uhrt z.B. im Falle einer ¨ Ubertragungsfunktion mit einfachen Polstellen auf

382

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

y(k) = yein (k) + yerr (k) =

n 

k Bν V (z∞ν )z∞ν +

ν=1

M −1 1  −μk H(ejΩμ )V˜ (μ)wM . M μ=0

(5.5.49a) Nach Abklingen des Einschwingvorganges liefert die DFT einer Periode des verbleibenden periodischen Erregeranteils Y˜err (μ) = H(ejΩμ )V˜ (μ) ,

(5.5.49b)

woraus man die gew¨ unschten Werte H(ejΩμ ) des Frequenzganges mit den oben gew¨ ahlten V˜ (μ) als H(ejΩμ ) =

Y˜err (μ) 1 ˜ · Yerr (μ)e−jϕ(μ) = ˜ |V | V (μ)

(5.5.50)

erh¨ alt. Bild 5.27 zeigt ein Blockschaltbild des Verfahrens. Wie angegeben,

Abb. 5.27. Blockschaltbild einer Frequenzgangmessung

muß vor der Auswertung der Messung gem¨ aß (5.5.34) der Einschwingvorgang abgeklungen sein. Das kann hier durch Vergleich zweier aufeinander folgender Abschnitte von y(k) der L¨ ange M kontrolliert werden. Der Maximalwert des Betrages ihrer Differenz kann als Maß f¨ ur die Abweichung des Erregeranteils vom periodischen Verlauf verwendet werden. Das beschriebene Verfahren l¨ aßt sich mit beliebigen periodischen Eingangssignalen ausf¨ uhren, wenn das zu untersuchende System exakt linear ist.

Messungen an realen Systemen Reale Systeme haben diese Eigenschaft nur n¨ aherungsweise. Zum einen ist wegen der begrenzten Dynamik eine obere Schranke f¨ ur |v(k)| zu beachten, zum anderen wird das Ausgangssignal wegen der arithmetischen Fehler des Systems immer verf¨ alscht sein, siehe hierzu das Verhalten realer Komponenten

¨ 5.5 Eigenschaften der Ubertragungsfunktion

383

in Abschnitt 3.5. Der sich ergebende Einfluß auf die Genauigkeit der Messung h¨ angt in starkem Maße vom Eingangssignal ab, das bei beschr¨anktem Maximalwert einen m¨ oglichst hohen Effektivwert B C M −1 C 1  Veff = D |˜ v (k)|2 (5.5.51a) M k=0

haben sollte. Als Maß zur Beurteilung des Signals wird der Crestfaktor Cf =

max |˜ v (k)| Veff

(5.5.51b)

verwendet, f¨ ur den ein kleiner Wert anzustreben ist [5.16]. Wir betrachten drei Beispiele: a) Impuls Mit V˜ (μ) = 1, μ = 0(1)M − 1 erh¨ alt man aus (5.5.32a) v(k) =

∞ 

γ0 (k − κM ) .

(5.5.52a)

κ=0

√ ur den Crestfaktor folgt wegen max |˜ v (k)| = 1 Der Effektivwert ist 1/ M , f¨ √ (5.5.52b) Cf = M . ¨ Als Ausgangssignal ergibt sich eine Uberlagerung von gegeneinander um Vielfache von M verschobenen Impulsantworten y(k) =

∞ 

h0 (k − κM ) ,

(5.5.52c)

κ=0

die f¨ ur hinreichend großes k und M in den periodischen Erregeranteil u ¨bergehen M −1 1  −μk H(ejΩμ )wM . (5.5.52d) yerr (k) = M μ=0 Es ist also b)

H(ejΩμ ) = DFT {yerr (k)}

(5.5.52e)

Weißes“ Rauschen ” Ein gr¨ oßerer Effektivwert l¨ aßt sich mit V˜ (μ) = V0 ejϕ(μ) , V0 ∈ R;

v˜(k) = Re { DFT−1 {V˜ (μ)}}

384

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

erzielen, wenn die ϕ(μ) als unabh¨ angige Zufallswerte gew¨ahlt werden, die in [−π, π) gleichverteilt sind. Man erh¨ alt eine n¨aherungsweise normalverteilte Folge v(k) mit dem Effektivwert V0 Veff = √ = σ , M

(5.5.53a)

f¨ ur deren Maximalwert experimentell V0 max |˜ v (k)| ≈ 3.5σ = 3.5 √ M √ gefunden wurde [5.16,5.32]. Mit V0 = M /3.5 ergibt sich max |˜ v (k)| ≈ 1 , Veff = 1/3.5 und Cf ≈ 3.5 .

(5.5.53b)

(5.5.53c)

c) Chirp-Signal Ann¨ ahernd optimal sind die Komponenten des Chirp-Signals [5.17] v˜(k) = ejk

2

π/M

= v˜(R) (k) + j˜ v (I) (k) = cos(k 2 π/M ) + j sin(k 2 π/M ) (5.5.54a)

mit dem Spektrum V˜ (μ) =

√ 2 M ejπ/4 e−jμ π/M .

(5.5.54b)

Das Signal ist periodisch mit der Periode M , die Komponenten sind gerade Folgen. Es ist |˜ v (k)| = 1, |˜ v (R) (k)| ≤ 1, |˜ v (I) (k)| ≤ 1 .

(5.5.54c) √ Die Effektivwerte der Komponenten v˜(R) (k) und v˜(I) (k) sind etwa 1/ 2. F¨ ur das komplexe Signal gilt Veff = 1 . Die Crestfaktoren sind also √ ur die Komponenten, Cf ≈ 2 f¨ Cf = 1

f¨ ur das komplexe Signal .

(5.5.54d)

Das Verhalten der verschiedenen Meßsignale wird an einem Filterbeispiel n¨ aher untersucht. Wir gehen dabei von einem Tiefpaßfilter 6. Ordnung aus, das im Bild 5.28a durch die angegebenen Parameter und den idealen Freur die Messung wird das Filter in der quenzgang H(ejΩ ) beschrieben ist. F¨ 2. kanonischen Form mit Festkomma-Zustandsvariablen der L¨ange 16 Bit ¨ realisiert. Interne Uberl¨ aufe werden durch eine entsprechende Skalierung der

¨ 5.5 Eigenschaften der Ubertragungsfunktion

385

Z¨ ahlerkoeffizienten ausgeschlossen. F¨ ur die oben beschriebenen Signale (Impuls, Rauschen, reelles und komplexes Chirp-Signal) werden die gemessenen ur jeweils eine Messfolge aus einem Ensemble entFrequenzg¨ ange Hm (ejΩ ) f¨ sprechend (5.5.50) bestimmt und der jeweilige Messfehler Herr (ejΩ ) entsprechend     Herr (ejΩ ) = Hm (ejΩ ) − H(ejΩ ) abgetrennt. Die Fehlerfolgen sind in den Teilbildern 5.28b-e mit den entsprechenden Crestfaktoren dargestellt. Man beachte die unterschiedliche Skalierung der einzelnen Fehlerwerte. F¨ ur die weiteren Untersuchungen werden wir uns hier auf das Rauschsignal“ beschr¨ anken [5.31]. Zur Verwendung von ” Chirp-Signalen f¨ ur die Messung wird auf [5.32] verwiesen. Frequenzgang und Leistungsdichtespektrum der Quantisierungsfehler realer Systeme Wir haben zun¨ achst den Frequenzgang f¨ ur ein ideales System bestimmt. Reale Systeme mit Koeffizienten und Zustandsvariablen endlicher Wortl¨ange (siehe Abschn. 3.5) zeigen in Abh¨ angigkeit von den verwendeten Quantisierungskennlinien Quantisierungsfehler, die zu einem schwach nichtlinearen Verhalten des Systems f¨ uhren. Dar¨ uber hinaus soll das System im u ¨blichen Arbeitsbereich betrieben werden, sodass eine Abh¨ angigkeit von der Aussteuerung vernachl¨ aßigt werden kann. Das Verhalten des realen Systems wird durch die ¨ Parallelschaltung eines idealen Ubertragungssystems H(ejΩ ) und eines die Nichtlinearit¨ aten beschreibenden Teilsystems mit dem Leistungsdichtespektrum Φnn (ejΩ ) nach Bild 5.29 beschrieben. Im u ¨brigen sind die Teilsysteme dadurch definiert, daß f¨ ur ihre Ausgangssignale gilt E {yL (k + m) n(k)} = 0,

∀m .

(5.5.55)

Bemerkung: Bei der Verwendung einer zum Nullpunkt symmetrischen Quantisierungskennlinie (betragsm¨ aßiges Abschneiden oder Runden) entstehen zus¨atzlich mit dem Signal korrelierte Fehler, die zu einer Abh¨angigkeit des linearen ¨ uhren. Das ideale Ubertragungssystem erAnteils von der Aussteuerung σv f¨ jΩ gibt sich dann zu H(e , σv ). Das interessierende Meßverfahren muß die Auftrennung der beiden Anteile leisten. Das gelingt mit einer Ensemblemittelung u ¨ber eine hinreichend große Zahl von Einzelmessungen [5.31]. Als Eingangssignale werden nacheinander wiederum Mitglieder eines Ensembles periodischer Zufallssignale v˜λ (k) entsprechend (5.5.48) verwendet. Der Index λ kennzeichnet die einzelnen Messungen. Ihre Erzeugung erfolgt wiederum durch inverse DFT der jeweiligen Spektralwerte, wobei in der hier zu beschreibenden Version V˜λ (μ) = |V | ejϕλ (μ)

,

μ = 0 (1) M − 1 mitϕλ (μ) = −ϕλ (M − μ) (5.5.56)

386

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen Frequenzgang: Cauer−Filter 6. Ordnung; A =1db; A =40db; Ω =0.3; w=16 D

S

D

|H(ej Ω )|

0 −20 −40 −60

a)

0

0.1

0.2

0.3

0.4

0.5 Ω/π −→

0.6

0.7

0.8

0.9

1

|Herr (ej Ω )|

c)

|Herr (ej Ω )|

b)

|Herr (ej Ω )|

Fehler der Messung bei unterschiedlichen Testsignalen

e)

|Herr (ej Ω )|

d)

0.2

0

Impuls: Cf = 45.2548

0

0.05

0.1

0.2

0.3

0.4

0.5 Ω/π −→

0.6

0.7

0.8

0.9

1

0.4

0.5 Ω/π −→

0.6

0.7

0.8

0.9

1

0.4

0.5 Ω/π −→

0.6

0.7

0.8

0.9

1

0.4

0.5 Ω/π −→

0.6

0.7

0.8

0.9

1

Rauschen: C = 3.4261 f

0

0

0.05

0.1

0.2

0.3

Real Chirp: C = 1.3988 f

0

0

0.01

0

0.1

0.2

0.3

Komplex Chirp: Cf = 1

0

0.1

0.2

0.3

Abb. 5.28. Fehler bei der Messung des Frequenzgangs mit unterschiedlichen Signalen

sei. Die Phasen ϕλ (μ) sind bez¨ uglich μ und λ unabh¨angig im Intervall [−π, π) gleichverteilte Zufallswerte. Am Ausgang des Systems erh¨alt man nach Abklingen des Einschwingvorgangs die periodische Folge ˜ λ (k). y˜λ (k) = y˜Lλ (k) + n

(5.5.57a)

Hier ist y˜Lλ (k) die Reaktion des linearen Teilsystems, die sich in der Form

¨ 5.5 Eigenschaften der Ubertragungsfunktion

387

Abb. 5.29. Zur Modellierung eines schwach nichtlinearen Systems

y˜Lλ (k) =

M −1 1  −μk H(ejΩμ )V˜λ (μ) wM M μ=0

(5.5.57b)

mit den gesuchten Werten H(ejΩμ ) darstellen l¨aßt. Ihre Bestimmung erfolgt nun so, daß der Erwartungswert ⎧ 2 ⎫ M −1 ⎨  ⎬  2 1   −μk  E n ˜ λ (k) = E y˜λ (k) − H(ejΩμ )V˜λ (μ) wM (5.5.58)   ⎭ ⎩ M μ=0 minimal wird. Die Differentiation nach H ∗ (ejΩρ ) liefert die Bedingungsgleichung f¨ ur das Minimum   M −1 1  −μk ˜ ∗ ρk jΩμ ˜ Vλ (ρ)wM H(e )Vλ (μ) wM = 0, ρ = 0(1)M −1, E y˜λ (k) − M μ=0 aus der sich die H(ejΩμ ) bestimmen lassen. Man erh¨alt zun¨achst

(5.5.59)

M −1     1  (ρ−μ)k ρk ˜ ∗ Vλ (ρ) . H(ejΩμ ) wM E V˜λ (μ)V˜λ∗ (ρ) = E y˜λ (k)wM M μ=0

Mit der in (5.5.55) angegebenen Wahl von Vλ (μ) ist 2 V˜λ (μ)V˜λ∗ (ρ) = |V | ej[ϕλ (μ)−ϕλ (ρ)] .

Unter Beachtung f¨ ur die Festlegung f¨ ur die Phasen folgt    0 , ρ = μ ∗ ˜ ˜ E Vλ (μ)Vλ (ρ) = . 2 |V | , ρ = μ Dann ist

M −1   1  2 ρk ˜ ∗ Vλ (ρ) . H(ejΩρ ) · |V | = E y˜λ (k)wM M μ=0

Die Summation u ¨ber k = 0(1)M − 1 liefert mit Y˜λ (ρ) =

M −1  k=0

ρk y˜λ (k)wM = DF T {˜ yλ (k)}

(5.5.60)

388

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

H(ejΩρ ) =

1

2E

|V |

  Y˜λ (ρ) V˜λ∗ (ρ) .

(5.5.61a)

Ersetzt man wieder ρ durch μ , so folgt mit V˜λ∗ (μ) = |V | e−jϕλ (μ) schließlich   1 (5.5.61b) E Y˜λ (μ) e−jϕλ (μ) , H(ejΩμ ) = |V | das (5.5.50) entsprechende Ergebnis. Da der Erwartungswert nur n¨aherungsweise durch Mittelung u ¨ber endlich viele Mitglieder des Ensembles bestimmt werden kann, erh¨ alt man die Sch¨ atzwerte L  ˆ jΩμ ) = 1 1 H(e Y˜λ (μ)e−jϕλ (μ) ≈ H(ejΩμ ) . |V | L

(5.5.62)

λ=1

Die Zahl L der f¨ ur eine gew¨ unschte Genauigkeit n¨otigen Versuche h¨angt von der St¨ orung und damit vom Grad der Abweichung von der Linearit¨at ab. Beim ¨ streng linearen System ist L=1 ausreichend (siehe (5.5.50)). Eine Uberpr¨ ufung der Orthogonalit¨ atsforderung nach (5.5.55) wird in [5.1 und 5.31] gegeben. Wir kommen zur Bestimmung des Leistungsdichtespektrums Φnn (ejΩ ) der achst erh¨ alt man aus (5.5.57a) f¨ ur das Fehrauschartigen Fehler n ˜ λ (k). Zun¨ lerspektrum der λ-ten Einzelmessung unter Verwendung der f¨ ur H(ejΩμ ) geˆ jΩμ ) fundenen Sch¨ atzwerte H(e ˜λ (ejΩμ ) = Y˜λ (ejΩμ ) − H(ejΩμ ) · V˜λ (ejΩμ ) N ˆ jΩμ ) · V˜λ (ejΩμ ) . ≈ Y˜λ (ejΩμ ) − H(e Daraus folgen die Sch¨ atzwerte  2 # ˆnn (ejΩμ ) = 1 E Yλ (ejΩμ ) − H(e ˆ jΩμ ) · Vλ (ejΩμ ) Φ M ≈

L 2 1 1   ˆ jΩμ ) · Vλ (ejΩμ ) . Yλ (ejΩμ ) − H(e M L−1

(5.5.63)

(5.5.64)

λ=1

Es ist 2  2  2  2   ˜ jΩμ ˆ jΩμ ) V˜λ (ejΩμ ) ˆ jΩμ ) · V˜λ (ejΩμ ) = Y˜λ (ejΩμ ) + H(e ) − H(e Yλ (e   ˆ ∗ (ejΩμ )Y˜λ (ejΩμ )V˜λ∗ (ejΩμ ) . −2 Re H Die Mittelung u ¨ber L Versuche liefert L L 1  1   ˜ jΩμ 2  ˆ + jΩμ ,2 2 (·) = ) + H e  |V | Yλ (e L−1 L−1 λ=1 λ=1  L + ,  ˆ ∗ ejΩμ 1 Y˜λ (ejΩμ )V˜λ∗ (ejΩμ ) −2 Re H L λ=1

¨ 5.5 Eigenschaften der Ubertragungsfunktion

389

Mit (5.5.68,69) erh¨ alt man 2    ˆ jΩμ ) |V |2 ˆ jΩμ ) |V |2 = H(e ˆ ∗ (ejΩμ )H(e Re {·} = Re H und damit aus (5.5.64) ˆnn (ejΩ ) ≈ Φ

  L 1   ˜ jΩμ 2  ˆ jΩμ 2 L 2 ) − H(e ) |V | . Yλ (e M (L − 1) L λ=1

Schließlich ist ϕnn (0) ≈

M −1 1  ˆ Φnn (ejΩμ ) . M μ=0

(5.5.65)

ˆ jΩμ ) Bild 5.30 zeigt das Blockdiagramm f¨ ur die simultane Bestimmung von H(e jΩ ˆ und Φnn (e ). Der Mehraufwand im Vergleich zu der Untersuchung eines linearen Systems liegt im Wesentlichen in der L-fachen Ausf¨ uhrung der vorher beschriebenen Einzelmessung.

Abb. 5.30. Blockschaltbild f¨ ur die Untersuchung eines schwach nichtlinearen Systems

Mit MATLAB stellen wir f¨ ur die Messung des Frequenzgangs nach (5.5.62) und der Rauschleistungsdichte nach (5.5.64) die Funktion nlm(.) zur Verf¨ ugung. Der Funktionsname nlm (Noise Loading Method) entspricht dem eines Programms mit ¨ ahnlicher Funktion in [5.33]. Das zu messende System ist dort jedoch auf die fest einprogrammierte 1. kanonische Struktur (df2t-Form), siehe Abschn. 5.2.1, beschr¨ ankt. Die in der DSV-Bibliothek, siehe Anhang, Abschn. 7.1.4.6, vorliegende Versionen fixnlm(.) ist f¨ ur die Auswertung beliebiger Stukturen in FestkommaRealisierung erweitert. Die Funktion ist zu nlm(.) ¨ aquivalent.

390

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Beim Aufruf [H,W] = fixnlm(’filtername’,{coeff}, {addFiltPar},N,L,we) wird die gew¨ unschte Filterfunktion als Character-String ’filtername’ angegeben. Die f¨ ur die Filterfunktion ben¨ otigten Koeffizienten und weitere Filterparameter werden in zwei Cell-Arrays an das Messprogramm u ¨bergeben. Der Inhalt der Cell-Arrays h¨ angt damit von der gew¨ ahlten Filterfunktion ab. Um sicher zu stellen, daß der Einschwinganteil f¨ ur die Auswertung abgeklungen ist, wird die Messfolge in ihrer L¨ ange verdoppelt und dann nur die zweite H¨ alfte des Ausgangssignals f¨ ur die Auswertung herangezogen. Es bleibt zu bemerken, dass die Verdopplung der L¨ ange der Eingangsfolge bei hinreichend langer Messfolge in der Regel ausreichend ist, in kritischen F¨ allen (z.B. schmaler Bandpass) das Abklingen des Einschwingvorgangs jedoch nicht garantiert werden kann. Eine Orientierung f¨ ur eine hinreichende L¨ ange N kann die Bestimmung der L¨ ange der Impulsantwort geben. Diese ist in MATLAB mit der Funktion impzlength(b,c) m¨ oglich6 . ¨ Mit dem Befehl [H,W] = fixnlm(’fixdf2sos’,...) wird die Ubertragungsˆ jΩμ ) f¨ ur eine Kaskade von Bl¨ ocken 2. Grades in der df2-Form, realisiert funktion H(e in Festkomma-Arithmetik, bestimmt. Der interne Aufruf der Filterfunktion erfolgt mit dem Befehl [y,zss,nov] = fixdf2sos(soc, s,v,zs,w, rmode,over). Dementsprechend sind die Filterkoeffizienten der Kaskade in dem Cell-Array coeff={sos,s} und die weiteren Filterparameter in einem Cell-Array addFiltPar={w,rmode,over} beim Aufruf von fixnlm(.) anzuordnen. Mit den Parametern N,L werden die L¨ ange des Frequenzganges und die Anzahl der Iterationen bestimmt. Mit dem Befehl [H,W,Pnn] = fixnlm(’filtername’,...[,we]) werden zus¨ atzlich die Frequenzwerte W = [0, π) angegeben. Weiter erh¨ alt man die Rauschleiˆnn (ejΩm u ) der internen Quantisierungsfehler. Diese h¨ stungsdichte Pnn= ˆΦ angt von der gew¨ ahlten Wortl¨ ange w und der Quantisierungsart rmode ab. Da das interne ¨ Meßsignals stets so gew¨ ahlt ist, dass kein interner Uberlauf erfolgen sollte, kann der ¨ Parameter zur Steuerung der Uberlaufkennline unterdr¨ uckt oder auf over = ’none’ ¨ eingestellt werden. Wird jedoch zus¨ atzlich eine Uberpr¨ ufung der Zustandsvariablen gew¨ unscht, so ist die entsprechende Kennlinie anzuw¨ ahlen. Der optionale Parameter we legt weiter fest, ob das Meßsignal am Systemeingang auf we -Bit gerundet werden soll. Diese zus¨ atzliche Rundungsstelle tr¨ agt nat¨ urlich zum gesamtem Fehler bei. Kann man bei der Simulation eines Teilsystems davon ausgehen, daß das Eingangssignal bereits in entsprechender L¨ ange gerundet vorliegt, so kann diese zus¨ atzliche Quantisierungsstelle am Eingang in der Regel entfallen. Hierzu wird Parameter we = [] gesetzt oder nicht angegeben. Mit [H,W,Pnn,Ri]=fixnlm(.) erh¨ alt man weiter die Rauschkennzahl des untersuchten Systems. Die Rauschkennzahl Ri gibt nach (5.5.65) die auf die Rauschleistung einer Rundungsstelle Q2 /12 bezogene mittlere Rauschleistung an, ∧

Ri =

M −1 12 1  ˆ jΩμ ) Φ(e Q2i M μ=0

. Abschließend zeigen wir ein Beispiel. Hierzu bestimmen wir durch Messung den Frequenzgang und die Rauschleistungsdichte f¨ ur das oben eingef¨ uhrte Tiefpass-Filter 6. Grades. Mit dem Befehl [H,W,Pnn,Ri] = fixnlm(’fixdf2sos’,{sos,s},{14,’nearest’,’sat’},1204,100) wird das Filter 6

In neueren Versionen von MATLAB wird die Funktion impzlength(.) nur als Methode zu einem dfilt-Object zur Verf¨ ugung gestellt, siehe Abschn. 7.1.6

5.6 Spezielle Systeme

391

in der 2. kanonischen Struktur, skaliert nach der absoluten Norm, mit Zustandsvariablen der Wortl¨ ange w=14 Bit, Quantisierung mit 2er-Komplement-Runden und S¨ attigungskennlinie realisiert. Bild 5.31 zeigt den gemessenen Frequenzgang (b) und die Rauschleistungsdichte (c). Messung: Cauer−Filter 6. Grades.; A =1db; A =40db; Ω =0.3; w=14 D

S

D

10 N = 1024 L = 100

0

|H(Ω)|, LDS(Ω) in dB

−10

a) b)

−20 −30 −40 −50 −60 −70 c)

−80 Ri = 172.4038

−90 0

0.2

0.4

Ω/π →

0.6

0.8

1

Abb. 5.31. Messung der Systemparameter eines Tiefpasses, realisiert in der 2. kanonischen Form; theoretischer (a) und gemesssener (b) Frequenzgang; Rauschleistungsdichte (c)

Weitere Filterfunktionen in Festkomma-Arithmitik werden in der DSV-Bibliothek, siehe Anhang, Abschn. 7.1.4.6, zur Verf¨ ugung gestellt. Die interne Quantisierung wird dabei mit der Funktion fixqunat(.) ausgef¨ uhrt, deren Parameter im Anhang ebenfalls erl¨ autert werden. F¨ ur die Messung von Gleitkommarealisierungen wird in der DSV-Bibliothek entsprechend die Funktion fldnlm(.) bereitgestellt. •

5.6 Spezielle Systeme 5.6.1 Allp¨ asse ¨ Wir gehen von einem stabilen System aus, dessen Ubertragungsfunktion ausschließlich Polstellen hat:

392

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

HN (z) =

n (

1 1 = , (z − z ) N (z) ∞ν ν=1

z∞ν = ∞ν ejψ∞ν .

Es soll untersucht werden, mit welchem Z¨ ahlerpolynom Z(z) dieses HN (z) zu erg¨ anzen ist, damit bei HA (z) = Z(z)HN (z) |HA (ejΩ )| = const. , ∀Ω ist. Den trivialen Fall z∞ν = 0, ∀ν schließen wir dabei aus. Nach (5.5.22) zeigt sich der Einfluß einer Polstelle auf den Betrag in dem Faktor −1 ) 1 − 2 ∞ν cos(Ω − ψ∞ν ) + 2∞ν . Dieser Einfluß ist nur durch einen von einer Nullstelle herr¨ uhrenden Faktor ¨ im Z¨ ahler der Ubertragungsfunktion gleicher Frequenzabh¨angigkeit auszugleichen. Abgesehen von dem trivialen Fall z0μ = z∞ν erfordert das z0μ = 0μ ejψ0μ =

1 jψ∞ν 1 e = ∗ .

∞ν z∞ν

(5.6.1)

Damit wird B C 2 1  jΩ  C 1− cos(Ω − ψ∞ν ) + 2  e − z0μ  C 1 D



∞ν ∞ν    ejΩ − z∞ν  = 1 − 2 ∞ν cos(Ω − ψ∞ν ) + 2 = ∞ν . ∞ν

(5.6.1)

Da jede Polstelle durch die entsprechende spiegelbildlich zum Einheitskreis ¨ gew¨ ahlte Nullstelle zu erg¨ anzen ist, gilt f¨ ur die Ubertragungsfunktion mit (5.2.9)   n n ' ' 1 (z∞ν z − 1) z− bn ν=1 z∞ν HA (z) = bn ν=1 = . (5.6.2a) n n n ' ' ' (z − z∞ν ) z∞ν (z − z∞ν ) ν=1

ν=1

W¨ ahlen wir speziell bn = (−1)n

n (

ν=1

z∞ν = c0 ,

(5.6.2a)

ν=1

so ist n

HA (z) =

ν=0 n

ν=0

und

n

cn−ν z ν = cν z ν

z n ν=0 n

cν z −ν

ν=0

= zn cν z ν

N (z −1 ) N (z)

(5.6.2b)

5.6 Spezielle Systeme

|HA (ejΩ )| = HA (1) = 1, ∀Ω .

393

(5.6.2c)

Da wegen der vorausgesetzten Stabilit¨ at alle Pole im Innern des Einheitskreises liegen, kann man nach dem Prinzip vom Maximum die Aussage (5.6.2c) erg¨ anzen [5.15]. Es ist (vergl. (4.5.17)) ⎧ ur |z| > 1 ⎪ ⎨ < 1, f¨ ur |z| = 1 (5.6.2d) |HA (z)| = 1, f¨ ⎪ ⎩ > 1, f¨ ur |z| < 1 . Gleichung (5.6.2) beschreibt einen Allpaß. Bild 5.32 veranschaulicht die Lage der Pole und Nullstellen, die nach (5.6.1) in bezug auf den Einheitskreis spiegelbildlich zueinander liegen. Z¨ ahler- und Nennerpolynom bilden ein Spiegelpaar. Der hier gefundene Allpaß entspricht v¨ollig dem bei kontinuierlichen Systemen, z.B. [5.4].

Abb. 5.32. M¨ ogliche Pol-Nullstellenlagen eines reellwertigen Allpasses

F¨ ur die Bestimmung der Phase eines Allpasses gehen wir zweckm¨aßig von (5.6.2b) aus. Es ist n

HA (e



)=

ejnΩ ν=0 n

cν e−jνΩ

ν=0

und damit

= ejnΩ cν ejνΩ n

bA (Ω) = −nΩ + 2 arctan ν=1 n ν=0

N (e−jΩ ) N (ejΩ )

(5.6.2d)

cν sin νΩ . cν cos νΩ

(5.6.3a)

394

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Setzt man entsprechend dem Vorgehen im letzten Abschnitt N ∗ (ejΩ ) =

∗ {cν }

= NR (ejΩ ) − jNI (ejΩ ) ,

so ist die Phase bA (Ω) = −nΩ + 2 arctan

NI (ejΩ ) . NR (ejΩ )

(5.6.3a)

(5.6.3b)

Die Spezialisierung der in Abschnitt 5.5.3 f¨ ur die Gruppenlaufzeit gefundenen Ergebnisse f¨ uhrt beim Allpaß auf

zN  (z) z −1 N  (z −1 ) TgA (z) = + − n. (5.6.4a) N (z) N (z −1 ) Es ist dann  τgA (Ω) = 2 Re

 zN  (z)  N (z) 

# − n = 2 Re

z=ejΩ

⎫ ⎧ n ⎪ jνΩ ⎪ ⎪ ⎪ νc e ν ⎬ ⎨

ν=1 − n . (5.6.4b) n ⎪ ⎪ ⎪ cν ejνΩ ⎪ ⎭ ⎩ ν=0

Aus (5.5.25b) erhalten wir den Phasenzuwachs bzw. die Gruppenlaufzeitfl¨ ache eines Allpasses n-ten Grades Δb = 2nπ .

(5.6.3c)

Weiterhin ist die Gruppenlaufzeit bei Ω = 0 nach (5.5.21f) n

τgA (0) =

ν=1

ν(cν − cn−ν ) n ν=0

.

(5.6.4c)



Ausgehend von (5.6.2a) l¨ aßt sich auch eine Summendarstellung f¨ ur Phase und Gruppenlaufzeit des Allpasses entwickeln. Dazu f¨ uhren wir mit HAν (z) =

∗ ∗ ∗ z+1 1 − z∞ν z −z∞ν z −1 − z∞ν =z = z −1 −1 z − z∞ν z − z∞ν 1 − z∞ν z

(5.6.5a)

¨ verschiedene Versionen der Ubertragungsfunktion eines i.allg. komplexwertigen Allpasses ein. Offenbar ist unter der gemachten Annahme f¨ ur bn HA (z) =

n (

HAν (z) .

(5.6.5a)

ν=1

F¨ ur den Phasenbeitrag des durch (5.6.5a) beschriebenen Allpasses erh¨alt man mit z∞ν = ν ejψν die Darstellungen

5.6 Spezielle Systeme



1 + ν Ω − ψν tan 1 − ν 2 sin Ω − ν sin ψν , bAν (Ω) = −Ω + 2 arctan cos Ω − ν cos ψν

ν sin(Ω − ψν ) . bAν (Ω) = Ω + 2 arctan 1 − ν cos(Ω − ψν ) bAν (Ω) = ψν + 2 arctan

395

,

(5.6.3d) (5.6.3e) (5.6.3f)

Entsprechend (5.5.23a) ist dann bA (Ω) =

n 

bAν (Ω) .

(5.6.3g)

ν=1

Bild 5.33a zeigt den Verlauf eines Summanden f¨ ur ψν = 0 und verschiedene ur die Gruppenlaufzeit des Einzelallpasses erh¨alt man z.B. Werte von ν . F¨ aus (5.5.24a) 1 − 2ν (5.6.4d) τgAν (Ω) = 1 − 2 ν cos(Ω − ψν ) + 2ν und damit τgA (Ω) =

n 

τgAν (Ω) .

(5.6.4e)

ν=1

Aus (5.6.4d) folgt unmittelbar τgA (Ω) > 0, ∀Ω .

(5.6.4f)

Bild 5.33b zeigt einen der Summanden, wieder f¨ ur ψν = 0 und verschiedene Werte von ν . Weiterhin ergibt sich die Fourierreihenentwicklung der Gruppenlaufzeit eines Allpasses durch Spezialisierung von (5.5.29a) τgA (Ω) = n + 2

n ∞  

kν cos k(Ω − ψν ) .

(5.6.4g)

k=1 ν=1

¨ Die Eigenschaften eines Allpasses, f¨ ur dessen Ubertragungsfunktion |HA (ejΩ )| = HA (ej0 ) = 1, ∀Ω gilt, werden offenbar vollst¨andig durch bA (Ω) bzw. τgA (Ω) beschrieben. Es interessiert ein Verfahren, mit dem man HA (z) n cν z ν aus τgA (Ω) bebzw. die Koeffizienten des Nennerpolynoms N (z) = ν=0

stimmen kann. Wir zeigen kurz eine Methode, die von den Koeffizienten der Fourierreihenentwicklung von τgA (Ω) ausgeht [5.19]. Die mit (5.5.21b) eingef¨ uhrte Funktion Tg (z) hat die Laurentreihenentwicklung +∞  d(k)z −k , (5.6.5a) Tg (z) = k=−∞

deren Koeffizienten gem¨ aß (5.5.28) zugleich die der Fourierreihenentwicklung von τg (Ω) sind.

396

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Abb. 5.33. Beitr¨ age eines Pol-Nullstellenpaars zum Frequenzgang von Phase und Gruppenlaufzeit eines Allpasses

Wir betrachten den kausalen Anteil der Folge d(k) und erhalten mit (5.6.4a) n 

zN (z) = ν=1 n N (z)

νcν z ν

ν=0

Dann gilt

= cν z ν

n  ν=1

∞ 

d(k)z −k ;

d(k) =

k z∞ν γ−1 (k) .

(5.6.5b)

ν=1

k=0

νcν z ν =

n 

n 

cν z ν ·

ν=0

∞ 

d(k)z −k .

(5.6.6)

k=0

Nach Ausmultiplikation und Koeffizientenvergleich ergibt sich ein Gleichungssystem f¨ ur die cν , ν = 0(1)n − 1, cn = 1 ⎤ ⎡ ⎤ ⎡ ⎡ ⎤ n d(0) 0 ... 0 1 ⎥ ⎢ . ⎥ ⎢ ⎥ ⎥ ⎢ ⎢ (n − 1)c ⎢ d(1) ⎢ n−1 ⎥ d(0) . . . .. ⎥ ⎢ cn−1 ⎥ ⎥ ⎢ ⎥ ⎥ ⎢ ⎢ .. ⎥ ⎢ c ⎥ ⎥ ⎢ ⎢ n−2 ⎢ ⎥ ⎥ ⎢ (n − 2)cn−2 ⎥ ⎢ d(2) d(1) . . . . ⎥ ⎢ ⎥ . ⎥=⎢ ⎢ · (5.6.6) . ⎢ ⎥ ⎢ ⎥ ⎢ . . . .. .. .. .. ⎥ ⎢ .. ⎥ .. ⎥ ⎥ ⎢ ⎢ . ⎥ ⎢ ⎥ ⎥ ⎢ ⎢ . ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎢ ⎥ c ⎣ ⎦ ⎣ d(n − 1) d(n − 2) . . . 0 1 ⎦ c1 ⎣ ⎦ c0 d(n) d(n − 1) . . . d(0) 0 Mit d(0) = n erh¨ alt man nach Umordnen

5.6 Spezielle Systeme









⎤ cn−1 d(1) ... 0 ⎢ ⎥ ⎢ ⎥ .⎥ ⎢ ⎢ ⎢ d(2) ⎥ ⎥ ⎥ ⎢ d(1) ⎢ 2 . . . .. ⎥ ⎢ cn−2 ⎥ ⎥ ⎢ ⎥ ⎢ ⎢ ⎥ .. ⎥ ⎢ ⎥ ⎢ ⎢ ⎥ ⎢ ⎥ ⎢ d(2) ⎥ ⎢ ⎥ d(1) . . . . ⎥ ⎢ cn−3 ⎥ ⎢ ⎢ d(3) ⎥ · = − ⎥ ⎢ ⎢ .. .. .. ⎥ ⎢ . ⎥ .. ⎢ ⎥ ⎢ ⎢ ⎥ . . .⎥ ⎥ ⎥ ⎢ .. ⎥ ⎢ ⎢ . ⎥ ⎥ ⎢ ⎢ ⎢ ⎥ ⎢ d(n − 1) ⎥ ⎣ d(n − 2) d(n − 3) . . . 0 ⎦ ⎢ c ⎥ ⎦ ⎣ 1 ⎦ ⎣ d(n − 1) d(n − 2) . . . n d(n) c0 1

397



0

(5.6.7)

und daraus die gesuchten Werte cν . Man erkennt, daß die ersten n+1 Koeffizienten der Fourierreihenentwicklung der Gruppenlaufzeit den Allpaß eindeutig beschreiben. ¨ Mit MATLAB geben wir ein Programm f¨ ur die Berechnung der Ubertragungsfunktion eines Allpasses n-ter Ordnung bei punktweise vorgegebener Gruppenlaufzeit an. Die Funktion [b,c] = allpassgrpdelay(n,taug) berechnet zun¨ achst die Koeffizienten der Fourierreihenentwicklung d(i) der gew¨ unschten Gruppenlaufzeit τg . ∧ aßigen Abst¨ anden vorgeDazu wird taug = τg = τg (0 · · · Ωμ · · · π) , Ωμ in gleichm¨ geben. Es ist darauf zu achten, daß die Anzahl der vorgegebenen Werte von τg gr¨ oßer als der Grad n des Filters gew¨ ahlt wird. Die Matrix des Gleichungssystems entspricht einer unteren Dreiecksmatrix mit Toeplitzstruktur, die wir entsprechend (5.5.7) mit einer Diagonalmatrix erg¨ anzen. Die L¨ osung des Gleichungssystems liefert die Nennerkoeffizienten des gesuchten Allpasses. function [b,c]=allpassgrpdelay(n,taug) taug=taug(:)’; if length(taug) 1 ist weiterhin |h0 (n − m)| < |h0M (0)| .

(5.6.15c)

Wir untersuchen nun f¨ ur die beiden Systeme mit gleichem Betragsfrequenzgang die sich aus ihren Impulsantworten ergebenden Folgen

5.6 Spezielle Systeme

403

Abb. 5.35. Zeitverhalten eines in Teilsysteme zerlegten nichtminimalphasigen Systems

w(k) =

k 

h20 (κ)

bzw. wM (k) =

κ=0

k 

h20M (κ) .

(5.6.16a)

κ=0

Zun¨ achst stellen wir fest, daß wegen der Parsevalschen Gleichung (2.5.19c) w(∞) =

∞  κ=0

h20 (κ)

1 = 2π

+π |H(ejΩ )|2 dΩ

mit

|H(ejΩ )| = |HM (ejΩ )|

−π

w(∞) =

∞ 

h20M (κ) = wM (∞)

(5.6.16b)

κ=0

sein muß. Es soll jetzt gezeigt werden, daß wM (k) − w(k) ≥ 0, ∀k

(5.6.17)

gilt, wenn wM (k) die entsprechend (5.6.16a) definierte Folge f¨ ur das minimalphasige System mit gleichem Betragsfrequenzgang ist. Dazu bestimmen wir die sich ergebende Ver¨ anderung der Energiefolge wM (k), wenn eine der Nullstellen (bzw. ein Nullstellenpaar) von HM (z) am Einheitskreis gespiegelt wird. Wir schreiben HM (z) in der Form HM (z) = G(z)

z − z0μ . z

Hier ist |z0μ | < 1, wobei z0μ zun¨ achst reell, im u ¨brigen aber beliebig sei. Die zugeh¨ orige Impulsantwort kann man mit

404

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

g(k) = Z −1 {G(z)} als

h0M (k) = g(k) − z0μ g(k − 1)

darstellen. Die Spiegelung von z0μ am Einheitskreis liefert die allpaßhaltige ¨ Ubertragungsfunktion H(z) = G(z)z0μ

z − 1/z0μ z

mit |H(ejΩ )| = |HM (ejΩ )| und der Impulsantwort h0 (k) = z0μ g(k) − g(k − 1) . Wir bilden jetzt Δw(k) = wM (k) − w(k) und erhalten 2 )g 2 (k) ≥ 0, ∀k Δw(k) = (1 − z0μ

¨ in Ubereinstimmung mit der Behauptung. Im Falle eines beliebigen Paars komplexer Nullstellen im Einheitskreis setzen wir HM (z) = G(z)

∗ (z − z0μ )(z − z0μ ) z 2 + c1 z + co = G(z) . 2 z z2

Die Spiegelung des Nullstellenpaars f¨ uhrt auf H(z) = G(z)

c0 z 2 + c1 z + 1 z2

F¨ ur die Impulsantworten folgt h0M (k) = g(k) + c1 g(k − 1) + c0 g(k − 2) und h0 (k) = c0 g(k) + c1 g(k − 1) + g(k − 2) . Damit wird nach Zwischenrechnung mit a = c1 /(1 + c0 ) Δw(k) = (1 − c20 )[g 2 (k) + 2ag(k)g(k − 1) + g 2 (k − 1)] =: (1 − c20 )A . Wegen |z0μ | < 1 ist nach (5.5.3) |c0 | < 1 und |c1 | < 1+c0 . Damit ist (1−c20 ) > 0 und |a| < 1. Der Faktor A ist eine quadratische Form, die mit

1a A= und g = [g(k) g(k − 1)]T a1 als A = gT Ag ausgedr¨ uckt werden kann. Da A die hier stets positiven Eigenur g = 0 werte λ1,2 = 1 ± a hat, ist A ≥ 0, wobei das Gleichheitszeichen nur f¨ gilt. Damit ist die Aussage (5.6.17) bewiesen. Wir k¨ onnen sie noch in der folgenden Weise verallgemeinern. Ist yM (k) = h0M (k) ∗ v(k) = Z −1 {HM (z)V (z)}

5.6 Spezielle Systeme

405

die Reaktion eines minimalphasigen Systems auf eine beliebige Erregung v(k) und y(k) = h0 (k) ∗ v(k) = Z −1 {H(z)V (z)} die entsprechende Reaktion eines nichtminimalphasigen Systems gleichen Betragsfrequenzgangs, so gilt k 

2 yM (κ) −

κ=0

k 

y 2 (κ) ≥ 0, ∀k

(5.6.18)

κ=0

Den Beweis kann man wie oben f¨ uhren, wobei man G(z)V (z) an Stelle von G(z) setzt. Von Interesse ist schließlich die Autokorrelierte der Impulsantwort eines linearen, zeitinvarianten Systems. Nach Abschn. 4.6 wird sie bei der Untersuchung der Reaktion auf ein Zufallssignal ben¨ otigt. In dem hier vorliegenden kausalen Fall ist

(λ) = h0 (λ) ∗ h0 (−λ) =

+∞ k=0

h0 (k)h0 (k + λ), ∀λ ∈ (5.6.19a)

= Z −1 {H(z)H(z −1 )} . Setzen wir hier (5.6.8) ein, so folgt unmittelbar

(λ) = Z −1 {HM (z)HM (z −1 )} =

 1  HM (z)HM (z −1 )z λ−1 dz . 6 2πj

(5.6.19b)

C

Die Integration kann auf dem Einheitskreis erfolgen. Es ist also auch 1

(λ) = 2π

π |H(e −π



1 )| cos λΩ dΩ = 2π 2

+π |HM (ejΩ )|2 cos λΩ dΩ . −π

(5.6.19c) Der Vergleich mit (5.6.16b) zeigt, daß gilt

(0) = w(∞) =

∞  k=0

h20 (k) =

∞ 

h20M (k) .

(5.6.19d)

k=0

Offensichtlich erh¨alt man f¨ ur all die zu Beginn dieses Abschnitts erw¨ahnten  ¨ H (z) und ent2m Systeme mit unterschiedlichen Ubertragungsfunktionen sprechend verschiedenen Impulsantworten h0 (k), aber gleichem Betragsfrequenzgang, dieselbe Autokorrelierte (λ). Die Auswertung von (5.6.19b) mit dem Residuensatz f¨ uhrt auf einen geschlossenen Ausdruck f¨ ur (λ). Eine andere geschlossene Darstellung unter

406

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Verwendung der Kovarianzmatrix K sowie der das System beschreibenden Gr¨ oßen cT , A und d hatten wir in (5.3.26) angegeben. Wir beschr¨anken uns ¨ auf den praktisch wichtigen Fall einer Ubertragungsfunktion HM (z) (bzw. | 0, ν = 1(1)n. Mit H(z)) mit einfachen Polstellen z∞ν = H(z) = H(0) +

n 



ν=1

(λ) = H(∞)H(0)γ0 (λ) +

n 

z z − z∞ν

folgt

−1 |λ| Bν H(z∞ν )z∞ν , ∀λ ∈

.

(5.6.20)

ν=1

Umgekehrt bestimmen die ersten 2n + 1 Werte der Autokorrelierten (λ) der ¨ Impulsantwort eines Systems mit rationaler Ubertragungsfunktion n-ten Gram ¨ des alle 2 Ubertragungsfunktionen H (z) gleichen Grades derjenigen Systeme, deren Impulsantworten die gegebene Autokorrelierte haben. Wir erl¨autern kurz das Verfahren: Mit der kausalen Folge s(k) = 0.5 (0) · γ0 (k) + (k)γ−1 (k − 1)

(5.6.21a)

ist die Autokorrelierte

(k) = s(k) + s(−k) .

(5.6.21b)

¨ s(k) l¨ aßt sich als Impulsantwort eines Systems mit der Ubertragungsfunktion S(z) interpretieren. Mit dem in Abschnitt 5.3.2 beschriebenen Verfahren kann man Zs (z) S(z) = N (z) aus den ersten 2n + 1 Werten der Folge s(k) bestimmen. Dann gilt f¨ ur alle ¨ gesuchten Ubertragungsfunktionen H (z) Z{ (k)} = H (z)H (z −1 ) =: mit

F (z) = S(z) + S(z −1 ) D(z)

(5.6.21c)

D(z) = N (z)z n N (z −1 ) und F (z) = Zs (z)z n N (z −1 ) + z n Zs (z −1 )N (z) .

(5.6.21d)

Die Eigenschaften dieser Polynome wurden im Abschnitt 5.5.4 diskutiert (siehe (5.5.40) und (5.5.43) sowie Bild 5.24a,d). Die H (z) haben das Nennerpolynom N (z). Ihre Z¨ ahlerpolynome Z (z) = bn

n % ( μ=1

()

z − z0μ

&

=: bn · Zn (z)

(5.6.21e)

5.6 Spezielle Systeme

407

ergeben sich, abgesehen vom Faktor bn , durch Auswahl von n Nullstellen des Polynoms F (z) derart, daß Z (z) reellwertig wird. Die noch fehlenden bn sind so zu w¨ ahlen, daß   )  Zn (1)   = + 2S(1) (5.6.21f) |H (z = 1)| = |bn | ·   N (1) ist, wie nach (5.6.21c) erforderlich. Die Vielfalt der L¨osungen reduziert sich nat¨ urlich eindeutig auf das minimalphasige System, wenn man n Nullstellen () derart ausw¨ ahlt, daß f¨ ur sie |z0μ | = |z0μ | ≤ 1 ist. ¨ Wir betrachten ein numerisches Beispiel, bei dem wir von der Ubertragungsfunktion H1 (z) =

Z1 (z) (z − 0, 5)(z − 0, 6)(z + 1) = b3 N (z) (z − 0, 8)(z − 0, 88ej0,2 )(z − 0, 88e−j0,2 )

ausgehen, die offenbar zu einem minimalphasigen System geh¨ort. Mit b3 = 0, 02474 ist H1 (1) = 1. Man erh¨ alt H02 (ejΩ ) = |H1 (ejΩ )|2 = 0, 6 cos 3Ω − 1, 66 cos 2Ω − 0, 52 cos Ω + 1, 74 . = b23 −1, 239 cos 3Ω + 7, 437 cos 2Ω − 18, 6 cos Ω + 12, 4 ¨ Ist prim¨ ar diese Funktion gegeben, so geh¨ oren dazu neben H1 (z) die Ubertragungsfunktionen 3. Grades Z (z) , = 2(1)4 mit N (z) Z2 (z) = −b3 · 0, 5(z − 2)(z − 0, 6)(z + 1) , Z3 (z) = −b3 · 0, 6(z − 0, 5)(z − 5/3)(z + 1) , Z4 (z) = b3 · 0, 3(z − 2)(z − 5/3)(z + 1) .

H (z) =

Bild 5.36 zeigt das Frequenz- und Zeitverhalten dieser Systeme mit gleichem Betragsfrequenzgang, wobei die angegebenen Vorzeichen verwendet wurden. Dargestellt ist auch das Cepstrum des minimalphasigen Systems. Unterschiede erkennt man zun¨ achst im Phasengang und der Gruppenlaufzeit. Bei den Kurven b(Ω) ist in bezug auf die Aussagen u ¨ber den Phasenzuwachs in Abschnitt 5.5.3 zu beachten, daß jeweils lim b (Ω) angegeben wurde, Ω→π−0

der durch die Nullstelle bei z = −1 verursachte Phasensprung also nicht ber¨ ucksichtigt ist. Ebenso fehlt bei der Gruppenlaufzeit der zugeh¨orige DiracAnteil an dieser Stelle. Die Impulsantworten der allpaßhaltigen Systeme zeigen vor dem Hauptextremum Vorschwinger. Das h¨angt offenbar mit der Aussage (5.6.17) u ¨ber die w (k) zusammen. Diese Folgen werden im Bild 5.36g ebenfalls gezeigt. Identisch sind dagegen die Autokorrelierten der verschiedenen Impulsantworten. Bild 5.36h zeigt (λ) f¨ ur λ ≥ 0.

408

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen

Abb. 5.36. Zur Untersuchung von Systemen mit gleichem Betragsfrequenzgang.  a) Pol-Nullstellendiagramme und Betragsfrequenzgang |H0 (ejΩ )|; b) D¨ ampfung a(Ω  ); c) Phaseng¨ ange b (Ω  ); d) Gruppenlaufzeiten τg (Ω  ); e) Impulsantworten h0 (k); f) Cepstrum cp (k) des minimalphasigen Systems; g) Energiefolgen w (k); h) Autokorrelationsfolge (λ)

5.6 Spezielle Systeme

409

Mit MATLAB geben wir ein Programm zur Berechnung der Autokorrelierten (λ) der Impulsantwort eines linearen, zeitinvarianten Systems an. Ausgehend von den Koeffizientenvektoren b und c eines i.allg. nicht minimalphasigen ¨ Systems, dessen Ubertragungsfunktion H(z) nur einfache Polstellen z∞ν = | 0 hat, errechnet die Funktion ro = acorimpresp(b,c,L) dieWerte der Autokorrelierten ∧ aß (5.6.19) zu der Impulsantwort h0 (k) des ro = (λ), λ = 0(1)L − 1, die gem¨ Systems geh¨ ort. Das Programm bestimmt dazu die Koeffizientenvektoren bm und cm eines kausalen Systems, dessen Impulsantwort (λ), λ ≥ 0 ist. Hierzu werden zun¨ achst die Residuen von H(z)/z mit der Funktion residuez(.) (siehe Abschn. 2.5.4) bestimmt und in die Residuen der Leistungs¨ ubertragungsfunktion umgerechnet. Die Berechnung der Koeffizienten der Modellfunktion erfolgt wiederum mit der Funktion residuez(.). Die Impulsantwort der Modellfunktion entspricht dann der Autokorrelierten. function ro=acorimpresp(b,c,L) % [B,p,K]=residuez(b,c); % Residuen von H(z)/z; b_ = fliplr(b); c_ = fliplr(c); % Invertierte Pole und Nullst. H_p = polyval(b_,p)./polyval(c_,p); Br = B.*H_p; % Residuen der Leistungsfunktion K = K*b_(end)/c_(end); [bm,cm] = residuez(Br,p,K); % Koeffizienten der Modellfuktion bm = real(bm); cm = real(cm); ro = impz(bm,cm,L)’; % Autokorrelationsfunktion Wir geben weiterhin ein Programm an, mit dem entsprechend dem mit (5.6.21) beschriebenen Verfahren ausgehend von der Autokorrelationsfolge (λ) eines Sy¨ stems die zugeh¨ origen Ubertragungsfunktionen berechnet werden k¨ onnen. Die Funktion acor2tf(.) geht von den ersten mindestens 2n+1 Werten der Autokorrelationsfolge (λ) aus und bestimmt zun¨ achst eine zur Autokorrelationsfunk¨ tion geh¨ orige Ubertragungsfunktion mit der in Abschn. 5.3.2 vorgestellten Funktion ¨ imp2tf(.). Dabei kann der Grad der berechneten Ubertragungsfunktion von dem ¨ gesch¨ atzten Wert n abweichen. Zur Bestimmung aller m¨ oglichen Ubertragungsfunktionen mit gleichem Betrag werden zun¨ achst mit der Funktion F (z) nach (5.6.21d) alle m¨ oglichen Nullstellen z0μ von F (z) bestimmt. In dem unten gezeigten Programmbeispiel verwenden wir hierzu die MATLAB-Funktion roots(.), die jedoch bei mehrfachen Nullstellen zur Cluster-Bildung“neigen kann 7 . Durch die Anga” be eines geeigneten Toleranzwertes (Parameter tol) beim Aufruf der Funktion kann in der Regel dennoch eine geeignete Auswahl der Nullstellen getroffen werden. Die Funktion circlemean(.) f¨ uhrt dabei eine Mittelung der Nullstellen im Cluster nach Betrag und Phase durch. Im weiteren Programmverlauf wird zun¨ achst das minimalphasige System bestimmt und, soweit nicht minimalphasigen L¨ osungen existieren, diese weiteren L¨ osungen mit der Funktion extphase(.) berechnet. Die L¨ osungen werden zeilenweise in der Matrix bb ausgegeben. Die Funktionen acorimpresp(.), acor2tf(.), sowie alle ben¨ otigten zus¨ atzlichen Unterfunktionen werden in der DSVBibliothek im Anhang, Abschn. 7.1.4.5 zur Verf¨ ugung gestellt. 7

Siehe hierzu die entsprechende Fußnote im Abschnitt 5.2.2

410

5 Kausale, lineare Systeme, beschrieben durch Differenzengleichungen function [bb,cc,F,z0]=acor2tf(ro,n,tol) % if nargin==3, reps=tol; else reps=sqrt(eps); end if length(ro) 0 ist on blockfreqz(.) bestimmt. Die Gr¨ oße der Funktionen Gκ (ejΩ ) f¨ ¨ ein Maß f¨ ur die Abweichung der Ubertragungsfunktion von der zeitinvarianten Funktion. Im Bild 7.16 wird die Funktion H(ejΩ ) von G0 (ejΩ ) vollst¨andig u alt sich bei unverk¨ urzten Koeffizienten entspre¨berdeckt. Das System verh¨ chend dem urspr¨ unglichen zeitinvarianten System. Die Nebenspektren hingegen sind mit < −300 dB verschwindend klein. %% Frequenzgang des Block-Systems H = sosfreqz(sos,s,N,’whole’); [G,W] = blockfreqz(SSp,ss,p,N,’whole’); figure(2); plot(W/pi,h2db(H),’k-’,’LineWidth’,1.); hold on; set(gca,’ColorOrder’,[0 0 0]); set(gca,’LineStyleOrder’,’-|:|--|-.’); plot(W/pi,h2db(G),’LineWidth’,1.5); hold off; grid on; xlabel(’\Omega / \pi \rightarrow’) ylabel(’|H(e^{j\Omega/\pi})|,|G_\kappa(e^{j\Omega/\pi})|’) title(’Blockverarbeitung: Frequenzgang des zeitinvarianten ... Systems’) text(0.2,20,str,’BackgroundColor’,’w’); legend(’|H(e^{j\Omega/\pi})|’,’|G_0(e^{j\Omega/\pi})|’,... ’|G_1(e^{j\Omega/\pi})|’,’|G_2(e^{j\Omega/\pi})|’,... ’|G_3(e^{j\Omega/\pi})|’,’Location’,’EastOutside’) Zu 4.: F¨ ur eine homogene Festkomma-Realisierung, bei der alle Multiplikationen im gleichen Festkomma-Format durchgef¨ uhrt werden, ist die Quantisierung an dem maximal auftretenden Koeffizienten, d. h. dem betragsm¨aßig gr¨ oßten Wert der Systemmatrix auszurichten. Wir bestimmen also die Anzahl

582

7 Anhang Blockverarbeitung: Frequenzgang des zeitinvarianten Systems 50 Basis−System: Direkte Form (ungerundet) 0

|H(e

jΩ/π

κ

)|,|G (e

jΩ/π

)|

−50 jΩ/π

|H(e

−100

)|

|G (ejΩ/π)| 0

−150

jΩ/π

|G (e

)|

1

−200

|G (ejΩ/π)|

−250

|G (e

2

jΩ/π

)|

3

−300 −350 −400

0

0.2

0.4

0.6

0.8

1 1.2 Ω/π →

1.4

1.6

1.8

2

Abb. 7.16. Zeitinvarianter Frequenzgang bei ungerundeten Koeffizienten Blockverarbeitung: Frequenzgang des zeitinvarianten Systems 20

Basis−System: Direkte Form (w = 16) c

jΩ/π

)|

0

jΩ/π

|H(e

−20

)|

0

κ

)|,|G (e

jΩ/π

|G (e −40

1

jΩ/π

|H(e

)|

jΩ/π

|G (e

)|

jΩ/π

|G (e 2

)|

jΩ/π

|G (e

−60

3

)|

−80

−100

0

0.2

0.4

0.6

0.8

1 1.2 Ω/π →

1.4

1.6

1.8

2

Abb. 7.17. Zeitinvarianter Frequenzgang mit Basissystem in direkter Form bei gerundeten Koeffizienten

der notwendigen Stellen pm =pm ˆ vor dem Festkomma und richten danach die Quantisierung der Systemmatrix aus. Bei einer gesamten Wortl¨ange wc ergeben sich wm = wc − pm − 1 Stellen nach dem Festkomma. Entsprechend wird die Rundung der Koeffizienten vorgenommen. Die Berechnung und Darstellung der Frequenzg¨ ange erfolgt wie oben. Es bleibt zu bemerken, daß selbst bei einer Koeffizientenwortl¨ ange von wc = 16 bei dem hier verwendeten Basissystem noch erhebliche Frequenzverwerfungen auftreten, wie in Bild 7.17

7.1 Simulation der Systeme mit MATLAB

583

sichtbar wird. Wir werden daher in der n¨ achsten Teilaufgabe ein g¨ unstigeres Basissystem f¨ ur die Bestimmung der Systemmatrix zur Blockverarbeitung vorschlagen. %% Quantisierung der Systemmatrix (Koeffizienten) maxS=max(max(abs(SSp))); pm = max(nextpow2(maxS),0); Q = 2^-(wc1-1-pm); % Quantisierung SSpq = Q*round(SSp/Q); str=[’Basis-System: Direkte Form (w_c = ’,int2str(wc1),’)’]; [G1,W] = blockfreqz(SSpq,ss,p,N,’whole’); figure(3); % Plot Frequenzgang zu G1

Blockverarbeitung: Frequenzgang des zeitinvarianten Systems 20

SOS in Optimized State Space Form (w = 10) c

jΩ/π

)|

0

jΩ/π

|H(e

−20

)|

0

κ

)|,|G (e

jΩ/π

|G (e −40

1

jΩ/π

|H(e

)|

jΩ/π

|G (e

)|

jΩ/π

|G (e 2

)|

jΩ/π

|G (e

−60

3

)|

−80

−100

0

0.2

0.4

0.6

0.8

1 1.2 Ω/π →

1.4

1.6

1.8

2

Abb. 7.18. Zeitinvarianter Frequenzgang mit Kaskade von Bl¨ ocken 2. Grades in der optimierten Zustandsraumstruktur als Basissystem; Koeffizienten auf wc = 10 bit gerundet.

Zu 5.: In Abschn. 5.2.1 haben wir die Kaskade von Bl¨ocken 2. Grades in der Zustandsraumstruktur vorgestellt. Ausgehend von der bereits vorher berechneten SOS-Matrix zur Kaskadenanordnung f¨ uhren wir mit der Funktion sos2ssf(...,’optimal’) in eine Kaskade mit Bl¨ocken in der rauschoptimier¨ ten Zustandsraumstruktur u aufen ¨ber. Zur Vermeidung von internen Uberl¨ wird die Kaskade mit der Funktion scaling_ssfsos(...,’optimal’,’abs’) nach dem l1 –Kriterium ( |h0 (k)| < 1) skaliert, anschließend mit ssf2ssc(.) in die Zustandsbeschreibung und in die Systemmatrix SSp der Blockverarbeitung u uhrt. Quantisierung der Koeffizienten und Darstellung der zeitin¨bergef¨ ¨ varianten Ubertragungsfunktion erfolgt dann entsprechend der vorausgehen-

584

7 Anhang

den Teilaufgabe. Das Ergebniss wird in Bild 7.18 dargestellt. Es entspricht dem Bild 6.8b in Abschn. 6.3. %% Basis: Kaskade von Bloecken 2. Grades % in der opt. Zustandsraumstr. [sss,ss] = sos2ssf(sos,s,’optimal’); [sss,ss] = scaling_ssfsos(sss,ss,’optimal’,’inf’); [A,B,C,D] = ssf2ssc(sss); str=[’SOS in Optimized State Space Form (w_c = ’,... int2str(wc2),’)’]; SSp = ss2block(A,B,C,D,p); % Quantisierung der Koeffizienten maxS=max(max(abs(SSp))); pm = max(nextpow2(maxS),0); Q = 2^-(wc2-1-pm); SSpq = Q*round(SSp/Q); [G2,W] = blockfreqz(SSpq,ss,p,N,’whole’); Zu 6.: Eine weitere Veranschaulichung ergibt sich durch die Darstellung des zeitvariablen bifrequenten Frequenzgangs in einer 3-D Darstellung. Wir verwenden hierzu die Graphikfunktion plot_bifreq(func,...) der DSVBibliothek. F¨ ur die Ausgabe des Diagramms sind die, durch die Variable func bestimmten Teilfunktionen aufzurufen. In einem ersten Schritt legen wir mit der Funktion plot_bifreq(’axes’,x,y,ZLim) das Koordinatensystem fest. Dabei geben x und y das Gitter in x- und y-Richtung an und ZLim legt die Begrenzung der Z-Achse fest. In den nachfolgenden Schritˆ und Ω2 =y ˆ abh¨angigen separaten ten zeichnen wir die einzelnen von Ω1 =x Frequenzg¨ ange |Gκ (Ω1 , Ω2 ) in das Koordinatensystem ein. Dabei sind unterschiedliche Darstellungsformen m¨ oglich (siehe Programmbeschreibung zur DSV-Bibliothek). F¨ ur die Darstellung von Bild 7.19 wurde mit dem Aufruf plot_bifreq(’patch’,x,y,z) eine fl¨ achenhafte Darstellung mit unterschiedlichen Grauwerten gew¨ ahlt. Die Grauwerte werden durch die Definition der Colormap“ mit den Befehlen caxis(.) und colormap(.) festgelegt. Wird ” der Achsenbereich einer Variablen u uhrt das Progamm ein ¨berschritten, so f¨ automatisches Wrapping“ der Frequenzachse um ΔΩ = 2 π aus. Die Be” schriftung der Zeichnung ist dem untenstehenden Programmabschnitt zu entnehmen. Das Ergebnis ist im Bild 7.19 wiedergegeben. Es entspricht Bild 6.8a, Bifrequenter Frequenzgang bei Blockverarbeitung. %% 3D Darstellung des bifrequenten Frequenzganges figure(5) Ngr=40; XLim=[0,2]; x=XLim(1):XLim(2)/Ngr:XLim(2); Zlim=[-100,0]; hd=plot_bifreq(’axes’,x,x,Zlim); caxis([0 1])

7.2 Signalflußgraphen

585

Blockverarbeitung: Bifrequenter Frequenzgang 0 SOS in Optimized State Space Form (w = 10) c

−20 −40 −60 −80

1.5

κ

|G (e

2

jΩ /π

,e

1

jΩ /π

)|

−100 2

1 0.5 0

0

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

1.8

2

Ω/π →

Abb. 7.19. Bifrequenter Frequenzgang mit Basissystem mit Bl¨ ocken 2. Grades in optimierter Zustandsraumstruktur; Koeffizienten auf wc = 10 bit gerundet.

colormap(gray(64)*0.25+0.6); N=size(G,1); G2=[G2;G(1,:)]; x=(XLim(1):XLim(2)/N:XLim(2))’*ones(1,p); y=x-2/p*ones(size(x,1),1)*(0:1:p-1); hd=plot_bifreq(’patch’,x,y,h2db(G2)); title(’Blockverarbeitung: Bifrequenter Frequenzgang’); xlabel(’\Omega / \pi \rightarrow’) ylabel(’|G_\kappa(e^{j\Omega_2/\pi},e^{j\Omega_1/\pi})|’,... ’Position’,[-0.4 1.8 -100],’Rotation’,90) text(0.1,1.9,-5,str);

7.2 Signalflußgraphen Signalflußgraphen gestatten eine u ¨bersichtliche graphische Darstellung der Beziehungen zwischen den in linearen Systemen auftretenden Gr¨oßen [7.5]. Bild 7.20 zeigt als Beispiel einen m¨ oglichen Signalflußgraphen f¨ ur das Gleichungssystem a11 x + a12 y = b1 , a11 , a22 = | 0. a21 x + a22 y = b2 , x und y erscheinen als Knoten, die einfließende Signale aufzunehmen und zu summieren verm¨ ogen, aber auch ihren Wert abgeben, d.h. als Quelle wirken

586

7 Anhang

Abb. 7.20. Zur Einf¨ uhrung eines Signalflußgraphen

k¨ onnen. Ben¨ otigt wird ein weiterer Knoten, hier mit dem Wert 1, der nur als Quelle dient. Die Zweige zwischen den Knoten werden stets gerichtet gezeichnet. Die angegebene Orientierung ist gleich der Richtung des Signalflusses vom Quellknoten zum Empfangsknoten. Auf diesem Wege werden die Signale mit einem Faktor multipliziert, der als Wert des Zweigs bezeichnet wird. H¨aufig erschienen die auftretenden Signale in transformierter Form, z.B. als Fourieroder Z-Transformierte. Die in den Zweigen auftretenden Faktoren sind dann ¨ Ubertragungsfunktionen. Der Signalflußgraph besitzt somit drei Elemente: a) Den unabh¨ angigen Knoten (Quelle), dadurch gekennzeichnet, daß alle Zweige von ihm wegf¨ uhren. Mit ihm stellen wir die Eingangssignale eines Systems dar. b) Den abh¨ angigen Knoten, zu dem mindestens ein Zweig hinf¨ uhrt. Er summiert die zu ihm laufenden Signale. Abh¨angige Knoten treten i.allg. im Innern eines Signalflußgraphen auf. Mit ihnen werden aber auch die Ausgangssignale dargestellt. c) Den gerichteten Zweig, gekennzeichnet durch einen Faktor, mit dem die den Zweig durchlaufenden Signale multipliziert werden. Zur Vereinfachung der Darstellung werden wir dabei nur Faktoren = | 1 angeben. Die Orientierung der Zweige beschreibt die Richtung der Abh¨angigkeit zwischen den an ihrem Eingang und Ausgang auftretenden Gr¨oßen und ist daher nicht willk¨ urlich w¨ahlbar. Bei der Analyse eines Signalflußgraphen bestimmen wir die Beziehung zwi¨ schen den Ausgangs- und Eingangsgr¨ oßen in Form der entsprechenden Ubertragungsfunktionen. Das bedeutet nat¨ urlich zugleich die Analyse des zugeh¨origen Systems. Dabei kann man von einer geschlossenen Beziehung ausgehen, die ¨ die Ermittlung der Ubertragungsfunktionen einer Vielzahl von Teilstrukturen des Graphen erfordert [7.5]. Eine automatische Analyse wird in [7.6] vorgestellt. Wir begn¨ ugen uns hier mit der Angabe einiger einfacher Regeln, mit denen man den Signalflußgraphen durch Eliminierung von Zweigen und Kno¨ ten vereinfachen kann, bis nur noch der die gesuchte Ubertragungsfunktion symbolisierende Zweig zwischen einem unabh¨angigen und einem abh¨angigen

7.2 Signalflußgraphen

587

Abb. 7.21. Regeln zur Eliminierung von a) Zweigen, b) Knoten, c) Eigenschleifen in einem Signalflußgraphen

Knoten bleibt. Dieses Vorgehen entspricht im wesentlichen den Rechenschritten bei der Eliminierung von Unbekannten zu der L¨osung eines linearen Gleichungssystems. Die Bilder 7.21 zeigen die Eliminierung von gleichgerichteten Zweigen, von Knoten und einer sogenannten Eigenschleife sowie die zugeh¨origen Beziehungen. Von weiteren Regeln zur Manipulation von Signalflußgraphen zitieren wir nur noch die u autern sie an einem vollbesetzten ¨ber seine Umkehrung. Wir erl¨ Graphen mit drei wesentlichen inneren Knoten mit den Signalen x1 , x2 und x3 (Bild 7.22a).

588

7 Anhang

Abb. 7.22. Zur Transponierung eines Signalflußgraphen

Er ist eine Darstellung der Beziehungen ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ a11 a12 a13 x1 x b ⎢ ⎥ ⎢ ⎥ ⎢ 1⎥ ⎢ 1⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ x2 ⎥ = ⎢ a21 a22 a23 ⎥ · ⎢ x2 ⎥ + ⎢ b2 ⎥ v1 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦ x3 a31 a32 a33 x3 b3 ⎤

⎡ x1

⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ y1 = [c1 c2 c3 ] · ⎢ x2 ⎥ + d · v , ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎣ ⎦ x3 die zusammengefaßt mit offensichtlichen Bezeichnungen als

7.3 Einige Matrizenoperationen

⎡ ⎢ ⎢ ⎢ ⎣

⎤ x



⎥ ⎢ ⎥ ⎢ ⎥=⎢ ⎦ ⎣

y1

⎤ ⎡ A b T

c d

⎥ ⎢ ⎥ ⎢ ⎥·⎢ ⎦ ⎣

⎤ x

v1



⎢ ⎥ ⎢ ⎥ ⎥ = S⎢ ⎣ ⎦

589

⎤ x

⎥ ⎥ ⎥ ⎦

(7.2.1)

v1

¨ geschrieben werden k¨ onnen. F¨ ur die Ubertragungsfunktion erh¨alt man H1 =

y1 = cT (E − A)−1 · b + d . v1

(7.2.2)

¨ Der in Bild 7.22b dargestellte Signalflußgraph ist aus dem ersten durch Anderung s¨ amtlicher Zweigrichtungen hervorgegangen, alle Zweigwerte wurden belassen. Man best¨ atigt leicht, daß er durch ⎡ ⎤ ⎡ ⎤ z z = AT z + cv2 z ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎥ T ⎢ (7.2.3) bzw. ⎢ ⎥ = S ⎢ ⎥ ⎣ ⎦ ⎣ ⎦ y2 = bT z + dv2 y2 v2 beschrieben wird. Wir sprechen daher auch von dem transponierten Signal¨ flußgraphen. F¨ ur seine Ubertragungsfunktion folgt H2 =

y2 = bT (E − AT )−1 c + d = H1 . v2

(7.2.4)

¨ Die Transponierung des Signalflußgraphen ¨ andert also nicht die Ubertra¨ gungsfunktion, wobei zu ber¨ ucksichtigen ist, daß mit der Anderung der Zweigrichtungen auch Ein- und Ausg¨ ange ihre Pl¨ atze vertauscht haben. Dagegen sind die Signale an den inneren Knoten i.allg. v¨ollig anders (x = | z, auch bei v1 = v2 ). Da (7.2.1) jeden Signalflußgraphen mit einem Eingang und einem Ausgang beschreibt, gilt das Ergebnis (7.2.4) allgemein, nicht nur f¨ ur den Fall von Bild 7.22 mit drei inneren Knoten.

7.3 Einige Matrizenoperationen 7.3.1 Aufgabenstellung Die im 5. Kap. in Matrizenform dargestellten Ergebnisse sollen hier durch einige allgemeine Aussagen u ¨ber Matrizenoperationen erg¨anzt werden. Wir be¨ handeln dabei Methoden zur praktischen Berechnung der Ubertragungsmatrix H(z) sowie der zugeh¨ origen Matrix der Impulsantworten h0 (k). Dazu untersuchen wir die Eigenschaften der Matrix A, auch im Hinblick auf M¨oglichkei¨ (k) = Ak , die im Abschn. 5.3.1 ten zur Berechnung der Ubergangsmatrix eingef¨ uhrt wurde. Es interessieren dabei u.a. geschlossene Ausdr¨ ucke f¨ ur Ak unter Verwendung der Eigenwerte von A, die numerisch ausgewertet werden k¨ onnen.

590

7 Anhang

Falls die Folge der Werte Ak f¨ ur k ∈ ben¨otigt wird, so ist sicher die fortlaufende Multiplikation entsprechend Ak = A · Ak−1 der naheliegende und auch einfachste L¨ osungsweg. Hier werden keine weiteren Kenntnisse u ¨ber A z.B. u ¨ber die Eigenwerte vorausgesetzt. Dieses Verfahren entspricht offenbar auch im wesentlichen der Arbeitsweise des realen Systems, das u.a. durch A ¨ beschrieben wird. Interessiert dagegen die Ubergangsmatrix f¨ ur einen festen Wert k = k0 , so ist diese Methode bei großen Werten von k0 nicht nur sehr aufwendig. Sie kann auch bei schlecht konditionierter Matrix A zur Fehlerakkumulation und damit zu unbrauchbaren Ergebnissen f¨ uhren. Das bedeutet nat¨ urlich auch, daß das zugeh¨ orige diskrete System f¨ ur eine praktische Anwendung nicht geeignet ist. Im folgenden wird lediglich eine kurzgefaßte Darstellung der Zusammenh¨ ange und Methoden gebracht. F¨ ur eine eingehende Behandlung muß auf die umfangreiche Literatur verwiesen werden, z.B. [7.7-9]. 7.3.2 Eigenschaften der Matrix A Gegeben sei eine n × n Matrix A und die zugeh¨orige charakteristische Matrix N(λ) := λE − A .

(7.3.1)

Die Eigenwerte von A sind die Nullstellen des charakteristischen Polynoms det{λE − A} =: N (λ) =

n 

cν λ ν ,

cn = 1 .

(7.3.2a)

ν=0

Es ist N (λ) =

n0 ( ν=1

(λ − λν )nν ,

n0 

nν = n .

(7.3.2b)

ν=1

A habe also n0 unterschiedliche Eigenwerte λν ; der ν-te Eigenwert hat die Vielfachheit nν . Das Eigenwertproblem (λE − A)m = 0

(7.3.3)

besitzt nur f¨ ur die Eigenwerte λν nichttriviale L¨osungen mν = [m1ν , m2ν , . . . , mnν ]T ,

(7.3.4)

die als Eigenvektoren der Matrix A bezeichnet werden. Die Eigenwerte λν k¨ onnen einfach sein oder, wie in (7.3.2b) angegeben, mit der Vielfachheit nν auftreten. Ist nν = 1, ∀ν, so sind die zugeh¨origen Eigenvektoren mν linear unabh¨ angig. Mit ihnen wird die nicht singul¨ are Modalmatrix M = [m1 , m2 , . . . , mn ] gebildet. Ihre Inverse schreiben wir mit den Zeilenvektoren

(7.3.5) T κ

in der Form

7.3 Einige Matrizenoperationen



M−1

T

591



⎢ 1⎥ ⎢ ⎥ ⎢ T⎥ ⎢ 2⎥ ⎥ =⎢ ⎢ . ⎥. ⎢ . ⎥ ⎢ . ⎥ ⎣ ⎦

(7.3.6)

T n

Wegen M−1 M = E ist dann T κ mν

⎧ ⎪ ⎨1 κ = ν =

⎪ ⎩0 κ = | ν.

(7.3.7)

Mit der Diagonalmatrix der Eigenwerte Λ = diag [λ1 , λ2 , . . . , λn ] ist A = MΛM−1

und

Ak = MΛk M−1 .

Unter Verwendung des dyadischen Produkts ⎤ ⎡ mν1 μν1 mν1 μν2 . . . mν1 μνn ⎥ ⎢ ⎢ ⎥ ⎢ mν2 μν1 mν2 μν2 . . . mν2 μνn ⎥ ⎢ ⎥ ⎥ mν Tν = ⎢ ⎢ ⎥ .. .. ⎢ ⎥ . . ⎢ ⎥ ⎣ ⎦ mνn μν1 mνn μν2 . . . mνn μνn

(7.3.8)

(7.3.9)

kann man dieses Ergebnis in der Form k

A =

n 



T k ν λν

(7.3.10)

ν=1

darstellen. Nach Berechnung der als einfach vorausgesetzten Eigenwerte λν sowie der Modalmatrix M und ihrer Inversen bzw. der Matrizen mν Tν l¨aßt ur beliebige Werte von k bestimmen. sich so Ak f¨ Es sei erw¨ ahnt, daß man f¨ ur die ersten beiden kanonischen Strukturen die Modalmatrix bzw. ihre Inverse in geschlossener Form angeben kann. Ist zun¨ achst nach (5.2.7b) ⎤ ⎡ 0 1 0 0 ... 0 ⎥ ⎢ ⎥ ⎢ ⎢ 0 0 1 0 ... 0 ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ . . . ⎢ . . . A2 = ⎢ . . . ⎥ ⎥ ⎥ ⎢ ⎥ ⎢ ⎢ 0 ... ... ... ... 1 ⎥ ⎥ ⎢ ⎦ ⎣ −c0 −c1 −c2 . . . . . . −cn−1

592

7 Anhang

die Matrix der zweiten kanonischen Form, so ist die zugeh¨orige Modalmatrix die aus den Eigenwerten λν gebildete Vandermondesche Matrix V ⎡ ⎤ 1 1 ... 1 ⎢ ⎥ ⎢ ⎥ ⎢ λ 1 λ 2 . . . λn ⎥ ⎢ ⎥ ⎥. (7.3.11) M2 =: V = ⎢ ⎢ . ⎥ . . .. .. ⎥ ⎢ .. ⎢ ⎥ ⎣ ⎦ n−1 n−1 n−1 λ 1 λ 2 . . . λn Weiterhin erh¨ alt man zu der Matrix der ersten kanonischen Form ⎡ ⎤ −cn−1 1 0 . . . 0 ⎢ ⎥ ⎢ ⎥ ⎢ −c ⎥ ⎢ n−2 0 1 . . . 0 ⎥ ⎢ ⎥ ⎢ . .. ⎥ .. A1 = ⎢ .⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ −c1 0 . . . . . . 1 ⎥ ⎢ ⎥ ⎣ ⎦ −c0 0 . . . . . . 0 (siehe (5.2.7a)), die Inverse der zugeh¨ origen Modalmatrix M1 aus VT als ⎤ ⎤ ⎡ ⎡ λn−1 . . . λ1 1 0 ... ... 1 1 ⎥ ⎥ ⎢ ⎢ ⎥ ⎥ ⎢ ⎢ ⎢ 0 . . . 1 0 ⎥ ⎢ λn−1 . . . λ2 1 ⎥ 2 ⎢ ⎥ ⎥ ⎢ T ⎢ ⎥. ⎥=⎢ (7.3.12) M−1 1 =: U = V ⎢ . ⎢ ⎥ ⎥ . . . .. ⎥ ⎢ .. ... .. ⎥ ⎢ .. ⎥ ⎥ ⎢ ⎢ ⎦ ⎦ ⎣ ⎣ n−1 λ n . . . λn 1 1 ... ... 0 Man beweist diese Aussagen, indem man best¨atigt, daß UA1 = ΛU bzw. A2 V = VΛ

ist.

Bei den folgenden Betrachtungen werden mehrfache Eigenwerte der Matrix A zugelassen, deren Eigenvektoren linear abh¨ angig sein k¨onnen. Nach dem Cayley-Hamilton-Theorem erf¨ ullt jede n×n Matrix A die eigene charakteristische Gleichung. Mit (7.3.2a) ist also N (A) =

n 

cν A ν = 0 .

(7.3.13)

ν=0

Man verifiziert diese Aussage f¨ ur den Fall einfacher Eigenwerte unmittelbar mit (7.3.8). F¨ ur den Beweis der Allgemeing¨ ultigkeit sei z.B. auf [7.7] verwiesen. Mit cn = 1 folgt aus (7.3.13)

7.3 Einige Matrizenoperationen

An = −

n−1 

593

cν A ν .

(7.3.14a)

cν,k Aν .

(7.3.14b)

ν=0

Allgemein ist dann f¨ ur k ≥ n Ak =

n−1  ν=0

Man best¨ atigt leicht, daß sich die Koeffizieten cν,k rekursiv mit cν,k+1 = cν−1,k − cn−1,k cν ,

ν = 0(1)n − 1, c−1,k = 0

(7.3.14c)

ur k ≥ n sind also die ergeben, wobei cν,n = −cν ist. Zur Berechnung von Ak f¨ ersten n−1 Potenzen von A sowie die cν,k zu bestimmen. Dabei kann allerdings die fortlaufende Auswertung von (7.3.14c) wieder zu einer Fehlerakkumulation f¨ uhren. ¨ F¨ ur die Bestimmung der Ubergangsmatrix k¨onnen wir entsprechend Abschn. 5.4.2 von (k) = Ak = Z −1 {z(zE − A)−1 } = Z −1 {zN−1 (z)}

(7.3.15)

ausgehen, wobei als Variable der mit (7.3.1) eingef¨ uhrten charakteristischen Matrix hier z an Stelle von λ geschrieben wurde. Es gilt zun¨achst N−1 (z) =

Nadj (z) . N (z)

(7.3.16)

Abgesehen von der direkten Berechnung gibt es verschiedene M¨oglichkeiten zur Bestimmung der adjungierten Matrix Nadj (z) [7.7]. Ein Verfahren zeigen wir im n¨ achsten Abschnitt. Hier interessieren zun¨achst die Eigenschaften von N−1 (z), wenn die Eigenwerte von A die Vielfachheit nν ≥ 1 haben und von angig sind. Es ist dann das sogenannte den Eigenvektoren mν ≤ nν unabh¨ Minimalpolynom Nm (z) =

n0 ( ν=1

(z − z∞ν )mν , 1 ≤ mν ≤ nν ,

n0 

mν = m ≤ n

(7.3.17)

ν=1

das Polynom minimalen Grades, f¨ ur das Nm (A) = 0 gilt. Gibt es ein derartiges Polynom Nm (z) vom Grade m < n, so haben in (7.3.16) die Komponenten von Nadj (z) und das Nennerpolynom N (z) gemeinsame Teiler, die gegebenenfalls mit dem Euklidischen Algorithmus gefunden werden k¨onnen. Inter¨ (k), so f¨ uhrt essiert aber entsprechend (7.3.15) prim¨ ar die Ubergangsmatrix −1 die n¨ otige Partialbruchzerlegung von zN (z) unmittelbar auf verschwindenur die de Koeffizienten f¨ ur die Terme mit Polen z∞ν der Vielfachheit κ, f¨ mν < κ ≤ nν gilt. Damit ergibt sich automatisch die n¨otige Reduktion auf die relevanten Anteile.

594

7 Anhang

In MATLAB gibt es f¨ ur die Berechnung der hier interessierenden Gr¨ oßen bzw. f¨ ur die Ausf¨ uhrung der beschriebenen Operationen geeignete Befehle. Man erh¨ alt die k-te Potenz einer beliebigen Matrix A unmittelbar als A^k. Sie wird durch fortgesetzte Multiplikation berechnet. Die Zahl der notwendigen Gleitkommaoperationen ist proportional zu k · n3 . ∧ Die Diagonalmatrix D(= Λ) der Eigenwerte und die zugeh¨ orige Modalmatrix M ergeben sich mit [M,D] = eig(A). Die Eigenvektoren mν sind hier normiert; es gilt also mTν · mν = 1. Mit r=rank(M) wird der Rang der Modalmatrix und damit der Grad des Minimalpolynoms bestimmt. Speziell seien alle Eigenwerte einfach. Wurde M−1 = ˆ M_ als M_ = inv(M) und der Vektor p der Eigenwerte mit p = eig(A) ˆ Ak mit bestimmt, so l¨ aßt sich nach (7.3.8) Ak = Ak = M * diag(p.^k) * M_ f¨ ur einen beliebigen Wert von k berechnen. Die Zahl der Gleitkommaoperationen ist proportional zu n3 ; sie h¨ angt nicht von k ab. Das folgende Programm berechnet Ak nach dem aus dem Cayley-HamiltonTheorem hergeleiteten Verfahren. Es werden zun¨ achst die Koeffizienten cν,k entsprechend (7.3.14c) bestimmt und dann mit dem Befehl polyvalm das Matrizenpolynom gem¨ aß (7.3.14b) berechnet. function [ck,Ak] = matpot(A,k) c = poly(A); m = length(c) ck = -c; for l = m:k, c, = [ck(2:m) 0] - ck(2)*c; end; ck = ck(2:m); Ak = polyvalm(ck,A); Den Zeilenvektor c der Koeffizienten des mit (7.3.2a) definierten Polynoms N (λ) liefert c = poly(A). Damit erh¨ alt man die Matrix A1 der ersten kanonischen Form des Systems als A1 = compan(c)’. Die Matrix A2 der zweiten kanonischen Form ergibt sich mit A2 = fliplr(flipud(compan(c))). Hier beschreiben flipud die Umkehrung der Reihenfolge der Zeilen und entspre• chend fliplr die der Spalten der Matrix.

¨ 7.3.3 Bestimmung der Ubertragungsmatrix ¨ Wir zeigen zun¨ achst ein Verfahren zur praktischen Berechnung der Ubertragungsfunktion H(z) eines Systems mit einem Eingang und einem Ausgang, dessen Beschreibung im Zustandsraum vorliegt. Nach (5.2.5b) in Abschn. 5.2.1 ist

7.3 Einige Matrizenoperationen

595

H(z) = cT (zE − A)−1 b + d . Hier interessiert H(z) als rationale Funktion. Wir zeigen, daß man sie mit H(z) =

det{zE − A + bcT } − 1 + d. det{zE − A}

(7.3.18)

im wesentlichen durch die Berechnung zweier charakteristischer Polynome erh¨ alt [7.10]. Der Beweis erfordert einige Aussagen u ¨ber Determinanten, die wir zun¨ achst herleiten: Es seien n0 und c zwei Spaltenvektoren = | 0 der L¨ange n, wobei cT der Vektor in der Ausgangsgleichung (5.2.2b) ist. Wir zeigen zun¨achst, daß f¨ ur ihr dyadisches Produkt n0 cT gilt det{E + n0 cT } = 1 + cT n0 :

(7.3.19)

Allgemein ist der Rang eines nicht identisch verschwindenden dyadischen Produktes gleich 1. Mit dem Eigenwert λ1 der Matrix n0 cT ist dann das charakteristische Polynom N (λ) = det{λE − n0 cT } = (λ − λ1 )λn−1 .

(7.3.20a)

Da generell die Spur einer Matrix die Summe ihrer Eigenwerte ist, muß sp (n0 cT ) = λ1 sein. F¨ ur das dyadische Produkt ist aber speziell sp (n0 cT ) = T achst c n0 . Damit folgt zun¨ N (λ) = det{λE − n0 cT } = (λ − cT n0 )λn−1 .

(7.3.20b)

Dann ist mit λ = −1 (−1)n · N (−1) = det{E + n0 cT } = 1 + cT n0 , wie in (7.3.19) angegeben. Es sei nun N eine invertierbare Matrix. Mit dem Vektor b der Zustandsgleichung (5.2.2a) setzen wir n0 = N−1 b und erhalten det{E + N−1 bcT } = 1 + cT N−1 b .

(7.3.21)

Auf der linken Seite folgt nach Ausklammern von N−1 mit dem Multiplikationssatz f¨ ur Determinanten det{N−1 (N+bcT )} = det{N−1 }det{N+bcT } =

det{N + bcT } = 1+cT N−1 b . det{N}

Setzt man jetzt wie vorher N = zE − A, so folgt det{zE − A + bcT } = 1 + cT (zE − A)−1 b det{zE − A}

(7.3.22)

596

7 Anhang

und damit dann (7.3.18). Das Verfahren l¨ aßt sich ohne Schwierigkeiten f¨ ur die Berechnung der Ele¨ mente Hλ (z) der Ubertragungsmatrix H(z) = C(zE − A)−1 B + D anwenden. Mit dem Spaltenvektor bλ von B, dem Zeilenvektor cT von C und alt man die rationale Funktion dem Element dλ von D erh¨ Hλ (z) =

det{zE − A + bλ cT } Zλ (z) = − 1 + dλ . N (z) N (z)

(7.3.23)

Wir erhalten hier auch eine andere M¨ oglichkeit zur Bestimmung von N−1 (z) k ahlt man speziell B = C = E und D = 0, so ist und damit von A . W¨ offenbar H(z) = N−1 (z), so daß man (7.3.23) zur Berechnung der Elemente von N−1 (z) anwenden kann. Hat die Matrix A mehrfache Eigenwerte, deren Eigenvektoren nicht unabh¨ angig voneinander sind, so sind die Polynome Zλ (z) und N (z) nicht teilerfremd. Erforderlichenfalls kann ein gemeinsamer Teiler mit dem euklidischen Algorithmus bestimmt und eliminiert werden. Bei einer etwaigen Partialbruchentwicklung w¨ urden die entsprechenden Terme aber ohnehin verschwinden. Das MATLAB -Programm ss2tf arbeitet nach dem hier beschriebenen Verfahren. Dabei wird mit [Zla, N] = ss2tf(A,B,C,D,la) die Spalte λ (= ˆ la) der Matrix H(z) bestimmt, wobei Zλ (z) (= ˆ Zla) eine r-zeilige Matrix ist, deren Zeilen die Koeffizienten der Z¨ ahlerpolynome Zλ (z), = 1(1)r enthalten. Eine Partialbruchentwicklung der einzelnen Elemente Hλ (z) kann mit residue bzw. resi 2 vorgenommen werden (vergl. Abschn. 2.5.4 und 5.4.2). •

7.4 Spiegelpolynome 7.4.1 Reelle Polynome mit Spiegeleigenschaften Im 5. und 6. Kap. werden an mehreren Stellen Polynome mit bestimmten Symmetrieeigenschaften bez¨ uglich ihrer Koeffizienten und Nullstellen ben¨otigt. Wegen ihrer großen Bedeutung werden sie hier gesondert untersucht. Dabei beschr¨ anken wir uns zun¨ achst auf reellwertige Polynome. Es sei A(z) =

n 

aν z ν ,

an = | 0,

aν ∈

(7.4.1a)

ν=0

ein Polynom n-ten Grades, dessen kennzeichnende Eigenschaft in der Darstellung

7.4 Spiegelpolynome

A(z) = an (z − 1)n1 (z + 1)n2

n3 (

−1 (z − z0ν )(z − z0ν )

597

(7.4.1b)

ν=1

deutlich wird. Hier ist 0 < |z0ν | ≤ 1, aber z0ν = | ± 1. Wesentlich ist nun, daß zu jeder Nullstelle z0ν mit |z0ν | < 1 eine dazu in bezug auf den Einheitskreis ∗ existiert. Wegen der Reellwertigkeit spiegelbildliche Nullstelle bei z0λ = 1/z0ν des Polynoms treten dann diese komplexen Nullstellen offenbar in Quadrupeln auf. Dar¨ uber hinaus sind diejenigen Nullstellenpaare erfaßt, die mit |z0ν | = 1 ∗ liegen. F¨ ur den Grad von A(z) gilt bei z0ν und z0−1 = z0ν n = n1 + n2 + 2n3 . Bild 7.23 zeigt m¨ ogliche Nullstellenlagen, wobei einmal n1 = 0, einmal n1 = 1 angenommen wurde. Man best¨ atigt nun leicht die folgenden Eigenschaften von A(z): (7.4.2a) z n A(z −1 ) = (−1)n1 A(z) . F¨ ur die Koeffizienten gilt die Symmetriebedingung aν = (−1)n1 an−ν .

(7.4.2b)

Abb. 7.23. M¨ ogliche Lagen der Nullstellen a) von Spiegelpolynomen, (n1 = 0) und b) Antispiegelpolynomen (n1 = 1); Polynome reellwertig

Damit k¨ onnen wir A(z) z.B. f¨ ur ungeraden Grad (n = 2N +1) in der folgenden Form schreiben A(z) =

a0 z 0 +a1 z 1

+a2 z 2

+ . . . + aN z N (7.4.2c)

±a0 z n ±a1 z n−1 ±a2 z n−2 ± . . . ± aN z N +1 .

598

7 Anhang

F¨ ur die Vorzeichen in der zweiten Zeile gilt (−1)n1 . Wegen der durch (7.4.2a) beschriebenen Eigenschaft nennt man A(z) ein Spiegelpolynom, wenn n1 gerade ist und ein Antispiegelpolynom, wenn n1 ungerade ist. Wir erw¨ahnen, daß man verallgemeinernd ein Polynom vom Grad n0 der Form A1 (z) = z Δn A10 (z)

(7.4.3a)

als ein Spiegelpolynom des Grades n = n0 + Δn auffassen kann, wenn A10 (z) ein Spiegelpolynom entsprechend (7.4.1b) vom Grad n − 2Δn ist. Ebenso ist A2 (z) = z Δn A20 (z)

(7.4.3b)

ein Antispiegelpolynom n-ten Grades, wenn A20 (z) ein Antispiegelpolynom des Grades n − 2Δn ist. Diese Aussagen lassen sich mit (7.4.2a) best¨atigen. Wir setzen weiter mit Δn = 0 A0 (z) = z −n/2 A(z)

(7.4.4)



und betrachten A0 (e ). Hier haben wir vier F¨alle zu unterscheiden, die dadurch gekennzeichnet sind, daß n1 und n2 jeweils gerade oder ungerade sein k¨ onnen. 1. n1 gerade, n2 gerade: n = 2N ;

aν = an−ν ,

A01 (ejΩ ) = aN + 2

N ν=1

ν = 0(1)(N − 1) , (7.4.5a) aN −ν cos νΩ ;

2. n1 gerade, n2 ungerade: n = 2N + 1 ;

A02 (ejΩ ) = 2

aν = an−ν , N ν=0

ν = 0(1)N , (7.4.5b)

aN −ν cos(ν + 0, 5)Ω ;

3. n1 ungerade, n2 gerade: n = 2N + 1 ;

aν = −an−ν ,

A03 (ejΩ ) = −2j

N ν=0

ν = 0(1)N , (7.4.5c)

aN −ν sin(ν + 0, 5)Ω ;

4. n1 ungerade, n2 ungerade: aν = −an−ν , ν = 0(1)(N − 1) , N A04 (ejΩ ) = −2j aN −ν sin νΩ . n = 2N ;

ν=1

aN = 0 , (7.4.5d)

7.4 Spiegelpolynome

599

Es ist bemerkenswert, daß sich die Frequenzg¨ ange A0i (ejΩ ), i = 2(1)4 unter jΩ Verwendung von A01 (e ) darstellen lassen. Bezeichnen die hochgestellten ¨ Indizes jeweils den Grad der zugeh¨ origen Ubertragungsfunktionen, so gilt im einzelnen Ω +1 jΩ (e ) = 2 cos A2N (ejΩ ) . (7.4.6a) A2N 02 2 01 Ω +1 jΩ A2N (e ) = 2j sin A2N (ejΩ ) . (7.4.6b) 03 2 01 −2 jΩ jΩ ) = 2j sin ΩA2N (e ) . (7.4.6c) A2N 04 (e 01 Wir stellen einige Rechenregeln f¨ ur reelle Spiegelpolynome zusammen, die man leicht best¨ atigt. Es seien A1λ (z), λ = 1(1) beliebige Spiegelpolynome , A2 (z), = 1(1)r beliebige Antispiegelpolynome gleichen Grades. Dann gilt   λ=1 r 

A1λ (z) = A1 (z) = Spiegelpolynom ;

(7.4.7a)

A2 (z) = A2 (z) = Antispiegelpolynom ;

(7.4.7b)

=1

Mit Polynomen A1λ (z) und A2 (z) beliebigen Grades ist A1λ (z)A2 (z) = Antispiegelpolynom ; λ ∈ [1, ], ∈ [1, r] ; (7.4.8a) A1λ (z)A1κ (z) = Spiegelpolynom ; λ, κ ∈ [1, ] ; (7.4.8b) A2 (z)A2κ (z) = Spiegelpolynom ; , κ ∈ [1, r] . (7.4.8c) Schließlich gehen wir von einem beliebigen Polynom N (z) n-ten Grades aus. Im allgemeinen ist z n N (z −1 )N (z) ein Spiegelpolynom vom Grade 2n , (7.4.9a) n −1 A1 (z) = N (z) + z N (z ) ein Spiegelpolynom n-ten Grades , (7.4.9b) n −1 A2 (z) = N (z) − z N (z ) ein Antispiegelpolynom n-ten Grades .(7.4.9c) Offenbar ist dann das Ausgangspolynom als N (z) = [A1 (z) + A2 (z)]/2

(7.4.9d)

darstellbar. Bei der Berechnung der durch (7.4.9b,c) definierten Polynome kann sich f¨ ur A1 (z) oder A2 (z) zun¨ achst eine Gradreduktion ergeben. Die obige Aussage ist dann im Sinne der Verallgemeinerung entsprechend (7.4.3) zu verstehen. Sie ist in dem trivialen Fall zu modifizieren, in dem N (z) selbst ein Spiegel- oder Antispiegelpolynom ist und daher A2 (z) bzw. A1 (z) nach (7.4.9b,c) verschwindet.

600

7 Anhang

7.4.2 Komplexwertige Spiegelpolynome Wir erreichen eine Erweiterung der bisherigen Aussagen und zugleich eine einheitliche Darstellung, wenn wir komplexe Koeffizienten zulassen. Es sei jetzt n n  ( aν z ν = an (z − z0ν ) mit aν ∈ (7.4.10a) A(z) = ν=0

ν=1

ein komplexwertiges Polynom n-ten Grades, f¨ ur das zugleich die Darstellung A(z) = an

n (

∗ (z − 1/z0ν )

(7.4.10b)

ν=1

gilt. Mit zν ist also auch der in Bezug auf den Einheitskreis spiegelbildliche Punkt 1/zν∗ Nullstelle des Polynoms. Ist speziell |zν | = 1, so sind wegen zν = 1/zν∗ diese Nullstelle und ihr Spiegelbild identisch. Bild 7.24 zeigt m¨ogliche Nullstellenlagen f¨ ur diese durch (7.4.10) gekennzeichneten komplexwertigen Spiegelpolynome.

Abb. 7.24. M¨ ogliche Lagen der Nullstellen von komplexwertigen Spiegelpolynomen

Es interessieren jetzt die Bedingungen, die f¨ ur die Koeffizienten aν des Polynoms A(z) gelten m¨ ussen. Zun¨ achst betrachten wir a0 . Aus (7.4.10) folgt a0 = an

n (

(−z0ν ) = an

ν=1

n (

∗ (−1/z0ν ).

(7.4.11a)

ν=1

Die Division dieser beiden Ausdr¨ ucke f¨ uhrt auf

n ' ν=1

|z0ν |2 =

n ' ν=1

|z0ν | = 1.

Damit ist |a0 | = |an | . Weiterhin untersuchen wir das Polynom

(7.4.11b)

7.4 Spiegelpolynome

B(z) := βz n A∗ (1/z ∗ ) = β

n 

a∗n−ν z ν ,

601

(7.4.12a)

ν=0

in dem β ein noch festzulegender, i.allg. komplexer Faktor ist. Aus (7.4.10a) folgt zun¨ achst  ∗ n n  ( ( 1 n ∗ ∗ − z = βa (1 − z0ν z) . (7.4.12b) B(z) = βz an 0ν n ∗ z ν=1 ν=1 Mit (7.4.11a) erh¨ alt man B(z) = βa∗0 und (7.4.11c) B(z) = β

n ' ν=1

∗ (z − 1/z0ν ) und daraus mit (7.4.10b)

a∗0 A(z) = βe−j2ϕ A(z) , an

wobei mit a0 = |a0 |ejα0 und an = |a0 |ejαn der Winkel 2ϕ = α0 + αn gesetzt wurde. W¨ ahlt man jetzt β = ej2ϕ , so folgt aus (7.4.12a) A(z) = ej2ϕ z n A∗ (1/z ∗ ) bzw. mit

n 

ν

aν z = e

ν=0

j2ϕ

n 

a∗n−ν z ν

(7.4.13a)

(7.4.13b)

ν=0

die gesuchte Koeffizientenbedingung aν = ej2ϕ a∗n−ν ,

(7.4.14a)

die sich auch in der symmetrischen Form e−jϕ aν = ejϕ a∗n−ν

(7.4.14b)

schreiben l¨ aßt. Bei geradem Grad n = 2N folgt, daß e−jϕ aN = ejϕ a∗N ∈

(7.4.14c)

sein muß. Im Sonderfall aν ∈ , ∀ν geht (7.4.14a) mit ej2ϕ = ±1 in (7.4.2b) u ¨ber. Mit ϕ = 0 wird dann A(z) zu einem reellwertigen Spiegelpolynom, mit ϕ = π/2 zu einem Antispiegelpolynom. Man best¨ atigt leicht, daß eine Verallgemeinerung auf Spiegelpolynome mit gegebenenfalls mehrfachen Nullstellen bei z = 0 m¨oglich ist, so wie das mit (7.4.3) f¨ ur reellwertige Polynome gemacht wurde. F¨ ur eine Betrachtung des Frequenzganges gehen wir wieder von (7.4.4) aus und bestimmen A0 (ejΩ ) f¨ ur geraden und ungeraden Grad n. Man erh¨alt mit ur n = 2N aν = |aν |ejαν f¨   N  jΩ jϕ −jϕ aN + 2 |aN −ν | cos[νΩ + ϕ − αN −ν ] (7.4.15a) e A0 (e ) = e ν=1

602

7 Anhang

und f¨ ur n = 2N + 1 A0 (ejΩ ) = ejϕ · 2

N 

|an−ν | cos[νΩ + ϕ + 0, 5 − αN −ν ] .

(7.4.15b)

ν=0

Die Spezialisierung auf reelle Koeffizienten und auf ϕ = 0 bzw. ϕ = π/2 f¨ uhrt auf (7.4.5). Schließlich erhalten wir aus einem beliebigen komplexwertigen Polynom N (z) n-ten Grades mit z n N ∗ (1/z ∗ )N (z)ej2ϕ (7.4.16a) ein Spiegelpolynom vom Grade 2n, und in der Form A(z) = N (z) + ej2ϕ z n N ∗ (1/z ∗ )

(7.4.16b)

ein Spiegelpolynom vom Grad ≤ n. In diesen Beziehungen kann ϕ beliebig gew¨ ahlt werden.

Literaturverzeichnis 1. MATLAB - The Language of Technical Computing: Dokumentation. The Math Works Inc. Natick, Mass, 1984–2007 oder http://www.mathworks.de 2. Signal Processing Toolbox for Use with MATLAB. The Math Works Inc. Natick, Mass, 1988–2007 3. Filter Designm Toolbox for Use with MATLAB. The Math Works, Inc. Natick, Mass, 2000–2007 4. Burrus, C.S. und andere: Computer-Based Exercises for Signal Processing using MATLAB. Prentice Hall, Englewood Cliffs, N.J. 1994 5. Mason, S.J.; Zimmermann, H.J.: Electronic circuits, signals and systems. New York: Wiley ¨ 22 (1968) 6. Till, R.: Zur automatischen Analyse linearer Signalflußgraphen. AEU 219–224 7. Zurm¨ uhl, R.; Falk, S.: Matrizen und ihre Anwendungen 1. 6. Aufl. Berlin: Springer 1992 8. Gantmacher, F.R.: Matrizenrechnung. Teil I Allgemeine Theorie. Berlin: VEB Deutscher Verlag der Wissenschaften 1965 9. Gr¨ obner, W.: Matrizenrechnung. BI-Hochschultaschenb¨ ucher Bd. 103/103a. Bibliographisches Institut Mannheim: 1966 10. Meier, G.: Realisierung der Parallel- und Kaskadenstruktur am Signalprozessor. Dissertation am Lehrstuhl f¨ ur Nachrichtentechnik, Universit¨ at Erlangen–N¨ urnberg, 1994 11. Fixed-Point Toolbox for Use with MATLAB. The Math Works, Inc. Natick, Mass, 2004 - 2007 12. Marchand, P.; Holland, O.Th.: Graphics and GUIs with MATLAB, 3. Edition, Boca Raton, Florida: Chapman & Hall/CRC Press, 2003 13. Dehner, G.F.: Noise optimized IIR Digital Filter Design - Tutorial and some new aspects. Signal Processing 83 (2003) 1565 - 1582

Index

χ2 -Verteilung, 136 2er-Komplement-Runden, 391 Ableitung verallgemeinert, 134 Abminderungsfaktor, 50 Abtastkreisfrequenz, 18 Abtastsatz der DFT, 58 Abtasttheorem, 39, 41 Abtastung, 13, 104 Abzweigstruktur, 472 Adaptor, 465 Adaptor, nicht eingeschr¨ ankt, 466 aquivalent, 240 ¨ Algorithmus in-place, 69 Mixed-Radix, 78 Split-Radix, 77 Aliasing-Fehler, 191 Allpaß, 263, 393 Allpaß gekoppelt, 480 Allpaß struktureller, 435 Allpolfilter, 495 Allzweckrechner, 2 Analog-Digital-Umsetzung, 205 Analysenetzwerk, 286 analytisch, 43 Antikausalit¨ at, 359 Antispiegelpolynom, 354 Approximation, 19 Arithmetik

Festkomma, 9 Gleitkomma, 9 ˚ Astr¨ om, 112, 113 Ausschwinganteil, 342 Aussteuerung, 432 Autokorrelationsfolge, 163 Autokorrelierte, 405 Autokovarianzfolge, 164 Autoregressive Structure, 495 Bartlett-Methode, 197 Basis orthonormal, 117 Basisfolge, 117 Basisoperation, 68 Begrenzung spektral, 208 beobachtbar, 318 Beobachtbarkeit, 317 vollst¨ andig, 319 Beobachtbarkeitsmatrix, 325 Betriebs¨ ubertragungsfunktion, 475 Beziehung Parseval, 94, 270 bias, 193 Bildbreich, 117 bit reversal, 71 bit reversed order, 70 Blackman-Tukey-Methode, 201 Block zweiten Grades, 429 Blockverarbeitung, 288, 441 Br¨ uckenschaltung, 476 Bruun, 82 Butterfly, 68, 69

604

Index

Cauchy-Riemannsche Gleichungen, 355 Cauchyscher Hauptwert, 255 Cayley-Hamilton-Theorem, 330 Cepstrum, 257, 400 Chirp-Signal, 115, 384 Chirp-Z-Transformation, 113, 114 Codierung, 117 Cooley, 66 Crestfaktor, 383 D¨ ampfung, 233 D¨ ampfungsgang, 235 decimation in frequency, 72 decimation in time, 70 Derivierung, 134 DFT, 25 invers, 82 DFT-Matrix, 61 Diagonalform, 316 Diagonalmatrix, 63 Differentialgleichung lineare, 3 Differentiation numerische, 2 Differenzengleichung, 2, 113 homogen, 121 Differenzierer, 249 diskret Konsinustransformation, 126 Sinustransformation, 125 Diskrete Fouriertransformation ¨ Uberlagerungssatz, 22 Diskrete Hartley-Transformation (DHT), 122 Distribution, 35 Divisionsalgorithmus, euklidischer, 485 Drehfaktor, 77 Dreiecksmatrix, 332 Dreitoradaptor, 471 Dualzahl, 69 Durchgriff direkt, 308 Dynamik, 382 Eigenschwingung, 323, 344 Eigenwert, 63 Eigenwertaufgabe, 122 Eigenwertgleichung, 65 Einschwinganteil, 344

Einseitenbandmodulation, 235 Eintor, 459 Elementarereignisse, 132 Elementarleitung, 464, 472 Empfindlichkeit, 297 Endwertsatz, 95 Energie beschr¨ ankte, 14 Energie¨ ubertragung, 326 Ensemble, 130 Ereignis unm¨ oglich, 132 Ereignisse, 129 Ergebnisse, 129 ergodisch schwach, 167 streng, 167 Ergodizit¨ at, 154 Erregeranteil, 344 erwartungstreu, 173 asymptotisch, 173 Erwartungswert, 131, 145 Exponentialfolge, 15 Exponentialverteilung, 143, 150 Faltung, 55, 225 linear, 56 schnell, 84 zyklisch, 55, 57 Faltungssatz, 89 komplex, 87 Fast Fourier Transform, 66 Fehler systematische, 193 Fehlerquadrat mittleres, 19 Fensterfolge, 192 Fettweis-Orchard-Theorem, 267 FFTW-Bibliothek, 78 Filter mehrkanalig, 229 Radix-2, 450 Filterfunktion, elliptische, 449 Filterobjekt, 329 Fixed-Point Toolbox, 329 Folge determiniert, 18, 129 kausal, 27, 96 periodisch, 16, 44

Index Fortsetzung periodisch, 46 Fourierintegral, 29 Fourierreihenentwicklung, 22, 23, 367 Fourierreihenkoeffizienten, 25 Fouriertransformation diskret, 25 invers, 82 Multiplikationssatz, 35 schnelle, 3 Verschiebungssatz, 37 Freiheitsgrad, 136 Frequenzbereich, 18 Frequenzgang, 3, 230 bifrequent, 279 Frequenztransformation, 95 Frequenzweiche, 475 Frigo, 78 Funktion analytisch, 29, 85 bandbegrenzt, 41 charakteristisch, 145, 147 verallgemeinert, 87 Gammafunktion, 136 Gauß, 135 Ged¨ achtnis, 221 Gleichung Parsevalsche, 21, 26 Gleichverteilung, 147 Gleichverteilungsdichte, 135 Goertzel-Algorithmus, 415 Gramsche Matrizen, 324 Grenzfrequenz, 41 Grenzwertsatz, 96 zentral, 160, 161 Grenzzyklus granular, 443 Gruppenlaufzeit, 233 H¨ aufigkeit relativ, 132 von der Hann, Julius, 194 Hann-Fenster, 194 Hartley-Transformation, 122 Hilbert-Transformation, 29, 237, 250 Hilbert-Transformator, 236, 250 Hilbert-Transformierte, 29, 237 Histogramm, 138

Hurwitzpolynom, 350 Impuls, 15 dreieckf¨ ormig, 49 Impulsantwort, 223 Impulskamm, 35, 87 in place-Verfahren, 71 integrabel absolut, 29 Integration, numerisch, 430 Integrierer, 430 Interpolation, 40 invertierbar, 400 Jain, 121 Johnson, 78 Kaskadenanordnung, 303 Kausalit¨ at, 223 Kettenbruchentwicklung, 357 Khintchine, 170 Kirchhoffsche Gesetze, 464 komplement¨ ar, 265, 462 konsistent, 173 Konvergenzbereich, 89 Korrelationskoeffizienten, 164 Kosinusreihe, 27 Kreuzkorrelationsfolge, 162 Kreuzkovarianzfolge, 164 Kreuzleistung mittlere, 172 Kreuzleistungsdichtespektrum, 171 Kronecker-Produkt, 325 Kurve, 86 einfach, 86 Laplace-Transformation, 57, 87 lattice-structure, 495 Laurent-Entwicklung, 86 Laurentreihe, 367 Leistung mittlere, 14, 21 Leistungs¨ ubertragungsfunktion, 269 Leistungsdichtespektrum, 170 Leiterstruktur, 440, 450, 478 M¨ unzwurf, 130 MATLAB Befehl abs, 371, 423, 522

605

606

Index angle, 371, 423, 522 axes, 525, 559 axis, 555, 557 bar, 525, 564 caxix, 525 cceps, 524 ceil, 547 char, 561 cheby1, 539, 567 circshift, 547 conv, 410, 486, 541, 546 corrcoef, 538 cumsum, 571 czt, 527 dct, 527 deconv, 546 diag, 546 downsample, 540 eig, 316, 546 ellip, 449, 539, 574, 579, 580 eqtflength, 313, 548 erfinv, 545, 570 erf, 545 eye, 312, 410, 547 fftfilt, 458, 541 fftshift, 558, 566 fftw, 527 fft, 527, 558 figure, 525, 553 filter, 329, 416, 420, 541, 569 filtfilt, 420, 541 find, 410 fliplr, 312, 548 floor, 548 freqz, 332, 371, 423, 522, 526, 567 fvtool, 371, 423, 526 gallery, 547 gamma, 545 get, 553 goertzel, 417, 527 grpdelay, 371, 522, 526 hankel, 332, 547 hann, 523 hilbert, 527 histc, 538 hist, 538 hold on/off, 553 idct, 527 ifft, 371, 397, 423, 527

impzlength, 390 impzlenth, 522 impz, 329, 349, 409, 522, 526, 567 int2str, 583 invfreqz, 371, 539 kron, 326, 547 latc2tf, 533 latcfilt, 541 legend, 570 line, 525, 553, 558 log10, 371 log, 423, 545 max, 583 mean, 537, 572 pcov, 523 periodogram, 523, 526 plot komplexe Werte, 555 plot, 525, 557, 570 pmtm, 523 polyval, 409, 546 poly, 410 pwelch, 523 randn, 534, 562, 564 rand, 534, 567 rank, 332, 547 rceps, 524 rectpuls, 540 reshape, 326, 548 residuez, 310, 314, 349, 409, 546 residue, 307, 314, 349, 546 roots, 313, 409, 410, 546 round, 583 sawtooth, 540 set-Default, 567 set, 553 sin, 540 sos2ss, 314, 528 sos2tf, 530 sos2zp, 530 sosfilt, 542 spreiz, 541 sprintf, 555 ss2sos, 314, 349, 530 ss2tf, 300, 312, 348, 528 ss2zp, 300, 313, 528 stairs, 525, 553 std, 537 stem, 525, 553, 558, 569 stepz, 329, 522, 526, 567

Index subplot, 525, 557 text, 525, 555, 559, 572 tf2latc, 504, 532 tf2sos, 313, 314, 530 tf2ss, 300, 312–314, 529 tf2zpk, 313, 528 tf2zp, 300, 528 title, 525, 553 toeplitz, 332, 397, 547 unwrap, 371 upsample, 540 xcorr, 538 xcov, 538 xlabel, 525, 553, 569 ylabel, 525, 553, 569 zlabel, 525 zp2sos, 314, 449, 530, 574, 580 zp2ss, 300, 313, 314, 529, 581 zp2tf, 528 zplane, 332, 371 Beispiele Blockverarbeitung, 449 Filter Simulation, 480 DSV-Befehl abtast, 541 acor2tf, 409, 410, 539 acorimpresp, 409, 539 allpassgrpdelay, 397, 539 axarrowline, 526, 555 binchr, 537 binvdf, 537 blockfreqz, 522, 579, 581 cap2calat, 533 cap2casos, 534 cap2tf, 533 cdft, 527 chi2chr, 535, 566 chi2vdf, 535, 564 circlemean, 409, 548 compltf, 493, 528 covariance, 538 covlds, 523 energyss, 340, 523 energy, 523, 567, 572 euclidred, 487, 548 expchr, 536 expvdf, 536 extphase, 409, 539 fftfiltsav, 457, 542

fixblockss, 449, 543 fixcalfssos, 493, 543 fixdf1sos, 543 fixdf2sos, 390, 543 fixdf2tsos, 543 fixlfssos, 440, 543 fixnlm, 389, 545 fixquant, 391, 543 fixwf1sos, 480, 544 fixwf2sos, 480, 544 flddf1, 544 flddf2sos, 544 fldfirlat, 504, 544 fldiirlat, 504 fldnlm, 391, 545 fldquant, 544 goertz0, 416, 528 gram, 326, 414, 547 h2db, 548, 581 imp2tf, 332, 371, 409, 504, 540 isposdef, 414, 523 lfssos2tf, 533 nlm, 389, 545, 572 normchr, 535, 566 normvdf, 535, 564 p2db, 548 p2latc, 504 par2par, 315, 531 par2sos, 315, 531 par2ssf, 529 par2ssp, 315, 529 par2tf, 315, 531 par2zp, 531 parfreqz, 315, 522 platc, 533 plot bifreq, 526, 579 print cap, 534 print par, 531 print sos, 531 print ssf, 530 print wdf, 532 rader, 538 randbin, 537 randchi2, 535, 564 randray, 536 randrect, 534, 569 randsin, 536 randstu, 535 ranexp, 536

607

608

Index

raychr, 537 rayvdf, 537 rectchr, 534 rectvdf, 534 scaling df1sos, 542 scaling df2sos, 542, 573 scaling df2tsos, 542, 573 scaling ssfsos, 449, 542, 579 scaling wf1sos, 480, 542 scaling wf2sos, 480, 542 sinchr, 536 sinewave, 540, 557 sinvdf, 536 sos2calfssos, 493, 533 sos2lfs, 440, 533 sos2par, 315, 531 sos2ssc, 314, 529 sos2ssf, 314, 449, 530, 579 sos2wdf, 480, 532 sosfreqz, 315, 349, 522, 574, 580 sosorder, 542, 573 sosround, 542, 573 soszplane, 526, 576 ss2block, 449, 532, 579 ssf2ssc, 449, 529, 579 ssf2ssp, 529 ssp2par, 315, 531 stuchr, 535 stuvdf, 535 syscontrol, 321, 524 sysobserve, 321, 524 syspassive, 414, 524 sysstable, 359, 414, 524 tf2cap, 493 tf2catf, 533 tf2par, 315, 531 tf2ss1, 529 tf2ss2, 529 unitmirror, 548 wdf2sos, 532 xpdf2, 538 xpdf, 538, 564 zirkulante, 547 zp2par, 531 zust, 329, 529 Methode filter, 550 freqz, 551 psd, 552

Objekt dfilt.df1sos, 550 dfilt, 549 spectrum, 552 Strukturen Allpass/lf2sos, 517 Blockstruktur, 449 Br¨ uckenstruktur, 517 CAP-Datenstruktur, 493 Direkte Form, 516 Gek.Allpass/lat, 517 Gek.Allpass/sos, 517 Kaskadenstruktur, 516 LFS-Form, 440, 493 LFS-Matrix, 440 Leiterstruktur, 517 Parallelstruktur, 516 SOS-Form, 440 SOS-Matrix, 440 WDF-Matrix, 479 WF1-Form, 479 WF2-Form, 479 df1-Form, 302, 516 df1sos-Form, 303, 516 df1t-Form, 516 df1tsos-Form, 516 df2-Form, 390, 421, 516 df2par1-Form, 310, 516 df2par2-Form, 310, 516 df2sos-Form, 303, 516 df2t-Form, 302, 415, 516 df2tpar1-Form, 308, 516 df2tpar2-Form, 310, 516 df2tsos-Form, 303, 516 lf2-Form, 517 lfn-Form, 517 lfs-Form, 517 lfw-Form, 517 ss-Form, 516 ss1-Form, 298, 516 ss2-Form, 298, 516 ssc-Form, 516 ssf-Form, 516 ssfpar-Form, 516 ssfsos-Form, 516 ssp-Form, 516 wf1sos-Form, 516 wf2sos-Form, 516 Matrix

Index Hankelsche, 330 normal, 337 tridiagonal, 123 unit¨ ar, 120 minimalphasig, 257, 380, 399 Modalmatrix, 318, 322 Modulationssatz, 53, 59, 90 Moment, 146 n-ter Ordnung, 31 monofrequente periodische Folge, 46 Multiplikationssatz, 255 allgemein, 93 Multiplizierer, akkumulierend, 450 Multiraten-System, 276 Musterfolge, 130 Netzwerk, eintorig, 459 nichtkanonisch, 297 nichtstation¨ ar, 130 Norm, 14 normal, 121 Normal-Form, 338 Normalverteilungsdichte, 135 Normierungsbedingung, 119 Nullfunktion, 30 Operationsverst¨ arker, 476 Operator, 221, 292 orthogonal, 162 Orthogonalentwicklung, 41 Orthogonalsystem, 41 Orthogonaltransformation, 116, 117 Paralleladaptor, 466 Parallelanordnung, 306 Parallelresonanzkreis, 471 Partialbruchentwicklung, 32, 99 Passive Systeme, 410 Passivit¨ at, 262 Periode, 16 Periodogramm, 192 Permutationsmatrix, 62 Phase, 28, 233, 247 linear, 423 Phasengang, 235 Phasenzuwachs, 366 Poissonsches Integral, 253 Pol-Nullstellendiagramm, 106

Polarit¨ atskorrelationsfolge, 165 Polarkoordinaten, 355 Polynom, 87 charakteristisch, 316 Z¨ ahler-, 87 Polyphasen -Analysenetzwerk, 285 -Synthesenetzwerk, 286 -Verlauf, 241 -filter, 247 -komponente, 285 Potenzreihe, 89 Pr¨ adiktion, lineare, 500 Prim¨ arform, 463 Primzahl, 77 Prinzip vom Maximum, 263 Problem Aussteuerungs-, 432 Skalierungs-, 432 Produkt inneres, 65 Programmierung objektorientiert, 329 Prozeß ergodisch, 166 station¨ ar, 132 stochastisch, 130 weiß, 172 Pseudopassivit¨ at, 478 Quantisierung, 8 Quantisierungs -effekt, 205, 329 -fehler, 9, 297 -kennlinie, 385 -stufe, 8 -theorem, 207, 208 R¨ ohrenmodell, 472 Rader, 188 Radix, 71 Rauschkennzahl, 390 RC-Glied, 5 Reaktanz, 460 Reaktanzfunktion, 354 Realisierung, 130 Rechteckfolge, 31 Rechteckformel, 44 Rechteckregel, 29

609

610

Index

Referenzfilter, 473 Referenznetzwerk, 462 Reflexionsfaktor, 459 Rekonstruktion, 40 Relation Wiener-Khintchine, 192 Remez-Algorithmus, 250 Residuen, 86 Residuensatz, 86, 98 Routh-Test, 357 Satz von Rouch´e, 358 Sch¨ atzwert nat¨ urlich, 192 Schaltfolge, 47 Scharmittelwert, 145 Schleife laufzeitfrei, 431 Schnelle Faltung, 452 Schur-Cohn, 357 Serienadaptor, 469 Signal minimalphasig, 28 Signalflußgraph, 67, 68, 293, 295 Singularit¨ at, 85 logarithmisch, 257 Sinke, 462 Sinusfolge, 18 Sinustransformation, 117, 121 diskret, 120 Spannungswellen, 459 Spektrallinie, 38 Spektrum, 25, 36 Spiegelpaar, 488 Spiegelpolynom, 353 Spiegelung, 96 Spiegelungseffekt, 38 Sprachkodierung, 6 Sprachtrakt, 472 Spreizer, 283 Spreizung, 60, 104, 286 Sprungantwort, 226 Sprungfolge, 15 Stabilit¨ at, 223 Standardabweichung, 138 station¨ ar im weiten Sinne, 166 schwach, 166 strikt, 166

verbunden im weiteren Sinne, 166 steuerbar, 318 Steuerbarkeit, 317 vollst¨ andig, 319 Steuerbarkeitsmatrix, 324 Stichprobenraum, 130 Streumatrix, 460 Streuung, 146 Struktur direkt, 295, 300 kanonisch, 295, 301 transponiert, 298 strukturell beschr¨ ankt, 267 Summationsformel, 108 Summationsregel, 90 Summenorthogonalit¨ at, 20, 22, 44 summierbar, 14 absolut, 14 Superpositionsgesetz, 222 Symbol, 1 Synthesenetzwerk, 286 Syntheseverfahren, 472 System aquivalent, 316 ¨ bedingt stabil, 414 differenziert, 238 dynamisch, 221 linear, 222 lineare Phase, 247 nichtrekursiv, 420 normal, 414 reellwertig, 222 rekursiv, 420 stabil, 223 verzerrungsfrei, 243 zeitinvariant, 223 Systemeigenschaft, 221 Systemgleichung, 322 Systemmatrix, 292 T¨ oplitzstruktur, 332 Taktintervall, 221 Taktrate, 104, 221 Taylorentwicklung, 31 Teil gerade, 26 Testfolge, 15 Tiefpaß idealisiert, 41, 244

Index Tiefpaßfilter, 384 Toeplitz-Matrix, 84, 288 Tor, abh¨ angig, 467 Transformation bilinear, 351 der Zustandsvektoren, 429 orthogonal, 117 Transformationsmatrix unit¨ ar, 121 Transponierung, 296 Trapezregel, 430 Tukey, 66 ¨ Uberabtastung, 41, 43 ¨ Ubergangsmatrix, 322 ¨ Uberlagerung, 30 ¨ Uberlagerungssatz diskret, 31 ¨ Uberlappungs-Selektions-Methode, 453 ¨ Uberlappungs-Summen-Methode, 453 ¨ Uberlappungsfehler, 43 ¨ Uberlaufgrenzzyklus, 477 ¨ Uberlaufstabilit¨ at, 477 ¨ Uberlaufwahrscheinlichkeit, 433 ¨ Ubersteuerung, 206 ¨ Ubertragungsfunktion, 3, 231, 265 ¨ Ubertragungsfunktion, komplement¨ ar, 475 ¨ Ubertragungsmatrix, 234, 316 Umtastung, 90 unabh¨ angig statistisch, 133 Ungleichung Besselsche, 20, 21 Tschebyscheff’sche, 146, 173 unit¨ ar, 62, 461 unkorreliert, 162 Varianz, 131 Variation beschr¨ ankt, 29 Verarbeitung objektorientiert, 313 Verbindungsstruktur, 464 Verbundverteilungsdichtefunktion, 153 Verbundverteilungsfunktion, 151 Verfahren adaptiv, 6 Verlustfreiheit, 262

611

Verschiebung, 51 zyklisch, 53 Verschiebungssatz, 89 Verteilung Bernoulli-, 137, 149 Binomial-, 137 Rayleigh-, 143, 149 Student-, 136, 148 Verteilungsdichtefunktion, 134 Verteilungsfunktion, 133 Verz¨ ogerung, 4 Verz¨ ogerungsglied, 292 Vierpolgleichung, 463 vollst¨ andige Zustandsraumstruktur, 429 W¨ urfeln, 130 Wahrscheinlichkeit, 132 bedingt, 132 Welch-Barlett Methode, 196 Wellendigitalfilter, 267, 440, 458 wertdiskret, 130 Wiener, 170 Wirkleistung, 460 Wortl¨ ange begrenzt, 294 Wortl¨ angeneffekt, 294 Z-Transformation, 26, 85 invers, 98 zweiseitig, 96 Zeitbereich, 15 Zeitinvarianz, 223 Zeitmittelwert, 145 Zeitverhalten, 3 Zentralmoment, 146 Zirkulant, 122 Zirkulante, 64 Zufallsfolge, 129 Zufallsvariable, 130 Zuordnungsschema, 26 Zustandsgleichung, 297 Zustandsraum, 296 Zustandsraummatrix, 297 Zustandsraumstruktur vollst¨ andig, 297 Zustandsvariable, 295 Zuverl¨ assigkeit, 173 Zweitor, 460