Elektrische Energieversorgung 2: Energie- und Elektrizitätswirtschaft, Kraftwerktechnik, alternative Stromerzeugung, Dynamik, Regelung und Stabilität, Betriebsplanung und -führung [PDF]


179 117 64MB

German Pages 903 Year 2008

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Front Matter....Pages I-XXIV
Front Matter....Pages 1-1
Energiewirtschaft und Klimawandel....Pages 3-52
Wirtschaftlichkeitsberechnungen....Pages 53-62
Elektrizitätswirtschaft, Liberalisierung....Pages 63-217
Front Matter....Pages 219-219
Wasserkraftwerk....Pages 221-269
Thermische Kraftwerke, Wärmepumpe....Pages 271-338
Front Matter....Pages 339-339
Windkraftwerke....Pages 341-364
Photovoltaik....Pages 365-403
Brennstoffzelle....Pages 405-412
Kernfusion....Pages 413-426
Front Matter....Pages 427-427
Modellierung und Simulation....Pages 429-474
Drehzahl- und Frequenzleistungsregelung....Pages 475-491
Synchronisierung und Polradwinkelstabilität....Pages 493-562
Spannungsregelung und Spannungsstabilität....Pages 563-601
Front Matter....Pages 603-603
Betriebsplanung....Pages 605-639
FACTS-Elemente....Pages 641-745
Leit- und Informationstechnik....Pages 747-770
Netzleittechnik für elektrische Energienetze....Pages 771-817
Back Matter....Pages 819-898
Papiere empfehlen

Elektrische Energieversorgung 2: Energie- und Elektrizitätswirtschaft, Kraftwerktechnik, alternative Stromerzeugung, Dynamik, Regelung und Stabilität, Betriebsplanung und -führung [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Elektrische Energieversorgung 2

Valentin Crastan

Elektrische Energieversorgung 2 Energie- und Elektrizitätswirtschaft, Kraftwerktechnik, alternative Stromerzeugung, Dynamik, Regelung und Stabilität, Betriebsplanung und -führung

2., bearbeitete Auflage

123

Dr. Valentin Crastan ch. des Blanchards 18 2533 Evilard Schweiz [email protected]

ISBN 978-3-540-70877-3

e-ISBN 978-3-540-70882-7

DOI 10.1007/978-3-540-70882-7 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. c 2009 Springer-Verlag Berlin Heidelberg  Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Satz: digitale Druckvorlage des Autors Herstellung: le-tex publishing services oHG, Leipzig, Deutschland Einbandgestaltung: eStudio Calamar S.L., F. Steinen-Broo, Girona, Spanien Gedruckt auf säurefreiem Papier 987654321 springer.com

Vorwort

In der nun vorliegenden 2. Auflage des 2004 erschienenen zweiten Bandes ist Kapitel 1 deutlich ausgebaut worden, um den Veränderungen im Bereich der Energiewirtschaft und insbesondere den durch den Klimawandel aufgeworfenen Fragestellungen Rechnung zu tragen. Außerdem wurde im Rahmen der Ausführungen zur Liberalisierung der Elektrizitätswirtschaft dem Aspekt Risikomanagcmcnt ein größercs Gewicht beigemessen, wofür ich T. Putzi der Bernischen Kraftwerke AG und Prof. M. Höckel, HTI Biel, zu Dank verpflichtet bin. Ebenso danke ich Dr. J. Kreusel, ABB, für einige Aktualisierungen zum Thema. Die Struktur des Bandes ist im Wesentlichen die gleiche geblieben. Ungenauigkeiten und Fehler wurden ausgemerzt sowie Anpassungen und Aktualisierungen dort vorgenommen, wo dies notwendig war. Danken möchte ich ferner Prof. A. Shah, Universität Neuchfitel, für den anregenden Gedankenaustausch zum Thema Photovoltaik, Prof. M. Q. Tran, ETH Lausanne, für die Durchsicht und einige Anregungen zu Kapitel 9 (Kernfusion) und Dr. Ulf Bosse1 für Bemerkungen zum Thema Brennstoffzellen. Schließlich sei den Ko-Autoren Dr. R. Apel und 0. Vollmeier, Siemens AG, gedankt für die Mühe, die Sie sich genommen haben, ihre Kapitel zum Thema Netzleittechnik anzupassen und optimal zu koordinieren. Dem Springer-Verlag danke ich für die gute und effiziente Zusammenarbeit.

Biel, im Juni 2008

V. Crastan

Vorwort zur 1. Auflage

Der im Jahr 2000 erschienene Band 1 des nun vorliegenden zweibändigen Werkes „Elektrische Energieversorgung, behandelt die elektrotechnischen Grundlagen, die Modellierung der Elemente des Drehstromnetzes. das stationäre und quasistationäre Verhalten symmetrischer Netze und von Netzen mit Unsymmetrien sowie die Grundlagen der Netzelement-Bemessung, der Schaltvorgänge und der Schutztechnik. In Band 2 werden diese vor allem die Energieübertragung und -verteilung betreffenden Ausfuhrungcn durch die energie- und insbesondere dic clcktrizitätswirtschaftlichcn Aspekte ergän~t,wozu auch die Kraftwerktechnik und alternative Arten der Stromerzeugung gehören. Breiten Raum finden ferner die Fragen der Dynamik und Stabilität des Energieversorgungs-

V1

Vorwort

netzes und die mit der Planung und Betriebsführung zusammenhängenden Probleme. Obwohl gut 60% des Buches von mir stammen und dieses somit Monographie-Charakter hat, sind wesentliche Beiträge von den auf Seite XXV aufgefuhrten Ko-Autoren geleistet worden, denen ich meinen herzlichsten Dank ausspreche. Der aus fünf Teilen und einem Anhang bestehende Band 2 gliedert sich wie folgt: Teil I widmet sich den energiewirtschafilichen Grundfragen unter Einbezug öhologischer Aspekte sowie den Grundlagen der Wirtschaftlichkeitsrechnung. Einen breiten Raum nehmen dann die Fragen der Marktöffnung ein, die durch den Beitrag von Dr. J. Kreusel zur Funktionsweise liberalisierter Strommärkte wesentlich vertieft und mit den Ausführungen von Prof. M. Höckel zu den Themen Risikomanagement und Strompreisgestaltung abgerundet werden. Teil 11 behandelt die konventionelle auf Wasserkraft sowie auf fossile und nukleare Brennstoffen basierende Kraftwerktechnik einschl. Modellierung und Dynamik. Die Ausführungen zu den für die Zukunft wichtigen Kombikraftwerken sind durch einen Beitrag von M. Kleinen ergänzt. Ein Abschnitt über die ökologisch wichtige Wärmepumpe rundet den Aspekt Energieumwandlung ab. Teil 111 betrifft die alternativen Methoden der Stromproduktion, ihre Technik und Aussichten. Besonderq erwähnt seien die Windkrali, die Photovoltaik, die Kernfusion und die Brennstoffzelle. Teil IV setzt sich mit den Fragen der Regelung und Stabilität des Energieversorgungsnetzes auseinander. Die 2.T. bereits in Band 1 behandelten Modellierungsprobleme werden ergänzt und vertieft und die heute vorhandenen Werkzeuge zur Simulation komplexer Netze im Beitrag von Dr. M. Pöller beschrieben. Ausserdcm wcrdcn dic Fragen dcr Nctzrcgclung und dic Probleme der Polradwinkel- und der Spannungsstabilität eingehend behandelt. Eine Analyse der Polradwinhel- stabilität in ausgedehnten Netzen (UCTE-Netz) und der Ursachen entsprechender Polradwinkelpendelungen findet sich im Beitrag von Prof. Dr. H. Weber. reil V erörtert zuerst das Betriebsoptimierungsproblem Tür das vertikal integrierte Energieversorgungssystem und geht dann auf die durch die Marktöffnung und den Wettbewerb sich aufdrängenden Änderungen ein. Der Fall der ßetriebsoptimierung bei ausgehandeltem Netzzugang wird iin Beitrag von Dr. J. Kreusel vertieft. Eine wesentliche Innovation im Bereich der Steuerung und Optimierung des Energieversorgungsnetzes stellen die FACTS dar, deren Eigenschaften und Einsatzmöglichkeiten in dem von Dr. D. Westermann verfassten Kap. 15 eingehend behandelt werden. Da gerade wegen der Marktöfhung auch die Fragen der Leitund Informationstechnik an Bedeutung zunehmen, befassen sich zwei Beiträge von Dr. R. Apel (Kap. 16) und 0 . Vollmeicr (Kap. 17) aus verschiedenen Blickwinkeln mit diesem Fragenkomplex. Im Anhang sind in erster Linie physikalisch-mathematische Grundlagen, die für das vertiefte Verständnis einiger Kapitel notwendig sind, wie thermodynamische und kernphysikalische Grundlagen oder Grundbegriffe der Dynamik, Regelungstechnik und Optimierungsrechnung, gegeben. Die Lösungen der Aufgaben und einige Tabellen und Graphiken finden sich ebenfalls im Anhang. Für die Durchsicht des Abschnitts Kernfusion und einige nützliche Hinweise bin ich Dr. Kurt Appert, ETHI,, zu Dank vcrpflichtet, ebenso danke ich Dr. Ulf Bossel für die Durchsicht des Abschnitts Brennstoffzellen. Den Ko-Autoren möchte ich nochmals für ihre wesentlichen Beiträge dankcn. Dem Springer-Verlag sei für die stets angenehme und insbesondcre Frau G. Maas für Ihre engagierte Zusammenarbeit gedankt. Biel. im April 2003

V. Crastan

Inhaltsverzeichnis

Teil l

Energiewirtschaft. Elektrizitätswirtschaft

I Energiewirtschaft und Klimawandel

1.1 Grundbegriffe. geschichtlicher Rückblick . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.1 Energiesektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.2 Nutzprozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.3 Geschichtlicher Rückblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.4 Perspektiven und Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3 3 4 5 6

1.2 Verfugbarkeit der Primärenergie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.2.1 Nicht erneuerbare Energien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.2.1.1 Zukünftige Nachfrage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.2.1.2 Reserven und Ressourcen . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.2.1.3 Ethische Aspekte und Umweltschutz . . . . . . . . . . . . . . . . 10 1.2.2 Erneuerbare Energien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2.2.1 Gezeitenenergie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2.2.2 Geothermische Energie . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2.2.3 Solarenergie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.2.3 Potential und Nutzung der wichtigsten Solarenergiearten . . . . . . . . 12 1.2.3.1 Wärmepumpe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.2.3.2 Wasserkraft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 1.2.3.3 Wind- und Meereskraft . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.2.3.4 Biomasse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.2.3.5 Solarstrahlung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1.2.4 Ökologische problerne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.2.4.1 Vorwiegend lokale Wirkungen . . . . . . . . . . . . . . . . . . . . 17 1.2.4.2 Verstärkung des Treibhauseffekts . . . . . . . . . . . . . . . . . . 17 1.2.4.3 Nachhaltige Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . . 18 1.3 Energiebedarf, allgemeine Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2 Entwicklung und Aufteilung der Energienachfrage . . . . . . . . . . . . . 1.3.3 Faktoren, die den Energiebedarf beeinflussen . . . . . . . . . . . . . . . . . 1.3.4 Endenergie und Verluste des Energiesektors . . . . . . . . . . . . . . . . . . 1.3.5 CO,- Emissionen und Indikatoren . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.6 Erwünschtes Szenario tUr die Schweiz 2030 . . . . . . . . . . . . . . . . . .

19 19 19 23 25 26 27

Vl l l

lnhaltsverzeichnis

1.4 Energieverbrauch in Europa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 1.4.1 Endenergieverbrauch pro Kopf . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 1.4.2 Energieintensität und CO,- Emissionen . . . . . . . . . . . . . . . . . . . . . . 29 1.4.3 Endenergie und Verluste des Energiesektors in der EU-1 5 . . . . . . . 31 1.5 Weltweiter Energieverbrauch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 1 S.1 Energieverbrauch in der Vergangenheit . . . . . . . . . . . . . . . . . . . . . 32 1S.2 Energieverbrauch, Bevölkerung und BIP in 2004 . . . . . . . . . . . . . . 33 1 S . 3 Primär- und Endenergie und ihre Verteilung 2004 . . . . . . . . . . . . . 36 1.5.3.1 Gesamtheit der OECD-Länder . . . . . . . . . . . . . . . . . . . . . 36 1S.3.2 Nicht-OECD-Länder . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 1S . 4 Charakteristische Indikatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 1.6 Zukünftige Entwicklung des Weltenergiebedarfs . . . . . . . . . . . . . . . . . . . . 42 1.6.1 Entwicklung der Weltbevölkerung . . . . . . . . . . . . . . . . . . . . . . . . . 42 1.6.2 Zunahme des BIP (KKP) und Energienachfrage (IEA-Szenarien) . 44 1.7 CO,- Emissionen und Klimaschutz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7.1 Weltweite Entwicklung der CO,-Emissionen, IEA-Szenarien . . . . . 1.7.2 Weltweites Energie-Indikatoren für 2030, gemäß IEA-Szenario . . 1.7.3 Klimaschutz, mittel- und langfristige Massnahmen . . . . . . . . . . . . . 1.7.3.1 Spezifischer Energieverbrauch und CO,- Intensität . . . . . 1.7.3.2 Länder mit CO,- lastiger Elektrizitätsproduktion . . . . . . . 1.7.3.3 Emtefaktor und graue Energie . . . . . . . . . . . . . . . . . . . . . 1.7.3.4 Länder mit nahezu CO,- freier Elektrizitätsproduktion . . . 1.7.3.5 Transportbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7.3.6 Wärmebereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2

45 45 46 48 48 49 50 51 51 52

Wirtschaftlichkeitsberechnungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

2.1 Investitionsrechnung. Diskontierungsverfahren . . . . . . . . . . . . . . . . . . . . . 54 2.1.1 Kapitalwertmethode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 2.1.2 Annuitätsmethode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 2.2 Kosten der Energie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Kosten der elektrischen Energie . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.2 Spezifische Energiekosten an den Kraftwerksklemmen . . . . . . . . . 2.2.3 Spezifische Jahreskosten der Kraftwerke . . . . . . . . . . . . . . . . . . . . 2.2.4 Kosten der elektrischen Energie am Verbraucher . . . . . . . . . . . . . . 3

Elektrizitätswirtschaft. Liberalisierung . . . . . . . . . . . . . . . . . . . . . . .

58 58 59 61 61 63

3.1 Verbrauch elektrischer Energie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 3.1.1 Struktur des Energieverbrauchs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 3.1.2 Schwankungen des Energiebedarfs . . . . . . . . . . . . . . . . . . . . . . . . . 64 3.2 Deckung des Elektrizitätsbedarfs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 3.2.1 Kraftwerkarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .67

1X

Inhaltsverzeichnis

3.2.2 Kraftwerkeinsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3.2.2.1 Jahreszeitlicher Einsatz der Kraftwerke . . . . . . . . . . . . . . 68 3.2.2.2 Tageszeitlicher Einsatz der Kraftwerke . . . . . . . . . . . . . . 68 3.2.3 Wasserspeicherung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 3.2.4 Energieaustausch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 3.3 Wasserkraftwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 3.4 Thermische Kraftwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74 3.5 Wettbewerb im Elektrizitätssektor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.2 Grundpfeiler des Wettbewerbs und Probleme . . . . . . . . . . . . . . . . . 3.5.2.1 Konkurrenz zwischen Produzenten . . . . . . . . . . . . . . . . . 3.5.2.2 Freie Wahl des Energielieferanten . . . . . . . . . . . . . . . . . . 3.5.2.3 Natürliches Monopol für Übertragung und Verteilung . . 3.5.2.4 Übergangsprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.3 Reorganisationsmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.3.1 Alleinabnehmer-Modell (single buyer) . . . . . . . . . . . . . . . 3.5.3.2 Wettbewerb auf der Großhandelsstufe . . . . . . . . . . . . . . . 3.5.3.3 Wettbewerb auf Kleinhandelsstufe . . . . . . . . . . . . . . . . . . 3.5.4 Privatisierung, Regulierung der Monopole . . . . . . . . . . . . . . . . . . . 3.5.5 Konsequenzen der Marktöffnung . . . . . . . . . . . . . . . . . . . . . . . . . .

78 78 78 79 79 79 79 81 81 81 84 84 85

3.6 Strompreisgestaltung (Prof . Dipl . Ing . M . Höckel) . . . . . . . . . . . . . . . . . . 86 3.6.1 Verteilung der Selbstkosten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 3.6.1.1 Modelle für die Zuordnung der Leistungskosten . . . . . . . . 88 3.6.1.2 Verteilung der Kosten auf verschiedene Spannungsebenen 92 3.6.2 Stromtarife . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 3.6.2.1 Anforderungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 3.6.2.2 Tarifniveau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 3.6.2.3 Tarifstrukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 3.6.2.4 Beispielrechnung eines Tarifsystems . . . . . . . . . . . . . . . . 98 3.7 Funktionsweise liberalisierter Elektrizitätsmärkte (Dr . -lng., tlon..Prof. J . Kreusel) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.1 Motivation für Liberalisierung und Privatisierung . . . . . . . . . . . . 3.7.2 Der Aufbau wettbewerblich organisierter Elektrizitätsmärkte . . . . 3.7.2.1 Aufgaben und Rollen im liberalisierten Markt . . . . . . . 3.7.2.2 Netzzugangsmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.3 Dienstleistungsmarkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.3.1 Systembetreiber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.3.2 Netzbetreiber und Zählerdienstleister . . . . . . . . . . . . . . 3.7.4 Wettbewerbsmarkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.4.1 GroBhandel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.4.2 Börsenhandel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.4.3 Energiedienstleister . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.4.4 Bilanzkreisverantwortliche . . . . . . . . . . . . . . . . . . . . . .

104 104 108 109 112 114 115 118 124 125 128 131 138

X

Inhaltsverzeichnis

3.7.5 Besonderheiten internationaler Realisierungen liberalisierter Elektrizitätsmärkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.5.1 Vereinigte Staaten von Amerika . . . . . . . . . . . . . . . . . . 3.7.5.2 Großbritannien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.5.3 Skandinavien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.5.4 Kontinentaleuropa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.5.5 Zusammenfassung internationaler Beispiele . . . . . . . . . 3.7.6 Erfahrungen in liberalisierten Märkten . . . . . . . . . . . . . . . . . . . . . 3.7.6.1 Auswirkungen der Liberalisierung auf Preise und Kundenverhalten . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7.6.2 Übergangseffekte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

142 143 144 145 146 146 146 149 154

3.8 Risikomanagement in der Elektrizitätswirtschaft (Dipl . Ing . Th . Putzi) . . 157 3.8.1 Anforderungen an die Unternehmensführung . . . . . . . . . . . . . . . 157 3.8.2 Enterprise Risk Management (Theorie) . . . . . . . . . . . . . . . . . . . . 158 3.8.2.1 Nutzen von ERM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 3.8.2.2 Risikopolitik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160 3 .8.2.3 Risikomanagement-Prozess . . . . . . . . . . . . . . . . . . . . . . 172 3.8.2.4 Weitere mögliche Komponenten eines ERM . . . . . . . . . 188 3.8.3 Enterprise Risk Management (Praxis) (Prof. Dipl . Ing . M . Höckel) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197 3.8.3.1 Risiken in der Elektrizitätswirtschaft . . . . . . . . . . . . . . . 197 3.8.3.2 Quantifizierung der Risiken . . . . . . . . . . . . . . . . . . . . . . 202 3.8.3.3 Instrumente und Produkte des Stromhandels . . . . . . . . . 204 3.8.3.4 Beurteilung von Vertragsoptionen . . . . . . . . . . . . . . . . . 210

Teil II 4

Kraftwerktechnik. Energieumwandlung

Wasserkraftwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221

4.1 Hydrologische Planungsgrundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221 4.2 Laufkraftwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223 4.2.1 Wasserbewirtschaftung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224 4.2.2 Ausführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .224 4.2.3 Auslegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226 4.3 Speicherkraftwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226 4.3.1 Tages- und Wochenspeicherwerke . . . . . . . . . . . . . . . . . . . . . . . . 226 4.3.2 Jahresspeicherwerke (Saisonspeicherwerke) . . . . . . . . . . . . . . . . . 228 4.3.3 Pumpspeicherung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 4.4 Wasserturbinen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 4.4.1 Pelton-Turbine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 4.4.1.1 Strahldurchmesser und Wassermenge . . . . . . . . . . . . . . 236 4.4.1.2 Optimale Umfangsgeschwindigkeit . . . . . . . . . . . . . . . . 237 4.4.1.3 Durchmesser, spezifische Drehzahl . . . . . . . . . . . . . . . . 237

Inhaltsverzeichnis

XI

4.4.2 Reaktionsturbinen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.2.1 Kavitationserscheinung . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.2.2 Energiediagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.2.3 Durchfluss- und Druckzahl . . . . . . . . . . . . . . . . . . . . . . 4.4.2.4 Zusammenhang zwischen n„ cp, und Jr . . . . . . . . . . . . . 4.4.2.5 Turbinenauslegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.2.6 Typen von Reaktionsturbinen und Kreiselpumpen . . . . 4.4.3 Turbinenwahl . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.4 Kleinwasserkraftwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

240 242 243 243 244 245 248 249 251

4.5 Dynamik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.1 Druckstollen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.2 Wasserschloss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.3 Starre Druckleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.4 Gesamtmodell des hydraulischen Systems . . . . . . . . . . . . . . . . . . 4.5.4.1 Nichtlineares Blockdiagramm . . . . . . . . . . . . . . . . . . . . 4.5.4.2 Übertragungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.5 Elastischer Druckstoß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.5.1 Druckleitungsmodelle mit Elastizität . . . . . . . . . . . . . . . 4.5.5.2 Übertragungsfunktion der elastischen Druckleitung . . . 4.5.6 Gesamtmodell des hydraulischen Systems mit Elastizität . . . . . . . 4.5.6.1 Übertragungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.6.2 Nichtlineares Blockschaltbild . . . . . . . . . . . . . . . . . . . . 4.5.7 Wasserturbinen- und Wasserkraftwerk-Modell . . . . . . . . . . . . . . . 4.5.7.1 p.u. Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.7.2 Linearisierung der Turbine . . . . . . . . . . . . . . . . . . . . . . . 4.5.7.3 Übertragungsfunktion der Turbine . . . . . . . . . . . . . . . . .

252 252 254 255 256 256 256 258 259 262 263 263 263 263 264 266 267

5 Thermische Kraftwerke. Wärmepumpe . . . . . . . . . . . . . . . . . . . . . . 271 5.1 Dampfkraftprozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271 5.1.1 Rankine-und Clausius-Rankine-Kreisprozess . . . . . . . . . . . . . . . . 271 5.1.2 Zwischenüberhitzung und Speisewasservonvärmung . . . . . . . . . . 274 5.2 Gasturbinenprozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 Einfacher offener Gasturbinenprozess(Joule-Prozess) . . . . . . . . . 5.2.1.1 Idealisierter Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1.2 Realer Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1.3 Wirkungsgrad, Leistung . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.2 Rekuperation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.3 Carnotisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

275 275 276 276 278 280 281

5.3 Kombiprozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282 5.4 Wärme-Krafi-Kopplung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284 5.4.1 Entnahme-Kondensationsschaltung . . . . . . . . . . . . . . . . . . . . . . . . 284

XI1

Inhaltsverzeichnis

5.4.2 5.4.3 5.4.4 5.4.5

Gegendruckanlage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286 Gasturbinen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287 Blockheizkraftwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288 Wärme-Kraft-Kopplung und CO, -Produktion . . . . . . . . . . . . . . . 288

5.5 Fossilgefeuerte Dampfkraftwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289 5.5.1 Luft-Brennstoff-RauchgasIAsche-Kreislauf . . . . . . . . . . . . . . . . . 289 5.5.2 Wasser-Dampf.Kreislauf, Verluste . . . . . . . . . . . . . . . . . . . . . . . . 289 5.5.3 Kühlwasserkreislauf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291 5.5.4 Blockregelung (Dipl . Ing. H . Kleinen) . . . . . . . . . . . . . . . . . . . . . 293 5.5.5 Dynamik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296 5.6 Kernkraftwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299 5.6.1 Energiegewinnung durch Kernspaltung . . . . . . . . . . . . . . . . . . . . . 299 5.6.1.1 Uranspaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299 5.6.1.2 Konversionsvorgänge . . . . . . . . . . . . . . . . . . . . . . . . . . . 301 5.6.2 Reaktorkonzepte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302 5.6.2.1 Leichtwasserreaktoren (PWR, BWR, EPR) . . . . . . . . . . . 302 5.6.2.2 Schwerwassereaktoren . . . . . . . . . . . . . . . . . . . . . . . . . . 305 5.6.2.3 Graphitmoderierte Reaktoren . . . . . . . . . . . . . . . . . . . . . 305 5.6.2.4 Schnelle Brutreaktoren . . . . . . . . . . . . . . . . . . . . . . . . . . 306 5.6.3 Dampfkreisprozess und Regelung . . . . . . . . . . . . . . . . . . . . . . . . . 306 5.6.4 Reaktorsicherheit und Brennstoffkreislauf . . . . . . . . . . . . . . . . . . 306 5.6.4.1 Reaktorsicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306 5.6.4.2 Brennstoffkreislauf und Entsorgung . . . . . . . . . . . . . . . . 307 5.6.5 Risiken der Kernkraft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309 5.6.5.1 Sicherheit des Kraftwerks . . . . . . . . . . . . . . . . . . . . . . . . 309 5.6.5.2 Brennstoffkreislauf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310 5.6.5.3 Abfallbeseitigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310 5.6.5.4 Kernwaffenherstellung . . . . . . . . . . . . . . . . . . . . . . . . . . 310 5.6.6 Wirkung der Radioaktivität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 5.6.6.1 Aktivität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312 5.6.6.2 Strahlendosis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313 5.6.6.3 Äquivalentdosis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313 5.6.6.4 Natürliche Radioaktivität . . . . . . . . . . . . . . . . . . . . . . . . 313 5.7

Kraftwerke mit kombiniertem Gas- und Dampfprozess (Dipl.1ng.H.Kleinen) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 5.7.1 GUD-Kraftwerk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 5.7.1.1 Allgemeines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 5.7.1.2 Technische Ausführung . . . . . . . . . . . . . . . . . . . . . . . . . . 316 5.7.1.3 Betrieb . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .317 5.7.2 GUD-Kraftwerke mit Zusatzfeuerung im Abhitzekessel . . . . . . . 318 5.7.3 Verbundkraftwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318 5.7.4 Kombikraftwerk mit atmosphärischem Dampferzeuger . . . . . . . 319 5.7.5 Kraftwerke mit Kohleumwandlung unter Druck . . . . . . . . . . . . . 319 5.7.6 Dynamisches Verhalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321

Inhaltsverzeichnis

XI11

5.8

Kraftwerksleittechnik (Dipl . lng. H . Kleinen) . . . . . . . . . . . . . . . . . . . . 322 5.8.1 Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322 5.8.2 Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323 5.8.3 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324

5.9

DieWärmepumpe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325 5.9.1 Energiewirtschaftliche Bedeutung . . . . . . . . . . . . . . . . . . . . . . . . 325 5.9.1.1 Exergetischer Vergleich . . . . . . . . . . . . . . . . . . . . . . . . . 325 5.9.1.2 Vergleich der Energie-Nutzungsgrade . . . . . . . . . . . . . . 328 5.9.2 Prinzip und Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331 5.9.2.1 Der idealisierte Kreisprozess . . . . . . . . . . . . . . . . . . . . . . 331 5.9.2.2 Der reale Kreisprozess . . . . . . . . . . . . . . . . . . . . . . . . . . 333 5.9.2.3 Leistungsziffer und Arbeitszahl . . . . . . . . . . . . . . . . . . . . 335 5.9.3 Einsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335 5.9.3.1 Verlauf der Außentemperatur . . . . . . . . . . . . . . . . . . . . . 336 5.9.3.2 Art und Bemessung der Wärmeverteilungsanlage . . . . . . 337

TEIL III Alternative Stromerzeugung 6 Windkraftwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341 6.1 Die kinetische Energie des Windes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.1 Theoretische Windleistung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.2 Windgeschwindigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.3 Energieangebot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1.4 Die Weibull-Verteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

341 341 342 343 344

6.2 Windradtypen und deren Leistung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346 6.3 Horizontalachsige Windrotoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349 6.3.1 Theorie von Betz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349 6.3.2 Tragflügeltheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351 6.4 Modeme horizontalachsige Windturbinen . . . . . . . . . . . . . . . . . . . . . . . . 353 6.5 Andere Windradtypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354 6.5.1 Der Darrieus-Rotor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354 6.5.1.1 Rotorgeometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 354 6.5.1.2 Kräfte auf die Flügelelemente . . . . . . . . . . . . . . . . . . . . . 356 6.5.1.3 Tragflügeltheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357 6.5.2 Der Savoniusrotor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358 6.5.2.1 Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358 6.5.2.2 Leistungsabgabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358 6.5.2.3 Drehmoment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360

XIV

lnhaltsverieichnis

6.6 Betrieb und Regelung. Auslegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360 6.6.1 Leistung und Betriebsarten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360 6.6.2 Leistungsregelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362 6.6.3 Netzbetrieb . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362 6.6.4 lnselbetrieb . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363

7 Photovoltaik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365 7.1 Physikalische Grundlagen, photoelektrischer Effekt . . . . . . . . . . . . . . . . 365 7.1.1 Photoleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366 7.1.2 Der P-N-Übergang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 368 7.2 Photovoltaischer Effekt, Photostrom . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369 7.3 Solarzelle, Gesamtwirkungsgrad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376 7.3.1 Kennlinie und Ersatzschema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376 7.3.2 Leerlaufspannung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378 7.3.3 Füllfaktor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380 7.3.4 Gesamtwirkungsgrad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381 7.3.5 Möglichkeiten zur Wirkungsgradverbesserung . . . . . . . . . . . . . . . 382 7.3.6 Solarzellentypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383 7.4 Die Sonne als Energiequelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385 7.4.1 Extraterrestrische Strahlungsintensität . . . . . . . . . . . . . . . . . . . . . . 385 7.4.2 Scheinbare Sonnenbewegung relativ zur Erde . . . . . . . . . . . . . . . . 386 7.4.3 Berechnung des Sonnenstands . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389 7.4.4 Berechnung der Strahlungsintensität . . . . . . . . . . . . . . . . . . . . . . . 389 7.4.5 Strahlungsenergie pro Tag . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391 7.4.6 Wirkung der Atmosphäre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393 7.4.7 Strahlungsintensität mit Atmosphäre . . . . . . . . . . . . . . . . . . . . . . . 394 7.5 Systemtechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397 7.5.1 Solarmodule und Solargeneratoren . . . . . . . . . . . . . . . . . . . . . . . . 397 7.5.2 Inselsysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397 7.5.3 Netzgekoppelte PV-Anlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398 7.5.4 Wechselrichter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399 7.5.5 Modellierung der Solarmodule . . . . . . . . . . . . . . . . . . . . . . . . . . . 401 8 Brennstoffzelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405

8.1 AufbauundTypen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405 8.2 Prinzip und Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407 8.2.1 Elektrochemische Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . 407 8.2.2 Lineares Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409 8.3 Brennstoffzellen für stationäre Anwendungen . . . . . . . . . . . . . . . . . . . . . 8.3.1 Phosphorsäure-Brennstoffzelle (PAFC) . . . . . . . . . . . . . . . . . . . . 8.3.2 Keramik-Brennstoffzelle (SOFC) . . . . . . . . . . . . . . . . . . . . . . . . 8.3.3 Systemtechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

410 410 411 412

Inhaltsverzeichnis

XV

9 Kernfusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413 9.1 Grundlagen des Fusionsprozesses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413 9.1. I Fusionsreaktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413 9.1.2 Energieverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414 9 .2 Der Fusionsreaktor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415 9.2.1 Prinzip des (d-t)-Fusionsreaktors . . . . . . . . . . . . . . . . . . . . . . . . . 415 9.2.1.1 Plasmareaktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417 9.2.1.2 Mantelreaktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 418 9.2.2 Energiebilanz des Plasmas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 418 9.2.3 Das Einschlussproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421 9.2.3.1 Der magnetische Einschluss . . . . . . . . . . . . . . . . . . . . . . 422 9.2.3.2 Der inertiale Einschluss . . . . . . . . . . . . . . . . . . . . . . . . . 425 9.3 Stand und Perspektiven der Kernfusion . . . . . . . . . . . . . . . . . . . . . . . . . . 425 9.3.1 Internationales Forschungsprogramm Kernfusion . . . . . . . . . . . . 425 9.3.2 Vorzüge der Fusion und technologische Probleme . . . . . . . . . . . 426

Teil lV Regelung und Stabilität des Energieversorgungssystems 10 Modellierung und Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . 429 10.1 Generatormodelle und sonstige Einspeisungen . . . . . . . . . . . . . . . . . . . 430 10.1.1 Kurzzeitmodelle der SM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 430 10.1.2 Langzeitmodell der SM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435 10.1.3 Sonstige Einspeisungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 436 10.1.3.1 Transformatoren mit Längsregelung . . . . . . . . . . . . . . 436 10.1.3.2 Transformatoren mit Schräg- oder Querregelung . . . . 436 10.1.3.3 Geregelte Kompensationsanlagen . . . . . . . . . . . . . . . . 437 10.1.3.4 Asynchronmaschinen . . . . . . . . . . . . . . . . . . . . . . . . . 437 10.2 Lastmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437 10.2.1 Statische Last . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437 10.2.2 Dynamische Last . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439 10.3 Netzdarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441 10.4 Simulationsprogramme (Dr. Ing. M . Pöller) . . . . . . . . . . . . . . . . . . . . . 442 10.4.1 Modellierung des elektrischen Netzes . . . . . . . . . . . . . . . . . . . . 444 10.4.2 Allgemeines Modell zur Analyse von Stabilitätsproblemen . . . 450 10.4.3 Numerische lntegration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 451 10.4.3.1 Explizite Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 451 10.4.3.2 Implizite Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 453 10.4.3.3 Vergleich der Verfahren . . . . . . . . . . . . . . . . . . . . . . 455

XVI

lnhaltsverzeichnis 10.4.4 Genauigkeit und Stabilität numerischer lntegrationsverfahren . . 455 10.4.4.1 Genauigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 456 10.4.4.2 Stabilität numerischer lntegrationsverfahren . . . . . . . 457 10.4.5 Simulationsalgorithmen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463 10.4.6 Behandlung von Nichtlinearitäten . . . . . . . . . . . . . . . . . . . . . . . 466 10.4.7 Dynamische Modellierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 468 10.4.8 Initialisierung (Berechnung von Anfangsbedingungen) . . . . . . 470 10.4.8.1 Beispiel Spannungsregler . . . . . . . . . . . . . . . . . . . . . . 471 10.4.8.2 Verallgemeinerung . . . . . . . . . . . . . . . . . . . . . . . . . . . 473

11 Drehzahl- und Frequenzleistungsregelung . . . . . . . . . . . . . . . . . . 475 11.1 Primärregelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 476 11.1.1 Wasserturbinen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 478 11.1.2 Dampfkraftwerk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 479 11.1.2.1 Festdruckregelung . . . . . . . . . . . . . . . . . . . . . . . . . . . 479 11.1.2.2 Gleitdruckregelung . . . . . . . . . . . . . . . . . . . . . . . . . . 481 11.1.3 Gasturbinen- und Kombikraftwerke . . . . . . . . . . . . . . . . . . . . . 482 11.2 Frequenzregelung im Inselnetz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 486 1 1.2.1 Primärregelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 486 11.2.2 Sekundärregelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 488 1 1.3 Frequenzleistungsregelung im Verbund . . . . . . . . . . . . . . . . . . . . . . . . . 489 12 Synchronisierung und Polradwinkelstabilität . . . . . . . . . . . . . . . 493 12.1 Synchrongruppe am starren Netz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 493 12.1.1 Torsionsschwingungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 493 12.1.2 Störungen des Gleichgewichts . . . . . . . . . . . . . . . . . . . . . . . . . 495 12.1.2.1 Statische Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . 496 12.1.2.2 Stabilität im Kurzzeitbereich . . . . . . . . . . . . . . . . . . . 497 12.1.3 Wirkung der Netzreaktanz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 499 12.1.4 Statische Stabilität der ungeregelten SM . . . . . . . . . . . . . . . . . . 499 12.1.5 Statische Stabilität mit Spannungsregelung . . . . . . . . . . . . . . . . 501 12.1.6 Verhalten im Kurzzeitbereich . . . . . . . . . . . . . . . . . . . . . . . . . . 503 12.2 Dynamik der kleinen Störungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 504 12.2.1 Wirkung der Drehzahlregelung . . . . . . . . . . . . . . . . . . . . . . . . . 508 12.2.2 Wirkung der Spannungsregelung . . . . . . . . . . . . . . . . . . . . . . . 508 12.2.3 Wirkung des Pendeldämpfungsgeräts . . . . . . . . . . . . . . . . . . . . 509 12.3 Verhalten bei großen Störungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.3.1 Transiente Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.3.1.1 Rasche Änderung des Antriebsmoments . . . . . . . . . . 12.3.1.2 Kurzschluss im Netz . . . . . . . . . . . . . . . . . . . . . . . . . 12.3.1.3 Zu- und Abschaltung einer Zwischenlast . . . . . . . . . . 12.3.2 Stabilisierungsmaßnahmen . . . . . . . . . . . . . . . . . . . . . . . . . . . .

511 514 515 515 517 519

Inhaltsverzeichnis

XViI

12.4 Modellierung bei subsynchronen Schwingungen . . . . . . . . . . . . . . . . . . 522 12.4.1 Synchronmaschine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 522 12.4.2 Netzverbindung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 523 12.4.3 Polar-dq-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 524 12.4.4 Mechanik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 524 12.4.5 Hydraulisches oder thermisches System und Drehzahlregelung. 524 12.5 Transiente Analyse von Mehrmaschinensystemen . . . . . . . . . . . . . . . . . 525 12.5.1 Elektrisch statische Darstellung der Generatoren . . . . . . . . . . . 525 12.5.2 Netzdarstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 526 12.5.3 Die elektrische Leistung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 527 12.5.3.1 Netzdarstellung in Generatorkoordinaten . . . . . . . . . 528 12.5.3.2 Gesamtsystem in Parkvektordarstellung . . . . . . . . . . 529 12.5.4 Systeme mit m > 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 534 12.5.5 Spannungsunabhängigkeit der Last . . . . . . . . . . . . . . . . . . . . . . 534 12.5.6 Stabilität im Großen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 535 12.5.7 Ordnungsreduktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 538 12.5.7.1 Kohärente Generatoren . . . . . . . . . . . . . . . . . . . . . . . 538 12.5.7.2 Transiente Analyse und Kohärenz . . . . . . . . . . . . . . . 539 12.5.7.3 Berechnung der synchronisierenden Leistung . . . . . . 540 12.6 Lineare 12.6.1 12.6.2 12.6.3

Analyse von Mehrmaschinensystemen . . . . . . . . . . . . . . . . . . . Berücksichtigung von Spannung und Leistung . . . . . . . . . . . . . Netzreduktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ordnungsreduktion der Generatorübertragungsfunktionen . . . .

541 545 546 546

12.7 Polradwinkelstabilität und ihre Analyse in der Praxis des Netzbetriebs (Prof . Dr.-Ing. H. Weber) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 548 12.7.1 Entstehungsursachen von Polradwinkelpendelungen . . . . . . . . . 549 12.7.2 Einfluss von Leistungstransit auf die Polradwinkelstabilität . . . 554 12.7.3 Einfluss der Verbraucherstruktur auf die Polradwinkelstabil .... 557 12.7.4 Identifizierung destabilisierender Spannungsregler in Mehrmaschinensysternen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 560 13

Spannungsregelung und Spannungsstabilität . . . . . . . . . . . . . . 563

13.1 Erregersystem und Spannungsregelung der SM . . . . . . . . . . . . . . . . . . . 13.1.1 Erregersysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.1.1.1 Erregersystem mit Gleichstromgenerator . . . . . . . . . . . 13.1.1.2 Erregersystem mit Wechselstromgenerator . . . . . . . . . . 13.1.1.3 Statische Erregung (Stromrichtererregung) . . . . . . . . . . 13.1.2 Spannungsregelung der Synchronmaschine . . . . . . . . . . . . . . . 13.1.2.1 Übertragungsfunktion der Synchronmaschine . . . . . . . . 13.1.2.2 Reglerauslegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.1.2.3 Verhalten bei kapazitiver Belastung . . . . . . . . . . . . . . . 13.1.2.4 Wirkung der Drehzahl . . . . . . . . . . . . . . . . . . . . . . . . . . 13.1.2.5 Kopplung mit dem Synchronisierkreis . . . . . . . . . . . . . 13.1.2.6 Netzverbindung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

564 564 564 565 565 566 567 570 572 573 574 575

XVIII

Inhaltsverzeichnis

13.2 Regelung von Stufentransformatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . 576 13.2.1 Reglerauslegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 576 13.2.2 Lastflussberechnungmit Regeltransformator . . . . . . . . . . . . . . 578 13.3 Geregelte Kompensationsanlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 580 13.3.1 Parallelkompensation mit SVC . . . . . . . . . . . . . . . . . . . . . . . . 580 13.3.2 Statischer Konverter (STATCON) . . . . . . . . . . . . . . . . . . . . . . 583 13.3.3 Seriekompensation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 584 13.4 Statische Spannungsstabilität einer SM . . . . . . . . . . . . . . . . . . . . . . . . . 586 13.4.1 (u,p)-Kennlinien bei konstantem Leistungsfaktor . . . . . . . . . . 587 13.4.1.1 Spannungsunabhängige Wirklast . . . . . . . . . . . . . . . 589 13.4.1.2 Wirklast mit spannungsabhängigem Lastanteil . . . . 590 13.4.1.3 Verhalten bei reiner lmpedanzlast . . . . . . . . . . . . . . 590 13.4.1.4 Wirkung von Transf. mit variabler Übersetzung . . . 590 13.4.2 (u,q )-Kennlinien bei vorgegebener Wirklast . . . . . . . . . . . . . . 591 13.4.3 Darstellung mit der Generatorblindleistung . . . . . . . . . . . . . . . 594 13.4.3.1 Sicherheitsindizes . . . . . . . . . . . . . . . . . . . . . . . . . . 597 13.4.3.2 Lastkennlinien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 597 13.5 Statische Spannungsstabilität im vermaschten Netz . . . . . . . . . . . . . . . . 598 13.6

Dynamik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 600 1 3.6.1 Kurzzeitanalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 601 13.6.2 Langzeitinstabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 601

Teil V

Betriebsplanung und -führung

14

Betriebsplanung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605

14.1

Mikroökonomische Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605

14.2

Betriebsoptimierung der vertikal integrierten Energieversorgung . . . . 607 14.2.1 Netzberechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 608 14.2.1.1 Leistungseinspeisung. Zweigleistung. Verluste . . . . 608 14.2.1.2 Verlustberechnung . . . . . . . . . . . . . . . . . . . . . . . . . . 609 14.2.1.3 DC-Leistungsfluss . . . . . . . . . . . . . . . . . . . . . . . . . . 610 14.2.2 Netzberechnung mit Spannungseinkopplung . . . . . . . . . . . . . 611 14.2.3 Optimaler Leistungsfluss (OPF) . . . . . . . . . . . . . . . . . . . . . . . 612 14.2.3.1 Wirkleistungsoptimierung mit Verlustfunktion . . . . 613 14.2.3.2 Berücksichtigung der Blindleistungen . . . . . . . . . . . 615 14.2.3.3 Begrenzung der Leistungsflüsse der Leitungen . . . . 616 14.2.3.4 Beispiel einer momentanen Optimierungsrechnung 61 7 14.2.4 Optimale Speicherbewirtschaftung . . . . . . . . . . . . . . . . . . . . . 622 14.2.5 Einsatzplan der thermischen Gruppen . . . . . . . . . . . . . . . . . . . 624 14.2.6 Die langfristige Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . . 626 14.2.7 Die mittelfristige Optimierung . . . . . . . . . . . . . . . . . . . . . . . . 628 14.2.8 Die Kurzzeit-Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 628

Inhaltsverzeichnis

XIX

14.2.9 Momentane Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 629 14.2.10 Tarifierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 629 14.3 Betriebsoptimierung bei Wettbewerb . . . . . . . . . . . . . . . . . . . . . . . . . . 630 14.3.1 Mathematische Grundlagen . . . . . . . . . . . . . . . . . . . . . . . . . . . 630 14.3.1.1 Verlustloses Netz ohne Kapazitätsbeschränkungen . 630 14.3.1.2 Berücksichtigung von Netzverlusten, Netzkosten und Generator-Leistungsbegre~lzungen. . . . . . . . . . 632 14.3.1.3 Optimalitätsbedingungen bei Engpässen . . . . . . . . . 633 14.3.2 Pool-Lösung und ausgehandelter Netzzugang . . . . . . . . . . . . . 634 14.3.3 Betriebsoptimierung bei ausgehandeltem Netzzugang (Dr . -1ng. J . Kreusel) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 634 14.3.3.1 Konsequenzen der Liberalisierung für Erzeugurigsplanung und Systembetriebsfuhrung . . . . . . . . . . . 635 14.3.3.2 Auswirkungen auf den Planungsprozess und die eingesetzten Werkzeuge . . . . . . . . . . . . . . . . . . . 636

15

FACTS-Elemente (Prof. Dr . -lng . D . Westermann) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 641

1 5.1

Übersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .641

15.2 Technologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 646 15.2.1 Halbleiterbauelemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 646 15.2.2.1 Dioden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 647 15.2.2.2 Thyristoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 648 15.2.2.3 Gate Turn-Off Thyristor (GTO) . . . . . . . . . . . . . . . . 649 15.2.2.4 lnsulated Gate Bipolar Transistor (IGBT) . . . . . . . . 650 15.2.2.5 lnsulated Gate Turn-Off Thyristor (IGCT) . . . . . . . 651 15.2.2 Spannungsumrichter, VSC . . . . . . . . . . . . . . . . . . . . . . . . . . . . 652 15.2.3 Steuerverfahren und Eliminierung von Oberwellen . . . . . . . . . 658 15.2.3.1 Grundschwingungsverfahren . . . . . . . . . . . . . . . . . . . 658 15.2.3.2 Pulsweitenmodulation (PWM) . . . . . . . . . . . . . . . . . 658 15.2.4 Berechnung der Verzerrung . . . . . . . . . . . . . . . . . . . . . . . . . . . 660 15.2.4.1 Spannurigsverzerrung . . . . . . . . . . . . . . . . . . . . . . . . 660 15.2.4.2 Netzseitige Stromverzerrung . . . . . . . . . . . . . . . . . . . 660 15.2.4.3 Stromverzerrung im Zwischenkreis . . . . . . . . . . . . . . 661 15.2.5 Schutz- und Leitsystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 663 15.3 Aufbau und stationäres Betriebsverhalten . . . . . . . . . . . . . . . . . . . . . . . 667 15.3.1 Shunt.Elemente, SVC und STATCOM . . . . . . . . . . . . . . . . . . 667 15.3.1.1 Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 667 15.3.1.2 Strom-ISpannungscharakteristik und Vierpolform . . 67 1 15.3.1.3 P-6-Diagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 672 15.3.2 Serie-Elemente TCSC und SSSC . . . . . . . . . . . . . . . . . . . . . . . 675 15.3.2.1 Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 675 15.3.2.2 Strom-ISpannungscharakteristik und Vierpolform . . 676 1 5.3.2.3 P-6-Diagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 679

XX

Inhaltsverzeichnis

15.3.3 Parallel-serielle Elemente PAR und UPFC . . . . . . . . . . . . . . . 1 5.3.3.1 Aufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.3.3.2 Strom-ISpannungscharakteristik und Vierpolform . . 15.3.3.3 P-%Diagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.3.4 Anwendung im Netz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.3.4.1 Abschätzung der Dimensionierung . . . . . . . . . . . . . 15.3.4.2 Analytische Lösung des Modellsystems . . . . . . . . . . 15.3.4.3 Verbundkupplung - große Kurzschlussleistungen . . 15.3.4.4 Identische Leitungen . . . . . . . . . . . . . . . . . . . . . . . . 15.3.4.5 Unterschiedliche Leitungen . . . . . . . . . . . . . . . . . . . 15.3.4.6 Leistungsflussregelung auf 380 kV-Doppelleitung . 15.3.4.7 Regelung mit unterschiedlichen Spannungsebenen . 15.3.4.8 Verallgemeinerung . . . . . . . . . . . . . . . . . . . . . . . . . .

681 681 682 685 691 691 692 694 695 697 698 699 699

15.4

Modellierung f h Effektivwertsimulationen . . . . . . . . . . . . . . . . . . . . . 15.4.1 Shuntelemente, STATCOM . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.4.2 Serieelemente, SSSC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15.4.3 Parallel-Serielle-Elemente, UPFC . . . . . . . . . . . . . . . . . . . . . . 15.4.4 Modellsynthese . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

701 701 705 708 713

15.5

Einsatzortbestimmung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 716 1 5.5.1 Shuntelemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 717 15.5.2 Serieelemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 718 15.5.3 Dynamische Betrachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 721

15.6

Verbesserung der transienten Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . 722 15.6.1 Allgemeine Betrachtung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 723 15.6.2 Allgemeiner Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 726 15.6.3 Ausfuhrungsbeispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 729 15.6.3.1 SVC, STATCOM, TCSC. SSSC und UPFC . . . . . . 730 15.6.3.2 QBT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 731 15.6.3.3 PAR 732

15.7 Verbesserung der Versorgungsqualität . . . . . . . . . . . . . . . . . . . . . . . . . 733 15.7.1 Störungsursachen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 734 15.7.2 FACTS zur Verbesserung der Versorgungsqualität . . . . . . . . . 736 15.7.2.1 Dynamic Voltage Restorer . . . . . . . . . . . . . . . . . . . . 736 15.7.2.2 Dynamic Uninterruptible Power Supply . . . . . . . . . 738 15.7.2.3 Solid State Transfer Switch . . . . . . . . . . . . . . . . . . . 741 15.7.3 Vergleich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 745 16

Leit- und Informationstechnik (Dr..lng. R. Apel) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .747

16.1

Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .747 16.1 .1 Aufgabe der Leit- und lnformationstechnik . . . . . . . . . . . . . . . 747 . . 16.1.2 Historie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 748 16.1.3 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 749

Inhaltsverzeichnis

XXI

16.2 Feld- und Stationsleittechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .749 16.2.1 Plattform & Systemarchitektur . . . . . . . . . . . . . . . . . . . . . . . . . 750 16.2.1.1 Horizontale Integration . . . . . . . . . . . . . . . . . . . . . . 750 16.2.1.2 Vertikale lntegration . . . . . . . . . . . . . . . . . . . . . . . . 750 16.2.1.3 IT-Sicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 750 16.2.2 Prozess- und Feldbusebene . . . . . . . . . . . . . . . . . . . . . . . . . . .751 16.2.2.1 Stationsbus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .751 16.2.2.2 1EC 61850 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .752 16.2.3 Netzschutz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .753 16.2.3.1 Verriegelung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .753 16.2.3.2 Synchrocheck (Synchronisationsüberprüfung) . . . . . 753 16.2.3.3 Allgemeine Schutzfunktionen . . . . . . . . . . . . . . . . . 754 16.2.3.4 Adaptiver Schutz . . . . . . . . . . . . . . . . . . . . . . . . . . . 755 16.2.4 Stationsebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .755 16.2.5 Anwendung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .756 16.2.5.1 Datentypen und Verarbeitung . . . . . . . . . . . . . . . . . . 756 16.2.5.2 Ereignis-IAlarmbehandlung . . . . . . . . . . . . . . . . . . . 763 16.2.5.3 Visualisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 765 16.2.5.4 StörverlaufsanalyseiStörschriebe . . . . . . . . . . . . . . . 766 16.2.5.5 Datenpflege . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 766 16.3

Phasenwinkelmessungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .767 16.3.1 Messgeräte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .767 16.3.2 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .768

16.4. Fernwirktechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .768 16.4.1. Infrastruktur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .768 16.4.2. Protokolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .769 16.4.2.1 Der neue globale Standard IEC 61850 . . . . . . . . . . . 770

17 Netzleittechnik für elektrische Energienetze (Dipl..Ing. 0. Vollmeier) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .771 17.1

Marktumfeld. Anforderungen an die Netzleittechnik . . . . . . . . . . . . . . . 771 17.1.1 Marktumfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .771 17.1.2 Prinzipielle Anforderungen an ein Netzleitsystem . . . . . . . . . . 772

17.2

Systemkonzeption für Netzleitsysteme . . . . . . . . . . . . . . . . . . . . . . . . . . 773

17.3

Systemarchitektur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 774 17.3.1 Domänenstruktur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 774 17.3.2 Komponentenarchitektur und Datenmodelle . . . . . . . . . . . . . . 775 17.3.2.1 Komponentenarchitektur . . . . . . . . . . . . . . . . . . . . .775 17.3.2.2 Struktur des Datenmodells . . . . . . . . . . . . . . . . . . . . 776

17.4

Domänen- und Funktionsüberblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . 777 17.4.1 Kommunikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .778

XXII

Inhaltsverzeichnis

17.4.2 Echtzeitverarbeitung (SCADA) . . . . . . . . . . . . . . . . . . . . . . . . 778 17.4.2.1 Grundverarbeitungen . . . . . . . . . . . . . . . . . . . . . . . . 778 17.4.2.2 Netztopologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 780 17.4.2.3 Bedienerausgaben . . . . . . . . . . . . . . . . . . . . . . . . . . 781 17.4.2.4 Steuern und Bedienen . . . . . . . . . . . . . . . . . . . . . . . . 783 17.4.2.5 Kontext-Management . . . . . . . . . . . . . . . . . . . . . . . . 786 17.4.3 Applikationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 788 17.4.3.1 Archivierung und Energieabrechnung . . . . . . . . . . . 788 17.4.3.2 Nachfrage- und Multi-Energie-Management . . . . . . 789 17.4.3.3 Verteilnetzfuhrung (Distribution Management System DMS) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 790 17.4.3.4 Transportnetzführung (Energy Management System EMS) . . . . . . . . . . . . . . . . . . . . . . . . . . . 790 17.4.3.5 Erzeugungs-Management (Generation Management System GMS) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 792 17.4.3.6 Trainingssimulator . . . . . . . . . . . . . . . . . . . . . . . . . . 792 17.4.3.7 Prozessdaten-Simulator . . . . . . . . . . . . . . . . . . . . . . 795 17.4.4 Benutzeroberfläche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 795 17.4.4.1 Web-fähige Benutzeroberfläche . . . . . . . . . . . . . . . . 796 17.4.4.2 Navigation über Pull-Down-Menüs . . . . . . . . . . . . . 798 17.4.4.3 Navigation über Pop-Up-Menüs . . . . . . . . . . . . . . . . 799 17.5 Bedien- und Anwendungsfunktionen

. . . . . . . . . . . . . . . . . . . . . . . . . . . 800

17.6 Daten-Management . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 802 17.6.1 Konfigurations-Management . . . . . . . . . . . . . . . . . . . . . . . . . . . 803 17.6.2 Phasen der Dateneingabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 803 17.6.2.1 Kundenanpassungen . . . . . . . . . . . . . . . . . . . . . . . . . 803 17.6.2.2 Dateneingabe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 804 17.6.2.3 Validierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 804 17.6.2.4 Aktivierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 804 17.6.3 Benutzeroberfläche des Daten-Managementsystems . . . . . . . . . 805 17.6.4 Massendatenimport . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 810 17.6.5 Standards und Technologien . . . . . . . . . . . . . . . . . . . . . . . . . . . 811 17.7

Systemkonfigurationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 812

17.8

SystemübergreifenderWorkflow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 814

17.9 Systemintegrationskonzepte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 816 17.10 Ausblick

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 817

Inhaltsverzeichnis

Teil VI

Anhang

Anhang I

Thermodynamik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

XXllI

821

1.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .821 I . 1.1 Zustandsgrößen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 821 1.1.2 Thermodynamische Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 822 1.1.3 Erster Hauptsatz, Energiebilan~. . . . . . . . . . . . . . . . . . . . . . . . . .823 1.1.3.1 Geschlossene Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . 823 1.1.3.2 Fließprozesse (offene Systeme) . . . . . . . . . . . . . . . . . . . 824 I .1.4 Entropie, zweiter Hauptsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 826

. 1.2 Kreisprozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 827 1.2.1 Kreisprozess von Carnot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .827 1.2.2 Exergiebegriff. Wirkungsgrade . . . . . . . . . . . . . . . . . . . . . . . . . . 828 1.2.3 Allgemeiner Kreisprozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 829 1.3 Teilprozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .830 1.3.1 Isothermer Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .830 1.3.2 Isobarer Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .831 1.3.3 Isochorer Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .831 1.3.4 Adiabate Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .832 1.3.4.1 Isentroper Prozess (reversible Adiabate) . . . . . . . . . . 833 1.3.4.2 Isoenthalper Prozess (adiabate Drosselung) . . . . . . . . . . 833 1.3.5 Polytrope Zustandsänderung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 834 1.4 Technische Kreisprozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .834

Anhang II Kernphysikalische Grundlagen . . . . . . . . . . . . . . . . . . . 837 11.1

Aufbau des Atoms und Bindungsenergie . . . . . . . . . . . . . . . . . . . . . . . . 837

11.2

Isotope . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .840

11.3

Radioaktivität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11.4

Kernreaktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .842

11.5

Wirkungsquerschnitt und Reaktionsrate . . . . . . . . . . . . . . . . . . . . . . . . .842

11.6

Die Kernspaltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .844 11.6.1 Die Spaltung von U2" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .844 11.6.2 Spalt- und Brutstoffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .846

841

Anhang III Dynamik und Regelungstechnik . . . . . . . . . . . . . . . . . . . . 849 111.1 Darstellung linearer Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .849

..

111.2 Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .851 111.3

Kopplung linearer Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .852

XXIV

Inhaltsverzeichnis

111.4 Modale Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 853 111.4.1 Modale Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 853 111.4.2 Modale Reduktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 854 111.5 Netzdarstellung für höhere Frequenzen

.........................

855

111.6 Elementare lineare Regelungstechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . 857 111.6.1 Vorgabe des Stellverhaltens . . . . . . . . . . . . . . . . . . . . . . . . . . . 858 111.6.2 Synthese im Frequenzbereich . . . . . . . . . . . . . . . . . . . . . . . . . . 860 Anhang IV Berechnung der Blindleistungen im Rahmen der linearen Analyse von Mehrmaschinensystemen . . . . . 863

. . . . . . . . . . . . . . . . . . . . . . . . . . 863 IV.2 Lineare Analyse des Mehrrnaschinensystems . . . . . . . . . . . . . . . . . . . . . 864 IV .1 Blindleistungsabgabe der Generatoren

Anhang V

Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

867

V.l

Lagrange-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 867

V.2

Optimaler Leistungsfluss (OPF)

Anhang VI

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 869

Gamma-Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 871

............................

Anhang VII

Lösung der Aufgaben

Anhang Vlll

Mollier.Diagramme. Kältemittel . . . . . . . . . . . . . . . . . . . . 877

873

TEIL I

Energiewirtschaft, Elektrizitätswirtschaft

1 Energiewirtschaft und Klimawandel

1 . Grundbegriffe, geschichtlicher Rückblick Abbildung 1.1 veranschaulicht die Struktur der Energiewirtschaft mit den heute verwendeten und den möglichen zukünftigen Energieträgern. Zu unterscheiden sind vier Energieumwandlungsstufen: Primarenergie, Sekundarenergie, Endenergie und Nutzenergie. Unternehmen, die sich mit der Gewinnung, der Umwandlung und dem Transport von Energieträgern befassen, bilden den Energiesektor der Wirtschajl. Sie haben die Aufgabe, dem Verbraucher die Energie in der gewünschten Energieträgerform zur Verfigung zu stellen (sog. Endenergie). Der Verbraucher wandelt die Endenergie mittels Nutzprozessen in Nutzenergie um. 1.I.I Energiesektor

Primäre Energieträger sind Energiequellen, die in der Natur vorkommen. Größtenteils werden sie nicht am Ort ihres Vorkommens verwendet, sondern zuerst gewonnen (z.B. gefordert), dann transportiert und ggf. in eine andere zweckmäßigere Energieform (sekundäre Energieträger) umgewandelt. Kohle und Erdgas werden meistens lediglich gefordert und zum Verwendungsort transportiert; Erdöl wird dagegen in Raffinerien zu Heizöl und Benzin umgewandelt; Natururan wird zu Kernbrennstoff NutzProzesse

Transport

primäre Energieiräger

Erdöl Kohle Erdgas Kernbrennstoffe Wasserkrafl Holz, Biomasse Müll, Industrieabfälle Umgebungswärme Wind Solarstrahlung Geothermie Meeresströmungsund Wellenenergie Fusionsbrennstoffe

Abb. 1.1.

Egzzger Heizöl Treibstoffe Elektrizität Stadtgas Koks Fernwärme Wasserstoff

Endenergie

(Energie am Verbraucher)

Energieformen, Energieumwandlungsstufen

Nutzenergie

Wärme mech. Arbeit chem. Energie Licht Informationsund Unterhaltungsenergie

4

1 Energiewirtschaft und Klimawandel

umgewandelt; Wasserkraft, Windkraft, Kernbrennstoffe und Müll erzeugen in Kraftwerken Elektrizität. Einige wenige Energieträger, wie z.B. Solarstrahlung und Umgebungswärme, können direkt am Ort ihres Auftretens als Wärme oder zur Erzeugung von Elektrizität genutzt werden. Neben den bereits erwähnten und wichtigsten rekunduren Energletragern wie Heizöl, Benzin und Elektrizität, ist in Abb. 1.1 auch Wasserstoff als ein in Zukunft möglicherweise bedeutender sekundärer Energieträger aufgeführt (Näheres in Kap.8). G'ewrnnung, C/m~~and/ung und Tran~portsind mit Kosten, Verlusten und Umweltbelastung verbunden. Forderung und Transport belasten unter normalen Umständen und professioneller Handhabung die Umwelt nur wenig, können aber bei Kriegshandlungen und Unfällen mit fossilen und nuklearen Brennstoffen zu schwersten Umweltbelastungen fuhren. Als Beispiele seien erwähnt: Tankerunfalle, Sabotage und Brände von Förderanlagen sowie von Öl- und Erdgas-Pipelines, Unfalle beim Transport radioaktiver Brennelemente. Bei der IJmwandlung ist vor allem die ständige Umweltbelastung durch die Verbrennung fossrler Brennstoffe schwerwiegend (Verbrennungsprodukte, klimaschädigendes CO,). Weitere punktuelle Quellen der Umweltbelastung können Unfalle in Kernkraftwerken, Öltankanlagen und Raffinerien sein. Ferner ist die Umwandlung der Wärmeenergie fossiler und nuklearer Brennstoffe in mechanische bzw. elektrische Energie aus thermodynamischen Gründen mit hohen Abwarmeverlusten verbunden (Abschn. 5.1 - 5.3). Mit entsprechenden Investitionen ist es möglich, diese Wärme teilweise zu nutzen (Wärmekraftkopplung, Abschn. 5.4). Als Endenergre oder Endverbrauch bezeichnet man die dem Verbraucher zur Verfugung stehende Energie. Natm~aleEnergrestalrstlken beziehen sich in der Regel aufden Endverbrauch undloder Primärenergie bzw. Bruttoverbrauch (Def. s. Abschn. 1.3.2). Entsprechende Zahlen unterscheiden sich erheblich auf Grund der bei der Umwandlung und beim Transport entstehenden Verluste, zu denen auch der Eigenversind sehr hoch brauch des Energiesektors gerechnet wird. Die Um~vandlung~sverluste Tran~portverhteergeben sich in erster Linie bei der Übertragung und Verteilung der elektrischen Energie, in der Schweiz z.B. mit einem Gesamtwirkungsgrad von 93%, wobei der größte Teil der Verluste im Verteilnetz entsteht.

1.I.2 Nutzprozesse Die Endenergie wird von den Energieverbrauchern (Haushalten, Industrie, Dienstleistungsbetrieben, Gewerbe, Landwirtschaft, Verkehr) durch Nutzprozesse in Nutzenergie umgewandelt, hauptsächlich in Wurme, mechanische Arbeit und Licht (Abb. 1.1). Ein kleiner Teil wird in Endprodukten in Form chevliischer Energie gespeichert (Stahl, Aluminium usw.). Mengenmäßig spielt diese, zumindest in der Schweiz, eine untergeordnete Rolle. Wenig Gewicht, dies dürfte sich aber in Zukunft etwas ändern, hat auch die Informations- und Unterhaltungsenergie (für Computer, Freizeitelektronik und Kommunikation) [ I .20]. Nutzprozesse haben sehr unterschiedliche Wirkungsgrade. Während z.B. in einem elektrischen Heizgerät Elektrizität zu 100% in Wärme umgewandelt wird, können durchschnittlich nur Ca. 20% der Energie des Benzins in einem heutigen Auto als

1.1 Grundbegriffe, geschichtlicher Rückblick

5

mechanische Arbeit verwertet werden, und eine normale Glühbirne wandelt gar nur Ca. 5% der elektrischen Energie in Licht um (wobei allerdings die Restenergie, zumindest im Winter, in Gebäuden als Heizenergie nicht verloren ist). Die NutzProzesse sind also z.T. mit großen Energieverlusten verbunden; der mittlere Wirkungsgrad ist z.B. in der Schweiz 1997 auf 56% geschätzt worden [1.20]. Die Verbrennung der fossilen Brenn- und Treibstoffe ist außerdem wegen der Gasemissionen lokal und glohal (Erzeugung von CO,) in hohem Maße umweltbelastend (Abschn. 1.7).

1.1.3 Geschichtlicher Rückblick Die Verwendungszwecke der Endenergie haben sich seit den Anfangen der Menschheitsgeschichte nur wenig und langsam verändert. Lediglich die Auswahl von Energieträgern ist viel größer, und die Techniken der Energieumwandlung und -nutzung sind vielfältiger, effizienter und bequemer geworden. Mechanische Arbeit

Heute wie früher wird mechanische Arbeit für die Beschaffung und Erzeugung von Gütern und die Erbringung von Dienstleistungen sowie den Transport von Gütern und Personen verwendet. Menschliche und tierische Muskelarbeit waren in fast allen frühen Gemeinschaften, bereits für die Jäger- und Sammlervölker und noch ausgeprägter für die Ackerbauern, die Voraussetzung für das Überleben. Stadtzivilisationen konnten im Altertum nur dank der Sklavenarbeit bestehen und sich weiterentwickeln. Im Laufe der Zeit gelang es, durch zahlreiche mechanische Erfindungen wie Rad und Hebel später mechanische Maschinen aller Art, die Muskelkraft wirksamer einzusetzen und die Produktivität zu erhöhen, ebenso die Naturkräfte Wasser und Wind nutzbar zu machen (Wasser- und Windrad, Segelschiffahrt), d.h. neue Energiequellen zu erschließen. Viel später, erst im Laufe des 18. Jh., begann man Muskelarbeit durch leistungsfähigere Dampfmaschinen zu ersetzen. Ab Ende des 19. Jh erlaubten Elektromotoren die Produktivität stark zu steigern und im 20. Jh. Verbrennungsmotoren die Mobilität sehr stark zu erhöhen. Wärme und Licht

Heute wie früher dienen Warme und Licht dem Schutz vor Kälte, der Ernährung, der Erhöhung der Sicherheit, der Verbesserung der Arbeitsbedingungen, dem Wohlbefinden des Menschen und damit der Entfaltung kultureller Tätigkeiten. Energiequellen waren zunächst Holz, Pflanzenabfalle und getrockneter Dung. Heißwasserquellen wurden schon im Altertum genutzt. Kohle kam erst Ende des 17. Jh. und nur zögernd dazu, Erdöl, Erdgas und Elektrizität wurden erst im 20. Jh. in großem Umfang für die Wärineerzeugung eingesetzt. Wärme meist hoher Temperatur wurde ferner für die Produktion von Gütern eingesetzt (Metalle, Tonwaren, Schmuck- und Kunstgegenstände). In diesem Zusammenhang spricht man heute von industrieller und gewerblicher Prozess~~arme (im Gegensatz zur Koch- und Komfortwarme).

6

1

Energiewirtschaft und Klimawandel

Zusammenfassung Die Struklur der Energiebereitstellung und -nutzung änderte sich während Jahrtausenden nur wenig, bis die Erkenntnisse der Naturwissenschaft ab Ende des 18. Jh das technische Zeitalter einleiteten. Ansätze dazu gab es bereits in der Antike und im Mittelalter. Aber erst in neuerer Zeit wurden revolutionäre technische Hilfsmittel für die mechanische Nutzung der Brennstoffwärme erfunden (Dampfmaschine, später Verbrennungsmotoren). Es gelang, neue (sekundäre) Energieträger wie Stadtgas, und Elektrizität zu erzeugen und kapillar zu verteilen. Besonders die Elektrii~lutvereinfachte und forderte die Energienutzung in einem bis dahin kaum gekannten Ausmaße und ermöglichte zusammen mit der Kohle die industrielle Revolution. Zur Erzeugung von Elektrizität errang die Wasserkraft in vielen Ländern große Bedeutung. Die Kohle, zunächst wichtigster primärer Energieträger, wurde nach dem Zweiten Weltkrieg, also in der zweiten Hälfte des 20. Jahrhunderts, mehr und mehr durch das Erdol ersetzt, behält aber in vielen Ländern eine vorrangige Stellung für die Elektrizitätsproduktion. Schließlich gelang es, neue primäre Energiequellen wie Erdgas und Kernspaltung zu erschließen und zu nutzen. Die Struktur der Energiewirtschaft wandelte sich im Laufe eines Jahrhunderts grundlegend. Muskelkraft von Mensch und Tier werden auch heute noch eingesetzt (Beispiel: das Fahrrad als Transportmittel), doch werden sie als nichtkommerzielle Energie von den energiewirtschaftlichen Statistiken nicht erfasst. Wind- und Wasserkraft werden nur soweit berücksichtigt, als sie zur Produktion von Elektrizität beitragen.

1.I.4 Perspektiven und Probleme Der zivilisatorische Prozess des 20. Jh. wäre ohne billige Energie wesentlich langsamer vor sich gegangen. Der Energieeinsatz der lndustriegesellschaften stieg im Laufe dieses Jahrhunderts auf mehr als das Zehnfache. Er befreite den Menschen von der Last schwerer körperlicher Arbeit und trug entscheidend zu einem bis dahin unvorstellbaren Massenwohlstand bei. Obwohl dieser Prozess vorerst nur einen Teil der Welt erfasst, wurden damit die Grundlagen für eine weltumfassende Verbesserung der materiellen Lebensbedingungen gelegt. Wesentliches Element dieses Fortschritts war zunächst die Mechanisierung der körperlichen Arbeit, später deren Ersatz durch die Automatisierung. Damit verbunden sind eine rasche Änderung der sozialen Strukturen und eine fortschreitende Intellektualisierung der Arbeit im allgemeinen. Die dadurch entstehenden sozialen Probleme stellen eine Herausforderung für die sozioökonomische Ordnung auch der entwickelten Welt dar und lassen sich nicht allein durch eine oft unbedachte Globalisierung lösen. Weitere Schattenseiten dieser Entwicklung traten in den letzten Jahrzehnten durch die Uberbeun~~ruchung und Verg@ng der Biosphäre und durch die Bedrohung der Klimustabilität zu Tage. Im Rahmen der politischen Forderung nach sozialer undökologischer Nachhalligkeit wird versucht, dies zu korrigieren. Der Beitrag der Energiewirtschaft besteht in der Verwirklichung einer die Umwelt so wenig als möglich belastenden Energiebereitstellung und einer urnweltvertrüglichen Energienutzung (Abschn. 1.6 und 1.7). Von großer Bedeutung ist in diesem Zusammenhang die ralionelle Nutzung der Energie, d.h. die Verbesserung der Wirkungsgrade aller Prozesse.

1.2 Verfügbarkeit der Primärenergie

7

1.2 Verfügbarkeit der Primärenergie Alle in Abb. 1. I aufgeführten primären Energieträger können letztlich auf die zwei im Universum auftretenden Hauptformen, Gravitations- und Kernenergie, zurückgeführt werden, wie in Abb. 1.2 dargestellt, wobei die zweite die viel wichtigere ist. Die primären Energieträger lassen sich in zwei große Klassen einteilen, die im Folgenden besprochen werden: - nicht erneuerbare Energien: fossile und nukleare Energieträger, - erneuerbare Energien: Gezeitenenergie, geothermische Energie und vor allem direkte und indirekte Solarenergie. Tabelle 1.I zeigt die Energieinhalte wichtiger Energieträger. Da in der Literatur verschiedene Einheiten verwendet werden, sind Umrechnungsfaktoren angegeben. Tabelle 1.1. Energieinhalte von Energieträgern (mittlere Werte [ I .3])

und Umrechnungsfaktoren Erdöl Stcinhohlc Braunkohle Holz Kehricht Erdgas Gas aus Kohle und Erdöl (Stadtgas) Uran 235

Gravitationsenergie

1 0 000 kcalikg

6 700 kcallkg 4 800 kcallkg 3 600 kcallkg 2'840 kcalikg 8 660 kcalini'

4 200 kcal/ni3 20 Tcalikg

1

1

I

~ ~ erneuerbar

Kernenergie

I

1

erneuerbar nicht

/

L

Zeitverzogerung SolarStrahlung

Abb. 1.2.

mit kurzer Zeitverzogerung

sehr lange Zeitverzogerung

Umgebungswarme Wasserkraft Biomasse (u.a Holz. organische Abfalle) Wind. Wellen Meeresstromunger

fossile Energietrager (Kohle, Erdol, Erdgas)

Ursprung der verfugbaren Primärenergiearten

Erdwarme (geothermische Energie)

8

1 Energiewirtschaft und Klimawandel

1.2.1 Nicht erneuerbare Energien 1.2.1.1 Zukünftige Nachfrage

Kohle, Erdöl, Erdgas und Spaltstoffe (Uran, Thorium) sind nicht erneuerbare Energien. Der Fusionsprozess konnte noch nicht realisiert werden (Kap. 9). Im Jahre 2004 stammten Ca. 87% des Primärenergiebedarfs aus nicht erneuerbaren Energien. Entsprechend den IEA-Szenarien (IEA = Internationale Energie Agentur) wird dieser Anteil bis 2030 nur gerinfügig zurückgehen: auf 86% gemäß Referenz-Szenario und auf 84% gemäß Alternativ-Szenario (Abb. 1.3, mehr Details in Abschnitt 1.5) Primärenergiebedarf ,weltweit 1 TW = 753 Mtoela

~emknergie

rn andere erneuerbare

2004

2030. IEA Rehreiu

20iH). IEA AIknativ

Kohle

Abb. 1.3. Weltenergiebedarf (Primärenergie)2004 und 2030, gemäß Referenz- und

Alternativszenario der IEA [ I . 101 Nimmt man beispielsweise an, der mittlere Energiebedarf von 15 TW im Jahre 2004 nähme bis 2050 linear auf 25 TW zu, ergäbe sich während dieser Zeitspanne ein kumulierter Energiebedarf von 920 TWa. Es stellt sich die Frage nach den Reserven und Ressourcen an erschöpflichen Energieträgern, ob und wie diese in der Lage sind, etwa 85% dieses Bedarfs, also rund 780 TWa zu decken. Diese Menge würde sich gemäß den IEA-Szenarien (Abb. 1.3) folgendermaßen verteilen: Kohle: 230 TWa, Erdöl: 280 TWa, Erdgas: 2 10 TWa, Uran: 60 TWa. 1.2.1.2 Reserven und Ressourcen

Als Reserven werden nachweisbare Vorkommen bezeichnet, die mittels heutiger Technologien zu heutigen Marktpreisen genutzt werden können. Ressourcen sind Vorkommen, die nachgewiesen, aber derzeit nicht wirtschaftlich gewinnbar sind, oder solche, die vermutet und „wahrscheinlich in Zukunft entdeckt undloder mit künftig entwickelten Technologien genutzt und zu Preisen, die dann üblich sind, verkauft werden" [I .22]. Die Größe der Reserven und Ressourcen wird laufend nach oben revidiert, wobei je nach Statistikverfasser Unterschiede in der Beurteilung festzustellen sind (Tabelle 1.2). Ressourcen nehmen zu durch Forschung und Prospektion, die zu einer besseren Kenntnis unseres Planeten fuhren. Ressourcen werden zu Reserven, wenn neue wirtschaftlich abbaubare Lagerstätten entdeckt werden, jedoch auch durch Technologiefortschritte oder höhere Marktpreise.

1.2 Vcrrugbarkeit der Primärenergie

9

Tabelle 1.2. Reserven und Ressourcen fossiler und nuklearer Energieträger. Die Dauer der Reserven basiert auf die konventionellen Reserven 2006 [BP, BGR] und auf dem mittleren Verbrauch der Periode 2004-2030 (mittlere Vorhersage IEA). Quellen: ":[I. I] und [1.8]. ':[I .5]), [1.23], [1.26], [OECDIIAEA] C

Reicrveii

1980 ' [IWa]

Reserven

C

Keservcn

1998 ' 1997

1990'

1996"

ITwa]

LTWa]

"

Reserven

Res-

2006"

sourcen 2006 d

[TWal

Reichweite i n Jahre der Re-

serven [TWal

Crdol honvent Erdol unkonv

1 18

181

1 85"1203b

2 16

109

19

68

1 80b

88

332

Erdgas konv. Erdgas unkonv.

89

142

170"/ 161'

219

4'

Kohle

647

1005

878"

Uran

39

61

63"

250

konv

36

48

1852 842'1676 85

8101

135

98

65

Die Zahlen der Tabelle 1.2 zeigen, dass mittelfristig dank der Kohle keine globale Knappheit droht. Der kritischste Energieträger ist das Erdöl. Der sogenannte "mid depletion point" (der dem Fördermaximum folgt und ab welchem eine Produktionserhöhung nicht mehr möglich ist) ist das Datum, an welchem die Hälfte der Reserven bereits verbraucht ist; es wird von den meisten Experten für 2025-2030 erwartet. Ab diesem Datum ist mit einem starken Anstieg des Preises zu rechnen. Beim Erdgas ist die Lage ähnlich mit dem Unterschied, dass die Reserven größer sind und der kritische Punkt erst 2040-2050 erreicht sein wird. Bleibt die Möglichkeit, Kohle in flüssige und gasförmige Brennstoffe umzuwandeln und der Technologie zur Trennung und Speicherung (Sequestration) des entstehenden CO,. Die entsprechenden industriellen Verfahren befinden sich aber noch in der Entwicklungs- und Testphase. Die technischen, ökonomischen und ökologischen Perspektiven sind deshalb noch ungewiss. Alles in allem scheint es sinnvoll und nachhaltig zu sein, auch aus der Sicht der Reserven, den weltweiten Verbrauch fossiler Energien schneller zu reduzieren als es die IEA-Studien vorsehen (s. dazu auch Abschn. 1.7). Die Uranreserven sind für einen Grenzpreis von 130 $/kg berechnet worden. Die Grenze ist aber ziemlich elastisch, da die Urankosten den Preis der vom Kernkraftwerk gelieferten elektrischen Energie nur wenig beeinflussen. Der kritische Punkt dürfte, wenn die von der IEA vorgesehene bescheidene globale Zunahme der Kernkraftwerkleistung eintrifft, relativ spät gegen Ende des Jahrhunderts erreicht sein. Der Spielraum für eine erhebliche Substitution fossiler Brennstoffe ist aber trotzdem nicht vorhanden, es sei denn, man fuhrt alternative Konzepte ein (4. Generation: Brütertechnologie, Hochtemperaturreaktoren und Thorium, s. Abschn. 5.6).

10

1 Energiewirtschafi und Klimawandel

1.2.1.3 Etlzisclze Aspekte und Umweltsclzutz Die Frage nach der Geschwindigkeit, mit der diese Reserven abgebaut werden dürfen, lässt sich aus rein ökonomischer Sicht gut beantworten (Hotelling-Regel und weitcrc Aspekte, s. z.B. [I 31). Dazu kommen ethische Erwägungen und Umweltaspekte:

- Aus ethischer Sicht muss gefragt werden, ob es zulässig ist, diesen Energievorrat der Menschheit, aufden spätere Generationen angewiesen sein könnten (Notvorrat, Rohstoffe) innerhalb von zwei oder drei Jahrhunderten radikal abzubauen. Dieser Aspekt ist insofern zu relativieren, als wir heute nicht wissen, ob überhaupt spätere Generationen auf diese Energie angewiesen sein werden oder nicht. Ist aber diese Haltung wirklich verantwortungsvoll? - Die schädlichen Auswirkungen der CO2-Emissionenauf das Klima, durch wissenschaftliche Studien (z.B. IPCC) erhärtet, rechtfertigen eine politische Intervention auf globaler Ebene, um den CO2-Ausstoß drastisch zu reduzieren (Abschn. 1.7). Aus heutiger Sicht ist es vor allem der zweite Aspekt, der dringend nahelegt, die ökonomische Betrachtungsweise durch Internalisierung der externen Kosten auch zukünftiger Klimaschäden zu korrigieren.

1.2.2 Erneuerbare Energien Erneuerbare Energien (Abb. 1.4) sind naturliche Energiestrome bestimmter Größe, die mit Einsatztechnischer Mittel und mit einem bestimmten ökonomischen Aufwand angezapf werden können. Die meisten Energien sind nicht überall, sondern nur an günstigen Orten verfügbar bzw. wirtschaftlich ausbeutbar. Die einzelnen Energien werden bzgl. ihrer Verfugbarkeit im Folgenden besprochen.

1.2.2.1 Gezeitenenergie Die Gravitationsenergie steht uns in Form von Gezeitenenergie zur Verfügung. Die Gezeitenreibung beträgt ca. 2.5 TW (d.h. die Rotationsenergie der Erde wird jedes Jahr um 2.5 TWa reduziert). Davon werden aber nur 9% als wirtschaftlich nutzbar eingeschätzt [I .23]. Für eine wirtschaftliche Nutzung muss der Tidenhub mindestens 6 m betragen. Demzufolge spielt die Gezeitenenergie im Zusammenhang mit dem künftigen Weltenergiebedarf (> 25 TW) kaum eine Rolle. Näheres z.B. in [ I . 151, [l.l6], [ l . B ] .

1.2.2.2 Geothermische Energie Der mittlere natürlichc Wärmcfluss ist sehr klein (ca. 0.06 WIm2). Er stammt zu 30% aus der Restwärme des Erdkerns und zu 70% aus dem Zerfall radioaktiver Isotope in der Erdkruste. Der thermische Gradient ist im Mittel 1 "C alle 30 m. Es sind also vor allem die geothermischen Anomalien (Vulkanismus, Geyser), die wirtschaftlich genutzt werden können. Im Jahr 2005 war weltweit eine Leistung von Ca. 28 GW installiert, wovon 17 GW thermisch (wichtigste Länder: China, USA, Schweden, Island) und 9 GW elektrisch (wichtigste Länder: USA, Philippinen, Indonesien, Mexico, Italien), mit einer Jahresproduktion (mittlere Leistung) von 6.6 bzw. 6.5 GW. Es handelt sich fast ausschließlich um hydrothermale Nutzung (heiße Quellen). In Zukunft könnte auch das Hot-Dty-Rock-Verfahren [ I . 141, [I .24] an Bedeutung gewinnen.

1.2 Vcrlugbarkeit der Primärenereie

11

Bei der geothermischen Energie handelt es sich um eine erneuerbare Energie, allerdings über relativ lange Zeiträume (Jahrzehnte bis Jahrhunderte), so dass auch kurz- bis mittelfristig nutzbare Ressourcen angegeben werden. Die hydrothermalen Ressourcen an Hochenthalpie-Vorkommen, > 150"C, die zur Stromproduktion genutzt werden können, betragen Ca. 30 TWa, und die Niederenthalpie-Vorkommen für die Wärmenutzung etwa 3200 TWa. Was davon als Reserven bezeichnet werden kann, lässt sich aus heutiger Sicht nicht quantifizieren [I S I . Vermutlich kann die installierte Leistung weltweit total bis auf 2 TW installierte Leistung gesteigert werden (ca. das 100fache des heutigen Wertes), was etwa 5 - 10 % der in Zukunft weltweit benötigten Energie decken würde. Dieser Anteil könnte aber dank der Wärmepumpe bedeutend größer sein. In einigen Ländern ist der Beitrag der geothermischen Energie sehr wichtig.

1.2.2.3 Solarenergie Die Solarenergie ist die einzige erneuerbare Energie, die bereits heute in Form von Wasserkraft und Biomasse einen wesentlichen Beitrag zur Deckung des Weltenergiebedarfs leistet (2004 Ca. 2 TWa [ l ,121). Das Angebot an Solarstrahlung übersteigt um mehr als das 10'000fache den heutigen Weltenergiebedarf und ist als einziges in der Lage, in der postfossilen Ära evtl. zusammen mit der Kernfusion die Energiebedürfnisse der Menschheit zu decken. Die Probleme bei der direkten Nutzung der Solarstrahlung sind wirtschaftlicher Natur und auf ihre geringe Dichte zurückzuführen. Wie in Abb 1.4 veranschaulicht, beträgt der Fluss an Solarstrahlung rund 173'000 TW. Von dieser Energie werden 52'000 TW direkt ins Weltall als kurzwellige Strahlung zurück reflektiert, während 12 1'000 TW von der Erde absorbiert, umgewandelt und, da sich die Erde im thermischen Gleichgewicht befindet, schließlich in Form langwelliger Wärmestrahlung an das Weltall wieder abgegeben. Solarstrahlung 173'000 TW direkte Reflexion 52'000 TW

I

1

~

langwellige Reflexion (Warmestrahlung) 121'000 TW

Umweltwärme 81'000 TW

Wettermaschine --

Wind, Wellen

400 TW

7

Photosynthese

Abb. 1.4. Solarenergiebilanz der Erde

40 TW

12

1 Energiewirtschaft und Klimawandel

Die absorbierte Strahlung wird zu etwa zwei Drittel als Niedertemperaturwurme in Luft, Wasser und Erde gespeichert und kann als solche z.B. mit Wärmepumpen genutzt werden. Das restliche Drittel hält die Wettermaschine durch die Wasserverdunstung sowie Druck- und Teinperaturunterschiede in Gang; die Energie tritt auf als potentielle Energie (Wassergehalt der Wolken, Fließgewässer und Gletscher) und als kinetische Energie (Winde, Meeresströmungen, Wellen). Nur ein Bruchteil von ca. 40 TW wird durch die Photosynthese absorbiert, welche Biomasse erzeugt und das Leben auf der Erde ermöglicht. Auf Grund ihrer Bedeutung sei das Potential und die Nutzung der Solarenergie näher besprochen.

1.2.3 Potential und Nutzung der wichtigsten Solarenergiearten Es wird unterschieden zwischen: der indirekten (verzögerten) Nutzung von

- Umgebungswärme (vor allem mit der Wärmepumpe) - Wasserkraft (mit Wasserkraftwerken) - Wind-, Wellenkraft und Meeresströmungen (vor allem mit Windkraftwerken) - Biomasse (Holz, Pflanzen, organische Abfalle) und

der direkten (unverzögerten) Nutzung von

- Solarstrahlung (Solararchitektur, Kollektoren, Photovoltaik). 1.2.3.I Wärmepumpe Die Wärmepumpentechnik ist eine ausgereifte Technik zur Nutzung der Niedertemperaturwärme. Sie erlaubt die Anhebung der Temperatur auf Werte, die für Heizungs- und Warmwasserbereitungszwecke genügen. Als Wärmequellen kommen Luft, Grundwasser, Oberflächenwasser und das Erdreich in Frage. Die Wärmepumpe ermöglicht die Nutzung der Umgebungswärme, Abfallwärme und auch geothermischer Wärme, wenn die Wärmefassung 100-150 In tief ist. Sie ist die reifste Technik für Niedertemperaturanwendungen zur Substitution fossiler Brennstoffe durch Solarwärme und geothermische Wärme. Das Potential an Umweltwärme ist enorm, wie in Abb. 1.13 gezeigt. Die Verbreitung der Wärmepumpe wird vor allem durch billige fossile Brennstoffe behindert. Auch die Tatsache, dass ca. ein Drittel der produzierten Wärme aus hochwertigen Energieträgern (Elektrizität oder Gas) gewonnen werden muss, wirkt in Ländern mit hohem Anteil an Elektrizitätsproduktion aus fossilen Brennstoffen bremsend. Für Näheres über Wärmepumpen s. Abschn. 5.9.

1.2.3.2 Wasserkraft Das Potential aller Fließgewässer der Welt wird auf ca. 6 TWa geschätzt (mittlere Leistung), wovon ca. 1-1.5 TWa einer wirtschaftlichen Nutzung zugänglich sind. [ I .23]. Effektiv genutzt werden (2005) weltweit 0.334 TWa (Hydroelektrizität). Das Entwicklungspotential liegt vor allein in den Entwicklungsländern, aber auch im Norden (Grönland, Kanada). Der Beitrag der Wasserkraft zur Deckung des Elek-

1.2 Verfügbarheit der Primärenergie

13

trizitatsbedarfs war 2004 weltweit 1696, in den OECD-Ländern 13% , in der EU-1 5 14%, in Deutschland 4%, in Österreich 59%, in der Schweiz 56% und in Norwegen 99%. Die Nutzung der Wasserkraft wird ausführlich in Kap. 4 behandelt. 1.2.3.3 Wind- und Meereskraft Die Nutzung der Windkraft ist in einigen Ländern mit günstigen Windverhältnissen sehr fortgeschritten (Deutschland, Spanien, USA, Dänemark) und die entsprechende Technik ausgereift. Die Wirtschaftlichkeit hängt von der Intensität und Regelmäßigkeit des Windangebots ab. Mittlere Windgeschwindigkeiten von mind. 5-6 mls sind dazu notwendig. Diese sind vor allem in Küstenregionen und einigen Bergregionen anzutreffen. Nimmt man an, dass weltweit 2-3%0der Wind- und Wellenenergie (400 TWa nach Abb. 1.4) wirtschaftlich genutzt werden kann, erhält man 1 TWa; wahrscheinlich kann man mehr nutzen. 1996 betrug die installierte WindkraftwerksLeistung weltweit 6 GW [I .23], konnte aber bis 2001 auf 20 GW gesteigert werden [1.27] und erreichte Ende 2005 59 GW (was einer Zuwachsrate von 30%/a entspricht). In 2006 hat inan bereits eine Leistung von 75 GW erreicht (wovon 20 GW in Deutschland), was einer Energie von etwa 12 GWa entspricht (Nutzungsfaktor 0.16). Die "Offshore" Installationen (Windenergienutzung im Meer) haben einen deutlich besseren Nutzungsfaktor). In Dänemark ist es vorgesehen, bis 2030 die Hälfte der elektrischen Energie von 3.6 GWa mit Windenergie zu decken, vor allem mit Offshore. In Frankreich rechnet man mit 23 GWa Windenergie in 2040. Über die Technik der Windenergienutzung zur Erzeugung elektrischer Energie steht Näheres in Kap. 6. Über mögliche Nutzung der Wellen und Meeresströmungen s. [I .29].

1.2.3.4 Biomasse Definition. Unter Biomasse werden Stoffe organischer Herkunft verstanden, also die Masse von Lebewesen und organischen Abfallstoffen (unter Ausschluss fossiler Brennstoffe). Potential. Die gesamte Biomasse auf der Erde wird auf rund 450 TWa geschätzt [I ,241 (1 TWa = 3 1.5 EJ), bei einem mittleren Heizwert von rund 3600 kcallkg (bezogen auf absolut trockene Biomasse). Wichtig ist vor allem der Zuwachs von rund 60 TWda. Der Umwandlungswirkungsgrad der Solarstrahlung liegt durchschnittlich bei 0.14%, ist aber für Wälder und Süßwasser höher (ca 0.5%) und am höchsten für tropische Wälder (bis 0.8%). Chemisch gesehen besteht die Biomasse zu 82% aus Polysacchariden (Zellulose und Hemizellulose) und zu 17% aus Lignin (Holzstoff) [ I . l SI. Nutzung. Das für die energetische Nutzung technisch verwertbare Potential an Biomasse in Form von Brenn- und Treibstoffen wird auf rund 6 TW geschätzt. Davon wären bei einer Weltbevölkerung von 10 Mrd. Menschen rund 2 TW aus Abfallen zu gewinnen. Biomasse stellt also eine der wichtigen Energiereserven der Menschheit dar, die etwa 25% des künftigen Bedarfs decken könnte. Die gegenwärtige Nutzung (zum großen Teil nichtkommerzielle Energie) dürfte (2005) bei 1.6 TW liegen. Die Verbrennung der Biomasse ist nur dann CO7-neutral, wenn die Wiederaufforstung gesichert ist.

14

1 Energiewirtschaft und Klimawandel

Teclztzisclze Verfaliren Zur Nutzung (Näheres z.B. in [1.15], [1.24]:

- Physikalische Biokonversion: Dazu gehört die Verdichtung zu Biobrennstoffen (Torf, Stroh, Holzabfalle + Briketts) und dic Extraktion von Ölen (Raps, spezielle Ölpflanzen + Dieseltreibstoft). Werden Ölpflanzen in großem Ausmaß kultiviert, muss vor der Gefahr von Monokulturen statt Artenvielfalt gewarnt werden. - Thermochemische Biokonversion: Insbesondere erwähnt seien die direkte Verbrennung (vor allem von Holz) offen oder in Öfen, die Vevgasung/Verflussigung mittels Pyrolyse, d.h. die thermische Zersetzung hochmolekularer Stoffe (auch von Altstoffen, z.B. Müll, Altreifen, Kunststoffen usw.) zu kleinmolekularen, und die Melhanolsynthese (zur Treibstofferzeugung). - Biologische Biokonversion: Es handelt sich um Niedertemperaturverfahren mit Hilfe von Mikroorganismen (Gärverfahren). Dazu gehören die Biogasgewinnung und die Erzeugung von Alhanolaus zuckerhaltigen Pflanzen (Zuckerrohr), das z.B. in Brasilien in großem Ausmaß zur Treibstofferzeugung eingesetzt wird. 1.2.3.5 Solarstrahlung

SpeziJisches Angebot an Solarenergie Werden die ankommenden 121'000 TW (Abb. 1.13) auf die Oberfläche der Erde gleichmäßig verteilt, erhält man für eine horizontale Fläche: mittlere Jahresleistung

=

12' 'OoTW 510. 106 km2

=

237 wlm2

Bezieht man sich nur auf die Tagesstunden (12 statt 24 h), ergibt sich eine doppelte mittlere Tag-Jahresleistung von 474 W/m2. Diese Zahlen stimmen für eine mittlere Breite bei klarem Wetter und auf Meereshöhe. Der effektive Mittelwert hängt außer von der geographischen Breite auch vom Klima ab. In Mitteleuropa (oft bedeckt oder neblig) ist eher mit der halben mittleren Jahresleistung von 120 W/m2 zu rechnen. Wird die mittlere Jahresleistung mit 8760 hla multipliziert, erhält man

mittlere Jahresenergie

=

237 Wlm2 * 8760 hla

=

2076 kWhla m 2 .

Diese Jahresenergie ist in mittleren Breiten aus den erwähnten Gründen nicht erreichbar, da dies nur bei ständiger Sonnenscheindauer möglich ist. Der Wcrt wird überschritten (bis über 2200 kWh/a m2)in Äquatornähe und bei Wüstenklima (Sahara, Arizona, Australien usw.).

Dichte der Solarstrc~hlung(Globalstrahlung) Der Erdquerschnitt ist Ca. 127-106km2.Außerhalb der Atmosphäre ergibt sich Extraterrestrische Struhlungsdichte

=

173L)00 127. 106 km2

=

1360 wlm2 .

Diese Größe wird auch als Solurkonstunte bezeichnet. An der Erdoberfläche (Meereshöhe) ist die Strahlungsdichte (ohne Reflexionen!) auf einer zur Strahlung senkrechten Flache:

Strahlungsdichte auf Meereshöhe

=

121 '00 TW 127. 106 km

=

950 wlm2 .

1.2 Verfuebarheit der Primärenereic

15

In der Schweiz rechnet man i.d.R. mit 1000 W/m2. Diese Globalstrahlung enthält einen direkten und einen diJJsen Anteil (diffuse Himmelstrahlung). Der diffuse Anteil ist unter mitteleuropäischen Klimaverhältnissen bedeutend (s. auch Abschn. 7.4.7). Diese Zahlen zeigen einerseits, dass das Potential an Solarstrahlung praktisch unbegrenzt ist, machen aber andererseits die Schwierigkeiten deutlich, die einer wirtschaftlichen Nutzung der Solarstrahlung entgegenstehen. Deren wichtigste Nutzungsarten sind nachfolgend aufgeführt:

Solururcltitektur Durch ein sonnengerechtes Bauen kann der Bedarf an Heizenergie stark gesenkt werden. Diese Möglichkeit sollte weit mehr als bisher genutzt und gefordert werden. Für Näheres sei auf die Spezialliteratur verwiesen sowie auf [I .9], [I. 141. Fluclrkollektoren Flachkollektoren sind in der Lage, direkte und diffuse Strahlung zu nutzen. Die Wärme wird an einen Wärmeträger (i.d.R. Wasser mit Frostschutzmittel) abgegeben. Hohe Wirkungsgrade werden bei Niedertemperaturanwendungen erreicht (bis 70% bei Freibaderwärmung, bis 60% bei Warmwasserbereitung, hingegen nur40- 50% bei Raumheizung), d.h. der Wirkungsgrad hängt stark von der Nutzungstemperatur ab. Solche Wirkungsgrade gelten allerdings nur bei voller Einstrahlung und sinken überproportional bei schwächerer Einstrahlung. Für Freibadenvärmung und Warmwasserbereitung (vor allem im Sommer) sind heute Kollektoren wirtschaftlich (Näheres s. [I .9], [I. 151, [I, 141). Konzentrierende Kollektoren Mit Parabolspiegeln (Parabolzylinder oder Paraboloide) wird die direkte Strahlung konzentriert (die diffuse kann nicht genutzt werden). So werden hohe Temperaturen erreicht, die zur Erzeugung von Prozesswärme und Elektrizität genügen. Die Spiegel müssen allerdings der Sonne nachgeführt werden. Als Wärmeträger wird meist ein Spezialöl verwendet. Anwendungsbeispiele sind Solarkochherde für Entwicklungsländer, Solarfarmen zur Produktion von industrieller Wärme und von Elektrizität (solarthermische Kraftwerke) mittels üblichem Dampfprozess [ I . 151, [I .2 I]. Mit Parabolzylindern (Parabolrinnen) werden Temperaturen von 100-400°C erreicht. Das Wasser wird in einem im Brennpunkt der Parabel liegenden Rohr erhitzt. Für höhere Temperaturen werden teurere Paraboloide oder Heliostaten eingesetzt, die sowohl zur Elektrizitätsproduktion als auch zur Durchfuhrung chemischer Prozesse [I .24] dienen. Solurtlr ermisclte Kraflwerke Zur Produktion von Elektrizität kann man Parabolrinnen, für größere Leistungen Solarturmanlagen einsetzen: mit Hilfe von Flachspiegeln, die der Sonne zweiachsig nachgeführt werden (sog. Heliostaten), wird die Strahlung auf die Spitze eines Turms konzentriert. Hier befindet sich ein Strahlungsempfänger (Receiver), der die Wärme aufein Arbeitsmedium (z.B. Dampf, Helium, flüssigesNatrium )überträgt. Es werden Temperaturen zwischen 500 und 1200°C erreicht [ l . 151. Damit können Dampf- oder Gasturbinen angetrieben werden, die Elektrizität auf konventionelle Art produzieren.

16

1 Energiewirtschaft und Klimawandel

Solarthermische Kraftwerke eignen sich vor allem für Gebiete mit großer Sonnenscheindauer und klarem Himmel, da sie die diffuse Strahlung nicht nutzen können. Verschiedene Pilotanlagen sind weltweit in Betrieb [1.9], [1,21]. Zwei 50 MW Kraftwerke sind in Spanien im Bau und etwa 300 MW geplant. Wirkungsgrade von Ca. 15% sind errechnet worden. Die Energiekosten liegen für Anlagen von 100 MW bei 20 ctIkWh [I .21]. Pltotovoltaik

Die Photovoltaik ermöglicht die direkte Konversion von Solarstrahlung in Elektrizität mittels Solarzellen. Mit kristallinen Siliziumzellen werden heute kommerzielle Wirkungsgrade bis 15% erreicht. Es wird erhofft, diesen Wirkungsgrad bis gegen 20% erhöhen zu können. Kristalline Zellen sind immer noch teuer und haben außerdem einen schlechten Energie-Erntefaktor, da zu ihrer Fabrikation viel Energie aufgewendet werden muss. Ihre Technik ist recht fortgeschritten, und die betrieblichen Erfahrungen sind gut. Die Fabrikation muss allerdings billiger und der Erntefaktor besser werden. Kommerzielle netzgekoppelte photovoltaische Anlagen von 500 kW Leistung mit kristallinen Zellen können heute Elektrizität zu einem Preis von rund 60 ctIkWh produzieren, was etwa einen Faktor 10 über dem heutigen Marktpreis bedeutet. Demzufolge sind sie nur in einem direkt oder indirekt subventionierten Markt (Einspeisevergütungen) absetzbar. Dass ein solcher besteht (2006 erreichte die weltweit installierte Solarzellen-Leistung etwa 6500 M W [ I . 1 SI), ist dem unbegrenzten Potential der Photovoltaik und ihren, auf Grund des erwarteten technischen Fortschritts, gut beurteilten langfristigen Aussichten sowie dem Ökogedanken (Solarstrombörse, Ökostrom) zu verdanken. Dieser Markt ist insofern von Bedeutung, als er einen wichtigen Anreiz für den technologischen Fortschritt darstellt. Es ist anzunehmen, dass auch die Massenfabrikation in Zukunft zu einer erheblichen Verbilligung fuhren wird. Für Näheres über Photovoltaik und photovoltaische Kraftwerke s. Kap. 7. 1.2.4 Ökologische Probleme Die Energiewirtschaft zählt zusammen mit der Chemie und der Agrarwirtschaft zu den Hauptverantwortlichen für die Belastung der Biosphäre mit Schadstoffen. Energiebereitstellungund -nutzung führen zur Verunreinigungder Atmosphare durch Emissionen aus der Verbrennung fossiler Brenn- und Treibstoffe und von Biomasse sowie durch Erdgasverluste. Nicht vernachlässigbar ist die Belastung des Meeres durch Tankerunfalle Haupteminionen cind - Kohlenoxide (CO,, CO) - Stickstoffoxide - Schwefelverbindungen - Methan - Ozon.

1.2 Verftugbarkeit der Primärenergie

17

1.2.4.1 Vorwiegend lokale Wirkungen Stickoxide, Schwefelverbindungen, CO und troposphärisches Ozon haben vorwiegend regionale Auswirkungen auf Gesundheit, pflanzliche Ökosysteme und Kulturgüter, werden aber teilweise durch Winde auch über größere Distanzen verfrachtet. Die schädlichen Auswirkungen wurden in den letzten Jahrzehnten in fortschrittlichen Ländern durch Entschwefelungs- und Entstickungsmassnahmen sowie Katalysatoren wirksam bekämpft. Anderer Natur ist die stratosphärische Ozonzerstörung (Ozonloch), die in erster Linie durch die Emission von Fluorkohlenwasserstoffe (FCKW) verursacht wird, und nur am Rande mit der Energienutzung gekoppelt ist (Näheres s. z.B. [1.24]).

1.2.4.2 Verstärkung des Treibhauseffektes Weit schwerwiegender für das Klima sind die Folgen der sogenannten TreihhausgasEmissionen. Darüber existiert eine umfangreiche Literatur. Eine gute Zusammenfassung bietet der vierte IPCC-Bericht (Intergovernmental Panel on Climate Change) von 2006-2007 [ I . 131, wobei auch andere Forschungen und Berichte dessen Erkenntnisse stützen. Der Bericht kommt zum Schluss, noch eindringlicher als frühere Berichte, dass die beobachtbare Erderwärmung mit größter Wahrscheinlichkeit menschengemacht ist. Wichtigstes Treibhausgas ist CO„ das zu 77% zur Verstärkung des Treibhauseffekts beiträgt. Weitere Beiträge werden von Methan (1 S%), FCKW (1 %), und N,O (7%) geliefert. Die CO,-Konzentration in der Atmosphäre ist 380 ppm (parts per million), d.h. um 36% höher als die vorindustrielle (280 ppm, praktisch unverändert während der letzten 10'000 Jahre). Sie nimmt jährlich um 1.5-2 ppm zu. Simulationen für das Jahr 2100 ergeben, bei Annahme einer Verdoppelung der vorindustriellen Konzentration, je nach Szenario eine Erhöhung der mittleren Temperatur von 2 bis 6°C (wobei mit einer Wahrscheinlichkeit von 66% eine Erhöhung zwischen 2.4 und 4.1 "C zu erwarten ist). Ferner könnte sich der Meeresspiegel um Ca. 50 cm erhöhen und die Anzahl und Intensität von Extremereignissen zunehmen. Die bestehenden Unsicherheiten könnten sich zwar positiv, aber auch, z.B. als Konsequenz nichtlinearer Rückkoppelungen, wesentlich negativer auswirken. Eine mittlere Temperaturerhöhung um 2" entspricht für die mittleren Breiten einer Verlagerung der Isothermen um Ca. 350 km nach Norden bzw. einer Höhenverlagerung von Ca. 350 m, wobei sich sehr große, regionale Unterschiede ergeben können. Noch wesentlich dramatischer könnten die Folgen bei einem Kippen des K1~rna.v sein. Eine Ablenkung oder Verlangsamung oder gar langfristig ein Aussetzen des Golfstroms hätten z.B. katastrophale Folgen für Westeuropa. Die Konsequenzen dieser erdgeschichtlich gesehen extrem raschen Klimaänderung bedeuten zweifellos einen zusätzlichen Stress für die bereits stark geschädigten Ökosysteme (Artensterben, Wälder). Die Verteilung der Wasservorkommen und die Landwirtschaftsproduktivität könnten weltweit ungünstig verändert, und die sozioökonomischen Systeme zusätzlich gestresst werden, wobei vor allem jene Regionen leiden würden, die schwach sind und sich nicht oder zu wenig schnell an die veränderten Bedingungen anpassen können. Obwohl es auch Gewinner geben kann, ist die globale Bilanz sehr negativ.

18

1 Energiewirtschaft und Klimawandel

1.2.4.3 Nachhaltige Entwicklung Der Begriff Nachhaltigkeit nahm vor allem durch den Bericht der BrundtlandKommission iin Jahr 1987 politische Konturen an, wo die nachhaltige Entwicklung definiert wird als eine „die den gegenwärtigen Bedarf zu decken vermag, ohne gleichzeitig späteren Generationen die Möglichkeit zur Deckung des ihren zu verbauen", und ein Wachstum forderte, das soziale und ökologische Aspekte räumlich und zeitlich in die ökonomische Betrachtung integriert. Es geht somit um die Optimierung der Entwicklung im Dreieck Ökonomie~esellschaft-Ökologieund um globale und intertemporale Solidarität. Schwierigkeiten bereitet der Umsetzung dieses Zieles vor allem die Tatsache, dass ökonomisches, aber auch sozialpolitisches Denken zu oft kurz- bis mittelfristig ist, während die ökologischen Anforderungen besonders im Zusammenhang mit der Klimaproblematik eine langfristige Optimierung erfordern. Der vorhergehende Abschnitt hat die Notwendigkeit hervorgehoben, die Treibhausgasemissionen weltweit energisch zu senken, vor allem die CO,-Emissionen. Die Kosten dieser energetischen Transformation sind ziemlich hoch, aber noch höher wären die Kosten des Laissez-faire. Es geht nicht nur um die (rein egoistische) Anpassung an die Folgen der Klimaerwärmung, sondern vor allem darum, die Klimaerwärmung zu bremsen, sie im Rahmen des Möglichen zu dämpfen und somit die enormen Ausgaben tUr die infrastruktiirelle und soziale Anpassung zu vermeiden, die mehr als linear mit der mittleren Temperaturerhöhung anwachsen würden. Politische Initiativen, welche die Internalisierung der heutigen und zukünftigen externen Kosten, ein mit der Marktwirtschaft gut vereinbares Rezept, zum Ziele haben sind notwendig. Zur Bekämpfung der globalen Umweltschäden ist es theoretisch richtig, Kapital und Wissen dort einzusetzen, wo der größte Beitrag zur Verbesserung der Energieeffizienz und zur Reduktion der CO,-Intensität maximal ist (z.B. mit dem Handel mit Emissionszertifikaten). Fehlende Rahinenbedingungen, welche die Marktkräfte sozio-ökologisch richtig leiten, und politische Differenzen erschweren jedoch allzu oft die internationale Kooperation für die Umsetzung dieses an sich sinnvollen Postulats. Manchmal dient obiges Argument mehr als Alibi, um regional nichts zu tun. Beide Anstrengungen, die globale und die lokale (Abb. 1.5) sind notwendig. Die Regionalisierung ist zwar kurzfristig gesehen bzgl. des globalen Kapitaleinsatzes suboptimal, fordert allerdings die regionale lnnovationskraft im Umweltbereich, deren Ausstrahlung sich mittel- und langfristig auch global auszahlen dürfte (für energiewirtschaftliche Maßnahmen s. Abschn. 1.7). Globale lnvestitionen

Regionale lnvestitionen

V Kurzfristige Wirkungen Mittel-und langfristige Wirkungen durch Innovation

+ Abb. 1.5. Nachhaltige Investitionen

Energieeffizienz CO,-lntensitat

1.3 Energiebedarf, allgemeine Grundlagen

I.3

19

Energiebedarf, allgemeine Grundlagen

1.XI Allgemeines Vor der Betrachtung der energiewirtschaftlichen Lage Europas (Abschn. 1.4), der Welt (Abschn. I .5) und deren Perspektiven (Abschn. 1.6 und 1.7) sei der Energiebedarf der Schweiz, als Beispiel eines stark industrialisierten Landes, analysiert. Dies erlaubt uns, mit konkreten Zahlen die strukturellen Aspekte der Energienaclifrage zu veranschaulichen und die Faktoren, welche deren Evolution bestimmen, darzulegen.

1.3.2 Entwicklung und Aufteilung der Energienachfrage Durch die Industrialisierung stieg der Energiebedarf stark an. Abbildung 1.6 zeigt die Entwicklung des Bruttoenergiebedarfs der Schweiz seit 19 10. Mit Bruttoenergie wird der jährliche Verbrauch an einheimischen primären Energieträgern plus die ImportExport-Differenz an Primär- und Sekundärenergieträgern bezeichnet. Dieser Energiebedarf hat sich von 19 10 bis 2000 rund verzehnfacht. Da sich die Bevölkerung in der gleichen Zeitspanne gut verdoppelte, stieg der Pro-Kopf-Verbrauch ungefähr auf das Fünffache. Die Anstiegsrate lag durchschnittlich bei knapp 2% bis zum Zweiten Weltkrieg, stieg während der Hochkonjunktur-jahre 1950 - 1973 auf7%, um sich nach der Erdölkrise von 1973 wieder auf ca. 2% einzupendeln (logarithmischen Maßstab beachten). Deutlich sind im Diagramm die auf Weltkriege und Wirtschaftskrise der 20er Jahre zurückzufuhrenden Einbrüche zu sehen. Abbildung 1.7 zeigt den Energieeinsatz der Schweiz im Jahr 1998. Pro Einwohner beträgt er rund 5.1 kW (Energieeinsatz = Bruttoenergie + Elektrizitätsexporte, letztere ca. 2 1'000 TJ in 1998). Im Jahre 19 10 lag der Bruttoverbrauch bei ca. I kWIE). Die 7kW

9 M I ~Einwohner .

J Kopf ---------------

I

1

f

.

1910 20

. . . . " " . 30 40 1950 60

. *

70 80 90 2000

Abb. 1.6. Entwicklung des Rruttovcrbrauchs der Schweiz seit 1910 (TJ = Tera-Joule = 1 Mrd. kJ) [1.6]

Jahr

20

1 Energiewirtschaft und

Kliinawandel

-

Wasserkraft ---

erneuerbare Energie chem. Energie Licht Informationsenergie

P

Fernwärme I


20 kV Verteilung < 20 kV Kundenkosten

Abb. 3.26. Kostenstruktur der Stromversorgung

Andererseits steigt die Bedeutung der kundenabhängigen Kosten für Messung und Rechnungsstellung, welche weitgehend unabhängig von der bezogenen Energiemenge sind, mit abnehmendem Volumen an.

3.6 Strompreisgestaltung

97

3.6.2.3 Tarifstrukturen Elektrizitätstarife enthalten zwei bis drei Tarifelemente: - Grundpreis (€/Jahr): Der Grundpreis deckt die kundenabhängigen Kosten ab. Dies sind im Wesentlichen die Kosten für Messung und Abrechnung bzw. Rechnungsstellung. Der Grundpreis wird jährlich oder halbjährlich verrechnet. Bei Großkunden werden auch monatliche Rechnungen mit einem entsprechenden Monatsgrundpreis erstellt. Der Grundpreis ist normalerweise für alle Kunden einer Kundengruppe gleich groß, allerdings kommen auch Grundpreisstrukturen zur Anwendung, welche nach Energievolumen gestaffelt sind. - Energiepreis (€/kWh): Für die Tarifierung mit Energiepreis ist ein Energieverbrauchszähler notwendig. Aufwendigere Zähler, z.B. Doppeltarifzähler, lassen die Erfassung von verschiedenen Mengen zu, was die Anwendung von zwei oder mehreren Energiepreisen ermöglicht. Die Energieversorger bieten im allgemeinen Tarife mit verschiedenen Preisen für Tag- und Nachtenergie bzw. Wochenendenergie an. Aufgrund des allgemein höheren Verbrauchs im Winterhalbjahr, ist darüber hinaus eine Differenzierung zwischen Sommer- und Winterpreis angezeigt. Damit enthält das Tarifblatt unter Umständen Tarifgruppen mehrerer Energiepreise, die sich jeweils auf definierte Perioden beziehen. - Leistungspreis (€/kW): Wie bereits erläutert, sollte dem Leistungsbedarf eine große Rolle bei der Verteilung der Netzkosten zukommen, da die Netzhöchstlast die Netzkosten maßgeblich bestimmt. Dementsprechend wäre generell aus energiewirtschaftlicher Sicht ein Tarifelement wünschenswert, das auf dem Leistungsbedarf der einzelnen Kunden basiert. Die Fakturierung nach Leistungsbezug setzt jedoch eine aufwendige Messeinrichtung voraus, so dass ein Leistungspreistarif nur bei größeren Kunden sinnvoll ist. Tarife für Normalkunden weisen heute die beiden Tarifelemente Grundpreis und Energiepreis auf. Beim Energiepreis werden generell zwei Zeitzonen unterschieden, nämlich Hochtarif und Niedertarif. Größere Gewerbebetriebe und Industriebetriebe erhalten zusätzlich das Tarifelement Leistungspreis, der monatlich oder halbjährlich erhoben wird. Dieser Tarif wird aufgrund seiner drei Elemente Dreigliedtarif genannt. Mit Sondertarifen für abschaltbare Lieferungen ist es möglich die Lastspitze zu brechen. Die Kunden, welche diese Tarifoption annehmen, verpflichten sich, den Verbrauch nach Maßgabe des Versorgers in Engpassperioden zu reduzieren, bzw. werden durch das EW vom Netz getrennt. Sie profitieren allerdings im Allgemeinen von wesentlich günstigeren Energie- bzw. Leistungspreisen.

98

3 Elektrizitätswirtschaft, Liberalisierung

3.6.2.4 Beispielrechnung eines Tarifsystems In diesem Abschnitt soll exemplarisch das Vorgehen bei der Erarbeitung eines Tarifsystems mit Hilfe der beschriebenen Grundlagen erläutert werden. Es werden dabei keine regulatorischen Zwänge berücksichtigt, d.h. dieses Beispiel eines Stadtwerkes wird aus der Sicht eines vertikal integrierten Unternehmens behandelt. In den in Europa weitgehend liberalisierten Stromversorgungssystemen wird zumindest rechnerisches Unbundling empfohlen bzw. vorgeschrieben. In diesem Falle sind in den Inputdaten die eigenen Netzkosten der höheren Netzebenen durch die entsprechenden Netznutzungsentgelte zu ersetzen. Die Berechnungsschritte und damit die Resultate bleiben unverändert. Je nach den regulatorischen Vorgaben sind länderspezifische Aufteilungsschlüssel für die Kosten zu berücksichtigen und die Entgelte nach Netzebenen und Beschaffung getrennt auszuweisen. Folgender Ablauf ist faktisch vorgegeben: - Strukturierung der Selbstkosten des EW gemäss der Betriebsbuchhaltung nach Netzebene und Kundengruppe, - Definition des Verteilmodells für die Fixkosten, - Verteilung der Selbstkosten auf die Abgabeniveaus, - Berechnung der Durchleitungskosten pro Kundengruppe, - Berechnung der Tarife pro Kundengruppe. Zusammenstellung der Inputdaten Das Modell-Stadtwerk macht mit rund 20‘000 Kunden einen Jahresumsatz von knapp 200 GWh (Tabelle 3.6), wobei der Hauptteil der Energie im Niederspannungsnetz abgegeben wird. Es ist demnach zwischen drei Kundengruppen und zwei verschiedenen Netzanschlussniveaus, für welche jeweils eigene Durchleitungsgebühren und Tarife zu berechnen sind, zu unterscheiden. Tabelle 3.6. Kunden des Modell-Stadtwerks Mittelspannung Niederspannung Total Energie/ Energie/ Anzahl Kunde Energie/a Anzahl Kunde Energie/a Energie/a MWh

Haushalt Industrie Gewerbe/Dienstl. Total

10

5000

GWh

50 50

20000 50 1000

MWh

GWh

GWh

3 500 50

60 25 50 135

60 75 50 185

Für jede Kundengruppe wurde ein Standard-Lastgang definiert. Um die Übersichtlichkeit zu erhöhen, basieren die Berechnungen nur auf vier verschiedenen Tagesganglinien je Kunde. Es wurden je zwei typische Lastgänge an einem Werktag und am Wochenende für das Sommerhalbjahr und das Winterhalbjahr verwendet (Abb. 3.27), stellvertretend für die 365 Tagesganglinien im Jahr. Für die Summe aller Kunden ergibt sich eine Lastspitze im Feinverteilnetz (Niederspan-

3.6 Strompreisgestaltung

99

nung) von 39.5 MW und im Übertragungsnetz (Mittel- und Hochspannung) von 68.1 MW (Abb. 3.28). Für das Modell-Stadtwerk ergibt sich, abgeleitet aus typischen Kennzahlen, ein finanzieller Gesamtaufwand von 22 Mio. €/a (Tabelle 3.7), auf welchen die nachfolgenden Rechnungen basieren. Für die Beschaffung wurden Kosten von 4 Mio. € in Form von Fixkosten und von 6 Mio. € entsprechend 3.2 c/kWh in Form von variablen Kosten angesetzt. Die Netzkosten variieren zwischen 71 €/kW im Hochspannungsnetz und 272 €/kW im aufwendigeren Feinverteilnetz. Haushalte

Gewerbe/Dienstleistungen

100%

100%

80%

80%

60%

60%

40%

40%

20%

20% 0%

0% 0

5

10 15 Tageszeit

20

0

5

10

15

20

Tageszeit

Industrie 100% Winter-Werktag 80% Sommer-Werktag 60%

Winter-Wochenende

40%

Sommer-Wochenende

20% 0% 0

5

10

15

20

Tageszeit

Abb. 3.27. Lastganglinien der 3 Kundengruppen

Während die Energiekosten energieproportional (ct/kWh) verteilt werden, muss für die Aufteilung der Fixkosten ein Verteilschlüssel (siehe Abschnitt 2.3.1.) verwendet werden. Da das Modell-EW keine Kunden direkt ab dem Übertragungsnetz versorgt, sind gemäß den Überlegungen zum Stufendivisionsverfahren die Fixkosten der Energiebeschaffung sowie diejenigen der beiden oberen Netzebenen

100

3 Elektrizitätswirtschaft, Liberalisierung

auf alle Kunden zu verteilen. Die Kosten des Feinverteilnetzes werden ausschließlich dem Niederspannungskunden angelastet. 45

Winter

Sommer

Winter

Werktag

40

Sommer

Wochenende

35

MW

30

Mittelspannung

25 20 15 10 5

Niederspannung

0 Tageslastgang

Abb. 3.28. Lastverlauf im Mittel- und Niederspannungsnetz Tabelle 3.7. Selbstkosten des Modell-Stadtwerks GWh

ct/kWh

MW

€/kW

Beschaffung Fixkosten

4 [Mio.€]

185

2.2

42

94

variable Kosten

6 [Mio.€]

185

3.2

42

142

Übertragungsnetz (HS)

3 [Mio.€]

185

1.6

42

71

Grobverteilnetz (MS)

5 [Mio.€]

185

2.7

42

118

Feinverteilnetz (NS)

9 [Mio.€]

135

6.7

33

272

Netze

Total

22

Die Tabelle Abb. 3.22 zeigt die Bandbreite bei der Aufteilung der Fixkosten, welche sich durch die Anwendung der unterschiedlichen Verfahren ergibt. Für die Niederspannungskunden bildet das Kriterium Energiemenge die günstigste Variante, während der Mittelspannungskunde mit der Aufteilung nach Spitzenlastanteilen am günstigsten fährt. Das Ergebnis weist darauf hin, dass der Leistungsbedarf des Mittelspannungskunden gerade während der Netzhöchstlast unterproportional und sein Lastgang im Vergleich zur Summenlast der Niederspannungskunden gleichmäßiger ist. Insgesamt erscheint der Einfluss der Verteilmethode relativ gering. Die Bandbreite der Resultate steigt allerdings mit der Verschiedenartigkeit der Lastprofile der

3.6 Strompreisgestaltung

101

Kunden an. Folglich kommt der Wahl des Verfahrens dann eine hohe Rolle zu, wenn für vertraglich definierte Lastprofile (Energiebänder, Mittagsspitzen) Netzbenutzungsgebühren berechnet werden müssen. Tabelle 3.8. Verteilung der Kosten zwischen den Kunden im (MS) Mittel- und Niederspannungsnetz (NS)

Aufteilung der Fixkosten HS, MS und Beschaffung

MS [%]

NS [%]

Energiemengenverfahren

27

73

Höchstlastverfahren

24

76

Spitzenlastverfahren

22

78

Lastverlaufverfahren

26

74

Wendet man das Lastverlaufverfahren an und berücksichtigt man, dass die Niederspannungskunden die gesamten Kosten des Feinverteilnetzes tragen, ergibt sich die in Tabelle 3.9 dargestellte Verteilung der Fixkosten. Die Mittelspannungskunden werden insgesamt mit 3.1 Mio. € belastet. Für die Niederspannungskunden ergibt sich ein Gesamtbetrag in Höhe von 17.9 Mio. €. Legt man diese Kosten auf die Höchstlast der Kunden um, ergeben sich 322 €/kW (MS) bzw. 542 €/kW (NS). Bezogen auf die Energiemenge sind dies 6.1 ct/kWh (MS) bzw. 13.3 ct/kWh (NS). Die bezogenen Werte machen deutlich, dass ein Niederspannungskunde im Vergleich zu einem Mittelspannungskunden in etwa mit den doppelten Fixkosten für Netznutzung und Beschaffung rechnen muss. Tabelle 3.9. Verteilung der Gesamtkosten auf die Kunden im Mittel- und Niederspannungsnetz nach dem Lastverlaufverfahren

102

3 Elektrizitätswirtschaft, Liberalisierung

Die Aufteilung der Selbstkosten nach der gewählten Methode bildet nun die Basis für die Tarifgestaltung. Die Tarife in Tabelle 3.10 enthalten die Beschaffungskosten sowie die gesamten Netzkosten. Es lassen sich allerdings auch anhand der detaillierten Grundlagen für jeden Kunden und für jede Netzebene differenzierte Durchleitungstarife berechnen. Für den Haushaltskunden und für das Gewerbe wurde ein Zweigliedtarif mit einem Grundpreis und einem Energiepreis berechnet. Bei den Industriekunden wurde aufgrund der höheren Last pro Anschluss eine Leistungsmessung vorgesehen, wodurch die Anwendung eines Dreigliedtarifes mit einer zusätzlichen Leistungskomponente möglich ist. Tabelle 3.10. Tarife auf Basis des Lastverlaufverfahrens Niederspannung

MS

Haushalt

Gew/Dl

Industrie

Industrie

[€/a]

100

100

300

1000

Leistungspreis

[€/kW/a]

0

0

161

54

Energiepreis: Wi/HT

[ct/kWh]

21.4

23.4

12.4

6.3

Energiepreis: Wi/NT

[ct/kWh]

11.4

11.8

7.2

4.6

Energiepreis: So/HT

[ct/kWh]

14.4

15.6

8.9

5.1

Energiepreis: So/NT

[ct/kWh]

10.7

11.0

7.0

4.5

Grundpreis

Die kundenabhängigen Kosten für Energiemessung und Energieabrechnung führen direkt zum jeweiligen Grundpreis je Kundengruppe. Im Energiepreis sind die variablen Beschaffungskosten und die Fixkosten zusammengefasst. Beim Leistungspreistarif wurde allerdings nur die Hälfte 2 der Fixkosten in den Energiepreis eingerechnet. Die andere Hälfte wird über den Leistungspreis verrechnet. Das Tarifsystem enthält für alle Kunden vier Energiepreise. Es wurde zwischen Starkund Schwachlastzeiten 3 des Tages bzw. der Woche unterschieden, wobei zusätzlich dem saisonalen Lastverlauf durch differenzierte Winter- und Sommerpreise Rechnung getragen wurde. Die jeweilige Differenzierung wurde ebenfalls über das Lastverlaufverfahren ermittelt.

2 Bei der Verteilung der Fixkosten auf Energie- und Leistungspreis ist man aus energiewirtschaftlicher Sicht relativ frei. Die wesentlichen Kriterien sollten die erwünschte Lenkungswirkung des Tarifes sowie das subjektive Empfinden des Kunden sein. 3 Als Hochtarifzeit (Starklastzeit) wurde der Werktag zwischen 600 und 2200 Uhr definiert. Die Niedertarifzeit (Schwachlastzeit) umfasst die Nachtstunden des Werktages sowie das gesamte Wochenende.

3.6 Strompreisgestaltung

103

Bei der Berechnung des Leistungspreises ist zu berücksichtigen, dass sich die Kunden innerhalb einer Kundengruppe bereits verschachteln. Dadurch ist die Höchstlast der Kundengruppe wesentlich geringer als die Summe der Höchstlasten der einzelnen Kunden. Bei der Berechnung der Höhe des Leistungspreises der Industriekunden wurde ein Verschachtelungsfaktor von 2 4 angenommen. Die Resultate in Tabelle 3.10 machen den hohen Niveauunterschied zwischen den Mittelspannungs- und Niederspannungstarifen deutlich. Die Leistungspreise liegen um den Faktor 3 auseinander. Die Energiepreise unterscheiden sich im Durchschnitt innerhalb der gleichen Kundengruppe nur um den Faktor 2, da sowohl bei den Niederspannungstarifen als auch bei den Mittelspannungstarifen die variablen Beschaffungskosten einen gemeinsamen Sockel darstellen. Besonders auffällig ist die starke Differenzierung der Energiepreise innerhalb einer Kundengruppe. Für Haushaltskunden und Gewerbebetriebe ist der Energiepreis um die Mittagszeit im Winter mehr als doppelt so hoch wie an einem Wochenende im Sommer. Beim Leistungspreistarif erscheint die Differenzierung zwischen den Tarifperioden geringer. Da die Höchstlast des Kunden im Allgemeinen in der Hochtarifperiode des Winters auftritt, sind die Leistungskosten dieser Periode anzulasten. Dadurch nimmt die Differenzierung zwischen den Tarifzeiten effektiv zu.

4 Die Summe der Höchstlasten der einzelnen Kunden entspricht dem Doppelten der Höchstlast der Kundengruppe.

104

3 Elektrizitätswirtschaft, Liberalisierung

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

Fast 100 Jahre war die elektrische Energieversorgung weltweit als vertikal integriertes Monopol organisiert, oft auch in staatlicher Hand. Seit Beginn der 90erJahre des 20. Jh. gibt es jedoch, ausgehend von den hoch industrialisierten Staaten, einen weltweiten Trend, die vertikale Integration aufzubrechen, staatliches Eigentum zu privatisieren und wesentliche Teile der Elektrizitätswirtschaft wettbewerblich zu organisieren. Dieser Abschnitt erläutert die Hintergründe dieser Entwicklung und beschreibt die Konsequenzen, die sich daraus für die Akteure in der Elektrizitätswirtschaft ergeben. 3.7.1 Motivation für Privatisierung und Liberalisierung Grundlage allen Wirtschaftens ist das Streben nach Gewinn durch den Einsatz von Leistung und die Wahrnehmung von Chancen bei gleichzeitigem Eingehen der damit üblicherweise verbundenen Risiken. In praktisch allen Märkten, in denen Menschen wirtschaftlich zusammenarbeiten, ergibt sich daraus eine Situation, wie sie sehr allgemein in Abb. 3.29 dargestellt ist. Werden die Marktteilnehmer völlig unreguliert sich selbst überlassen, haben sie den größtmöglichen betriebswirtschaftlichen Freiheitsgrad für die Optimierung ihres Geschäftes. Allerdings kann es eine Vielzahl gesellschaftlicher Randbedingungen geben, welche es sinnvoll erscheinen lassen, den theoretisch möglichen Freiraum einzugrenzen. Solche Randbedingungen können z. B. der Schutz des Einzelnen vor der Übernahme zu großer Risiken sein, der Schutz anderer Marktteilnehmer vor nicht den gesellschaftlichen Normen entsprechenden Partnern oder aber auch - im Falle der Elektrizitätswirtschaft von großer Bedeutung – die Sicherstellung einer ausreichend zuverlässigen und umweltverträglichen Erbringung der gewünschten Leistung. Diese Randbedingungen schränken den Spielraum des Einzelnen ein und werden normalerweise in Form von Gesetzen festgelegt.

Systemgrenze bei reiner Individualoptimierung zulässiger Lösungsraum für Marktteilnehmer volkswirtschaftliche Forderungen, die den Optimierungsspielraum einschränken

Abb. 3.29. Einschränkung des Lösungsraums individuellen Wirtschaftens durch gesellschaftliche Randbedingungen

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

105

Die Elektrizitätswirtschaft hat im Lauf des 20. Jh. sowohl hinsichtlich der technischen Möglichkeiten, die ihr für Erzeugung, Übertragung und Verteilung zur Verfügung stehen, als auch in Bezug auf ihre Abnehmer eine enorme Entwicklung durchlaufen. In der ersten Hälfte des Jahrhunderts handelte es sich noch um eine Energieform, für die man im privaten Alltag nach Anwendungen suchte, und die vor allem in der Industrie ihren Einzug hielt. Erzeugung, Übertragung und Verteilung stellten höchste technische Anforderungen und bedeuteten damit auch ein großes wirtschaftliches Wagnis. Demgegenüber ist die Situation zu Beginn des 21. Jh. zumindest in den Industrieländern dadurch charakterisiert, dass elektrische Energie in oft schon industriell gefertigten Standardanlagen in praktisch jeder beliebigen Größe erzeugt und über eine allgegenwärtige Infrastruktur verteilt werden kann. Anwendungsseitig hat sich die elektrische Energie wegen ihrer Vielseitigkeit und des mit ihrer Nutzung verbundenen Komforts in fast allen Energieanwendungen etabliert. Zwangsläufig haben sich die gesellschaftlichen Rahmenbedingungen der Elektrizitätswirtschaft im Lauf der Zeit ähnlich stark verändert wie diese Industrie selbst. Die Gesellschaft hat damit zu jeder Zeit den jeweils aktuellen Besonderheiten dieser volkswirtschaftlichen Schlüsselbranche Rechnung getragen. Dabei haben sich international vier Grundmodelle der Marktorganisation herausgebildet, die in Tabelle 3.11 zusammengefasst sind. Sie gehen von folgender Grundannahme jeglicher Liberalisierung von Märkten für leitungsgebundene Energie aus: Auch bei der Versorgung mit elektrischer Energie sollte es, wie bei den meisten anderen Waren, möglich sein, das Geschäft mit der eigentlichen Ware – hier also der elektrischen Energie – von der Transportdienstleistung zu trennen und unterschiedlich zu behandeln. Die beiden Geschäftsgegenstände unterscheiden sich bei den leitungsgebundenen Energieträgern, zu denen die elektrische Energie gehört, wesentlich. Während die Transportinfrastruktur sehr aufwendig, orts- und in der Verteilung sogar verbrauchergebunden ist, ist die Energie heute mit normalem unternehmerischem Risiko erzeugbar und unter Voraussetzung eines entsprechend stabilen Systembetriebs auch von allen Anbietern in gleicher Qualität lieferbar. Damit unterscheidet sich das Geschäft mit der Energie kaum noch von anderen, wettbewerblich organisierten Märkten, während bei der Infrastrukturdienstleistung konkurrierende Systeme volkswirtschaftlich ineffizient wären und wohl auch kaum gesellschaftliche Akzeptanz fänden. Grundidee der Einführung von Wettbewerbselementen in die Elektrizitätswirtschaft, wie sie seit den 90er-Jahren weltweit beobachtet wird, ist deshalb die getrennte Behandlung des Handels mit Energie und der Transportdienstleistung. Tabelle 3.11 bezieht sich ausschl. auf den Handel und Vertrieb elektrischer Energie und nicht auf ihren Transport. Dass in den Strukturbildern trotzdem Übertragungs- und Verteilnetzbetreiber aufgeführt sind, ist darauf zurückzuführen, dass in diesen Fällen vertikal integrierte Unternehmen sowohl im Energie- als auch im Netzsektor tätig sind.

106

3 Elektrizitätswirtschaft, Liberalisierung

Tabelle 3.11. Grundlegende Marktmodelle für leitungsgebundene Energie Marktmodell

Monopol

Definition

Monopol

Alleinabnehmer

Großhandelswettbewerb

Wettbewerb zwischen Erzeugern

auf jeder Ebene mit Alleinabnehmer

Struktur 1

Erz. Erz. Erz. Erz.

Erz.

K

K

Erz.

VNB

VNB K

Erz.

Verteiler und Großkunden haben Erzeugerwahl Erz.

Alleinabnehmer

ÜNB VNB

Endkundenwettbewerb

K

K

Erz.

VNB K

K

Erz.

K

VNB

VNB K

Erz.

Erz.

Hand. Hand.

Hand.

K

K

K

alle Kunden haben Erzeugerwahl Erz.

Erz.

ESP K

Erz.

Erz.

Hand. Hand.

Hand.

ESP K

ESP

K

K

Modelltyp

unilateral

unilateral

multilateral

multilateral

Wettbewerb bei Erzeugung?

nein

ja

ja

ja

Haben Verteiler die Wahl?

nein

nein

ja

ja

Haben Endkunden nein die Wahl?

nein

nein

ja

Erforderlicher keine Entflechtungsgrad Entflechtung

Erzeuger ja, nicht auf Verbraucherseite

im Großhandel ja, nicht auf Verteilebene

volle Entflechtung bis zum Endkunden

Netzzugang Dritter erforderlich?

nein

ja

ja

nein

Das über Erzeugung und Verteilung ausgedehnte, somit vertikal integrierte, staatlich überwachte Monopol, in dem sich kein Marktteilnehmer seine Partner aussuchen kann, war die Konsequenz daraus, dass die zuverlässige und flächendeckende Versorgung als gesellschaftliche Aufgabe und als Unterstützung der von elektrischer Energie abhängigen Industrien gesehen wurde. Diese Sicht fand ihren Niederschlag z. B. im deutschen Energiewirtschaftsgesetz von 1935 [3.15], in dem die privatwirtschaftliche Organisation der deutschen Energiewirtschaft in Gebietsmonopolen festgeschrieben wurde und das gleichzeitig zur wirtschaftlich effizienten und zuverlässigen Versorgung verpflichtete. Das Monopol bot ausreichend Schutz der Investoren vor den erheblichen technischen und wirtschaftlichen Risiken der Aufbauzeit, und ermöglichte so den schnellen Aufbau überregionaler, vermaschter Übertragungsnetze, die wiederum Voraussetzung für die Einführung großer Kraftwerksblöcke und die Nutzung der damit verbundenen Kostendegression waren. Außerdem ist es wegen der vertikalen Integration über die gesamte Wertschöpfungskette das organisatorisch einfachste der vier Marktmodelle, in dem weder eine Entflechtung noch ein Netzzugang Dritter benötigt 1

Abkürzungen: ESP Energiedienstleister, Erz. Erzeugung, Hand. Großhandel, K Kunden, ÜNB Übertragungsnetzbetreiber, VNB Verteilnetzbetreiber

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

107

wird. Zuletzt erlaubt das Monopol verhältnismäßig einfach direkte politische Eingriffe in die geschützte Branche im öffentlichen Interesse. Beispiele dafür finden sich praktisch in allen Ländern der Welt. Sie reichen von der Erschließung strukturschwacher Regionen über die Förderung heimischer Primärenergiequellen bis hin zum Umweltschutz. Das Monopol ist auch heute noch sinnvoll, wo ein Ausbau der Elektrizitätswirtschaft über das sich aus unternehmerischer Abwägung von Risiken und Chancen ergebende Maß hinaus gewünscht ist. Diese Situation findet man z. B. in Entwicklungsländern, wo dieser Aufbau eine notwendige Vorleistung für die gewünschte Industrialisierung darstellt. Eine Zwischenform zwischen Monopol und Wettbewerbsmärkten, in denen Kunden ihre Lieferanten auswählen, stellt der Alleinabnehmermarkt dar. In diesem Modell kauft ein Versorger pro Versorgungsgebiet von mehreren Erzeugern, die somit untereinander im Wettbewerb stehen. Im Unterschied zum Monopol erschließt dieses Marktmodell durch den Wettbewerb zwischen den Erzeugern bereits ein wichtiges Kostensenkungspotenzial, ohne die Komplexität des Marktes wesentlich zu erhöhen. Auf der anderen Seite bleiben grundsätzliche Charakteristika des Monopols erhalten: Da die Verbraucher praktisch keinen Druck auf die Anbieter ausüben können, gibt es weiterhin eine Tendenz zu langfristigen, risikoarmen Verträgen und zentralen Planungsvorgängen an Stelle unternehmerischer Entscheidungsprozesse. Die im Alleinabnehmermodell inhärent angelegte Risikobegrenzung für die Marktteilnehmer lässt es immer dann attraktiv sein, wenn Kapital für den schnellen Aufbau von Erzeugungskapazität angezogen werden soll, z. B. in schnell wachsenden Volkswirtschaften. Eine Gemeinsamkeit der beiden bisher besprochenen Marktmodelle ist die Existenz einer zentralen Instanz, die das gesamte Marktgeschehen koordiniert. Deshalb werden sie in Tabelle 3.11 als unilaterale Modelle bezeichnet. Wegen dieser Eigenschaft sind ausschließlich sie für Produkte oder Leistungen geeignet, die nur von einem einzelnen Marktteilnehmer angeboten werden können. Das wichtigste Beispiel dafür sind die Regelenergie und die Systemdienstleistungen. Das erste Modell, in dem die Endverbraucher Wahlfreiheit haben, ist der Großhandelswettbewerb. Große Verbraucher und die Verteilnetzbetreiber als Repräsentanten der Kleinverbraucher können ihre Lieferanten wählen. Weil Verbraucher und Erzeuger hier erstmals direkt in Geschäftsbeziehung zueinander treten, entsteht eine multilaterale Marktstruktur, die einen Netzzugang Dritter erfordert. Diese Struktur erhöht, wie nachfolgend gezeigt wird, deutlich die Komplexität und führt zu erheblichen Administrations- und Transaktionskosten. Komplexität und damit zusätzliche Kosten können über die Größe der Kundengruppe mit Lieferantenwahlfreiheit und über die zulässige Mindestvertragsdauer begrenzt werden. Infolge der Wahlfreiheit nennenswerter Verbrauchergruppen nimmt das Risiko der Erzeuger zu, im Falle falscher Entscheidungen oder unerwarteter Marktentwicklungen getätigte Investitionen nicht mehr refinanzieren zu können. Gleichzeitig lassen sich die daraus entstehenden Risikokosten nicht an die Endverbraucher weitergeben, so dass die Margen der Erzeuger schon deshalb im Vergleich zum Alleinabnehmermarkt sinken. Im Gegensatz zu Monopol- und Alleinabnehmermarkt ist eine direkte politische Einflussnahme auf einzelne Unternehmen im Wettbewerbsmarkt nicht mehr möglich. Politische Ziele müssen

108

3 Elektrizitätswirtschaft, Liberalisierung

im Sinne von Abb. 3.29 in für alle Marktteilnehmer gleichermaßen gültige Regeln mit der gewünschten Lenkungswirkung übersetzt werden. Die vollständige Öffnung des Energiemarktes für den Wettbewerb stellt der Endkundenwettbewerb dar. Dabei handelt es sich um die konsequente Weiterführung des Großhandelswettbewerbs. Alle Kunden haben das Recht, ihren Energielieferanten zu wählen. Damit ist der Markt für elektrische Energie mit allen anderen Warenmärkten gleichgestellt. Das mit einem solchen Ansatz verfolgte volkswirtschaftliche Ziel ist der möglichst genaue Ausgleich zwischen Angebot und Nachfrage auf Basis der Preisbereitschaft der Endverbraucher. Im vollständig offenen Endkundenwettbewerb gibt es keine staatlich garantierten Schutzzonen mehr zur Sicherstellung z. B. der Versorgungssicherheit über das von den Kunden wirtschaftlich getragene Maß hinaus. Zumindest in den hoch industrialisierten Ländern, wie den USA, Großbritannien, Skandinavien und den kontinentaleuropäischen Staaten wird dieses Modell als das zukünftig angemessene gesehen. Es ist allerdings noch nicht erwiesen, dass die Kosten für die durch die Marktöffnung auf Kleinstkundenniveau stark ansteigende Komplexität volkswirtschaftlich tatsächlich durch die durch den Wettbewerbsdruck verursachte Effizienzsteigerung in der Elektrizitätswirtschaft überkompensiert werden. Analysiert man abschließend die vier Grundmodelle des Wettbewerbs, so ist zunächst festzuhalten, dass die unilateralen Modelle für spezielle Produkte und Leistungen in allen Märkten benötigt werden. Die Netze als natürliche Monopole und die Bereitstellung von Regelenergie und Systemdienstleistungen sind die wichtigsten Beispiele dafür. Darüber hinaus haben alle vier Modelle auch heute noch ihre Berechtigung für das eigentliche Energiegeschäft. Einerseits gibt es immer noch Volkswirtschaften, in denen sich Energieversorgung und Industrie im Aufbau befinden. Dort gibt es gute Gründe für einen Monopol- oder mindestens einen Alleinabnehmermarkt. Das andere Extrem markieren die Industriestaaten. In ihnen gibt es einen bekannten, stabilen Markt für elektrische Energie, der relativ zu den Erzeugungseinheiten sehr groß ist, und eine gut ausgebaute Infrastruktur für den Transport der Energie. Damit stellt die Teilnahme am Energiemarkt ein normales unternehmerisches Risiko dar und es gibt keinen Grund mehr für staatlichen Schutz der Marktteilnehmer. Auch ist angesichts der in den meisten Industriestaaten vorhandenen Überkapazität in der Erzeugung und der zumindest technisch verhältnismäßig niedrigen Markteintrittsbarrieren nicht mit Angebotsknappheit zu rechnen, so dass auch die Forderung nach einer ausreichenden Versorgung nicht gegen die völlige Marktöffnung spricht. 3.7.2 Der Aufbau wettbewerblich organisierter Elektrizitätsmärkte In diesem und den folgenden Abschnitten wird die Arbeitsweise wettbewerblich organisierter Elektrizitätsmärkte und der wichtigsten Teilnehmer an ihnen beschrieben. Dabei wird, soweit möglich, eine allgemeine Darstellung angestrebt. Wann immer jedoch Beispiele für die tatsächliche Realisierung vorgestellt werden, wird bevorzugt auf den deutschen Markt zurückgegriffen, da dieser auf Grund seiner Größe in Europa sicherlich einen starken Einfluss auf nachfolgende

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

109

Märkte haben wird, und weil er inzwischen einige Jahre existiert und wichtige Erkenntnisse aus der Aufbauzeit bereits Eingang in die Praxis gefunden haben. 3.7.2.1

Aufgaben und Rollen im liberalisierten Markt

Um das Funktionieren eines Marktes möglichst gut zu verstehen, empfiehlt es sich, die kleinstmöglichen wirtschaftlichen Einheiten in ihm zu identifizieren, die als eigenständiges Geschäft betrieben werden können und zur Lösung der Aufgaben im Markt beitragen. Im Folgenden werden solche Einheiten als Marktrollen bezeichnet. Es ergibt sich damit die folgende Begriffsabgrenzung: x Aufgaben sind die kleinste Betrachtungseinheit innerhalb des Marktes. Die Gesamtaufgabe des Elektrizitätsmarktes, die wirtschaftlich effiziente und ausreichend zuverlässige Versorgung aller Verbraucher mit elektrischer Energie, kann in eine Vielzahl von Einzelaufgaben unterteilt werden. Erst wenn alle diese Aufgaben erfüllt sind, wird der Markt funktionieren und seine übergeordnete Aufgabe erfüllen. Beispiele für Aufgaben sind die Systembetriebsführung oder die Bereitstellung von Verbrauchsdaten als Basis für die Abrechnung. Auch wenn Letztere nicht technisch motiviert ist, ihre Nichterfüllung also die technische Funktion des Versorgungssystems nicht gefährdet, ist sie wesentlich für das Funktionieren des Marktes, da ohne Abrechnung die meisten Marktteilnehmer ihr Geschäft nicht aufrecht erhalten können. x Die Zusammenfassung von Aufgaben und ihrer Lösung zu alleine lebensfähigen wirtschaftlichen Einheiten führt zu den sog. Rollen. Eine Rolle kann identisch mit einem Unternehmen, also einem Marktteilnehmer sein, muss es aber nicht. Normalerweise decken zu Beginn einer Liberalisierung die alten, vormals vertikal integrierten Unternehmen viele Rollen gleichzeitig ab. Eine Marktrolle zeichnet sich dadurch aus, dass sie wirtschaftlich eigenständig operieren kann, und dass sie ein ausgeprägtes, eigenes Kompetenzprofil hat. Beispiele für Marktrollen sind der Systembetreiber, der den Betrieb des Versorgungssystems sicherstellt, oder die Zählerdienstleister, die den übrigen Marktteilnehmern die Verbrauchsdaten zur Verfügung stellen. x Die im Markt tätigen Unternehmen werden als Marktteilnehmer bezeichnet. Marktteilnehmer decken mit ihrer Tätigkeit mindestens eine Marktrolle ab, können aber auch mehrere Rollen zusammenfassen. Bevor Wettbewerbselemente in der Elektrizitätswirtschaft eingeführt wurden und die dazu notwendige Trennung zwischen Energiegeschäft und Transportdienstleistung, das sog. „Unbundling“, vollzogen wurde, waren die Marktrollen sehr stark an die technische Struktur des Versorgungssystems angelehnt. Dies verdeutlicht Abb. 3.30 am Beispiel der deutschen Elektrizitätswirtschaft. Die dargestellte Zusammenarbeit der Marktteilnehmer in Verbänden belegt, dass die Marktteilnehmer sich bei der Partnersuche im Wesentlichen an der höchsten von ihnen betriebenen Spannungsebene orientierten. Die Spezialisierung und damit in gewisser Weise Bildung von Marktrollen fand also im Hinblick auf die Struktur des Versorgungsgebietes statt und nicht danach, ob ein Unternehmen z. B. als Erzeuger oder Endverteiler tätig war oder nicht.

110

3 Elektrizitätswirtschaft, Liberalisierung

Ausland

~

80 %

eigene oder vertraglich verpflichtete Kraftwerke

Industrieeinspeisung x%

Verbundunternehmen (DVG) 10 %

~ 10 %

~

Kommunalunternehmen (VKU) 30 %

Einspeisung aus öffentlicher Versorgung mit prozentualer Aufteilung

Unternehmen der öffentlichen Stromversorgung (VDEW)

Regionalunternehmen (ARE)

40 %

~

30 %

Verbände: VDEW: Verband der Elektrizitätswirtschaft DVG: Deutsche Verbundgesellschaft ARE: Arbeitsgemeinschaft regionaler Energieversorger VKU: Verband kommunaler Unternehmen

Aufteilung der Entnahme

Verbraucher (Tarif- und Sondervertragskunden)

Abb. 3.30. Versorgungsstruktur und Verbände der Elektrizitätswirtschaft in Deutschland vor der Liberalisierung (nach [3.16])

Im liberalisierten Markt ergibt sich eine viel stärkere Differenzierung der Marktrollen, hauptsächlich auf Grund der Trennung von Energiegeschäft und Transportdienstleistung sowie des durch den Wettbewerb verursachten Kostendrucks. Abb. 3.31 zeigt die Marktrollen, die sich typischerweise in Märkten mit Großhandels- oder Endkundenwettbewerb bilden. Zunächst gibt es unverändert die technischen Rollen Erzeugung, Übertragung und Verteilung. Direkt benachbart finden sich bereits neue Aufgaben, welche die Brücken zum kommerziellen Teil des Marktes darstellen. Insgesamt belegt die Abbildung bereits deutlich die durch die Liberalisierung wachsende Komplexität eines Elektrizitätsmarktes, denn zwischen allen Marktteilnehmern, die Produkte und Leistungen austauschen, müssen Verträge abgeschlossen werden. Da außerdem die meisten Geschäftsbeziehungen jederzeit aufgelöst und neue geschlossen werden können, ist sowohl die Menge der Geschäftsbeziehungen als auch ihre zeitliche Dynamik sehr viel größer als im Monopolmarkt. Betrachtet man zunächst den wettbewerblich organisierten Energiemarkt, so findet man dort Erzeuger, Großhändler, Börsen, Energiedienstleister und Bilanzverantwortliche. Erzeuger verkaufen ihre Kapazität im Großhandelsmarkt und bestimmen damit den späteren Kraftwerkseinsatz. Im Großhandelsmarkt können Energiekontingente – auch unter Einbeziehung von Strombörsen – mehrfach den Besitzer wechseln, bevor sie über Energiedienstleister (Energy Service Provider, ESP, auch Lieferanten) an den Endverbraucher verkauft werden. Eine weitere wichtige Rolle im Energiemarkt ist der sog. Bilanzkreis. Elektrische Energie ist ein rein optionales Produkt, d. h. ihre Lieferung hängt vollständig von der Inanspruchnahme zum Erzeugungszeitpunkt ab. Deshalb muss grundsätzlich davon ausgegangen werden, dass es Abweichungen zwischen den gehandelten Mengen und der tatsächlichen Lieferung gibt. Die Bilanzkreise bieten den dazu benötigten Ausgleich an und setzen gleichzeitig ökonomische Anreize, die Abweichungen im Interesse einer wirtschaftlich effizienten Kraftwerkseinsatzplanung so klein wie möglich zu halten.

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

111

Alle Handelsprozesse im Energiemarkt laufen mehr oder weniger lange vor der eigentlichen Lieferung ab. Handelsgegenstand sind Verträge, welche die Komplexität des technischen Systembetriebs im Interesse einer möglichst einfachen und somit wettbewerbsfördernden Handhabung nur eingeschränkt widerspiegeln. Damit aus diesen Verträgen eine physikalische Lieferung werden kann, benötigt man weitere Dienstleistungen. Im Allgemeinen bündelt der Energiedienstleister diese Leistungen mit der Energie und bietet den Endkunden einen Komplettversorgungsvertrag an. Deshalb wird hier der Begriff Energiedienstleister gegenüber dem ebenfalls gebräuchlichen Lieferanten bevorzugt. Um aus dem abstrakten Handelsergebnis des Energiemarktes einen physikalischen Systembetrieb zu machen und die erbrachten Leistungen später auch abrechnen zu können, werden die Dienstleistungen Systembetrieb, Netzbetrieb, Netznutzungsmanagement und Messwertbereitstellung benötigt. Der Systembetreiber ermittelt aus den Ergebnissen des Energiemarktes den Kraftwerkseinsatz und ist verantwortlich für die zuverlässige Versorgung. Die Aufgaben der Netzbetreiber sind die Planung, der Bau, die Instandhaltung und der Betrieb der Übertragungs- und Verteilungsnetze. Im Netznutzungsmanagement wird verwaltet, welcher Verbraucher zu welcher Zeit mit welchen Marktteilnehmern Verträge abgeschlossen hat. Dies umfasst vor allem die zuverlässige Abwicklung von Lieferantenwechseln. Zuletzt stellen die Zählerdienstleister allen Marktteilnehmern die von ihnen benötigten Messwerte zur Verfügung. Tabelle 3.11 fasst abschließend die Marktrollen zusammen und stellt sie den jeweils benötigten wichtigsten Kompetenzen gegenüber. Es wird deutlich, dass durch die Liberalisierung Aufgaben entstehen, die zum eigentlichen Thema der elektrischen Energieversorgung keine direkte Verbindung haben. Dies bedeutet eine erhebliche Erweiterung der Aufgabenvielfalt in der Elektrizitätswirtschaft.

Erzeugung

Übertragung

Verkauf

Großhändler

Finanzmärkte

Besitz der elektrischen Energie Geldfluss

Übertragungsnetzbetreiber

Kraftwerke

Systembetreiber Börse/ Spotmarkt

Bilanzkreis

Energiedienstleister (ESP)

Verteilung

Verteilnetzbetreiber Netznutzungsmanagement

techn. Prozess Dienstleistungsmarkt Energiemarkt

Zählerdienstleister

Abb. 3.31. Rollen in liberalisierten Elektrizitätsmärkten

Energiefluss

Kunde

112

3 Elektrizitätswirtschaft, Liberalisierung

Tabelle 3.12. Rollen im liberalisierten Elektrizitätsmarkt und zugehörige Kompetenzen Rolle

Geschäftsgegenstand

Kernkompetenzen

Systembetreiber

sicherer und zuverlässiger Betrieb des Versorgungssystems

Betriebsführung elektrischer Energieversorgungssysteme, marktinterner Informationsaustausch

Netzbetreiber

Übertragungs- und Verteilungsinfrastruktur

Netzplanung, Netzbetriebsführung, Betriebsmittelmanagement

Erzeuger

Erzeugung elektrischer Energie

Kraftwerksplanung, Kraftwerksbetrieb, Großhandel (Verkauf)

Großhändler

Verkauf von Eigenerzeugung, Portfoliooptimierung am Großhandelsmarkt

Großhandel (Ein- und Verkauf), Risikomanagement

Energiedienstleister (ESP)

Verkauf von elektrischer Ener- Einkauf (Großhandel), Vertrieb, gie und der benötigten Dienst- Abwicklungseffizienz leistungen an Endverbraucher

Bilanzkreis

Reduktion des Bedarfs an Ausgleichsenergie durch Verbraucherbündelung

Einkauf (Großhandel), Lastprognose, marktinterner Informationsaustausch

Netznutzungs- Erfassung aller Vertragsmanagement beziehungen im Markt

marktinterner Informationsaustausch, Abwicklungseffizienz

Zählerdienstleister

3.7.2.2

Bereitstellen von Verbrauchsdaten

marktinterner Informationsaustausch, Abwicklungseffizienz

Netzzugangsmodelle

Ein Kernelement jedes wettbewerblich organisierten Marktes für leitungsgebundene Energie ist die Regelung des Netzzugangs. Sowohl der Großhandelswettbewerb als auch der Endkundenwettbewerb setzen voraus, dass Lieferanten und Verbraucher freien Zugang zum Übertragungs- und Verteilungsnetz haben. Da die Netzdienstleistung i. Allg. als Monopol organisiert ist, ist dieser Zugang üblicherweise staatlich überwacht, um sicherzustellen, dass die Forderungen nach x Transparenz: Die Prozesse und die erhobenen Netzzugangsgebühren müssen für alle Marktteilnehmer nachvollziehbar sein. x Offenheit: Das Netz muss für jeden zugelassenen Marktteilnehmer gleichermaßen zugänglich sein. x Diskriminierungsfreiheit: Alle Marktteilnehmer, die Zugang zum Netz wünschen, müssen in gleicher Weise behandelt werden. erfüllt sind. Darüber hinaus wird üblicherweise auch überwacht, ob die Netzzugangsregeln wettbewerbsbehindernd sind. Ein in praktisch jedem Markt vorübergehend diskutiertes Beispiel für ein solches Element ist eine Gebühr, die vom Netzbetreiber beim Lieferantenwechsel erhoben wird. Eine solche Gebühr wäre zwar verursachungsgerecht und ließe sich deshalb sogar mit der Forderung nach Diskriminierungsfreiheit rechtfertigen, stellt aber ein erhebliches Wettbewerbshindernis dar und hat sich deshalb bisher nicht durchgesetzt.

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

113

Für die vertragliche Regelung des Netzzugangs können zwei Verfahren unterschieden werden: x geregelter Netzzugang (Third Party Access, TPA): Der Netzzugang erfolgt zu einheitlich geregelten Konditionen, die normalerweise vom Staat oder einer Regulierungsbehörde festgelegt oder zumindest genehmigt werden. x verhandelter Netzzugang (Negotiated Third Party Access, NTPA): Der Netzzugang wird zwischen den Geschäftspartnern individuell ausgehandelt. NTPA ist in der Reinform nur in Großhandelsmärkten anwendbar, da der Aufwand und damit die Transaktionskosten in einem völlig geöffneten Markt viel zu hoch wären. Allerdings hatte sich in Deutschland vorübergehend eine Zwischenform etabliert, die ebenfalls unter NTPA eingeordnet wird: Hier wurde der Netzzugang zwischen Verbänden ausgehandelt, welche die Marktteilnehmer repräsentieren. Die dabei, in den sog. Verbändevereinbarungen, festgelegten Regeln wirkten anschließend faktisch für alle Marktteilnehmer verbindlich. Auch für die Berechnung des Netznutzungsentgelts haben sich weltweit zwei grundsätzlich unterschiedliche Ansätze herausgebildet, die häufig sogar nacheinander in denselben Märkten angewandt wurden: x Transaktionsbezogenes Entgelt: Das Netznutzungsentgelt wird in Kenntnis von Einspeise- und Entnahmepunkt einer einzelnen Transaktion ermittelt. Ein Beispiel für ein solches transaktionsbezogenes Entgelt findet man in der deutschen Verbändevereinbarung I [3.20], die vom Mai 1998 bis zum September 1999 in Kraft war. In ihr ist das Bestreben zu erkennen, den erwarteten Durchleitungen durch das Netz möglichst verursachungsgerecht Kosten zuzuordnen. Um dennoch eine alltagstaugliche Regelung zu erzielen, werden die in Anspruch genommenen Spannungsebenen mittels sog. statistischer Grenzentfernungen unabhängig von der tatsächlichen Netzsituation ermittelt. Des Weiteren wurde, um weiträumige Übertragungen adäquat abzubilden, eine lineare Entfernungsabhängigkeit des Kostenterms für die Nutzung des Hochund Höchstspannungsnetzes vorgesehen. Das Netznutzungsentgelt hat damit für jede Transaktion prinzipiell die folgende Form: K Netznutzung

K NS ( P,W )  K MS ( P,W ) ˜ H (l  l grenz , MS )

(3.9)

 K 'HS ( P,W ) ˜ H (l  l grenz , HS ) ˜ (l  l grenz , HS ) K NS , K MS Kosten für Nieder - und Mittelspannung, K 'HS entfernungs bezogene Kosten für Hochspannung, l Luftlinienentfernung zwischen Einspeisung und Entnahme, l grenz , xx Grenzentfernung, ab der Entgelt xx angewandt wird, H Einheitssprungfunktion

Transaktionsbezogene Entgeltmodelle werden mit wachsender Transaktionszahl grundsätzlich problematisch. Die Ursache liegt darin, dass in einem laufenden Geschäft mit arbeitsteiligem Einkauf von vielen Erzeugern und Verkauf an viele Kunden die einzelne Transaktion gar nicht mehr identifiziert werden kann. Deshalb ist man in allen Märkten, in denen man zunächst, sicher auch in Erwartung nur weniger Netznutzungsvorgänge, ein solches Modell ein-

114

3 Elektrizitätswirtschaft, Liberalisierung

geführt hat, nach einiger Zeit auf das nachfolgend beschriebene Verfahren des Netzzugangsentgelts übergegangen. Beispiele für diese zeitliche Abfolge sind der englische Gasmarkt und der deutsche Elektrizitätsmarkt. x Netzzugangsentgelt: Beim Netzzugangsverfahren wird das Entgelt ausschließlich aus den Daten eines Marktteilnehmers, also z. B. aus Anschlussleistung, Anschlussspannung, gelieferter oder entnommener Arbeit und bestellter Reservekapazität, ermittelt. Damit kann das Netznutzungsentgelt ohne Kenntnis der von den Marktteilnehmern getätigten Geschäfte bestimmt und abgerechnet werden. In Deutschland hat mit Inkrafttreten der Verbändevereinbarung II [3.21] dieses deutlich praktikablere Verfahren den transaktionsbezogenen Ansatz abgelöst. Prinzipiell berechnet sich das Netzzugangsentgelt in diesem Verfahren für alle Marktteilnehmer wie folgt: K Netznutzung

¦

K Spannungsebene ( P,W ) alle genutzten Spannungs ebenen

(3.10)

Dies bedeutet, dass jeder an das Netz angeschlossene Marktteilnehmer die Netznutzungsgebühr für das Höchstspannungsnetz trägt, und abhängig davon, in welcher Spannungsebene er angeschlossen ist, weitere Kostenterme für unterlagerte Spannungsebenen hinzukommen. Der Vollständigkeit halber sei darauf hingewiesen, dass in der Detailausgestaltung der Netznutzungsentgelte eine sehr große Vielfalt herrscht. Insbesondere die Abrechnung der Systemdienstleistungen, wie z. B. Frequenzregelung und Reservevorhaltung, wird in einigen Märkten als eigenständiger Teil der Netznutzungsgebühr vorgenommen, in anderen dagegen pauschal in die Netznutzungsgebühr einbezogen. In Deutschland sind mit dem Netznutzungsentgelt eine Unterstützung dezentraler Einspeisung sowie die gesamte Abwicklung der Förderung regenerativer Energiequellen und der Kraft-Wärme-Kopplung verknüpft. Auf diese Details wird aber hier nicht mehr weiter eingegangen. 3.7.3 Dienstleistungsmarkt Der normalerweise in Gebietsmonopolen organisierte Dienstleistungsmarkt stellt den Marktteilnehmern die Dienste zur Verfügung, die zur Durchführung des Geschäfts mit elektrischer Energie erforderlich sind. Dieser Teilmarkt umfasst sowohl die technische Infrastruktur für Transport und Verteilung der Energie als auch die informationstechnische Festlegung und Realisierung des umfangreichen Informationsaustauschs zwischen allen Marktteilnehmern. Letzteres bedeutet, dass im Dienstleistungsmarkt die meisten Marktregeln in praktische Anwendungen umgesetzt werden, weshalb das Verständnis der dort angesiedelten Rollen i. Allg. einen guten Einstieg in einen Elektrizitätsmarkt bietet.

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

3.7.3.1

115

Systembetreiber

Der Systembetreiber ist die zentrale Stelle im Elektrizitätsmarkt, an der das Ergebnis des kommerziellen Handelsprozesses in einen funktionierenden, technischen Systembetrieb überführt wird. In den meisten bisher eingeführten Elektrizitätsmärkten gibt es nur einen, zentralen Systembetreiber, der u. U. mehrere Regelzonen führt. Diese Zentralität hat ihren Ursprung oft darin, dass vor der Liberalisierung bereits eine landesweite Übertragungsnetzgesellschaft existierte, der nach der Liberalisierung diese neue Aufgabe zusätzlich übertragen wurde. Beispiele dafür sind die skandinavischen Länder und Großbritannien. Grundsätzlich genügt es allerdings, einen Systembetreiber pro Regelzone vorzusehen. Diesen Weg ist man z. B. in Deutschland gegangen, wo es die in Abb. 3.32 dargestellten Regelzonen gibt. Zu Beginn der Liberalisierung in Jahr 1998 waren dies noch acht Unternehmen und Zonen, deren Zahl sich seitdem durch Unternehmensfusionen auf vier verringert hat. Die Systembetreiber sind meist aus den Netzleitstellen und Lastverteilern entstanden und führen viele Aufgaben dieser Einrichtungen weiter. Trotzdem gibt es grundlegende Unterschiede, die in Tabelle 3.13 zusammengefasst sind. In der vorbetrieblichen Phase muss der Systembetreiber den Einsatz von Ausgleichsenergie – also der Energie, die im System gebraucht wird, die aber nicht von den Marktteilnehmern kontraktiert worden ist – sowie die Blindleistungseinspeisung planen und Netzsicherheitsrechnungen durchführen. Dies setzt die Abstimmung mit benachbarten Regelzonen voraus. Damit der Systembetreiber die Planungsaufgabe bewältigen kann, müssen die Marktteilnehmer ihm entsprechende Informationen zur Verfügung stellen (Abb. 3.33): x Erzeuger müssen ihre Einspeisefahrpläne sowie Kraftwerksausfälle melden.

RWE E.ON EnBW Vattenfall Europe

Abb. 3.32. Regelzonen und Übertragungsnetzeigentümer in Deutschland

116

3 Elektrizitätswirtschaft, Liberalisierung

x Nutzer des Hochspannungsnetzes, also Verteilnetzbetreiber und Großkunden, müssen ebenfalls Ausfälle angeben. x Bilanzkreisverantwortliche (BKV) 1 müssen mitteilen, was sie über die Regelzonengrenze importieren oder exportieren sowie welche Ausgleichsenergie sie in Anspruch nehmen wollen. Tabelle 3.13. Aufgaben des Systembetreibers im Monopol und im Wettbewerbsmarkt

Aufgaben- Monopol gebiet (Netzleitstelle/Lastverteiler)

Liberalisierter Markt (Systembetreiber)

Vorbetriebliche Aufgaben Betriebsplanung

lang- und kurzfristige Kraftwerkseinsatzplanung

Kraftwerke teilen dem Systembetreiber die Einspeisefahrpläne mit

Lastaufteilung Engpassmanagement

integraler Bestandteil des Planungsprozesses

nachträglicher, ggf. iterative Anpassung, falls Marktergebnis zu technisch kritischer Situation führt

Betriebsführung

Spannungs- und Frequenzregelung als Teil des Top-down-Planungsprozesses

Spannungs- und Frequenzregelung mit kontraktierten Regelkraftwerken

Nachbetriebliche Aufgaben

keine Notwendigkeit

Bilanzierung Bereitstellung von Messwerten Abrechnung von Ausgleichsenergie und Regelung

Mit diesen Angaben sowie der dem Systembetreiber bekannten Gebietslastprognose kann der Regelzonensaldo berechnet werden, der die Grundlage für die Planung der Ausgleichsenergie bildet: PRegelzonensaldo

¦ Punabh.KW  PLastprognose  ¦ PBKV  Exportsaldo

(3.11)

In Gl. (3.11) geht im Übrigen der Ausgleichsenergiefahrplan der Bilanzkreisverantwortlichen nicht ein, da jede geplante Deckung von Ausgleichsenergie durch die Bilanzkreisverantwortlichen entweder aus Kraftwerken innerhalb der Regelzone oder aus einem Import oder Export über die Regelzonengrenze stammt. Beides ist in Gl. (3.11) bereits erfasst.

1

„Bilanzkreis“ ist der in Deutschland verwendete Begriff für die Einheit, innerhalb derer ein Unternehmen, der Bilanzkreisverantwortliche, für den Ausgleich von Last und Erzeugung zuständig ist. In anderen Ländern werden ähnliche Begriffe, z. B. Bilanzverantwortliche, verwendet. Die Funktion dieser Einheiten ist in allen Fällen sehr ähnlich.

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte Systemgrenze Regelzone

FP

~

FP

BKV

~ ~

FP

~

FP

FP

VNB

FP

VNB

FP

ESP

FP

~ ~

Regelkraftwerk

FP

Übergabedaten: FP: Fahrplan leer: keine Übergabe

~

Kraftwerk eines unabh. Erzeugers

Datenaustausch mit Systembetreiber

FP

BKV

117

FP

Datenaustausch mit Bilanzkreis FP

FP

BKV

Bilanzkreisverantwortlicher

VNB

Verteilnetzbetreiber

Abn.

Abnehmer am Hochspannungsnetz

Abb. 3.33. Vorbetrieblicher Datenaustausch mit dem Systembetreiber

Mit den nun verfügbaren Informationen kann der Systembetreiber die Netzsicherheitsrechnung durchführen und den endgültigen Kraftwerkseinsatz festlegen. Dieser orientiert sich zunächst am Ergebnis des Handels, das in Form der Wunschfahrpläne der Erzeuger vorliegt. Allerdings hat der Systembetreiber in allen Märkten das Recht, Abweichungen anzuordnen, falls ein stabiler Systembetrieb mit den Vorgaben des Marktes nicht erreichbar ist. Die dadurch gegenüber der ursprünglichen Situation wirtschaftlich benachteiligten Marktteilnehmer erhalten in einem solchen Fall einen finanziellen Ausgleich. In der nachbetrieblichen Phase ist der Systembetreiber dafür verantwortlich, die tatsächlich in Anspruch genommene Ausgleichsenergie zu ermitteln und den Bilanzkreisverantwortlichen in Rechnung zu stellen. Diese wiederum teilen diese Rechnung auf ihre Kunden auf. Darüber hinaus stellt der Systembetreiber den Kunden des Hoch- und Höchstspannungsnetzes die Messwerte an ihren Übergabestellen zur Verfügung. Zumindest in Deutschland ist der Systembetreiber dagegen nicht generell für die Abrechnung der Übertragungsnetznutzung und der Systemdienstleistungen zuständig. Diese wird im Rahmen der Netznutzungsabrechnung von denjenigen Netzbetreibern durchgeführt, an deren Netze die Verbraucher angeschlossen sind.

Systemgrenze Regelzone

M

BKV

~

BZ

~

M M

VNB

~

Regelkraftwerk

M

Kraftwerk eines unabh. Erzeugers

M

VNB

M

Übergabedaten: M: Messwerte BZ: berechnete Zeitreihe (auf Basis von Messwerten

BZ

Datenaustausch mit Bilanzkreis

~ M

ESP

Datenaustausch mit Systembetreiber BKV

Bilanzkreisverantwortlicher

M

VNB

Verteilnetzbetreiber

HINWEIS: Die Bilanzierung von Verbrauchern und Erzeugern erfolgt durch die Bilanzkreise. Deshalb gibt es keinen nachbetrieblichen Datenaustausch dieser Marktteilnehmer mit dem Systembetreiber.

Abn.

Abnehmer am Hochspannungsnetz

BKV M

~ ~

FP

~ M

M

BZ

Abb. 3.34. Nachbetrieblicher Datenaustausch mit dem Systembetreiber

118

3 Elektrizitätswirtschaft, Liberalisierung

externes Informationsnetz (z. B. Internet)

Fahrplan-Infrastruktur Fahrplanmanagement

Fahrpläne, Preise

Veröffentlichung von Marktinformation Fahrpläne

Netzengpassmanagement

Abrechnung und Mahnwesen

Zahlungen

Messwerte

Verwaltungssysteme

Fahrplanbestätigung oder Korrekturen

Fahrplanwesen Ausgleichsenergie x Überkapazität abfangen x Unterkapazität decken

Abrechnung Zahlungen

Bilanzierungsergebnis

Fahrpläne Netzmodell, Lastaufteilung

aktuelle Ergebnisse der LeistungsFrequenzregelung

Leitsystem Netzsicherheit Lastaufteilung

Marktbilanz, Bestimmung der tatsächlichen Ausgleichsenergie

Abb. 3.35. Prinzipieller Aufbau eines Systembetreibers (Quelle: ABB)

In Erfüllung seiner nachbetrieblichen Aufgaben übermittelt der Systembetreiber, wie in Abb. 3.34 gezeigt, die Übergabemessungen der Kraftwerke und der an das Hoch- und Höchstspannungsnetz angeschlossenen Verbraucher an die jeweiligen Bilanzkreisverantwortlichen. Außerdem ermittelt er aus den ihm vorbetrieblich bekannt gegebenen Saldenfahrplänen der Bilanzkreise und der tatsächlichen Inanspruchnahme von Ausgleichsenergie die Kostenaufteilung und rechnet diese Leistung mit den Bilanzkreisverantwortlichen ab: K Ausgleich ,BKV

K Ausgleich ,ges. ˜

Pist ,BKV  PFP ,BKV

¦

Pist ,BKV alle BKV

(3.12)

 PFP ,BKV

Zum Abschluss zeigt Abb. 3.35 den prinzipiellen systemtechnischen Aufbau eines Systembetreibers. Um die weiterhin vorhandene Leitstellenfunktionalität sind zahlreiche neue Funktionen entstanden: Im Einzelnen handelt es sich um die Schnittstelle zu anderen Marktteilnehmern, um die vorbetriebliche Fahrplanauswertung und um die nachbetriebliche Bilanzierung und Abrechnung. 3.7.3.2

Netzbetreiber und Zählerdienstleister

Netzbetreiber und oft auch Zählerdienstleister sind im liberalisierten Markt regulierte Monopolfunktionen. Ihr Geschäftsergebnis hängt von der zuverlässigen, zeitnahen Abrechnung der Dienstleistungen Netznutzung und Zählerdatenbereitstellung und einer effektiven Kostenkontrolle ab. Ihre Haupttätigkeiten sind: x Planung, Bau, Betrieb und Instandhaltung der Übertragungs- und Verteilungsnetze, wobei Betrieb nicht den Systembetrieb (Kraftwerkseinsatz, Systemregelung) beinhaltet, da dies Aufgabe des Systembetreibers ist x Planung, Bau, Betrieb und Instandhaltung der Messinfrastruktur x Registrierung der Marktteilnehmer und ihrer Vertragsbeziehungen x Bereitstellung von Messwerten an alle berechtigten Marktteilnehmer.

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

119

Da die Aufgaben in Planung und Betrieb der Verteilungsnetze und der Messinfrastruktur sich nicht zwischen Monopol und liberalisierten Märkten unterscheiden, wird an dieser Stelle nicht auf sie eingegangen. Eine völlig neue Aufgabe ist dagegen die Registrierung der Marktteilnehmer und der Vertragsbeziehungen. Hierbei handelt es sich um eine für das Funktionieren eines jeden liberalisierten Elektrizitätsmarktes zentrale Aufgabe. Da der Verteilnetzbetreiber auf Grund seiner Monopolsituation neben den Endverbrauchern der einzige Marktteilnehmer ist, der permanent eine Vertragsbeziehung zu jedem Zählpunkt in seinem Netzgebiet hat, ist er auch der Einzige, der jederzeit die Frage beantworten kann, wer zu einem Zählpunkt zu welcher Zeit welche Vertragsbeziehung hat. Diese Information ist die Grundlage der korrekten Bereitstellung von Verbrauchswerten, die wiederum unabdingbare Voraussetzung für die Abrechnung aller im Markt erbrachten Leistungen ist. Abb. 3.36 zeigt den durch die Liberalisierung notwendig werdenden, zusätzlichen Arbeitsprozess beim Verteilnetzbetreiber. Der Prozess beginnt mit der Ersterfassung oder Registrierung der Marktteilnehmer, die im Gebiet des Verteilnetzbetreibers aktiv sind. Dies sind die Endverbraucher, evtl. in das Netz einspeisende Erzeuger, die Energiedienstleister, die Kunden innerhalb des Netzes versorgen, und die von diesen in Anspruch genommenen Bilanzverantwortlichen. Ziel der Registrierung ist es, möglichst alle systematischen Fragen, wie z. B. Art des Informationsaustauschs oder Art der Abrechnung, frühzeitig und vollständig zu klären, damit die spätere alltägliche Geschäftsabwicklung möglichst automatisch und kostengünstig erfolgen kann. Im zweiten Schritt, der Durchführung von Lieferantenwechseln, erfolgt die Zuordnung von Energiedienstleister und Bilanzverantwortlichen zu den Endkunden. Der dafür zu durchlaufende Prozess, der von einem Energiedienstleister angestoßen wird, der die Versorgung eines Kunden übernehmen möchte, ist in Abb. 3.37 dargestellt. Wesentlich ist dabei, dass im Laufe dieses Prozesses einVorbereitung (manuell)

Registr. der Marktteilnehmer Vertragsmanagement

Rahmenverträge, Netznutzungs- und -anschlussverträge

Registr. der Lieferantenwechsel Verwalt. d. Zuordnungsmatrix je Zählpunkt Betrieb automatisierte Arbeitsabläufe

Nachbereitung / Analyse

Vertragsausführung Zählerdatenmanagement

einzelne und aggregierte Zählerdaten

Zählerdatenerfassung/-verarbeitung

Bilanzierung Berechnung abgeleiteter Zeitreihen

Abrechnung

vertragskonsistent

abrechnungsrelevante Daten: Netznutzung und weitere Dienstleistungen

Abb. 3.36. Arbeitsprozess des Verteilnetzbetreibers und Zählerdienstleisters

120

3 Elektrizitätswirtschaft, Liberalisierung

deutig und lückenlos geklärt werden muss, wer zu welchem Zeitpunkt die Vertragspartner des Endkunden sind. Bleiben hier Unklarheiten bestehen, führt dies spätestens bei der Abrechnung zu Einsprüchen und Zahlungsverzögerungen sowie zur arbeitsintensiven Korrektur der inzwischen an die Marktteilnehmer verteilten Verbrauchsdaten. All diese Vorgänge erhöhen die Kosten des Verteilnetzbetreibers, sei es, weil mit der Klärung Aufwand verbunden ist, oder auch, weil eine verzögerte Zahlung des Netznutzungsentgelts Zinsverluste bedeutet. Sie sind aus seiner Sicht folglich zu vermeiden. Der dritte wichtige Arbeitsschritt des Verteilnetzbetreibers ist die Bereitstellung von Verbrauchsdaten für alle übrigen Marktteilnehmer, soweit sie diese für die Erfüllung ihrer Aufgaben benötigen. Dabei ergibt sich in vollständig geöffneten Märkten das Problem der Handhabung von Kleinkunden, bei denen nicht die ESP/BKV

VNB/ÜNB

(Wettbewerbsmarkt)

(Dienstleistungsmarkt)

alle im Netz aktiven

Netzanschlussvertrag x Anschlussleistung x Zählertyp

Registrierungsanfrage

Prüfung Bestätigung oder Aufforderung zur Nachbesserung

ESPneu

Netzkunden

Anfrage auf Übernahme der Versorgung von Kunde 1 x Kundendaten x zuständiger BKV x Zeitpunkt

Netznutzungsvertrag x Netznutzungsentgelt

alle Gebäudebesitzer im Netz alle Stromkunden im Netz

Prüfung auf formale Richtigkeit

Korrektur

ESPneu

begründete Rückweisung

N

OK? J

ESPalt

Information

Kunde 1

Klärung

ESPneu

Rückweisung

J

Einspruch?

N

ESP: BKV: VNB: ÜNB:

Energiedienstleister Bilanzkreisverantwortlicher Verteilnetzbetreiber Übertragungsnetzbetreiber

Vollzug des Wechsels x Zählerablesung x Endstand an ESPalt x automatischen Informationsaustausch neu konfigurieren

Abb. 3.37. Registrierungs- und Lieferantenwechselprozess beim Verteilnetzbetreiber

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

121

Verbrauchsganglinie im marktüblichen Zeitraster gemessen wird, sondern nur die verbrauchte Energie. Der gesamte Informationsaustausch zu Prognose und Verbrauch findet auf der Basis von Zeitreihen statt, da nur so sichergestellt werden kann, dass der Systembetreiber den Betrieb des elektrischen Versorgungssystems ausreichend genau planen kann. Dies bedeutet, dass auch die Verbrauchsinformation der Kleinkunden sowohl in der Prognose als auch bei der späteren Verbrauchserfassung möglichst gut auf die Zeitreihendarstellung erweitert werden muss. Die in einigen Märkten zunächst diskutierte und von einzelnen Marktteilnehmern geforderte Ausstattung auch der Kleinkunden mit fernauslesbaren Profilzählern hat sich bisher aus Kostengründen nicht durchgesetzt. Stattdessen werden synthetische Profile verwendet, die so skaliert werden, dass die Energie der resultierenden Leistungskurve dem gemessenen Wert entspricht. Für die Profilermittlung haben sich zwei Verfahren herausgebildet: x Beim synthetischen Verfahren werden kundengruppenspezifische, synthetische Standardlastprofile als Basis für die synthetische Prognose- oder Verbrauchsganglinie verwendet. x Beim analytischen Verfahren werden alle Kleinkunden durch ein Profil repräsentiert, das aus der Summenganglinie dieser Verbrauchergruppe ermittelt wird. Diese Summenganglinie (einschl. der Netzverluste) lässt sich aus den als Zeitreihen verfügbaren Messungen an den Netzübergabestellen, evtl. Einspeisungen und den mit Profilzählern ausgestatteten Großkunden berechnen. Obwohl beide Verfahren auf Grund der Skalierung auf die tatsächlich gemessene Energie zur energetisch korrekten Handhabung der Kleinkunden führen, unterscheiden sie sich in Komplexität und Verteilung des Bilanzrisikos. Um diesen Unterschied zu erläutern, sei zunächst der Vorhersage- und Bilanzierungsprozess beschrieben, wie er in Abb. 3.38 dargestellt ist. Grundsätzlich gibt es zwei Wege, über welche die Lastvorhersage und die Verbrauchsdaten zum Systembetreiber gelangen: einmal ausgehend vom einzelnen Kunden über die Energiedienstleister und Bilanzkreise aggregiert und einmal für das gesamte Verteilnetz und dessen Bilanzkreisverantwortlichen direkt. Der zweite, integrale Weg baut dabei für die Vorhersage auf historischen und für den tatsächlichen Verbrauch auf den aktuellen Messwerten der Übergabezähler auf, also auf gemessenen Zeitreihen. Demgegenüber muss die einzelkundenbasierte Aggregierung des ersten Weges für die Kleinkunden synthetische Profilen verwenden. Eine Abweichung der Form dieser synthetischen Zeitreihen vom tatsächlichen Lastverlauf fällt beim Systembetreiber als Differenz zwischen den Ergebnissen der beiden Informationswege auf. Sie umfasst jedenfalls die Verluste im Verteilnetz und kann zusätzlich einen Profilfehler enthalten. Die daraus resultierenden Kosten für Ausgleichsenergie werden vom Systembetreiber an den Verteilnetzbetreiber abgerechnet, stellen für diesen also ein zusätzliches Risiko dar.

122

3 Elektrizitätswirtschaft, Liberalisierung

Bilanzkreisverantwortlicher des ESP

x Fahrpläne für Groß- und Kleinkunden x Ist-Werte Großkunden x synthetisierte Werte Kleinkunden

Gesamtbilanzausgleich

Verteilnetzbetreiber (VNB)

Energiedienstleister (ESP)

Informationsfluß: individuell aggregiert

Übertragungsnetzbetreiber (Bilanzkreiskoordinator)

Gesamtbilanzausgleich

x Ist-Werte Großkunden x synthetisierte Werte Kleinkunden, erfüllen die Aufgabe von Ist-Werten

Bilanzkreisverantwortlicher des VNB verbleibende Fahrplanabweichungen: x Netzverluste x Abweichungen synthetisierter Ganglinien von realen Verläufen

Abb. 3.38. Weitergabe der Bilanzinformationen für Groß- und Kleinkunden

Das gesamte Bilanzrisiko des Verteilnetzbetreibers, das demnach aus Netzverlusten und einem eventuellen Profilfehler besteht, kann gemäß Gl. (3.13) berechnet werden. PBilanz ,VNB (t )

PImport ,VNB (t )  PErz.,VNB (t )

(3.13)

 PGK (t )  PKK (t )  PKK , Profilfehler (t ) PEinspeisung (t )  PLast (t )  PKK , Profilfehler (t ) PVerlust ,VNB (t )  PKK , Profilfehler (t ) KK Kleinkunden, GK Großkunden

In Gl. (3.13) stellt PKK,Profilfehler(t) den Platzhalter für den noch zu berechnenden, grundsätzlich anzunehmenden Fehler des synthetischen Profils der Kleinkunden dar. Da bei Großkunden die tatsächlich gemessenen Werte für das Profil verwendet werden, wird dort kein entsprechender Term benötigt. Das Bilanzrisiko entsteht nun dadurch, dass der Verteilnetzbetreiber den in seinem Netz tätigen Energiedienstleistern sowohl die synthetisierten Kleinkundenprofile als auch später die – ebenfalls synthetisierten – Verbrauchsganglinien liefert. Für die Differenz zwischen diesen Ganglinien muss der Energiedienstleister Ausgleichsenergie kaufen, das Risiko liegt also bei ihm. Parallel meldet allerdings der Verteilnetzbetreiber seine Summenlastprognose und später die tatsächliche Summenlast an seinen Bilanzverantwortlichen, den er mindestens für die Deckung der Netzverluste benötigt. Kommt es nun zu einer Differenz zwischen dem realen Verbrauch der Kleinkunden und der synthetisierten Verbrauchskurve, also dem Term PKK,Profilfehler(t) aus Gl. (3.13), so verbleibt die Deckung dieser Bilanzabweichung beim Verteilnetzbetreiber, da der Energiedienstleister nur die Differenz zwischen Prognose und ihm gemeldetem Verbrauch deckt. Gleichung (3.14) enthält die Berechnung des Profilfehlers für das analytische Verfahren.

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

PKK , Profilfehler (t )

123

(3.14)

PKK (t )  PKK , synth. (t ) N GK

mit

PKK (t )

¦ PGK ,i (t )  PVerlust ,VNB (t )

PEinspeisung (t ) 

i 1

PKK , synth.,i (t )

PKK (t ) ˜

WKK ,i WKK , ges. N KK

folgt

PKK , Profilfehler (t )

PKK (t ) 

¦ PKK ,synth.,i (t ) i 1

N KK

PKK (t ) ˜ (1 

¦WKK ,i i 1

WKK , ges.

)

0

Die gleiche Rechnung für das synthetische Verfahren zeigt Gl. (3.15). Im Unterschied zum analytischen Verfahren, bei dem sich das Bilanzrisiko des Netzbetreibers ausschl. und systematisch auf die Netzverluste beschränkt, kann beim synthetischen Verfahren eine Abweichung entstehen, deren Mittelwert auf Grund der Energieneutralität beider Verfahren zwar ebenfalls den Wert 0 hat, die aber wegen des üblicherweise nichtlinearen Preises für Ausgleichsenergie trotzdem ein wirtschaftliches Risiko für den Verteilnetzbetreiber darstellt. PKK , Profilfehler (t ) mit

(3.15)

PKK (t )  PKK , synth. (t )

PKK , synth.,i (t )

PStandardprofil , k (t ) ˜

WKK ,i WBezug , k

wobei k der Index des Standardprofils zu Kleinkunden i ist N KK

folgt

PKK , Profilfehler (t )

PKK (t ) 

¦ PKK ,synth.,i (t )

i 1 N KK

PKK (t ) 

W

KK ,i ¦ PStandardprofil ,k (t ) ˜ WBezug ,k i 1

z0

Vergleicht man nach diesen Überlegungen die beiden Verfahren, so kommt man zu folgenden Schlussfolgerungen: x Das analytische Verfahren entspricht inhaltlich der Vorgehensweise bei Großkunden. Die Energiedienstleister erhalten zunächst aus der Historie abgeleitete Prognoseprofile und später Verbrauchswerte, die genau dem Verbrauch des Kollektivs entsprechen, also praktisch eine Zeitreihenmessung über alle Kleinkunden darstellen. Für den Netzbetreiber entsteht bei Anwendung dieses Verfahrens prinzipiell kein Bilanzrisiko. Nachteilig ist allerdings der im Vergleich zum synthetischen Verfahren höhere Mess- und Verarbeitungsaufwand. Aus Sicht des Energiedienstleisters hat das Verfahren den Nachteil, dass es keine Differenzierung nach Kundengruppen zulässt und somit eine Mischkal-

124

3 Elektrizitätswirtschaft, Liberalisierung

kulation, bei der gezielt Kundengruppen mit attraktiven Verbrauchscharakteristika angesprochen werden, nicht unterstützt. x Das synthetische Verfahren ist einfacher zu realisieren und erlaubt eine bessere Prognose und Kalkulation bei den Energiedienstleistern. Es verursacht allerdings ein zusätzliches Bilanzrisiko beim Verteilnetzbetreiber, weshalb es zu Beginn einer Marktöffnung oft kritisch gesehen wird. Wird allerdings berücksichtigt, dass die synthetischen Profilbibliotheken in guter Marktkenntnis erstellt sein sollten und einem laufenden Verbesserungsprozess unterliegen, kann davon ausgegangen werden, dass der Profilfehler klein sein wird. Dies in Verbindung mit der einfachen Realisierbarkeit wird voraussichtlich dazu führen, dass das analytische Verfahren keinen Bestand haben wird. Nachdem die Verbrauchswerte aufbereitet und den Marktteilnehmern übermittelt worden sind, folgt als letzter Arbeitsschritt des Verteilnetzbetreibers und Zählerdienstleisters die Abrechnung der Netznutzung sowie die Weiterleitung der dabei erhaltenen Einnahmen für vorgelagerte Netze an deren Betreiber. Abschließend sei noch auf die Frage eingegangen, warum die Synthese von Lastvorhersage und Verbrauchsdaten für Kleinkunden in vertikal integrierten Monopolmärkten nicht erforderlich ist. Grundsätzlich besteht auch in solchen Energieversorgungssystemen die Notwendigkeit, dem Systembetreiber eine Lastprognose für die Planung des Kraftwerksbetriebs zur Verfügung zu stellen. Auch Abweichungen von der Vorhersage sollen verursachungsgerecht den Verteilungsunternehmen zugeordnet werden. Da allerdings im vertikal integrierten Unternehmen die Verteilnetzgrenze genau das Kollektiv aller Kunden umfasst, reicht der integrale Vorhersage- und Bilanzierungsweg aus Abb. 3.38 aus, eine einzelkundenbasierte Aggregierung der Zeitreihen ist nicht erforderlich. Damit entfällt auch die Notwendigkeit der Synthese kundenscharfer Einzelzeitreihen. 3.7.4 Wettbewerbsmarkt Der Dienstleistungsmarkt ist durch die weiterhin gegebenen Gebietsmonopole charakterisiert. Der zugängliche Markt ist somit vollständig bekannt, so dass sowohl Risiken als auch Chancen des Geschäfts gering sind. Insbesondere ist eine Geschäftsausweitung durch die Monopolsituation praktisch ausgeschlossen. Deshalb beschränkt sich die Geschäftsoptimierung im Wesentlichen auf interne Effizienzsteigerung. Demgegenüber gibt es im Wettbewerbsmarkt praktisch keine Beschränkungen, das Geschäftsvolumen zu vergrößern, allerdings auch keinen Schutz vor Wettbewerbern, die in angestammte Territorien Anderer vordringen. Deshalb müssen die Teilnehmer am Wettbewerbsmarkt alle üblichen Werkzeuge zum Umgang mit den Chancen und Risiken eines freien Marktes beherrschen und anwenden, um ihre optimale Marktposition zu finden. Im Folgenden werden die wesentlichen Teile des Wettbewerbsmarkt, der Großhandel, die Börsen, die Energiedienstleister und die Bilanzkreisverantwortlichen, vorgestellt und ihre charakteristischen Aufgaben diskutiert.

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

3.7.4.1

125

Großhandel

Akteure im Großhandelsmarkt sind zunächst die Erzeuger, die anstreben, strukturelle Besonderheiten ihres Erzeugungsparks durch geeignete Zu- und Verkäufe zu kompensieren, und sich so ein optimiertes Gesamtportfolio zu beschaffen, sowie in geringerem Umfang reine Händler, die versuchen, durch geschicktes Portfolio- und Risikomanagement ein attraktives Angebot aufzubauen. Auf Grund des dominanten Einflusses der Erzeugung elektrischer Energie auf den Großhandelsmarkt, ist dieser sehr stark durch die Besonderheiten der Erzeugungsanlagen geprägt. Hauptsächlich sind dies: x hoher Fixkostenanteil von ca. 30 % bei Gasturbinenkraftwerken und gegen 100 % bei Wasserkraftwerken (vgl. auch Abschn. Fehler! Textmarke nicht definiert.) x langfristige Kapitalbindung x große Abhängigkeit von den Energiepreisen, die jedenfalls beschaffungsseitig durch eine große Volatilität, also Schwankungsbreite, gekennzeichnet sind, bei Überangebot auch absatzseitig (s. Abb. 3.39). Diese schwierigen Randbedingungen existieren selbstverständlich auch in nicht wettbewerblichen Elektrizitätsmärkten. Unterschiede gibt es im Umgang mit ihnen. In Märkten ohne Endkundenwettbewerb – also auch in Alleinabnehmermärkten, in denen zumindest die Erzeuger im Wettbewerb zueinander stehen – gibt es die Tendenz, die in den Randbedingungen begründeten Risiken durch langfristige Festlegungen und Verträge zu reduzieren. So kann beispielsweise davon ausgegangen werden kann, Investitionen im Normalfall entsprechend der Planung zu nutzen, auch wenn z. B konkurrierende, attraktivere Technologien auf den Markt kommen. Die Volatilität auf Beschaffungs- und Absatzseite wird ebenfalls durch langfristige Verträge begrenzt.

90

60 50 US $/barrel

NordPool (€/MWh)

OPEC UK Brent

Argentinien (US $/MWh)

60

40 30

30

20 10 0

a

19

70

0

19

75

80 85 90 95 00 05 19 19 19 19 20 20

b

n Ja

99

Ja

n

00

Ja

n

01

n Ja

02

n Ja

03

Ja

n

04

n Ja

05

n Ja

06

Abb. 3.39. Volatile Randbedingungen für den Großhandel: a Rohölpreise von 1970 bis 2005 (Quelle: Mineralölwirtschaftsverband), b Spotpreise am NordPool und der argentinischen Börse 1999 bis 2006

126

3 Elektrizitätswirtschaft, Liberalisierung

Die langfristige Absicherung hat zur Folge, dass kritische Geschäftssituationen auf Grund kurzfristiger Ereignisse weitgehend ausgeschlossen werden können. Sie führt aber auch dazu, dass kurzfristige Optimierungschancen nicht wahrgenommen werden können. Alles in allem ist die Konsequenz, dass die Großhandelspreise einen Risikozuschlag enthalten, der in Märkten ohne Endkundenwettbewerb an die Endverbraucher weitergegeben werden kann. In Märkten mit Endkundenwettbewerb führt dagegen der Wettbewerbsdruck in Verbindung mit der Tatsache, dass es immer Anbieter geben wird, die kurzfristige Chancen nutzen und dadurch in der Lage sind, attraktivere Preise anzubieten, dazu, dass die Endverbraucher diese Risikokosten nicht mehr übernehmen. Damit entsteht für die im Großhandel tätigen Unternehmen der Zwang, alle, also auch kurzfristige, Optimierungsmöglichkeiten zu nutzen, wozu sie den Anteil langfristiger Bindungen reduzieren und damit ihr Risiko erhöhen müssen. Die Abb. 3.40 und 3.41 verdeutlichen den Unterschied: Während das Bestreben des Händlers in Abb. 3.40 ist, möglichst früh und möglichst weit in die Zukunft seinen gesamten Bedarf zu decken, lässt der Händler in Abb. 3.41 in der mittleren und fernen Zukunft bewusst eine zunehmend große Position offen, um kurzfristige, attraktive Angebote wahrnehmen zu können. Er kann darüber hinaus entVolumen 100 %

max. Lieferant B

Lieferant A

0

Zeit

min.

Preis

Flexibilität Risiko

Abb. 3.40. Großhandel bei Beschränkung auf bilateralen Handel [3.19]

Einsatzbereich Volumen Börsenprodukte

mit Absicherung

100 %

ohne Absicherung

max. C

D C

Lieferant B

Lieferant A 0

Zeit

min.

Preis

Flexibilität Risiko

Abb. 3.41. Großhandel mit Absicherung über Börsenprodukte [3.19]

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

127

scheiden, ob er einen Teil der offenen Positionen mit Börsenprodukten absichern will, womit er genau einstellen kann, welche Flexibilität und welches Risiko er für welchen Zeitpunkt eingeht. Die richtige Balance zwischen der Absicherung und dem Offenbleiben für kurzfristige Chancen und damit immer auch dem Eingehen von Risiken ist die zentrale unternehmerische Aufgabe von Teilnehmern am Energiemarkt – und zwar sowohl auf der Beschaffungs- und Handelsseite als auch auf der Absatzseite, also beim Energiedienstleister. Abb. 3.42 zeigt, wie diese Aufgabe die Organisation eines Unternehmens prägt, das sowohl als Großhändler als auch als Energiedienstleister tätig ist. Im Großhandel sind zwei Hauptaufgabengebiete zu unterscheiden: einerseits die Betriebsplanung und -führung der Erzeugung und andererseits die Handelstätigkeit mit anderen Marktteilnehmern in bilateralen Geschäften oder an Energiebörsen. Natürlich beeinflussen die beiden Aufgabenbereiche sich stark. An dieser Stelle wird nun vor allem auf den zweiten Teil, die reine Handelstätigkeit, eingegangen, der Einfluss des Wettbewerbs auf die Kraftwerksbetriebsführung wird dagegen in Abschnitt 14.3 behandelt. Abb. 3.42 verdeutlicht die Prozesse und die hinterlegte Organisation, um die Möglichkeiten, die das Marktumfeld bietet, vollständig und kontrolliert zu nutzen. Dazu gehört einerseits die Vertriebsseite, auf der durch geeignete Kundenwahl die Position eines Unternehmens maßgeblich beeinflusst wird. Darauf wird in einem späteren Abschnitt noch detaillierter eingegangen. Andererseits zählen dazu auf der Handelsseite der physikalische Handel – hierunter fällt auch die geeignete Einbeziehung evtl. vorhandener Eigenerzeugungskapazität – und der Handel mit Derivaten, sowohl an Energiebörsen als auch an energieunabhängigen Finanzmärkten, sofern er dort sinnvoll ist. Tabelle 3.11 zeigt beispielhaft einige wichtige Risiken und mögliche Gegenmaßnahmen. Dabei wird deutlich, dass jede Risikobekämpfung gleichzeitig die Chancen auf Verbesserung der eigenen Position reduziert. Deshalb liegt der Schlüssel zum Erfolg in diesem Markt in

Vorstand Geschäftsstrategie

Berichtswesen

Portfolio-Risikomanagement Auftrags- Handelsbestand strategie

Vertriebsstrategie

Risikobestand

Nachfrage

Vertriebs-Risikomanagement Tarife

Produkte

Verträge

AccountManagement

Transferpreis

Grenzen Verträge

Vertrieb

Handels-Risikomanagement Grenzen Position

physischer Handel

Position

Papierhandel

Abb. 3.42. Organisation für die Geschäftsführung im Wettbewerbsmarkt (Quelle: ABB)

128

3 Elektrizitätswirtschaft, Liberalisierung

Werkzeugen, die jederzeit die eigene Position transparent machen und gleichzeitig mit geeigneten probabilistischen Ansätzen Entscheidungen unterstützen, indem sie die zu erwartenden Marktszenarien simulieren und anzeigen können, mit welcher Wahrscheinlichkeit ein Unternehmen in eine kritische Situation kommen wird. Natürlich kann die Elektrizitätswirtschaft hier an den Erfahrungen anderer Großhandelsmärkte partizipieren, jedoch hat sich seit Einführung des Wettbewerbs in der Elektrizitätswirtschaft auch gezeigt, dass die Besonderheiten der Ware elektrische Energie, speziell die sehr eingeschränkte kurzfristige Speicherbarkeit, erhebliche Anpassungen an Risikomanagementwerkzeugen aus anderen Branchen erforderlich machen. Tabelle 3.14. Beispiele für Risiken und Gegenmaßnahmen im Großhandelsmarkt

Risiko lange Kapitalbindung bei Investitionen

Primärenergiepreisschwankungen

Strompreisschwankungen Kraftwerksausfall

3.7.4.2

Gegenmaßnahmen langfristige Abnahmeverträge kurzfristigere Investitionen langfristige Bezugsverträge Hedging, Absicherung mit Börsenprodukten langfristige Lieferverträge Hedging Reserveverträge

Nachteil schlechtes Preisniveau (Risikoabschlag) Verzicht auf Chancen langfristig attraktiver Technologien höheres Preisniveau (Risikozuschlag) beschränkt kurzfristigen Handlungsspielraum und damit Chancen niedrigeres Preisniveau (Risikoabschlag) wie oben zusätzliche Kosten

Börsenhandel

Eine Gruppe von Marktteilnehmern, die wesentlich dazu beiträgt, dass die Großhandelsteilnehmer in kalkulierbarer Weise kurzfristige Chancen wahrnehmen können, sind Börsen für elektrische Energie. Tabelle 3.11 stellt den bilateralen OTC-Handel dem Börsenhandel gegenüber. Die wesentlichen Besonderheiten der Börse sind die Produktstandardisierung, die Anonymisierung der Geschäftspartner und als Folge dieser Eigenschaften niedrige Transaktionskosten und nicht vorhandenes Gegenparteirisiko. Alle diese Eigenschaften wirken prinzipiell liquiditätserhöhend, da sie die Marktteilnahme – speziell auch für kleinere Marktteilnehmer - vereinfachen. Deshalb können die Marktteilnehmer praktisch immer davon ausgehen, dass sie Produkte, die sie für ihr Risikomanagement benötigen, an der Börse erhalten. Dies erleichtert die in Abb. 3.41 gezeigte Vorgehensweise erheblich.

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

129

Tabelle 3.15. Vergleich zwischen Börse und OTC-Handel [3.19]

Preistransparenz Kontrahenten-/Kreditrisiko Positionsmanagement Konditionen Transaktionskosten

Börse vollständig übernimmt Börse Glattstellung durch Gegengeschäft möglich standardisiert Ÿ hohe Liquidität niedrig

OTC (over the counter) nur teilweise verbleibt bei Käufer/Verkäufer Glattstellung nur durch individuelle Absprache möglich individuell Ÿ geringe Liquidität hoch

An Börsen können unterschiedliche Produkte gehandelt werden, die jeweilige Ausstattung hängt vom Marktumfeld ab. Die wichtigsten Beispiele sind: x Futures ohne physikalische Lieferung: Hierbei werden lediglich Preiszusagen für künftige Energielieferungen gehandelt. Händler können die Zusage kaufen, dass sie für eine bestimmte Energiemenge unabhängig vom Marktpreis einen bestimmten Preis zahlen müssen. Dies ist eine wichtige Hilfe beim Risikomanagement und hat den gerade in der Aufbauphase neuer Märkte wichtigen Vorteil, sehr einfach einführbar zu sein, da die Börse sich in diesem Fall nicht um die Abwicklung der physikalischen Lieferung zu kümmern braucht. x Futures mit physikalischer Lieferung: Dies sind Termingeschäfte mit tatsächlicher Lieferung, definiert durch Lieferzeitpunkt, -ort und -menge. x Spothandel: Hierbei werden Kontingente zur kurzfristigen Lieferung, typischerweise für den nächsten Tag oder noch kurzfristiger, gehandelt. x Regelleistungsmarkt: Auch Regelleistung kann an Börsen gehandelt werden, wobei streng genommen kein wirkliches Börsengeschehen stattfindet, da der Systembetreiber üblicherweise Alleinabnehmer für Regelleistung ist. Da der tatsächliche Regelleistungsbedarf erst kurzfristig vom Systembetreiber erkannt wird, handelt es sich bei Regelleistungsmärkten um Märkte mit sehr kurzfristigem Charakter. Da außerdem die Nachfragekurve praktisch senkrecht verläuft – der Systembetreiber muss seinen Bedarf unabhängig vom Preis decken –, haben diese Märkte häufig eine sehr hohe Preisvolatilität. Die Arbeitsweise von Elektrizitätsbörsen und die Anwendung ihrer Produkte werden im Folgenden anhand zweier Beispiele verdeutlicht. Im ersten Beispiel (Abb. 3.43) wird erläutert, wie ein Börsengeschäft mit einer physikalischen Lieferung von Teilnehmer B an Teilnehmer A erfolgt, wobei in diesem Fall die Börse keine Verantwortung für die korrekte Abwicklung des Geschäfts gegenüber Bilanzkreisverantwortlichen und Systembetreiber übernimmt. Das könnte grundsätzlich auch anders sein, denn je kurzfristiger ein Markt ist, desto eher wird die Börse die Abwicklung übernehmen. Der Prozess beginnt mit den Kaufaufträgen (1a/b), welche die Handelsteilnehmer A und B an die Börse erteilen. Nach Handelsschluss (2), also nach dem letzten Handelstag eines Produkts, werden die Handelsteilnehmer eindeutig zugeordnet, Liefer- und Bezugsorte werden beiderseitig bekannt gegeben. Nun muss die Anmeldung der Netznutzung (3) durch die Marktteilnehmer (Erzeuger und

130

3 Elektrizitätswirtschaft, Liberalisierung

ESP) bei den Netzbetreibern erfolgen. Außerdem müssen die Marktteilnehmer Bilanzverträge abschließen. Die Marktteilnehmer tragen die Verantwortung für die ordnungsgemäße Handhabung. Über die Anmeldung der Netznutzung erhält die Börse von den Handelsteilnehmern eine Lieferbestätigung (4). Damit gilt die Lieferung per definitionem als erfüllt, und die aus dem Börsenkontrakt resultierenden Zahlungsströme werden automatisch nach Ende der zum gehandelten Produkt gehörenden Lieferperiode ausgelöst. Nach Zahlungseingang erfolgt die Freigabe hinterlegter Sicherheiten. Der letzte Schritt ist die Abrechnung von Abweichungen (5). Abweichungen zwischen dem Börsenprodukt und dem tatsächlichen Geschehen werden zwischen den Übertragungsnetzbetreibern, den Bilanzkreisverantwortlichen und den Erzeugern bzw. Energiedienstleistern abgerechnet. Die Börse ist nicht in diesen Schritt eingebunden. Das zweite Beispiel befasst sich mit der Absicherung einer offenen Position mittels eines Terminkontrakts, der physikalisch über den Spotmarkt und damit unter Nutzung desselben Verfahrens wie im ersten Beispiel abgewickelt wird: Ein Energiedienstleister habe in der Zukunft ungedeckten Bedarf, für den er noch keinen Lieferanten gefunden hat, den er aber aus Risikoerwägungen nicht offen lassen möchte. Er erwirbt deshalb die passende Menge eines Terminkontrakts, der ihm garantiert, dass er zum gewünschten Zeitpunkt einen festen Preis von 19 EUR/MWh zahlt. Liegt der Spotpreis nun zum Zeitpunkt der Lieferung z. B. bei 15 EUR/MWh, so nützt dies dem Energiedienstleister nichts, denn er erhält zwar seine Spotlieferung, muss aber seinem Partner für dessen Lieferung an den Spotmarkt den Ausgleich zwischen dem vereinbarten Preis und dem aktuellen Spotpreis zahlen Für ihn liegt der Preis des physikalischen Vertrags also unverändert bei den ursprünglich gezahlten 19 EUR/MWh. Liegt der Spotpreis dagegen z. B. bei 25 EUR/MWh, so wird der Energiedienstleister wiederum effektiv für 19 EUR/MWh einkaufen, die Absicherung greift also. Das Beispiel zeigt, dass die Risikominderung für den Energiedienstleister zwangsläufig auch die Chance eines niedrigen Marktpreises reduziert und zum Verkäufer des Terminkontraktes verlagert – allerdings nur, sofern der wiederum nicht eine langfristige Abnahme4 Bestätigung über erfolgte Anmeldung

Verantwortungsbereich der Börse Verantwortungsbereich der Marktteilnehmer

Börse Nachfrage/Kauf

Angebot/Verkauf 1a

Teilnehmer A - Handelsabteilung -

1b

Handelsabschluss 2

Teilnehmer B - Handelsabteilung -

4 Bestätigung über erfolgte Anmeldung

- Vertriebsabteilung -

- Erzeugung -

Fahrplan Bilanz 3 5 Bilanzkreisverantwortlicher

Fahrplan Bilanz 3 5 Bilanzkreisverantwortlicher

Systembetreiber (ÜNB)

Systembetreiber (ÜNB)

Abb. 3.43. Beispiel eines Handelsprozesses an einer Elektrizitätsbörse (nach [3.19])

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

131

verpflichtung hat, sondern wirklich vom Marktpreis profitieren kann. Zum Abschluss zeigt Tabelle 3.11 eine beispielhafte Auflistung wichtiger Börsen, die sich zwischen dem Beginn der Liberalisierung und dem Jahr 2006 etabliert haben. Es fällt auf, dass im kontinentaleuropäischen Elektrizitätsmarkt in kurzer Zeit vier Börsen eröffnet wurden. Dies wird allgemein als Ausdruck einer Experimentierphase zu Beginn der Marktöffnung angesehen, der eine Konsolidierung folgen wird. Die im Jahr 2002 vollzogene Fusion der Strombörsen in Frankfurt am Main und Leipzig zur European Energy Exchange in Leipzig dürfte ein erster Schritt in diese Richtung gewesen sein. Tabelle 3.16. Beispiele für Elektrizitätsbörsen (Stand 2006)

Name

Land

geöffnet seit (-bis)

Produkte

NordPool

Norwegen, Schweden, Finnland, Dänemark

1993

physikalischer Spotmarkt, Terminkontrakte, Optionen

California Power Exchange

Kalifornien (USA)

1998-2001

physikalischer Spotmarkt, am 09.03.2001 Gläubigerschutz beantragt

Amsterdam Power Exchange (APX)

Niederlande, Deutschland

1999

physikalischer Spotmarkt für Standardprodukte und Ausgleichsenergie

Leipzig Power Exchange (LPX)

Deutschland

1999-2001

physikalischer Spotmarkt, Terminkontrakte (ab 2001)

European Energy Exchange (EEX), Frankfurt

Deutschland

2000-2001

physikalischer Spotmarkt, Terminkontrakte

Powernext

Frankreich

2001

physikalischer Spotmarkt, Terminkontrakte, CO2Emissionszertifikate

European Energy Exchange (EEX), Leipzig

Deutschland

2002

physikalischer Spotmarkt, Terminkontrakte, Clearing für OTC-Handel, CO2Emissionszertifikate

3.7.4.3

Energiedienstleister

Der Energiedienstleister ist der „Motor“ des liberalisierten Marktes, da er das Hauptprodukt – elektrische Energie – im freien Wettbewerb an Endkunden vertreibt. Seine Aufgaben umfassen die gezielte Akquisition, die einkaufsseitige Teilnahme am Großhandel und die Auftragsabwicklung, die insbesondere die Kommunikation mit Netzbetreibern und Zählerdienstleistern umfasst. In diesem Abschnitt werden die daraus folgenden Tätigkeiten vorgestellt sowie die Führung des Geschäfts mit Großkunden im Detail betrachtet. Der Geschäftsgegenstand des Energiedienstleisters ist der Verkauf von elektrischer Energie sowie der zugehörigen Dienstleistungen an Endverbraucher. Dabei muss er auf Basis seiner eigenen Kosten, die sich im Wesentlichen aus Personal-

132

3 Elektrizitätswirtschaft, Liberalisierung

kosten und bereits eingegangenen Abnahmeverpflichtungen im Großhandelsmarkt zusammensetzen, Umsatz und Profit sicherstellen. Bereits im Abschnitt zum Großhandelsmarkt wurde mit Abb. 3.42 dargestellt, wie Handel und Vertrieb organisatorisch zusammenarbeiten, um das „stochastische“ Risiko des Marktes zu kontrollieren. Hier wird nun diskutiert, wie der Energiedienstleister das sog. „deterministische Risiko“ beherrscht, das sich daraus ergibt, dass bei Vertragsabschluss eine Vielzahl von Informationen berücksichtigt werden müssen, um beurteilen zu können, ob ein Geschäft profitabel ist. Dies ist sehr wichtig, da die Margen im Energiegeschäft auf Grund der Austauschbarkeit der Ware elektrische Energie sehr gering sind, so dass schon einzelne Fehlentscheidungen die Position eines Unternehmens nachteilig beeinflussen können. Der Geschäftsprozess des Energiedienstleisters beginnt mit der Planung, welche Kundengruppen zur Erzielung einer kostengünstig deckbaren Gangliniencharakteristik angesprochen werden sollen, und welches Verkaufsvolumen zur Deckung der eigenen Kosten benötigt wird. Eine wichtige Planungsentscheidung ist die Aufteilung des Volumens auf die beiden grundsätzlich verschiedenen Segmente Gewerbe- und Industriekunden sowie Kleinkunden: x Gewerbe- und Industriekunden: Diese Kundengruppe zeichnet sich üblicherweise durch einen professionellen Einkauf aus, der maßgeschneiderte Produktangebote erwartet. Die Preisbereitschaft ist niedrig, der Einfluss des einzelnen Vertragsabschlusses auf die wirtschaftliche Gesamtsituation des Energiedienstleisters kann erheblich sein. Auf Grund der verhältnismäßig großen Volumina der Verträge sind die relativen Zuschläge für Vertrieb, Marketing und Abwicklung gering, allerdings gibt das Geschäft wegen des starken Preisdrucks an dieser Stelle auch nicht viel her. Gewerbe- und Industriekunden werden üblicherweise persönlich in individuellen Kontakten betreut. Da die Vertragsangebote kundenspezifisch sind, muss die Profitabilität pro Vertrag im Moment des Abschlusses sichergestellt werden. Wie dies erreicht werden kann, wird im weiteren Verlauf detailliert dargestellt. x Kleinkunden sind normalerweise weniger professionell im Einkauf. Dies führt zu vergleichsweise höherer Preisbereitschaft, deren positiver Effekt allerdings durch die auf Grund der geringen Volumina pro Vertrag höheren relativen Vertriebs-, Marketing- und Abwicklungszuschläge größtenteils aufgezehrt wird. Die große Kundenzahl führt dazu, dass der Einzelvertrag wenig Einfluss auf die wirtschaftliche Situation des Energiedienstleisters hat. An Stelle der individuellen vertrieblichen Betreuung treten systematische Kontakte, z. B. in Form von Werbekampagnen. In diesem Marktsegment sind auch keine individuellen Vertragsangebote üblich. Statt dessen werden Standardprodukte angeboten, deren Profitabilität in der Planung überprüft wird. Für beide Kundengruppen ist die Lastprognose von großer Bedeutung für die Profitabilität des Energiedienstleisters. Nur eine gute Prognose stellt sicher, dass der Energiedienstleister wenig teure Ausgleichsenergie in Anspruch nehmen muss. Eine schlechte Lastprognose kann dagegen ein an sich profitables Kundenportfolio defizitär werden lassen. Bei den Industrie- und Gewerbekunden werden als Basis bevorzugt historische Verbrauchsdaten – wenn möglich gemessene Zeitreihen – verwendet, bei den Kleinkunden ebenfalls historische Energiewerte,

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

133

die mit dem vom Verteilnetzbetreiber festgelegten Profil zu Zeitreihen expandiert werden. Gerade im durch niedrige Margen charakterisierten Industrie- und Gewerbekundensegment wird in fortgeschritteneren Elektrizitätsmärkten die Bereitstellung aussagekräftiger historischer Verbrauchsdaten häufig zur Voraussetzung für ein Angebot gemacht. Nach Geschäftsplanung und Akquisition, die aus den genannten Gründen in den beiden Marktsegmenten mit unterschiedlichen Produkten und Verfahren erfolgt, schließen sich die segmentübergreifenden Schritte Abwicklung und Abrechnung an. x In der Abwicklung muss zunächst der Netzzugang für alle gewonnenen Kunden beantragt werden – es handelt sich dabei um die andere Seite des Prozesses, der aus Sicht des Verteilnetzbetreibers in Abb. 3.37 dargestellt ist. Wie Abb. 3.44 zu entnehmen ist, kann dieser Schritt bedeuten, dass der Energiedienstleister mit sehr vielen Verteilnetzbetreibern in Kontakt treten muss, da ein Kunde im aufwendigsten Fall Standorte in jedem Verteilnetz des Marktes haben kann – in Deutschland wären dies z. B. rund 900. Während der Netzzugang nur bei Neukunden beantragt werden muss, werden im Rahmen der Abwicklung regelmäßig die Summenfahrpläne aller Kunden in einem Bilanzkreis an dessen Betreiber geschickt. Diese sind Basis für die spätere Abrechnung der Ausgleichsenergie. Einen Sonderfall stellen Kunden mit Mehrfachversorgung dar, also Kunden, die von verschiedenen Energiedienstleistern Fahrplanlieferungen und von einem die offene Restversorgung erhalten. Bei ihnen muss der Energiedienstleister zuletzt auch noch dem Verteilnetzbetreiber den Fahrplan der von ihm gelieferten Leistung schicken, damit dieser später aus der Verbrauchsmessung den offenen Teil berechnen kann. x In der Abrechnung müssen die Anteile für die Energie, die Ausgleichsenergie, die Netznutzung und die Zählerdienstleistung zu einer Gesamtrechnung zusammengefügt werden. Tabelle 3.11 zeigt die verschiedenen Kostenterme, die beim Energiedienstleister entstehen. Eine Besonderheit, welche die Abrechnung im liberalisierten Markt von der vertikal integrierter Unternehmen prinzipiell unterscheidet, ist die Tatsache, dass grundsätzlich Rechnungsbestandteile existieren, die von außen kommen, bei denen also vor Rechnungslegung

Kunde Regelzone 1

Regelzone 2

Verteilnetz 1.1 Standort 1.1

ZP 1.1

...

ZP 1.n

Verteilnetz 2.1

Standort 1.2

ZP 2.1

...

ZP 2.n

Standort 2.1

...

ZP 1.1

...

ZP 1.n

Standort 2.2

ZP 2.1

Abb. 3.44. Allgemeine Kundenstruktur des Energiedienstleisters

...

ZP 2.n

...

134

3 Elektrizitätswirtschaft, Liberalisierung

überprüft werden muss, ob sie eingetroffen und korrekt sind. Letzteres bedeutet auch, dass Abrechnungssysteme der Energiedienstleister in der Lage sein müssen, die Netznutzungsgebühren zu Kontrollzwecken nachzurechnen. Tabelle 3.17. Kostenstruktur des Energiedienstleisters

Gegenstand Energie Ausgleichsenergie Netznutzung Zählerdienstleistung

Quelle Einkauf/Großhandel Bilanzkreis(e) Netzbetreiber Netzbetreiber

Energiedienstleister (eigene Kosten)

Energiedienstleister

Kostentyp variabel variabel variabel fix (pro Zählpunkt) fix

Anzahl Kostenterme 1 pro Kunde 1 pro Regelzone und Kunde 1 pro Verteilnetz und Kunde 1 pro Verteilnetz und Kunde 1 pro Kunde

Wie bereits mehrfach erwähnt, ist das Geschäft mit Industrie- und Gewerbekunden besonders komplex. Dazu tragen verschiedene Gründe bei: x Diese Kunden sind preissensitiv und erwarten individuell gestaltete Verträge. x Sie schließen verhältnismäßig große Einzelverträge ab und haben damit einen nennenswerten Einfluss auf die Geschäftssituation des Energiedienstleisters. x Sie haben z. T. die Möglichkeit, ihre Lastganglinie zu beeinflussen, und erwarten, dass sie an dadurch ermöglichten Kostensenkungen beteiligt werden. x Ohne Ausnutzung von Win-Win-Situationen ist eine ausreichende Profitabilität in diesem Marktsegment praktisch nicht erreichbar. Diese Punkte machen es erforderlich, verschiedenen Kundengruppen Angebote zu machen, die hinsichtlich Preis und Flexibilität eine große Bandbreite abdecken, und die unterschiedlich zur Fixkostendeckung des Energiedienstleisters beitragen. Letzteres hat zwei Konsequenzen: Es entsteht das Risiko der Fixkostenunterdeckung, die eintritt, wenn Produkte mit hohem Deckungsbeitrag unter Plan verkauft werden. Außerdem beeinflusst nun das Einzelangebot nicht mehr nur das Geschäftsvolumen des Energiedienstleisters, sondern auch die Profitabilität, da nicht mehr alle Angebote gleich profitabel ausgelegt sind. Um diese Risiken im laufenden Geschäft zu kontrollieren, kann z. B. der in Abb. 3.45 gezeigte Strukturierungsansatz verwendet werden. Zunächst wird die eingekaufte Kapazität in Kontingente aufgeteilt, die durch ihre Leistungsganglinie Pkont.,i(t) sowie ihren Einkaufspreis kkont.,i(t) beschrieben sind. Die Ganglinie beschreibt den Zeitverlauf und bewirkt durch ihre absolute Höhe eine Mengenbegrenzung. Bei der Definition von Kontingenten und Preisen besteht innerhalb der Randbedingungen gemäß Gl. (3.16) beliebige Freiheit.

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte Strukt. des Einkaufsergebnisses

Strukturierung des Verkaufsprozesses Netz- und Systemkosten

eigene Fixkosten FK

Zielmargen pro Produkt

FK-Anteil Produkt 1

Energiekontingent 1: x Kosten x Zeitverlauf x Menge

Energieeinkauf: x Kosten x Zeitverlauf x Menge

135

Menge aus Kont. 1 für P1

+

+

+

Kosten für Prod. 1

+

+

+

Kosten für Prod. 2

+

+

+

Kosten für Produkt NProd.

Menge aus Kont. 2 für P1

Energiekontingent 2

FK-Anteil Produkt 2

...

Menge aus Kont. 1 für P2

Energiekontingent NKont.

FK-Anteil Produkt NProd.

...

...

Menge aus Kont. i für PNProd.

Abb. 3.45. Beispiel für die Produktstrukturierung und –kalkulation eines Energiedienstleisters N Kont .

¦ PKont.,i (t )

!

PEinkauf , ges. (t )

(Mengenbedingung)

(3.16)

i 1

N Kont . Tkont ., i / 't

¦ ¦ kKont.,i ( j ˜ 't ) ˜ PKont.,i ( j ˜ 't ) i =1

!

K Einkauf , ges. (Preisbedingung)

j 1

Die Preisganglinien kkont.,i(t) müssen keine realen Einkaufskosten widerspiegeln und Pkont.,i(t) braucht keine echte Einkaufsganglinie zu repräsentieren. Ihre Gestaltung ist der erste Schritt auf dem Weg zum Angebot attraktiver und profitabler Produkte. Beispiele für solche Kontingente sind ein Grundlastkontingent oder Strom aus erneuerbaren Quellen, bei dem der Energiedienstleister nachweisen können möchte, dass er nicht mehr verkauft als er eingekauft hat. Auch Ausgleichsenergie kann durch ein Kontingent repräsentiert werden. Die Abb. 3.46 und 3.47 zeigen zwei Kontingentmischungen auf Basis derselben Kundengruppen. Offensichtlich wird der Energiedienstleister den Bezug für die Versorgung gemäß Abb. 3.46 zu günstigeren Konditionen realisieren können. Im nächsten Schritt des Prozesses gemäß Abb. 3.45 werden die Kontingente auf Produkte aufgeteilt. Beispielsweise kann ein Wasserkraftkontingent zu einem bestimmten Anteil in ein Mischprodukt eingehen, und der Rest als reine Wasserkraft vermarktet werden. Des Weiteren müssen die Produkte zur Fixkostendeckung des Energiedienstleisters beitragen, wobei es möglich ist, die Produkte unterschiedlich stark zu belasten. Für die Fixkostenverteilung gilt unter der Voraussetzung einer rein arbeitsbezogenen Umlage folgende Nebenbedingung:

136

3 Elektrizitätswirtschaft, Liberalisierung

N Produkt

¦ k fix,Produkt,i ˜ WProdukt ,i

!

(3.17)

K fix ,ges.

i 1

Zuletzt müssen den Produktkosten eine Zielmarge und, sofern die Netznutzung über den Energiedienstleister abgerechnet werden soll, die Netz- und 12

1

0,8

8 0,6 Profile

Leistung (MW)

10

6

0,4 4

Nachtspeicher Zweischicht Bäcker Haushalte Nachtspeicher Zweischicht Bäcker Haushalte

0,2

2

0

0 1

5

9

13

17

21

Zeit (h)

Abb. 3.46. Beispiel einer guten Kontingentmischung

16 14

Leistung (MW)

12 10

Nachtspeicher Zweischicht Bäcker Haushalte

8 6 4 2 0 1

5

9

13

17

21

Zeit (h)

Abb. 3.47. Beispiel einer ungünstigen Kontingentmischung „Zweischicht“ = Gewerbe- und Industriebetriebe mit Zweischicht-Betrieb

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

137

Dienstleistungskosten zugeschlagen werden. Damit ist der Zielverkaufspreis ermittelt. Da die Netz- und Dienstleistungskosten wegen der Diskriminierungsfreiheit für alle in einem Verteilnetz aktiven Energiedienstleister gleich sein müssen, ist es nicht sinnvoll, diese Terme noch produktweise zu differenzieren. Nach dieser Strukturierung der eingekauften Energie und ihrer Produktifizierung kann nun im Verkaufsprozess die Profitabilität jedes Einzelvertrags verfolgt werden. Produkte bestehen gemäß den vorangegangenen Überlegungen aus: x einem Tarif pProdukt(t,P,W), der von der Zeit, der Leistung und der gelieferten Energie abhängen kann x den von ihnen in Anspruch genommen Anteilen AProdukt,Kont. an den Einkaufskontingenten – darüber ergibt sich die Mengensteuerung der Produkte x den Fix-, Netz und Dienstleistungskosten. Mit diesen Informationen kann die Profitabilität GV eines Angebots der Dauer TV zur Lastprognose PV(t) mit der Energie WV berechnet werden: GV

TV / 't §

¦

j 1

¨ p Produkt (t j , PV (t j ), WV )  ¨ © N Netz ,Vertrag



N Kont .

·

i 1

¹

¦ AProdukt ,Kont .,i ˜ k Kont .,i (t j )¸¸ ˜ PV (t j )

(3.18)

TV / 't

¦ K Netz,i  k fix ,Produkt ˜ ¦ PV (t j ) j 1

i 1

mit: t j

j ˜ 't

Dabei ist anzustreben, dass die Verkäufe die Energiekontingente möglichst genau aufbrauchen, da andernfalls Bedarf an Ausgleichsenergie entsteht: N Produkt NVertrag,i

¦ ¦ Ai,j,Kont. ˜ PV , j (t ) i 1

!

PKont . (t )

(3.19)

j=1

Die Mischkalkulation ist bei Erfüllung folgender Bedingungen profitabel: GV t Gmin. für alle Verträge

(3.20)

N Produkt NVertrag,i

¦ ¦ Ai, j,Kont. ˜ PV , j (t ) o PKont. (t ) für alle Kontingente i 1

j=1

Die bisherige Betrachtung kontrolliert zwar den sehr komplexen Mischkalkulationsprozess, ist allerdings so diskutiert worden, als ob die Planung top-down durchgeführt und im Markt umgesetzt werden könne. Die Realität ist dagegen dynamisch und führt zu ständig neuen Randbedingungen für den Vertriebsprozess. Der im Großhandelsmarkt agierende Einkauf hat offene Positionen und schließt sie, neue Kontingente werden eingeführt, Produkte sind ausverkauft oder unverkäuflich usw. Um damit umzugehen, muss der beschriebene Planungs- und Simulationsprozess in eine regelmäßig durchlaufene Kontrollschleife integriert werden, die es erlaubt, den komplexen Vertriebsprozess zielführend zu steuern. Dies verdeutlicht Abb. 3.48. Der Prozess beginnt mit der Erstellung eines Geschäftsplans entsprechend der bisher vorgestellten Systematik. Mit diesem Plan

138

3 Elektrizitätswirtschaft, Liberalisierung

Produktdefinitionen

weitere Kosten (Netz, System, ESP,...)

Geschäftsbestand

Simulation neue Produkte

N

profitabel?

N

Energieeinkauf

bessere Einkaufskonditionen

J Freigabe und Vertrieb

Abb. 3.48. Einbettung der Kalkulationssystematik in die Vertriebssteuerung

werden zur Risikobewertung Szenarien simuliert, die z. B. verschiedene Preisentwicklungen oder den Wegfall einzelner Kundensegmente beinhalten. Hat sich der Plan als ausreichend robust erwiesen, werden die erstellten Produkte zum Verkauf freigegeben, andernfalls müssen neue Produkte entworfen oder die Einkaufskonditionen verbessert werden. Nachdem die Produkte eine Zeit lang verkauft worden sind und sich ein Auftragsbestand gebildet hat, wird der Prozess unter Berücksichtigung des Bestands erneut durchlaufen, wobei die Produkte sowohl in ihren Tarifen als auch in ihren Mengen angepasst werden können. 3.7.4.4

Bilanzkreisverantwortliche

Die Bilanzkreisverantwortlichen stellen eine eigenständige Marktrolle dar, die ihre Leistung in einem Endkunden-Wettbewerbsmarkt anbietet. Die Bilanzkreisverantwortlichen sind allerdings selbst Kunden in einem Alleinabnehmer- oder Monopolmarkt, da die physische Realisierung der Ausgleichsenergie letztendlich vom Systembetreiber vorgenommen wird. Da diese Funktion nur einmal in jeder Regelzone existiert, kann hier nur ein unilaterales Marktmodell angewendet werden. Diese Einbettung der Bilanzkreisverantwortlichen in ihr Marktumfeld verdeutlicht Abb. 3.49. Die Bilanzkreisverantwortlichen, die an der Schnittstelle zwischen Dienstleistungs- und Wettbewerbsmarkt arbeiten, leiten den Abgleich zwischen den im Wesentlichen abstrakt und ohne enge Kopplung an die betrieblichen Erfordernisse des technischen Elektrizitätsversorgungssystems zu Stande gekommenen Verträgen im Markt und der technischen Realität ein, der anschließend vom Systembetreiber vervollständigt wird. Außerdem teilen sie die Kosten, die durch Abweichungen zwischen Planung und tatsächlichem Betrieb entstehen, möglichst verursachungsgerecht auf die Marktteilnehmer auf. Damit sind sie auch die Stelle im Markt, die identifizieren kann, wenn Marktteilnehmer ihren vertraglichen Verpflichtungen nicht nachgekommen sind.

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

139

Der Geschäftsgegenstand der Bilanzkreisverantwortlichen ist die Minimierung des Ausgleichsenergiebedarfs. Ihr Profit rührt daher, dass, wie in Gl. (3.22) ausgedrückt, die von ihnen insgesamt bezogene Ausgleichsenergie geringer sein kann als die Summe des Ausgleichsenergiebedarfs ihrer Kunden, der Energiedienstleister und Erzeuger, und sie auch entsprechend verbesserte Fahrpläne anmelden. Wie in Gl. (3.21) ersichtlich, erhalten die Bilanzkreisverantwortlichen zur Ausführung ihrer Aufgabe von den Energiedienstleistern und Händlern jeweils die Summenfahrpläne des Verkaufs an andere Marktteilnehmer sowie des Einkaufs von anderen Marktteilnehmern mit Angabe der Marktteilnehmer und deren Bilanzkreisen. Damit können sie sowohl die benötigte Ausgleichsenergie als auch den Austausch mit anderen Bilanzkreisen berechnen und außerdem prüfen, ob die Angaben von Käufern und Verkäufern konsistent sind. (3.21)

N ESP

FPBKV

z

¦ FPESP ,Einkauf ,i  FPESP ,Verkauf ,i

i 1 N KW



 ¦ FPKW ,Erzeugung ,i  FPKW ,Verkauf ,i i 1



Die Bilanzkreisverantwortlichen sind auf gute Marktkenntnis und auf möglichst große Kollektive von betreuten Erzeugern und vor allem Endverbrauchern angewiesen, um eine gute statistische Durchmischung und daraus folgend eine geringe Streuung des Ausgleichsenergiebedarfs zu erzielen. Sind diese Voraussetzungen erfüllt, ist davon auszugehen, dass gilt: K Ausgleich, BKV

!

N ESP

Min 

¦

N KW

K Ausgleich, ESP,i 

i 1

¦ K Ausgleich, KW ,i

(3.22)

i 1

K Ausgleich Kosten für Ausgleichsenergie

Der Zusammenhang gemäß Gl. (3.22) ist der Grund, dass das prinzipielle Risiko höherer Preise, welches die unilateralen Marktmodelle mit sich bringen, an

FP BKV1 z ISTBKV1

N ESP1

NKW1

¦ FP ESP1,i  ¦ FP KWi,

i 1 N ESP1

i 1 N KW1

i 1

i 1

¦ ISTESP1,i 

Systembetreiber (Regelzonenbetreiber, Bilanzkreiskoordinator)

¦ ISTKWi, BKV 1

a

Regelkraftwerke (kontraktiert bei Alleinabnehmermarkt oder Eigentum bei Monopol) Alleinabnehmer- oder Monopolmarkt für Ausgleichsenergie Wettbewerbsmarkt für Ausgleichsenergie

FPESP1,1 ISTESP1,1

ESP 1.1

BKV 2

a

Kraftwerk 1.1

...

ESP 1.N ESP1

a ...

Abb. 3.49. Arbeitsumfeld der Bilanzkreisverantwortlichen

140

3 Elektrizitätswirtschaft, Liberalisierung

dieser Stelle des Marktes akzeptiert werden kann: Da die Bilanzkreisverantwortlichen aus ihrem Geschäftsgegenstand heraus das Bestreben und außerdem auch die Möglichkeit haben, das Aufkommen an Ausgleichsenergie und damit den Bezug aus dem Alleinabnehmermarkt zu minimieren – idealerweise zu Null –, spielt das Preisniveau im Alleinabnehmermarkt nur eine untergeordnete Rolle. Im Übrigen ist genau das ja auch die erwünschte Lenkungswirkung, um die Ergebnisse der kommerziellen Marktprozesse möglichst nah an einen technisch auch realisierbaren Zustand heranzuführen. Obwohl die Bilanzkreisverantwortung prinzipiell ein eigenständiger Geschäftsgegenstand ist, wird sie von vielen großen Energiedienstleistern mit abgedeckt. Diese brauchen für ihr Angebot ohnehin einen Bilanzkreisverantwortlichen. Außerdem besitzen sie mit dem Energieeinkauf bereits eine wichtige Funktion, die ein Bilanzkreisverantwortlicher ebenfalls benötigt. Zuletzt betreuen sie wegen ihrer Größe bereits in ihrem Kundenkreis ein ausreichend großes Verbraucherkollektiv, um die Bilanzkreisverantwortung mit vertretbar kleinem Risiko wahrnehmen zu können. Die Auswertung der dem Bilanzkreisverantwortlichen vorliegenden Informationen und die nachbetriebliche Weiterverrechnung unterscheiden zwischen Erzeugern und Energiedienstleistern, da bei den Erzeugern betrieblich bedingte Eingriffe des Systembetreibers zu berücksichtigen sind, die es auf der Abnahmeseite nicht geben kann. Abb. 3.50 zeigt zunächst exemplarisch, welche Fälle bei der Bilanzierung eines Erzeugers beachtet werden müssen. Der Bilanzkreisverantwortliche erhält von allen Erzeugern die Fahrpläne ihres Verkaufs und ihrer geplanten Einspeisung. Diese müssen nicht identisch sein, denn die Erzeuger können mit der Differenz, dem Bilanzsaldo in Abb. 3.50, zum Ausdruck bringen, dass sie Ausgleichsenergie einspeisen oder in Anspruch nehmen wollen. Dies kann gerade bei Erzeugern aus betrieblichen Gründen sinnvoll sein, obwohl die Konditionen für An- und Verkauf von Ausgleichsenergie normalerweise nicht attraktiv sind. Der Bilanzkreisverantwortliche meldet diese Information in geeignet aggregierter Form dem Systembetreiber. Dieser kann nun den Kraftwerken von ihrem Wunsch abweichende Vorgabefahrpläne mitteilen, sofern dies für den zuverlässigen Systembetrieb erforderlich ist. Der tatsächliche Kraftwerksbetrieb kann nun, auch wenn dies nicht erwünscht ist, wiederum von dieser Vorgabe abweichen. Die dabei entstehenden Sollabweichungen werden grundsätzlich mit den Konditionen für Ausgleichsenergie behandelt. Eine Ausnahme stellt die Reaktion eines Kraftwerks z. B. auf einen Erzeugungsausfall dar. Sie führt i. d. R. auch zu einer Sollabweichung, wird aber, da es sich um eine systemstützende Maßnahme handelt, individuell behandelt. Die entsprechenden Informationen und ihre Behandlung für die Verbrauchsseite zeigt Abb. 3.51. Auch hier stehen am Anfang die Fahrpläne für Verbrauch und Einkauf, aus denen der Bilanzsaldo, also die geplante Inanspruchnahme von Ausgleichsenergie, berechnet werden kann. Einen korrigierenden Eingriff des Systembetreibers kann es auf der Verbrauchsseite nicht geben – die einzige Möglichkeit dafür wäre die Verweigerung des Netzzugangs wegen veröffentlichter Engpässe, aber dieser Schritt wäre ggf. bereits bei der Anmeldung der Netznutzung beim Verteilnetzbetreiber erfolgt. Somit ist die nächste zu verarbeitende

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte mehr angemeldet als verkauft 6 => niedrig vergütete Ausgleichsenergieeinspeisung

15 Sollunterschreitung: Belastung mit Preis für 14 Ausgleichsenergie (hoch)

Leistung (MW)

12 weniger angemeldet als verkauft => geplante, teure Inanspruchnahme von Ausgleichsenergie

2

10

1

9

0

8

Bilanzsaldo (MW)

5 Sollüberschreitung: Vergütung für Einspeisung von Ausgleichsenergie (niedrig) 4 betriebsbedingter Eingriff 3

13

11

141

Verkauf gemeldeter Fahrplan aller KW Vorgabefahrplan tatsächliche Einspeisung Bilanzsaldo

-1 1

5

9

13

17

21

Zeit

Abb. 3.50. Bilanzierung eines Erzeugers

Information bereits der gemessene Verbrauch. Abb. 3.51 zeigt vier mögliche Fälle von Abweichungen zwischen Plan und Verbrauch. Zunächst kann der Verbrauch über dem angemeldeten Fahrplan liegen. Sofern der Einkauf in diesem Fall dem angemeldeten Verbrauch entspricht, handelt es sich um eine einfache Inanspruchnahme von Ausgleichsenergie. Liegt der Einkauf über dem angemeldeten Verbrauch, so wird die Ausgleichsenergiezahlung mit dem durch den Einkaufsüberschuss getätigten Angebot der Ausgleichsenergieeinspeisung verrechnet. In Summe bleibt natürlich 10

5 Fahrplanabweichung => Vergütung für Ausgleichsenergie (normalerweise niedrig), Zahlung der Fahrplanlieferung an Erzeuger

zuviel eingekauft => Vergütung für Einspeisung von Ausgleichsener9 gie, Zahlung an Erzeuger

Leistung (MW)

8

7

2 Fahrplanabweichung und Einkaufsüberschuß => Einspeisung und Zukauf von Ausgleichsenergie, führt zu verminderter Ausgleichsenergiezahlung

6

1

5

0

4

-1 1

5

9

13

17

21

Zeit

Abb. 3.51. Bilanzierung eines Energiedienstleisters (ESP)

Bilanzsaldo (MW)

4 Fahrplanabweichung => Zukauf von Ausgleichsenergie 3

offene Versorgung Fahrplanverträge Einkauf Verbrauchsfahrplan gemessener Verbrauch Bilanzsaldo

142

3 Elektrizitätswirtschaft, Liberalisierung

trotzdem eine, allerdings gegenüber dem ersten Fall verringerte, Zusatzzahlung bestehen. Liegt der Verbrauch unter Fahrplan und Einkauf, wird die Abweichung als Einspeisung von Ausgleichsenergie behandelt. Dies gilt auch, wenn schon der Verbrauchsfahrplan unter dem Einkaufsfahrplan lag und dies vom tatsächlichen Verbrauch bestätigt wird. Die beiden Betrachtungen zeigen, dass der Abgleich zwischen Planung und tatsächlichem Geschehen getrennt nach Erzeugung und Verbrauch durchgeführt wird. Die einzelne Transaktion ist in diesem Verfahren nicht identifizierbar. 3.7.5 Besonderheiten internationaler Realisierungen liberalisierter Elektrizitätsmärkte Dieser Abschnitt soll einen kurzen Überblick über wichtige internationale Liberalisierungsbeispiele geben. Dabei wird einerseits gezeigt, wie entsprechend Abschnitt 3.7.1 verschiedene gesellschaftliche Zielsetzungen zu Unterschieden in Privatisierung und Liberalisierung führen. Andererseits wird auf Besonderheiten in den Marktrollen eingegangen, die sich aus speziellen Gegebenheiten der jeweiligen Märkte ergeben haben. Tabelle 3.11 zeigt zunächst charakteristische internationale Beispiele für die Öffnung von Elektrizitätsmärkten. In der europäischen Union und in den USA überwiegt das Interesse, den Stromverbrauchern, vor allem in der Wirtschaft, elektrische Energie zu günstigen Preisen zu bieten. Deshalb ist in allen Ländern dieser Gruppe das Endziel ein weitgehender, in allen entsprechenden Beispielen der Tabelle 3.1 sogar vollständiger, Endkundenwettbewerb. Unterschiede finden sich praktisch nur in der Einführungsgeschwindigkeit und in einer evtl. vorgelagerten Privatisierung, wie sie z: B. in Großbritannien stattgefunden hat. Die Tabelle zeigt auch, dass vor allem die Länder den Endkundenwettbewerb stufenweise über einen längeren Zeitraum eingeführt haben, die früh mit der Liberalisierung begonnen haben. Inzwischen gibt es zahlreiche Erfahrungen mit liberalisierten Elektrizitätsmärkten, so dass der Lernzeitraum bei Marktöffnung verkürzt werden kann. In Lateinamerika war die Motivation der in den 80er- und 90er-Jahren vorgenommenen Marktöffnung eine andere. Hier wollte sich der Staat aus der als ineffizient geltenden Elektrizitätswirtschaft so weit wie möglich zurückziehen und gleichzeitig privates Kapital anziehen, um die Elektrizitätsversorgung zu verbessern. Deshalb wurden die Unternehmen privatisiert und Großhandelswettbewerb eingeführt. Voller Endkundenwettbewerb ist in keinem lateinamerikanischen Land vor 2010 geplant. Das eigentliche Ziel der Marktöffnung ist bereits erreicht, denn in allen Ländern waren Kostensenkungen und somit Effizienzsteigerungen – sowohl technische als auch personelle – zu verzeichnen, und ausländische Investoren haben sich im gewünschten Maß engagiert. Neben den offensichtlich unterschiedlichen Öffnungsgraden gibt es auch in Märkten mit Endkundenwettbewerb Unterschiede in der Realisierung der einzelnen Marktrollen, die ihre Ursachen meist in landesspezifischen Besonderheiten haben. Obwohl sich die im Folgenden diskutierten Beispiele USA, Großbritannien, Skandinavien und Kontinentaleuropa auf das allgemeine Marktmodell, wie

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

143

es in den Abschn. 3.7.2 bis 3.7.4 vorgestellt wurde, abbilden lassen, unterscheiden sich die Märkte in einzelnen Details deutlich. Tabelle 3.18. Internationale Beispiele für Privatisierung und Liberalisierung

Land

Europäische Union (EU)

Großbritannien

Skandinavien  Norwegen  Finnland  Schweden  Dänemark Deutschland

USA

Südamerika (Chile, Argentinien, Peru, Bolivien, Kolumbien, Brasilien, Venezuela)

3.7.5.1

Umfang von Privatisierung und Liberalisierung Einstieg über Großhandelswettbewerb, übergehend in Endkundenwettbewerb zunächst Privatisierung der weitgehend staatlichen Elektrizitätswirtschaft, anschließend wie EU wie Europäische Union, aber teilweise früher und unabhängig davon

Marktöffnung Beginn Ende

Kommentar

1997

2007

1990

1999

nationale Umsetzung bis 1999, minimale, vorgeschriebene Marktöffnung, am Ende 83 % 1990 Großhandelswettbewerb für Kunden >1 MW, 1994 >100 kW, 1999 Endkundenwettbewerb; bis Anfang 2001 Pool-System

1992 1996 1996 1998

1998 1998 1999 2002

Endkundenwettbewerb

1998

1998

bundesweiter Großhandelswettbewerb Endkundenwettbewerb unter Hoheit der Bundesstaaten

1996

2005

Privatisierung und Großhandelswettbewerb

1982 (Chile) bis 1996 (Brasilien, Venezuela)

erster Markt mit direktem Übergang auf Endkundenwettbewerb; 2005: Novelle des Energiewirtschaftsgesetzes entspr. EU-Beschleunigungsrichtlinie (Nov. ‘02)

sehr unterschiedlicher Stand, Vorreiter sind Kalifornien, New York, Massachusetts, New Hampshire erhebliche Kostenreduktion und somit Effizienzsteigerung in der Erzeugung, ausländisches Kapital in starkem Maße angezogen

Vereinigte Staaten von Amerika

Typisch für die amerikanischen Elektrizitätsmärkte sind die sog. Unabhängigen Systembetreiber (Independent System Operator ISO). Sie heißen unabhängig, weil sie im Gegensatz zur europäischen Praxis nicht mit dem Übertragungsnetzbetrieb

144

3 Elektrizitätswirtschaft, Liberalisierung

zusammengefasst sind. Die Hauptursache dafür ist, dass im Unterschied zur Situation in Europa, wo fast überall ein relativ zur Lastverteilung stark ausgebautes Übertragungsnetz existiert, die Übertragungsnetze in Nordamerika wegen der großen Fläche des Kontinents verhältnismäßig schwach sind und eine Vielzahl von Engpässen aufweisen. Hinzu kommt, dass es – ebenfalls im Unterschied zumindest zu Kontinentaleuropa – kein amerikaweites, galvanisch gekoppeltes Übertragungsnetz gibt. Um nun Marktanreize möglichst auch beim weiteren Ausbau der knappen Ressource Übertragungsnetz zu nutzen, ist das Übertragungsnetz wettbewerblich organisiert. Mehrere Gesellschaften bieten Leitungen an, die an Engpässen für Transporte auch explizit gebucht werden müssen. Es ist damit prinzipiell auch möglich, dass parallele, konkurrierende Leitungen unterschiedlicher Netzbetreiber gebaut und angeboten werden. Im Übrigen entsprechen die nordamerikanischen Strommärkte, abhängig vom in den Bundesstaaten sehr unterschiedlichen Marktöffnungsgrad, dem allgemeinen Marktmodell, d. h., es gibt national operierende Erzeuger und Großhändler sowie in den einzelnen Märkten Energiedienstleister, Bilanzverantwortliche und Verteilnetzbetreiber. Letztere treten dabei in Abhängigkeit von der Gesetzgebung des jeweiligen Bundesstaats und teilweise sogar von kommunalen Festlegungen häufig gleichzeitig als Alleinabnehmer für die Versorgung der Kleinkunden auf. 3.7.5.2

Großbritannien

In Großbritannien, dem ältesten Elektrizitätsmarkt Europas, wurde 1990 zunächst ein an entscheidender Stelle anderer Ansatz als das vorgestellte Marktmodell gewählt. Kern des Marktes war der sog. Pool, über den alle Transaktionen abzuwickeln waren. Erzeuger konnten nur an den Pool anbieten, 12 Regionalverteiler (Regional Electricity Companies, REC) sowie eine mit der Zeit zunehmende Gruppe größerer Kunden konnten direkt vom Pool beziehen. Der Poolpreis wurde vom jeweils teuersten in der aktuellen Lastsituation noch benötigten Kraftwerk bestimmt und war für alle zum Einsatz kommenden Kraftwerke gleich. Damit lag der Poolpreis grundsätzlich über den durchschnittlichen Erzeugungskosten des eingesetzten Kraftwerksparks, was dadurch kompensiert werden konnte, dass Marktteilnehmer bilateral sog. „Contracts for Differences” abschlossen, in denen sie vom Poolpreis abweichende Konditionen vereinbarten. Kosten für Systemdienstleistungen wurden von der nationalen Übertragungsnetzgesellschaft National Grid Company, die gleichzeitig Systembetreiber war, mit der Netznutzungsgebühr gedeckt. Ausgleichsenergie im Sinne des vorgestellten, allgemeinen Marktmodells gab es nicht, da der Pool dafür sorgte, dass unabhängig von eingegangenen Lieferverpflichtungen ausreichend Erzeuger am Netz waren und die Last gedeckt wurde. Erzeuger, die zwar angeboten hatten, aber ihre Lieferzusage nicht einhielten, hatten nur den Umsatzausfall zu verkraften. Das Poolmodell war verhältnismäßig einfach einzuführen und erfüllte zunächst auch seinen Zweck. Die Preise für Elektrizität fielen für alle Kunden mit Ausnahme einiger weniger, sehr großer, die vorher subventioniert wurden, die Versorgungssicherheit war nie gefährdet und die Produktivität der Erzeuger und der vom Regulator überwachten Netzbetreiber stieg um bis zu 75 % – im

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

145

Wesentlichen durch Personalabbau. Ausländische Investitionen in die privatisierten Regionalverteiler belegten, dass trotz des Kostendrucks eine wirtschaftlich interessante Industrie geschaffen worden war. Es gab allerdings auch unerwünschte Effekte. Zu Beginn missbrauchten große Erzeuger ihre Marktmacht zur Beeinflussung des Preises am in seiner Wirkung sehr transparenten Pool. Über die gesamte Zeit des Poolmodells war die Volatilität des Poolpreises sehr hoch – die monatlichen Preise konnten bis zu einem Faktor 6 schwanken –, und die Marktteilnehmer verwendeten viel Energie darauf, Lücken im Regelwerk des mit Pool und NGC stark regulierten Marktes zu finden und auszunutzen. Aus diesem Grund wurde 1998 beschlossen, den Pool durch das sog. New Electricity Trading Agreement (NETA) abzulösen. NETA trat 2001 in Kraft und entspricht dem allgemeinen Marktmodell mit der NGC als System- und Übertragungsnetzbetreiber und Bilanzkoordinator sowie Märkten für physischen und finanziellen Handel und Ausgleichsenergie. Durch die Einführung des Produkts Ausgleichsenergie gibt es erstmals im britischen Markt eine Pönalisierung der Nichterfüllung vertraglicher Verpflichtungen. Insgesamt wurde erwartet, dass der Ersatz des regulierenden Pools durch Märkte dazu führt, dass die Marktteilnehmer sich verstärkt um die Entwicklung ihrer Geschäftsposition kümmern, statt Lücken im Regulierungsregelwerk zu suchen und für sich auszunutzen. 3.7.5.3

Skandinavien

Die skandinavischen Märkte Norwegens, Schwedens und Finnlands waren die ersten, die vollständig entsprechend dem allgemeinen Marktmodell organisiert waren. Eine Besonderheit dieser Märkte ist, vor allem in Norwegen und Schweden, ihre große Nord-Süd-Ausdehnung in Verbindung mit einem ausgeprägten regionalen Ungleichgewicht von Verbrauchsschwerpunkten und Erzeugungsstandorten. Dies führt dazu, dass auch in diesen Märkten, ähnlich wie in Nordamerika, das Übertragungsnetz eine knappe Ressource ist. Die Methode, mit welcher der Umgang der Marktteilnehmer mit diesem Engpass geregelt wird, ist allerdings grundsätzlich vom amerikanischen ISO-Ansatz verschieden. In den skandinavischen Märkten gibt es jeweils nur einen Übertragungsnetz- und Systembetreiber, der gleichzeitig Bilanzkoordinator ist. Das Übertragungsnetz ist in mehrere Regionen unterteilt, und bei Transporten von einer Region in die andere wird eine Gebühr erhoben. Diese Gebühr ist richtungsabhängig, d. h., sie belastet wirtschaftlich Transporte aus den Erzeugungsschwerpunkten in die Verbrauchszentren. Dadurch sind die Marktteilnehmer angehalten, bevorzugt erzeugungsnah zu verkaufen und die Engpässe im Übertragungsnetz so wenig wie möglich in Anspruch zu nehmen. Anders als das amerikanische System, das sowohl Mengenbegrenzungen als auch Preissteuerung – denn begrenzte Ressourcen werden im Markt automatisch teurer als unbegrenzte – nutzt, setzen die skandinavischen Märkte also ausschl. auf finanzielle Anreize, um Netzengpässe zu vermeiden.

146 3.7.5.4

3 Elektrizitätswirtschaft, Liberalisierung

Kontinentaleuropa

Eine weitgehende Marktöffnung und die zugehörige Marktorganisation haben auf dem europäischen Kontinent, also im Übertragungsnetzbereich der UCTE, bis zum Jahr 2005 die Niederlande, Deutschland und Österreich durchgeführt. Auf Grund des im Verhältnis zu Verbrauchs- und Erzeugungsschwerpunkten starken UCTE-Netzes gibt es in keinem dieser Märkte Lenkungsmaßnahmen, um Netzengpässe zu vermeiden. Damit entsprechen die Märkte praktisch genau dem allgemeinen Marktmodell. Die einzige Abweichung, allerdings von untergeordneter Bedeutung, ist, dass es in Deutschland nicht einen Übertragungsnetz- und Systembetreiber gibt, sondern vier Unternehmen, die den Systembetrieb jeweils in ihrer Regelzone führen. Da die Übertragungsnetzbetreiber über die einheitliche Netznutzungsgebühr jedoch wirtschaftlich als ein Marktteilnehmer auftreten, ist für die übrigen Marktteilnehmer der einzig wirklich relevante Unterschied zum allgemeinen Modell, dass die Bilanzkreisverantwortlichen die Regelzonenim- und -exporte an ihren Regelzonenbetreiber melden müssen und dass der Bilanzausgleich innerhalb der vier Regelzonen erfolgen muss. Zur Zeit im UCTE-Bereich noch nicht systematisch gelöst ist die Frage der Abrechnung und der Handhabung der Netznutzung für internationale Handelsvorgänge. Zwischen den nationalen Netzen Europas gibt es Engpässe, an denen die Kapazitätsvergabe heute individuell, häufig über Auktionen geregelt ist. 3.7.5.5

Zusammenfassung internationaler Beispiele

Zum Abschluss des Abschnitts über wichtige internationale Liberalisierungsbeispiele fasst Tabelle 3.20 die wesentlichen Charakteristika der Märkte zusammen. Es wird deutlich, dass nach gut zehn Jahren Erfahrung mit liberalisierten Elektrizitätsmärkten ein hohes Maß an Übereinstimmung zwischen den verschiedenen Märkten besteht. Die verbleibenden Unterschiede sind praktisch alle mit den besonderen Gegebenheiten der jeweiligen Länder zu erklären. 3.7.6 Erfahrungen in liberalisierten Märkten Privatisierung und Liberalisierung der Elektrizitätsversorgung sind seit Beginn der 90er-Jahre in vielen Märkten vorangetrieben worden. In diesem letzten Abschnitt zum Wettbewerb im Elektrizitätssektor werden die Folgen der Liberalisierung in beispielhaften Ländern diskutiert. Tabelle 3.21 fasst qualitativ Beispiele der Konsequenzen von Liberalisierung in den Marktrollen zusammen. Mit Ausnahme der Reduktion der durchschnittlichen Preise direkt nach Marktöffnung und des Anwachsens der Ausgaben für Informationstechnik gibt es praktisch keine einheitlichen Folgen der Marktöffnung, da das Geschehen in starkem Maße von der Ausgangssituation in den Märkten und dem Regelwerk abhängt.

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

147

Tabelle 3.19. Zusammenfassung internationaler Liberalisierungsbeispiele (grau unterlegt: Übereinstimmung mit dem allgemeinen Marktmodell)

Rolle

Großbritannien Pool NETA Erzeugung Großhandels- Pool, bilate- Großhandelsmarkt rale Verträge markt Pool Zentrale staatl. und priv., Märkte Märkte für Terminund Spotgeschäfte, Ausgleichsenergie Systembetrieb

Bilanzkoord. Übertragungsnetz Verteilungsnetz Ausgleichsenergie

Endkundenwettbewerb

Kalifornien

Skandinavien Deutschland Großhandelsmarkt Börse (NordPool und EL-EX in Finnland), Termin- und Spotmarkt

Großhandelsmarkt Börse in Leipzig, Terminund Spotmarkt; Regelenergiemärkte der Systembetr.

Unabh. Systembetr. (ISO) wie vor

National Grid Company (entfällt)

National Grid Company wie vor

Statnet, FinGrid, Svenska Kraftnät wie vor

4 Übertr.-Netzbetreiber mit Regelzonen wie vor

viele Einzelanbieter, reguliert Monopol

National Grid Company Monopol

National Grid Company Monopol

wie vor

4 Netzbetreiber treten als ein Anbieter auf Monopol

ISO als Alleinabnehmer, Balance Responsibles im Wettbew. uneingeschr. möglich seit 1997, kommunale Entscheidung

(entfällt)

National Grid Company, Alleinabnehmer uneingeschränkt seit 1999

Endkundenwettb. mit hinterlagertem Alleinabn.-Markt uneingeschränkt seit 1999

uneingeschränkt seit 1999

Monopol

Endkundenwettb. mit hinterlagertem Alleinabn.Markt uneingeschränkt von Anfang an (1998)

Am deutlichsten wird dies in der Stromverteilung: In Ländern mit schlechtem Netzzustand vor der Liberalisierung, führte die Einführung eines Regulators, der im Monopolmarkt auch die Dienstleistungsqualität überwacht, in mehreren Ländern zu Investitionen vor allem im Verteilungsnetz, während die Investitionstätigkeit in Ländern mit (unwirtschaftlich) hohem Zuverlässigkeitsniveau praktisch zum Erliegen kam. Sogar bei der Entwicklung der Preise gibt es erhebliche Unterschiede bis hin zum Preisanstieg für einzelne Kundengruppen – nur die integrale Preissenkung in der Anfangsphase allen Märkten gemeinsam Die einzige Auswirkung in Tabelle 3.20, die nicht allein aus der Ausgangssituation und den Marktmechanismen erklärbar ist, ist das Entstehen des kalifornischen Versorgungsengpasses in den Jahren 2000 und 2001. Er ist hauptsächlich darauf zurückzuführen, dass in Kalifornien, trotz schon zu Beginn der Libe-

148

3 Elektrizitätswirtschaft, Liberalisierung

ralisierung knapper Erzeugungskapazität, nicht in ausreichendem Maße Neubauten zugelassen wurden. Dies in Verbindung mit einer künstlichen Verknappung der Importmöglichkeiten durch Begrenzung der Großhandelspreise auf zwar hohem, aber während des Entstehens des Engpasses dennoch niedrigerem Niveau als in den Nachbarstaaten führte zunächst zum Anstieg der Großhandelspreise bis zu den festgelegten Grenzwerten und anschließend zur Verknappung elektrischer Energie. Tabelle 3.20. Beispiele für Auswirkungen der Liberalisierung von Elektrizitätsmärkten

Wirkungsbereich Erzeugung

Übertragung, Verteilung

Informationstechnik Großhandelspreise

Voraussetzung

Monostruktur im Investitionen zur Erzeugungsmix Verbesserung des Primärenergiemix (Risikostreuung) Investitionen zwecks zu geringe Kapazitätsanpassung Erzeugungskapazität keine Investitionen, Preisanstieg, Versorgungsengpässe Erliegen der Überkapazität Investitionstätigkeit bei voller Marktöffnung Fragmentierung Marktkonsolidierung, Fusionen Investitionen wegen Zuverlässigkeit Aufsicht durch unter RegulaRegulator torforderung hohe ZuverMinimierung der lässigkeit Investitionstätigkeit starker Ausbau Anfangsphase wenn Markt funktioniert

Endkundenpreise

Auswirkung

starke Senkung, oft nahe variabler Kosten Erholung, angemessene Fixkostendeckung stärkere Marktkonformität, weniger Quersubventionierung

Beispiele

Anmerkungen

Großbritannien

Großhandelspreisniveau muss Investitionen zulassen SüdAlleinabnehmeramerika oder Großhandelsmärkte Kalifornien Endkundenwett2001 bewerb, zu stark regulierter Markt Deutschland Deutschland Großbritannien, USA Deutschland

Fehlende Werkzeuge Professionalisierung kann zu Erhöhungen und Senkungen führen

Verschärft wurde das Problem dadurch, dass auch die Elektrizitätspreise für Kleinkunden gesetzlich nach oben begrenzt waren, so dass große

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

149

Energiedienstleister in Konkurs gingen. Dies alles ist aber kein Beispiel für Risiken von Wettbewerbsmärkten, sondern allenfalls für inkonsistente Regulierung. Im Folgenden werden zwei Gruppen von Auswirkungen detaillierter betrachtet. Am Beispiel der Marktöffnung in Deutschland werden das Kundenverhalten und die Entwicklung der Preise für Endkunden und im Großhandelsmarkt diskutiert. Anschließend werden Beispiele von Übergangseffekten vorgestellt, die nach der Marktöffnung auftraten, und der Umgang mit ihnen erläutert. 3.7.6.1

Auswirkungen der Liberalisierung auf Preise und Kundenverhalten

Am schnellsten reagiert der Großhandelsmarkt auf die Liberalisierung, da er meist, zumindest für eine geschlossene Gruppe von Teilnehmern, bereits vor der Marktöffnung existierte, und er außerdem wegen der vergleichsweise großen und wenigen Transaktionsvolumina auch keine besonders aufwendige Marktinfrastruktur benötigt. Abb. 3.52 zeigt die Entwicklung von Handelsvolumen und Preisen an der European Energy Exchange in Leipzig seit Anfang des Jahres 2002. Zu dieser Zeit hatte der deutsche Elektrizitätsmarkt die häufig nach einer Marktöffnung zu beobachtende erste Phase bereits abgeschlossen, in der ohne geeignete Werkzeuge und Informationen versucht wird, Marktanteile unter Inkaufnahme niedriger Preise zu halten. Dennoch war der Großhandelspreis Anfang 2002 noch recht niedrig. Erst in den Jahren 2003 und 2004 stiegen die Preise auf ein Niveau, das auch Neuinvestitionen im Kraftwerkssektor rechtfertigte. Der weitere Preisanstieg im Jahre 2005 wir allgemein auf die Einbeziehung der Preise für die zu dieser Zeit neu eingeführten CO2-Emissionszertifikate zurückgeführt. Uneinheitlich ist die Annahme der Möglichkeiten des liberalisierten Marktes durch die Endkunden. Abb. 3.53 zeigt die Entwicklung der Wechselraten bei Haushaltskunden in verschiedenen liberalisierten Märkten. Deutlich fällt auf, dass die Wahlfreiheit in der Telekommunikation wesentlich stärker genutzt wird als bei den leitungsgebundenen Energien. Ein Grund dafür ist sicherlich die einfache Handhabung im Call-by-Call-Verfahren, für das es in der Elektrizitätswirtschaft kein Analogon gibt. Das Interesse an der Wahl des Elektrizitätslieferanten ist insgesamt niedrig. Selbst die nicht sehr hohen Vorhersagen für den Wechselstand am Ende des Jahres 2000 in Deutschland und Schweden wurden nicht erreicht. Die höheren Raten sowohl im Gas- als auch im Elektrizitätsmarkt Großbritanniens lassen auf eine grundsätzlich andere Haltung der Haushaltskunden zu ihren Versorgern schließen als in Deutschland und Skandinavien, wo, bedingt durch das sehr starke kommunale Engagement in der Versorgung, eine hohe Loyalität zu den Versorgungsunternehmen besteht. Nicht übersehen werden darf außerdem, dass zusätzlich zu den in Abb. 3.53 gezeigten „echten“ Wechseln ein erheblicher Teil der Haushaltskunden bei ihrem alten Lieferanten günstigere Verträge gewählt haben, was effektiv die Zahl der Kunden erhöht, welche die Möglichkeiten der Liberalisierung genutzt haben.

150

3 Elektrizitätswirtschaft, Liberalisierung

10.000

100 Grundlast Spitzenlast Grundlastpreis Spitzenlastpreis

90 80 70

8.000

60 6.000

50 40

4.000

30 20

2.000

10 0

Durchschnittspreis (EUR/MWh)

Monatsvolumen (GWh).

12.000

0

02 02 02 02 03 03 03 03 04 04 04 04 05 05 05 05 06 06 n pr ul kt an pr ul kt an pr ul kt an pr ul kt an pr a J A J O J A J O J A J O J A J O J A Abb. 3.52. Entwicklung von Handelsvolumen und Preis an der European Energy Exchange in Leipzig seit Anfang 2002

Trotz der geringen Wechselraten im Haushaltskundenbereich sind deshalb die Preisänderungen auch in diesem Segment erheblich. Verbraucherseitig verlief z. B. die Zeit nach der Marktöffnung in Deutschland folgendermaßen: Gewerbeund Industriekunden haben sofort Gebrauch von ihrer Wahlfreiheit gemacht - die ausgehandelten Preise lagen bis zu 40 % unter den vor der Marktöffnung gültigen. Grundsätzlich wurden nur noch Verträge mit kurzer Laufzeit abgeschlossen, die zwischenzeitlich oft monatlich neu verhandelt wurden. In diesem Segment war der Markt nach der Öffnung von den Kunden getrieben. 40% Schätzungen Ende 2000 (von Anfang 2000): Schweden 10 % Deutschland 5 %

35%

Wechselanteil

30%

Ende 2001

Ende 1999

Ende 1999

25%

Deutschland Festnetz Großbritannien Gas Großbritannien Strom Norwegen Strom Schweden Strom Deutschland Strom

20% Ende 2001

15%

Ende 1999

10% 5%

Ende 2001 Ende 2002

0% 0

12

24

36

48

Wettbewerbsdauer in Monaten

Abb. 3.53. 19Wechselanteil bei Haushaltskunden in verschiedenen Märkten [3.9]

60

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

151

Etwa ein Jahr nach der deutschen Marktöffnung gab es im Sommer 1999 nach einigen erfolglosen Versuchen neuer Anbieter die ersten Angebote für Haushaltskunden, die nicht nur Energie, sondern auch die Netznutzung umfassten und so für die Endkunden erstmals praktikabel waren. Das Angebot 19/19 (DM 19 monatliche Grundgebühr und DM 0,19/kWh verbrauchsabhängiger Preis) des ersten bundesweit aktiven Anbieters lag im Durchschnitt 23 % unter den bis dahin gültigen Preisen (Abb. 3.54). Es war selbst beim damaligen, sehr niedrigen Großhandelspreis kaum kostendeckend (Abb. 3.55). Trotzdem blieb die Wechselbereitschaft gering. Bis Mai 2000 hatten nur etwa 200.000 Kunden das Angebot angenommen, bis zum Ende des Jahres 2000 waren es nach weiterer intensiver Werbung rund 800.000. Ein Grund dafür war sicherlich, dass viele lokale Anbieter auf die Angebote der bundesweit agierenden Unternehmen mit Preissenkungen reagierten und so den Wechselanreiz reduzierten. Alles in allem ist festzuhalten, dass der Haushaltskundenmarkt im Gegensatz zum Gewerbe- und Industriekundenmarkt praktisch ausschl. von den Anbietern getrieben ist. 25,00 max. Senkung: Großfamilie, -28 %

€ ct./kWh

20,00

15,00 EVU, Single-Haushalt (1600 kWh/a) EVU, Durchschnittshaushalt (3500 kWh/a) EVU, großer Familienhaushalt (6000 kWh/a)

10,00

NA, Single (1600 kWh/a), Region 1 NA, Single (1600 kWh/a), Region 2 NA, Durchschnitt (3500 kWh/a), Region 1

5,00

NA, Durchschnitt (3500 kWh/a), Region 2 NA, Großfamilie (6000 kWh/a), Region 1 NA, Großfamilie (6000 kWh/a), Region 2

0,00 1999

2000

2001

2002

2003

2004

2005

2006

Abb. 3.54. Entwicklung der Strompreise für Haushaltskunden in Deutschland [3.9]

Im Laufe des Jahres 2000 fand auch in diesem Segment, wie bereits beim Großhandel beobachtet, eine Professionalisierung statt, die den Preisverfall beendete. Dies wird an der in Abb. 3.54 gezeigten Preisentwicklung eines sogenannten neuen Anbieters (NA) seit dem Jahre 2001 deutlich.

152

3 Elektrizitätswirtschaft, Liberalisierung

Insbesondere fällt auf, dass der Tarif seit dem Jahre 2003 regional differenziert wird. Damit ist es möglich, auf Unterschiede in den Netznutzungsgebühren und auf die regionale Wettbewerbssituation einzugehen. Allerdings setzt dies auch die Bereitstellung geeigneter Informationen durch die Netzbetreiber für ein solchermaßen differenziertes Angebot voraus. Es ist davon auszugehen, dass diese Bedingung in den Jahren bis 2002 nicht ausreichend erfüllt war, weshalb der neue Anbieter in dieser Phase mit einem Einheitstarif operiert hat. Zusammen mit der von der deutschen Bundesregierung 1999 und 2000 eingeführten Ökosteuer und der Umlage der Förderung von regenerativen Energiequellen und Kraft-Wärme-Kopplung auf alle Elektrizitätskunden hat die zunehmende Professionalisierung der Energiedienstleister dazu geführt, dass die Preissenkungen der Jahre 1999 und 2000 für Haushaltskunden seit dem Jahr 2002 praktisch wieder annulliert sind. Außerdem ist zu dieser Zeit der Wettbewerb um Haushaltskunden fast vollständig zum Erliegen gekommen, da die Anbieter nicht mehr willens sind, die angesichts des geringen Interesses der Endkunden unverhältnismäßig hohen Akquisitionskosten zu tragen. Dies ist im Übrigen eine Entwicklung, die auch aus anderen bekannt ist. Dort findet das Angebot an Haushaltskunden praktisch nur noch als Verbundvertrieb mit anderen Produkten im sog. Cross-Selling statt. 14 12 10

€ ct./kWh

8 6 4 2

Deckungsbeitrag

Vertriebskosten

Bruttomarge

Netznutzungsgebühren

Erzeugungspreis

Konzessionsabgabe

Nettopreis

Ökosteuer

MWSt

-2

Bruttopreis

0

Abb. 3.55. Geschätzte Margen beim Preisniveau eines bundesweit aktiven neuen Anbieters für Haushaltskundenstrom und Großhandelspreisen des Jahres 1999 bei einem Verbrauch von 3500 kWh/a (nach [3.9])

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

153

Abschließend kann nach den bisherigen Erfahrungen gesagt werden, dass die in den Anfangsphasen der Liberalisierung von Elektrizitätsmärkten durchgängig erreichten Preissenkungen die Vermutung nahelegen, dass das Ziel der Effizienzsteigerung durch Liberalisierung tatsächlich erreicht wird. Allerdings folgte in allen liberalisierten Märkten auf eine Phase deutlicher Preissenkungen am Anfang ein Wiederanstieg der Preise – für die durchschnittlichen Haushaltskundenpreise in Deutschland, Großbritannien und Schweden zeigt dies beispielhaft Abb. 3.19. Auch wenn hinter dieser Preisentwicklung Treiber stehen können, die nichts mit der Liberalisierung zu tun haben – beispielsweise Steuern und Abgaben oder die Primärenergiepreise -, stellt sich die Frage, ob die Effizienzgewinne nachhaltig sind. Speziell im Hinblick auf den Haushaltskundensektor weisen die insgesamt niedrigen Preissenkungen wie auch die Aufschlüsselung in Abb. 3.55 darauf hin, dass in diesem Sektor der mit Abstand größte Kostenblock die Netznutzungsgebühren sind, die vom direkten Wettbewerbsdruck ausgenommen sind. In keinem Markt gab es nach der Liberalisierung ernste Probleme bei der Systemführung. Befürchtungen, die Umstellung der zentralen Betriebsplanung auf einen marktwirtschaftlich dominierten Prozess gefährde die Versorgungssicherheit, erwiesen sich zumindest im Hinblick auf den Systembetrieb als gegenstandslos. Allerdings kam es im Jahre 2003 in Nordamerika und verschiedenen europäischen Staaten zu Großstörungen bisher unbekannten Ausmaßes. Die bekanntesten sind der Stromausfall im Nordosten der USA am 14. August und der vollständige Ausfall der italienischen Stromversorgung in der Nacht des 28. September. 18,0 16,0 Deutschland Großbritannien Schweden

€ ct./kWh

14,0 12,0 10,0 8,0 6,0

Wettbewerbsbeginn (nicht Marktöffnung!) im Privatkundenbereich

Jahresverbrauch 3.500 kWh

97 97 98 98 98 98 99 99 99 99 00 00 00 00 01 01 01 01 z rz un ep ez z n n p ez p p rz un ep ez rz rz e J J M Ju Se De M M Ju Se De M D D D S S S

Abb. 3.56. Entwicklung der durchschnittlichen Preise in Deutschland, Schweden und Großbritannien nach Einsetzen des Wettbewerbs im Haushaltskundensektor

154

3 Elektrizitätswirtschaft, Liberalisierung

Die anschließend durchgeführten Analysen belegten neben einer Vielzahl individueller Ursachen die Notwendigkeit leistungsfähigerer Informationssysteme für die Systembetreiber in liberalisierten Märkten und warfen die Frage auf, wie langfristig der angemessene Ausbau der Übertragungsnetze in liberalisierten Märkten sichergestellt werden kann. 3.7.6.2

Übergangseffekte

Neben den in Abschnitt 3.7.6.1 besprochenen Auswirkungen von Privatisierung und Liberalisierung auf Preise und Kundenverhalten gibt es auch Folgen, die sich aus der Anpassung der vor der Liberalisierung nicht immer ausschließlich nach marktwirtschaftlichen Gesichtspunkten aufgebauten Versorgungssysteme an die Marktbedingungen ergeben. Diese Übergangseffekte bedeuten meist Härten für einzelne Marktteilnehmer. Teilweise sind sie politisch unerwünscht und rufen Gegenmaßnahmen in Form neuer Gesetze hervor. In diesem Abschnitt werden einige Beispiele solcher Übergangserscheinungen vorgestellt und erläutert, ob und was man gegen sie unternommen hat. x „Stranded Investments“: In vielen Märkten sind in der Monopolzeit langfristige Investitionen, die einer strengen, rein marktwirtschaftlichen Überprüfung nicht standgehalten hätten, entweder im Vertrauen darauf getätigt worden, dass ihre Nutzbarkeit sichergestellt sei, oder weil sie politisch erwünscht waren. Hierzu zählt z. B. der Ersatz der ostdeutschen Braunkohlekraftwerke nach der Wiedervereinigung, der dazu führte, dass das verantwortliche Unternehmen VEAG im Anschluss außerordentlich hohe Abschreibungen hatte. Speziell im europäischen Umfeld mit deutlicher Überkapazität in der Erzeugung wäre eine solche Entscheidung unter Wettbewerbsbedingungen sicher nicht getroffen worden. Die politischen Reaktionen auf solche Situationen sind unterschiedlich: In den USA sind den betroffenen Unternehmen in einem Übergangszeitraum die Stranded Investments erstattet worden. Die dazu benötigten Mittel wurden als Aufschlag auf den Strompreis erhoben. Dies führte dazu, dass viele Kunden in der Übergangszeit höhere Strompreise hatten als vor der Liberalisierung. Auch in anderen Ländern wird die staatliche Übernahme der Stranded Investments diskutiert. In Deutschland wurde, obwohl, wie obiges Beispiel zeigt, das Problem durchaus existierte, zunächst kein Eingriff vorgesehen. Später wurde den betroffenen Unternehmen eine beschleunigte Abschreibung zugestanden. Da dies auch höhere Kosten bedeutete, wurde diese Regelung mit einem befristeten Wettbewerbsschutz für das Versorgungsgebiet kombiniert. Deren Einhaltung war jedoch unter den Randbedingungen des bereits etablierten Wettbewerbs nicht mehr sicherzustellen, so dass sich das Maßnahmenpaket letztlich als wenig wirksam erwies. x Ausbau des Kraftwerkparks in Europa: In einem funktionierenden Wettbewerbsmarkt stellt sich die Produktionskapazität so ein, dass die am wenigsten eingesetzten Anlagen mit ihrer Auslastung gerade noch ihre Fixkosten decken können. Weitere Zubauten finden nur statt, wenn die Einsparung an variablen Kosten die Neuinvestition rechtfertigt. Im europäischen Erzeugungssektor war

3.7 Funktionsweise liberalisierter Elektrizitätsmärkte

155

allerdings unter Monopolbedingungen eine deutlich höhere Kapazität installiert worden als demnach zu rechtfertigen gewesen wäre – teilweise aus nationalen Sicherheitserwägungen, teilweise, weil Anlagen, die eigentlich nicht mehr wettbewerbsfähig waren, nicht stillgelegt wurden. Nach der Marktöffnung bedeutete dies, dass es eine marktprägende Anzahl alter, vollständig abgeschriebener Anlagen gab, die zwecks wenigstens partieller Deckung ihrer Fixkosten nahe an ihren Grenzkosten angeboten haben. Damit ließen sie keinen Raum für Investitionen in neue, modernere Anlagen. Untersuchungen aus der Zeit der Marktöffnung kamen zu dem Ergebnis, dass es rund 10 Jahre dauern würde, bis durch Stillegungen das eingangs beschriebene Gleichgewicht erreicht werde und an sich normale Modernisierungsinvestitionen wieder finanzierbar sein würden [3.17]. Dieser Vorgang ist ein normaler Anpassungsprozess, der beim Übergang zu einem Wettbewerbsmarkt erforderlich ist. Die Preisentwicklung an den europäischen Großhandelsmärkten für elektrische Energie seit dem Jahre 2003 (s. Abb. 3.18) hat im übrigen zur Folge gehabt, dass die Erneuerung des Kraftwerksparks deutlich früher begonnen hat, als zu Beginn der Liberalisierung erwartet. x Förderung von Kraft-Wärme-Kopplung und regenerativen Energien in Deutschland: Spätestens seit der Ölkrise in den 70er-Jahren ist in Deutschland der Ausbau der Kraft-Wärme-Kopplung politisch stark vorangetrieben worden. Dabei sind mitunter auch Anlagen gebaut worden, die einer wirtschaftlichen Überprüfung unter den heutigen Wettbewerbsbedingungen nicht standhalten. Kraft-Wärme-Kopplung stand auf der Wärmeseite auch schon vor der Liberalisierung des Elektrizitätsmarkts im Wettbewerb, der preisbestimmend für die Wärmeabgabe war. Der Strompreis konnte im Monopolmarkt dazu genutzt werden, die Gesamtwirtschaftlichkeit sicherzustellen. Diese Möglichkeit besteht im liberalisierten Markt nur noch, falls der so erzielte Strompreis wettbewerbsfähig ist. Dies war zwar grundsätzlich möglich, traf aber nicht bei allen gebauten Anlagen zu. Noch schwieriger war die Situation bei Windkraft- und Solarenergieanlagen, die zur Monopolzeit dadurch unterstützt wurden, dass die Versorgungsunternehmen zur Abnahme der erzeugten Energie auf Kostenbasis verpflichtet waren – eine Vorgehensweise, die einzelne Unternehmen stark belastete und sich somit nicht mit dem in Wettbewerbsmärkten unerlässlichen Grundsatz der Diskriminierungsfreiheit verträgt. Für beide Fälle hatte der deutsche Gesetzgeber in der Novellierung des Energiewirtschaftsgesetzes von 1998 keine Vorkehrungen getroffen, weshalb betroffene Erzeugungsanlagen nach der Marktöffnung erhebliche wirtschaftliche Probleme hatten. Als Gegenmaßnahme traten Anfang 2000 Gesetze zur Förderung von Kraft-Wärme-Kopplung (KWK-Gesetz) [3.14] und erneuerbaren Energiequellen (EEG) [3.12] in Kraft. Beide Gesetze schreiben vor, dass die Netzbetreiber Strom aus KraftWärme-Kopplung und erneuerbaren Energien abnehmen müssen – und zwar alle, unabhängig davon, ob es in ihrem Netz überhaupt Einspeisung gibt. Die bundesweite Erzeugung aus den unterstützten Anlagen wird so auf alle Netze verteilt, die entstehenden Kosten über die Netznutzungsgebühr an die Endkunden weitergegeben. Praktisch bedeutet dies, dass der Wettbewerbsmarkt um

156

3 Elektrizitätswirtschaft, Liberalisierung

die Erzeugung der unterstützten Anlagen verkleinert wird, dass aber kein Anbieter im Wettbewerbsmarkt benachteiligt wird. Unterschiede zwischen den beiden Gesetzen gab es in der Dauer der Unterstützung: Das ursprüngliche KWK-Gesetz war bis max. Ende 2004 befristet, die Unterstützung von KWK-Anlagen wurde bis dahin jährlich verringert. Damit handelte es sich zunächst um ein typisches Gesetz zur Förderung einer Anpassung, dessen Anlass idealerweise während der Laufzeit entfällt. Das erste KWK-Gesetz wurde zum 1. April 2002 durch ein neues KWK-Gesetz [3.13] abgelöst, das im Rahmen des Nationalen Klimaschutzprogramms der Bundesrepublik Deutschland die weitere, differenzierte Förderung ausgewählter KWK-Technologien regelte. Dies stellte den Übergang von einem Anpassungsgesetz zu einem Technologiefördergesetz dar. Das Gesetz zur Förderung erneuerbarer Energien war von vorneherein nicht zeitlich befristet, und es gibt auch keinen fest vorgeschriebenen Reduktionsmechanismus der Förderung. Statt dessen ist ihre regelmäßige Überprüfung und Anpassung an den technischen Fortschritt vorgesehen. Damit handelt es sich hier um ein typisches Fördergesetz, das eigentlich keinen liberalisierungsbedingten Übergang steuert. Die Beispiele haben verdeutlicht, welche Arten von Übergangseffekten nach Liberalisierungen auftreten und wie damit umgegangen wird. Da die Übergangseffekte grundsätzlich sehr marktspezifisch sind, gibt es viele weitere Beispiele. Allen gemeinsam ist, dass die Gegenmaßnahmen oft reaktiv sind, weil nicht alle unerwünschten Entwicklungen vorhergesehen werden können. Deshalb ist jede Liberalisierung in ihren ersten Jahren auch mit starker Re-Regulierung verbunden. In diesem Prozess werden politische Ziele, die unter Monopolbedingungen verhältnismäßig einfach vorgegeben werden konnten, in marktverträgliche Regeln „übersetzt“.

3.8 Risikomanagement in der Elektrizitätswirtschaft

157

3.8 Risikomanagement in der Elektrizitätswirtschaft Das Risikomanagement hat die Aufgabe, die wirtschaftlichen Tätigkeiten des Unternehmens mit der Risikobereitschaft des bzw. der Eigentümer in Einklang zu bringen. Ein umfassendes Risikomanagement bedingt, dass neben der operativen Tätigkeit auch die Unternehmensstrategie und deren Umsetzung einbezogen werden. Die Umsetzung erfolgt i.d.R. über Projekte. Vor diesem Hintergrund wurde der aktuelle Stand (April 07) von Wissenschaft und Praxis des Konzernrisikomanagements analysiert und in diesem Kapitel zusammengefasst, wobei bei der Erstellung ausschließlich die geltenden gesetzlichen Regelungen in der Schweiz berücksichtigt wurden. Die praktischen Beispiele basieren auf den Arbeiten der Cigré-Task Force 38-05-12 [3.7]. Für den Aufbau des Risikomanagements, drängt sich die folgende Reihenfolge auf: 1. Definition und Umsetzung des Risikomanagement-Prozesses. Er garantiert, dass die Risiken identifiziert, bewertet, gesteuert und überwacht werden. Dieser Prozess kann sowohl für die operative Tätigkeit, die Unternehmensstrategie und für die Projekte angewendet werden. 2. Absicherung der aggregierten Unternehmensrisiken mit Risikokapital und risikoorientierte Ertragssteuerung von operativen Einheiten. Dabei wird i.d.R. der Bezug auf ein Geschäftsjahr gemacht. 3. Definition und Umsetzung von weiteren Themen des Risikomanagements, wie Erhöhung der Planungssicherheit, Erhöhung des Zielerreichungsgrades und das Chancenmanagement 3.8.1. Anforderung an die Unternehmensführung Aktuell sind keine gesetzlichen Regelungen bekannt, die der Elektrizitätswirtschaft vorschreiben, dass sie ein Risikomanagement zu betreiben hat bzw. wie dieses ausgestaltet sein muss. Geprüft wurden insbesondere das Schweizer Obligationenrecht, SWISS GAAP FER , SWX Richtlinien und IAS/IFRS. Es gibt jedoch eine gültige (SWX RLCG) und zwei in 2007 (IFRS 7) und 2008 (OR) gültig werdende Veröffentlichungsvorschriften, wonach die Unternehmen im Anhang zum Jahresabschluss Angaben zu ihrer Risikoposition machen müssen. Gleichzeitig müssen sie angeben, wie mit diesen Risiken umgegangen wird. Die Idee dahinter ist, dass Risikomanagement immer individuell auf die Gegebenheiten eines Unternehmens zugeschnitten sein muss. Es kann nicht durch allgemein gültige Gesetze geregelt werden. Durch die Veröffentlichungsvorschriften soll über den Markt Druck auf die Unternehmen ausgeübt werden, ein für alle Stakeholder des Unternehmens angemessenes Risikomanagement einzuführen. Wenn Unternehmen relevanten Risiken unterliegen, jedoch angeben, dass diese nicht gemanaged werden, sollen Banken, Investoren und Aktionäre auf ein geeignetes Risikomanagement hinwirken.

158

3 Elektrizitätswirtschaft, Liberalisierung

Für ein Unternehmen bedeutet dies, dass es aus den geltenden und kommenden Veröffentlichungspflichten nur Minimalanforderungen für sein Risikomanagement ableiten kann. Wichtiger ist, in Abstimmung mit seinen Stakeholdern (Aktionäre, Banken, Kunden, Mitarbeitern, etc.) eine angemessene Risikostrategie zu erstellen und umzusetzen. Risikomanagement bringt Transparenz in das was wir tun, und hilft dem Management und den Mitarbeitern, sich vor unliebsamen Überraschungen zu schützen. • Steigende Komplexität und Wettbewerbsintensität (Technologie und Marktöffnung)

Komplexität

n ge un r e rd fo An

an

m eh rn te n U

en

ng ru ue e t ss

• Höhere Anforderungen an Transparenz und Kontrollsystem (nationale Gesetzgebung, Bankenaufsicht)

ng eru steu s n e hm rne nte U r it zu igke Fäh

Zeit

• Zunehmende Wertorientierung (Kapitalrentabilität, Shareholder-ValueOrientierung) • Wachsende Kapitalmarktorientierung (Rating) • Rechnungslegungssdandards (IAS, IFRS) • Steuerrechtliche Implikationen (Transfer Pricing, internationale Tätigkeiten)

Abb. 3.57. Risikomanagement hilft, die Schere zwischen Anforderung und Fähigkeiten zur Unternehmenssteuerung zu schließen.

3.8.2. Enterprise Risk Management (Theorie) Bei Energieversorgern entwickelt sich Risikomanagement traditionell zunächst in Form von Insellösungen in einzelnen Geschäftsfeldern und für einzelne Risikoarten. Das Marktpreis- und Kreditrisiko im Handel werden meist als erstes gemanaged. Ähnliche Risiken in anderen Geschäftsbereichen werden jedoch entweder gar nicht oder über andere Ansätze/Methoden gemanaged. Es erfolgt keine Aggregation der Risiken und damit kein portfolioorientiertes Managen der Gesamtrisikosituation eines Unternehmens. Der aktuelle Trend im Risikomanagement geht zu so genannten Enterprise Risk Management-Ansätzen. Dabei werden alle Risiken eines Unternehmens, egal welcher Risikoart und aus welchem Geschäftsfeld, erfasst, einheitlich bewertet, unter Berücksichtigung von Portfolioeffekten aggregiert und ganzheitlich gemanaged. Im Jahre 2004 hat “The Committee of Sponsoring Organizations of the Treadway Commission” (COSO) ein Enterprise Risk Management Framework heraus gegeben. Die COSO ist eine private Kommission, die das Ziel verfolgt die Qualität des Finanzreportings durch ethisches Verhalten im Geschäftsleben, effektive interne Kontrollen und Corporate Governance zu verbessern.

3.8 Risikomanagement in der Elektrizitätswirtschaft

159

Was Enterprise Risk Management ausmacht, kann am Besten anhand der Definition der COSO erläutert werden. Definition von Enterprise Risk Management (ERM) gemäß COSO: „Ein Prozess beeinflusst vom Vorstand eines Unternehmens, dem Management sowie dem übrigen Personal, angewandt in der Strategiefestlegung und im ganzen Unternehmen, designed, um mögliche Ereignisse, die das Unternehmen beeinflussen, zu identifizieren. Stellt einen Rahmen auf, um Risiken eines Unternehmens so zu managen, dass sie den definierten Risikoappetit nicht überschreiten, und bietet angemessen Sicherheit hinsichtlich der Erreichung der Unternehmens-Ziele.“ ERM ist ein Prozess, d.h. keine Einmalaktion, sondern eine Serie von Handlungen, die in alle wichtigen Steuerungs-, Management-, und operativen Prozesse des Unternehmens integriert sein sollten. Durch ERM werden Risiken bei der Bewertung strategischer Alternativen über den Planungsprozess, die Kapitalallokation bis hin zur Produktion berücksichtigt. ERM muss vom Vorstand bis zum Mitarbeiter eines Unternehmens gelebt werden. ERM erfordert eine Portfoliobetrachtung aller Risiken des Unternehmens und sorgt dafür, dass sie im Rahmen des strategisch definierten Risikoappetits bleiben. Gut designed und durchgeführt, hilft ERM der UL, die Unternehmensziele mit angemessener Sicherheit zu erreichen. Ein integriertes Risikomanagement liegt vor, wenn sämtliche Risiken in einem Unternehmen über alle Geschäftsfelder und Risikoarten hinweg konsistent bewertet, unter Berücksichtigung von Korrelationen aggregiert, gemanaged und berichtet werden. Integriertes Risikomanagement bedeutet nicht zentralisiertes Risikomanagement. Auch bei einem integrierten Risikomanagement sind die Geschäftsfelder weiterhin an der Identifikation, Bewertung und dem Management von Risiken beteiligt. Es gibt jedoch eine zentrale Instanz über den Geschäftsfeldern, die die Daten nutzt, um eine integrierte Perspektive auf die Unternehmensrisiken zu erzeugen. 3.8.2.1. Nutzen von ERM Integriertes Risikomanagement bietet gegenüber einem auf Insellösungen für einzelne Risikoarten oder Geschäftsfelder basierenden Risikomanagement folgende Vorteile: Ausnutzung von Portfolioeffekten Netting Wenn ein Geschäftsfeld eine long Position von 1 TWh hat und ein anderes 1 TWh short ist, dann entstehen unnötige Absicherungskosten, wenn beide Geschäftsfelder ihre Risiken getrennt absichern. Bei einem integrierten Risikomanagement werden diese Risiken konsolidiert und nur das verbleibende Risiko (in diesem Fall: 0) abgesichert.

160

3 Elektrizitätswirtschaft, Liberalisierung

Diversifikation Aufgrund von Korrelationen kann das Gesamtrisiko eines Unternehmens wesentlich geringer sein als die Summe seiner Einzelrisiken. Ohne integriertes Risikomanagement kann zwar jedes Einzelrisiko eines Unternehmens optimal abgesichert sein, das Gesamtrisiko jedoch nicht. Es besteht die Gefahr, dass Risikokapital ineffizient eingesetzt wird. Die Quantifizierung der Korrelationen zwischen verschiedenen Einzelrisiken befindet sich jedoch noch in einem frühen Stadium. Relative Risikoeinschätzung Erst durch die integrierte Sicht auf die Unternehmensrisiken kann ein Unternehmen erkennen, welche Risiken besonders wichtig sind, um sich auf deren Management zu konzentrieren. Geschäftsfeldübergreifende Kommunikation Ein integriertes Risikomanagement legt den Grundstein für ein unternehmenseinheitliches Verständnis und Management von Risken und Chancen. Vermeidung von ungewollten Risiken Handel und Vertrieb arbeiten z.T. mit denselben Gegenparteien. Wird einer Gegenpartei im Handel aufgrund einer Bonitätsanalyse ein Maximales Limit x eingeräumt, so muss sichergestellt werden, dass dieses Limit nicht durch Geschäfte im Vertrieb überschritten wird. Eine zentrale RM-Instanz kann hier Prozesse aufsetzen, durch welche die Maximallimite für Einzelkunden auf die Geschäftsfelder aufgeteilt und getrennt überwacht werden. Besseres Risikomanagement bei Geschäftsfeld übergreifenden Risiken Nur eine zentrale RM-Instanz kann Maßnahmen zur Reduktion der Eintrittswahrscheinlichkeit und Schadenhöhe von Risiken, die mehrere Geschäftsfelder betreffen, koordinieren. Kostenvorteile durch Abstimmung mit IKS und anderen gesetzlichen/ regulatorischen Anforderungen Ein integrierter Risikomanagement-Ansatz kann gesetzliche Vorschriften sowie das IKS berücksichtigen und verhindert damit verschiedene Insellösungen mit sich überschneidenden Aktivitäten. 3.8.2.2. Risikopolitik Die Risikopolitik ist ein Konzept, in dem die Rahmenbedingungen für ein effizientes Risikomanagement in einem Unternehmen festgelegt werden. Die Risikopolitik stellt sicher, dass alle Risiken unternehmensweit nach einheitlichen Richtlinien gemanaged werden. Abhängig vom Unternehmen kann es eine KonzernRisikopolitik geben und dann eine je Geschäftsfeld, die die Behandlung aller Risikoarten des Geschäftsfeldes regelt, oder eine je Risikoart über alle Geschäftsfelder hinweg. Auch Mischformen sind denkbar. Über die Konzernrisikopolitik oder

3.8 Risikomanagement in der Elektrizitätswirtschaft

161

über die Koordination durch das Konzernrisikomanagement muss jedoch sichergestellt werden, dass gleichartige Risiken konzernweit einheitlich gemanaged werden. Die Risikopolitik beschreibt z.B.: - Den Prozess für die Festlegung des Risikoappetits - Den quantifizierten Risikoappetit - Die aus dem Risikoappetit abgeleitete Limitstruktur (Limitenbaum) - Die Organisationsstruktur des Risikomanagements inkl. Rollen und Verantwortlichkeiten - Den Prozess zur/ zum Risikoidentifikation, Risikobewertung, Risikoaggregation, Risikomanagement, Risikoüberwachung, Risikoreporting Durch die Dokumentation der Limitenstruktur delegiert die Risikopolitik die Autorität Risiken einzugehen auf die einzelnen Organisationsstufen, was eine ihrer wichtigsten Aufgaben ist. Da der Risikoappetit und die Ableitung der Limitstruktur eher zu den Rahmenbedingungen des Risikomanagements zählen, werden sie nachfolgend beschrieben. Die Risiko Governance-Struktur und die Elemente des RisikomanagementProzesses werden weiter unten in eigenen Kapiteln beschrieben. Risiko-Appetit & Risiko-Tragfähigkeit Die reale Welt ist eine Welt von Risiken. Jede Aktivität ist mit Risiken verbunden. Risiken können durch den bewussten Umgang mit ihnen zwar reduziert werden, es gibt allerdings keine 100%ige Sicherheit, dass ein gesetztes Ziel erreicht wird. Der Mensch verhält sich normalerweise risikoscheu. Dieses risikoaverse Verhalten hatte im Überlebenskampf der früheren Generationen eine große Bedeutung und blieb durch die natürliche Auslese erhalten. Im heutigen Wirtschaftsgeschehen lässt sich die Risikoaversion durch die niedrige Rendite bei sehr sicheren Anlagen erkennen. Zum Beispiel wird das Risiko einer Geldanlage über die Bonität oder das Rating des Schuldners eingeschätzt. Der Geldgeber verzichtet anscheinend gerne auf einige Renditeprozente, wenn das Rating des Schuldners hoch ist. Risikoaverse Unternehmen gehen Risiken ein, um Rendite zu erwirtschaften und den Unternehmenswert zu steigern. Risiko-Tragfähigkeit ist die Menge an Risiko, die ein Unternehmen maximal eingehen kann ohne in Existenzgefahr zu geraten. Sie ist begrenzt durch das Eigenkapital und die Liquidität, die zur Deckung von Verlusten aus eintretenden Risiken vorhanden ist. Zum Eigenkapital (EK) zählen dabei i.d.R. das gezeichnete Kapital, die Kapitalund Gewinnreserven sowie der Jahresgewinn. Zur Liquidität können alle Aktiva gezählt werden, die innerhalb einer bestimmten Frist liquidierbar sind. Die Frist sollte so gewählt werden, dass die Zeit bis zu der genügend neues EK (Kapitaler-

162

3 Elektrizitätswirtschaft, Liberalisierung

höhung) oder Fremdkapital (Anleihenemission) beschafft werden kann überbrückt wird (z.B. 6 Monate bis ein Jahr). Zusätzlich sollte auf die Fristen geachtet werden nach denen die Liquidität zur Verfügung steht. Zwar ist nicht damit zu rechnen, dass alle Risiken an einem Tag eintreten, der Ausfall einer großen Gegenpartei kann jedoch auch kurzfristig zu größerem Kapitalbedarf führen. Zur verfügbaren Liquidität zählen z.B.: kurzfristige Festgelder, unausgenutzte Kreditlinien, kurzfristig einräumbare neue Kreditlinien, das Working Capital (Forderungen aus Lieferungen und Leistungen – Verbindlichkeiten LuL + Kassenbestand), der Cash flow. Bei Banken wird das zur Risikoabsicherung benötigte Kapital als ökonomisches Kapital bezeichnet. Im Folgenden wird der Begriff Risikokapital für die zur Risikoabsicherung benötigte Liquidität und das EK verwendet. Risiko-Appetit ist die Menge an Risiko, die ein Unternehmen im Streben nach Rendite bereit ist einzugehen. Der Risikoappetit sollte nie größer als die Risikotragfähigkeit sein, da das Unternehmen ansonsten einer Konkursgefahr ausgesetzt ist. Eintretende Risiken könnten nicht durch vorhandene Liquidität und/ oder EK gedeckt werden und das Unternehmen wird Illiquide oder überschuldet und muss Konkurs anmelden. Der Risikoappetit ist eng mit der Unternehmensstrategie verbunden. Er muss zu der durch die Strategie angestrebten Rendite passen. Passt der Risikoappetit nicht zur Strategie kann es sein, dass ein Unternehmen zu wenig Risiken eingeht, um seine strategischen Ziele zu erreichen oder umgekehrt unnötig hohe Risiken akzeptiert. Oft gibt es mehrere Strategien, um geplante Wachstums- und Renditeziele eines Unternehmens zu erreichen. Der definierte Risikoappetit kann dann im Strategiefindungsprozess helfen eine Strategie auszuwählen, die die Unternehmensziele innerhalb des gewünschten Risikoappetits erreicht. Umgekehrt können sich aus der Unternehmensstrategie Aspekte des Risikoappetits sowie der Risikostrategie ergeben. Beispiel 1 : Betrachtet man einen Independent Power Producer (IPP) und einen Energie Händler mit Produktionsstätte so lassen sich aus den unterschiedlichen Unternehmensstrategien Rückschlüsse auf den Risikoappetit ziehen. Beide Unternehmen unterliegen auf der Beschaffungsseite dem Marktpreisrisiko für Brennstoffe und auf der Absatzseite dem Marktpreisrisiko des Strompreises. Außerdem unterliegen beide operativen Risiken, die zu einem Ausfall ihres Kraftwerks führen können. IPPs sichern ihr Marktpreisrisiko i.d.R. durch langfristige Bezugs- und Absatzverträge weitestgehend ab. Die Marge, die sie aus Ihren Absatzverträgen erzielen können hängt i.d.R. davon ab, dass ihre Kraftwerke die vereinbarten Verfügbarkeiten und Effizienzgrade erreichen. Ein unerwarteter Kraftwerksausfall würde zu einem Margenverlust führen. Aus der Unternehmensstrategie eines IPP lassen sich Aussagen für seine Risikostrategie und den Risikoappetit ableiten. Durch die Art

1

Vgl. CCRO ERM White Paper 2006, S. 73f.

3.8 Risikomanagement in der Elektrizitätswirtschaft

163

wie IPPs ihr Geschäft betreiben, streben sie stetige, wenig volatile Ergebnisse an, die mit der hinzugefügten Kraftwerkskapazität wachsen. Die Unternehmensstrategie führt zu einem hohen Risikoappetit für operative Risiken und zu einem geringen Risikoappetit für Marktpreisrisiken. Anders sieht es beim Händler mit Produktionsstätte aus. Er versucht durch die Handelsfunktion seine Kraftwerkskapazität optimal zu veräußern, und unterliegt dadurch voll den Marktpreisrisiken. Da er seine Kraftwerkskapazität nicht durchgehend voll verkauft hat, unterliegt er weniger stark operativen Risiken. Die gefahrene Unternehmensstrategie führt zu volatileren Ergebnissen und zu einem höheren Risikoappetit für Marktpreisrisiken als beim IPP. Bestimmung des Risikoappetits Der Risikoappetit sollte von der UL definiert und vom VR bestätigt werden. Eine Faustregel für die Festlegung des Risikoappetits (z.B. x% des EK) existiert nicht. Der Risikoappetit eines Unternehmens sollte über einen kombinierten Top-down/ Bottom-up-Ansatz mit mehreren Iterationen festgelegt werden. Startpunkt sollte eine Bottom-up-Erhebung der bestehenden Risiken je Geschäftsfeld sein. Werden alle Risiken je Geschäftsfeld einheitlich über einen Value at Risk (VaR) bewertet, und unter Berücksichtigung von Korrelationen addiert, ergibt sich der aktuelle Risikokapitalbedarf je Geschäftsfeld. Um den VaR des Unternehmens zu erhalten, müssen die Geschäftsfeldrisiken wiederum unter Berücksichtigung von Korrelationen addiert werden und ergeben somit den aktuellen Risikokapitalbedarf des Unternehmens. Da der Risikokapitalbedarf an den Geschäftsfeldstrategien hängt, die i.d.R. nicht kurzfristig änderbar sind, erhält man so einen ersten Anhaltspunkt für den Risikoappetit des Unternehmens. In einem zweiten Schritt kann die UL jetzt prüfen, ob ihr der aktuelle Risikoappetit angemessen erscheint. Als Kriterien können dazu die folgenden Fragen dienen: - Ist die UL bereit im schlimmsten Fall den Verlust des berechneten Risikoappetits innerhalb eines Jahres zu akzeptieren? (Wurde das aktuell erforderliche Risikokapital über einen VaR mit Einjahres-Horizont und 99% Konfidenz berechnet, dann bedeutet dies, dass der Verlust aus den bestehenden Risiken innerhalb des nächsten Jahres mit 99% Wahrscheinlichkeit nicht höher sein wird als der berechnete Betrag) - Ist das aktuelle Risiko durch Risikokapital gedeckt oder besteht ein Insolvenzrisiko? (Um das festzustellen, muss das ermittelte Risikokapital der vorhandenen Liquidität und dem EK gegenübergestellt werden.) - Steht das Risiko mit den geplanten Ergebnissen (Rendite) in einem angemessenen Verhältnis (effiziente Risikoposition: eingegangene Risiken werden durch ausreichend Rendite honoriert)? Hier könnten z.B. risikoadjustierte Performance Masse wie RoVaR oder RAROC als Maßstab herangezogen werden. (Der RoVaR = Return on Value at Risk setzt das Ergebnis ins Verhältnis zum durchschnittlichen VaR, der für die Ergebniserreichung eingegangen wurde, und der RAROC = Risk Adjusted Return On Capital

164

3 Elektrizitätswirtschaft, Liberalisierung

korrigiert das Ergebnis um die Risikoabsicherungskosten, die durch das Vorhalten von EK entstehen, und bezieht diesen Wert auf das EK). - Entspricht das ermittelte Risiko/Rendite-Verhältnis den Erwartungen der externen Stakeholder, wie z.B. den Aktionären, dem Kanton, Regulierer, Banken etc.? Dies kann nur in Gesprächen mit diesen Stakeholdern herausgefunden werden. - Fühlen sich Management und Mitarbeiter mit den bestehenden Risiken wohl? Kann das Unternehmen mit den identifizierten Risiken umgehen. Ist die Risikokultur entsprechend ausgeprägt, haben die Mitarbeiter und das Management die nötigen Informationen und das erforderliche Know how? Nach diesem Schritt besteht zumindest ein Bewusstsein dafür, ob der aktuelle Risikokapitalbedarf akzeptabel, zu hoch oder zu niedrig ist. Wenn der Risikokapitalbedarf größer als das aktuell vorhandene Kapital ist, müssen Maßnahmen definiert werden, um möglichst schnell aus der potentiellen Insolvenzgefahr zu kommen (Risiken reduzieren oder Kapital/ Liquidität erhöhen). Dazu wird am Besten ein kurzfristiger Ziel-Risiko-Appetit definiert, den es zu erreichen gilt. Darüber hinaus kann ein mittel- und langfristig angestrebter Risiko-Appetit festgelegt werden. Wird die Risikoauslastung als VaR gemessen, sollte der Risikoappetit ebenfalls als VaR mit demselben Zeithorizont und Konfidenzintervall festgelegt werden. Banken verwenden den Einjahres-VaR mit einem am gewünschten Zielrating ausgerichteten Konfidenzintervall. Dieser Ansatz kann für die Elektrizitätsbranche übernommen werden. Gemäß einer Umfrage des CCRO unter 34 Energieversorgern dominiert als Messgröße für den Risikoappetit der VaR (71% der befragten Unternehmen, die einen Risikoappetit definieren, verwenden dazu den VaR) 2 . Ist der Unternehmens-Risikoappetit festgelegt, muss er auf die Geschäftsfelder heruntergebrochen werden. Dies sollte wiederum über den bereits beschriebenen Top-down/Bottom-up-Ansatz erfolgen. Wurde die Bottom-up-Risikoerhebung für den Konzernrisiko-Appetit je Geschäftsfeld vorgenommen, ist der Risikokapitalbedarf je GF bereits bekannt. Konzern- und Geschäftsfeld-Leitung müssen dann gemeinsam beurteilen, ob der GF-Risikokapitalbedarf angemessen ist, und wie er sich entwickeln soll. Abhängig davon wie sich der Konzernrisikoappetit entwickeln soll, müssen die Geschäftsfelder ihren Beitrag leisten. Der Risikoappetit bestimmt den Bedarf an Risikokapital. Das Risikokapital wiederum ist die Basis für die Risiko/ Rendite orientierte Steuerung bei Banken. Wenn ein Unternehmen dieses Steuerungskonzept einsetzen möchte, wird empfohlen, den Risikoappetit zunächst auf die Geschäftsfelder herunterzubrechen (anstatt auf die Risikoarten: Markt, Kredit, etc.). Je Geschäftsfeld gibt es buchhalterische Ergebnisdaten, die für die Risiko/Rendite-Steuerung zum benötigten Risikokapital ins Verhältnis gesetzt werden können. Die letztlich eingesetzte Steue-

2

Vgl. CCRO ERM White Paper 2006, S. 70

3.8 Risikomanagement in der Elektrizitätswirtschaft

165

rungsgröße muss unter der Vielzahl der möglichen Kennzahlen ausgewählt werden (RoVaR, RORAC, RAROC, EVA, etc.). In diesem Zusammenhang muss dann auch geklärt werden, wie mit reinen Cost Centern im Rahmen der Risiko/ Rendite Steuerung verfahren wird. Die Geschäftsfelder können dann den ihnen zugeordneten Risikoappetit in Abstimmung mit dem Konzern auf die Einzelrisiken verteilen. Dadurch ergeben sich Portfoliolimiten für jede in einem GF auftretende Risikoart. Diese sind dann weiter herunterzubrechen, z.B. in Form eines Kreditlimits je Gegenpartei für das Kreditrisiko. Auf diesem Weg wird ein konzernweiter Limitbaum aufgebaut. Sorgt das Risikomanagement dafür, dass der Risikoappetit immer durch Risikokapital gedeckt ist und kein Limit überschritten wird, ist das Ziel der Existenzsicherung durch Risikomanagement erreicht. Das Risikokapital sollte als Planungsgröße in die Mittelfristplanung aufgenommen werden. Das Unternehmen sollte abhängig vom Risikoappetit Top-down eine Zielgröße für das Unternehmen und die Geschäftsfelder vorgeben, die diese dann Bottom-up verifizieren müssen. In einer weiteren Ausbaustufe kann neben der absoluten Zielgröße für das Risikokapital dann auch eine Zielgröße für die erwartete Rendite auf dieses Kapital geplant werden. Gemäß einer Umfrage des CCRO unter 34 Energieversorgern berücksichtigen 88% der beteiligten Unternehmen eine Risikoappetit-Aussage in ihrem Planungsund Risikomanagement-Prozess. 64% der befragten Unternehmen stellen die Risiko-Appetit-Aussage in einem informellen, unstrukturierten Prozess auf. Nur 36% nutzen einen formalen Ansatz. 3 A) Strategie / Ziele Bevor man ein Risikomanagementsystem für ein Unternehmen konzipiert, muss festgelegt werden, welche Ziele das Unternehmen mit Risikomanagement verfolgen will. Nachfolgend werden die wesentlichen Ziele aus den genannten Rahmenwerken sowie aktuellen Veröffentlichungen zum Thema Risikomanagement vorgestellt. Risikomanagement zur Einhaltung gesetzlicher Vorschriften Das Risikomanagement muss so betrieben werden, dass gesetzliche Vorschriften eingehalten werden. Die Einhaltung von Gesetzen ist eine Nebenbedingung für Risikomanagement, sie darf nicht das Hauptziel sein. Die gesetzlichen Vorschriften in der Schweiz beschränken sich auf Veröffentlichungspflichten im Anhang des Jahresabschlusses und geben nur indirekt Mindeststandards für das Risikomanagement vor. Wichtig ist, ein für alle Stakeholder (Banken, Investoren, Aktionäre, Mitarbeiter) des Unternehmens akzeptables Risikomanagement zu implementieren. Nur so kann ein Kursabschlag nach der Veröffentlichung der Risikomanagement-Angaben vermieden werden.

3

Vgl. CCRO White Paper 2006, S. 69

166

3 Elektrizitätswirtschaft, Liberalisierung

Risikomanagement zur Existenzsicherung Interessanterweise wird das Betreiben von Risikomanagement zur Existenzsicherung eines Unternehmens in keinem der berücksichtigten Rahmenwerke thematisiert. Es wird lediglich implizit davon gesprochen, z.B. indem eine effiziente Risikokapitalposition als Vorteil von gutem Risikomanagement angesehen wird. Dies erstaunt, da der Absicherungsaspekt einer der zentralen Treiber für die Entwicklung des Risikomanagements bei Banken gem. Basel I und II ist. In Anbetracht der anstehenden Marktliberalisierung in der Schweiz und den damit zu erwartenden höheren Ergebnisvolatilitäten, sollte sich ein Unternehmen die Risikoabsicherung als ein Minimalziel für ihr Risikomanagement setzen. Dabei ist wichtig, dass die Absicherung effizient erfolgt. Das zur Absicherung benötigte EK bzw. die Liquidität sind knapp, und die Hinterlegung von EK zur Risikoabsicherung erzeugt keine Rendite sondern Opportunitätskosten. Risikomanagement zur Erreichung der Unternehmensziele mit angemessener Sicherheit Weitgehender Konsens besteht in allen Rahmenwerken darüber, dass das wesentliche Ziel von Risikomanagement darin besteht, die Ziele des Unternehmens mit angemessener Sicherheit zu erreichen. So wird Risiko z.B. definiert als: „Möglichkeit für ein Ereignis, welches die Zielerreichung eines Unternehmens beeinflusst (positiv oder negativ)“4 . Risikomanagement bestünde dann darin, potentielle Abweichungen vom Geplanten/Angestrebten zu identifizieren, die Chancen zu maximieren, Verluste zu minimieren, und dadurch bessere Entscheidungen und Ergebnisse zu ermöglichen. Das Gegenteil von Risikomanagement wäre riskantes Management und geprägt durch Entscheidungen, die nicht alle Fakten berücksichtigen. Ein derartiges Management könnte nur zufällig die angestrebten Ziele erreichen und würde sogar die Existenz des Unternehmens gefährden. Risikomanagement ist also aus betriebswirtschaftlicher Sicht ein Muss. Shareholder Value Da viele börsennotierte Unternehmen als primäres Unternehmensziel die Steigerung des Shareholder Value haben, stellt sich die Frage, inwiefern Risikomanagement zur Erreichung dieses Ziels beiträgt. Um die Wirkung von Risikomanagement auf den Shareholder Value zu verdeutlichen, muss zunächst aufgezeigt werden, wann es keine Wirkung gibt. Dies ist bei perfekten Kapitalmärkten der Fall. D.h. wenn unter anderem folgende Bedingungen erfüllt sind:

4

AS NZS 4360:2004 Handbuch S.3

3.8 Risikomanagement in der Elektrizitätswirtschaft

167

- Keine Steuern, - Unternehmensleitung und Investoren haben dieselben Informationen, - Keine Transaktionskosten. Unter diesen Bedingungen kann ein Investor die Firmenrisiken genauso gut absichern wie die Firma selbst. Der Investor kennt die Risiken genauso gut wie die Unternehmensleitung und er hat Zugang zu den Absicherungsprodukten. Da es keine Steuern gibt, macht es auch steuerlich keinen Unterscheid, ob der Investor oder das Unternehmen Risiken absichert. D.h. ein Investor kann bei perfekten Kapitalmärkten durch Risikomanagement den gleichen Cash flow erzeugen wie ein Unternehmen welches Risikomanagement betreibt. Es gibt für Investoren keinen Grund das Risikomanagement von Unternehmen zu honorieren. Der Shareholder Value einer Firma wird gleich sein, ob sie Risikomanagement betreibt oder nicht. Bei dieser Argumentation handelt es sich um eine Abwandlung des Modigliani Miller Theorems (1958). In perfekten Kapitalmärkten kann Risikomanagement nicht zur Erzeugung von Shareholder Value beitragen. In der Realität sind die Kapitalmärkte jedoch nicht perfekt. Risikomanagement kann daher auf einem der drei nachfolgend genannten Wege Shareholder Value erzeugen: 1.

Durch Reduktion der Steuern, die ein Unternehmen oder seine Investoren zahlen,

2.

Durch Reduktion der Transaktionskosten eines Unternehmens (inkl. der Reorganisationskosten, falls Unternehmen in Schwierigkeiten geraten),

3.

In dem es sicher stellt, dass Unternehmen nur Investitionen tätigen, die ihre Kapitalkosten decken.

Während 1. und 2. durch Kostenersparnisse den Shareholder Value steigern, erhöht 3. über höhere Rentabilität und Wachstum den Unternehmenswert. Droht ein Unternehmen in finanzielle Schwierigkeiten zu geraten (z.B. weil unerwartete Verluste aus Risiken eingetreten sind), werden häufig geplante Investitionen gestrichen oder verschoben. Mit den frei werdenden Mitteln werden die finanziellen Engpässe überbrückt. Hätten die Investitionen ihre Kapitalkosten gedeckt, hätten sie den Shareholder Value erhöht. Indem Risikomanagement dafür sorgt, dass ein Unternehmen immer genug freie Mittel hat, um wertsteigernde Investitionen zu tätigen, erzeugt es Wert. Wird neben dem Risiko- auch ein systematisches Chancenmanagement durchgeführt, können mehr wertsteigernde Investitionsmöglichkeiten identifiziert und durchgeführt werden, die den Unternehmenswert erhöhen.

168

3 Elektrizitätswirtschaft, Liberalisierung

Reduktion der Ergebnis-/Cash flow-Volatilität durch Risikomanagement Ein häufig genanntes Ziel von Risikomanagement ist die Volatilität der Unternehmensergebnisse oder Cashflows zu reduzieren. Die Idee dahinter ist, dass Unternehmen mit stark schwankendem Cashflows vom Markt als riskant erachtet werden, weshalb Investoren für die Überlassung von EK eine höhere Risikoprämie verlangen. Volatilere Cashflows führen also zu höheren EK-Kosten und senken darüber den Shareholder Value. Gelingt es durch Risikomanagement die Volatilität der Cashflows zu reduzieren, müssten die EK Kosten sinken und der Shareholder Value steigen. Voraussetzung für diesen Effekt ist, dass Unternehmen es schaffen ein Risikomanagement aufzubauen, welches tatsächlich die Cashflow-Volatilität reduziert und dies dem Markt auch glaubhaft kommunizieren können. Nur wenn Investoren an den kausalen Zusammenhang zwischen Risikomanagement und geringerer Cashflow-Volatilität glauben, werden sie bereit sein auf die Risikoprämie zu verzichten. Die Reduktion der Cashflow-Volatilität sollte nicht das primäre Ziel von Risikomanagement sein. Es kann als zusätzliches Ziel aufgenommen werden, wenn das Risikomanagement unternehmensintern soweit ausgebaut wurde, dass es tatsächlich nachweislich die Cashflows stabilisiert. Erst dann kann durch die Kommunikation dieses Vorgehens am Kapitalmarkt der gewünschte Effekt realisiert werden. Weitere Vorteile/ mögliche Ziele von Risikomanagement Bessere Entscheidungen (bei Investitionen und Strategie) Bei einer Mitte 2005 durchgeführten Umfrage der Deutschen Bank zur Bedeutung von Risikomanagement im Finanzbereich unter mehr als 330 CFOs aus verschiedenen Ländern und Branchen wurde als wesentlicher Nutzen von Risikomanagement die Verbesserung von unternehmensweiten Entscheidungen genannt (63% der Befragten nannten dies als wesentlichen Nutzen von Risikomanagement). Unternehmen gehen Risiken ein, um Erträge zu erwirtschaften, und ein gut funktionierendes Risikomanagement verbessert die Fähigkeit des Unternehmens Entscheidungen so zu treffen, dass für die eingegangenen Risiken eine angemessene Rendite erzielt wird. Auf diese Weise hilft Risikomanagement den Unternehmenserfolg zu steigern und Wettbewerbsvorteile aufzubauen. Besserer Ruf bei den Stakeholdern Ein gutes Risikomanagement kann nach außen kommuniziert werden und stärkt das Vertrauen von Aktionären, Regulier und Mitarbeitern in die Fähigkeiten der Unternehmensleitung. Dieser Aspekt wurde in der Deutschen Bank-Umfrage als zweitwichtigster Nutzen von Risikomanagement genannt (43%).

3.8 Risikomanagement in der Elektrizitätswirtschaft

169

Weniger Überraschungen Durch vollständige Erhebung und das zielgerichtete Management von Risiken werden die Auswirkungen und die Eintrittswahrscheinlichkeit von Risiken reduziert, es gibt weniger überraschende Ergebniseffekte. Die Reduktion von Ergebnisschwankungen (37%) sowie die Vermeidung von Kosten durch finanzielle Schwierigkeiten (36%) 5 wurden in der Deutsche Bank-Umfrage als dritt- und viertwichtigster Nutzen von Risikomanagement genannt. Bessere Planungsqualität Durch Integration von Planungs-/ Prognose und Risikomanagementprozess können die Planungsergebnisse direkt durch das Risikomanagement verifiziert werden. Basierend auf den Erkenntnissen der Risikoerhebung können direkt Maßnahmen abgeleitet werden, die dafür sorgen, dass die geplanten und kommunizierten Ergebnisse auch erreicht werden. Kosten für diese Maßnahmen können in der Planung berücksichtigt werden. Der Einfluss der übernommenen Risiken auf die Planung kann abgeschätzt werden. Das Vorhersagen und Erreichen von Ergebnissen wiederum stärkt das Vertrauen des Kapitalmarktes in das Firmenmanagement. Schutzfunktion von Risikomanagement Gutes Risikomanagement bietet Schutz für die Verantwortlichen, für den Fall das Risiken eintreten. Wurden Risiken bewusst gemanaged, dann erfolgt der Schutz auf zwei Ebenen. Zum einen werden die Effekte von Risiken ggf. geringer sein als ohne Risikomanagement, zum anderen können die Verantwortlichen nachweisen, dass sie bei der Behandlung des Risikos mit ausreichender Sorgfalt vorgegangen sind. Besseres Rating Für Rating-Agenturen, Banken und Energiehändler ist ein professionelles Risikomanagement ein wesentliches Kriterium für die Unternehmensbonität. Wird das Risikomanagement eines Unternehmens extern als solide beurteilt, kann dies zu günstigeren Kreditkonditionen bei Banken und höheren Limiten im Energiehandel führen. Bessere Corporate Governance Risikomanagement trägt zu guter Corporate Governance bei, da es der Unternehmensleitung (UL) gewisse Sicherheit gibt, dass die Unternehmensziele innerhalb eines tolerierbaren Restrisikos erreicht werden. Corporate Governance beschreibt das System, mit dem Unternehmen geführt und kontrolliert werden. Corporate Governance fokussiert auf das Verhältnis zwischen VR und UL sowie zwischen Managern und Aktionären.

5 The Theory and Practice of Corporate Risk Management Policy, Henri Servaes und Peter Tufano, Deutsche Bank Studie, Februar 2006, S. 24.

170

3 Elektrizitätswirtschaft, Liberalisierung

Verbesserter Umgang mit Risiken Risikomanagement hilft Unternehmen, für jedes Risiko die richtige Behandlung zu wählen (akzeptieren, teilen, überwälzen oder vermeiden). B) Organisation Um den beschriebenen ERM Ansatz umzusetzen und zu leben, muss eine Aufbauorganisation mit klaren Rollen und Verantwortlichkeiten für das Risikomanagement definiert werden: Chief Risk Officer: Leiter der Abteilung Corporate Risk Management. Verantwortlich für die Entwicklung der erforderlichen Risikomanagement-Instrumente, die Überwachung der Risikomanagement-Prozesse und der Einhaltung der Risikopolitik. Entwickelt die Konzernrisikopolitik und unterstützt Geschäftsfelder bei der Formulierung eigener Risikopolitiken. Zuständig für die portfoliobasierte Risikobewertung auf Konzernebene. Muss an eine ausreichend hohe Instanz reporten, um seine Governance Funktion ausüben zu können. Gemäß einer CCRO Studie reporten 50% der CROs an den CFO, 23% an den CEO, 7% an die UL und 20% an andere Stellen. Auch wenn der CRO nicht direkt an die UL reportet, muss er einen Zugang zur UL haben, da er letztendlich dafür verantwortlich ist, Limitverletzungen an die UL zu berichten. Koordiniert Risk Committee-Sitzungen. Zuständig für Entwicklung und Koordination eines Risikomanagement-Schulungsprogramms. x

Risk Committee: zusammengesetzt aus leitenden Mitarbeitern verschiedener Unternehmensbereiche und ggf. Vorständen. Überwacht und steuert die Risikomanagementfunktion sowie das Management wesentlicher Risiken des Unternehmens. Genehmigt Konzern- und GeschäftsfeldRisikopolitiken, Rollen- und Verantwortlichkeiten, Risiko-Appetit und –Limite, wesentliche Risikominderungsmaßnahmen sowie PerformanceZiele. Das RC kann auch Ausnahmen von der Risikopolitik genehmigen. Das RC kommuniziert und diskutiert wesentliche Risikothemen mit der UL. Je nach Unternehmen gibt es nur ein Konzern- oder Konzern- und Geschäftsfeld Risk Committees. Gemäß einer Umfrage des CCRO ist der CFO bei 97% der befragten Energieversorger Mitglied im Risiko-Committee, 75% der Befragten haben einen Vertreter der Rechtsabteilung im RC, bei ca. 70% der Befragten sind CRO und die Geschäftsfeld-Leiter Teil des RC.

x

Unternehmensleitung: Da Risikomanagement auch Führungsaufgabe ist, fällt es in den Verantwortungsbereich der UL. In manchen Unternehmen wird die Verantwortung direkt durch die UL wahrgenommen, in anderen durch das Prüfungs-Komitee. Die UL ist dafür verantwortlich, dass geeignete Prozesse zur Identifikation und zum Reporting sowie Konzepte für das Management der wesentlichen Risiken umgesetzt sind. Die UL muss letztendlich das Gefühl haben, dass sie alle wesentlichen Risiken

3.8 Risikomanagement in der Elektrizitätswirtschaft

171

der Organisation mit ihren möglichen Auswirkungen auf die Unternehmens-Performance sowie die ergriffenen Maßnahmen kennt. x

Verwaltungsrat: Die Verantwortung für die Durchführung eines Risikomanagements liegt beim VR, er muss dessen Wirksamkeit und Qualität (ggf. mit Hilfe der internen Revision) prüfen.

x

Fachorganisation: besteht aus allen für das Risikomanagement verantwortlichen Mitarbeitern.

x

Geschäftsfelder/ Tochtergesellschaften: Die Geschäftsfelder sollten GF spezifische Risikopolitiken entwickeln und Prozesse implementieren. Sie müssen Mitarbeiter benennen, in deren Stellenbeschreibung die Aufgaben und Verantwortlichkeiten für das Risikomanagement beschrieben sind. Zu den Risikomanagement-Aufgaben der Geschäftsfelder gehört, die GF-Risiken zu identifizieren, zu bewerten, zu berichten und Risikominderungsmaßnahmen umzusetzen, um Risiken in den vorgegebenen Limiten zu halten. Je Risiko sollte es einen Verantwortlichen geben, der die fortlaufende Überwachung und alle damit verbundenen Aufgaben wahrnimmt (Bewertung, Minderungsmaßnahmen, Dokumentation, Reporting, etc.)

C) Abläufe/Prozesse Risikoerhebung Der Risikoerhebungsprozess sollte parallel zu den Controlling Prozessen in einem Unternehmen durchgeführt werden. Über die Mittelfristplanung wird die erwartete Geschäftsentwicklung der nächsten Jahre geplant und über die Prognosen deren Erreichung kontrolliert. Wird parallel der Risikoerhebungsprozess durchgeführt, werden Risiken für die Erreichung der Planung transparent und können in der Planung berücksichtigt werden. Die Bottom-up Risiko-Identifikation sollte einmal jährlich zusammen mit der Mittelfristplanung erfolgen. Zu jeder Quartalsprognose genügt ein Update der bestehenden Risikosituation. Um gemäß der OR Neuregelung ab 2008 die Risikobeurteilung zum Jahresabschluss vornehmen zu können, sollten die wesentlichen für die Beurteilung der Jahresrechnung relevanten Risiken per 31.12. aktualisiert werden. Aktualisierung Risikoappetit, Limitenstruktur und Risiko/Rendite-Ziele Einmal pro Jahr, vor der Bottom-up Risikoerhebung parallel zur Mittelfristplanung, sollte ein Unternehmen den definierten Risikoappetit überprüfen. Dazu kann der gleiche Prozess wie weiter oben beschrieben angewandt werden. Ist der Risikoappetit neu festgelegt, sollte er auch direkt über den Limitenbaum heruntergebrochen werden. Sofern vorhanden, können dann auch Risiko/Rendite-Ziele (RORAC) angepasst werden, damit sie in der Planung berücksichtigt werden können. Ggf. erforderliche EK-Anpassungen zur Risikoabsicherung sollten mit der Anpassung des Risikoappetits diskutiert und in der Planung berücksichtigt werden.

172

3 Elektrizitätswirtschaft, Liberalisierung

Limitüberwachung & Risikoabsicherung Die Überwachung der Limiteinhaltung muss fortlaufend in einer dem Risiko angemessenen Frequenz erfolgen. Limitverletzungen müssen unverzüglich erkannt, gemeldet und behandelt werden. Neben den Limiten muss auch die Deckung der Konzernrisikoposition durch Liquidität überwacht werden. 3.8.2.3. Risikomanagement-Prozess Dieser Prozess ist nicht nur der Berufswelt eigen, nein er wird auch oft im Privatleben angewandt. Als Beispiel sei die Hochgebirgstour genannt. Das Ziel der Skitour ist, mit Freunden einen erlebnisreichen Tag zu verbringen und am Abend wieder gesund zu Hause anzukommen. Im Geschäftsleben ist das Ziel i.d.R. eine monetäre Größe aus dem Budget. Der erfolgreichen 'Zielerfüllung' im Zusammenhang mit der Skitour lauern Gefahren. In einem ersten Schritt werden die Gefahren (Risiken) identifiziert: Die Routenwahl hängt maßgeblich von der Lawinensituation ab. Die wesentlichen Einflussfaktoren auf das Lawinenrisiko sind Neuschneemenge, Schneeaufbau, Hangausrichtung, Hangneigung, Temperaturprognose und Wetterprognose. Schenkt man der Routenwahl z.B. der Hangausrichtung keine Bedeutung, kann dies fatale Folgen haben. Ein nach Süden ausgerichteter Hang kann an einem sonnigen Tag bereits vor dem Mittag derart aufweichen, dass sich Nassschneelawinen bilden können, während zur gleichen Zeit ein Nordhang beste Verhältnisse bietet. In einem zweiten Schritt wird versucht, qualitativ oder wenn möglich quantitativ jede Gefahr zu bewerten. Dabei werden die Schadenhöhe und die Eintrittswahrscheinlichkeit abgeschätzt. Eine Quantifizierung der Risiken ist oftmals schwierig, da entsprechende Datengrundlagen fehlen. Meistens werden aus historischen Daten Gesetzmäßigkeiten abgeleitet. Dies können Verteilfunktionen mit ihren charakteristischen Größen, wie Mittelwert und Streuung oder empirische Formeln, mit welchen die Zusammenhänge zwischen den wesentlichen Einflussfaktoren dargestellt werden. Jedes Risiko hat ihre Treiber. Diese Treiber gilt es zu definieren und in den Griff zu bekommen. Einige der Treiber sind unbeeinflussbar, wiederum andere können beeinflusst werden. Damit sind wir in der Lage, die Risiken durch Maßnahmendefinition zu steuern. Der Gefahr unter eine Lawine zu geraten, kann begegnet werden, indem kurz vor der Tour die Schnee- und Lawinensituation abgeschätzt wird. Mit dieser Maßnahme kann das Ausmaß, d.h. die Schadenhöhe zwar nicht beeinflusst aber die Eintrittswahrscheinlichkeit der Gefahr reduziert werden (ich gehe nur, wenn dies das offizielle Lawinenbulletin zulässt). Den Nutzen aus den ersten drei Prozessschritten holen wir erst dann ab, wenn wir die Maßnahme auch wirklich umsetzen werden. Damit haben wir erreicht, dass wir den Risikogehalt durch gezielte Maßnahmen reduziert und gleichzeitig die Chancen aufrechterhalten haben. Oder in die Geschäftswelt übertragen, haben wir das Verhältnis Risiko zu Rendite zu unseren Gunsten beeinflusst!

3.8 Risikomanagement in der Elektrizitätswirtschaft

173

A) Identifikation Risiko-Definition Zu Beginn der Risikoidentifikation in einem Unternehmen muss klar sein, wie Risiko genau definiert ist. Schon hier laufen die Vorstellungen und Ideen in den berücksichtigten Rahmenwerken und der Praxis weit auseinander. Nachfolgend einige Beispieldefinitionen: Risiko-Glossar Analog der Risikodefinition sollten vor Beginn der Risikoidentifikation alle wesentlichen Begriffe für das Risikomanagement eines Unternehmens in einem Risiko-Glossar definiert werden, um einheitlichen Sprachgebrauch und einheitliches Verständnis sicher zu stellen. Vollständigkeit Ziel der Risikoidentifikation ist es, eine möglichst vollständige Liste aller Risiken des Unternehmens zu erhalten. Risiken, die nicht identifiziert werden, können auch nicht bewertet, in den Management Prozess überführt und abgesichert werden. Frühestens bei der Bewertung können einzelne Risiken über Wesentlichkeitsgrenzen aus dem weiteren Risikomanagementprozess ausgenommen werden. Um Vollständigkeit zu erreichen, müssen Risiken, die in der Vergangenheit bereits aufgetreten sind (z.B. Zahlungsausfälle), erfasst werden aber auch Risiken, die in Zukunft erst auftreten können (z.B. Wettbewerberverhalten). Dabei sollten Risiken, die möglicherweise erst weit in der Zukunft liegen, nicht vergessen werden. Es müssen Risiken aufgrund externer Ereignisse, wie z.B. politische, technische und wirtschaftliche Entwicklungen sowie interner Ereignisse, wie z.B. Mitarbeiterfehler, Anlagenausfälle und Prozessfehler erfasst werden. Risiken müssen erfasst werden, egal, ob sie vom Unternehmen beeinflussbar sind oder nicht. Auch für Tochtergesellschaften muss eine vollständige Risiko-Identifikation durchgeführt werden. Töchter mit eigenen Mitarbeitern können ein eigenständiges Risikomanagement inkl. Risikoabsicherung gemäß der Konzernrisikopolitik aufbauen, sollten aber die wesentlichen Risiken gemäß definierter Meldegrenzen an den Konzern melden, damit dieser eine komplette Übersicht der wesentlichen Risiken im Konzern erhält. Techniken zur Risiko/Ereignis-Identifikation Um zu einer möglichst vollständigen Liste von Risiken/Ereignissen zu kommen, können verschiedene Techniken angewandt werden. Welche die passendste ist, hängt von der Komplexität des zu analysierenden Sachverhalts, der verfügbaren Zeit und Ressourcen, der Unternehmensgröße etc. ab. Wichtig ist, dass die Risikoidentifikation durch erfahrene Mitarbeiter, die sich im betrachteten Umfeld gut auskennen, erfolgt. Indem die Risikoidentifikation im Team durchgeführt wird, können Erfahrungen gebündelt und das Committment zum Ergebnis erhöht werden. Alle an der Risikoidentifikation beteiligten Mitarbeiter sollten vor der Risiko-

174

3 Elektrizitätswirtschaft, Liberalisierung

identifikation eine Einführung in das Risikomanagement und die Begriffe aus dem Risiko-Glossar erhalten haben. x

Moderierte Workshops und Interviews: Ein Risikomanager moderiert einen Workshop oder ein Interview, um Ereignisse, die das EBITDA des Unternehmens in einer bestimmten Abteilung/ einem Geschäftsbereich beeinflussen, zu identifizieren.

x

Prozessanalysen: Ein bestimmter Prozess wird von seinen Input-Faktoren über die einzelnen Arbeitsschritte bis hin zum Output darauf hin analysiert, welche Ereignisse auftreten können, die die Erreichung der Prozessziele gefährden. Auf einem hohen Aggregationsniveau können diese Analysen für jeden Prozess durchgeführt werden. Bei Prozessen, bei denen ein Fehler katastrophale Auswirkungen hätte, wie z.B. in einer Nuklearanlage, müssen die Analysen sehr detailliert erfolgen und sind extrem aufwendig. Solch detaillierte Analysen sind in der Pharma-, Öl- und Nuklearindustrie unter dem Begriff HAZOP (Hazard & Operability Study) bekannt. Ähnliche Analysen erfolgen in der Automobilindustrie unter dem Begriff FMEA (Failure Mode and Effects Analysis) und in der Nahrungsmittelindustrie unter HACCP (Hazard Analysis and Critical Control Points).

x

Gefahrenlisten: Gefahrenlisten sind Checklisten zur Unterstützung der Risikoerkennung. Sie enthalten typische Risiken einzelner Branchen oder Prozesse. Die ONR 49002-1 enthält im Anhang ein Beispiel für eine relativ generische Gefahrenliste.

x

Analyse historischer Verlustdaten: Hat das Unternehmen z.B. Daten über die Autounfälle in ihrem Fuhrpark oder die Kunden, die ihre Stromrechnung nicht beglichen haben, so können diese auf Risikoursachen analysiert werden. Z.B. könnte eine Analyse feststellen, dass die meisten Autounfälle von männlichen Aushilfen im Alter von 25-30 Jahren verursacht werden. Daraufhin können dann entsprechende Maßnahmen ergriffen werden.

x

Was wäre wenn Analysen: Insbesondere für nur schwer greifbare Risikoursachen, wie z.B. strategische Risiken bieten sich ‚was wäre wenn’ Brainstorming Workshops an.

Damit die Risiko-/ Ereignisidentifikation z.B. in einem Workshop nicht in einer wilden Sammlung ausartet, sollten durch vorbereitende Analysen die wesentlichen Risikofelder identifiziert werden, um sicherzustellen, dass keine wesentlichen Risiken vergessen werden. Risikofelder könnten z.B. die Kernprozesse des Unternehmens sein oder Risiken, die die Erreichung der strategischen oder anderer Unternehmensziele oder den Erhalt eines Wettbewerbsvorteils gefährden.

3.8 Risikomanagement in der Elektrizitätswirtschaft

175

Risikokategorisierung Neben einem Risiko Glossar ist eine Risikokategorisierung ein gutes Tool, für die Identifikation und Organisation der Unternehmensrisiken. Eine Risikokategorisierung besteht aus verschiedenen Risikotypen, die anhand einer Hierarchie aufgegliedert werden. Die niedrigeren Ebenen der Risikohierarchie dienen der geordneten Sammlung von Einzelrisiken, die dann entlang der Hierarchie zum Unternehmens- oder Konzernrisiko aggregiert werden können. Höhere Hierarchieebenen können für ein aggregiertes Risikoreporting an das Unternehmensmanagement oder die UL genutzt werden. Eine Risikokategorisierung kann aufgebaut werden, indem man eine generische Risikoliste als Ausgangspunkt nimmt und nicht relevante Risiken streicht und relevante ergänzt. Für ein Unternehmen aus der Elektrizitätsbranche wäre eine dreistufige Risikokategorisierung denkbar. Die Hierarchieebenen könnten bestehen aus der Risikokategorie, der Risikosubkategorie und den Risiken selbst. Die Risikokategorien und Subkategorien sollten möglichst sprechend definiert werden, damit schon vom Namen klar wird, welche Risiken in diese Kategorie gehören. Außerdem sollten die Kategorien möglichst überschneidungsfrei definiert sein. Auf Ebene der Risikokategorien könnte ein regelmäßiges UL/VR Reporting aufgebaut werden. Die Risikokategorien sollten sich auch in der Struktur des Limitenbaums widerspiegeln. Der Risikoappetit würde dann zunächst auf Geschäftsfelder aufgeteilt und dann auf die definierten Risikokategorien. Eine Frage bei der Bestimmung der Kategorien sollte daher auch sein, welche Risikokategorien will man später je Geschäftsfeld separat reporten. Sind die definierten Risikokategorien mit denen anderer Unternehmen vergleichbar, ist ein Benchmarking der zur Risikoaggregation erforderlichen Korrelationen mit dem bei anderen Unternehmen (insbesondere Banken) möglich. Risikokategorie wäre dann z.B. das Marktpreisrisiko, Risikosubkategorie darunter wären Zins-, Währungs- und Kursrisiken und Einzelrisiko zum Kursrisiko wäre z.B. das Kursrisiko des Stilliegungs- und Entsorgungsfonds. Folgende Kategorisierung könnte bei einem Unternehmen zum Einsatz kommen:

176

3 Elektrizitätswirtschaft, Liberalisierung

Zum Abschluss der Risiko-Identifikation muss sichergestellt werden, dass sich die Einzelrisiken nicht überschneiden, und es muss eine Zuordnung zu den Risikokategorien und Subkategorien erfolgen. Zeitpunkt und Häufigkeit des Risikoidentifikationsprozesses Da es bei der Risiko-Identifikation um die Abschätzung zukünftiger Ereignisse geht, sollte sie parallel zu den Controlling-Prozessen (Planung, Prognose) durchgeführt werden, bei denen ebenfalls in die Zukunft geschaut wird. Außerdem wird bei der Planung operationalisiert, wie die Unternehmensziele erreicht werden sollen. Wenn gleichzeitig die Risiken (und ggf. Chancen), denen das Unternehmen unterliegt identifiziert/ aktualisiert werden, können z.B. direkt Maßnahmen berücksichtigt werden, um Chancen besser zu nutzen und Risiken zu verringern. Die Kosten/ Nutzen dieser Maßnahmen können direkt in der Planung/ Prognose berücksichtigt werden. Die Bottom-up Risiko-Identifikation sollte einmal jährlich zusammen mit der Mittelfristplanung erfolgen. Zu jeder Quartalsprognose genügt ein Update der bestehenden Risikosituation. Um gemäß der OR-Neuregelung ab 2008 die Risikobeurteilung zum Jahresabschluss vornehmen zu können, sollten die wesentlichen für die Beurteilung der Jahresrechnung relevanten Risiken per 31.12. aktualisiert werden. B) Bewertung und Aggregation Nachdem alle Risiken vollständig identifiziert wurden, hat die Risikobewertung das Ziel, die möglichen Auswirkungen der Risiken abzuschätzen und darüber die

3.8 Risikomanagement in der Elektrizitätswirtschaft

177

Basis für die Risikobehandlung zu legen. Gemäß CCRO ist die Risikobewertung der zwischen den verschiedenen Unternehmen am unterschiedlichsten gehandhabte Schritt im Rahmen des Risikomanagements. Um alle Risiken einheitlich und vergleichbar zu bewerten, muss zunächst möglichst genau festgelegt werden, wie die Risiken bewertet werden sollen. Credible Worst Case Szenario Wie bereits weiter oben beschrieben, ist ein Risiko eine mit einer Eintrittswahrscheinlichkeit und Schadenhöhe bewertete Gefahr. Die Gefahr entsteht durch ein plötzlich oder allmählich eintretendes Ereignis, welches auf ein Objekt des Unternehmens (Mitarbeiter, Anlage, etc.) einwirkt. Eine bestimmte Gefahr kann in sehr verschiedenen Szenarien auftreten. Z.B. könnte ein Bearbeitungsfehler im Energiehandel nur eine kleine Korrektur erfordern, ohne großen Schaden anzurichten (Problem) oder aber einen katastrophalen Verlust erzeugen (Katastrophe). Probleme mit geringer Auswirkung treten tendenziell öfter auf als Fehler mit katastrophalen Folgen. Für die Risikobewertung stellt sich die Frage, ob man eher ein Problem mit geringer Auswirkung aber hoher Häufigkeit, oder den Katastrophenfall mit geringer Eintrittswahrscheinlichkeit aber hohem Schaden, oder einen Fall dazwischen bewerten will. Die AS/NZS 4360:2004 und die ONR vertreten beide die Auffassung, dass der so genannte „credible worst case“ bewertet werden sollte, d.h. das schlimmstmögliche aber dennoch glaubhaft und vernünftige Szenario. Grund ist, dass diese Gefahren die größte Bedrohung für die Existenz des Unternehmens darstellen und der Unternehmensleitung bekannt sein sollten. In manchen Fällen kann es auch angebracht sein, den Problem- und den Katastrophenfall einer Gefahr als getrennte Risiken zu behandeln. So könnte z.B. ein sehr oft auftretendes Problem mit kleinem Schaden über die Zeit genauso folgenschwer sein wie ein katastrophaler Schaden. Außerdem könnten die Maßnahmen zur Behandlung des Problemfalls ganz andere sein als für den katastrophalen Fall. Wichtig ist eine konsistente Bewertung und nicht die Schadenhöhe des Katastrophenfalls mit der Eintrittswahrscheinlichkeit des Problemfalls zu mischen. 6 Soll eine Gefahr, um sie später auf der Risk Map einzutragen und darüber die Risikobehandlung zu priorisieren, bewertet werden, sollte das Unternehmen den credible worst case bewerten. Wird neben dem credible worst case noch ein weiteres Szenario desselben Risikos in der Risk Map eingetragen, so muss dieses Risiko nicht auch für die Risikokapitalabsicherung doppelt erfasst werden. Brutto/Netto-Risiko Bruttorisiko ist das Risiko, dem ein Unternehmen ausgesetzt ist ohne jegliche Aktivität zur Reduktion von Eintrittswahrscheinlichkeit und Schadenhöhe. Nettorisiko ist das nach allen Risikomanagement-Maßnahmen verbleibende Risiko.

6

Vgl. AS/NZS 4360:2004 Handbuch S. 67 und ONR 49002-1 S. 7 Absatz 4.2.2.2

178

3 Elektrizitätswirtschaft, Liberalisierung

Obwohl viele Unternehmen aus Vereinfachungs-/ Aufwandsgründen nur das Nettorisiko bewerten, sollte zunächst das Bruttorisiko bewertet werden. Nur durch Bewertung der Bruttorisiken kann sichergestellt werden, dass keine wesentlichen Risiken übersehen werden, weil alle an der Risikobewertung Beteiligten von der Effektivität der getroffenen Risikomanagement-Maßnahmen überzeugt sind. Außerdem wird nur bei einer Brutto- und Nettobewertung sichergestellt, dass auch die Wirksamkeit der getroffenen Maßnahmen noch einmal überprüft wird. Erwartete/ Unerwartete Gefahren/ Risiken Nur unerwartet eintretende Gefahren sollten als Risiko bewertet werden. Gefahren, deren Eintritt erwartet wird und die bereits in der Unternehmensplanung berücksichtigt sind, stellen definitionsgemäß kein Risiko mehr dar. Hat ein Unternehmen z.B. im langjährigen Durchschnitt 2% Ausfälle auf ihre Forderungen gegen Privatkunden, so sollte mindestens der gleiche Ausfall im Ergebnis der Planung des aktuellen Jahres berücksichtigt sein. Nur darüber hinaus gehende Ausfälle würden ein Risiko darstellen, das erfasst und gemanaged werden muss. Auch eine Risikoabsicherung durch Risikokapital ist nur für nicht geplante Gefahren erforderlich. Primär-/ Sekundäreffekt Primär- und Sekundäreffekt eines Risikos beziehen sich nur auf die Schadenhöhe des Risikos. Der Primäreffekt ist der unmittelbare Schaden, der durch Eintritt eines unerwarteten Ereignisses entsteht (z.B. Reparaturkosten an einer ausgefallenen Turbine). Der Sekundäreffekt ist der mittelbare oder Folge-Schaden aus dem Ereignis (z.B. Verlust aus dem durch den Turbinenschaden resultierenden Produktionsausfall). Bei der Bewertung der Schadenhöhe eines Risikos müssen immer Primär- und Sekundär-Effekte berücksichtigt werden. Zeithorizont Um alle Risiken einheitlich und vergleichbar zu bewerten, muss die Bewertung auf den gleichen Zeithorizont bezogen sein. Üblicherweise wird als Zeithorizont mit einem Jahr gearbeitet. Grund dafür ist, dass mindestens einmal pro Jahr eine bottom-up Erhebung der Risikosituation erfolgen sollte und dass ein Jahr ungefähr die erforderliche Zeit für die Umsetzung größerer Risikomanagement-Maßnahmen oder die Beschaffung von zusätzlichem EK ist. Wichtig ist, dass jede Dimension der Bewertung, also z.B. Eintrittswahrscheinlichkeit UND Schadenhöhe, für den gleichen Zeithorizont bewertet werden. Wenn die bottom-up Risikoerhebung parallel zum Mittelfristplanungsprozess erfolgt, sollte das Bezugsjahr dem Budgetjahr entsprechen. Bewertungseinheit Ebenfalls aus Gründen der Vergleichbarkeit sollten alle Risiken gegenüber einer einheitlichen Bezugsgröße bewertet werden. Grundsätzlich muss die Bewertungseinheit in Abhängigkeit der Ziele des Risikomanagements gewählt werden.

3.8 Risikomanagement in der Elektrizitätswirtschaft

179

Quantitative/ Qualitative Bewertungstechniken Die Bewertung von Risiken kann qualitativ, semi-quantitativ oder quantitativ erfolgen, wobei Komplexität und Kosten von der qualitativen zur quantitativen Bewertung ansteigen. Welchen Bewertungsansatz man wählt, hängt von den Zielen ab, die man mit Risikomanagement verfolgt, sowie den verfügbaren Ressourcen. Bei einer qualitativen Bewertung werden Eintrittswahrscheinlichkeit und Auswirkung eines Risikos verbal beschrieben, statt numerisch bestimmt. Mit Hilfe verbaler Formulierungen können Klassen definiert werden, die eine Einordnung der Risiken auf einer Risk Map zulassen. Z.B. könnten die Klassen: „unbedeutend“, „gering“, „spürbar“, kritisch“, „katastrophal“ für eine Einordnung der Risiken nach der Stärke ihrer Auswirkungen dienen. Qualitative Bewertungen können eingesetzt werden, wo: x

nicht ausreichend Informationen für eine quantitative Bewertung vorhanden sind,

x

diese Art der Bewertung ausreicht, um die Ziele des Risikomanagements zu erreichen,

x

das vermeintliche Ausmaß des Risikos den Aufwand einer Quantifizierung nicht rechtfertigt

Um Konsens über Eintrittswahrscheinlichkeit und Schadenhöhe bei qualitativer Risikobewertung zu erhalten, können dieselben Techniken wie bei der Risikoidentifikation angewandt werden: z.B. moderierte Workshops. Bei einer semi-quantitativen Bewertung werden den qualitativ definierten Risikoklassen Werte zugeordnet. Ziel ist ein verbessertes Ranking der Risiken zu ermöglichen, ohne den Aufwand für eine Quantifizierung investieren zu müssen. Da die den Klassen zugeordneten Werte keinen exakten Bezug zur Eintrittswahrscheinlichkeit und Schadenhöhe der Risiken haben, können die Faktoren nicht kombiniert werden, um daraus eine Risikobewertung abzuleiten. Die den Risikoklassen zugeordneten Werte spiegeln ggf. die Relationen zwischen einzelnen Risiken nicht korrekt wider, was zu falschen Rückschlüssen führen kann. Man muss also darauf achten, die Ergebnisse einer semi-quantitativen Bewertung nicht genauer zu interpretieren als die verbale Skala zulässt. Aus diesen Gründen warnen die AS/NZS 4360:2004 vor dem Einsatz semi-quantitativer Bewertungstechniken. Bei einer quantitativen Bewertung werden sowohl Schadenhöhe als auch Eintrittswahrscheinlichkeit numerisch bestimmt. Quantitative Bewertungen erlauben eine bessere Risikoanalyse, weil z.B. die Relationen zwischen Risiken besser eingeschätzt werden können. Die Qualität einer quantitativen Bewertung hängt stark von den zu Grunde gelegten Annahmen, Daten und Modellen ab. Daraus möglicherweise resultierende Unsicherheiten und Variabilitäten in der Risikobewertung müssen in der Risikoanalyse beachtet und klar kommuniziert werden.

180

3 Elektrizitätswirtschaft, Liberalisierung

Bei den quantitativen Bewertungen kann man gem. COSO drei Techniken unterscheiden: 1.

Benchmarking: Einige Unternehmen nutzen Benchmarking, um Eintrittswahrscheinlichkeit und Schadenhöhe von branchenüblichen Risiken zu bewerten.

2.

Probabilistische Modelle: Bewerten Eintrittswahrscheinlichkeit und Schadenhöhe basierend auf historischen Daten oder Simulationen und projizieren diese auf die Zukunft. Beispiele sind: VaR, EaR und CFaR Ansätze.

3.

Non-Probabilistische Modelle: Quantifizieren die Schadenhöhe auf Basis subjektiver Annahmen, ohne die Eintrittswahrscheinlichkeit zu quantifizieren. Beispiele sind: Szenario-Analysen, Sensitivitätsmasse und Stress Tests.

In einem Konzern/ Unternehmen müssen nicht überall die gleichen Bewertungsmethoden angewandt werden. Die Methode kann der benötigten Genauigkeit oder den Erfahrungen des Geschäftsfelds angepasst werden. Um ERM betreiben zu können, sollten die angewandten Methoden aber die Aggregation der Risiken zu einer Konzernrisikozahl ermöglichen. So könnten z.B. die meisten Risiken über einen VaR bewertet werden, das Geschäftsrisiko aber über einen EaR Ansatz. EaR und VaR sind aggregierbar. Bewertung von Chancen Chancen werden analog zu Risiken mit Eintrittswahrscheinlichkeit und Auswirkung bewertet und auf einer Opportunity Map abgetragen. Rechts oben werden dann die Opportunities stehen, auf deren Wahrnehmung sich das Unternehmen konzentrieren sollte. Die übrigen Bewertungstechniken qualitativer und quantitativer Art sollten analog auf Chancen übertragbar sein. Verwendung beobachtbarer Daten Unabhängig davon, ob Risiken qualitativ oder quantitativ bewertet werden, sollte die Bewertung immer unter Berücksichtigung allen verfügbaren Datenmaterials erfolgen, welches eine objektivere Risikobeurteilung als eine rein subjektive Einschätzung zulässt. Interne Daten, die unternehmensindividuelle Erfahrungen widerspiegeln sind dabei besser als externe. Selbst wenn interne Daten vorliegen, können externe Daten einen zusätzlichen Anhaltspunkt für die Risikobewertung liefern. Bevor vergangene Daten dazu verwendet werden Prognosen für die Zukunft zu machen, muss geprüft werden, ob die das Risiko beeinflussenden Faktoren sich ggf. geändert haben. Erst wenn gar keine Daten erhältlich sind, muss geschätzt werden. Schätzungen können durch Diskussion in der Gruppe validiert und auf eine breitere Grundlage gestellt werden.

3.8 Risikomanagement in der Elektrizitätswirtschaft

181

Wesentlichkeitsgrenzen Frühestens im Rahmen der Risikobeurteilung können erste Risiken aus dem weiteren Prozess herausgenommen werden. Denkbar wäre, eine Wesentlichkeitsgrenze einzuführen und z.B. Risiken mit einer Eintrittswahrscheinlichkeit kleiner 1% für die weiteren Risikomanagement-Schritte außer Acht zu lassen. Mehrere Einzelrisiken mit Eintrittswahrscheinlichkeiten 1% haben können, sollten jedoch wieder berücksichtigt werden. Auch Risiken, die einzeln existenzgefährdend werden können (Schaden zehrt mehr als 100% des EBITDA oder mehr als 50% des EK auf), sollten weiterhin berücksichtigt werden. Die derart „aussortierten“ Risiken sollten dennoch katalogisiert und regelmäßig überprüft werden, um nicht in Vergessenheit zu geraten. Dokumentation der Risikobewertung Das Zustandekommen der Risikobewertung muss gut dokumentiert sein, um später z.B. nach Mitarbeiterwechseln nachvollziehbar zu sein. Es sollte dokumentiert werden, wie hoch das Bruttorisiko ist, welche Risikominderungsmaßnahmen mit welchem Einfluss berücksichtigt wurden, um auf das Nettorisiko zu kommen, welche Annahmen insbesondere für Auswirkungen bei Risiken mit immateriellen Schäden wie Reputation getroffen wurden, welche Primär- und Sekundärschäden berücksichtigt wurden etc. Korrelation von Einzelrisiken Unter Korrelation von Risiken versteht man den Zusammenhang zwischen verschiedenen Risikoursachen. Risikoursachen sind dann korreliert, wenn der Eintritt von Ereignis A den Eintritt von Ereignis B auslöst oder dessen Eintrittswahrscheinlichkeit oder Schadenhöhe beeinflusst. Korrelationen können über eine Risiko-Treiber-Karte analysiert werden. Hier werden alle Risiken einer Risikokategorie aufgetragen und die Zusammenhänge über Pfeile verdeutlicht. Kernfrage ist, verändert das Eintreten eines Events alleine oder in Zusammenhang mit anderen die Eintrittswahrscheinlichkeit oder Schadenhöhe eines anderen Events? Ist die Risikotreiber-Karte erstellt, kann man auf die wichtigsten Events (= die, die sich durch Korrelation in ihrer Wirkung/ Eintrittswahrscheinlichkeit verstärken) fokussieren, um sie besser zu verstehen und zu managen. 7 Die Korrelation wird über eine Zahl zwischen 0 und 1 ausgedrückt. Bedeutet das Eintreffen von Ereignis A zwingend, dass auch Ereignis B eintritt, so ist die Korrelation = 1. Tritt B auf keinen Fall ein, wenn A eintritt, ist die Korrelation = -1. Sind A und B unabhängig voneinander, ist die Korrelation = 0. Positiv korrelierte Ereignisse verstärken sich in ihrer Wirkung, während negativ korrelierte Ereignisse zu einem Diversifikationseffekt führen.

7

Vgl. ERM FAQ Guide, Protiviti Inc., S. 61

182

3 Elektrizitätswirtschaft, Liberalisierung

Die Berücksichtigung von Korrelationen ist ein wesentlicher Aspekt eines ERM Ansatzes. Im Vergleich zu den bisher üblichen Insellösungen für einzelne Risiken in einzelnen Geschäftsfeldern, zeichnet sich ERM dadurch aus, dass alle Risikoarten über die Geschäftsfelder hinweg mit vergleichbaren Messgrößen bewertet, aggregiert und dann auf Portfolioebene gemanaged werden. Bei der Aggregation müssen Korrelationen berücksichtigt werden. Nur so werden die Portfolioeffekte, die zu einer effizienteren Nutzung von Risikokapital führen, ausgenutzt und die Ausschöpfung des definierten Risikoappetits richtig ermittelt. Die Quantifizierung von Korrelationen steckt derzeit weltweit noch in den Anfängen. Idealerweise werden Korrelationen auf der Basis historischer Daten über Regressionsanalysen abgeleitet. Die dazu erforderliche Datenbasis ist in den meisten Unternehmen jedoch nicht vorhanden. Alternativ bleibt nur, die Korrelationen über subjektive Einschätzung z.B. mit Hilfe der oben erwähnten RisikotreiberKarte „abzuschätzen“. Auf diesem Weg ist i.d.R zumindest eine tendenzielle Bewertung der Korrelation zwischen zwei Risiken möglich. Tendenziell heißt, man kann sagen, ob die Korrelation 1,-1 oder 0 ist, beziehungsweise zwischen 0 und 1 oder 0 und -1 liegen müsste. Allein eine derartige Tendenzaussage ist für die Abschätzung von Portfolioeffekten schon sehr hilfreich. Eine Fehleinschätzung kann aber auch zu einer erheblichen Fehleinschätzung des Portfolioeffekts und damit der berechneten Risikoposition führen, so dass Korrelationen immer konservativ bewertet werden sollten. Im konservativsten Fall geht man davon aus, dass alle Einzelrisiken positiv korreliert sind und addiert sämtliche Einzelrisiken auf. Diesen Ansatz sollte man wegen der daraus resultierenden starken Überschätzung des Risikos nur wählen, wenn keine Abschätzung der Korrelation möglich ist. Bei der Aggregation von Risiken entlang des Limitenbaums müssen immer wieder Korrelationen berücksichtigt werden. Die Auswirkung einer Fehleinschätzung wird umso größer, je weiter oben im Limitenbaum man sich befindet. Insbesondere für die Korrelationen auf höheren Stufen des Limitenbaums sollte daher versucht werden, externe Benchmarks zu erhalten. So sollte z.B. die Korrelation des Kredit- und des Marktrisikos im Handel der Korrelation dieser Risiken bei einer Bank ähnlich sein. Bei dem Vergleich mit Benchmarks ist zu beachten, dass die Risikokategorie mit der des als Vergleich genutzten Benchmarks identisch ist. Die Dresdner Bank schätzt die Zusammenhänge ihrer Hauptrisikoarten wie folgt ein 8 (Tabelle 3.21):

8 Quelle: Präsentation an der Uni Köln, Seminar für Allgemeine Bank BWL, Dr. Martin Knippschild, 8.11.2005, S. 22

3.8 Risikomanagement in der Elektrizitätswirtschaft

183

Tabelle 3.21. Qualitative Korrelationen zwischen den Risikokategorien.

Kreditrisiko MarktrisikoGeschäftsrisiko Operatives Risiko Kreditrisiko

100%

Hoch

Mittel

Niedrig

Marktrisiko

Hoch

100%

Mittel

niedrig

Geschäftsrisiko Mittel

Mittel

100%

mittel

Operatives Risi- Niedrig ko

Niedrig

Mittel

100%

Risiko-Aggregation Die Aggregation von Einzelrisiken zu einer Konzernrisikozahl ist nur möglich, wenn alle Einzelrisiken quantifiziert wurden. Erfolgte die Risikobewertung mit einer VaR, EaR oder CFaR Größe, ist eine Aggregation mathematisch gut möglich. Risiko-Priorisierung Nachdem alle Risiken bewertet wurden, muss als nächstes eine Risiko-Priorisierung durchgeführt werden. Kein Unternehmen hat ausreichend Ressourcen, um alle seine Risiken zu behandeln oder Chancen zu verfolgen. Über die Priorisierung werden aus der Gesamtheit der Risiken/ Chancen die herausgefiltert, die einer weiteren Behandlung bedürfen. Wie die Risikopriorisierung erfolgen sollte, hängt von den Zielen ab, die das Unternehmen mit Risikomanagement verfolgt. Die mit dem Risikomanagement verfolgten Ziele inkl. Kriterien anhand derer je Risiko ermittelt werden kann, ob es die Risikotoleranzgrenze überschritten hat, sollten in der Risikostrategie definiert werden. Ein weit verbreiteter Ansatz ist, Risiken in drei Klassen zu unterteilen: 9

9

1.

Ein oberes Band, in dem Risiken als inakzeptabel angesehen werden unabhängig vom Nutzen, der mit diesen Risiken verbunden ist, und in dem Risiken reduziert werden müssen, unabhängig von den dabei anfallenden Kosten.

2.

Ein mittleres Band, in dem Kosten und Nutzen von Risiken und Bewältigungs-Maßnahmen abgewogen werden, bevor sie ergriffen werden.

3.

Ein unteres Band, in dem Risiken als vernachlässigbar klein angesehen werden, so dass keine Behandlung erforderlich ist.

Vgl. AS/NZS 4360:2004 Handbuch, S. 65

184

3 Elektrizitätswirtschaft, Liberalisierung

Setzt das Unternehmen Risikomanagement zur sichereren Erreichung der Unternehmensziele ein, müssen die Risiken, die den größten Einfluss auf die Unternehmensziele haben als erstes behandelt werden. In der Risikostrategie sollten Grenzwerte definiert werden, ab denen ein Risiko auf jeden Fall behandelt werden muss bzw. ab denen es akzeptabel ist. Ist ein Unternehmensziel z.B. die Erreichung von 10% Marktanteil im fremden Versorgungsgebiet, so könnte ein Risiko, was dieses Ziel um 5% gefährdet, als auf jeden Fall zu behandeln definiert werden, ein Risiko mit 0,1% Gefährdungspotential könnte dagegen als akzeptabel definiert werden. Besteht das Ziel von Risikomanagement darin, die Risiken mit dem größten Verlust-/Existenzgefährdungspotential für das Unternehmen zu identifizieren (wie z.B. bei den meisten Unternehmen in Deutschland, die Risikomanagement nach dem KONTraG betreiben), müssen die Risiken mit der größten Eintrittswahrscheinlichkeit und Schadenhöhe herausgefiltert werden. Das am weitesten verbreitete Werkzeug für diese Art der Risikopriorisierung ist die Risk Map. Sie besteht aus einem Koordinatensystem, an dessen Achsen Eintrittswahrscheinlichkeit und Schadenhöhe aus der Risikobewertung abgetragen werden. Je Unternehmen werden Eintrittswahrscheinlichkeit und Schadenhöhe in unterschiedlich viele qualitativ oder quantitativ beschriebene Klassen unterteilt. Aus der Anzahl der Klassen ergeben sich dann Felder auf der Risk Map, über die die Risikopriorisierung erfolgt. Abbildung 3.58 zeigt beispielhaft einen Aufbau von einer Risk Map. Höhe in Bezug auf Existenzgefährdung

Schadenhöhe [Mio CHF]

gravierend 100%

hoch 25%

moderat 5%

unwesentlich

h sc hr a w un

ich nl ei

5%

20%

50%

ich ich nl nl ei ei h se h c sc rs hr ah w wa hr se

100%

Eintrittswahrscheinlichkeit pro Jahr

n lte

Abb. 3.58. Risk Map zur Darstellung der Priorisierung der Unternehmensrisiken

3.8 Risikomanagement in der Elektrizitätswirtschaft

185

C) Steuerung / Maßnahmen Eingangsgröße für diesen Schritt ist eine Liste von priorisierten Risiken, die einer Behandlung bedürfen. Im Rahmen dieses Schrittes werden dann Behandlungsoptionen je Risiko identifiziert und bewertet, Implementierungspläne aufgestellt und umgesetzt. Grundsätzlich fallen alle Behandlungsmöglichkeiten für ein Risiko in eine der folgenden Kategorien: Vermeiden: Es werden Maßnahmen getroffen, die Aktivitäten, die das Risiko verursachen, zu unterlassen bzw. gar nicht erst anzufangen. So könnten Risiken vermieden werden, indem bestimmte Produkte nicht mehr hergestellt werden, nicht in einen neuen geographischen Markt expandiert wird oder ein Teilkonzern verkauft wird. Reduzieren: Es werden Maßnahmen getroffen, die Eintrittswahrscheinlichkeit und/ oder Schadenhöhe des Risikos bis auf ein für das Unternehmen akzeptables Maß zu reduzieren. Dazu könnte z.B. die räumliche Trennung von zentraler Leitstelle und EDV-Rechenzentrum gehören, um in einem Katastrophenfall nicht beides zu verlieren (Reduktion Schadenhöhe) oder die Verbesserung von internen Kontrollaktivitäten, um die Eintrittswahrscheinlichkeit bestimmter Risiken zu reduzieren. Teilen: Es werden Maßnahmen getroffen, die Eintrittswahrscheinlichkeit und/ oder Schadenhöhe des Risikos bis auf ein für das Unternehmen akzeptables Maß zu reduzieren, indem es mit anderen Parteien geteilt oder auf andere Parteien transferiert wird. Gängige Techniken Risiken zu teilen sind das Abschließen von Versicherungen oder anderen Verträgen wie z.B. Outsourcing Verträge. Akzeptieren: Es werden keine Maßnahmen getroffen, um Eintrittswahrscheinlichkeit und/ oder Schadenhöhe des Risikos zu beeinflussen. Das Akzeptieren eines Risikos lässt darauf schließen, dass es sich bereits im für das Unternehmen akzeptablen Rahmen befindet. Ein Risiko zu akzeptieren bedeutet jedoch nicht, dass es einfach tatenlos hingenommen wird. Stattdessen könnte es sein, dass ein Unternehmen das Risiko bewusst akzeptiert, weil es einen angemessenen Nutzen oder Wettbewerbsvorteil bietet, und sich gegen die mögliche Gefahr mit EK/ Liquidität absichert. Ein Risiko könnte auch deshalb akzeptiert werden, weil es ein anderes Risiko gibt, durch welches es ganz oder teilweise kompensiert wird. Schließlich könnte das Risiko deshalb akzeptiert werden, weil für dessen Übernahme am Markt eine angemessene Risikoprämie erzielbar ist. Bei der Behandlung von Chancen kann analog vorgegangen werden. Chancen können aktiv angegangen werden, indem Aktivitäten gestartet werden, um die Chance zu kreieren oder aufrecht zu erhalten. Eintrittswahrscheinlichkeit und Schadenhöhe der Chance können erhöht werden, die Chance kann geteilt werden, etc.

186

3 Elektrizitätswirtschaft, Liberalisierung

Identifikation von Risikobehandlungsmaßnahmen Bevor nach Risikobehandlungsmaßnahmen gesucht wird, sollte ein Unternehmen sich überlegen, ob das betrachtete Risiko überhaupt eingegangen werden soll oder nicht. Akzeptabel sind Risiken, die mit dem Kerngeschäft des Unternehmens einhergehen und aus denen es sein Erfolgspotential bzw. seine Wettbewerbsvorteile zieht, die messbar und managebar sind und die einen ausreichenden Nutzen bringen. Wenn z.B. mit einer Geschäftsaktivität bedeutende Risiken verbunden sind, die nicht managebar sind, muss das Unternehmen überlegen, ob es diese Aktivität fortführen will. Nicht wünschenswert sind Risiken, die nichts mit dem Kerngeschäft zu tun haben, keinen ausreichenden Nutzen bringen oder nicht messbar und managebar sind. Diese Risiken gilt es zu vermeiden oder zu teilen. Indem Randrisiken übertragen werden, kann mehr Risikokapital für den eigentlichen Geschäftszweck eingesetzt werden. Entschließt sich das Unternehmen ein Risiko nicht zu vermeiden, müssen Behandlungsoptionen identifiziert und bewertet werden. Dabei sollte zunächst geprüft werden, ob es bekannte weit verbreitete Behandlungsoptionen für das betrachtete Risiko gibt und ob diese auch für die eigene Situation geeignet sind. D) Überwachung Im Rahmen des Monitorings wird die Einhaltung aller in den vorherigen Schritten beschlossenen Maßnahmen überwacht. Dazu gehören z.B.: -

Einhaltung von Limiten

-

Veränderungen der Risikoposition

-

Absicherung durch Risikokapital

-

Einhaltung von Risiko-Rendite Vorgaben

-

Fortschritt und Wirksamkeit der Umsetzung von Risikobehandlungsmaßnahmen

-

Einhaltung von Vorgaben der Risikopolitik

-

Etc.

Über das Reporting werden regelmäßig Informationen über die Risikosituation und die Ergebnisse des Monitorings von der operativen Ebene an das Management berichtet. Weil z.B. Limite die Grenze zwischen zulässigem und zu behandelndem Risiko darstellen, ist das Monitoring und Reporting von Limit-Überschreitungen eine kritische Information vom operativen Geschäft an das Management, welches letztendlich für das Risikomanagement und die Unternehmensperformance verantwortlich ist. Ohne zeitnahe Informationen kann das Management dieser Verantwortung nicht gerecht werden. Um Konsistenz, Transparenz und Korrektheit der Daten sicher zu stellen, sollte eine formale Reporting-Struktur mit regelmäßigen Standard Reports aufgesetzt werden. Die Reporting-Struktur wird später als zentrales Nervensystem dienen, welches alle kritischen Risiko-Informationen an

3.8 Risikomanagement in der Elektrizitätswirtschaft

187

alle interessierten Parteien liefert. Die Reporting-Struktur sollte so aufgesetzt werden, dass die gleichen Informationen an zwei unabhängige Instanzen gehen, um eine Art vier Augen-Prinzip und Validierung der aus den Risikoinformationen gezogenen Schlüsse sicher zu stellen. Monitoring und Reporting spielen auch eine kritische Rolle bei der Schaffung einer risikobewussten Unternehmenskultur, da sie permanent an Limite und die Risikotoleranz des Unternehmens erinnern. Monitoring und Reporting betonen die Verantwortung für die Einhaltung der Risikopolitik und den damit einhergehenden Limiten. Folgende Übersicht zeigt beispielhaft, welche Reports wie oft an welche Empfänger gehen könnten:

188

3 Elektrizitätswirtschaft, Liberalisierung

Post Event Analyse Wenn ein Risiko eingetreten ist, sollte analysiert werden, ob es bekannt war, korrekt eingeschätzt wurde, die Kontrollmechanismen wie gewollt funktioniert haben, etc. Solche Informationen könnten auch in einer Event Datenbank gesammelt werden und später für Analysen oder die Einschätzung von Eintrittswahrscheinlichkeit und Schadenhöhe anderer Risiken genutzt werden. 3.8.2.4. Weitere mögliche Komponenten eines Enterprise Risk Managements A) Erhöhung der Planungssicherheit Der Aufbau eines Planungsmodells macht die Planungssicherheit sowie die wesentlichen das EBITDA beeinflussenden Risikofaktoren transparent. Im heutzutage zunehmend unsicherer werdenden Marktumfeld (z.B. durch die anstehende Marktliberalisierung in der Schweiz) wird es für Aktiengesellschaften immer wichtiger, dem Kapitalmarkt zu demonstrieren, dass das Unternehmen seine Finanzen im Griff hat und ihm die Risiken transparent sind, die die angekündigte Unternehmensentwicklung beeinträchtigen könnten. Für Aktiengesellschaften, die Ergebnisprognosen veröffentlichen, ist es sehr wichtig diese auch zu erreichen. Spätestens bei der zweiten Verfehlung einer Ergebnisprognose (egal, ob nach oben oder unten), die nicht sehr gut begründet werden kann, muss ein Unternehmen mit massiven Kursabschlägen rechnen. Gemäß einer Studie von Ernst&Young unter 137 institutionellen Anlegern aus 16 Ländern können Unternehmen mit einem guten Risikomanagement hingegen mit einer Kursprämie rechnen 10 . Die im Folgenden beschriebenen Earnings at Risk Ansätze helfen dem Management, den in der Planung angestrebten Jahresüberschuss mit größerer Sicherheit zu erreichen, können aber auch zu einem ganzheitlichen RisikomanagementAnsatz ausgebaut werden. Pro Forma Modell der stochastischen Planung Basis dieses Ansatzes ist ein Planungsmodell des Unternehmens, bestehend aus den Positionen der Plan-Bilanz und Plan-GuV (GuV = Gewinn- und Verlustrechnung). Im einfachsten Fall werden die Positionen z.B. der Plan GuV als Zufallsvariable modelliert. Da auf eine einzelne GuV Position eine Vielzahl von Einflussfaktoren einwirken, die sich kaum trennen lassen („verteilungsorientierte Risiken“) werden sie als Normalverteilung modelliert. Nach dem „Zentralen Grenzwertsatz“ aus der Statistik konvergiert die Summe vieler Einzeleinflüsse gegen eine Normalverteilung. Als Erwartungswert der Normalverteilung wird der über das übliche Controlling-Instrumentarium abgeleitete Planwert der Position verwendet. Nur die Abweichungen von diesem Planwert (= Erwartungswert) stellen 10

Amhofer&Schweizer: „Anleger bezahlen Prämie für risikobewusste Unternehmen“, Artikel aus Finanz und Wirtschaft Nr. 93; S. 22; 23.11.2005

3.8 Risikomanagement in der Elektrizitätswirtschaft

189

das Risiko dar. Hier ist es wichtig, dass über die Planungsmethoden des Controllings ein zuverlässiger Erwartungswert ermittelt wird. Würde der Planwert nicht mit dem Erwartungswert übereinstimmen, würden die Abweichungen aufgrund unsauberer Planung als Risiko gemessen. Die Standardabweichung der Normalverteilung wird aus der historischen Entwicklung des Positionswertes ermittelt (auf Basis einer 5-10 Jahres Zeitreihe). Einzelne GuV Positionen könnten auch von außerordentlichen Ereignissen („ereignisorientierte Risiken“) abhängen. Diese Positionen werden dann als Binomialverteilung modelliert mit den Zuständen: Risiko tritt ein oder nicht. Wird dies für jede GuV Position gemacht, dann kann z.B. mit Hilfe des Tools Crystal Ball ein Simulationsmodell für die GuV aufgebaut werden mit dem Jahresüberschuss als Ergebnisgröße. Crystal Ball kann dann in unabhängigen Simulationsläufen viele Geschäftsjahre durchspielen und jeweils die Ausprägungen der GuV sowie der Zielgröße Jahresüberschuss berechnen. Durch die Simulation wird eine repräsentative Stichprobe aller möglichen Risiko-Szenarien des Unternehmens bestimmt und ausgewertet. Aus den ermittelten Realisationen der ZielgrößeJahresüberschuss ergibt sich eine Wahrscheinlichkeitsverteilung, auf deren Basis ein Earnings at Risk Wert errechnet werden kann. Bei diesem Earnings at Risk Wert handelt es sich um die innerhalb einer Periode mit einer bestimmten Konfidenz maximale Abweichung des Jahresüberschusses von dem aus der Planung erwarteten Wert. Über den gleichen Ansatz kann auch ein Cashflow at Risk Modell (CFaR) aufgebaut werden, um ein bestimmtes Cashflow Ziel besser zu erreichen und das Liquiditätsrisiko besser zu managen. Da die Berechnung des Cashflows aber schon wesentlich komplexer ist als die des Jahresüberschusses, ist bereits der Aufbau eines Pro Forma Modells sehr anspruchsvoll. Option 1 Pro Forma Modell

Plan GuV 2008 Umsatz

1.000

+ Sonstige Erträge

250

- Materialaufwand

500

- Personalaufwand

300

- Sonstiger Aufwand

100

= EBITDA

350

- Abschreibungen

200

+ Finanzergebnis

80

- A.O. Ergebnis

-40

= Ergebnis vor Steuern

190

Option 2 Risikofaktormodell

• Modellierung der GuV • Modellierung der Positionen (z.B. Umsatz) als Risikofaktoren je GuV Zufallsvariable Position als Zufallsvariable (z.B. Preis und Menge statt • Erwartungswert = Budgetwert Umsatz) • Standardabweichung aus • Erwartungswert = Budgetwert Historie • Standardabweichung aus Historie angepasst gemäß Erwartung Monte Carlo Simulation & Sensitivitätsanalysen Ergebnis: • Earnings at Risk (EaR) Wert für EBITDA, der die mögliche Schwankungsbreite aufzeigt • Schwankungsbreite je GuV Position • GuV Positionen/ Risikofaktoren mit grösstem Einfluss auf EBITDA

Abb. 3.59. Modelloptionen zum Sichtbarmachen der Schwankungsbreite des Jahresergebnisses.

190

3 Elektrizitätswirtschaft, Liberalisierung

Vorteile Der Vorteil dieses Ansatzes besteht darin, dass die Planungsunsicherheit jeder einzelnen Position, aber insbesondere der Zielgröße Jahresüberschuss, verdeutlicht wird. Es wird klar, ob wichtige Größen, wie der Umsatz oder der Jahresüberschuss, um ein 1% oder um 20% um den Planwert schwanken können. Dabei wird nicht nur das Risiko, also die mögliche Abweichung vom Planwert nach unten, sondern auch die Chance den Planwert zu übertreffen, sichtbar gemacht. Über Sensitivitätsanalysen kann ermittelt werden, welche GuV Positionen den Jahresüberschuss besonders stark beeinflussen. Durch Analyse der Gründe für die Schwankungen in diesen Positionen und das Ergreifen entsprechender Maßnahmen kann das Risiko von Abweichungen des Jahresüberschusses vom angestrebten Planwert reduziert werden. Treten dennoch Abweichungen auf, sind diese besser erklärbar. Nachteile Der Nachteil bei diesem Vorgehen besteht darin, dass die Vergangenheit auf die Zukunft projiziert wird. Durch die Ableitung der Standardabweichung jeder einzelnen Position aus der Vergangenheit, wird angenommen, dass die Volatilität der einzelnen Positionen sowie die Korrelation der Einflussfaktoren auf jede Position auch in Zukunft unverändert bleiben. Hinzu kommt, dass buchhalterische Aufwandsbuchungen (z.B. die Erhöhung von Pensionsrückstellungen, Goodwillabschreibungen, etc.) den EaR Wert verzerren. Da die Bilanz und GuV Positionen direkt als Zufallsvariable modelliert werden, werden die Risikotreiber nicht deutlich. Umsatzschwankungen können z.B. durch Preis- oder Mengen-Schwankungen oder eine Kombination von beidem verursacht worden sein. Diese für das Management und die Verminderung von Risiken relevante Ursache-Wirkungsbeziehung wird bei diesem Ansatz nicht deutlich.

Abb. 3.60. Modellierung der Margentreiber

3.8 Risikomanagement in der Elektrizitätswirtschaft

191

Kausales Risikofaktormodell der stochastischen Planung Ein Teil dieser Nachteile kann durch eine weitere Detaillierung des Planungsmodells behoben werden. Dazu werden nicht mehr die Bilanz- und GuV Positionen, sondern die diese Positionen beeinflussenden Risikofaktoren als Zufallsvariable modelliert. Es würde also nicht mehr der Umsatz direkt, sondern Preis und Menge mit ihren Einflussfaktoren modelliert. Bei der Identifikation der relevanten Risikofaktoren dient das Risikoinventar aus der regelmäßigen Risikoerhebung als Grundlage. Vorteile Die einzelnen Bilanz- und GuV Positionen können wesentlich detaillierter modelliert werden. Durch den Aufbau des Modells wird sehr klar, welche Risikofaktoren auf welche Positionen wirken, und die Korrelationen dieser Wirkung können berücksichtigt werden. Bei der Modellierung können in der Zukunft erwartete Veränderungen historischer Einflussgrößen explizit berücksichtigt werden, so dass es weniger vergangenheitsorientiert ist. Sensitivitätsanalysen können nun auf Basis einzelner Risikofaktoren durchgeführt werden und zeigen noch deutlicher, was den Jahresüberschuss wie stark beeinflusst. Neue Risikofaktoren können jederzeit in das Modell integriert werden. Die detailliertere Verdeutlichung von Ursache-Wirkungs-Beziehungen und die realitätsnähere Abbildung zukünftiger Erwartungen verdeutlichen dem Management, auf welche Risiken es sich konzentrieren muss, um den geplanten Jahresüberschuss sicherer zu erreichen. Der ermittelte EaR Wert auf Konzernebene ist ein Anhaltspunkt für die Gesamtrisikoposition des Unternehmens. Nachteile Den genannten Vorteilen stehen allerdings auch zusätzliche Herausforderungen gegenüber. In einem so genannten Risikofaktormodell können nur die wichtigsten Risiken, denen ein Unternehmen unterliegt, modelliert werden. Eine exakte Abbildung der Realität unter Berücksichtigung aller Risikofaktoren ist nicht möglich. Bei der Interpretation muss bedacht werden, welche Risiken berücksichtigt wurden und welche nicht. Das Modellergebnis kann nur so gut sein wie sein Input. Falsche Berücksichtigung von Risikofaktoren, falsche Annahmen bezüglich Volatilität, Wahrscheinlichkeitsverteilungen, Korrelationen, etc. führen zu falschen Analyseergebnissen. Der ermittelte EaR Wert basiert auf normalen Marktbedingungen. Ähnlich wie bei VaR Werten muss er Stresstests unterzogen werden, um die Auswirkungen von unerwarteten Veränderungen in den Risikofaktoren und deren Auswirkung auf das Ergebnis zu überprüfen.

192

3 Elektrizitätswirtschaft, Liberalisierung

Erweiterung zu einem ganzheitlichen Risikomanagement-Ansatz Mit Hilfe der beschriebenen Planungsmodelle kann ein ganzheitliches Risikomanagement aufgebaut werden. Im Einzelnen können über das Planungsmodell folgende Aspekte des Risikomanagements realisiert werden: x

Bestimmung des zur Risikoabsicherung erforderlichen Eigenkapitals.

x

Überprüfung des eigenen Ratings.

x

Bestimmung der Kapitalkosten des Unternehmens.

x

Risikoorientierte Steuerung.

Bestimmung des zur Risikoabsicherung erforderlichen Eigenkapitals Basierend auf der durch das Planungsmodell ermittelten Verteilungsfunktion für den Jahresüberschuss, kann der Verlust ermittelt werden, den das Unternehmen unter Beachtung der modellierten Risiken, z.B. mit 95% Wahrscheinlichkeit, im Budgetjahr maximal erleiden muss. Dieser Verlust sollte durch Eigenkapital und Liquidität gedeckt sein. Überprüfung des eigenen Ratings Die Ausfallwahrscheinlichkeit eines Unternehmens ergibt sich aus dem Wert: 1Konfidenzintervall aus der EaR Berechnung. Hat ein Unternehmen genug Eigenkapital, um den in einem Jahr mit 99% Wahrscheinlichkeit maximalen eintretenden Verlust abzudecken, sollte es ein A Rating haben. Kommt die Hausbank zu einer anderen Einschätzung, kann dies kritisch hinterfragt werden. Bestimmung der Kapitalkosten des Unternehmens Über das Planungsmodell könnten die Eigenkapitalkosten des Unternehmens oder einzelner Teile abgeleitet werden. Als Formel zur Bestimmung des Kapitalkostensatzes bietet sich die Berechnung der WACC (Weighted Average Cost of Capital) an: WACC = Kosten EK * EK/GK + Kosten FK * FK/GK Mit EK = Eigenkapital; FK = Fremdkapital; GK = Gesamtkapital = EK+FK Der EK Bedarf ergibt sich aus dem zur Risikoabsicherung benötigten EK (zur Berechnung vgl. Punkt 1). Es wird angenommen, dass nur risikotragendes EK eine Risikoprämie verdient. Der Eigenkapitalkostensatz basiert auf einer Opportunitätskostenüberlegung. D.h. welche Rendite wäre langfristig für das benötigte EK in einer Alternativanlage erzielbar, wenn man eine bestimmte Ausfallwahrscheinlichkeit unterstellt? 11 Auf diesem Weg kann eine Mindestrendite (=WACC) ermittelt werden, die die Investitionen des Unternehmens erbringen müssen, um Wert zu erzeugen. Der

11

Vgl. Dr. Werner Gleissner; “Auf nach Monte Carlo”, in RISKNEWS Heft 1/2004, S. 36

3.8 Risikomanagement in der Elektrizitätswirtschaft

193

übliche Weg über das Capital Asset Pricing Modell ist nicht nötig 12 . Außerdem kann auf diesem Weg jedem Geschäftsfeld ein EK Anteil zugeordnet werden, ohne eine aufwendige bilanzielle Aufteilung des EK vornehmen zu müssen. Risikoorientierte Steuerung Setzt man ein Planungsmodell je Geschäftsfeld auf, kann über eine Risiko-Rendite-Kennzahl risikoorientiert gesteuert werden. Je Geschäftsfeld kann dann z.B. der erwartete Ertrag gem. Mittelfristplanung dem risikobedingten EK-Bedarf (Berechnung über die EaR vgl. Punkt 1) gegenüber gestellt werden, um den RORAC (Return on Risk Adjusted Capital) zu berechnen. Der RORAC zeigt auf, welches Geschäftsfeld eine höhere Rendite auf seine EaR verdient. Bei Geschäftsfeldern mit schlechterem RORAC können dann Maßnahmen identifiziert werden, um das Risiko zu senken, oder das Ergebnis (bei konstantem Risiko) zu erhöhen. Erreichbare Ziele Aufgrund der anstehenden Marktliberalisierung müssen die Schweizer Unternehmen mit stärker schwankenden Ergebnissen rechnen. Mit Hilfe der beschriebenen Planungsmodelle können die Unsicherheiten in einzelnen Planungspositionen, und ihr relativer Einfluss auf das Jahresergebnis verdeutlicht werden. Konzentriert man das Risikomanagement auf die Risiken, die den größten Einfluss auf die kritischen Plangrößen haben, kann man das angestrebte Jahresergebnis sicherer erreichen (weniger Überraschungen). Das Erreichen zuvor angekündigter Ergebnisse wird das Vertrauen der Stakeholder in das Unternehmen und sein Management erhöhen. Sind die Jahresergebnisse im Zeitablauf steigend geplant, tragen die Planungsmodelle auch zu einer Shareholder Value Steigerung bei. Dasselbe gilt, wenn es gelingt, mit Hilfe der Planungsmodelle die Volatilität der Jahresergebnisse zu senken oder Kosten durch unerwartet eintretende Risiken zu reduzieren. Nicht erreichbar ist eine Risikoabsicherung, wie nach dem oben beschriebenen Vorgehen, der Banken. Beim pro Forma Planungsmodell ergibt sich der EaR Wert, auf dessen Basis das zur Absicherung nötige EK bemessen wird, ausschließlich auf der Basis vergangenheitsorientierter Schwankungen. Angenommen ein Unternehmen würde auf der Basis eines solchen Modells ihr EK bemessen, dann wäre unter der Annahme, dass es in den letzten 5 Jahren nie einen Ausfall gab, kein Aufwand in der GuV vorgesehen. Damit wäre das gesamte Kreditrisiko nicht abgesichert. Im fortgeschritteneren Risikofaktormodell könnte das Kreditrisiko zwar modelliert werden, es besteht aber der Nachteil, dass nicht alle Risiken in ein solches Modell einbezogen werden können. Selbst wenn die wesentlichen Einflussfaktoren berücksichtigt sind, können die unberücksichtigten in Summe dennoch existenzgefährdend sein, und wären nicht abgesichert. Allein durch die beschriebenen Planungsmodelle würden auch die gesetzlichen Anforderungen nicht eingehalten. Sowohl beim Pro Forma als auch beim Risikofaktormodell fehlt die risikoorientierte Sicht. Es kann nicht gesagt werden, wie 12

Vgl. Dr. Werner Gleissner; “Die Aggregation von Risiken im Kontext der Unternehmensplanung“, Zeitschrift für Controlling & Management Heft 5/2004, S. 356

194

3 Elektrizitätswirtschaft, Liberalisierung

hoch das Kredit- oder das Marktpreisrisiko ist, worüber nach IFRS 7 aber gesondert zu berichten ist. B) Zielerreichung erhöhen Durch die Verknüpfung von Risiken und Unternehmenszielen können die für die Zielerreichung wesentlichen Risiken erkannt und gemanaged werden Alle Rahmenwerke zum Thema Risikomanagement vertreten die Auffassung, dass Risikomanagement betrieben werden sollte, um die Ziele des Unternehmens mit angemessener Sicherheit zu erreichen. Diese Idee kommt beim Risikomanagement von Banken bisher zu kurz. Viele Unternehmen die Risikomanagement betreiben, haben damit begonnen eine systematische Erhebung und Bewertung ihrer Risiken durchzuführen. Bei der Frage, welche der Vielzahl an Risiken, die bei einer Risikoinventur identifiziert werden vorrangig gemanaged werden sollen, fehlt jedoch der Maßstab. Zunächst werden die existenzgefährdenden Risiken betrachtet, aber dann fehlt es an Kriterien zur Priorisierung. Eine weitergehende Priorisierung der Risikobehandlung kann erfolgen, indem die Risiken den Unternehmenszielen zugeordnet werden. Die Auswirkung jedes einzelnen Risikos auf die Erreichung des Unternehmensziels muss dann unter Berücksichtigung von Korrelationen quantifiziert werden. Risiken, die die Zielerreichung besonders stark beeinflussen müssen vorrangig gemanaged werden. Bei der Zuordnung der Risiken zu den Unternehmenszielen sollten zwei Ebenen von Unternehmenszielen unterschieden werden. Strategische und operative Ziele. Nachdem ein Unternehmen seine Strategie festgelegt hat, sollte diese operationalisiert werden. Z.B. kann die Unternehmensstrategie: „Profitables Wachstum“ durch die strategischen Ziele: - ‚Überdurchschnittliches Wachstum im Segment Key Accounts’ und - ‚Überdurchschnittliche Profitabilität im Segment Key Accounts’ operationalisiert werden. Um diese strategischen Ziele zu erreichen, werden die Kennzahlen: - ‚Umsatzwachstum im Segment Key Accounts im Vergleich zu den übrigen Segmenten’ und - ‚Gewinnwachstum im Segment Key Accounts im Vergleich zu den übrigen Segmenten’ definiert. Für diese beiden Kennzahlen kann dann ein Planwert für das Budgetjahr sowie die Folgejahre festgelegt werden, um die Zielerreichung messbar zu machen. Risiken beeinflussen den Grad der Zielerreichung gemessen an den o.a. Kennzahlen. Man kann jetzt den Risikokatalog aus der Risikoinventur durchgehen und alle Risiken, die diese Kennzahlen beeinflussen, herausfiltern. Der Einfluss der Risiken auf die zugeordneten Kennzahlen muss dann quantifiziert werden. Dies kann

3.8 Risikomanagement in der Elektrizitätswirtschaft

195

z.B. durch die Quantifizierung eines Best, Worst und Expected Case erfolgen. In einem fortgeschritteneren Verfahren können die Risiken auch als Zufallsvariable über eine Monte Carlo Simulation modelliert werden. Wirken mehrere Risiken auf eine Kennzahl, muss die Quantifizierung unter Berücksichtigung von Wechselwirkungen erfolgen. Erreichbare Ziele Durch die Zuordnung und Quantifizierung der Risiken zu den strategischen Unternehmenszielen, wird die relative Bedeutung einzelner Risiken für die Zielerreichung klar. Das Risikomanagement kann sich dann auf die für die Zielerreichung wesentlichen Risiken konzentrieren. Dasselbe Vorgehen kann für die operativen Ziele z.B. in den Geschäftsfeldern angewandt werden. Durch das gezielte Management der für die Zielerreichung wesentlichen Risiken sollten die Unternehmensziele mit größerer Wahrscheinlichkeit erreicht werden. Es sollte weniger Überraschungen bei der Zielerreichung geben, und die Corporate Governance wird verbessert. Der Ansatz berücksichtigt nicht den Aspekt der Risikoabsicherung oder der Einhaltung von Gesetzen. Er sollte daher nur als Ergänzung zu einer Risikoabsicherung angesehen werden. Eine Verbesserung der Planungsqualität kann nur indirekt erreicht werden, indem die für bestimmte Ziele als wesentlich erkannten Risiken in der Planung besonders berücksichtigt werden (z.B. über Szenarien oder mit Absicherungskosten). Zu einer Shareholder Value Steigerung trägt der Ansatz nur bei, wenn es die Unternehmensziele, die man sicherer erreichen will, tun. C) Chancenmanagement Durch ein dem Risiko analoges Chancenmanagement können bestehende Ertragspotentiale identifiziert und ausgeschöpft werden. Chancen müssen unterschieden werden in risikoinhärente Chancen und ganz neue Chancen, die einem Unternehmen neue Geschäftsmöglichkeiten eröffnen. Risikoinhärente Chancen 13 Definiert man Risiko als die von einem Ereignis oder Umstand bedingte negative Abweichung von einem unter Unsicherheit geplanten Ziel, dann ist eine Chance die möglicherweise positive Abweichung aus demselben Ereignis oder Umstand. Chance und Risiko sind zwei Seiten derselben Medaille. Das Potential für das Chancenmanagement hängt dann davon ab, wie ambitioniert das Ziel gesetzt wurde. Eingangsgrößen für die Planung eines Unternehmens sind die aus der Strategie abgeleiteten operativen Ziele sowie eine Anzahl an Planungsprämissen (Strompreisentwicklung, Produktionskapazität, Zinsentwicklung, Wechselkurse, etc.). Basierend auf seinen Handlungsoptionen, plant ein Unternehmen, welche Maß13 In Anlehnung an: RMA Standard “Risiko- und Chancenmanagement“; RiskManagement Association e.V.; 9.2.2006; S.7;13 und 19.

196

3 Elektrizitätswirtschaft, Liberalisierung

nahmen es unter Berücksichtigung der Planungsprämissen ergreifen muss, um die vorgegebenen Ziele zu erreichen. Sind die Ziele so hoch gesteckt, dass das Unternehmen sie unter Beachtung der Planungsprämissen und unter Ausnutzung aller Handlungsoptionen nur im best möglichen Fall erreichen kann, dann bestehen keine Chancen mehr, sondern nur noch das Risiko das Ziel zu verfehlen. Sind die Ziele weniger ambitioniert gesetzt, besteht Raum für eine Übererfüllung. Nur in diesem Fall bestehen Ansatzpunkte für ein Chancenmanagement. Aufgrund der Wechselwirkung mit dem Risiko birgt jede Chancenergreifung wieder höhere Risiken. Analog zum Risikomanagement können die in der Planung nicht berücksichtigten Chancenpotentiale erfasst und bewertet werden (Eintrittswahrscheinlichkeit und Chancenhöhe). Je Chance bieten sich dann die folgenden vier Handlungsoptionen: 1. Chance belassen: Die Chance wird nicht ergriffen, dafür aber auch das damit verbundene Risiko nicht eingegangen. 2.

Chance ergreifen: Die Chance wird ergriffen, dafür erhöht sich aber auch das Risiko.

3.

Chance vergrößern: Durch flankierende Maßnahmen zur Chancenergreifung können Chancen vergrößert, zieht evtl. auch eine Erhöhung des Risikopotentials nach sich.

4.

Chance teilen: Kann ein Unternehmen allein eine Chance nicht wahrnehmen (z.B. aufgrund fehlender Marktmacht), so gibt es die Möglichkeit die Chance gemeinsam mit einem Dritten Unternehmen wahrzunehmen. Damit verbunden ist meist auch eine Aufteilung der Kosten und Risiken, die mit der Chance zusammenhängen.

Chancen im Sinne von neuen Geschäftsmöglichkeiten 14 Chancenmanagement in diesem Sinne befasst sich mit den internen und externen Potentialen zum nachhaltigen Auf- und Ausbau eines Unternehmens, zum Erhalt und der Stärkung seiner Wettbewerbsvorteile. Ein derartiges Chancenmanagement wird i.d.R im Rahmen der Strategie und Innovationsentwicklung durchgeführt. Es kann in folgenden Schritten ablaufen: x

Chancenstrategie: Mit Hilfe der Chancenstrategie wird festgelegt, welche Kriterien für das Chancenmanagement angesetzt werden.

x

Chancenidentifikation: Die Chancenidentifikation umfasst alle Maßnahmen zur möglichst vollständigen Erfassung der vorhandenen Chancenpotenziale.

14 In Anlehnung an: “Erfolgreiches Chancenmanagement in mittelständischen Unternehmen“, Projektergebnisbericht der KPMG in Zusammenarbeit mit der Wissenschaftlichen Hochschule für Unternehmensführung (WHU) zum Thema Chancenmanagement.

3.8 Risikomanagement in der Elektrizitätswirtschaft

197

x

Chancenanalyse: In der Chancenanalyse werden die notwendigen Informationen gesammelt und Chancen priorisiert.

x

Chancenbewertung: Während der Chancenbewertung erfolgt die quantitative und qualitative Beurteilung des Chancenpotenzials.

x

Chancenumsetzung: Aufbauend auf den Ergebnissen der Chancenbewertung, werden einzelne Potenziale genutzt und damit die Umsetzung vorbereitet und durchgeführt.

x

Chancencontrolling: Im abschließenden Schritt erfolgt ein regelmäßiges Chancencontrolling, das die jeweils aktuelle Chancensituation systematisch evaluiert und einen Abgleich der Chancensituation mit den Vorgaben aus der Chancenstrategie vornimmt.

Erreichbare Ziele Ein explizites Management der risikoinhärenten Chancen macht diese Chancen überhaupt erst transparent. Das hilft z.B. im Planungsprozess, das Ambitionsniveau der gesetzten Ziele und die Planungssicherheit einzuschätzen und so die Planungsqualität zu verbessern. Erst wenn die Chancen mit Eintrittswahrscheinlichkeit und Ausmaß erhoben werden kann diskutiert werden warum z.B. in der Planung keine bessere Chancenauswertung und damit höhere Zielerreichung angesetzt wurde. Bisher nicht wahrgenommene Chancen könnten nun erkannt und ausgenutzt werden, was zu einer Steigerung des Shareholder Value beitragen kann. Ein Chancenmanagement im Rahmen der Strategie- und Innovationsentwicklung ist für ein Unternehmen überlebenswichtig und sollte daher proaktiv betrieben werden. 3.8.3

3.8.3.1

Enterprise Risk Management (Praxis)

Risiken in der Elektrizitätswirtschaft

Betrachtet man die Spotmarktpreise für Elektrizität, so wird eine hohe Volatilität des Handelsguts Elektrizität und damit die große wirtschaftliche Bedeutung des Risikomanagements deutlich. Dies sei beispielhaft am Verlauf des Swiss Electricity Price Index (kurz SWEP) erläutert. Der SWEP ist ein Abbild des täglichen Spotmarktes. Auf diesem Markt werden Geschäfte mit sehr kurzen Fristen abgewickelt. Sie werden i. d. R. stündlich für den nächsten Tag abgeschlossen. Über einen weiten Zeitraum liegt der Preis für Tagesenergie auf dem Spotmarkt gemäß Abb. 3.61 um 50 €/MWh. Waren jedoch Stromversorger im Juli 2006 darauf angewiesen Elektrizität über den Spotmarkt zu beschaffen, musste zeitweise mehr als 300 €/MWh bezahlt werden. Ein Stromversorger, der sich in einem hohen Maße über den Spotmarkt eindeckt, muss also in Phasen der Angebotsver-

198

3 Elektrizitätswirtschaft, Liberalisierung

knappung mit hohen Ausgaben für die Strombeschaffung rechnen. Damit ist nicht gesagt, dass eine marktbasierte Beschaffungspolitik nicht langfristig erfolgreich sein kann. Es ist vielmehr wichtig, die Risiken zu identifizieren und zu quantifizieren. Im Zusammenhang mit dem Stromhandel ist zudem das Wechselkursrisiko zu erwähnen, welches allerdings weniger bei kurzfristigen Verträgen relevant ist, sondern vor allem bei langfristigen Vereinbarungen zu beachten ist. Die Unsicherheiten in der Elektrizitätswirtschaft lassen sich in drei Bereiche einteilen: Elektrizitätsnachfrage, Elektrizitätserzeugung und Elektrizitätsübertragung und -verteilung.

400 350

Euro/ MWh

300 250 200 150 100 50 0

Jun '06

-

Mai '07

Abb. 3.61. Verlauf des SWEP im Jahr 2006/07 in CHF/MWh [3.2]

A) Risiken bei der Elektrizitätserzeugung í Primärenergiepreisentwicklung: In Abhängigkeit vom Produktionspark können die Primärenergiepreise einen erheblichen Einfluss auf die Erzeugungskosten des Kraftwerksparks haben. Von den Engpasszeiten abgesehen, richten sich die Spotmarktpreise nach den Grenzkosten des Erzeugungsparks. Damit kann die Preisentwicklung einzelner Primärenergieträger den Spotmarktpreis erheblich beeinflussen. Die Vergangenheit hat gezeigt, dass größere Schwankungen vor allem bei Erdöl und Erdgas auftreten (Abb. 3.62).

3.8 Risikomanagement in der Elektrizitätswirtschaft

199

í Variation der Produktion aus Wasserkraft: Da die Produktion der hydraulischen Kraftwerke direkt mit den Niederschlägen im Einzugsgebiet korreliert, kann die Momentanleistung der Wasserkraftwerke von Tag zu Tag schwanken. Der Einfluss der Niederschläge lässt sich durch Investitionen in Stauanlagen verringern. In Mitteleuropa beschränkt man sich dabei auf eine saisonale Speicherung, wodurch die jährlichen Schwankungen der Hydraulizität nicht aufgefangen werden können (s. Gesamtenergiestatistik Schweiz [3.6]). Wird angenommen, dass die Abschreibungen der Investitionen linear konstant gehalten werden, steigen die Stromerzeugungskosten invers proportional zur Hydraulizität an. Wasserkraftwerke in den skandinavischen Ländern sind auf Mehrjahresspeicherung ausgelegt. Ende der 90er Jahre führte eine langjährige Trockenperiode zu erheblichen Produktionseinbußen und zu einem starken Anstieg der Preise für Elektrizität.

Abb. 3.62. Entwicklung der Primärenergiepreise am Beispiel des Großhandelsindex Schweiz [3.6]

í Anlagenverfügbarkeit: Ungeplante Kraftwerksausfälle führen allgemein zu höheren Produktionskosten, da teurere Kraftwerke zur Deckung der Last eingesetzt werden müssen. Ungeplante Ausfälle größerer Einheiten während der Höchstlast sind verantwortlich für plötzliche Preispeaks auf dem Spotmarkt.

200

3 Elektrizitätswirtschaft, Liberalisierung

í Hohe Kapitalintensität: Im Verlauf eines Tages werden erhebliche Preisunterschiede sichtbar. Große Preisschwankungen sind typisch für Handelsgüter, welche nicht oder nur unter hohem finanziellem Aufwand gespeichert werden können. Um die Stabilität des Netzes nicht zu gefährden, muss eine ausreichende Produktionsreserve vorhanden sein. Die installierte Leistung beträgt derzeit in der UCTE knapp 400 GW. Bei einer Jahreserzeugung von rund 1500 TWh werden die Kraftwerke im Durchschnitt nur zur Hälfte ausgenutzt. Die daraus resultierende hohe Kapitalintensität zieht hohe Fixkosten nach sich und verringert die Flexibilität des Unternehmens. í Lange Nutzungsdauer: Anlagen der Elektrizitätswirtschaft weisen technische Nutzungsdauern von z. T. über 50 Jahren auf. Die Güte der Prognose der Rentabilität für Zeiträume von 50 Jahren ist naturgemäß bescheiden, da die gesamtwirtschaftlichen und technologischen Einflussfaktoren auf diese Rentabilität mit hohen Unsicherheiten behaftet sind.

Abb. 3.63. Entwicklung des Zinssatzes für langfristiges Kapital am Beispiel der Anleihen der öffentlichen Hand [3.8]

í Zinsentwicklung (Abb. 3.63): Die hohe Kapitalintensität und eine mit der technischen Nutzungsdauer korrelierende lange Abschreibungsdauer der Kraftwerke führen zu einem starken Einfluss des Zinssatzes auf die Stromerzeugungskosten. Steigende Zinsen können die Konkurrenzfähigkeit von Kern- bzw. Wasserkraftwerken gegenüber weniger kapitalintensiven Kraftwerkstypen wie Gasturbinen oder Gaskombi-Kraftwerken negativ beeinflussen.

3.8 Risikomanagement in der Elektrizitätswirtschaft

201

B) Unsicherheiten bei der Elektrizitätsnachfrage í Langfristige Entwicklung des Elektrizitätsbedarfs: Wird dem Bruttoinlandsprodukt der Energiebedarf der Staaten gegenübergestellt, so lässt sich eine starke Korrelation zwischen beiden feststellen (s. z.B. Abschn. 1.3.3) . Die Stromnachfrage wird somit direkt von der konjunkturellen Entwicklung bestimmt, wobei ein zusätzlicher Einfluss durch die Substitution anderer Energieträger durch Elektrizität bzw. die Substitution von elektrischer Energie zu berücksichtigen ist. Ein Einbruch der Konjunktur ist für die Elektrizitätswirtschaft doppelt kritisch, da zum einen die spezifischen Kosten steigen í den Fixkosten steht ein verminderter Absatz gegenüber í und andererseits die Erlössituation auf Grund der wirtschaftlichen Notlage der Kunden schwieriger wird. í Regionale und lokale Veränderungen: Anlagen der Elektrizitätsversorgung können als Immobilien bezeichnet werden, da eine Deplacierung, von wenigen Fällen wie z. B. Transformatoren abgesehen, wirtschaftlich nicht attraktiv oder eine Umnutzung nicht möglich ist. Regionale Veränderungen bei Gewerbe und Industrie können somit den Ertragswert der Anlagen negativ beeinflussen. í Veränderung des Lastgangs: Die Zusammensetzung des Kraftwerksparks aus Grund-, Mittel- und Spitzenlastkraftwerken richtet sich nach dem zeitlichen Verlauf der Stromnachfrage. Zur Deckung eines ungleichmäßigen Lastgangs wird ein höherer Anteil an Spitzenlastkraftwerken benötigt. Vergleichmäßigt sich der Lastgang, erreichen Spitzen- und Mittellastkraftwerke eine höhere Volllaststundenzahl. Dies ist wirtschaftlich suboptimal, und die Gesamtkosten der Stromversorgung steigen gegenüber dem optimierten Konkurrenten an. C) Elektrizitätsübertragung und –verteilung Das Übertragungs- und Verteilnetz stellt im Prinzip das einzige natürliche Monopol in der Elektrizitätswirtschaft dar. Diesem Umstand wurde und wird bei der Neugestaltung der Elektrizitätsversorgung Rechnung getragen, indem im liberalisierten Markt innerhalb eines Gebiets nur maximal je ein Netzbetreiber pro Übertragungsnetz und Verteilnetz zugelassen wird. Netzmonopolisten sind i. Allg. zur Preistransparenz und Nichtdiskriminierung verpflichtet. Für die Teilnehmer am Elektrizitätsmarkt stellt das Netz dahingehend ein Risiko dar, dass es zu Einschränkungen bei der Wahlfreiheit der Vertragspartner aufgrund fehlender Infrastruktur oder temporärer Beschränkungen der Transportkapazitäten kommen kann. Für die Marktteilnehmer ist es i. Allg. sehr schwierig mit diesem Risiko umzugehen.

202

3 Elektrizitätswirtschaft, Liberalisierung

D) Hohe Unsicherheiten Die folgenden Erkenntnisse bestimmen den Unterschied der Elektrizität zu anderen Handelgütern und machen den Einsatz des Risikomanagements zu einer besondern Herausforderung: x

hohe Volatilität der Elektrizitätspreise

x

Beschränkungen durch die Übertragungswege

x

geringe Preiselastizität bei der Nachfrage

x

die Rolle der zusätzlichen Dienstleistungen (ancillary services) wie z.B. Frequenzregelung, Spannungshaltung, Reservebereitstellung.

3.8.3.2. Quantifizierung der Risiken Risiken ergeben sich durch den Wechsel der Bedingungen für Investitionen. Ein Preisrisiko basiert auf Preisschwankungen. Es kann sein, dass Güter dann, wenn sie teuer sind gekauft, und auf der anderen Seite zu tiefen Preisen verkauft werden müssen. Allerdings stellen Preisschwankungen natürlich nicht nur Risiken dar, sondern auch Chancen. Das Maß dafür, wie stark ein Preis in Bezug auf die Frequenz der Variationen schwankt, wird auch als Volatilität eines Preises bezeichnet. Eine hohe Volatilität bedeutet, dass der Preis stark schwankt, wohingegen eine tiefe Volatilität auf geringe Preisschwankungen hinweist. Die Volatilität des Energiepreises auf dem Nordic Market ist verglichen mit anderen Produkten sehr hoch. Abbildung 3.64 zeigt, dass der mittlere Tagespreis während eines Jahres zwischen 5 und 30 EUR/MWh schwanken kann. Die Energie wird an den Energiemärkten normalerweise für jede Stunde gehandelt. Die Variation dieses Systempreises ist in Abb. 3.65 für Mai 2000 dargestellt. Die Preisentwicklung von Energieträgern unterliegt einer Reihe von Einflussfaktoren, deren kausale Zusammenhänge nicht bekannt sind. Es hat sich deshalb in der Finanzwirtschaft als zweckmäßig erwiesen, diese Kursverläufe mathematisch in Form von stochastischen Prozessen zu beschreiben. Die Volatilität lässt sich nun folgendermaßen bestimmen: Wir betrachten die zwei Zeitpunkte t1 und t2 . Das Zeitintervall dazwischen bezeichnen wir mit 't:

't

t2  t1

Wir bezeichnen die zu dieser Leistung gehörenden Preise mit P(t1) und P(t2). Die Preisänderung 'P zwischen diesen Zeitpunkten ergibt sich aus 'P

P ( t 2 )  P ( t1 )

3.8 Risikomanagement in der Elektrizitätswirtschaft

203

Euro/MWh 30,00

25,00

20,00

15,00

10,00

5,00

99-12-31

99-12-17

99-12-03

99-11-19

99-11-05

99-10-22

99-10-08

99-09-24

99-09-10

99-08-27

99-08-13

99-07-30

99-07-16

99-07-02

99-06-18

99-06-04

99-05-21

99-05-07

99-04-23

99-04-09

99-03-26

99-03-12

99-02-26

99-02-12

99-01-29

99-01-15

99-01-01

0,00

Abb. 3.64. Tägliche Mittelwerte des Systempreises des NordPools während eines Jahres

Sunday

Sunday

Sunday

EURO/MWh © Eltra amba

Sunday

20

15

10

5

0 00-05-01

00-05-04

00-05-07

00-05-10

00-05-13

00-05-16

00-05-19

00-05-22

00-05-25

00-05-28

00-05-31

Abb. 3.65. NordPool-Systempreis während des Monats Mai 2000

Ist die Preisentwicklung rein zufällig, lässt sich 'P zwischen zwei zukünftigen Stunden mit der Gauß’schen Normalverteilung berechnen. Es gilt

204

3 Elektrizitätswirtschaft, Liberalisierung



'P ~ N P't , V 't

P



Wert der durchschnittlichen Preisvariation zwischen zwei Stunden. Ist

P > 0 , bedeutet dies, dass der Preis kontinuierlich anwächst.

V 't Standardabweichung der Preisveränderung zwischen zwei Punkten. Ist V 't hoch, werden häufig große Preisänderungen zwischen zwei aufeinanderfolgenden Zeitpunkten festgestellt.

VVolatilität des Preises Diese Art der Modellierung einer Preisentwicklung, bei welcher P und V als konstante Parameter auftreten und 'P gleichverteilt und unabhängig ist (Brown’sche Bewegung), wird Wiener Prozess genannt. 3.8.3.3 Instrumente und Produkte des Stromhandels Wie bereits gezeigt, kann der Spotpreis signifikant variieren. Die Volatilität ist hoch. Will ein Unternehmen Energie in der Zukunft kaufen oder verkaufen, muss dieser Variabilität Rechnung getragen werden. Will es Energie verkaufen, kann ein signifikanter Preissturz zu ernsthaften wirtschaftlichen Problemen führen, wenn es nicht über genügend finanzielle Reserven verfügt. Eine Möglichkeit mit Risiken umzugehen, ist Streuung von Einzelrisiken. In Abb. 3.66 ist dieser Zusammenhang an einem einfachen Beispiel dargestellt. Ein Unternehmer benötigt für die Realisierung einer innovativen Geschäftsidee finanzielle Mittel. Da die Lage des Unternehmens allerdings als kritisch eingestuft wird, muss der Unternehmer den potenziellen Geldgebern eine Rendite von 150% zusichern. Es ist mit einer Wahrscheinlichkeit von 50% damit zu rechnen, dass das Unternehmen in Konkurs gehen wird. Damit sind die Kapitalrenditen von –100% und +150% als gleich wahrscheinlich (je 50%) zu bezeichnen. Stellt das benötigte Kapital für den Geldgeber einen maßgeblichen Teil seines Vermögens dar, wird dieser sicher von diesem Geschäft absehen. Falls ein Geldgeber allerdings mehrere ähnlich riskante Geschäfte finanziert, kann sich für ihn doch eine interessante Position ergeben. Bereits bei acht identischen derartigen Geschäften steigt die Wahrscheinlichkeit einer Rendite von 25% bereits auf über 25% an. Mit der Anzahl derartiger Geschäfte wird die Wahrscheinlichkeit einer Rendite von 25% bis gegen 100% ansteigen. Damit verwandeln sich viele unsichere Geschäfte in eine sichere Investition mit hoher Rendite. Sein risikoaverses Verhalten bezahlt der Unternehmer, der risikobehaftete Projekte über externe Mittel finanziert, mit einen höheren Zinsaufwand und damit einer entgangenen Rendite. Dieser höhere Zinssatz wird auch als Risikoprämie bezeichnet.

3.8 Risikomanagement in der Elektrizitätswirtschaft

205

Renditewahrscheinlichkeit bei einem bzw 8 „gleichwertigen“ Investitionen 30% 75% 25%

50% 25%

20%

0%

15%

-100%

150%

10%

5%

0% -100%

-69%

-38%

-6%

25%

56%

88%

119%

150%

Abb. 3.66. Streuung in Abhängigkeit der Anzahl unabhängiger Kunden

Ein standardisierter Weg, das Risikoproblem zu lösen, ist es, die Risiken vertraglich abzusichern z.B. mit Finanzderivaten 4 . Diese Maßnahme, Risiken zu begrenzen, wird Hedging genannt. Über Hedging ergibt sich durch Kontrolle des Risikolevels ein gewisser Schutz vor großen Verlusten. Die Rollen der beiden Handelspartner werden als Positionen bezeichnet. Der Käufer sieht sich in einer Long-Position, sein Gegenüber, der Verkäufer, befindet sich in einer ShortPosition. Ein Long-Hedge ist demzufolge die Risikoabsicherung des Käufers, also eine Absicherung gegen steigende Preise. Mit einem Short-Hedge sichert sich der Verkäufer gegen fallende Preise ab. Nachfolgend werden beispielhaft einige grundlegende derivative Instrumente, wie Forwards, Futures und Optionen behandelt. A) Forwards Ein Forward ist eine bilaterale Vereinbarung über den Kauf/Verkauf einer Energiemenge während eines definierten Zeitraums in der Zukunft zu einem fixierten Preis. Für verschiedene zukünftige Perioden, z.B. 1-Monat-Forwards oder 3Monats-Forwards, können die Preise natürlich auch unterschiedlich sein. 4 Ein Derivat ist ein Finanzinstrument (Futures, Optionen, usw.), dessen Wert aus dem Warenwert der Güter abgeleitet (to derive) wird, auf welche das Derivat bezogen ist. Dies können Stromspotpreise, Ölpreise oder Zinssätze sein. Bei den nachfolgenden Beispielen handelt es sich um Finanzderivate, deren Bezugswerte die Spotmarktpreise für Elektrizität darstellen.

206

3 Elektrizitätswirtschaft, Liberalisierung

Betrachten wir ein Unternehmen, welches während eines definierten Zeitraums in der Zukunft Energie verkaufen will, also eine Short-Position einnimmt. Als wesentliche Information über den zukünftigen Preis nutzt das Unternehmen eine Abschätzung der Wahrscheinlichkeiten unterschiedlicher Preise. Diese Information liegt normalerweise in Form einer Dichtefunktion der Wahrscheinlichkeiten von Energiepreisen für jede Stunde in der Zukunft vor (Abb. 3.67). Der Energiepreis mit der höchsten Wahrscheinlichkeit ist der Erwartungswert m. Allerdings können mit einer geringeren Wahrscheinlichkeit höhere oder tiefere Preise erzielt werden. In einem Forward-Kontrakt wird nun ein zukünftiger Preis FS fixiert. Der Partner in diesem Forward, üblicherweise ein reines Finanzunternehmen, übernimmt das Risiko. Steigt in der zukünftigen Periode der Marktpreis über den Vertragspreis, kann das Finanzunternehmen einen entsprechenden Gewinn aus diesem Vertrag machen. Dies ist der Fall, wenn das Finanzunternehmen dieses Risiko nicht weiter absichert. Im Normalfall wird allerdings das Risiko durch ähnliche Verträge auf der Abgabeseite weitgehend abgefedert. Ist der Vertragspartner des Verkäufers direkt ein Versorgungsunternehmen, kann dieses seinerseits seine Beschaffungsrisiken durch diesen Forward minimieren (Abb.3.68). Wahrscheinlichkeit

m

zukünftiger Preis

Abb. 3.67. Erwarteter Preis

Der erwartete Gewinn durch einen Vertrag muss für beide Parteien immer positiv erscheinen. Es bestehen folgende Interessen: x

die Einschätzung des zukünftigen Preises ist unterschiedlich

x

die Möglichkeiten oder der Wille, Risiken einzugehen, ist bei beiden Parteien unterschiedlich

x

die beiden Akteure verfolgen gegensätzliche Ziele beim Hedging.

3.8 Risikomanagement in der Elektrizitätswirtschaft

207

Preis

Fixpreis während der aktiven Periode

Gewinn für den Käufer

Fs

Gewinn für den Verkäufer Zeit der Preisfixierung

aktive Periode

Abb. 3.68. Ergebnis für einen Forward-Kontrakt

In Abb. 3.69 ist eine typische Forward-Kurve für den NordPool-Markt vom 3.5.2001 dargestellt. Der erste Teil der Kurve stellt die durchschnittlichen Spotmarktpreise für die ersten vier Monate des Jahres dar. Die eigentlichen ForwardDaten beginnen mit dem 4.5.2001 und reichen bis Mitte 2004.

90.00 80.00 70.00

€/MWh

60.00 50.00 40.00 30.00 20.00 10.00 0.00 2001.01.01

2001.07.01

2002.01.01

2002.07.01

2003.01.01

Spo t price Spot-Preis

2003.07.01

2004.01.01

Fo rward

Abb. 3.69. Forward-Kurve für Elektrizität im NordPool am 3.5.2001

2004.07.01

208

3 Elektrizitätswirtschaft, Liberalisierung

B) Futures Im Unterschied zum Forward handelt es sich beim Future um einen standardisierten Vertrag, welcher an der Börse gehandelt wird. Damit eröffnet sich dem Future die höhere Liquidität der Börse. Die bessere Transparenz schlägt sich in einem besseren Preis nieder. Nehmen wir an, dass ein Unternehmen in drei Monaten während eines Monats Energie verkaufen möchte. Um die Preisunsicherheiten abzusichern, erstellt das Unternehmen ein Short-Hedge-Future. Der festgelegte Preis (FS) entspricht der aktuellen (t = 0) Prognose des Preises in 3 Monaten. Nehmen wir an, dass etwas in der Stromversorgung passiert (gute Hydraulizität, Inbetriebnahme neuer Kraftwerke 5 , sinkende Brennstoffpreise), was den Prognosewert für den Marktpreis sinken lässt. Einen Monat nach Ausgabe des Futures (t = 1) ist sein Wert also angestiegen, weil die Energie nach zwei Monaten immer noch zum Preis FS verkauft werden kann. Da es sich beim Future um ein standardisiertes Produkt handelt, kann der Vertrag ohne hohen Aufwand an irgendeinen Händler weiterverkauft werden. Der Käufer dieses Short-Hedge-Futures übernimmt das Recht in der bestimmten zukünftigen Periode, Energie zu dem fixierten Preis FS zu verkaufen. Die Möglichkeit des Weiterverkaufs erhöht den Wert von Futures gegenüber Forwards. Im Falle eines längerfristigen Ausfalls einer maßgeblichen Einheit im eigenen Kraftwerkspark kann das Produktionsunternehmen nun das nicht mehr benötigte Future an der Börse verkaufen. Optionen Optionen geben dem Besitzer das Recht, Energie während eines definierten Zeitraums zu kaufen oder zu verkaufen, ohne ihn dazu zu verpflichten. Zwei Arten von Optionen werden unterschieden. Eine Put-Option gibt dem Halter das Recht, Energie zu einem bestimmten Zeitpunkt 6 zu einem festgelegten Preis 7 zu verkaufen. Der Zeichnende der Option ist verpflichtet, zu diesem Preis zu kaufen. x

Eine Call-Option gibt dem Halter das Recht, Energie zu einem bestimmten Zeitpunkt zu einem festgelegten Preis zu kaufen. Der Zeichnende ist verpflichtet, die Energie zu den festgelegten Konditionen zu verkaufen.

Eine Option kann als Versicherung gegen Preisschwankungen bezeichnet werden. Der Käufer einer Option zahlt eine gewisse Prämie für das Recht, Energie während der Vertragsdauer zu kaufen oder zu verkaufen. Betrachten wir einen Stromproduzenten, der Energie zu einem bestimmten Termin in der Zukunft verkaufen will. Er schätzt die zukünftigen Preise gemäß Abb. 3.70 ein. Der erwartete Preis ist FS , aber es gibt ein gewisses Risiko, dass 5 Der Einfluss neuer Kraftwerke sollte auf Grund der guten Planbarkeit allerdings in der Preisprognose bereits berücksichtigt worden sein. Der ungeplante Ausfall einer Erzeugungseinheit auf Grund einer Panne birgt wesentlich größere Unsicherheiten. Der Wert des Futures steigt also an. 6

„Expiration date“, „exercise date“ oder „maturnity date“

7

„Exercise Price“ oder „strike price“

3.8 Risikomanagement in der Elektrizitätswirtschaft

209

der Preis tiefer als b ist. Der Stromproduzent kann nun eine Put-Option kaufen, welche ihm das Recht einräumt, die zukünftige Produktion zum Preis b zu verkaufen. Er „hedged“ seine Produktion gegen tiefere Preise, und der tiefstmögliche Preis wird b sein. Er wird die Option nur dann in Anspruch nehmen, wenn der Marktpreis zum Ausführungsdatum tiefer als b ist. Der Käufer dieser Option wird einen Profit in Höhe der Prämie machen, wenn der Preis höher als b sein wird. Die Gewinnkurve ist in Abb. 3.71 dargestellt Wahrscheinlichkeit

b

Fs

zukünftiger Preis

Abb. 3.70. Erwarteter Preis FS und Strike-Preis b

Gewinn

Energ ieverkäu fe

ko mbiniertes Portfolio b

Warenpreis

Optionsrämie p prämie Put-Option

Abb. 3.71. Gewinndiagramm für ein Portfolio aus zukünftigen Energieverkäufen und einer Put-Option

210

3 Elektrizitätswirtschaft, Liberalisierung

Der Gewinn bzw. der negative Verlust aus den Energieverkäufen steigt linear mit dem zukünftigen Marktpreis an (power sales). Der Gewinn bzw. der Verlust einer Put-Option ist am größten, wenn die Marktpreise im Keller sind. Die PutOption ist natürlich dann nicht rentabel, wenn diese „Versicherung“ nicht in Anspruch genommen wird, weil die Marktpreise über dem Strike-Preis b liegen. Der Verlust ist in diesem Fall unabhängig von dem Marktpreis gleich der Optionsprämie. Wird nur die Hälfte (Fall eines kombinierten Portfolio) der Produktion über eine Put-Option abgesichert, bleibt der Verlust bei tiefen Marktpreisen konstant und steigt hingegen linear an, wenn der Strike-Preis überschritten wird. Es wird zwischen drei Optionstypen unterschieden: x

European Option – eine Option, welche ausschl. an einem Termin ausgeführt werden kann.

x

Asian Option – der Gewinn hängt vom Durchschnittspreis während einer definierten Periode des Produkts ab, auf welches die Option bezogen ist.

x

American Option – eine Option, welche jederzeit während ihrer Gültigkeitsdauer ausgeführt werden kann.

Betrachtet wird ein Energieunternehmen, welches sowohl Produktionsressourcen als auch Lieferverpflichtungen besitzt. Beide Produkte sind bzgl. der Menge mit Unsicherheiten behaftet, so dass das Unternehmen gezwungen sein kann, Energie auf dem Markt zu verkaufen (hohe Zuflüsse zu den Wasserkraftwerken) oder zu kaufen (hohe Nachfrage). Um sich gegen zu hohe Preise (in der Situation des Käufers) und zu tiefe Preise (Situation des Verkäufers) abzusichern, kann das Unternehmen je eine Call- und eine Put-Option mit dem gleichen Strike-Preis sowie der gleichen Laufzeit abschließen. Der Profit aus diesen Verträgen ist maximal bei sehr hohen und sehr tiefen Marktpreisen (Abb. 3.72), weil er in beiden Fälle die jeweils für ihn günstigste Option einlöst. Entspricht der Marktpreis ungefähr dem Strike-Preis, ist dies für den Hedger der ungünstigste Fall. Es entsteht ihm ein Verlust in Höhe der Versicherungsprämie für beide Optionen. 3.8.3.4. Beurteilung von Vertragsoptionen Verschiedene Methoden des Risikomanagements werden hier an einem einfachen Beispiel vorgestellt. Es wird angenommen, dass das Portfolio am Anfang nur aus einem flexiblen Vertrag besteht. Aufgabe des Risikomanagements ist es nun aufzuzeigen, wie dieser Vertrag eingesetzt werden sollte und wie die Risiken dieses Vertrags durch Kombination mit Derivaten (hier: Futures) „gehedged“ werden können.

3.8 Risikomanagement in der Elektrizitätswirtschaft

211

Gewinn Call-Option kombiniertes Portfolio b gesamte Optionsprämie

Warenpreis

Put-Option

Abb. 3.72. Gewinn durch das „straddle“ 8 aus Put und Call-Option

Der Vertrag soll folgende Modalitäten enthalten: x

ein Energievolumen von 100 GWh

x

die gesamte Menge kann verteilt oder nur in einer Periode bezogen werden

x

der Vertrag umfasst eine Laufzeit von drei Zeitperioden

x

der Kaufpreis beträgt 9 €/MWh.

Zur Vereinfachung wird auf eine Diskontierung zukünftiger Geldflüsse verzichtet. Darüber hinaus werden Handelsbeschränkungen auf Grund etwaiger Übertragungsgrenzen des Systems nicht thematisiert. A) Modellierung des Spot-Preises Zukünftige Spotpreise gelten als unsicher und können durch ein „Event tree“Modell 10 beschrieben werden (Abb. 3.73). Es wird angenommen, dass der Spotmarktpreis in der ersten Zeitperiode (9 €/MWh) bekannt ist, und dass neun verschiedene Zukunftsszenarien vorhanden sind. Die jeweilige Eintrittswahrscheinlichkeit der verschiedenen Szenarien kann Tabelle 3.22 entnommen werden. Die Wahrscheinlichkeiten für jedes Szenario ergibt sich aus dem Produkt der Übergangswahrscheinlichkeiten.

8

aus dem Englischen: etwas Doppeltes, Gleichzeitiges

10

Der „event tree“ (Ereignisbaum) ist eine übersichtliche Zusammenstellung aller möglichen Entwicklungen.

212

3 Elektrizitätswirtschaft, Liberalisierung

15.0

15.0

0.5

(4)

0.2

0.3

9.0

(7)

0.3

0.4

(1)

10.0 0 (3)

0.3

10.0 0 (6)

0.4 0.3

0.3 0.2

5.0

0.3

5.0 0.5

(5)

(2)

Zeitperiode Time period 2

1

3

Abb. 3.73. Ein „event tree“ für mögliche zukünftige Marktpreise. Jeder Knoten stellt einen Preis dar, die Pfeile repräsentieren die Übergänge mit den jeweiligen Wahrscheinlichkeiten. Mit den Zahlen in den Klammern werden die Knoten durchnummeriert. Tabelle 3.22. lichkeiten

Szenarien möglicher Preisentwicklungen und deren Eintretenswahrschein-

Szenario

Preis in Periode 1 (€/MWh)

Preis in Periode 2 (€/MWh)

Preis in Periode 3 (€/MWh)

Wahrscheinlichkeit

1

9

5

5

0,15

2

9

5

10

0,09

3

9

5

15

0,06

4

9

10

5

0,12

5

9

10

10

0,16

6

9

10

15

0,12

7

9

15

5

0,06

8

9

15

10

0,09

9

9

15

15

0,15

Erwartungswert

9

10

10

1

3.8 Risikomanagement in der Elektrizitätswirtschaft

213

B) Risiko-neutrale Evaluation des flexiblen Vertrags Wie hoch ist nun der Wert des Vertrags und wann (in welcher Periode) sollte er eingesetzt werden, wenn sich sein Besitzer „risikoneutral“ 11 verhält ? Im Weiteren wird angenommen, dass der Preis jeder Zeitperiode bekannt ist, bevor die Entscheidung gefällt wird. Der Erwartungswert für den Spotpreis in der zweiten und dritten Zeitperiode ist 10 €/MWh. Wird der Vertrag eingesetzt, entspricht der Grenzwert der Energie genau diesem Spotpreis. Die gestellten Fragen können über einen Ansatz der dynamischen Programmierung beantwortet werden. Zunächst werden die optimalen Entscheidungen im letzten Zeitschritt für die Knoten (5), (6) und (7) berechnet. Damit wird die Frage beantwortet, ob der Vertrag hätte vorher genutzt werden sollen oder nicht. Wird der Vertrag nicht in der ersten oder zweiten Zeitperiode eingesetzt, muss er unabhängig von der Preisentwicklung in der dritten Periode genutzt werden. Tabelle 3.23. Mögliche Entscheidungen in Periode 2

Knotennummer

Nutzung

Einnahmen

[GWh]

[Mio.€]

Erwarteter zukünftiger Wert [Mio.€]

2

3

4

11

Einkommen in beiden Perioden

100

100 ˜ 5,0 = 0,5

0

0,5

0

0

100˜ 5 ˜ 0,5 + 100 ˜ 10 ˜ 0,3 + 100 ˜ 15 ˜ 0,2 = 0,85

0,85

100

100 ˜ 10 = 1

0

1

0

0

100 ˜ 5 ˜ 0.3 + 100 ˜ 10 ˜ 0.4 + 100 ˜ 15 ˜ 0.3 = 1

1

100

100 ˜ 15 = 1.5

0

1,5

0

0

100 ˜ 15 ˜ 0,5 + 100 ˜ 10 ˜ 0,3 + 100 ˜ 5 ˜ 0,2 = 1,15

1,15

Risiken werden eingegangen, wenn daraus Chancen resultieren.

214

3 Elektrizitätswirtschaft, Liberalisierung

Tabelle 3.23 zeigt die Auswirkungen verschiedener Entscheidungen aller Knoten in Periode 2 auf. Daraus lassen sich folgende Schlüsse ziehen: x x x

Knoten 2: nicht in Periode 2 nutzen Knoten 3: es spielt keine Rolle, ob der Vertrag in Periode 2 oder 3 eingesetzt wird Knoten 4: der Vertrag sollte in Periode 2 genutzt werden.

Die entsprechende Rechnung für die erste Periode zeigt Tabelle 3.24. Es wird deutlich, dass der Vertrag nicht in Periode 1 genutzt werden sollte, da sein Erwartungswert in der Zukunft 1,105 Mio. € beträgt. Dieser Wert ergäbe sich übrigens auch, wenn der Preis in der ersten Periode 10 €/MWh betragen würde. Der Gewinn ergibt sich aus der Summe der Einnahmen abzüglich des Kaufpreises am Anfang. Der Gewinn für die optimale Strategie kann nun aus allen Zukunftsszenarien berechnet werden. Preisszenario 1: Die optimale Strategie sagt, dass der Vertrag in der dritten Periode genutzt werden soll. Gewinn: 5 €/MWh ˜ 100 GWh - 9 €/MWh ˜ 100 GWh = -0,4 Mio.€ 5 ˜ 100 entspricht den Einnahmen aus dem Energieverkauf auf dem Spotmarkt in Periode 3 und 9 ˜ 100 entspricht den Kosten des Vertrags. Preisszenario 2: Die optimale Strategie besagt, dass der Vertrag in der dritten Periode genutzt werden soll. Gewinn: 10 €/MWh ˜ 100 GWh - 9 €/MWh ˜ 100 GWh = 0,1 Mio.€ Tabelle 3.24. Entscheidungen in Periode 1

Knotennummer

Nutzung

Einnahmen

Erwarteter zukünftiger Wert [Mio.€]

Erwarteter Wert des Vertrags [Mio.€]

[GWh]

[Mio.€]

1

100

100 ˜ 9,0 = 0,9

0

0,9

0

0

0,85 ˜ 0,3 + 1,0 ˜ 0,4 + 1,15 ˜ 0,3 = 1

1

Für die anderen Szenarien kann der Gewinn entsprechend berechnet werden. Die Ergebnisse sind in Tabelle 3.25 dargestellt. Es ist dabei zu berücksichtigen, dass z.B. in Szenario 4 der Vertrag in Periode 2 genutzt wird. Ist die Anzahl der Szenarien überschaubar, sind die Ergebnisse schnell berechnet. Reale komplexere Fra-

3.8 Risikomanagement in der Elektrizitätswirtschaft

215

gestellungen lassen sich mit kommerziellen SoftwareíTools, in welche diese Methodik bereits einprogrammiert ist, lösen. Die Ergebnisse nach Tabelle 3.25 können weiter zusammengefasst werden, was zu einer Darstellung gemäß Abb. 3.74 führt. Tabelle 3.25. Gewinne und deren Eintrittswahrscheinlichkeiten

Szenarionummer

Wahrscheinlichkeit

Profit [Mio.€]

1

0,15

-0,4

2

0,09

0,1

3

0,06

0,6

4

0,12

0,1

5

0,16

0,1

6

0,12

0,1

7

0,06

0,6

8

0,09

0,6

9

0,15

0,6

Erwarteter Gewinn

1,0

0,205 0,6

0,5

Wahrscheinlichkeit

0,4

0,3

0,2

0,1

0 -0,6

-0,5

-0,4

-0,3

-0,2

-0,1

0

0,1

0,2

0,3

0,4

Gewinn [Mio €]

Abb. 3.74. Wahrscheinlichkeitsverteilung für die risikoneutrale Strategie

0,5

0,6

0,7

216

3 Elektrizitätswirtschaft, Liberalisierung

Die Darstellung macht deutlich, dass in der risikoneutralen Strategie mit einer Wahrscheinlichkeit von 15% ein Verlust von 0,4 Mio. € auftreten kann. Ein risikoaverser Entscheidungsträger wird diese Wahrscheinlichkeit als zu hohes Risiko ansehen. C) Eine einfache Risiko-averse Strategie Bei der Berechnung wird angenommen, dass der Vertrag entweder genutzt wird oder nichts gemacht wird. Für die Risiko-neutrale Strategie ist dies eine richtige Annahme. Für eine Risiko-averse Strategie trifft dies nicht zu. Nachfolgend werden beide Möglichkeiten aufgezeigt. Allerdings wird nicht die optimale Risikoaverse Strategie gefunden, da hierfür die Risikoaversion, z.B. mit einer Nutzenfunktion (Abb. 3.75) quantifiziert werden muss. Wird der Vertrag in der ersten Zeitperiode genutzt, beträgt der Gewinn 0 €, weil der Ertrag beim Verkauf dem Aufwand beim Kauf des Vertrags entspricht. Es gibt also keine Möglichkeit Geld zu verlieren, allerdings auch keine Möglichkeit Gewinne zu machen. Das Risiko-averse Verhalten führt zwangsläufig zu einer geringeren Gewinnerwartung (Tabelle 3.26). Tabelle 3.26. Vergleich zwischen Risiko-averser und Risiko-neutraler Strategie

Strategie Optimale Strategie

Risiko-neutrale

Nutzen des Vertrages in der ersten Periode

Erwarteter Gewinn [Mio.€]

Wahrscheinlichkeit von Verlusten

0.205

0.15 (-0.40)

0.0

0.0

Werden zusätzliche Transaktionskosten im Futuresmarkt gegenüber dem Spotmarkt vernachlässigt, so lassen sich die knotenbezogenen Preise für Futures nach Tabelle 3.27 zusammenstellen. Tabelle 3.27. Preise (€/MWh) im Futures-Markt

Knotennummer

Zeitperiode 2

3

1

10,0

10,0

2

-

8,5

3

-

10,0

4

-

11,5

3.8 Risikomanagement in der Elektrizitätswirtschaft

217

Es gibt unendlich viele zusätzliche Risiko-averse Strategien, wenn man z.B. den flexiblen Vertrag ganz oder teilweise mit Futures „hedged“. Kauft man im Knoten 1 Futures mit einem Volumen von 100 GWh mit Lieferung in Periode 2 und nutzt man das ganze Volumen (100 GWh) des flexiblen Vertrags ebenfalls in Periode 2, ist unabhängig von der Preisentwicklung ein Gewinn von 0,1 Mio. € garantiert. Der gleiche Gewinn ergibt sich natürlich auch, wenn Vertrag und Future in der dritten Periode genutzt werden. Die Beispiele zeigen, dass die Risiko-neutrale Strategie die höchsten Gewinne ergibt, und dass mit Hilfe des Futures-Marktes ein risikofreier Gewinn erzielt werden kann. Es ist möglich, über die Nutzung des Futures-Marktes einen erwarteten Gewinn von 0,205 Mio.€ zu erzielen und dabei noch weniger Risiko einzugehen als bei der risikoneutralen Strategie. Das Ziel der „Value-at-risk“-Analyse ist, den im schlechtesten Fall zu erwartenden Verlust eines gegebenen Portfolios innerhalb eines definierten Zeitraums mit einer definierten Wahrscheinlichkeit zu beziffern. Der Zeitraum entspricht der Zeitspanne bis zur Absicherung eines Risikos über den Markt 12 . Ohne Berücksichtigung des Futures-Markts führt das Beispiel zu einem VAR für die erste Zeitperiode in der Höhe von 0,205 Mio. € (inkl. der Anfangskosten). Der erwartete Wert des Portfolios für eine optimal risikoneutrale Strategie in Knoten 2 – welcher den schlechtesten Fall angibt – beträgt -0.05 Mio. €. Damit ergibt sich ein maximaler Verlust von 0.255 Mio. €. Das Preismodell gibt eine Wahrscheinlichkeit dieses Verlusts von 0.3 an. Daraus resultiert ein VAR-Wert dieses Portfolios von 0,255 Mio. € mit einer Sicherheit von 70%. Mit anderen Worten – die Wahrscheinlichkeit liegt bei 30%, dass der Verlust aus dem Portfolio größer oder gleich 0,255 Mio. € in der ersten Periode beträgt. Normalerweise wird der VAR-Wert für eine Sicherheit von 95% berechnet. In unserem Beispiel mit wenigen Szenarien ist dies natürlich nicht möglich. Im Gegensatz zum VAR-Wert wird beim PAR-Wert davon ausgegangen, dass der Vertrag nicht abgesichert werden kann. Damit basiert der PAR-Wert ausschl. auf dem zukünftigen Gewinn durch das Portfolio. In unserem Beispiel kann der PARWert für die risikoneutrale Strategie berechnet werden. Der erwartete Gewinn beträgt 0,205 Mio. €. Die Wahrscheinlichkeit eines Verlusts von 0,4 Mio. € beträgt 0,15. Folglich ergibt sich ein PAR-Wert von 0,605 Mio. € mit einer Wahrscheinlichkeit von 15%. Auch der PAR-Wert wird normalerweise für eine Sicherheit von 95% berechnet.

12

closing an open position

TEIL II

Kraftwerktechnik Energieumwandlung

4 Wasserkraftwerke

4.1 Hydrologische Planungsgrundlagen Abbildung4.1 azeigt das Einzugsgebiet des Beobachtungspunktes P eines Flusslaufs. Über die jährliche Wassermenge liegen i.d.R. langjährige Messungen vor, die eine statistische Beurteilung der oberirdischen Abflussverhältnisse erlauben. Sind keine Wassermengen-Messwerte vorhanden, wohl aber solche über die Niederschlagsmengen, kann für Vorstudien die mittlere jährliche Abflussmenge Q„, mit folgender Formel geschätzt werden:

worin = Einzugsgebiet des Beobachtungspunktes P [km2] h„ = langjähriges Mittel der Niederschlagshöhe [mmla] ß = Abflusskoeffizient (p, = 120 bar OA= 25 "C --->p, = 0.03 bar

Der Rankine-Prozess wird in der Praxis nicht verwendet, da der Abdampf in der Turbine zu nass ist. Die Folgen wären: eine Verschlechterung des inneren Wirkungsgrades auf Grund ungünstiger Strömungseigenschaften und die Erosion der Beschaufelung wegen Tropfenschlag. Die Dampfnässe sollte 10- 12% nicht überschreiten.

Clausius-Rankine-Kreisprozess Durch Überhitzung des Dampfes kann die Dampfnässe vermieden und der Wirkungsgrad erhöht werden (Abb. 5.3). Die Frischdampftemperatur ist durch die thermische Belastung der Schaufeln begrenzt. Für übliche Werkstoffe liegt sie zwischen 500 und 580°C.

5.1 Dampfkraftprozess

273

Aus dem realen Ts-Diagramm Abb. 5.3b folgt, dass das Druckverhältnis p,/p, nicht zu groß gewählt werden sollte, um die Abdampfnässe z.9. auf 10% zu begrenzen bei vorgegebener Frischdampftemperatur. Damit hält sich aber die mögliche Wirkungsgradverbesserung in Grenzen. Für einen Prozess mit OD= 3 11"C, p, = 100 bar, t & = 45"C, p, = 0.1 bar und einer Frischdampftemperatur 4;= 550°C ist der Camot-Wirkungsgrad 0.46, und es wird ein thermischer Wirkungsgrad des reversiblen Prozesses V,,, von Ca. 0.4 1 erreicht. Mit z.B. qK = 0.92, qi = 0.86 und q, = 0.95 folgt ein Kraftwerkswirkungsgrad von q = 0.3 1 (s. Anhang I, GI. 1.30). Zur Berechnung des Dampfprozesses wird mit Vorteil das Mollier-Diagramm (Anhang IV) verwendet, das die Enthalpie in Abhängigkeit von der Entropie darstellt. Die erhaltene Arbeit und die isobar zugeführte Wärme lassen sich als Strecken direkt ablesen (Anhang I, Gln. I.23,1.26). Wird die kleine Kompressionsarbeit W ,= h,- h, vernachlässigt ( b m . wird sie im elektrischen Wirkungsgrad berücksichtigt, da die Pumpen elektrisch angetrieben werden), erhält man

41 = hE - h, woraus sich der thermische Wirkungsgrad ergibt

4

C

Kondensatpumpe

Abb.

a f Clausius-Rankine-Kreisprozess

Prinzipschaltschema,

274

5 Thermische Kraftwerke, Wärmepumpe

5.1.2 Zwischenüberhitzung und Speisewasservorwärmung Eine Verbesserung des Wirkungsgrades kann durch zweifache Dampfüberhitzung (Abb. 5.4) erreicht werden. Nach der ersten Überhitzung wird der Dampf in der Hochdruckturbine entspannt, dann nochmals überhitzt (Zwischenüberhitzung)und zur weiteren Entspannung in die Niederdruckhirbine gefihrt. Der Überhitzer kann sowohl in den Kessel integriert sein (Erwärmung durch Rauchgase) als auch sich ausserhalb des Kessels befinden (die Wärme stammt dann aus dem Frischdampf, übliche Lösung in Kernkraftwerken). Die Wirkungsgraderhöhung ist in erster Linie eine Folge des größeren Druckverhältnisses p,/p„ das bei gleichbleibender Dampfnässe von z.B. 10% am Niederdruckturbinenausgang erreicht werden kann. Mehr als zwei ÜberhitZungen sind nicht üblich, da der zusätzliche Wirkungsgradgewinn nicht genügt, um den größeren apparativen Aufwand wirtschaftlich wettzumachen. Eine weitere Maßnahme zur Wirkungsgradverbesserung ist die Vorwärmung des Kondensats (Abb. 5.4). Dazu wird der Teil a des teilweise entspannten Dampfes (der also bereits Arbeit geleistet hat) angezapft und dessen Kondensationswärme fiir die Wasservonvärmung genutzt. Die vom Kreisprozess gelieferte Arbeit verringert sich

Zwischenüberhitzer

F

Abb. 5.4. Prinzipschaltbild des Dampfkreisprozesses mit Zwischenüberhitzung und Regenerativvonvärmung, NV Niederdruckvonv&rmer,HV Hochdruckvorwärmer

etwas, doch die exergetisch wertvollere Brennstoffeinsparung fuhrt zu einem insgesamt höheren Wirkungsgrad. Diese sog. Regenerutivvorwürmung wird in modernen Kraftwerken mehrfach durchgeführt, wobei sowohl Dampf aus der Hochdruck- als auch aus der Niederdruckturbine angezapft wird. Im Fall des Kreisprozesses der Abb. 5.4 ergibt sich aus dem Mollierdiagramm der thermische Wirkungsgrad

Mit diesen Maßnahmen können moderne Dampfkraftwerke thermische Wirkungsgrade des reversiblen Prozesses bis 60% und Gesamtwirkungsgrade bis 45% erreichen.

5.2 Gasturbinenprozess Die Bedeutung der Gasturbinenkraftwerke nahm in den letzten Jahren stark zu. Gründe dafür sind die günstigen Investitionskosten, die im Zuge der Liberalisierung stärker gewichtet werden, und die technologischen Fortschritte, die zu einer beachtlichen Erhöhung der Leistungen und Wirkungsgrade führten. Als Brennstoffe werden Heizöl und Erdgas eingesetzt.

5.2.1 Einfacher offener Gasturbinenprozess (Joule-Prozess) Abbildung 5.5 zeigt Schema und (T,s)-Diagramm eines oflenen Gusturhinenprozesses zwischen Umgebungstemperatur T, und maximaler Temperatur T,.. AB (AB?: BC (B'C): CD (CD?: DA(D'A):

adiabate Kompression der Luft auf den Enddruck p, , die Luft erhitzt sich auf die Temperatur T, bzw. T,: isobare Erwärmung bis auf Temp. T,. durch Brennstoffverbrennung, adiabate Expansion in der Turbine (Arbeitsleistung), isobare Abkühlung der Abgase auf Umgebungstemperatur T, (bei offenem Prozess ausserhalb der technischen Einrichtungen).

T

a)

Pi>TB

B

Brennstoff

b'

+ q1

Pi! Tc C

Tc

Brennkammer l/

\ Turbogruppe D P a TD

Luft

,

P2 q2

A

Y Abgase

s D k e v

Abb. 5.5. Offener Gasturbinenprozess a) Prozessschema, b) Ts-Diagramm des Prozesses: (ABCD) = realer Prozess, (AB'CD') = idealer (reversibler) Prozess

276

5 Thermische Kraftwerke, Wärmepumpe

5.2.1.1 Idealisierter Prozess Für die isobaren Prozesse gilt gemäß Anhang I, GI. (1.23)

AsreV

=

C P

in-Tc

TB

=

TL

in-

C

,

TA

und somit

Y„

=

S(T~-TB)

q r

=

C, &TA>

-

(5.5)

Es folgt

5.2.1.2 Realer Prozess Für die isobaren Prozesse gilt gemäß Anhang I, GI. (1.23)

As, ferner

= C

in-Tc , TB

As,

= C

in-T, ,

As, > Asl ,

TA

(5.7)

Die Arbeitsleistungen von Turbine und Verdichter folgen aus GI. (1.26)

worin q,r und V," die inneren Wirkungsgrade von Turbine und Verdichter sind. Der Wirkungsgrad des realen Prozesses ist (Anhang I, Abschn. 1.4)

5.2 Gasturbinenprozess

277

Beispiel 5.1 Man berechne den thermischen Wirkungsgrad des reversiblen Prozesses für 6, = 800°C, 6, = 30°C und 6,' = 450°C. Welcher ist der entsprechende Wirkungsgrad des Carnot-Prozesses zwischen T, und T,.? Welcher ist der mittlere Carnotfaktor und der exergetische Wirkungsgrad? Welcher ist der Kraftwerkswirkungsgrad mit der Annahme q, = 0.86, q, = 0.97 und q,,, = qlT= 0.90? Wie groß ist das Druckverhältnis p,/p„ wenn für eine Isentrope allgemein die Beziehung (1.27) gilt, wobei K, „, = 1.4; wie groß ist die erhaltene spezifische Arbeit W (C,, = 1 kJ/kg°C)? Wie verändern sich erhaltene Arbeit und Wirkungsgrad des Kraftwerks, wenn das Druckverhältnis auf 7 erhöht wird? Man berechne die Abhängigkeit dieser Größen vom Druckverhältnis für die Eintrittstemperaturen der Turbine von 800, 1000 und 1200°C? Da T = 6 + 273, folgt aus den Gln. (5.4), (5.6) und (1.15)

Aus den Gln. (1.19), (1.20) erhält man, da für die Isobare dq, = C,, dT

Der schlechte exergetische Wirkungsgrad des Kreisprozesses ist auf den Verlust der beträchtlichen Abgaswärme (mit einer Temperatur von 450°C) zurückzufuhren. Aus GI. (5.9) folgt

278

5 Thermische Krafiwerke, Wärmepumpe

und aus G1 (5.10) ergibt sich

d) Aus den Gln. (I.27), (5.8) und (5.9) ergibt sich

P2

'T~'

q , = cp(Tc - TB) = 607 Kllkg , W =

q, - q,

q, =

=

cp(T, - T,)

=

455 Klll;

152 Kllkg

e) Wieder aus Anhang I, GI. (1.27) folgt für ein Druckverhältnis 7

Wird der Rechengang in Funktion des Druckverhältnisses und für verschiedene Werte der Turbineneintrittstemperatur wiederholt, ergeben sich die in Abb. 5.6 dargestellten Abhängigkeiten. In Wirklichkeit sind die Wirkungsgrade aufGrund der Druckverluste noch etwas kleiner (s. [5.8]). 5.2.1.3 Wirkungsgrad, Leistung

Der Wirkungsgrad qhWv des idealen Prozesses hängt nur vom Druckverhältnis ab. Analytisch erhält man aus den Gln. (5.6) und (1.27)

--

0

5

10

15

20

25

30

35

40

Druckverhältnis

Wirkungsgrade und spezifische Arbeit eines offenen Gasturbinenprozesses in Abhängigkeit vom Druckverhältnis fur verschiedene Turbineneintrittstemperaturen Abb. 5.6.

0,

=

30°C, ac = 800, 1000, 1200°C, qv= qr = 0.9

Beim realen Kreisprozess nehmen die Verluste der adiabaten Teilprozesse in Verdichter und Turbine mit zunehmendem Druckverhältnis zu, der innere Wirkungsgrad 7 ,dementsprechend ab. Dieser hängt außerdem von der Verdichter- und Turbineneintritt~tem~eiatur ab. Analytisch folgt aus den Gln. (5.8)-(5.1 1)

Der thermische Wirkungsgrad qti,= qth„,7 ,weist ein Maximum bei einem mit der Turbineneintrittstemperatur zunehmenden Druckverhältnis auf. Das wirtschaftlichste Druckverhältnis ist kleiner, da die spezifische Arbeit W , wie Abb. 5.6 zeigt, für deutlich kleinere Werte maximal wird. Aus GI. (5.9) folgt der analytische Ausdruck fur die spezifische Arbeit W , und durch Multiplikation mit dem Massenstrom rn' = d r n h die Leistung

P

=

m'w

kg J [--=W]. s

kg

5 Thermische Kraftwerke, Wärmepumpe

280

5.2.2 Rekuperation Der Wirkungsgrad kann durch Rekuperation der Abgaswärme erheblich erhöht werden (Abb. 5.7). Die rekuperierbare Wärme ist C,, (TIj-T,). Geschieht dies mit Wirkungsgrad Y,, reduziert sich der Wärmeaufwand auf

Aus GI. (5.10) ergibt sich der Prozess-Wirkungsgrad mit Rekuperation

Beispiel 5.2 Wie erhöht sich der Wirkungsgrad des in Beispiel 5.1 betrachteten Prozesses zwischen den Temperaturen 30°C und 800°C bei Rekuperation von 75% der zwischen 6, = 485°C und 6, = 193°C anfallenden Abgaswärme? Aus GI. (5.15) folgt

Mit einem Wärmetauscher lässt sich der Wirkungsgrad stark steigern, im vorliegenden Fall erhöht sich der thermische Wirkungsgrad von 25% auf 39%, der Kraftwerkswirkungsgrad somit von 21% auf 33%. In modernen Turbinen mit hohen Heißgastemperaturen wird allerdings die Wirksamkeit der Rekuperation durch den großen Kühlluftbedarf stark geschmälert [5.6].

a)

Pi3

B

Abgase

Brennstoff

TB

Brennkammer

\ Turbogruppe D

A

V

Luft P2,

TD

Abb. 5.7. Offener Gasturbinenprozess mit Rekuperator

5.2 Gasturbinenprozess

28 1

5.2.3 Carnotisierung

Eine weitere Verbesserung kann durch den Zweistufenprozess von Abb. 5.8 erreicht werden. Nach der ersten Verdichtung auf den Zwischendruck in A' wird die Luft gekühlt und in einem zweiten Verdichter dann auf den Enddruck p 1 gebracht. Auch die Expansion erfolgt zweistufig, zuerst in der Hochdruckturbine HT und nach Wiedererhitzung des Gases (mit einem zweiten Brenner) in der Niederdruckturbine NT. Der Spielraum für die Rekuperation wird erweitert und der Wirkungsgrad somit weiter verbessert. Die spezifische Arbeit erhöht sich, aber auch der Investitionsaufwand. Theoretisch ließe sich durch noch mehr Stufen (was jedoch i.d.R. unwirtschaftlich ist) der Wirkungsgrad des Ericson-Prozesses, der aus zwei Isobaren und zwei Isothermen besteht und denselben Wirkungsgrad wie der Carnot-Prozess aufweist, nahezu erreichen. Es wird deshalb beim Zwei- oder Mehrstufenprozess auch von Carnotisierung gesprochen. In der in Abb. 5.9 dargestellten Anlage wird die Turbine zweistufig ausgeführt, nicht aber der Verdichter (Prozess mit sequentieller Verbrennung). Diese Lösung wird vor allem in Kombikraftwerken eingesetzt.

Abb. 5.8. Offener Zweistufen-Gasturbinenprozess

Abb. 5.9. Schnitt der Gasturbine GT24/Gt26 mit sequentieller Verbrennung 1 Verdichter, 2 Hochdruckturbine, 3 Niederdruckturbine, 4 SEV-Brennkammer, 5 Brennstoffinjektor, 6 EV-Brennkammer, 7 EV-Brenner, 8 Konvektionskühlung der Verkleidung, 9 Mischzone, 10 Wirbelerzeuger, 11 Effusionsgekühlter SEV-Brenner (Quelle: ALSTOM)

282

5 Thermische Kraftwerke, Wärmepumpe

5.3 Kombiprozesse Die Gasturbine lässt hohe Turbineneintrittstemperaturen bis 1200°C zu, während die Dampfturbine eine niedrige Turbinenaustrittstemperaturin der Nähe der Umgebungstemperatur erlaubt. Durch Kombination der beiden Prozesse bei Nutzung der Abgaswärme der Gasturbine in der nachgeschalteten Dampfturbinenanlage wird ein sehr hoher Camot-Faktor und zugleich ein hoher exergetischer Wirkungsgrad erreicht und so die Gesamtnutzung der Brennstoffenergie wesentlich verbessert (Abb. 5.10). In Abb. 5.1 1 ist eine mögliche Variante eines Dampjkraftwerks dargestellt, in der die Abgase der vorgeschalteten Gasturbine als Verbrennungsluft (der Sauerstoffgehalt genügt i.d.R.) und fir die Speisewasservorwärmung verwendet werden. Dadurch wird nicht nur der thermische, sondem auch der Kesselwirkungsgrad verbessert. Bei dieser

Abb. 5.10. T,s Diagramm des Kombiprozesses

DampfDampfturbognippe Brennstoff

II

-7 HV

Kondensator

Abgase

C

NV B

Gasturbogruppe Luft

Abb. 5.11. Prinzipschaltbild des Dampfkraftwerks mit vorgeschalteter Gasturbine

5.3 Kombiprozesse

283

Lösung ist die Leistung der Dampfturbine deutlich größer als jene der Gasturbine. Durch die Vorschaltung einer Gasturbine wird außerdem in Dampfkraftwerken die Regulierbarkeit der Leistung verbessert. Kombianlagen eignen sich deshalb ausgezeichnet zur Deckung des Mittellastbereichs (Abschn. 3.2.2). Der Kombiprozess kann jedoch auch als Variante bzw. Weiterentwicklung des Gasturbinenprozesses betrachtet werden, in welchem die Rekuperation der Abgaswärme nicht im Gasprozess selber, sondern in einer nachgeschalteten Dampfturbine erfolgt, die zusätzliche Arbeit produziert (Abb. 5.12). Sowohl Arbeit als auch Wirkungsgrad werden gegenüber dem einfachen Gasturbinenprozess um ca. 50% erhöht [5.6]. Abbildung 5.13 zeigt die konkrete Ausführung einer Kombianlage mit sequentieller Verbrennung. Gas- und Dampfturbine treiben hier denselben Generator an. Die Anlage sieht auch eine Dampfeindüsung (oder Wassereinspritzung) in die erste Brennkammer vor, um die Leistung vorübergehend zu steigern. Das Dampfeindüsungsprinzip wird in der STIG-Turbine (Steam Injection Gas Turbine) als GasDampf-Kombination alternativ zum klassischen Kombiprinzip verwendet [5.9]. Für die Zukunft sind Kombikraftwerke, vor allem als Weiterentwicklung des Gasturbinenkraftwerks, mit Nutzung der Gasturbinenabwärme in einem Abhitzekesse1(GUD-Kraftwerke, Näheres in Abschn. 5.7) dank ihres hohen Wirkungsgrades

Abb. 5.12. Prinzipschaltbild der Gasturbine mit nachgeschalteter Dampfturbinenanlage

O T

T

AGV LP

HRSG

G

HP Comb

F

ST

C

Cond

Abb. 5.13. ThermodynamischesSchema einer Kombianlagemit sequentieller Verbrennung und Dampfeindüsung , Erdgasfeuerung [5.6]

284

5 Thermische Kraftwerke. Wärmevumve

besonders interessant und können wesentlich zu einer besseren Nutzung der Primärenergie beitragen. Da die Leistung der Gasturbine sehr rasch geändert werden kann, eignen sich diese Anlagen sehr gut für die Regelung der Mittellast oder auch der Spitzenlast (Abschn. 3.2.2). Über weitere Möglichkeiten, insbesondere in Zusammenhang mit der Kohlefeuerung, sei auf Abschn. 5.7 und [5.15] verwiesen.

5.4 Wärme-Kraft-Kopplung Der Wirkungsgrad der Stromerzeugung aus fossilen Brennstoffen in thermischen Kraftwerken ist im Laufe der Zeit stark gestiegen und erreicht heute mit Erdgasbetriebenen Kombikraftwerken nahezu 60%. Trotzdem gehen noch über 40% der Energie als Abwärme verloren. Bei der Wärme-Kraft-Kopplung (WKK) wird neben elektrischer Energie auch Nutzwärme produziert und damit der Energienutzungsgrad weiter erhöht. Im Fall der Dampfturbine kann dies auf zwei Arten geschehen: Durch Dampfentnahme (wie bei der Speisewasservorwärmung). Durch Erhöhung des Kondensationsdruckes (Gegendruckanluge). -

-

Varianten und Kombinationen dieser beiden Grundschaltungen sind möglich. Im Fall der Gasturbine mit oder ohne Rekuperator bzw. nachgeschalteter Dampfturbine wird die Nutzwärme aus den Abgasen, bei zweifacher Verdichtung auch aus dem Kühler (Abb. 5.8) gewonnen. Schließlich werden für kleine Leistungen auch Dieselanlagen als sog. Blockkraftwerke oder TOTEM(Tota1 Energy Module) eingesetzt, wobei wiederum Wärme aus den Abgasen oder dem Kühlkreislauf des Motors entnommen wird. 5.4.1 Entnahme-Kondensationsschaltung Entsprechend Abb. 5.14 wird der Teil inCrderDampfmasse m' an der Entnahmestelle G ausgekoppelt. Die entsprechende Wärme wird für ein Heizsystem verwendet. Als Entnahmeverhültnis sei definiert I

U = -me

(5.16)

m1 Mit Bezug auf den Kreisprozess von Abb. 5.14 erhält man f i r Turbinenleistung P,, ausgekoppelte Wärmeleistung Q, und zugeführte Wärme Q ,

Q,

=

'

m (hE-hA)

Als Leistungszijfer E der Entnahme-Kondensationsschaltung wird das Verhältnis zwischen der ausgekoppelten Wärme und der Reduktion der Turbinenleistung bezeichnet

5.4 Wärme-Kraft-Kopplung

285

Die Leistungsziffer ist unabhängig vom Entnahmeverhältnis.Wird die Leistungsziffer vorgegeben (meist r = 7- 10), lässt sich aus G1. (5.18) die Entnahmeenthalpie h, und so der Entnahmedruck bestimmen. Mit den genannten Werten von r wird bei maximaler Wärmeauskopplung die elektrische Leistung um weniger als 10% reduziert. Die Strom-Wärme-Kennziffer, welche das Verhältnis zwischen elektrischer Leistung und ausgekoppelter Wärmeleistung angibt, ist

Die Entnahme-Kondensationsschaltung ermöglicht eine Jlexible Anpassung der Wärmeauskopplung an die Bedürfnisse. Bei voller Dampfentnahme ( a = 1) erhält man die minimale Strom-Wärme-Kennziffer

Der Energienutzungsgrad ist

worin Q = q, Q, die Nutzwärmeleistung, Q, den Wärmeinhalt des Brennstoffs und q den Wirkungsgrad des Kraftwerks ohne Dampfentnahme darstellen. Der Nutzungsgrad steigt mit zunehmender Wärmeauskopplung von q fur den Prozess ohne Wärmeauskopplung ( a = 0, o = bis zum maximalen Wert ( a =1, o = o,,) entsprechend W)

5

Überhitzer

Abb. 5.14. Wärme-Kraft-Kopplung durch Dampfentnahme, P, = Turbinenleistung, Q = qHQH= Nutzwärmeleistung, T,, = Vorlauftemperatur des Heizsystems

286

5 Thermische Kraftwerke, Wärmepumpe

5.4.2 Gegendruckanlage

Bei der Gegendruckschaltung ist die Turbinenaustrittstemperatur T, höher als die Vorlauftemperatur des Heizsystems (Abb. 5.15). Damit reduziert sich der thermische Wirkungsgrad des Prozesses, aber die volle Kondensationswärme wird genutzt. Die Hauptbeziehungen ergeben sich aus den Gln. (5.1 7) der Entnahme-Kondensationsschaltung fir h, = h, und a = 1

Die Strom- Wärme-Kennzzffer ist starr gegeben und gleich zu

Für den Energienutzungsgrad folgt

worin Q die effektiv genutzte Wärme und 11den Wirkungsgrad der Stromerzeugung darstellen. Die Gegendruckschaltung ermöglicht keine effiziente Anpassung der Wärmeauskopplung an verringerte Bedürfhisse ohne proportionale Senkung auch der Stromproduktion. Bleibt die Stromproduktion konstant, nimmt der Energienutzungsgrad entsprechend der Reduktion des Nutzwärmewirkungsgrads q, = Q/QH ab.

Abb. 5.15. Wärme-Kraft-Kopplung bei Gegendruckschaltung, P, = Turbinenleistung,

QH= Kondensationswärmeleistung, Q = qHQH= Nutzwärmeleistung, T, temperatur des Heizsystems

= Vorlauf-

5.4 Wärme-Kraft-Kooolune

287

5.4.3 Gasturbinen Gasturbinenanlagen eignen sich bestens zur Kraft-Wärme-Kopplung, da die Abwärme auf hohem Temperaturniveau anfallt. Dies trifft auch für die Gasturbinenanlage mit Rekuperator oder nachgeschalteter Dampfturbine zu. Mit Bezugnahme auf den Prozess mit sequentieller Verbrennung von Abb. 5.16 gelten gemäß Abschn. 5.2 die Hauptbeziehungen (m' .- konst. auf Grund des großen LuftÜberschusses beim Verbrennungsprozess)

P,

=

'

m cp [(Tc- Tc/)+ (Tc//- T,) - (T, - T,)]

Für die Strom-Wärme-Kennziffer folgt

und für den Energienutzungsgrad

worin Q = Y , QH die effektiv genutzte Wärme und den Wirkungsgrad der Stromerzeugung darstellen. Durch Kombination mit einer nachgeschalteten Dampfturbine und Nutzung der Wärme aus den Abgasen und durch Dampfentnahme lassen sich besonders hohe Energienul~ungsgrade,gepaart mit einer flexiblen Wärmeauskopplung, erreichen. Als Beispiel zeigt Abb. 5.17 die Energiebilanz einer Kombianlage im 100 MW-Bereich nach Abb. 5.13 mit einem Energienutzungsgrad bis 85%.

I Brennstoff

Lufi

'1

Abgase

Abb. 5.16. Gasturbine mit sequentieller Verbrennung und Kraft-Wärme-Kopplung

288

5 Thermische Kraftwerke, Wärmepumpe

Energiebilanz einer Kombianlage mit Wärme-Kraft-Kopplung (Gasturbine mit sequentieller Verbrennung und nachgeschalteter Dampfturbine) in Funktion der Dampfentnahme [5.6]

Abb. 5.17.

5.4.4

Blockheizkraftwerke

In ähnlicher Weise kann auch bei Diesel- oder Gasmotorkraftwerken Wärme aus den Abgasen und aus dem Kühlkreislauf gewonnen werden. Die Grundschaltung dazu zeigt Abb. 5.18. Angeboten werden Einheiten im Leistungsbereich 50 k W 15 MW, die Energienutzungsgrade von 85% bis 90% aufweisen. Brennstoff

Diesel- oder Gasmotor

Abb. 5.18. Blockheizkraftwerk

5.4.5 Wärme-Kraft-Kopplung und CO,-Produktion In Ländern mit Produktion elektrischer Energie vorwiegend aus fossilen Brennstoffen (wie z.B. Deutschland) ermöglicht die Wärme-Kraft-Kopplung einen wesentlich rationelleren Einsatz der fossilen Brennstoffe und trägt somit zur Entschärfung der CO,-Problematik (verstärkter Treibhauseffekt) bei. Dort, wo wie in der Schweiz die elektrische Energie fast nur mit Wasser- und Kernkraft erzeugt wird, stellt sich die Frage, ob der verbreitete Einsatz der WärmeKraft-Kopplung nicht zu einem verstärkten Verbrauch von fossilen Brennstoffen und damit zum gegenteiligen Effekt fuhrt, es sei denn, man verwende Biomasse. Wesentlich besser sieht die CO,-Bilanz aus, wenn die Wärme-Kraft-Kopplung mit der Wärmepumpentechnik kombiniert wird (Abschn. 5.9).

5.5 Fossilgefeuerte Dampfkraftwerke

289

5.5 Fossilgefeuerte Dampfkraftwerke Es werden 3 Hauptkreisläufe unterschieden, veranschaulicht in den Abb. 5.19a und 5.19b, wobei die zwei letzten auch in Kernkraftwerken auftreten: - Luft-Brennstoff-RauchgasIAsche-Kreislauf, - Wasser-Dampf-Kreislauf, Kühlwasserkreislauf.

Der Brennstoff und die durch die Rauchgase vorgewärmte Luft werden der Brennkammer zugeführt. Die Rauchgasreinigung (Abgasbehandlung) umfasst u.a. die Entstickung, Entschwefelungund Entstaubung. Bei Kohlefeuerung ist ein Ascheabmg notwendig. Für Näheres zu Verbrennungsvorgang,Abgasbehandlung und Technik der fossil befeuerten Dampferzeuger s. [5.4], [5.15], [5.12]. 5.5.2 Wasser-Dampf-Kreislauf, Verluste Die Thermodynamik des Wasser-Dampf-Kreislaufs ist in Abschn. 5.1 beschrieben worden. Hauptelemente sind der Kessel einschl. Überhitzer und Zwischenüberhitzer, die Turbine, der Kondensator sowie die Speisewasservonvärmer. Die Dimensionierung des Dampferzeugers (Kessel) erfolgt auf Grund des Verdampfungsdrucks @,) und der benötigten Dampfinenge. Für letztere gilt als grober Richtwert Ca. 3 t/h,MWe, die exakten Werte können aus den Prozessdaten (MollierDiagramm) und Wirkungsgrad q, berechnet werden. Die Dampfturbine ist eine Strömungsmaschine, welche die Enthalpiedifferenz zwischen Eingangs- und Ausgangsquerschnitt in mechanische Energie umwandelt.

+

Abgas

Rauchgasgebläse

L

Turbine

AbgasLuftbehandlung vorwärmer -

(Kessel) Frischluftgebläse

W

Luft

I

Kondensator

J

,

Wasser Kühlkreislauf

Brennstoff Asche

Abb. 5.19.a Hauptkreisläufe in einem fossil befeuerten Dampfkraftwerk (Prinzip)

290

5 Thermische Kraftwerke, Wärmepumpe

!

Abb. 5.19b. Dampfturbine: 1 Frischdampfleitung, 2 Abschluss- und Regelventil, 3 Hochdruck-Turbine, 4 Wasserabscheider/Zwischenüberhitzer, 5 Dampfleitung, 6 NiederdruckTurbine, 7 Leitschaufeln, 8 Rotorschaufeln, 9 Kondensator, 10 Tragplatte, 11 Schwingungsdämpfer [5.16]

Die Drehzahl ist 3000 oder 1500 Ulmin bei 50 Hz (3600 bzw. 1800 Ulmin bei 60 Hz), s. auch Bd. 1, Abschn. 6.1. Manchmal werden auch höhere Drehzahlen gewählt, wobei dann die Kopplung zum Generator über ein Getriebe erfolgt. Im Kondensator wird dem aus der Turbine austretenden feuchten oder gesättigten Dampf die Kondensationswärme entzogen. Kondensationsdruck Ca,) und -Temperatur sind über die Dampfdruckkurve aneinander gebunden. In modernen Kraftwerken werden meist Kondensationsdriicke von 0.04-0.1 bar gewählt (entsprechend Temperaturen von 29-46°C). Die Wahl des Kondensationdruckes beeinflusst stark den Wirkungsgrad des Kreisprozesses, jedoch auch die Kosten des Kondensators. Für Näheres zu Technologie und Auslegung von Dampferzeuger, Dampfturbine und Kondensator s. [5.15]. Die Verluste (s. auch Abschn. 3.2 und 5. I) setzen sich zusammen aus den Kesselund Kreislaufverlusten q, (Richtwert 0.88), den Verlusten des idealisierten Kreisprozesses qthre,, (Richtwert je nach Ausfihrung 0.45-0.6), den Turbinenverlusten q, (Richtwert 0.85) und den Verlusten in Generator und Eigenbedarf qe (Richtwert 0.94). Aus den angegebenen Richtwerten resultiert z.B. ein Kraftwerkswirkungsgrad von 3 1-42%. Die Verlustwärme wird zum kleinen Teil mit dem Rauchgas, sowie verteilt an verschiedenen Stellen in der Anlage, an die Umgebung abgegeben, zum größten Teil wird sie als Abwärme an das Kühlwasser des Kondensators übertragen, welcher über den Kühlwasserkreis diese Wärme an die Umgebung abgibt.

5.5 Fossilgefeuerte Dampfkraftwerke

291

5.5.3 Kühlwasserkreislauf

Wasser Ca. 25°C Kondensator

Wasser 0.05 bar, 33°C

15 m3/s

Kühlwasser (Fluss, See) 15°C

Abb. 5.20. Prinzip der Frischwasserkühlung. Mögliche Verhältnisse für 900 tlh Dampf

Es werden Frischwasserkühlung und Turmkühlung unterschieden. Das Prinzip der Frischwasserkühlung zeigt Abb. 5.20. Das Kühlwasser wird einem Fluss oder See entnommen, und das erwärmte Wasser wieder in das Gewässer zurückgeführt. Die notwendige Kühlwassermenge entspricht dem 50-70fachen des Dampfgewichts, wenn eine Kühlwassererwärmung von Ca. 10°C zugelassen wird. Beispielsweise für ein 300 MW-Kraftwerk mit Ca. 900 t/h Dampf werden 54'000 m3/h oder 15 m3/s Kühlwasser benötigt. Da die Flusstemperatur aus ökologischen Gründen nur geringfügig ansteigen darf (der Sauerstoffgehalt sinkt mit zunehmender Temperatur), braucht es selbst für diese relativ kleinen Wassermengen große Flüsse (der Rhein bei Schaffhausen hat z.B. einen Durchsatz von rund 180 m3/s). Deshalb wird meist, besonders wenn an einem Fluss mehrere Kraftwerke betrieben werden, auf die Turmkühlung ausgewichen. Die heute verwendete Standardlösung ist die Nassturmküh1ung.Das Prinzip der Nassturmkühlung zeigen die Abb. 5.21a und 5.21b. Das aufgewärmte Wasser wird im Gegenstrom zu der im Kühlturm aufsteigenden Luft verrieselt und verdunstet zum Teil. Dadurch wird Wärme entzogen, und das abgekühlte Wasser kann rezykliert werden. Die Wasserverluste betragen lediglich 2-3% der benötigten Kühlwassermenge. Der Luftstrom ergibt sich aus dem Naturzug und kann durch Ventilatoren verstärkt werden. Störend sind die Dampfschwaden oberhalb des Turmes, vor allem für nahgelegene Siedlungen. Alternativen, die diesen Nachteil nicht aufweisen, sind Trocken- oder

I

Ersatz der Wasserverluste Dampf

Kondensator

Wasser Abb. 5.21a. Prinzip des Nasskühlturmes

292

5 Thermische Kraftwerke, Wärmepumpe

Hybridkühltürme, die aber bei gleichen Dimensionen eine geringere Kühlleistung erbringen. Für Näheres über das Kühlsystem sowie die Berechnung und Leistung von Nass- und Trockenkühltürmen s. [5.4], [5.12], [5.15].

Kühlturm: I Schale, 2 Stützen, 3 Becken, 4 Wasser-Zulaufleitungen (vom Kondensator), 5 Verteilkanäle, 6 Verteilrinnen, 7 Sprühdüsen mit Prallteller, 8 Rieselplatten, 9 Tropfenfänger, 10 Kühlwasseraustritt (zum Kondensator) 15.161

Abb. 5.21b.

5.5 Fossilgefeuerte Dampfkraftwerke

293

5.5.4 Blockregelung Die von den Kraftwerksblöcken in das elektrische Verbundnetz eingespeiste Leistung muss der von den Verbrauchern entnommenen Leistung entsprechen. Dies erfolgt zum einen über die schnelle Primärfrequenzregelung, bei der die beteiligten Kraftwerke die Leistung proportional zur Abweichung von der Sollfrequenz steigern oder absenken, um die Netzfrequenz zu stützen. Der Lastverteiler gibt zum anderen für die einzelnen Kraftwerke Leistungssollwerte vor, so dass die Netzfrequenz wieder auf den gewünschten Sollwert gefahren wird (Sekundärfrequenzregelung). Die Blockregelung eines Kraftwerkes regelt dabei den Leistungssollwert ein, der mit einer vorgegebenen Laständerungsgeschwindigkeit (MWImin) entsprechend des voraussichtlichen Leistungsbedarfs des Netzes variiert wird. Kurzfristige Änderungen der dem elektrischen Netz entnommenen Leistung werden durch die Primärfrequenzregelung ausgeregelt. Entsprechend der eingestellten Statik (MWIHz) steigert bzw. senkt jedes an der Frequenzstütze beteiligte Kraftwerk die eingespeiste elektrische Leistung proportional zur Abweichung der Netzfrequenz von der Sollfrequenz. Näheres zu Primär- und Sekundärfrequenzregelung ist in Bd. I, Abschn. 6.5.2 und Kap. I I , zu finden. Abbildung 5.22 zeigt prinzipiell die Energiez~mwandlungin einem Dampfkraftwerk. Die aus der Primärenergie gewonnene thermische Energie im Wasser-dampf muss in einem Gleichgewicht zur elektrischen Energie unter Berücksichtigung der Energieumwandlungsverluste stehen. Der Dampfdruck im Kessel fallt dabei, wenn mehr elektrische Leistung abgenommen wird, als mit dem eingespeisten Brennstoff erzeugt werden kann. Die Blockregelung ist die übergeordnete Lastregelung, welche die Blockleistung entsprechend der Netzanforderungen regelt und dabei das Zusammenspiel zwischen Dampferzeuger und Turbosatz eines Kraftwerksblocks unter Berücksichtigung des dynamischen Verhaltens des Kraftwerksblocks sowie der zulässigen Belastung der Kraftwerkskomponenten koordiniert. Dabei kann die elektrische Leistung schnell mit den Stellventilen der Dampfturbine verändert werden, wohingegen Feuerung und Dampferzeugung träge sind. Weiterhin kann das Speicherverhalten des Kessels genutzt werden, um kurzzeitige Laständerungen der Turbine zu bedienen.

Dampferzeuael

Primärenergie Brennstoff

Turbine

_

Generator

Thermische Dampf)

Abb. 5.22. Energieumwandlung im Dampfkraftwerk

Elektrische Energie

294

5 Thermische Kraftwerke, Wärmepumpe

Prinzipiell können zwei Blockregelungskonzepte unterschieden werden [5.10]. Im ersten Fall (Festdruckregelung) regelt die Dampfturbine die elektrische Leistung mit Hilfe der Stellventile, der Kessel regelt über die Feuerung den Dampfdruck, um das Gleichgewicht zwischen der elektrischen Leistung und der dazu entsprechenden Dampfproduktion herzustellen. Der Kessel „folgt" der Turbinenleistung, wie in Abb. 5.23 schematisch dargestellt. Diese Vorgehensweise erlaubt die Ausnutzung des Kesselspeichers, um damit schnelle Laständerungen zu realisieren. Kann jedoch der Kessel der gewünschten Lasterhöhung nicht folgen, so sinkt der Dampfdruck ab. Um eine unzulässige Druckabsenkung z.B. durch Störungen im Dampferzeuger zu vermeiden, greift bei Unterschreitung des minimalen Dampfdrucks eine zusätzliche Begrenzungsregelung auf die Stellventile der Dampfturbine. Zur Verbesserung der Dynamik der Kesseldruckregelung werden Laständerungen als Vorsteuerung auf die Brennstoffiegelung aufgeschaltet. Dieses Regelkonzept erlaubt eine schnelle und exakte Regelung der elektrischen Leistung und erfordert Aufwand, um eine schnelle und gleichzeitig ruhige Brennstoffregelung zu erzielen.

Abb. 5.23. Prinzip der Blockregelung: ..Kessel folgt" oder Festdruckregelung

Im zweiten Fall (Gleitdruckregelung) regelt der Kessel die elektrische Leistung, der Dampfdruck wird durch die Dampfturbine geregelt. Bei diesem Konzept folgt die Turbine den Laständerungen des Kessels, wie in Abb. 5.24 schematisch dargestellt.

Abb. 5.24.

Prinzip Blockregelung: „Turbine folgt" oder Gleitdruckregelung

Der Vorteil dieser Schaltung ist, dass die Regelung von sich aus stabil ist und auch Störungen im Kesselbereich automatisch beherrscht. Um schnelle Leistungsanforderungen bedienen zu können, können die Stellventile etwas angedrosselt gefahren werden (modifizierter Gleitdruck). Dadurch steigt der Dampfdruck im Kessel, und die eingespeicherte Energie kann dann zur kurzfristig Leistungserhöhung abgerufen

5.5 Fossilgefcuerte Dainpikrafiwerke

295

werden, ehe die Dampfproduktion den geänderten Anforderungen angepasst wird. Eine kurzzeitige Leistungssteigerung kann ebenfalls durch das Kondensatstauverfahren erzielt werden. Beim Kondensatstau wird die Dampfzufuhr zu den Niederdruckvorwärmern kurzzeitig reduziert, was eine Erhöhung der elektrischen Leistung der Dampfturbine zur Folge hat. Dabei wird entsprechend die Kondensatforderung zurückgefahren, um ein Absinken der Speisewasserbehältertemperatur zu vermeiden. Entsprechend der Kapazität des Speisewasserbehälters sowie des Kaltkondensatspeichers ist es damit möglich, nahezu rückwirkungsfrei für eine begrenzte Zeit die Leistung zu variieren, ehe die Dampfproduktion den geänderten Anforderungen angepasst ist. Abbildung 5.25 zeigt schematisch die wesentlichen Eingriffstellen einer Blockregelung mit integriertem Kondensatstauverfahren. Aus der geforderten Leistung wird der erforderliche Brennstofffluss ermittelt. Entsprechend des Brennstoffflusses muss die Verbrennungslufi für eine vollständige Verbrennung sowie der Speisewasserfluss angepasst an die Dampfproduktion eingestellt werden. Schnelle dynamische Laständerungen werden durch die im Geradeausbetrieb leicht angedrosselten Turbinenstellventile und die Anzapfklappen für die Niederdruckvonvärmer erzielt, bis der Brennstofffluss wieder der elektrischen Leistung entspricht.

Blockregelung

I

I

Frisch-

'

1

I

Kessel - - -- - - - -

I I

6

RD/*D

HO

I

I I

I

I

--

Kohlemühle

ondensat cher Vorwärmer Blockregelung mit integriertem Kondensatstau

Abb. 5.25. Blockregelung mit integriertem Kondensatstau

Neben Blockkraftwerken, die ausschließlich zur Erzeugung elektrischer Energie dienen, gibt es Kraftwerke, bei denen neben elektrischer Energie auch Prozesswärme bereitgestellt wird (s. Abschn. 5.4). Die Prozessdampf- oder Prozesswärmeauskopplung kann je nach Anlagenkonfiguration als Störgröße in der Blockregelung für die elektrische Leistung berücksichtigt werden, so dass diese Kraftwerke sich an der Primär- und Sekundärreglung des elektrischen Netzes beteiligen können. Bei vielen lndustriekrafiwerken tritt jedoch der Fall auf, bei dem die ausgekoppelte Prozesswärme die eigentliche Hauptregelaufgabe ist, und die elektrische Leistung sich entsprechend der geforderten Prozesswärme einstellt.

296

5 Thermische Kraftwerke, Wärmevumpe

5.5.5 Dynamik

Angesichts des Variantenreichtums und der Komplexität der Dampfkraftanlagenwird nur das prinzipielle Verhalten mit Bezug auf das Referenzschema in Abb. 5.26 beschrieben. Obwohl in einer Dampfturbine mehrere miteinander koordinierte Ventile aktiv sein können, sei vereinfachend ein einziges äquivalentes Regelventil zwischen Überhitzer und HD-Turbine angenommen. Die für die Umwandlung verfügbare thermische Leistung am ÜberhitzerausgangE ist von P, = m> .Ah gegeben, worin m,' den Massenstrom und Ah den verfugbaren Enthalpiesprung darstellen. Wird davon ausgegangen, dass die unterlagerten Regelkreise imstande sind, die Temperatur T,? konstant zu halten, ist der Enthalpiesprung ebenfalls konstant und somit die Leistung proportional zum Massenstrom. Dieser ist seinerseits proportional zum Öffnungsgrad a des Ventils, das vom primären Drehzahlregler gesteuert wird (Kap. 1 I). Verzögerungen des Massenstromes treten durch die Volumina der Dampfkraftanlage auf. Betrachten wir das Volumen V zwischen zwei Querschnitten 1 und 2, gilt

worin p die Massendichte darstellt. Wird ferner angenommen, der Ausgangsmassenstrom sei proportional zum Druck, folgt der Massenstrom m,'dem Massenstrom m,'

r

Zwischenüberhitzer

F T

D/

L

Überhitzer

C

H Kondensator A'

Abb. 5.26. Prinzipschaltbild eines Dampfkraftwerks mit dreistufiger Turbine, ZwischenÜberhitzung und Regenerativvonvärmung,

mit der Zeitkonstanten T, welche die Trägheit der Dampfmasse charakterisiert. In der betrachteten Anlage wird die größte Verzögerung vom Zwischenuherhit-er verursacht, dessen Zeitkonstante T, die Größenordnung 10 s aufweist. Weitere Verzögerungen erster Ordnung sind zwischen Ventil und HD-Turbine (Richtwert T, = 0.3 s) sowie zwischen MD- und ND-Turbine (Richtwert T, = 0.5 s) einzuführen. Die Beziehung zwischen der mechanischen p.u. Leistungp, und dem p.u. Massenstrom m, ' kann durch Blockschaltbild Abb. 5.27a beschrieben werden. Die Koeffizienten a, ß, y berücksichtigen die Anteile der drei Turbinenstufen an der Gesamtleistung (womit a + ß + y = 1). Stationäre Leistungsverluste können durch die Konstante K, berücksichtigt werden. Abbildung 5.27a fuhrt zu einer Übertragungsfunktion dritter Ordnung. Aus den genannten Richtwerten geht hervor, dass die Leistungen der MD- und ND-Turbine wegen der Zwischenüberhitzung wesentlich träger reagieren als die der HD-Turbine. Angesichts des Größenunterschieds zwischen den drei Zeitkonstanten kann in erster Näherung T, 0 oder T, T3 -0 gesetzt und die Turbinenanlage durch eine Übertragungsfunktion zweiter oder gar erster Ordnung, wie in Abb. 5.27b angenähert, dargestellt werden. Zwischen Massenstrom in der HD-Turbine, Frischdampfdruck p, und Öfhungsgrad a des Ventils besteht die p.u. Beziehung

-

Abb. 5.27. ijbertragungsfunktion der Dampfiurbinenanlage a) Allgemeines Schema dritter Ordnung, b) Näherung erster Ordnung

-

298

5 Thermische Kraftwerke, Wärmepumpe

Eine Zunahme des Ventilquerschnitts Au fuhrt unmittelbar zu einer Zunahme des Massenstroms und somit zu einer verzögerten Erhöhung der Turbinenleistung entsprechend Abb. 5.27. Die Änderung des Massenstroms verursacht andererseits eine Dichte- und somit auch eine Druckabnahme im Dampferzeuger, die durch die Kesselregelung kompensiert werden muss. Diese Druckabnahme kann durch die p.u. Gleichung

beschrieben werden, worin m, 'den im Dampfkessel erzeugten Massenstrom darstellt. Die Zeitkonstante T, kann je nach Kesselart zwischen mehreren 10 s und einigen 100 s liegen. Die Kesselregelung, die den Massenstrom in, ' steuert, umfasst mehrere Regelkreise, welche Brennstoff-, Frischluft- und Speisewassermfuhr kontrollieren. Sie kann z.B. die Aufgabe haben, den Frischdampfdruck auf dem gewünschten Sollwert zu halten; in diesem Fall wird von Festdruckregelung gesprochen. Bei der Gleitdruckregelung wird sie hingegen direkt von der Drehzahl oder Leistung kontrolliert (s Abschn. 5.5.4). Abbildung 5.28 gibt ein Dynamikschema des Dampfkraftwerks, worin die Turbine durch ein System erster Ordnung (Abb. 5.27b) und der Kessel durch die Übertragungsfunktion G, (s) dargestellt werden; letztere umfasst sowohl die durch die Wärmeentbindung verursachten Verzögerungen als auch die Übertragungsfunktion des Kesselreglers (oft ein PI-Regler).

Abb. 5.28. Dynamisches Blockschaltbild des Dampfkraftwerks p, Frischdampfdruck,p, Turbinenleistung,p elektrische Leistung

5.6 Kernkraftwerke

299

5.6 Kernkraftwerke Kernkraftwerke sind im Wesentlichen (in der heutigen Ausfuhrung) Dampfturbinenkraftwerke, die mit nuklearem statt fossilem Brennstoff betrieben werden. An Stelle der Feuerung tritt der Reaktor. Zwischen Reaktor und Turbine kann ein zusätzlicher Kühlkreis geschaltet werden (s. Abschn. 3.4 und Abb. 5.32a). Es wird unterschieden zwischen - Primaranlage: Reaktor + evtl. zusätzlicher Kühlkreis und - Sekundaranlage: übrige konventionelle Elemente des Dampfkreislaufs (für welche im Wesentlichen die Ausfuhrungen von Abschn. 5.5 gelten).

5.6.1 Energiegewinnung durch Kernspaltung Kernenergie kann auf zwei Arten freiwerden (s. dazu auch Anhang 11): - Durch Fusion von leichten Atomkernen, d.h. von den Wasserstoffisotopen Deuterium und Tritium zu Helium. Die industrielle Anwendung steht noch in weiter Feme (Näheres in Kap. 9). - Durch Spaltung von schweren Atomkernen, wie Uran, Thorium und Plutonium zu mittelschweren Kernen. Die gegenwärtige industrielle Gewinnung von Kernenergie beruht auf der Spaltungsreaktion von Uran. Thorium kann in Hochtemperaturreaktoren verwendet werden. Plutonium entsteht als Nebenprodukt der Uranspaltung. Für den Einsatz in schnellen Brutreaktoren muss es zuerst erbrütet werden (Abschn. 5.6.2). 5.6.1.1 Uranspaltung

Uran besteht zu 99.3% aus dem Isotop U„, (238 Nukleonen, wovon 92 Protonen und 146 Neutronen) und zu ca. 0.7% aus U„, (mit nur 143 Neutronen), ferner aus geringen Mengen U211.Nur U23,lässt sich spalten und zwar von langsamen (thermischen) Neutronen. Die entsprechende Reaktion wird etwas vereinfacht in Abb. 5.29 beschrieben: bei der Spaltung entstehen zwei mittelschwere Kerne (z.B. Ba,;, + Kr„),

+ 20

......................................... L

i thermisch Moderator ........................ :

-

schnell :: ..............................................

Abb. 5.29. Uranspaltung: n Neutronen, S Spaltprodukte

Tcal

300

5 Thermische Kraftwerke, Wärmepumpe

die eine höhere Bindungsenergie aufweisen und somit stabil sind, und es werden rund 200 MeV freigesetzt. Die Spaltung von 1 kg U„, ergibt so die Energiemenge

Tcal 20 kg

-

G Wh 24 kg

=

MWd 1000 kg

(MWd = Megawatttage). Aus der Spaltung des U,,,-Atoms werden außerdem durchschnittlich 2-3 Neutronen frei, die eine hohe kinetische Energie aufweisen (schnelle Neutronen). Teils werden diese Neutronen absorbiert und teils stehen sie für weitere Spaltungen als sog. Spaltneutronen zur Verfügung. Bleibt durchschnittlich mehr als I Spaltneutron übrig, nimmt die Anzahl Spaltungen lawinenartig zu, d.h. es entsteht eine Kettenreaktion mit exponentiell ansteigender Wärmeleistung. Mit weniger als durchschnittlich 1 Spaltneutron Baut die Reaktion ab. Bei der kontrollierten Reaktion wird dafür gesorgt, dass gerade 1 Spaltneutron die Reaktion aufrechterhält (Abb. 5.29). Der Reaktor ist dann kritisch, die Leistung ist konstant. Damit das Spaltneutron jedoch die Reaktion auli-echterhaltenkann, müssen weitere Bedingungen erfüllt sein. Schnelle Neutronen mit kinetischen Energien im Bereich leV bis MeV führen viel weniger oft zu einer Spaltung von als thermische Neutronen mit Energien unter 0.1 eV. Außerdem werden schnelle Neutronen leichter von U„, -Atomen eingefangen. Dies hat zur Folge, dass z.B. in Natururan, das viel U„, und wenig U„, enthält, die Reaktion sofort abbricht. Die Reaktion kann nur dann aufrechterhalten werden, wenn mit Hilfe eines Moderators die Geschwindigkeit der Neutronen auf thermische Werte herabgesetzt wird. Stoffe, die Neutronen stark bremsen ohne sie einzufangen, sind H 2 0 und am besten D,O (schweres Wasser) und Graphit. Nähcrc lnformationcn zur Uranspaltung sind in Anhang 11.6 zu finden. Diese physikalischen Gegebenheiten führen zum prinzipiellen Aufbau des thermischen Reaktors gemäß Abb. 5.30. Die eine Uranverbindung (UO,) enthaltenden Brennstoffstabe sind vom Moderator umgeben. Mit den Kontrollstaben, die aus einem neutronenabsorbierenden Material (z.B. Bor) bestehen und mehr oder weniger tief in den Reaktor gesenkt werden können, kann der kritische Zustand der Reaktion gewährleistet, d.h. die Leistung des Reaktors reguliert werden. Als Kuhlmittel für den Wegtransport der entstehenden Wärme werden Flüssigkeiten oder Gase verwendet (H@, D, 0 , COS,He).

Kontrollstäbe Brennstoffstäbe Moderator Kühlmittel

-

-

Reaktorgefäß

Abb. 5.30. Prinzipieller Aufbau des thcrrnischen Reaktors

5.6 Kernkraftwerke

301

5.6.1.2 Konversionsvorgänge Bei jeder Spaltreaktion von (/„,-Kernen werden durchschnittlich etwas mehr als 2 Neutronen erzeugt. Eins davon wird für die Aufiechterhaltung der Reaktion benötigt. Die übrigen Neutronen werden von Moderator, Kontrollstäben und Brennstoff (ohne Spaltung) absorbiert oder entweichen aus dem Reaktorkern. Die von C/„, absorbierten Neutronen können in wenigen Fällen zur schnellen Spaltung von U2;, fuhren (das also in geringem Masse ebenfalls zur Energie und Neutronenproduktion beiträgt), werden aber in erster Linie angelagert. Das entstandene U23,wandelt sich, wie von Abb. 5.3 1 veranschaulicht, mit einer Halbwertszeit von 23 min durch Elektronenemission zu Neptunium 239 (Ordnungszahl 93). Dieses instabile Element zerfallt mit einer Halbwertszeit von 2.3 Tagen zum langlebigen Isotop Plutonium Pu,,,, das mit ähnlichen Eigenschaften wie U,;, spaltbar ist (s. Anhang 11.5) und zur Energieproduktion beiträgt. Beide Reaktionen entsprechen dem Schema n + p + e (Beta-Strahlung). Als Konversionsjaktor wird das Verhältnis von neugebildeten Pu„,-Kernen zu verbrauchten U,,,-Kernen bezeichnet. Je nach Reaktortyp kann er verschiedene Werte annehmen, ist jedoch in thermischen Reaktoren (Reaktoren, in welchen die Spaltung durch thermische Neutronen erfolgt) immer klein. Durch die Konversionsvorgänge wird die Ausnutzung des Natururans nur leicht verbessert. Die Konversion von UZ3,kann auch von Pu730statt von U,;, ausgelöst werden. Dann wird ausgehend von Pu, aus U„, neues P u gebildet. Werden Konversionsfaktoren >1 erreicht, wird nicht mehr von Konversion gesprochen, sondern von Bruten und von Brutjkktor (s. Brutreaktor, Abschn. 5.6.2.4).

................................ ~..fhe!!?!!?.?!?, .... Moderator ;(.........Sehn_......

-3e-

.................................

f

-0 ................................

i........................ thermisch i Moderator :

Abb. 5.31. Konversionsreaktion

&.........~chne!',,,,,,.I

302

5 'I'herniische Kraftwerke. Wärmepumpe

5.6.2 Reaktorkonzepte Die bis heute gebauten Reaktoren werden nach dem verwendeten Moderator klassifiziert: - Leichtwasserreaktoren, - Schwerwasserreaktoren, - Graphitmoderierte Reaktoren, - Schnelle Brutreaktoren (ohne Moderator). Der weitaus größte Teil der weltweit eingesetzten Reaktoren sind Leichtwasserreaktoren, die eine große energiewirtschaftliche Bedeutung erlangt haben. Die einzelnen Reaktortypen werden im Folgenden summarisch beschrieben, für Näheres s. die einschlägige umfangreiche Fachliteratur.

5.6.2.1 Leichtwasserreaktoren (P WR, B WR, EPR) Normales (leichtes) Wasser ist zwar ein guter, jedoch kein hervorragender Moderator. Mit Natururan als Brennstoff (enthält nur 0.7% ) kann deshalb der kritische Zustand der Reaktion nicht erreicht werden. Dazu wird angereichertes Uran benötigt mit einem Anreicherungsgrad(Gehalt an von meist 3-3.5%. Zur Anreicherung wird das als UO, verfügbare Natururan zunächst in das gasförmige Uranhexafluorid UF, umgewandelt. Dieses wird dann durch Zentrifugation, bei Ausnutzung des Gewichtsunterschieds zwischen U,;, und U„, , in angereicherte und abgereicherte Komponente getrennt. Ein großer Vorteil der Leichtwasserreaktoren ist, dass Moderator und Kühlmittel identisch sind, nämlich H#. Der Aufbau wird damit sehr einfach, und das Problem des Wärmetransports lässt sich verhältnismäßig leicht lösen. Die erreichbare Dampfeintrittstemperatur der Turbinen ist für alle Leichtwasserreaktoren deutlich kleiner als bei fossil gefeuerten Anlagen. Dementsprechend liegt der erreichbare Kraftwerkswirkungsgrad in der Regel tiefer, Ca. bei 33%.

Abb. 5.32a. Prinzip des Druckwasserrcaktors und typische Dampf- und Druckwasserdatcn 1 Reaktor, 2 Dampfturbine, 3 Generator, 4 Kondensator, 5 Kondensatpumpe, 6 Dampferzeuger, 7 Kühlmittelpumpe

5.6 Kernkraftwerke

303

Leichtwasserreaktoren werden als Druckwasser- (PWR, Pressure Water Reactor)) und Siedewasserreaktoren (BWR, Boiling Water Reactor) gebaut. Beim Druckwasserreaktor wird die Wärme durch das unter Druck stehende Primär-Kühlwasser zu einem separaten Dampferzeuger geführt. Den prinzipiellen, etwas vereinfachten Aufbau des Kraftwerks mit typischen Dampfdaten zeigt die Abb. 5.32a. Der detaillierte Aufbau eines Druckwasserreaktor-Kraftwerks ist in Abb. 5.32b dargestellt.

Abb. 5.32b. Druckwasserreaktor-Kraftwerk:1 Reaktorgebäude, 2 Sicherheitsbehälter (Stahl-

hülle), 3 Abluftkamin, 4 Reaktordruckgefäß, 5 Brennelemente, 6 Steuerstäbe, 7 Hauptkühlmittelpumpe, 8 Dampferzeuger, 9 Druckhalter, 10 Flutbehälter, I I Brennelement-Lagerbecken, 12 Brennelement-Lademaschine, 13 Frischdampfleitung, 14 Sicherheitsventile, 15 Maschinenhaus, 16 Schnellschluss- und Regelventile, 17 Hochdruckturbine, 18 Wasserabscheider-Zwischenüberhitzer, 19 Dampfleitung, 20 Dampfumleitungssystem, 21 Niederdruckturbine, 22 Generator, 23 Erreger, 24 Transformator, 25 Speisewasserbehälter, 26 Vorwärmer, 27 Speisewasserleitung, 28 Kondensator, 29 Kühlwasserleitung (Kühlkreislauf), 30 Zwischenlager für radioaktive Abfalle (unterirdisch) [5.16]

304

5 Thermische Kraftwerke, Wärmepumpe

Der Druckwasserreaktor erlebt gegenwärtig einen Aufschwung als EPR (European Pressurised Reactor, französisch-deutsch finanziert). Ein erster Reaktor dieses Typs ist in Finnland im Bau (Leistung 1600 MW) ein zweiter in Frankreich (Abb. 5.32~). Diese Reaktoren der sogenannten 3. Generation haben deutlich bessere Eigenschaften bezüglich Sicherheit. Auch der Wirkungsgrad soll besser sein und bei 36% liegen.

Abb. 5.32~. Schema des im Bau befindlichen EPR-Kraftwerks in Finnland (Areva); I Reaktor, 2 Reaktorkühlpumpen, 3 Dampfkessel, 4 Zwischenüberhitzer, 5 Turbine, 6 Generator, 7 Schaltanlage, 8 Kondensator, 9 Wasservorwärmer, 10 Kondensatpumpe, I I Kühlwasserkreislauf, 12 Kühlwasserpumpen, 13 Kühlwassersystem, 14 Kühlturm

Beim Siedewasserreaktor geschieht die Dampfproduktion im Reaktor selbst. Der Aufbau des Kraftwerks und typische Dampfdaten sind in Abb 5.33 dargestellt.

Abb. 5.33. Prinzip des Siedewasserreaktors und typische Dampfdaten I Reaktor, 2 Dampfturbine, 3 Generator, 4 Kondensator, 5 Kondensatpumpe

5.6 Kernkraftwerke

305

5.6.2.2 Schwerwasserreaktor (S WR)

Im Schwerwasserreaktor wird D 2 0(Schwerwasser) statt normales Wasser für Moderation und Kühlung verwendet. Die Brennelemente befinden sich in Druckröhren, die einzeln gekühlt werden. Das aufgewärmte Schwerwasser transportiert die Wärme zum Dampferzeuger (wie im Druckwasserreaktor Abb. 5.32). Da schweres Wasser ein ausgezeichneter Moderator ist, kann als Brennstoff Natururun verwendet werden, was den Hauptvorteil dieses Reaktortyps ausmacht (keine Anreicherung notwendig). SWR wurden in Kanada zur industriellen Reife entwickelt und werden dort und in Indien eingesetzt. Der erreichbare Kraftwerkswirkungsgrad liegt bei 32%. 5.6.2.3 Graphitmoderierte Reaktoren

Verschiedene Typen graphitmoderierter Reaktoren sind im Laufe der Zeit entwickelt und eingesetzt worden. Im RBMK-Reaktor, der in der ehemaligen UdSSR entwickelt wurde und in den Nachfolgeländern noch betrieben wird, befinden sich die Brennelementen ebenfalls in Druckröhren, in denen H,O fließt (Kühlmittel). Die Druckröhren sind in einem Graphitblock untergebracht. Als Moderator wirken H 2 0 und vor allem Graphit. Die erreichbaren Dampftemperaturen sind vergleichbar mit denjenigen der Leicht- und Schwerwasserreaktoren. Nach dem Unfall in Tschernobyl ist der Ausbau dieser Reaktorlinie eingestellt worden. Im AGR-Reaktor (advanced gas cooled reactor), der in Großbritannien entwickelt und weiter eingesetzt wird, befinden sich die Brennelemente mit Stahlhülle direkt im Graphit. Gekühlt wird mit CO,. Die eingesetzten Werkstoffe erlauben es, Temperaturen von 550" zu erreichen und somit Dampf$rozesse mit Überhitzung zu realisieren. Damit steigt der Kraftwerkswirkungsgrad auf rund 40%. Da Graphit ein besserer Moderator ist als Leichtwasser, werden in beiden Reaktortypen (RBMK und AGR) Brenstoffelemente mit einer etwas kleineren Anreicherung von Ca. 2% eingesetzt. Im Hochtemperaturreaktor (HTR) werden als Brennstoffhüllmaterial Graphit und Silizium verwendet und als Kühlmittel Helium eingesetzt (Kernforschungsanlage Jülich, Deutschland, 70er-Jahre). Damit lassen sich Kühlmitteltemperaturen von 700-950°C erreichen, die den Betrieb sowohl von Dampfkreisläufen mit Überhitzung als auch von Gasturbinen bzw. Kombianlagen ermöglichen. Dementsprechend können die Kraftwerkswirkungsgrade 40-48% erreichen [5. 1 I]. Der Brennstoff muss eine relativ hohe Anreicherung von > 8% aufweisen. Trotz der großen Vorteile dieser Reaktorlinie, auch was die passive Sicherheit (inhärente Betriebssicherheit) betrifft, ist die Entwicklung zur industriellen Reife i n Deutschland zur Zeit blockiert. Die Entwicklung dieser Reaktorlinie, welche zu den Reaktoren der sogenannten 4. Generation gehört, wird vor allem in China, Japan und Südafrika weiterverfolgt. Sie erlaubt auch Thorium (auf der Erde etwa drei mal häufiger als Uran vorhanden) als Brennstoff m verwenden.

306

5 Thermische Kraftwerke, Wärmepumpe

5.6.2.4 Schnelle Brutreaktoren Beim schnellen Brutreaktor steht der von Abb. 5.3 1 beschriebene Konversionsprozess mit einem Konversionsfaktor > 1 (Brutfaktor) im Mittelpunkt. Er wird allerdings nicht von thermischen, sondern von schnellen Neutronen ausgelöst, weshalb ein Moderator nicht notwendig ist. Da schnelle Neutronen jedoch weniger Spaltneutronen als thermische produzieren, ist eine relativ hohe Anreicherung notwendig. Plutonium verhält sich in dieser Hinsicht wesentlich besser als Uran, weshalb der Reaktorkern typischerweise aus einer inneren Spaltzone mit 80% Natururan und 20% Pu sowie einer äußeren Brutzone mit U„, besteht. Als Kühlmittel wird flüssiges Natrium eingesetzt auf Grund seiner nichtmoderierenden Eigenschaften. Das Interesse der Brutreaktoren liegt in der weit besseren Ausnutzung des Urans, die in thermischen Reaktoren bei Ca. 1% liegt, während in Brutreaktoren auf das 30 bis 50-fache gesteigert werden kann. Sie könnte deshalb das Problem der begrenzten Uranreserven lösen. Die Entwicklung stagniert als Folge der mit dieser Reaktorlinie verbundenen Risiken und damit fehlenden Akzeptanz (s. dazu auch Abschn. 5.6.5).

5.6.3 Dampfkreisprozess und Regelung Das Kernkraftwerk unterscheidet sich vom normalen fossilen Dampfkraftwerk lediglich dadurch, dass der Reaktor an Stelle der Feuerung bzw. des Kessels tritt. Der Dampfkreisprozess von Leichtwasserreaktoren ist gekennzeichnet durch schwache Überhitzung und Zwischenüberhitzung auf Temperaturen, die nur wenig die Verdampfungstemperatur überschreiten. Dementsprechend ist, wie bereits erwähnt, der Wirkungsgrad kleiner als jener fossilgefeuerter Anlagen. Die Zwischenüberhitzung ist in erster Linie dazu da, die Dampfnässe in den Turbinen zu verhindern. Kernkraftwerke werden als Grundlastkraftwerke eingesetzt, fahren also mit konstanter Leistung und nehmen an der Frequenz-Leistungsregelung des Netzes (s. Kap. 11) nicht Teil. Grundsätzlich gilt für die Dynamik des Kernkraftwerks das Blockschaltbild Abb. 5.28, wobei an Stelle der Kesselregelung die Reaktorregelung tritt. Für Näheres über Reaktordynamik und Reaktorregelung s. z.B. [5.14], [5.10].

5.6.4 Reaktorsicherheit und Brennstoffkreislauf Die bei der Kernspaltung entstehende Strahlung und die radioaktiven Spaltprodukte müssen von der Umwelt ferngehalten werden, wofür entsprechende Sicherheits- und Entsorgungskonzepte aufzustellen sind. Dies betrifft das Kernkraftwerk selber und alle am Brennstoffkreislauf beteiligten Anlagen [5.13]. 5.6.4.1 Reaktorsicherheit Die Primäranlage, welche Reaktor und primären Kühlkreislauf umfasst, wird aus Sicherheitsgründen in einem separaten, oft kugelformigen Gebäude untergebracht. Die im Reaktor entstehenden Spaltprodukte werden durch ein gestaffeltes Barrierensystem von der Umwelt ferngehalten. Eine erste Barriere bilden die druckfesten und gasdichten Hüllen der Brennelemente. Eine zweite Barriere stellt die ebenfalls druckfeste Stahlhülle des Reaktors bzw. Primärsystems dar. Schließlich befinden sich

5.6 Kernkrattwerke

307

die Reaktoranlagen im bereits erwähnten aus Stahl und Beton gefertigten Reaktorschutzgebäude, welches die dritte Barriere bildet. Durch dieses dreifache Barrierensystem soll der Schutz gegen innere und äußere Einwirkungen gewährleistet werden. Als äußere Einwirkungen sind Flugzeugabstürze und Erdbeben zu erwähnen. Als innere Einwirkung ist neben im Betrieb entstehender radioaktiver Strahlung, die absorbiert werden muss, auch der bei Störfallen auftretende Druckanstieg bzw. Wärmestau zu erwähnen, der bei Versagen der mehrfachen Regel- und Abschalteinrichtungen schlimmstenfalls bis zur Kernschmelze führen kann. Im Normalbetrieb oder auch bei Störungen wird der Austritt von kontaminierter Luft bzw. Wasser durch entsprechende Filteranlagen verhindert. 5.6.4.2 Brennstoffkreislauf und Entsorgung

In Abb. 5.34a sind die mit der Versorgung und Entsorgung von Brennstoff verbundenen Arbeitsschritte schematisch dargestellt. Die Versorgung umfasst den Abbau von Uranerz, die Natururangewinnung und schließlich die für den Betrieb von Leichtwasserreaktoren notwendige Urananreicherung mit anschl. Brennstoffherstellung. Nach der Nutzung im KKW werden die abgebrannten Brennelemente zunächst für ca. 1 Jahr im Reaktorgebäude in Wasser zwischengelagert und gekühlt, bis die Nachwärme abgeklungen ist, und anschl. der Wiederaufbereitung zugeführt oder für die Endlagerung vorbereitet Ist keine Wiederaufbereitung vorgesehen, werden die abgebrannten Brennelemente zentral für längere Zeit zwischengelagert und schließlich konditioniert. Die Konditionierung umfasst die Verglasung und den Einschluss der Abfalle in Stahlbehälter. Als Endlagerstätten sind dichte und für Gase und Flüssigkeiten undurchlässige Kavernen vorgesehen (z.B. Salzstöcke). Bei der Wiederautbereitung wird wiederverwendbares Material, wie Uran und Plutonium getrennt und wieder der Anreicherung bzw. Brennstoffherstellung zugeführt. Nichtverwendbare Abfalle werden konditioniert und endgelagert. Schwach- und mittelaktive Abfalle aus dem Kraftwerkbetrieb werden zusammen mit jenen aus Medizin, Forschung und Industrie ebenfalls konditioniert (mit anderen Verfahren) und schließlich in dazu geeigneten Endlagern untergebracht. Die Wiederaufbereitung hat den Vorteil, dass weniger Natururan benötigt wird, und erlaubt die Verwertung des Plutoniums, was die Menge der hochradioaktiven Abfalle (ca. um den Faktor 5) reduziert. Andererseits erhöht sich aber die Menge der schwach- und mittelaktiven Abfalle durch den Wiederaufbereitungsvorgangerheblich. Da die technische Zivilisation radioaktive Abfalle produziert (nicht nur in Kernkraftwerken), ist es imperativ, diese sicher zu entsorgen. Praktische Probleme ergeben sich in demokratischen, föderalistisch organisierten Ländern durch die zunächst meist fehlende regionale Akzeptanz der Endlager, die durch mühsame Aufklärungsarbeit oder Zentralisierung der Kompetenzen auf politischem Wege erreicht werden muss.

5 Thermische Kraftwerke, Wärmepumpe

308

Weiterhin kontrovers und Thema der technischen und politischen Diskussion ist ferner, ob die Endlagerung der Abfalle nachhaltig sicher und definitiv oder langfristig kontrolliert sein soll, wobei dann die Überwachung und der Unterhalt der Lagerstätten über lange Zeit sicherzustellen und jeweils der neuesten Technologie anzupassen wären.

T Uranerzabbau

Q Natururangewinnung

VERSORGUNG mtt Kernbrennstoff

Plutonium neue Brennelemente

Strom- und Warmeproduktion

wiederverwendbarer Brennstott

II

abgebrannte Brennelemente ZwischenlageNng

entweder / oder

L

Wiederaufarbeitung und

d

hochradioaklive Abfall-Losung

I Abfallverfestigung

verfestigte hochradioakbve Abfälle

C I 5 Endlagemng

Option mit Wiederaufarbeitung

abgeb;annte Brennelemente

ENTSORGUNG des verbrauchten Kernbrennstoffs

+----I

Endlagemng

Opbon ohne Wiederautarbeitung

Abb. 5.34a. Brennstoffkreislauf von Kernkraftwerken mit Leichtwasserreaktoren und damit verbundene Arbeitsschritte. Die Entsorgungswegc der schwach- und mittelaktiven Abfallc sind nicht eingezeichnet [5.13]

5.6 Kernkraftwerke

309

5.6.5 Risiken der Kernkraft Wie auch andere Prozesse unserer technischen Zivilisation, ist die Kernkraft mit Risiken verbunden. Diese hängen vorn Entwicklungsstarid einer Technik ab; deren Bewertung wird letztlich entscheiden, ob die Kernkraft in Zukunft weiterhin einen wichtigen Platz in der Energieversorgung einnehmen wird oder nicht. Zu erwähnen ist in diesem Zusammenhang: setzt sich die Brutreaktortechnik nicht durch, wird die Kernenergie aus Spaltstoffen auf Grund beschränkter Uran- und Thoriumreserven nur bleiben und sehr wahrscheinlich höchstens im eine (zwar wichtige) Übergang~ener~ie 21. Jh. eine wesentliche Rolle spielen. Vier Faktoren spielen in der Risikodiskussion die Hauptrolle: -

-

Die Sicherheit beim Betrieb der Kernkraftwerke. Die mögliche Umweltkontamination durch den Brennstoffkreislauf. Die sichere Lagerung der radioaktiven Abfalle. Die Frage der möglichen Verwendung von Spaltmaterial, insbesondere Plutonium zur Waffenherstellung.

5.6.5.1 Sicherheit des Kraftwerks Die bei Planung und Bau getroffenen Sicherheitsmaßnahmen sind im Abschn. 5.6.4 dargelegt worden (s. auch [5.17]). Moderne Kernkraftwerke, die gemäß westlichem Standard ausgeführt sind, bieten größte Sicherheit, wie der jahrelange Betrieb der über 430 weltweit installierten und Energie produzierenden Kraftwerke beweist mit einer Erfahrung von mehr als 10'000 Mannjahren. Der zusätzliche Radioaktivitätspegel bei Normalbetrieb in der Umgebung eines Kernkraftwerks liegt weit unterhalb jenem der natürlichen Radioaktivität. Im Fall eines GAUS (größter anzunehmender Unfall) sind die Folgen für Mensch und Umwelt nicht spürbar, wenn die Schutzeinrichtungen korrekt funktionieren, da diese dafür vorgesehen sind, Auswirkungen eines solchen Unfalls nach Außen zu vermeiden. Dazu gehört für einen nach westlichem Standard gebauten Reaktor auch das Schmelzen des Reaktorkerns (einziger Unfall diese Art ist Harrisburg 1979, ohne Konsequenzen für die Umwelt). Tritt eine Kontamination der Umwelt auf (wie in Tschernobyl 1986) wird von einem Super-GAU gesprochen. Der Unfall in Tschernobyl ist spezifisch für die dort verwendete Bauart und in Leichtwasserreaktoren nicht möglich, außerdem verursacht durch unzulängliche Sicherheitsvorkehrungen. Im Falle eines Super-GAUS wie in Tschernobyl tritt ein großer Schaden für die Umwelt und die Menschen auf, den es unter allen Umständen zu vermeiden gilt. In Reaktoren hohen Standards ist ein solcher Unfall äußerst unwahrscheinlich, dessen Wahrscheinlichkeit kann jedoch nicht auf Null herabgesetzt werden. Ob ein solcher Schaden bzw. Risiko zumutbar (und versicherbar) ist oder nicht, ist Gegenstand der gesellschaftspolitischen Diskussion (Frage der Beurteilung eines mit sehr kleiner Wahrscheinlichkeit eintretenden Restrisikos mit großen Folgen). Der ökologische Nutzen der Kernenergie angesichts der Klimaproblematik muss dabei berücksichtigt werden und der mögliche Schaden in Relation zu jenem gesetzt werden, der durch andere technischen Einrichtungen (z.B. Straßen- und Flugverkehr, Chemie) jährlich

3 10

5 Thermische Kraftwerke, Wärmepumpe

verursacht, jedoch toleriert wird. Über die Gefahren der radioaktiven Kontamination s. Abschn. 5.6.6. Die Kerntechnik verzeichnet außerdem Fortschritte, wobei die (internationalen) Anstrengungen einerseits in Richtung von Leichtwasserreaktoren mit noch größeren Sicherheitsmargen gehen (EPR), mit dem Ziel, die Wahrscheinlichkeit eines GAUS oder Super-GAUS noch mehr zu verringern [5.1 I], aber auch in Richtung eines sowohl bzgl. der Kernreaktion wie auch der Wärmeabfuhr inhärent sicheren HTRReaktors (China, Japan, Südafrika). 5.6.5.2 Brennstoffkreislauf Was den BrennstofJkreislauf betrifft (Abschn. 5.6.4), ist in der Vergangenheit besonders in Uranminen und bei der Wiederaufbereitung gesündigt worden. Radioaktive Kontamination kann durch hohe technische aber auch ethische Standards, welche die Gebote sozialer und ökologischer Nachhaltigkeit respektieren, durch sorgfältige und verantwortungsbewusste Schutzmaßnahmen bei Verarbeitung und Transport sowie internationale Zusammenarbeit vermieden werden. Das Problem ist nicht schwerwiegender als jenes anderer Branchen (wie z.B. der Chemie), wo ebenfalls mit gefahrlichen Stoffen gearbeitet wird. 5.6.5.3 Abfallbeseitigung Den Erläuterungen im Abschn. 5.6.4 sei hinzugefügt, dass die Endlagerung schwachund mittelaktiver Abfalle von jener hochradioaktiver Abfalle zu unterscheiden ist. Das erste Problem betrifft nicht nur die Kernreaktoren und muss somit unabhängig davon, ob die Elektrizität mit Kernkraft produziert wird oder nicht, bewältigt werden. Die technischen Lösungen liegen vor, und die Politik ist daran, die Fragen der Umsetzung zu Iösen (s. Abb. 5.34b). Was die hochradioaktiven Abfalle betrifft, die spezifisch sind für die Kernkraftindustrie, liegen ebenfalls technische Lösungen vor, die es zu erproben gilt. Das Problem ist Gegenstand technischer und politischer Auseinandersetzungen und insofern noch nicht gelöst. Die Mengen an hochradioaktiven Abfallen, die es zu entsorgen gilt, sind jedoch relativ klein (s. dazu. die Berechnungen in Abschn. 3.4) und nicht vergleichbar mit dem enormen Anfall an klimaschädigendem CO„ der durch die Verbrennung fossiler Brenn- und 'l'reibstoffe entsteht. Letzteres Problem dürfte weit schwieriger zu Iösen sein (s. Abschn. 1.7). 5.6.5.4 Kernwaffenherstellung Zur Kernwaffenherstellung wird hochangereichertes Uran benötigt. Es wird beturchtet, dass das in den abgebrannten Brennstoffstäben in kleinen Mengen vorhandene Plutonium dazu missbraucht werden könnte. Dies kann nicht ganz ausgeschlossen werden, obwohl die Entsorgung strengen Kontrollen unterworfen ist und die Rückgewinnung kein einfaches technisches Problem darstellt. Andererseits war in der Vergangenheit die Herstellung von Kernwaffen unabhängig von der friedlichen Nutzung der Atomenergie möglich, und wird auch in Zukunft allen, die sich Zugang zu hochangereichertem Uran oder Plutonium aus Kernwaffenarsenalen verschafft

5.6 Kernkraftwerke

3 11

Gestion des dechets nucleaires

Slackape mle

AC

Exp oilation C\

AssemMages combuilibles u d s

n

Stockage ,nleimediaire

ur;>"# C i , y i i i lii..aii

Abb. 5.3413. Entsorgung und Lagerung nuklearer Abfille hoher, mittlerer und

schwacher Aktivität (Quelle: Nagra) haben (USA, ehemalige UdSSR und weitere Länder, die über Kernwaffen verfügen) oder in der Lage sind, eine Anreicherungsanlage zu betreiben, grundsätzlich möglich sein. Die Gefahren, die davon ausgehen, sind real und werden durch politische Maßnahmen und entsprechende Überwachung verhindert (Non-Proliferation-Abkommen). Die von der friedlichen Nutzung der Kernenergie in Anlagen mit schwach angereichertem Uran ausgehenden Gefahren sind vergleichsweise gering (etwas bedenklicher wären in dieser Hinsicht schnelle Brüter).

5.6.6 Wirkung der Radioaktivität Wir beschränken uns hier auf einige summarische Angaben. Zur Vertiefung s. [5.17], [5,18]. Radioaktivität wird durch den Zerfall von instabilen Isotopen hervorgerufen (s. dazu auch Anhang 11.3). Diese emittieren vor allem a-, P-, und y-Strahlen. Die Halbwertszeit der Isotopen kann sehr unterschiedlich sein. Beispiele: ~ 1 3 1

- -> -->

Ra226 - - >

PU 239 - - > u~~~- - >

8 Tage 88 Jahre 1620 Jahre 24 V00 Jahre 4.5.109 Jahre

3 12

5 'Thermische Kraftwerke, Wärmepumpe

Die Strahlen haben eine unterschiedliche Durchdringungskrafi:

acStrahlen: Sie dringen nicht tief ein, wenige cm Lufi, die Bekleidung oder ein Blatt Papier genügt, um sie aufzuhalten. Treffen sie auf unbekleidete Körperteile, ist nur die Haut betroffen. lhre biologische Wirksamkeit ist allerdings auf Grund der relativ hohen Energie Ca. 20mal stärker als jene der P-Strahlen. lhre Energie liegt meist bei 5 MeV. ßstraltlen: Die Energie der Elektronen hat einen häufigsten Wert von 0.5 MeV, kann jedoch auch max. 1.7 MeV erreichen. Um ihre Intensität auf 37% zu reduzieren (definiert die Reichweite oder Eindringtiefe, exponentieller Verlauf), sind einige cm Wasser oder einige mm Aluminium notwendig. Im Körpergewebe dringt die Strahlung im erwähnten Energiebereich ca. 2- 10 mm tief ein [5.17]. y-Straltlerz: Diese hochenergetische elektromagnetische Strahlung (Frequenzbereich 3. 10'8-6. 10'' HZ)hat eine Energie von 0.0 1-20 MeV. lhre Reichweite in cm (Reduktion auf 37%) wird in Tabelle 5.1 umschrieben. Sie zeigt, die Gefährlichkeit der Gamma-Strahlung, die selbst durch einige cm dicke Bleischichten nicht vollständig abgeschirmt werden kann. Tabelle 5.1. Reichweite von Gamma-Strahlung [cm] Wasser

Aluminium

Beton

Blei

O I MeV

63

2.3

2 6

0,O 18

I0 MeV

45.5

15.5

18.6

1.77

5.6.6.1 Aktivität Als Aktivität einer radioaktiven Substanz wird die Anzahl Zerfallvorgängels bezeichnet. Einheiten sind das Becquerel (Bq) und (alt) das Curie (Ci):

1 Ci entspricht der Aktivität von 1 g Radium. Radioaktivität ist in der Natur auf Grund der in der Erdkruste enthaltenen radioaktiven Isotopen, aber auch als Folge der aus dem Kosmos eintreffenden Strahlung überall anwesend. Es wird von naturlicher Radioaktivitat gesprochen. Alle Lebewesen sind radioaktiv; der Mensch weist durch Nahrungsaufnahme, Trinkwasser und Atemluft eine durchschnittliche Radioaktivität von 130 Bqlkg auf (5.171. Baumaterialien, wie Beton, Ziegel, Granit können mehrere 100 Bqlkg aufweisen. Holz hat demgegenüber i.d.R. einen sehr niedrigen Pegel. Die Lufi weist vor allem wegen des aus dem Erdinnern entweichenden radioaktiven Edelgases Radon eine Aktivität von ca. 14 Bq/m3 auf, in Wohnungen erhöht sich dieser Wert wegen des radioaktiven Mauerwerks im Mittel auf 50 Bqlm' .

5.6 Kernkraftwerke

3 13

5.6.6.2 Strahlendosis Die Energie der terrestrischen und kosmischen Strahlung kann gemessen werden. Die pro Masseneinheit absorbierte Strahlungsenergie wird als Energiedosis D bezeichnet. Einheit ist das Gray (Gy) oder (alt) das Rad (rad):

J l G y = l - , kg

(1 Gy

=

100 vad) .

(5.34)

5.6.6.3 Äquivalentdosis Die biologisch wirksame Strahlendosis wird als Aquivalentdosis bezeichnet. Sie ergibt sich als Produkt von Energiedosis und Qualitätsfaktor. Der Qualitätsfaktor Q kennzeichnet die biologische Wirksamkeit der Strahlenart. Er beträgt Q = 1 für Betaund Gamma-Strahlung, Q = I0 für Neutronenstrahlung und Q = 20 für Alpha-Strahlung. Neutronen- und Alpha-Strahlung haben wesentlich schädigendere Wirkungen auf das Zellengewebe. Einheit der Äquivalentdosis ist das Sievert (Sv) oder (alt) das Rem (rem)

D [Gy] - - >

D.Q [SV],

(lSv=lOOm).

(5.35)

Die biologische Wirkung besteht in der Molekülzerstörung, deren Bruchteile chemisch und biochemisch anders reagieren und die Funktionsfähigkeit der betroffenen Zelle beeinträchtigen können. Lebewesen besitzen zwar wirksame Reparaturmechanismen (da das Leben im radioaktiven Milieu entstanden ist), doch reichen diese nicht immer aus, womit sich genetische oder somatische Schäden einstellen können, letztere unmittelbar (Frühschäden) oder erst nach langer Zeit (Spätschäden). Aus den Erfahrungen mit der Atombombe sind diesbezüglich viele Einsichten gewonnen worden. Bei einmaliger Bestrahlung wird die Schwellendosis, ab welcher beim Menschen mit Frühschäden zu rechnen ist, mit 200-300 mSv angegeben. Embryonalschäden können bereits ab einmaligen Bestrahlungen von 100-200 mSv aufh-eten. Eine Dosis von 3-5 Sv ist mit 50% Wahrscheinlichkeit letal. Für Spätschäden existiert kein Schwellenwert, sondern es steigt mit zunehmender Strahlungsmenge lediglich die Wahrscheinlichkeit zu erkranken (z.B. Risiko einer Krebserkrankung oder eines genetischen Schadens). Wichtig ist hier die kumulierte Belastung in mSv/a, die mit der natürlichen zu vergleichen ist. Diese weist jedoch, wie nachfolgend dargelegt, eine große Schwankungsbreite auf.

5.6.6.4 Natürliche Radioaktivität Setzt sich zusammen aus kosmischer Strahlung und Erdstrahlung. Die kosmische Strahlung ist zeitlich konstant (außer bei großen Sonneneruptionen) und hängt stark von der Höhenlage ab. Die Jahresbelastung ist

3 14

5 Thermische Krafiwerke, Wärmepumpe

0 m 400 m 800 m. 2000 m. 4000-5000 m. 8000-9000 m. 12000 m.

Ü.M.: Ü.M.: Ü.M.: Ü.M.: Ü.M.: Ü.M. : Ü.M.:

0.30 mSvla 0.36 mSvla 0.45 mSvla 0.80 mSvla 2 mSvla (MontBlanc - F 0.00023 mSvlh) 15 mSvla (Everest - > 0.0017 mSvlh) 40 mSvla (Flugzeug - F 0.0045 mSvlh) .

(5.36)

Die Erdstrahlung ist von Region zu Region je nach Geologie und Bodenbeschaffenheit verschieden. Sie ist relativ stark bei Granitfelsen (Alpen) und schwach bei Sedimentgesteinen (Jura, Mittelland). In der Schweiz schwankt sie zwischen 0.4 und 1.5 mSv/a, im Mittel Ca. 1.2 mSv1a. Es gibt Gegenden in China, Brasilien und dem indischen Subkontinent, wo 20 mSv1a und noch wesentlich mehr üblich sind, wobei bis jetzt keine signifikanten Abweichungen bezüglich Krebs, Missbildungen, Fruchtbarkeit usw. festgestellt wurden, was auf die Wirksamkeit der Reparaturmechanismen hindeutet. Beispiele für die natürliche Belastung in der Schweiz finden sich in Tabelle 5.2. Tabelle 5.2. Beispiele fur die natürlichc radioaktive Belastung in der Schweiz kosmisch

terrestrisch

Total (mSv/a)

Biel

0.37

0.39

0,76

Genf

0,35

0.89

1,24

St. Moritz

0,74

1,1

1,84

Der natürlichen muss die Belastung durch Nahrung und Wohnen hinzugefugt werden. In Deutschland wird sie als etwa doppelt so groß wie die natürliche, die Ca. 0.8 mSv/a beträgt, eingeschätzt, was zu einer Gesamtbelastung von 2.4 mSv/a fuhrt. Dazu kommt die Strahlenbelastung durch medizinische Betreuung, die mit Ca. 1.6 mSvla angegeben wird [5.17 1, [S. 181. Der Unfall in Tschernobyl von 1986 hat in Deutschland noch im Jahre 1992 zu einer Zusatzbelastung von 0.04 mSv1a geführt. Für Personen mit beruflichem Strahlenrisiko wird in der Schweiz eine Belastung von 10-50 mSvIa als Grenze gesetzt, oder kumuliert, von 350 mSv über die gesamte berufliche Tätigkeit.

5.7 Kraftwerke mit kombiniertem Gas- und Dampfprozess

31 5

5.7 Kraftwerke mit kombiniertem Gas- und Dampfprozess

Durch die Kombination des Dampfprozesses mit Gasturbinen im offenen Prozess ist es möglich, den Wirkungsgrad bei der Stromerzeugung im Vergleich zu Gasturbinenkraftwerken oder Dampfturbinenkraftwerken zu steigern. Für die Kombination von Gas- und Dampfturbinenprozessen gibt es verschiedene Möglichkeiten:

CUD-Kraftwerk (Gas- und Dampfiurbinen). Die im Abgas der Gasturbinen enthaltene Wärme wird zur Dampferzeugung in einem Abhikekessel genutn. Der erzeugte Dampf treibt eine Dampfturbine an. Verbundkraftwerk. Der hinter der Gasturbine geschaltete Abhitzedampferzeuger und der kohlebefeuerte Dampferzeuger sind nur Wasser- und dampfseitig gekoppelt. Kombiprozess mit naclzgescltaltetem atmosphärisclzem Dampferzeuger. Die sauerstoffreichen Abgase der Gasturbine dienen als Verbrennungsluft für den kohlebefeuerten Dampferzeuger eines Dampfkraftwerkblocks. Kombiprozesse mit Koltleumwandlung unter Druck. Statt der Edelbrennstoffe Erdgas und Heizöl wird Kohle als Brennstoff in einem Kombiprozess genutzt. Dazu werden die heißen Abgase unter Druck verbrannter Kohle in einer Gasturbine entspannt, und mit den entspannten Abgasen wird Dampf zum Antrieb einer Dampfturbine erzeugt. Weiterhin kann der GUD-Prozess mit einer Kohledruckvergasungsanlage kombiniert werden. Das in der Kohledruckvergasungsanlage gewonnene Kohlegas wird im Brenner einer Gasturbine verbrannt. Hinter die Gasturbine ist ein Abhitzedampferzeuger wie beim GUD-Kraftwerk geschaltet.

5.7.1.1 Allgemeines Bei einem GUD-Kraftwerk (Gas und Dampf) werden die heißen Gasturbinenabgase in einem Abhitzekessel zur Dampferzeugung genutzt. Ist bei einem konventionellen DampfProzess die Temperatur des Dampfes auf 500-600°C begrenzt, so können bei der Gasturbine Eintrittstemperaturen über 1 100" C realisiert werden. Die 400400°C heißen Abgase werden anschließend in einem DampfProzess genutzt. Durch die höheren Prozesstemperaturen lässt sich der Wirkungsgrad bei der Stromerzeugung im Vergleich zu einem Dampfprozess erheblich auf über 55% steigern.

3 16

5 'Thermische Krafiwerke , Wärmepumpe

Gasturbinen werden i.d.R. mit den Edelbrennstoffen Erdgas oder leichtes Heizöl betrieben. GUD-Kraftwerke eignen sich sehr gut als Mittellast- und Spitzenlastkraftwerke, da sie vergleichsweise schnell an- und abgefahren werden können und die Leistung der Gasturbine schnell verändert werden kann. Bei günstigen Brennstoffiosten lohnt sich auf Grund des hohen Wirkungsgrads auch der Betrieb im Grundlastbereich. Erhebliche Fortschritte in der Gasturbinentechnologie, der hohe Wirkungsgrad bei der Stromerzeugung, kurze Bauzeiten und im Vergleich zu konventionellen Kraftwerken geringe Investitionskosten haben zu einer weiten Verbreitung der GUD-Kraftwerke geführt.

5.7.1.2 Technische Ausführung Gasturbinen für GUD-Kraftwerke sind häufig mit einer Leitschaufelverstellung für die ersten Schaufelreihen am Verdichtereintritt ausgestattet, um den Massenstrom durch die Turbine zu variieren. Die Gasturbine wird zunächst mit reduziertem Massenstrom betrieben, bis die zulässige Turbineneintrittstemperatur erreicht ist. Bei einer weiteren Leistungssteigerung werden durch Veränderung des Massenstroms die Eintrittstemperatur und damit auch die Austrittstemperatur konstant gehalten. Dadurch wird bereits im Teillastgebiet ein hoher Wirkungsgrad des nachgeschalteten Dampfprozesses erzielt. Der Abhitzekessel wird meist mit mehreren Druckstufen ausgeführt. Damit können die Temperaturdifferenzen zwischen der Abgastemperatur und der Temperatur im WasserIDampfkreislauf verringert werden, was eine Wirkungsgradverbesserung bei der Stromerzeugung zur Folge hat. Durch eine Zwischenüberhitzung ist eine weitere Verbesserung des Wirkungsgrades des Dampfprozesses möglich [5.2]. Abhitzekessel werden meist als Trommelkessel im Natur- oder Zwangumlauf ausgeführt. Bei einer weiteren Steigerung der Eintritts- und Austrittstemperatur der Gasturbine und den damit verbundenen überkritischen Zuständen ist der Einsatz eines Dampferzeugers mit Zwangdurchlauf erforderlich. Bei einem GUD-Kraftwerk liefert die Gasturbine etwa 213 und die Dampfturbine entsprechend etwa 113 der elektrischen Leistung. Die Gasturbine und die Dampfturbine sind häufig jeweils mit eincm cigcncn Generator ausgestattet („Mehrwellenanordnung"). Die Gasturbine und die Dampfturbine können auch einen gemeinsamen Generator antreiben („Einwellenanordnung") [5.2]. Eine Kupplung zwischen dem Generator und der Dampfturbine erlaubt dann, die beiden Maschinen nacheinander anzufahren, und kompensiert axiale Wellendehnungen aufgrund von Temperaturänderungen der Turbinenwellen. Abbildung 5.35 zeigt ein GUD-Kraftwerk mit drei Druckstufen und einfacher Zwischenüberhitzung.

5.7 Kraftwerke mit kombiniertem Gas- und Dampfprozess

317

5.7.1.3 Betrieb Die Dampfturbine wird meist im natürlichen Gleitdruck mit voll geöffneten Stellventilen betrieben, um die Drosselverluste zu minimieren. Die elektrische Leistung der Dampfturbine stellt sich dann entsprechend des Arbeitspunktes der Gasturbine ein. Bei Erreichen eines Mindestdruckes wird der Druck vor der Dampfturbine durch Androsselung der Stellventile begrenzt, um einen weiteren Druckabfall bei geringerer Dampfproduktion zu vermeiden. Hinsichtlich des Wirkungsgrades ist ein Betrieb im natürlichen Gleitdruck auch für eventuell vorhandene Mitteldruck- und Niederdrucksysteme des Abhitzedampferzeugers optimal. Auf Grund anderer Anforderungen werden diese Systeme häufig auch im Festdruckbetrieb gefahren. Die Blockleistung wird durch Vorgabe eines Gasturbinenleistungssollwertes eingestellt. Die Dampfiurbinenleistung stellt sich dann entsprechend der Dampfproduktion ein. Die Laständerungsgeschwindigkeit der Gasturbine wird dabei begrenzt, um eine starke thermische Beanspruchung der Gasturbine, des Abhitzedampferzeugers sowie der Dampfturbine mit einem damit verbundenen Lebensdauerverbrauch zu vermeiden.

5.7.2 GUD- Kraftwerke mit Zusatzfeuerung im Abhitzekessel Allgemein sind Abhitzekessel ohne Zusatzfeuerung für GUD-Kraftwerke zur ausschließlichen Stromerzeugung am besten geeignet, da die Energie auf dem höchsten Temperatumiveau in den Kreislauf eingeführt wird. Eine Zusatzfeuerung wird deshalb in solchen Kraftwerken i.d.R. zur Abdeckung des Spitzenlastbedarfs genutzt. Modeme Gasturbinen mit hohen Turbineneintrittstemperaturen haben häufig bereits so hohe Austrittstemperaturen, dass der Einsatz einer Zusatzfeuemng nicht mehr zweckmäßig ist. Für GUD-Kraftwerke, die neben der Stromerzeugung für Fernwärme oder Prozessdampfauskopplung genutzt werden, gibt es weitere sinnvolle Einsatzmöglichkeiten für Zusatzfeuerungen im Abhitzekessel. Beispielsweise kann bei Ausfall der Gasturbine die Feuerung zusammen mit einem Frischluftgebläse genutzt werden, um die Fernwärmeanlage oder Prozessdampfauskopplung weiter betreiben zu können. 5.7.3 Verbundkraftwerke Bei einem Verbundkraftwerk werden ein hinter einer Gasturbine geschalteter Abhitzedampferzeuger und ein kohlebefeuerter Hauptdampferzeuger Wasser- und dampfseitig gekoppelt. Abbildung 5.36 zeigt eine mögliche Schaltung, bei der im hinter die Gasturbine geschalteten Abhitzekessel Mitteldruckdampf erzeugt und zusätzlich ein Speisewasserteilstrom- und ein Kondensatteilstrom erwärmt wird. Für den Abhitzekessel wird dabei das gleiche Verdampferprinzip wie für den Hauptdampferzeuger eingesetzt.

5.7 Kraftwerke mit kombiniertem Gas- und Dainpfprozess

3 19

Der Kraftwerksblock kann mit hohem Wirkungsgrad auch ohne Gasturbine betrieben werden. Beim gleichzeitigen Betrieb mit der Gasturbine wird der Gesamtwirkungsgrad des Kraftwerks verbessert. Allerdings müssen dazu Edelbrennstoffe wie Erdgas oder Heizöl in der Gasturbine verfeuert werden. Das Verhältnis von Gasturbinen- zu Dampfturbinenleistung ist etwa I zu 4. 5.7.4 Kombikraftwerk mit nachgeschaltetem atmosphärischem Dampferzeuger Kombikraftwerke mit nachgeschaltetem steinkohlebefeuertem Dampferzeuger wurden verschiedentlich realisiert (Beispiel in Abb. 5.37). Für die Verbrennung der Steinkohle mit üblichem Gehalt an flüchtigen Brennstoffen wird ein Gemisch aus dem Abgas der Gasturbine und zusätzlicher Frischluft verwendet, um einen ausreichenden Sauerstoffgehalt in der Verbrennungsluft zu erzielen [ S S ] . Die Restabkühlung der Rauchgase erfolgt durch Speisewasservorwärmung, da kein rauchgasbeheizter Luftvorwärmer benötigt wird. Das Verhältnis von Gasturbinen- zu Dampfturbinenleistung beträgt 1 zu 4. Die Gasturbine muss dabei entsprechend der Dampferzeugerleistung gefahren werden.

Abb. 5.37. Kombikraftwerk mit kohlebefeuertem Dampferzeuger nach 15.31

5.7.5 Kraftwerke mit Kohleumwandlung unter Druck Statt der Edelbrennstoffe Erdgas und Heizöl kann auch Kohle als Brennstoff für einen Gasturbinenprozess verwendet werden. Abbildung 5.38 zeigt eine Übersicht über Kohleumwandlungsverfahren und deren Einbindung in Kombiprozesse. Bei der Kohledruckvergasung wird die Kohle unter Druck vergast. Die dabei entstehende Abwärme wird zur Dampferzeugung genutzt und in den Damptkreislauf des nachgeschalteten GUD-Prozesses eingespeist. Das gereinigte Kohlegas

320

5 Thermische Kraftwerke. Wärmepumpe

wird im Brenner der Gasturbine verbrannt, und die entspannten Abgase werden in einem nachgeschalteten Abhitzedampferzeuger verwertet. Bei gleichen Gasturbineneintrittstemperaturen wie bei erdgasbefeuerten GUDKraftwerken ergeben sich Wirkungsgradverluste von rund 7-8%, bedingt durch den erhöhten Eigenbedarf und die Umwandlungsverluste 15.11. Die heißen Abgase der Druck-Kohlenstaubfeuerung werden in einer Gasturbine entspannt. Die entspannten Rauchgase werden dann in einem Abhitzedampferzeuger genutzt. Dieses Konzept bietet durch die direkte Nutzung der Kohlerauchgase ein hohes Wirkungsgradpotential. Allerdings stellt die Reinigung der Rauchgase für den Gasturbinenbetrieb das wesentliche Entwicklungsproblem dar, so dass ein Erfolg dieses Konzeptes noch nicht abzusehen ist [5.3]. Bei der Druckwirbelschichtfeuerung wird Kohle in einem druckaufgeladenen Dampferzeuger verbrannt. Die heißen Rauchgase werden in einer Gasturbine entspannt; die entspannten Rauchgase dienen dann zur Kondensat- und Speisewasservorwärmung. L

KohleDruckvergasung

1

mit nachgeschaltetem GUD-Pmzeß (Kombi-Prozeßmit unbefeuertern Abhilzedampferreuger) Po,: PDT=1: 1 4

Gasreinlgung

feuemng

Druck-Kohlenstaubfeuerung 2 Ascheabscheidung 3 Alkaliahscheidung 1

i!P!Jb&

mit nachgeschaltetem GUD-ProzeD P„:P,=2:1

DENOX

feuerung

r n l druhaufgeladenem Oampierzeuger im Wasser-IDampfkreidauf P,:Pm=1:4 Druck-Wirbelschichtfeue~ng 2 Ascheabscheidung 1

Abb. 5.38. Kohleumwandlungsverlahrcn und deren Einbindung in Kombi-Prozesse nach [5.3]

5.7 Kraftwerkc mit kombiniertem Gas- und Damnfnrozess

5.7.6

32 1

Dynamisches Verhalten

Bei Kombiprozessen tragen sowohl die Gas- als auch die Dampfturbosätze zur elektrischen Energieerzeugung bei. Als Beispiel sei die Blockregelung für ein GUDKraftwerk mit zwei Gasturbinen und einer Dampfturbine aufgeführt. Hier wird die elektrische Leistung des Kraftwerksblockes durch die Gasturbinen geregelt. Die Dampfturbinenleistung stellt sich dabei entsprechend des Wärmeeintrags der Gasturbinen in die Abhitzekessel ein. Schnelle Laständerungen zur Primärfrequenzregelung werden dabei durch die Gasturbinen realisiert (Abb. 5.39). Das prinzipielle Verhalten einer Gasturbine wird in Abschn. 1 1.1.3 beschrieben. Der Zusammenhang zwischen der Wellenleistung der Gasturbine und des zugeführten Brennstoffmassenstroms kann dynamisch durch eine relativ kleine Zeitkonstante in der Größenordnung von Ca. 2 s angenommen werden. Entsprechend der Leistung der Gasturbine und der Umgebungsbedingungen stellen sich der Abgasmassenstrom und die Austrittstemperatur der Gasturbine und damit der Wärmeeintrag in den Abhitzedampferzeuger ein. Im oberen Lastbereich wird die Austrittstemperatur der Gasturbine konstant geregelt. Damit erfolgt eine Leistungsänderung der Gasturbine grundsätzlich durch eine Veränderung des Massenstroms mit Hilfe der Verdichterleitschaufelverstellung. Wird die Dampfturbine im natürlichen Gleitdruck oder im Festdruckbetrieb gefahren, kann näherungsweise angenommen werden, dass die Dampfturbinenleistung sich im stationären Zustand proportional zur Gasturbinenleistung einstellt. Änderungen der Gasturbinenleistung wirken sich mit einer Zeitverzögerung im Minutenbereich auf die Dampfturbinenleistung aus. Verfügt der Abhitzedampferzeuger über mehrere Druckstufen, so ergibt sich durch die rauchgasseitige Kopplung der Systeme eine Abhängigkeit. Druck- oder Dampfmassenstromänderungen im Hochdrucksystem beeinflussen z.B. das Verhalten der anderen Druckstufen.

Abb. 5.39. Blockrcgclung cincs GUD-Kraftwerks

322

5 Thermische Kraftwerke, Wärmepumpe

5.8 Kraftwerksleittechnik

Die Kraftwerksleittechnik ist das Binde- und Kontrollglied zwischen den einzelnen Systemen eines Kraftwerks. Sie fuhrt Regelungs-, Steuerungs- und Schutzfunktionen aus und ist das Interface zum Kraftwerksprozess, mit dem das Betriebspersonal vom Leitstand das Kraftwerk überwacht und bedient. Mit der Zeit sind die Aufgaben der Kraftwerksleittechnik gewachsen: Die Automatisierung von An- und Abfahrvorgängen, die Überwachung von kritischen Kraftwerkskomponenten sowie eine geeignete lnformationsverarbeitung und -darstellung sorgen für eine Verbesserung der Anlagenverfugbarkeit und der Anlagenwirtschaftlichkeit bei gleichzeitiger Entlastung des Betriebspersonals.

5.8.1 Entwicklung Die Entwicklung der Leittechnik im Kraftwerk wurde durch die steigenden Anforderungen sowie die zur Verfügung stehende Technologie beeinflusst. Etwa bis 1950 wurden die Kraftwerkssysteme von dezentralen Steuerstellen gefahren und vor Ort bedient und überwacht. Um Betriebspersonal einzusparen, wurde die zentrale Blockwarte in den 50er-Jahren eingeführt. Mit der Blockgröße nahm die Anzahl der Antriebe und Messstellen zu. Ein moderner 800 MW-Kraftwerksblock verfügt beispielsweise über etwa 2500 Regelund Stellantriebe, 700 Antriebsmotoren für Gebläse und Pumpen sowie 6500 Messstellen. Die früher verwendete 220-V-Steuerung hätte mit den zunehmenden Blockgrößen zu sehr großen Wartenräumen geführt. Deshalb wurde die Kompaktwartentechnik mit einer 24-V-Steuerebene entwickelt. Mit den größer werdenden Leistungseinheiten erhöhten sich auch die Anforderungen in Richtung Sicherheit und Verfugbarkeit. Automatische Steuerungen und Regelungen wurden dazu zunächst aus elektronischen Bausteinsystemen mit festverdrahteter Programmierung aufgebaut. Durch die Weiterentwicklung der Mikroelektronik standen in den 1980er-Jahren leistungsfähige programmierbare Mikroprozessorsysteme für die verschiedenen Automatisierungsaufgaben zur Verfugung. Mehrkanalige Schutzsysteme und redundant ausgeführte Leittechniksystemkomponenten erhöhen die Verfugbarkeit der Leittechnik und des Kraftwerks. Die Entwicklung leistungsfähiger Rechnersysteme sowie die Erfillung erhöhter Informationsbedürfnisse über den Betriebszustand und den Betriebsablauf führten zur Entwicklung von Prozessinformationssystemen, die den Leitstandsfahrer bei der Betriebsführung unterstützen. Die konventionelle Wartentechnik mit Bedien- und Meldefeldern wurde durch die Bildschirmbedienung ersetzt. Die Bildschirmbedienung gestattet eine auf den jeweiligen Anwendungsfall zugeschnittene Prozessdarstellung und verfugt über verbesserte Möglichkeiten der Informationsverdichtung und Informationspräsentation.

5.8 Kraftwerksleittechnik

323

Die Prozessfuhrung moderner Kraftwerksblöcke übernehmen heute wenige Leitstandsfahrer. Dabei leitet der Leitstandsfahrer die automatisierten Anfahr- und Abfahrvorgänge über automatische Programme ein. Handeingriffe sind nur bei Störungen notwendig, die nicht durch automatische Funktionen abgefangen werden. Hierbei wird der Leitstandsfahrer durch eine automatische Bedienerführung unterstützt. 5.8.2 Aufbau

Abbildung 5.40 zeigt den Aufbau eines modernen Leittechniksystems, das die Teilsysteme Automatisierung, Prozessfuhrung und -information, Projektierung und Inbetriebnahme sowie Kommunikation (Bussystem) integriert. Das Automatisierungssystem besteht aus Automatisierungsprozessoren und Einund Ausgabebaugruppen für die Erfassung der Prozesssignale sowie der Ausgabe von Signalen zur Ansteuerung der Antriebe. Die Automatisierungsprozessoren verarbeiten die Prozessdaten, fuhren die verschiedenen Steuerungs-, Regelungsund Schutzaufgaben aus und geben verdichtete Werte und Meldungen an das Prozessfuhrungs- und lnformationssystem weiter.

Bedienen und Beobachten

3

Großbild-

---:--Engineering

-

Verarbeiten L

Steuern und Regeln Signalaufbereitung und Signalausgabe

b

Bussystem AutomatisierungsProzessoren

Eingabe1 Ausgabe

Abb. 5.40. Aufbau eines modernen Leittechniksystems

Das Prozessfuhrungs- und lnformationssystem ist die Schnittstelle zwischen dem Leitstandsfahrer und dem Kraftwerksprozess. Es besteht aus Verarbeitungseinheiten (Server) sowie Ein- und Ausgabeeinheiten (Operating Terminals). Der Leitstandsfahrer erhält die Informationen aus Informations- und Bedienbildern, die speziell für das Überwachen, Eingreifen und Klären auf prozesstechnischer, anlagentechnischer und leittechnischer Ebene aufbereitet sind. Die Information erfolgt hierarchisch von einer verdichteten Übersichtsdarstellung bis hin zu Detaildarstellungen.

324

5 Thermische Kraftwerke, Wärmepumpe

Die Bedienbilder stellen den Kraftwerksprozess als ganzes sowie die prozesstechnischen Systeme im einzelnen dar. Dabei werden die aktuellen Messwerte sowie die Zustände der Aktoren (Motoren, Ventile, Klappen) dargestellt. Der Leitstandsfahrer bedient die Antriebe sowie die Steuerungen und Regelungen aus Bedienfenstem, die in den entsprechenden Bedienbildern angezeigt werden. Das Erreichen von bestimmten Prozesszuständen bzw. die Abweichung vom Sollzustand wird durch Statusmeldungen und Alarme angezeigt. Die Meldungen werden dabei zum einen zeitfolgerichtig in einem Meldeprotokoll für die Klärung der Störungsursache sowie zugeordnet zu den entsprechend der prozesstechnischen Zusammenhänge gegliederten Bedienbilder für die Störungsbehebung und Detailklärung dargestellt. Zusätzliche Informationen kann der Leitstandsfahrer in Form von Kurvendarstellungen, spezieller Protokolle und Berechnungen abrufen. Störungen im Leittechniksystem können übersichtlich mit dem Diagnosesystem visualisiert werden. Die Prozessdaten werden im System archiviert, um sie zur Analyse und Prozessüberwachung auch langfristig nutzen zu können. Die Projektierung und Inbetriebnahme der kraftwerksspezifischen Automatisierungsfunktionen und Bedienbilder sowie die logische Adressierung der einzelnen Leittechnikkomponenten erfolgt mit dem Engineeringsystem. Das Bussystem übernimmt die Kommunikation zwischen den einzelnen Automatisierungsprozessoren und den Verarbeitungseinheiten sowie zwischen den Verarbeitungseinheiten und den einzelnen Bedienterminals. Moderne Leitsysteme sind skalierbar aufgebaut, dass heißt die Anzahl der Bedienterminals, Server und Automatisierungssysteme richtet sich nach den anlagenspezifischen Anforderungen.

5.8.3 Ausblick Gestiegene Anforderungen hinsichtlich der Verbesserung der Wirtschaftlichkeit des Kraftwerksbetriebs infolge der Liberalisierung des Strommarktes sowie die Fortschritte in der Technologie spiegeln sich in der modernen Kraftwerksleittechnik. Für den wirtschaftlich optimalen Betrieb eines Kraftwerksblockes wird eine Vielzahl von Prozessinformationen aus dem Leittechniksystem benötigt. Funktionen für die wirtschaftliche Betriebsführung und für die wirtschaftliche Prozessführung wachsen in integrierten Lösungen zusammen als Teil des Leittechniksystems oder als Ergänzung zur Kraftwerksleittechnik. Neue Technologien, wie beispielsweise die WEB-Technologie, ermöglichen es, auf das Leittechniksystem des Kraftwerkes von einem normalen Büro-PC mit entsprechender Autorisierung via lnternet oder Telefon-Modem zuzugreifen. Damit eröffnen sich Möglichkeiten von der Femdiagnose bis hin zur Beobachtung und Bedienung eines Kraftwerkes von einem anderen Ort. Vermehrt werden „intelligente" Sensoren und Aktoren und Schaltanlagen über Bussysteme (z. B. Profibus, Ethernet) in die Kraftwerksleittechnik eingebunden. Damit werden die Diagnosemöglichkeiten in der zentralen Leittechnik verbessert.

5.9 Dic Wärmeoumoe

325

5.9 Die Wärmepumpe Seit Ca. 140 Jahren sind technische Verfahren bekannt, Wärme mitttels Arbeit von einem niedrigen auf ein höheres Temperaturniveau „hochzupumpen". Die Kältemaschine verwendet diese Verfahren seit langem: sie entzieht dem zu kühlenden Objekt Wärme und pumpt diese auf eine leicht über der Umgebungstemperatur liegende Temperatur hoch. Analog dazu entzieht die Wärmepumpe der Umgebung Wärme und bringt sie auf eine für Heizungszwecke notwendige Temperatur. Die Kältemaschine setzte sich rasch durch, da keine anderen Verfahren zur Verfügung standen. Die Wärmepumpe als Heizsystem hingegen konnte mit der konventionellen Heizung nicht konkurrieren. Pionieranlagen wurden zwar in den 30er-Jahren. vor allem in den USA und während des zweiten Weltkrieges wegen der Kohleknappheit in der Schweizgebaut. Nach dem Krieg geriet aber die Wärmepumpe wegen des einsetzenden Ö l - ~ o o m beinahe s in Vergessenheit. Nur in den USA erlebte sie in den 50er- und 6OerJahren eine Renaissance als Ganzjahres-Klimatisierungsgerät (ca. 300'000 bestehende Anlagen im Jahre 1963). Als Folge der Erdölkrise von 1973 erwachte in der zweiten Hälfte der 70er-Jahre das Interesse für die Wärmepumpe überall wieder, und diese begann sich progressiv als alternatives Heizsystem durchzusetzen. In der Schweiz werden heute rund 3% der Komfortwärme durch Wärmepumpen geliefert, die Zuwachsraten liegen bei 10%/a und Ca. 50% der Neubauten werden mit Wärmepumpenheizungen ausgerüstet. Die Gründe für diesen Boom werden im Folgenden erörtert.

5.9.1 Energiewirtschaftliche Bedeutung Sowohl vom exergetischen Standpunkt aus, als auch was den energetischen Nutzungsgrad betrifft, besitzt die Wärmepumpe gegenüber anderen Heizverfahren eindeutige Vorteile. Bezüglich Nachhaltigkeit ist sie bei weitem die beste Heizung. Gegen ihren Einsatz sprachen bis jetzt die relativ hohen lnstallationskosten im Vergleich mit einer Heizkesselanlage und die billigen fossilen Brennstoffe. Letzter Nachteil dürfte in Zukunft immer mehr schwinden.

5.9.1.1 Exergetischer Vergleich Die Wärmeenergie eines Mediums wird durch folgende Beziehung ausgedrückt

Q=c,mT C,,, =

m T

= =

[U

mittlere spezifische Wärme [kJlkg,K] Masse [kg] absolute Temperatur [K] .

Die Wärmeenergie wird im (C„,m, T)-Diagramm durch ein Rechteck dargestellt (Abb. 5.4 1 ), worin bei Eintrag der Umgebungstemperatur Exergie- und Anergieanteile (Def. in Anhang I, Abschn. 1.2.2) deutlich ersichtlich sind. Die Exergieanteile bei

5 Thermische Kraftwerke, Wärmepumpe

326

1000 500

"'

Anergie

Abb. 5.41. Wärmeinhalt bei Verbrennungstemperaturund Niedertemperatur

Verbrennungstemperatur und bei Niedrigtemperaturanwendungen unterscheiden sich sehr stark. Es lässt sich ferner erkennen, dass bei niedriger Temperatur eine größere Masse oder eine größere spezifische Wärme notwendig ist, um die gleiche Wärmemenge zu speichern. In einer konventionellen Heizung (Abb. 5.42a) wird beim Übergang von A nach B der große Exergieanteil des Brennstoffs nutzlos vernichtet. Die Verwendung von Brennstoffen (die einen hohen potentiellen Exergieinhalt aufweisen) zur Produktion von Niedertemperatunvärme ist thermodynamisch gesehen sehr verschwenderisch. Fossile Brennstoffe sollten fur die Hochtemperaturanwendungen (industrielle Prozesswärme) oder Erzeugung von Arbeit (Kraftwerke, Verbrennungsmotoren) reserviert werden.

T, = Verbrennungstemperatur T, = Vorlauftemperatur der Heizung T, = Umgebungstemperatur

Exergie

1000 Nutzexergie

500

A

Verbrennung + Wämeabgabe an Heizwasser

B

C

Wärmeübergang durch Heizkörper und Außenwände

Abb. 5.42. a) Wärmeinhalt, b) Energiefluss bei der konventionellen Heizung

A Energieinhalt des Brennstoffs, B dem Heizsystem zugeführte Wärme (Nutzenergie), C Endzustand der Energie (reine Anergie)

5.9 Die Wärme~umve

327

Werden beispielsweise folgende Werte angenommen: T, = 1300 K, T,,= 340 K und T „ = 280 K sowie einen Umwandlungswirkungsgrad bei Verbrennung und Wärmeabgabe von q = 0.95, ergibt sich folgender exergetischer Wirkungsgrad:

s. dazu auch die Darstellung mit Energieflussdiagramm in Abb. 5.42b. Ganz anders die Wärmepumpenheizung. Die analoge Darstellung in Abb. 5.43a zeigt, dass nur jene Exergie in Form von Arbeit aufgewendet wird, die tatsächlich zur Erreichung der Heimngsvorlauftemperatur notwendig ist. Die Anergie wird von der Umgebung geliefert. Mit Bezug auf Abb. 5.43b ergeben sich z.B. folgende charakteristische, thermodynamisch gesehen wesentlich günstigeren Kennzahlen

Nutzexergie = o.55 = EIorgieauufand Nutzenergie Arbeitszahl der Wdrmepumpe: ß = - 3 . Arbeit

'"

exergetischer Wirkungsgrad

-

T, = Vorlauftemperatur der Heizung T, = Umgebungsternperatur

a) Exergieaufwand

= Arbeit

400 300 -

.. Nutzexergie

T" ......

200.-

........................-........................

............

+

Verluste ..

100.-

urngebungsanergie

>-

C 54%

82% UmgebungsWärme

Verluste irn Wärmepumpenprozess

Abb. 5.43. a) Wärmerechteck, b) Energiefluss der Wärmepumpenheizung

(5.39)

328

5 Thermische Kraftwerke, Wärmepumpe

5.9.'1.2 Vergleich der Energie-Nutzungsgrade Um den Energie-Nutzungsgrad zu beurteilen, müssen Annahmen über den Ursprung des für den Betrieb der Wärmepumpe nötigen Arbeitsaufivands getroffen werden. Der Nutzungsgrad ist definiert als

Im Fall der konventionellen Heizung ist der Nutzungsgrad immer < 100% (in Abb. 5.42 z.B. 95%). Im Fall der Wärmepumpe sind hingegen Nutzungsgrade die wesentlich größer sind als 100% die Regel. Dazu einige Beispiele. - Die elektrische Antriebsenergie stammt aus einem Wasserkraftwerk, das mit einem

Wirkungsgrad von 85% arbeitet. Aus Abb. 5.43b ergibt sich das Flussdiagramm von Abb. 5.44 mit einem Nutzungsgrad von Ca. 250%.

54%

UmgebungsWärme

Wärmepumpenprozess

Abb. 5.44. Nutzungsgrad der Wärmepumpenheizung mit Energie aus Wasserkraft

- Die Antriebsenergie stammt aus einem thermischen Kraftwerk mit einem Wirkungsgrad von 35%. Es folgt Abb. 5.45 mit einem Nutzungsgrad von 105%. Werden noch die Übertragungsverluste im Netz berücksichtigt , ergibt sich kein nennenswerter Vorteil gegenüber der Kesselheizung.

Wärme

Abb. 5.45. Nutzungsgrad mit Energie aus thermischem Kraftwerk

5.9 Die Wärmeoum~e

-

329

Die Wärmepumpe wird zusammen mit einer Wärme-Kraft-Kopplungsanlage betrieben. Interessant ist vor allem der Fall des Stromgleichgewichts, bei dem die WKK-Anlage genau so viel Strom erzeugt, wie zum Antrieb der Wärmepumpe notwendig ist. Angenommen die WKK-Anlage oder das Blockheizkraftwerk weise einen Gesamtwirkungsgrad von 90% auf und erzeuge dabei 35% elektrischen Strom, ergibt sich die in Abb. 5.46 dargestellte Situation mit einem Nutzungsgrad von 160%.

Nutzwärme

UmgebungsWärme

qnutz= (28% + 54%) / 51 % = 160%

Abb. 5.46. Nutzungsgrad von Wärmepumpe + WKK-Anlage im Stromgleichgewicht

- An Stelle der WKK-Anlage kann auch ein Kombikraftwerk eingesetzt werden. Da dieses einen wesentlich höheren elektrischen Wirkungsgrad von z. B. 60% ohne und 48% mit Wärmenutzung (s. Abschn. 5.4.3) aufweist, folgen für die beiden Fälle die Nutzungsgrade der Abb. 5.47 und 5.48. 12%

30%

Wärmepumpenprozess UmgebungsWärme

rlnUk = 54% 1 30% = 180%

Abb. 5.47. Nutzungsgrad von Wärmepumpe + Kombikraftwerk ohne Wärmenutzung

330

5 Thermische Kraftwerke, Wärmepumpe

U

UmgebungsWärme

Wärmepumpenprozess

rl„,, = (74% + 54%) /38% = 180%

Abb. 5.48: Nutzungsgrad von Wärmepumpe + Kombikraftwerk mit Wärmenutzung über

ein Fernwärmenetz In beiden Fällen werden theoretisch Nutzungsgrade von 180% erreicht, die sich jedoch noch leicht reduzieren, da Kombikraftwerk und Wärmepumpe i.d.R. nicht am selben Ort aufgestellt sind und Netzverluste bei der Übertragung der elektrischen Energie hinzuzurechnen sind. Diese Beispiele zeigen, dass zur Verbesserung des Nutzungsgrades der Energie zwei Vorkehrungen besonders wirksam sind: Die Verbesserung des elektrischen Wirkungsgrades der Elektrizitätsproduktion und die Verbesserung der Arbeitszahl der Wärmepumpe. Zum letzten Punkt s. Abschn. 5.9.2. Weitere Analysen zu diesem Thema sind z.B. in [5.19] zu finden.

Schlussfolgerungen Den höchsten Energie-Nutzungsgrad wird mit der Kombination WasserkraftwerkWärmepumpe (z.B. Kleinwasserkraftwerk-Wärmepumpe)erreicht, die zugleich eine sehr nachhaltige Lösung darstellt, da CO,-frei. Die Kombination der Wärmepumpe mit konventionellen thermischen Kraftwerken ist sinnlos, wenn diese mit fossiler Energie betrieben werden. Im Fall nuklearer Energie oder von Biomasse ist zwar der Nutzungsgrad nicht höher als der einer konventionellen Kesselheizung, aber die produzierte Wärme CO,-frei und der Beitrag zur Nachhaltigkeit deshalb beträchtlich. Die Kombination der Wärmepumpe mit Blockheizkraftwerken und vor allem mit Kombikraftwerken weist Energie-Nutzungsgrade deutlich über 150% auf und bietet deshalb, auch wenn sie nicht CO,-frei ist, ein erhebliches CO,-Sparpotential (dies aber nur f i r Länder mit starker Elekirizitätsproduktion aus fossiler Energie). Dies gilt auch f i r die Kombination mit Brennstofzellen (Kap. 8).

5.9 Die Wärmeouinne

33 1

Die Analyse erlaubt, aus energiewirtschaftlich-ökologischer Sicht folgende Thesen aufzustellen: - Kesselheizungen (mit Oel oder Gas befeuert) sollten soweit als möglich durch die Wärmepumpen ersetzt werden. Deren Elektrizitätsbedarf soll, wenn nötig, durch Kombikraftwerke oder Blockheizkraftwerke im Stromgleichgewicht gedeckt werden. - Eine Stromproduktion der Kombikraftwerke jenseits des Wärmepumpenbedarfs kann zur Deckung steigender Stromnachfrage in Ländern mit Elektrizitätsproduktion überwiegend aus fossilen Brennstoffen durchaus sinnvoll sein, nicht aber als Ersatz von Strom nuklearer Herkunft.

5.9.2 Prinzip und Aufbau Eine Kompressionswärmepumpe (wir beschränken uns hier auf diese Variante) besteht im einfachsten Falle aus vier Grundelementen, wie in Abb. 5.49 dargestellt. Die von der Umgebung (Wärmequelle) aufgenommene Wärmemenge Q, lässt im Verdampjer das vorwiegend flüssig eintretende Kaltemittel verdampfen. Der trockene Dampf wird im Kompressor mit dem Arbeitsaufwand Wauf einen höheren Druck und abzüglich eine höhere Temperatur gebracht. Die Summe beider Energien (Q, +W), die Verluste, wird im Kondensator dem Heizungssystem übertragen (Wärmemenge Q,). Das Kältemittel kondensiert dabei auf hohem Druck- und Temperaturniveau. Durch ein Drosselventil wird schließlich das Kältemittel entspannt und dem Verdampfer wieder zugeführt [5.7]. 5.9.2.1 Der idealisierte Kreisprozess

Berechnungen basieren aufdem in Abb. 5.50 dargestellten idealisierten Kreisprozess. Abweichungen werden mit entsprechenden Wirkungsgraden berücksichtigt. Es ist üblich, den Kreisprozess in der (h, log p)-Ebene darzustellen. Die idealisierten Vorgänge in den vier Grundelementen seien kurz betrachtet.

Verdampfer

I

D

-

1

Drosselventil

C

Abb. 5.49. Prinzipschaltbild der Kompressionswärmepu~npe

J

1 Kondensator

332

5 Thermische Kraftwerke, Wärmepumpe

Abb. 5.50. Kreisprozess der Kompressionswärmcpumpe a) in der (X, T)-Ebene, h) in der (h, 1ogp)-Ebene

ABCD

=

idealisierter Kreisprozess, AB*C*D*

=

realer Kreisprozess

Verdampfer D -> A Der Vorgang wird als isobar angenommen (p =P,). Da er sich im Nassdampfbe-reich des Kältemittels abspielt, ist T = konst. = T,. Aus Anhang I, GI. (1.23) folgt, da W = 0 Ah = h, - h, = , (5.41) worin q„, die vom Kältemittel aufgenommene spezifische Wärmeleistung darstellt. Kompressor A -> B Der Vorgang wird als reversibel und adiabat angenommen. Damit ist er auch isentrop (s = konst., q = 0). Aus G1 (1.26) folgt

Ah

=

h, - h,

= W[,,

,

(5.42)

worin W „ die dem Kältemittel übertragene theoretische Kompressionsarbeit darstellt. Kondensator B -> C Der Vorgang sei isobar O, = p , ) und verlustlos. Die Temperatur ist am Anfang T„ nimmt im ersten Teilstück des Kondensators ab und bleibt dann nach Erreichen der Taulinie konstant (T = T,). Da W = 0, folgt aus G1. (1.23)

A h = hC - h B = - qlth ' worin q„, die theoretisch vom Kältemittel abgegebene Leistung darstellt.

(5.43)

Drosselventil C -> D Der Vorgang sei adiabat. Da W = 0 und q = 0, folgt aus GI. ( 1.26)

Ah=O,

-->

h,=hc,

der Vorgang ist isoenthalpisch (s. auch Abschn. 1.3.4).

(5.44)

5.9 Die Wärmepumpe

333

Durch Einführung des Kältemittelstroms m folgen aus den spezifischen Energien die absoluten Leistungen, z.B. Q [kJls] = m [kgls] . q [kJlkg]. Man definiert:

Kälteleistung: theoret. Antriebsleistung: theoret. Heizleistung Es folgt, da h„

=

Qzlh

=

Prh = Qith

=

m q2rh m wa m qM

=

= =

m (hA-hD) m (hB- hA) . m (hB-hc)

(5.45)

h,. Qith

=

Qzrh

+

'rh

.

(5.46)

Als Leistungsziffer wird das Verhältnis von Heizleistung zu aufgenommener Antriebsleistung bezeichnet. Der idealisierte Prozess hat die Leistungsziffer

5.9.2.2 Der reale Kreisprozess

Die wichtigsten Abweichungen vom idealisierten Kreisprozess können folgendermaßen berücksichtigt werden: a) Der Kompressionsvorgang ist nicht reversibel. Die aufzuwendende Arbeit ist auf Grund der Reibungsverluste größer:

P = -P , ,

q i = isentroper Wirkungsgrad

(5.48)

qi Die Reibungsverluste erhöhen auch die verfügbare Heizenergie. Insbesondere ist zu beachten, dass die effektive maximale Temperatur T,* wesentlich über der theoretischen T, liegt, wie aus Abb. 5.50a deutlich zu sehen ist. b) Die Vorgänge sind nicht adiabat. Es entstehen also Wärmeverluste, vor allem dort, wo die Temperatur hoch ist, d.h. im Kompressor, im Kondensator und in den Zuleitungen zum Kondensator. Es ergibt sich das Flussdiagramm Abb. 5.5 1. Diese Verluste werden mit dem thermometrischen Wirkungsgrad q, berücksichtigt. Die effektive Heizleistung ist somit

mit Q 2 = m ( h A - h D * ) ,

QD=mhD*.

C) Ferner ist zu berücksichtigen, dass sich die elektrische Leistung P„ die vom Netz bezogen wird, um die mechanischen und elektrischen Verluste des Antriebs erhöht sowie um den Leistungsbedarf von Hilfsantrieben (z.B.Ventilator für Verdampfer, bei Lufi als Wärmequelle). Dies kann mit dem mechanischen und elektrischen Wirkungsgrad Y, bzw. q, berücksichtigt werden:

334

5 Thermische Kraftwerke, Wärmepumpe

d) Ferner besteht die Möglichkeit, durch Unterkühlung des Kältemittels von Cnach C* vor der Entspannung die Wärmeaufnahme im Verdampfer bzw. Wärmeabgabe im Kondensator zu erhöhen und so die Leistungsziffer zu ver-bessern. Der reale Kreisprozess unterscheidet sich vom idealen außerdem noch in einigen Punkten: - Auf Grund von Druckverlusten druck- und saugseitig sind die Vorgänge im Nassdampfbereich nicht exakt isobar. - Wegen Wärmeaufnahe ist der Vorgang im Drosselventil nicht exakt isoenthalpisch. - Das Kältemittel wird vor der Verdichtung überhitzt (Punkt A in Abb. 5.50b verschiebt sich leicht nach rechts), damit keine Flüssigkeit angesaugt wird, die den Verdichter beschädigen könnte.

Kompressor

Konc

Verdampfer

m hD* = QD 7

V A

Drosselventil

Abb. 5.51. Leistungsflussdiagrarnm der Wärmepumpe, Anergie und Exergie Pv = (1 - i i m i i e ) P u Qvcp + Qwd =

8,

/

A 9 a

QYH C=> QSH Si

Aoa Raumtemperatur i'

+

Abb. 5.53. Schema der Wärmeverteilung, 8" Vorlauftemperatur, fiR Rücklauftemperatur, Innentemperatur, 8" Aussentemperatur, A Oberfläche, K Wärmedämmung des Gebäudes, A, Austauschfläche, K, Wärmedurchgangszahlder Heizkörper

338

5 Thermische Kraftwerke. Wärme~unme

Für das Heizwasser mit Wasserfluss m', gilt schließlich I

(5.58) Q; = mH ,C AOH . Ausgehend von den bekannten Größen 6, und 6,, lassen sich aus den Gln. (5.55) -(5.58) der Reihe nach Qh, A6,, A6,, A6, und somit 6, und 6, bestimmen. Die Jahresenergie pro Grad Celsius kann mit der Häufigkeit W (Abb. 5.52) berechnet werden

EH

=

QLW 8760

1 h [kW- "Ca

=

kWh a C

Abbildung 5.54 zeigt Q',, und 6, sowie die Energie E, als Funktion der Außentemperatur 6,. Die Fläche unterhalb der Kurve E,, stellt die Jahresheizenergie dar. Je niedriger die Vorlauftemperatur 6, ist, desto niedriger wird die Verflüssigungstemperatur im Kondensator sein und desto höher also die Leistungszahl der Wärmepumpe. Niedertemperaturheizungen (Fußbodenheizung, Luftheizung) sind deshalb besonders vorteilhaft bei Wärmepumpeneinsatz. Die höhere Leistungszahl wirkt sich auf die Wirtschaftlichkeit doppelt günstig aus: der Verdichter wird kleiner, und der Exergieaufwand verringert sich. Bemerkung: Die gefundene Beziehung zwischen Q',,, 6, und 6, ist nur im Mittel und stationär gültig, weil: - die Wärmedurchgangszahl K von Wind und Sonneneinstrahlung beeinflusst wird, also je nach Witterung beträchtlich ändern kann bei gleichbleibender Außentemperatur, - das Wärmespeichervermögen des Gebäudes eine Verzögerung des Wärmebedarfs gegenüber der Temperaturdifferenz mit sich bringt. Obige Beziehungen sind für die Bemessung der Heizung normalerweise trotzdem genügend. Bei Betriebsoptimierungsrechnungen ist hingegen das Speichervermögen mit Hilfe eines exakteren dynamischen Modells zu berücksichtigen.

Abb. 5.54. Wärmeleistungsbedarf, Vorlauftemperatur und Jahresenergiebedarf in Abhängigkeit von der Außentemperatur

TEIL III

Alternative Stromerzeugung

Dieser Teil behandelt in vier Kapiteln folgende Energietechniken: Windenergie (Kap.6), Photovoltaik (Kap. 7), Brennstoffzellen (Kap. 8) und Kernfusion (Kap. 9). Diese Energietechniken könnten im Laufe dieses Jahrhunderts die Energiewirtschaft revolutionieren. Wird die Wasserkraft ausgeklammert (Anteil 16%), werden heute weltweit nur Ca. 2% der Elektrizität aus erneuerbaren Energien erzeugt (Abschn. 3.2). In Zukunft dürften aus den in Abschn. 1.6 und 1.7 erwähnten Gründen neben Biomasse und Abfallverwertung Windenergie und Photovoltaik einen wesentlich größeren Anteil beisteuern, weshalb die entsprechenden Techniken in den Kap. 6 und 7 näher besprochen werden. Als Einführung dazu dient Abschn 1.2, dessen Kenntnis hier vorausgesetzt wird. Vor allem die Windenergie weist in den letzten Jahren weltweit und besonders in Europa sehr starke Zuwachsraten auf, da sie bei guten Windverhältnissen wirtschaftlich mit konventionellen Energien konkurrieren kann. Die solarthermische Elektrizitätsproduktion, die abgesehen von Flachspiegelanlagen (Heliostaten) und Strahlungsempfängern (Abschn 1.2.3.5) eine im Wesentlichen konventionelle thermische Kraftwerktechnik darstellt, hat vor allem in den Mittelmeer- und nordafiikanischen Ländern (um nur die europanahen zu nennen) eine vielversprechende Zukunft. Eine weitere interessante Technik stellen die Aufiindkraftwerke dar [6.2].Die von Solarkollektoren erhitzte Luft wird in ein hohes Kamin geleitet. Die starken Aufwinde treiben eine Windturbine an. Es handelt sich also um ein Windkraftwerk, das von einem mit Hilfe von Solarenergie künstlich erzeugten Wind angetrieben wird. Eine Protoiypanlage ist in Australien für 2010 geplant, wobei die Turmhöhe 1000 m erreichen soll. Ebenso wird die Möglichkeit geprüft Wellenenergie und Meeresstromungsenergie nutzbar zu machen, z. B. in Kombination mit Gezeitenkraftwerken und OffshoreWindenergieanlagen. Die Technik der Nutzung der Meeresströmungsenergie ist ähnlich derjenigen der Windenergienutzung [6.9], [6.11]. Brennstoffiellen erlauben aus Erdgas und Wasserstoff, Elektrizität mit höheren Wirkungsgraden zu erzeugen als konventionelle Kombianlagen. Neben ihrer vorrangigen Bedeutung für mobile Anwendungen könnten sie mittel- und langfristig auch für die Elektrizitätsproduktion bedeutend werden (Kap. 8). Der kommerzielle Einsatz der Kernfusion sollte schließlich in der zweiten Hälfte des begonnenen Jahrhunderts möglich werden. Der Stand der Forschung auf diesem Gebiet und deren Aussichten werden in Kap. 9 besprochen.

6 Wind kraftwerke

Das Potential der Windenergie und die Voraussetzungen fur eine wirtschaftliche Nutzung wurden bereits in Abschn. 1.2.3 kurz erörtert. Im Folgenden werden die technischen und wirtschaftlichen Aspekte der Windenergienutzung näher behandelt.

6.1 Die kinetische Energie des Windes 6.1 .ITheoretische Windleistung

Eine Luftmasse m, die sich mit der Geschwindigkeit V , bewegt, enthält die kinetische Energie 1

2

- m V,

2

[kg ( q 2 S

=

J] .

(6.1)

Einem Querschnitt A , durch den pro s die Luftmasse m'mit Dichte p und Geschwindigkeit V , hindurchzieht

kann folgende theoretische Windleistung zugeordnet werden

Die theoretische Windleistung steigt mit der dritten Potenz der Windgeschwindigkeit an, welche die Wirtschaftlichkeit entsprechend stark mitbestimmt. Ein weiterer Parameter ist die Luftdichte. Diese beträgt für Trockenluft bei Normaldruck (1013 mbar) und 0°C: 1.292 kg/m3 . Druck und Temperatureinfluss lassen sich durch die Beziehung

R

mit

=

J 287.1 kg K

(6.4)

erfassen. Zu beachten ist ferner, dass der Druck mit der Höhe nach der barometrischen Formel ändert (p, bei 20°C):

P =Poe

h-h, a T

mit

a

=

29.27

m K

-

.

(6.5)

6.1.2 Windgeschwindigkeit

Die Beziehung zwischen Windstärke und Windgeschwindigkeit kann der nachfolgenden Tabelle 6.1 entnommen werden. Jahresmittel der Windgeschwindigkeit, die über 5 rnls liegen, kommen i.d.R. nur in Küstenregionen oder auf freistehenden Berggipfeln vor. Zu beachten ist jedoch, dass das Mittel allein, wegen V , ' (GI. 6.3) noch keine direkte Aussage über den Energieinhalt ermöglicht. Die Windgeschwindigkeit ändert außerdem auf Grund der Bodenreibung mit der Höhe nach der Formel

v = -

h (-F,

a=O.16 (Meer) wobei ( a = 0.17..0.2 (Ebene ohne Hindernisse)

. (6.6) ho Bei Hindernissen kann a wesentlich höhere Werte annehmen. Eine nicht ebene Topographie kann außerdem starke lokale Unterschiede bewirken und das Höhenprofil des Windes verändern. Der Standortwahl einer Windenergieanlage kommt deshalb große Bedeutung zu. Beispiel 6.1 V.

Tabelle 6.1. Windstärke und Windgeschwindigkeit [6.4] Windstärke nach Beaufort

Windgeschwindigkeit m/s

0 still 1 sehr leicht 2 leicht 3 schwach 4 mäßig 5 irisch 6 stark 7 slcif 8 stürmisch 9 Sturm 10 schwerer Sturm 11 orkanartiger Stuirm 12 Orkan

0 ... 0,2 O,3... 1,5 l,6 ... 3,3 3,4... 5,4 5,5... 7,9 8 ...lO,7 10,s...13,s l3,9 ...l7,l 17,2...2O,7 20,8.. .24,4 24,5 ...28,4 28,s.. .32,6 32,7...36,9

Wirkung des Winds

Knoten

o...

1

l... 3

4... 7 8...11 12... 15 I6 ...21 22 ...27 28 ...33 34 ...40 41.. .47 48 ...55 56...63 64 ...71

Rauch steht senkrecht Rauch steht schräg Luftzug eben fühlbar Blattbewegung an Bäumen Zweigbewegung an Bäumen Astbewegung an Bäumen Heulen des Winds Baumbewegung, überstürzende Wellen Stämme biegcn sich, Gchen schwcr Dachziegel fallen Bäume fallen um zerstörende Wirkung schwerer Art Mauern stürzen um, allg. Verwüstung

Man berechne die theoretische Leistung pro m2 Fläche für V , = 4 rnls und 7 mls sowie die entsprechende theoretische Leistung bei konstantem Wind a) für 0 m ü. M bei Normaldruck und 20"C, b) auf 2000 m Höhe beim entsprechendem Druck und 10°C (in % von a)), C) angenommen, obige Geschwindigkeitswerte gelten für eine Höhe von 10 m über dem Boden, wie verändert sich in % die Leistung, wenn die Windturbine 20 m über dem Boden installiert wird? (Boden ohne Hindernisse).

6.1 Die kinetische Energie des Windes

e

=

1.292

293

=

1

4mls: Po

=

-

1.205-kg ( m3 7mls: P,,

=

-

b)

1.205 43

2 1 1.205 7' 2

343

W m2

=

38.6

=

207 W m

-

Die Leistung wird um nahezu 19% reduziert.

Die Leistung erhöht sich um 42-52% !

6.1.3 Energieangebot Um das potentielle Windenergieangebot eines Ortes evaluieren zu können, müssen langjährige Messungen vorliegen bzw. mit Anemometern über längere Zeit Messungen durchgeführt werden. Die Messresultate können in Form einer Dauerlinie (Abb. 6.1) dargestellt werden. Die Dauerlinie gibt an, während wie viel Stunden h, in der betrachteten Periode eine bestimmte Windgeschwindigkeit V, erreicht oder überschritten wird. Aus der Dauerlinie des Windes kann mit GI. (6.1) die Dauerlinie der theoretischen Leistung und daraus, bei Berücksichtigung dcr Bctriebsgrenzen und des Wirkungsgrads des Windrads, das effektive Energieangebot ermittelt werden. Die Erfahrung zeigt, dass die Arbeit mit 10 min Mittelwerten eine gute Grundlage für die Auslegungder Windanlage bildet. Über den Einfluss der überlagerten Windturbulenzen s. (6.71.

Abb. 6.1. Dauerlinie des Windes (10 min Mittelwerte)

6.1-4 Die Weibull-Verteilung

Die Analyse von Windstatistiken hat gezeigt, dass in sehr vielen Fällen die Windverteilung mit genügender Näherung durch die Weibull-Verteilung beschrieben werden kann. Diese ist durch folgende Summenhäufigkeit (Dauerlinie) definiert

Die Verteilung ist somit durch zwei Parameter gegeben: C : Lageparameter (proportional zur mittleren Geschwindigkeit) k: Streuungsparameter Die Windhäufigkeit ergibt sich durch Ableitung der Summenhäufigkeit

und wird allgemein von Abb. 6.2 dargestellt. Aus Lage- und Streuungsparameter lassen sich folgende Größen ermitteln 1 mittlere Windgeschwindigkeit V,,, = C r(1+ i )

3

Energiefaktor

Abb. 6.2. Weibull-Windhäufigkeit

K,

=

r(1+-I k

.

(6.9) 9

6.1 Die kinetische Energie des Windes

345

worin

die im Anhang V1 ausgewertete Gammafunktion darstellt. Der Energiefaktor K,: gibt das Verhältnis zwischen Windenergieangebot bei variabler und Angebot bei konstanter mittlerer Windgeschwindigkeit. Das theoretische Windenergiepotential eines Ortes ist dann

Zur Berechnung dieses Potentials werden zuerst aus den Messwerten die Parameter c und k ermittelt. Dazu wird die GI. (6.7) durch doppelte Logarithmierung folgendermaßen geschrieben

und die Messwerte In In (l/S(v)) in Funktion von In V aufgetragen (Abb. 6.3). Liegen die Messwerte im Bereich S(v) = 1%-70% auf einer Geraden, so ist die Annahme einer Weibull-Verteilung gerechtfertigt. Die Gerade liefert k als Steigungsmaß und c als Schnittpunkt mit der Abszisse. Aus c und k folgen mit Hilfe der Gammafunktion mit GI. (6.9) die mittlere Windgeschwindigkeit und der Energiefaktor. Die beiden Größen sind in Anhang V1 in Funktion von k dargestellt. Die Luftdichte ergibt sich aus Druck und Temperatur (Gln. (6.4) und (6.5)) und das Windenergiepotential schließlich aus G1. (6.1 1).

Abb. 6.3. Windmesswerte und deren Auswertung

346

6 Windkrafiwerke

6.2 Windradtypen und ihre Leistung Abbildung 6.4 zeigt die wichtigsten Windradtypen. Es wird unterschieden zwischen Windräder, die vorwiegend nach dem Widerstandsprinzip (Widerstandsläufer) und solche, die vorwiegend nach dem AuJ2riebsprinzip arbeiten. Jede Fläche A, die dem Wind ausgesetzt wird, erfahrt eine Krafi F,,, in Windrichtung (Abb. 6.5) und eine Kraft F„ senkrecht dazu

Achse horizontal Auftrieb nutzend

1)

Achse vertikal Auftrieb nutzend

Widerstand nutzend

Abb. 6.4. Windradtypen: a) La Cour Windmühle, b) amerikanische Windturbine, C) 2x5- Blatt-Rotor, d) 3-Blatt-Rotor, e) 2-Blatt-Rotor, f) l -Blatt-Rotor. g) 3-Blatt-Darrieus, h) A-Darrieus, i) H-Darrieus, k) Halb abgeschirmter Widerstandrotor, 1) Schalenkreuz, m) Savoniusrotor (gestrichelt: geteilter Rotor)

6.2 Windradtypen und ihre Leistung

347

Abb. 6.5. Widerstands- und Auftriebskraft

Die Widerstands- und Aufh-iebskoeffizienten C,, und C , hängen von der Form (Profil) und von der Lage der Fläche (Winkel a ) relativ zur Windrichtung ab. Sie können numerisch berechnet oder durch Versuche, z.B. im Windkanal, ermittelt werden [6.7]. Auf die Fläche wirkt die resultierende Kraft Bewegt sich die Fläche mit der Geschwindigkeit (Abb. 6.6), so tritt in den Gln. (6.13) die relative Windgeschwindigkeit G an Stelle der absoluten V:

E.

(6.14)

=C-i;

Ergibt die resultierende Krafi gr eine positive Komponente $, (Treibkraft) in Richtung der Bewegung, so wird diese Bewegung unterstützt (Abb. 6.6), im umgekehrten Fall wird sie gebremst. Die wichtigsten Windradtypen werden in den folgenden Abschnitten besprochen. Für mehr Details sei auf [6.2], [6.7] und für den Selbstbau von Windturbinen auf [6.5] verwiesen. Für alle Windradtypen können folgende allgemeine Beziehungen aufgestellt werden: Theoretische Leistung des Windrads: P,,, = cp P,, Efektive Leistung: P

=

q, P,,,

Abb. 6.6. Kräfte bei bewegtem Windrad

=

q , cp Po

=

I

cp Po

(6.1 5 )

348

6 Windkraftwerke

P, ist die theoretische Windleistung gemäß GI. (6.3). Neu eingeführt wurden:

Idealer Leistungsbeiwert des Rades (immer < 1) q, = Wirkungsgrad des Rades (relativ zum verlustfreien Betrieb) C,' = qt C, = effektiver Leistungsbeiwert. C, =

bestimmt die obere Leistungsgrenze, die aus physikalischen Gründen (auch ohne Reibungsverluste) nicht überschritten werden kann. Es lässt sich zeigen, dass C, (und somit auch C,') von der Schnelllaufzeit 3L des Windrades abhängig sind (Abschn. 6.3.2). Für die Schnelllaufzahl gilt

C,

worin U die Umfangsgeschwindigkeit des Rades und V, die absolute Windgeschwindigkeit vor dem Rad darstellt. In Abb. 6.7 sind die idealen Leistungsbeiwerte einiger Windräder dargestellt. Für alle Windräder weist cp ein Maximum auf für eine bestimmte (optimale) Schnelllaufzahl L„, . Für den optimalen Betrieb müsste also die Geschwindigkeit des Windrades der Windgeschwindigkeit angepasst werden. Aus Kostengründen wird oft darauf verzichtet, in modernen Anlagen jedoch wird dank billig werdender Leistungselektronik dies mehr und mehr angestrebt (s. Abschn, 6.3). Entsprechend der optimalen Schnelllaufzahl werden die Windräder in Langsamläufer und Schnellläufer klassiert. Zur letzten Kategorie gehören die Darrieus-Rotoren und die horizontalachsigen 1 - 3-Blatt-Rotoren. In der Praxis haben sich die horizontalachsigen Rotoren durchgesetzt und machen weltweit den weitaus größten Teil aller Windturbinen aus.

Moderner 2-oder 3-BlattModerner

ochsen-Rotor ( Oarrieus 1

Schnel!aufzahl

h

----

Abb. 6.7. Idealer Leistungsbeiwert verschiedener Rotoren

6.3 Horizontalachsige Windrotoren

349

6.3 Horizontalachsige Windrotoren 6.3.1 Theorie von Betz Mit Bezug auf Abb. 6.8 sei die Windmasse m betrachtet, die durch den Windradquerschnitt A hindurchströmt. Die Windgeschwindigkeit vor dem Rad sei V,. Durch das Rad wird der Wind abgebremst, so dass die Windgeschwindigkeit hinter dem Rad nur noch V, < V, beträgt. Im Windradquerschniii selber sei die Windgeschwindigkeit V. Bei Annahme idealer, verlustloser Verhältnisse wird die Differenz der kinetischen Energien (W, - W , ) voll in mechanische Energie umgewandelt und erscheint als theoretische Leistung P„ an der Turbinenwelle:

W - W = -1m v o2 - - 1m v , 2 = - 1m ( v o2 - V ; ) . O ' 2 2 2 Pro Zeiteinheit strömt die Masse m' = p A V durch das Windrad. Die theoretische Leistung ist somit

Andererseits folgt nach dem Impulssatz die Kraft als Impulsänderung pro s

Die vom Wind geleistete Arbeit ist demnach

Der Vergleich der Gln. (6.17) und (6.18) liefert

Aus GI. (6.18) folgt fiir die Leistung

Abb. 6.8. Horizontalachsige Windturbine, Theorie von Betz

und für den idealen Leistungsbeiwert

Wird V, durch

V

ersetzt (GI. 6.19) gilt auch (Abb. 6.9)

Der Maximalwert ist C„„ = 16127 = 0.593 und wird für viv, =213 bzw. V , /V, =I13 erreicht. Zwischen der Geschwindigkeit V und der Drehzahl der Turbine bzw. der Schnelllaufzahl besteht ein fester Zusammenhang, der von der Flügeldichte (Völligkeit) und der Projilform des Flügels abhängig ist (s. dazu Tragflügeltheorie, Abschn. 6.3.2). Die Völligkeit nimmt mit Anzahl und Breite der Flügel zu. Es werden zwei extreme Ausführungen unterschieden:

Langsamliiufer (Beispiel amerikanische Windturbine, Abb. 6.4). Auf Grund der großen Flügeldichte wird die optimale Geschwindigkeit Drehzahlen erreicht (L„, klein).

V

bereits bei kleinen

Sclznellliiufer (Beispiel 2-Blatt-Läufer, Abb. 6.4). Die Flügeldichte ist klein, die optimale Geschwindigkeit V erfordert hohe Drehzahlen und präzise Ausführung der Flügel (L„, groß). Die von der Turbine gelieferte Leistung ist gemäß GI. (6.15)

P = qt

CP

I

Po=cpPo.

(6.23)

Der Gesamtwirkungsgrad kann fur L„, einen Wert C,]'= 0.45 erreichen (Abb. 6.1 I), was einem Turbinenwirkungsgrad q, = 0.76 entspricht.

Abb. 6.9. Verlauf des idealen Leistungsbeiwerts horizontalachsiger Windturbinen

6.3 Horizontalachsige Windrotoren

35 1

6.3.2 Tragflügeltheorie Betrachtet wird das Flügelelement dr (Abb. 6.1 Oa), das sich mit Geschwindigkeit Zr bewegt. Mit der Windgeschwindigkeit v' in Achsrichtung ergibt sich die relative Windgeschwindigkeit Gr (Abb. 6. lob). Für diese gilt Gr = C

-

Ur ,

mit

ur = o r I

Das Flügelprofil weist einen einstellbaren Lagewinkel 8 relativ zur Normalen zur Windrichtung auf. Dieser Winkel ist oft eine Funktion von r. Als Anstellwinkel a wird der Winkel bezeichnet, der das Profil mit der relativen Windgeschwindigkeit bildet (Abb. 6.1Ob). Somit ist a =90°-(8 +

P).

Die am Flügelelement wirksamen Kräfte sind (Abb. 6. lob)

Fa

F,,

F,,

=

Auftriebskraft, senkrecht zu Gr

=

Widerstandskraft, Richtung Gr

=

resultierende Kraft

=

Treibkraft, Richtung Zr

=

Normalkraft, senkrecht zu ür

Fa + Fw

Abb. 6.10. Geschwindigkeiten und Kräfte eines Flügelelements

(6.25)

Für die Fläche dA = s,.dr des Flügelelements gilt gemäß den Gln. (6.13)

C, und C,, sind vom Profil abhängige, im Windkanal messbare und somit bekannte Funktionen des Anstellwinkels a. Für Treibkraft und Normalkraft folgt aus Abb. 6.1Ob

dF, dF,,

=

=

dFa cos ß - dFw sinß dFa sinß + dFw cos ß

1 -

e s, dr W 2, (c0 C O S ~- C , sinß) 2 Das durch das Flügelelement dr erzeugte Drehmoment ist somit -->

dF,

=

1

2

e sr r dr W , (ca cosß - cw sinß) . 2 Ist L die Anzahl Flügel, folgt fiir das Gesamtmoment dM

M

=

= z

dF, .r

/LdM

=

= -

1 2

-

z/s, r

2 W,

( c a cosß

-

C,

sinß) dr.

(6.28)

(6.29)

L

Die theoretische Leistung ist schließlich P , = M o , woraus sich der ideale Leistungsbeiwert in Abhängigkeit von Schnelllaufzahl und Lagewinkel berechnen lässt. lnsbesondere folgt daraus die optimale Schnelllaufzahl. Den typischen Verlauf für -. einen Schnellläufer zeigt die Abb. 6.1 1 .

- 0,2

J

0

5

10

15

20 Schnellaufzahl X

-

Abb. 6.1 1. Leistungsbeiweri eines Schnellläufers in Abhängigkeit von Schnelllaufzahl und Lagcwinkel

6.4 Moderne horizontalachsige Windturbinen

353

-

Aufgabe 6.1

a) Ein horizontaler 3-Blatt-Rotor (h„, 8) soll eine effektive Leistung von 15 kW abgeben bei der optimalen Windgeschwindigkeit von 6 m/s. Der Wirkungsgrad des Rades qWtsei 0.72. Man schätze: - den Radius der Flügel (Annahme p = 1.2 kg/m3) - die optimale Drehzahl des Rotors - die spezifische Leistung bezogen auf die Windradfläche b) Man wiederhole die Berechnung mit V„„

=

8 m/s.

-

C) Gleiche Berechnungen f i r eine amerikanische Windturbine gleicher Leistung, wenn qo„ = 0.5 und hop, 1.

6.4 Moderne horizontalachsigeWindturbinen Der weitaus größte Teil moderner Windkraftwerke setzt horizontalachsige Schnellläufer mit 3 Rotorblättern ein. Eine gerade Zahl von Rotorblättern weist in Bezug auf die dynamische Stabilität Nachteile auf, und die (billigere) Lösung mit einem einzigen Rotorblatt ist aus Gründen der dynamischen Balance mechanisch ebenfalls ungünstig. Die Investitionskosten großer Anlagen (Leistung der MW-Klasse bis 5 M W) liegen heute bei ca. 860 €/kW. Bei einer mittleren Windgeschwindigkeit von 6 m/s und einer Nenngeschwindigkeit von 15 mls (entsprechend P„, = Nennleistung) ergibt sich aus den Gln. (6.3) und (6.1 1) bei Annahme eines Energiefaktors von 0.7 (Anhang 111) und eines mittleren Leistungsbeiwerts von 0.45, eine Jahresbenutzungsdauer von 1767 hla. Mit 8% Annuität folgen Energiekosten von 3.9 ct1kWh (Abschn. 2.2.2). Diese Kosten berücksichtigen nicht die Auslagen für den Betrieb und den Transport der Energie. Windenergie ist eine Grundlastenergie wie jene von hydraulischen Laufkraftwerken, aber deutlich unregelmäßiger; sie muss infolgedessen durch eine andere rasch regelbare Energie ausgeglichen werden, die von Wasserspeicherkraftwerken oder Gasturbinenkraftwerken geliefert wird, oder lokal verwendet bzw. gespeichert werden. Eine größere Turrnhöhe ermöglicht dank stärkerem Wind eine bessere Energieausbeute, erhöht jedoch die Kosten. Die optimale Höhe entspricht i.d.R. etwa 1 bis 1.5 Mal dem Durchmesser des Rotors. In Meeresnähe sind vor allem große Wind-Parks verbreitet, bestehend aus einer Vielzahl von Windturbinen. Die Abstände der Turbinen in Windrichtung müssen Ca. 5 - 9 Rotordurchmesser betragen, quer zur Windrichtung genügen 3 - 5 Rotordurchmesser. Für Näheres s. [6.8], [6.10]. Im Gebirge sind die Anforderungen an Messungen und Modellierung in der Planungsphase besonders hoch [6.6]. Für die Zukunft sind große Offshore-Anlugen (im Meer verankerte Anlagen) geplant. Damit fallen einerseits die bei Küstenlagen oft schwerwiegenden ästhetischen Probleme weg; andererseits erhöht sich das energetische Potenzial erheblich. Die mit der Verankerung (Schwimmsysteme) verbundenen Probleme werden gegenwärtig untersucht. Eine Kopplungmit Meeresstromungskraftwerken (s. Einleitungdes Teils 111) ist durchaus denkbar [6.9], [6.11 1.

6 Windkraftwerke

354

6.5

Andere Windradtypen

Wir behandeln zwei Windradtypen mit Vertikalachse; der erste, der Darrieus-Rotor, gehört zur Kategorie der Schnellläufer und arbeitet nach dem Auftriebsprinzip; der zweite, der Savoniusrotor, ist ein Langsamläufer und arbeitet nach dem Widerstandsprinzip (Abb. 6.4 und 6.7).

6.5.1 Der Darrieus-Rotor Dieser Rotor wurde in den zwanziger Jahren vom Franzosen Darrieus erfunden. Zum praktischen Einsatz gelangte erjedoch erst ab ca. 1970. Seitdem sind Rotoren bis ca. 1 MW gebaut worden. Der Rotor besteht i.d.R. aus zwei oder drei Flügeln, die an ihren Enden an einer mitrotierenden vertikalen Achse befestigt sind (Abb. 6.4g). Ließe man ein Seil an Stelle der Flügel mitrotieren, nähme es die Form einer Troposkienten (Springseilkurve) an. Wird dem Flügel eine solche Form gegeben, treten nur Zugkräfte auf, was mechanisch ideal ist. Praktisch wird die Troposkiente durch Kreisbogen und Gerade angenähert. Die Tragflügelprofile sind i.d.R. symmetrisch. Gegenüber dem Rotor mit horizontaler Achse weist der Darrieus-Rotor folgende Vor- und Nachteile auf

Vorteile - Ist windrichtungsunabhängig. Damit ist kein Mechanismus zur Windnachfuhrung

notwendig, keine Ausrichtaggregate wie Windfahnen, Hilfsrotoren oder Stellmotoren nötig. - Die Energieanlage mit Getriebe, Generator und Steuerung befindet sich am Boden. Es sind somit keine aufwendigen Turmkonstruktionen notwendig, und die Wartung ist einfacher.

Nachteile - Das Drehmoment ist wegen des veränderlichen Anstellwinkels pulsierend (daraus ergeben sich mechanische Probleme). - Die geringere Höhe über dem Boden fuhrt zu schwächerem Wind im unteren Bereich der Rotorblätter, was sich negativ auf den Leistungsbeiwert auswirkt. - Eine Anfahrhilfe ist notwendig (Motor, Savonius), da der Anstellwinkel nicht einstellbar ist.

6.5.1.1 Rotorgeometrie Die Troposkiente wird durch Kreis und Gerade approximiert mit den Daten R, R , und H (Abb. 6.12). Daraus folgen die Hilfsgrößen:

xo

=

R-Ro

Y0 = X - Y , - Y q

v0

=

x0 + RO cos yo

zo

=

Ro s h y o ,

wobei

6.5 Andere Windradtypen

355

Abb. 6.12. Geometrie des Darrieus-Rotors

Werden mit ( Y , z, B ) die allgemeinen Koordinaten eines Flügelelements bezeichnet, ergeben sich daraus folgende Gleichungen für Kreis und Gerade (mit zals Parameter): Kreisgleichungen fir z , < z < z, y

=

r

=

sin6

arctan(---

/-

" 1

xo+Ro cosy (r-xo)

= --- =

cosy .

Ro Gleichungen der Geraden für z > z, und z V „ wird die maximal zulässige Leistung P,,,, erreicht, und eine Leistungsregelung ersetzt die Drehzahlregelung, so dass P = P„. Die Geschwindigkeit V „ beträgt in modernen Anlagen meist ca. 15 mls. Beim Überschreiten der maximal zulässigen Windgeschwindigkeit V„„ wird das Kraftwerk abgeschaltet (mechanische Sicherheit). Kurve d : effektive Windradleistung bei Betrieb mit konslanter Drehzahl. Bei der

frei gewählten optimalen Windgeschwindigkeit V„„ wird der maximale Wirkungsgrad erreicht. Die entsprechende Drehzahl ist ( R = Radius der Windturbine)

Für andere Windgeschwindigkeiten sinkt die Leistung gemäß C', (1). Das Windrad liefert Energie ab V„„ entsprechend der Schnelllaufzahl 1„„.

Für einen gegebenen Standort mit einer bestimmten Windhäufigkeitsverteilung erreicht die produzierte Jahresenergie einen Wert, der von der Wahl der optimalen Windgeschwindigkeit abhängt, wie von Abb. 6.18 veranschaulicht wird. Für einen bestimmtem Wert von V„„ wird diese Energie maximal. Ob dieser Wert auch ein wirtschaftliches Optimum darstellt, hängt vom Kostenverlaufin Abhängigkeit von der gewählten Drehzahl ab (Getriebeinvestitionen, Getriebeverluste, Festigkeit der Rotorflügel usw.). Jahresenergie

t-n Abb. 6.18. Optimale Windgeschwindigkeit bzw. Drehzahl

6.6.2 Leistungsregelung Es wird zwischen Anlagen mit Stallregelung (Regelung durch Strömungsabriss) und Anlagen mit Blattwinkelregelung(Pitch-Regelung)unterschieden [6.3]. In horizontalachsigen Rotoren hängt der Leistungsbeiwert bei gegebener Drehzahl nicht nur von der Windgeschwindigkeit, sondern auch vom Anstellwinkel des Profils (Blattwinkel) ab, wie in Abb. 6.1 1 veranschaulicht. In stallgeregelten Anlagen ist der Blattwinkel im ganzen Geschwindigkeitsbereich bis V„„, fest. Die Leistungsbegrenzung wird durch die Geometrie des Rotorblattes bewirkt, welche aerodynamisch so gestaltet wird, dass beim Erreichen der Geschwindigkeit V „ Turbulenzen entstehen, die zu einem Strömungsabriss (stall) fuhren. Damit stellt sich ein Leistungsverlauf Ca. nach der Kurve d in Abb. 6.17 ein. Die Stallregelung vermeidet den relativ komplizierten Mechanismus zur Blattwinkelregelung. Ungefähr 213 der installierten Anlagen weisen eine Stallregelung auf [6.10]. Als aktiv wird die Stallregelung dann bezeichnet, wenn die Rotorblätter mehrere fixe Stellungen aufweisen, die je nach Windgeschwindigkeit gewählt werden. Mit der Blattwinkelregelung wird entsprechend Abb. 6.11 automatisch der bei einer bestimmten Windgeschwindigkeit jeweils optimale Anstellwinkel gesucht. Damit lässt sich mit entsprechendem Aufwand der Leistungsbeiwert bei der gegebenen Drehzahl maximieren. Beim Erreichen der maximal zulässigen Leistung P„, wird die Leistung konstant gehalten. Der maximal mögliche Leistungsbeiwert entsprechend Kurve c in Abb. 6.17 kann nur mit veränderlicher Drehzahl erhalten werden. 6.6.3 Netzbetrieb Die produzierte Elektrizität wird ins Verbundnetz gespeist. Das einfachste und billigste Schema zeigt Abb. 6.19. Die Windturbine treibt über ein Getriebe einen Asynchrongenerator an. Die dem Netz gelieferte Leistung ist

Asynchrongeneratoren sind billig und robust, können jedoch ohne Zuschaltung von

6.6 Betrieb und Regelung, Auslegung

"0

"I

Windturbine

363

Netz

/I,

Abb. 6.19. Einfachstes Windenergieaggregat Gt Getriebe, G Generator

Kapazitäten keine Blindleistung liefern. Für größere Leistungen wird deshalb ein Synchrongenerator vorgezogen. In beiden Fällen gilt

Getviebeübersetzung ü

=

n1

-

n

2 n f R

=

P

v o o p Aopt

Die gelieferte Leistung entspricht in beiden Fällen im wesentlichen der Kurve d in Abb. 6.17, da die Drehzahl konstant ist (von der Netzfrequenz diktiert). Ein Leistungsverlauf nach Kurve C in Abb. 6.17 ist möglich, erfordert jedoch den Einsatz eines Frequenzumrichters z.B. nach Abb. 6.20. Durch Steuerung der Frequenzübersetzung wird die Drehzahl optimal gehalten. Die größere Energieausbeute muss durch höhere Investitionen erkauft werden. Zu beachten ist außerdem, dass der Energiegewinn auf Grund des höheren mittleren Wirkungsgrades des Windrades durch die Verluste im Umrichter (schlechterer elektrischer Wirkungsgrad) etwas reduziert wird. Neben der in Abb. 6.20 dargestellten Lösung werden auch Lösungen mit rotorgewickelter Asynchronmaschine angeboten, in welcher der Umrichter die Frequenz des Rotorstromes verändert. Die dazu benötigte Umrichterleistung ist erheblich kleiner [6.1].

/

Netz

Abb. 6.20. Windenergieaggrcgat mit optiinicrtcr Drcli~ahl Gt Getriebe , G Generator, C l

Umrichter, R Drehzahlregler

6.6.4 Inselbetrieb In der Regel verlangt der Verbraucher eine konstante Frequenz und eine konstante Spannung (Ausnahme: Heizwiderstände). Als Generator eignet sich dann am besten ein Synchrongenerator, welcher die Regelung der Spannung über die Erregung ermöglicht (Abschn. 13.1). Ein Asynchrongenerator mit geregelter Kondensatorbatterie ist ebenfalls möglich.

364

6 Windkraftwerke

4

Po "0

3 1

Windturbine

-

Gt

Last

n1

s

f

€ B Abb. 6.21. Windenergieaggregat irn Inselbetricb: Gt Getriebe, G Generator, R Regler, S Speicher (Schwungrad,Pumpspeicherung, Akkumulator),B Ballastwiderstand (Kläranlage.

Spcichcrhcizung) Da das Windenergieangebot sehr variabel ist, müssen zur Frequenzregelung Speichermöglichkeiten undloder Ballastwiderstände vorgesehen werden (Abb. 6.21). Die Drehzahl ändert nach der Gleichung

Den Verlauf des Antriebsmoments M in Abhängigkeit von Drehzahl und Windgeschwindigkeit zeigt Abb. 6.22 (n, = synchrone Drehzahl). Das Belastungsmoment M, muss entsprechend angepasst werden. Dessen Verlauf hängt von der Natur der Last und von der Spannungs-Frequenz-Kennlinie ab. Ein Betrieb mit optimierter Drehzahl ist mit Umrichter ebenfalls möglich.

Abb. 6.22. Drehmomentverlauf einer Windturbine M

=

f(n.v„)

7 Photovoltaik

7.1 Physikalische Grundlagen, photoelektrischer Effekt Das Verhalten von Halbleitern und Isolatoren lässt sich durch das Energiebandermodell gut erklären [7.1], [7.10]. Für die photoelektrischen Effekte spielen lediglich das Valenzband mit oberer Energiekante W, und das Leitungsband mit unterer Energiekante W, eine Rolle (Abb. 7. la). Die beiden Bänder sind durch eine Bandlücke A W = W, -W, getrennt, die z.B. beim Silizium 1.12 eV beträgt. Die Zustandsdichte Z(W) der Elektronenenergie W innerhalb der Bänder wird von einer Parabel beschrieben. Entsprechend dem Exklusionsprinzip von Pauli ergibt sich die Auftretenswahrscheinlichkeit eines Energiezustands durch Multiplikation mit der Fermi-DiracStatistik (Abb. 7. lb):

worin W,.

k

=

=

Fermi-Energie und

Boltzmann-Konstante

=

8.62.10-'

K

=

1.30805 - I O - ' ~

L K

.

(7.7')

Wird über das Leitungsband integriert, folgt die Elektronendichte [7.1], [7.2]

mit

2nm,kT T3 NL=2( 1

h

Valenzband

Leitungsband

Abb. 7.1. Bändermodell des Halbleiters a) Dichte möglicher Energiezustände innerhalb des Valenz- und Leitungsbandes, A W = Bandabstand (verbotene Zone), b) Fermi-DiracStatistik für die Auttretenswahrscheinlichkeit eines Energiezustands

und

h m

= =

PlanckSches Wirkungsquantum = 6.6256. 10-34JS Masse des Elektrons = 0.9109. 10-27g .

(7.4)

Die effektive Masse m,, des Elektrons weicht wegen der Einwirkung des Potentials des Festkörpergitters etwas von der Ruhemasse m ab [7.10]. Der Bandabstand A What bei Halbleitern die Größenordnung 1 eV, bei Isolatoren ist er deutlich größer. Die FermiKante befindet sich in der Mitte der verbotenen Zone. Für T = 0 K ist gemäß GI. (7.3) n = 0, d.h. es befinden sich keine Elektronen im Leitungsband (scharfe Fermi-Kante). Je höher die Temperatur, desto stärker wird die Fermi-Kante verwischt (Abb. 7.2). Bei Raumtemperatur geraten einige wenige Elektronen ins Leitungsband. Bei 20°C ist 2.B. 4 k T 0.1 eV, und für Silizium mit A W = I . 12 eV ergibt GI. (7.3) --+ n = 5.7- 109Elektronen/cm3. Beim ersten Blick mag dies viel erscheinen; Silizium hat aber eine Dichte von 2.33 g/cm3 und ein Atomgewicht 28. Somit ist die Atomzahl (Avogadro)

-

Atome gIcm3 5.1022 Atome 1. cm Mol glMol Nur 1 Elektron auf ca. 10" Siliziumatome befindet sich also im Leitungsband. Dementsprechend ist die Eigenleitung von Silizium bei 20°C sehr klein.

6.1023 2.33 28

-

r-

W, Abb. 7.2. Einfluss der 'l'emperatur auf die Fermi-Dirac-Verteilung

7.1 .I Photoleitung Fällt Licht auf eine dünne Halbleiterplatte mit Oberfläche A und Dicke d, wird durch die Absorption von Photonen (Lichtquanten) das Energieniveau von Elektronen angehoben und, sofern die Photonen eine Energie h f > A W haben, Elektronen vom Valenzband ins Leitungsband befördert. In direkten Halbleitern [7.2] wie GaAs genügen Schichten von wenigen pm, um die Strahlung vollständig zu absorbieren. In indirekten Halbleitern wie kristallines Silizium braucht es dazu hingegen einige hundert pm (200 pm für 90% Absorption). Die Elektronen des Leitungsbandes sind im Kristall frei beweglich und bilden den negativ geladenen Elektronenstrom. Dadurch wird eine Umwandlungvon Strahlungs-

7.1 Physikalische Grundlagen. photovoltaischer Effekt

367

energie in elektrische Energie möglich (photoelektrischer Effekt). Die im Valenzband verbleibenden Lücken (Löcher) sind durch Nachrücken von Nachbarelektronen ebenso beweglich und bilden den positiven Strom. Der Vermehrung von Leitungsbandelektronen durch die Bestrahlung wirkt die Rekombination von Elektronen mit Löchern entgegen, so dass sich ein Gleichgewichtszustand einstellt. Die Anzahl Elektronen im Leitungsband nimmt nach dem Gesetz zu

dn - q 0 dt

=

q

=

t =

1 Ad

- - - ,

n t

worin

Photonenfluss [Photonenls] Quantemvirkungsgrad Rekombinationszeit der Elektronen -Löcher -Paare

Die stationäre Lösung dieser Differentialgleichung ist

Elektronen I m3

t

n = q @ Ad

.

Aus der Spektralintensität S, der senkrecht auf die Fläche fallenden Strahlung (Abb. 7.3) lässt sich der Photonenfluss berechnen:

s* da [-I W

d4 ~ h o t WS = 3 hf [-1. m2 A m2s Phot Daf = c/h ( C = Lichtgeschwindigkeit), folgt

Haben Photonen der Wellenlänge h einen Wirkungsgrad q,, so gilt Ca

In GI. (7.6) eingesetzt, kann daraus die Eigenleitfahigkeit des bestrahlten Halbleiters berechnet werden.

Abb. 7.3. Verlauf der Spektralintensität der Sonnenstrahlung

7 Photovoltaik

368

7.1.2 Der P-N-Übergang Durch den Einbau von Fremdatomen (Dotierung) kann die Leitfähigkeit des Halbleiters beeinflusst werden. Es wird dann von Slor~lellenleilunggesprochen. Ist die Valenzelektronenzahl der Fremdatome größer als jene des Halbleitermaterials (z.B. finfwertiges Ph in vierwertigem Si), können sich im Kristall die überschüssigen Elektronen von der Störstelle lösen und erhöhen die Leitfähigkeit des Halbleiters. Die Fremdatome werden in diesem Fall als Donatoren bezeichnet. Der so dotierte Halbleiter weist eine n-Leztfahigkeit auf. Die Elektronen sind Majoritätsträger, die Löcher Minoritätsträger. Besitzen umgekehrt die Fremdatome weniger Valenzelektronen (z.B. dreiwertiges Bor), wird von Akzeptoren und vonp-Leitfahlgkelt gesprochen, da jetzt die Anzahl der Löcher vermehrt wird. Die Löcher sind Majoritätsträger und die Elektronen Minoritätsträger. Wird ein p-n-Übergang gebildet nach Abb. 7.4a, ergibt sich zunächst wegen der unterschiedlichen Konzentration der Ladungsträger eine Dijfuslon der Majoritatstrager, d.h. der Elektronen von n nach p und der Löcher von p nach n. In der Grenzschicht bleiben die nun ionisierten Donatoren und Akzeptoren zurück und bilden eine Potentialbarriere, die den Diffusionsstrom stoppt. Es entsteht die Diffusionsspannung ULj(Abb. 7.4c), die den Wert annimmt (für Näheres s. [7.2], [7.8], [7.10]):

Leitband

I

7

Valenzband / L$

Abb. 7.4. a) p-n-Übergang, b) Energiebänderschema, c) Potentialverlauf

7.2 Photovoltaischer Effekt. Photostrom

369

n, = Dichte der n-Majoritätsträger np = Dichte der p-Minoritätsträger e = Ladung des Elektrons = 1.6021. 10-l9 As . Energetisch ergibt sich eine Absenkung der Bänder auf der n-Seite um e U,), und es gilt (Abb. 7.4b)

e U D = A W - 6,,

-

$,

(7.1 1)

worin 6, und 6, die Abstände von Leitungs- und Valenzband vom Fermi-Niveau bedeuten. Mit zunehmender Dotierung werden diese Abstände immer kleiner, und bei starker Dotierung ist

Für die Dicke der Raumladungszone gilt [7.2]

worin n„ und n, die Dichten von Donatoren und Akzeptoren sind.

7.2 Photovoltaischer Effekt, Photostrom Beim Anlegen einer äußeren Spannung U verhält sich ein p-n-Übergang als Diode (Abb. 7.5a), und es ergibt sich die Kennlinie Abb. 7.5b. Für U < 0 wird die Potentialbarriere verstärkt und die Diffusion rückgängig gemacht. Die Diode sperrt. Die thermisch erzeugten Elektronen werden abgesaugt und ergeben den Sättigungsstrom I, in Sperrrichtung [7. I]

Is prop.

Abb. 7.5. p-n-Übergang als Diode

exp(--)UD . U,

(7.14)

370

7 Photovoltaik

Für U > O wird die Potentialbarriere reduziert, die Diffusion begünstigt, und es fließt der Strom

Id

U,

=

kT e

-

=

=

U

Is [exp(-) UT

-

thermodynamische Spannung

11 =

25.7 mV bei 25°C

.

(7.15)

Wird der p-n-Übergang mit Photonen mit hf > A W bestrahlt (Abb. 7.6), springen Elektronen vom Valenzband ins Leitungsband. Da in der Raumladungszone ein Potentialgefälle besteht, wandern die Elektronen über die externe elektrische Verbindung zum + Pol (n-Bereich) und die Löcher zum P o l @-Bereich). Damit entsteht ein dem Diffusionsstrom entgegengesetzter Photostrom. Nur die unmittelbar in der Grenzschicht entstehenden Elektronen-Löcher-Paare tragen aber zum Photostrom bei, da die anderen rekombinieren, bevor sie durch das Potentialgefälle getrennt werden können. Die Strahlung muss also möglichst nahe an die Grenzschicht gebracht werden (Abb. 7.6). Für Näheres über den Aufbau der Solarzelle s. [7.2], [7.10]. Der entstehende Photostrom I„ ist proportional zur Bestrahlungsstarke. Aus GI. (7.15) folgt der totale Strom in Leitrichtung der Diode

Die Diodenkennlinie wird um I/],,nach unten gezogen, wie von Abb. 7.7 veranschaulicht. Im 4. Quadrant arbeitet die Anordnung als Generator (Solarzelle). Der von der Solarzelle erzeugte Strom ist I = - I * :

Wird die Solarzelle kurzgeschlossen (U = 0), ist im Idealfall

I = I , = Iph Im Leerlauf'(I = 0) ergibt sich aus GI. (7.16)

Abb. 7.6. Bestrahlte Solarzelle

'

(7.17)

7.2 Photovoltaischer Effekt, Photostrom

371

Kennlinie der Solarzelle

Bestrahlungsstärke

Abb. 7.7. Entstehung der Solarzellen-

Abb. 7.8. Abhängigkeit von Kurz-

Kennlinie durch Bestrahlung des p-nÜbergangs

schlussstrom und Leerlaufspannung der Solarzelle von der Bestrahlungsintensität

Der Kurzschlussstrom ist gleich dem Photostrom und somit proportional zur Bestrahlungsstärke, während die Leerlaufspannung in Funktion der Bestrahlung einen logarithmischen Verlauf aufweist (Abb. 7.8). Die Temperatur wirkt sich über U, (GI. 7.15) und I, (GI. 7.14) stark auf die Leerlaufspannung aus und zwar so, dass diese mit zunehmender Temperatur abnimmt. Steigende Temperatur vermindert so die Leistung der Solarzelle. Der Kurzschlussstrom wird hingegen nur wenig von der Temperatur beeinflusst (s. dazu auch Abb. 7.15).

Berechnung des Photostroms Für eine Spektralintensität S,nach Abb. 7.3 und gemäß GI. (7.8) ist der Photonenfluss für Wellenlängen zwischen h und h+ dh

d4q

A hc

= - S,

h dh

,

Photonen s

I-

Die Anzahl Elektronen, die zum Photostrom beitragen, ist auf Grund der Verluste kleiner

Elektronen S

I.

Der Wirkungsgrad q, berücksichtigt, dass

- Photonen verloren gehen durch Reflexion, Transmission und Thermalisierung, - ein Teil der erzeugten Elektron-Loch-Paare rekombinieren, bevor sie durch das Potentialgefälle getrennt werden. Es folgt der Photostrom

bzw. die Photostromdichte

-

Wird über das ganze Spektrum integriert, erhält man die Photostromdichte

hdh

[ ?AI . m

0

Die Leistungsdichte der Strahlung ist andererseits

Als Stromiffer der Solarzelle sei definiert

Eine Überwindung der Bandlücke A W ist nur für Strahlung mit

möglich. Die Strahlung ist also nur dann wirksam, wenn

h„„,hängt vom Halbleitermaterial ab. Für Silizium ist 7. B. A W = 1.12 eV, woraus h„, = 1.1 1 Pm. Für h > Am, ist q, = 0, da die Photonen nicht genügend Energie aufbringen, um den Bandabstand zu überwinden. Die entsprechende Energie wird thermalisiert. Es gilt also ,1

0,

/V, 0

s,

da

=

1q* s, h da , 0

und die Stromziffer kann auch folgendermaßen ausgedrückt werden

7.2 Photovoltaischer Effekt, Photostrom

3 73

oder kürzer geschrieben

Die einzelnen Faktoren seien diskutiert: Der erste Faktor ist eine Konstante

Der Wirkungsgrad q, berücksichtigt die Verluste f i r h > An,„ (Thermalisierung der entsprechenden Photonenenergie). Er ist eine Funktion des Sonnenspektrums und des Bandabstands des Halbleitermaterials. Er nimmt zu bei abnehmendem Bandabstand. Richtwert für Silizium ist q , 0.75, d.h. rund 25% der Solarenergie liegen im Wellenbereich über L„„. Mit monochromatischem Licht der Wellenlänge h„, wäre Tl," I.

-

Die Wellenlänge h, ist proportional zum Verhältnis zwischen Photonenzahl im Bereich O.... Am, und entsprechender Strahlungsenergie (Gln. 7.21 und 7.22). Für 3L = ist die Photonenenergie gerade so groß, wie für die Überwindung des Bandabstands nötig und wird ganz den Elektronen weitergegeben. Für h < h„, ist sie hingegen zu groß, und die Überschussenergie wird thermalisiert. Die entsprechenden Verluste können durch den Wirkungsgrad q, crfasst wcrdcn

e

und somit

E = h C

Am ql q2 q3 .

Würde die Solarzelle mit monochromatischem Licht der Wellenlänge h„, bestrahlt, wäre q, = I . Mit dem Solarspektrum AM 1.5 (Abb. 7.9) ergibt sich fiir monokristallines Silizium den Richtwert q, 0.66. Somit ist für Silizium q , q2 0.49, d.h 5 1% der Solarenergie kann auf Grund der spektralen Zusammensetzung des Sonnenlichtes nicht genutzt werden. Das Produkt q, = q, q, wird deshalb auch spektraler Wirkungsgrad der Solarzelle genannt.

-

-

Der Wirkungsgrad q, ist gemäß den Gln. (7.19) und (7.20) proportional zum Verhältnis zwischen Nutzelektronen und Photonen im Bereich O.... km„. Er berücksichtigt also Photonenverluste und Rekombinationsverluste. Dieser Wirkungsgrad hängt vom Stand der Solarzellentechnologie ab. Bei Siliziumsolarzellen mit einem Gesamtwirkungsgrad von 15% dürfte er einen Wert q, = 0.75 erreichen. Theoretisch liegt die Grenze bei 1, so dass bei Verbesserung der Technologie mit einer weiteren Zunahme gerechnet werden kann. Mit monochromatischem Licht der Wellenlänge Am, und q, tisch maximal erreichbare Stromziffer

=

1 wäre die theore-

374

7 Photovoltaik

l i

AM0 -Spektrum,l35.3 r n ~ c m - ~ Schwarzkörperstrahlung. 5762 K, 135.3 r n ~ c m - ~

M 2 -Spektrum, mit molekularer Abcorptior

0.2

0.8

1.4

2.0

2.6

Wellenlänge / Nm Abb. 7.9. Spektrale Strahlungsverteilung des Sonnenlichts AMO: Strahlencharakteristik außerhalb der Erdatmosphäre AM2: Strahlencharakteristik mit Atmosphäre ( 2 x Atniospliärendicke am Äquator, mit Sonne im Zenith und 0 m Ü.M.) [7.10] Die Berechnungen beziehen sich meist auf AM1.5 ( 1 . 5 ~Atmosphärendicke)

Sie ist also umgekehrt proportional zur Bandlückenenergie A W. Für Silizium erhält man E„„ = 0.89 AIW. Die GI. (7.28) kann schließlich geschrieben werden

Mit den erwähnten Richtzahlen folgt z.B. für kristallines Silizium

Aus der Stromziffer folgen Photostromdichte und Photostrom der Solarzelle: A Jph= E PS [-I und Iph = E PsA [Al m2 PS = Strahlungsleistung [Wlm 2 ] A = aktive Halbleitetfläche [m 2 ] Da q3theoretisch bis 1 erhöht werden kann, ist die obere Grenze der Stromziffer für Silizium bei Bestrahlung mit dem AM 1 .S-Sonnenspektrum E„ =: 0.44 AIW. Abbildung 7.10 zeigt die maximal mögliche Stromdichte ( Y, = I) mit AM0 und AM 1 .S-Spektrum und P, = 1000 Wlm' in Abhängigkeit der Bandlückenenergie der Halbleiter: J- = Eth . PS = Eqs . PS . (7.33)

7.2 Photovoltaischer Effekt, Photostrom

0.5

1

1.5 Bandlückenenergie

2 in eV

375

2.5

Abb. 7.10. Maximale Stromdichte in Funktion der Bandlücke (qi =I). [7.4]

Der spektrale Wirkungsgrad ergibt sich aus Cl. (7.33) zu

Er ist in Abb. 7.1 1 in Funktion der Bandlückenenergie für eine Bestrahlung der Halbleiter mit AM0 und AM 1.5 und 1000 Wlm2 dargestellt.

0.5

Abb. 7.11.

1

1.5 Bandlückenenergie

2

2.5

in eV

Spektraler Wirkungsgrad in Funktion der Bandlücke [7.4]

376

7 Photovoltaik

7.3 Solarzelle, Gesamtwirkungsgrad 7.3.1 Kennlinie und Ersatzschema Die Kennlinie der Solarzelle und deren Genesis sind in Abb. 7.7 dargestellt worden. Abbildung 7.12 zeigt den typischen Verlaufeiner reellen (gemessenen) Kennlinie für eine bestimmte Strahlungsintensität mit den wichtigsten Kennwerten. Die maximale Leistung wird im Punkt P erreicht. Die Solarzelle sollte also möglichst in diesem Punkt (MPP) betrieben werden durch Anpassung des Lastwiderstands. Der Kennlinienverlauf lässt sich mit dem Ersatzschema Abb. 7.13, das im Folgenden analysiert wird, qualitativ gut beschreiben. Exaktere Modelle werden in Abschn. 7.5.5 besprochen. Der zur Bestrahlungsintensität proportionale Photostrom wird durch eine Stromquelle simuliert. Die Differenz aus Photostrom und Diodenstrom ist gemäß GI. (7.16) theoretisch der Nutzstrom der Solarzelle. Das Ersatzschema berücksichtigt noch, dass Leckströme nicht vermieden werden können (Parallelwiderstand R,J und dass ohmsche Verluste an Übergangsstellen und in den Kontakten auftreten (Seriewiderstand RJ.

Uopt

U,

Abb. 7.12. Reelle Kennlinie einer Solarzellc: U,, Leerlaufspannung, I, Kur~schlussstrom,

P Punkt maximaler Leistung (MPP Maximum Power Point), R, Parallelwiderstand, K, Seriewiderstand, R„ Diodenwiderstand,

Abb. 7.13. Ersatzschaltbild der Solarzelle (Eindiodenmodell)

7.3 Solarzelle, Gesamtwirkungsgrad

377

Abb. 7.14. Diodenkennlinie und ihre Idealisierung

Grösse und Einfluss der beiden Widerstände auf die Kennlinie der Solarzelle lassen sich durch Idealisierung der Diodenkennlinie mit U„ und R, nach Abb. 7.14 ermitteln. Es hat sich als zweckmäßig erwiesen, den Diodenwiderstand als Differentialwiderstand beim halben Photostrom zu definieren. Aus GI. (7.15) folgt für I, >> I , und mit A = Idealitätsfaktor (s. dazu G1. 7.38)

Der Leerlaufiereich der Solarzelle (Diode leitet) lässt sich dann angenähert durch

darstellen. Die entsprechende Widerstandsgerade ist in Abb. 7.12 eingezeichnet. Für den Kurzschlussbereich der Solarzelle (Diode sperrt) folgt mit der idealisierten Kennlinie, da U, < U„ und I, = 0

U

=

(RD+ Rs)(I,- I)

Die entsprechende Widerstandsgerade ist ebenfalls in Abb. 7.12 eingetragen. Die beiden Widerstandsgeraden schneiden sich in P'. Die Werte R, und R,, können aus der experimentell ermittelten Kennlinie berechnet werden. Den typischen Verlauf der Kennlinien einer Siliziumzelle in Abhängigkeit von Strahlungsintensität und Temperatur zeigt Abb. 7.15. Bemerkenswert für die Steuerung der Solarzelle ist, dass die optimale Spannung (MPP) relativ wenig von der Einstrahlung und der optimale Strom wenig von der Temperatur abhängt.

378

7 Photovoltaik

Spannung in V

Abb. 7.15. Typische Strom-Spannungs-Kennlinien einer Silizium-Solartelle in Abhängigkeit von der Bestrahlung und der Temperatur 17.61

Aus dem Ersatzschema Abb. 7.13 folgt durch Hinzufügen einer Parallelkapazität auch ein dynamisch zutriedenstellendes Simulationsschema für die Solarzelle, das durch das Gleichungssystem (7.38) beschrieben wird. Die Größen 111,,,I, und U, sind darin temperaturabhängig, evtl. kann auch die Temperaturabhängigkeit von R, und R,] berücksichtigt werden. Die Diodenkennlinie wird exakter durch Einführung des Idealitätsfaktors A beschrieben (i.d.R. A = 1 - 1.5)

7.3.2 Leerlaufspannung Aus den Gln. (7.18), (7.14) und (7.12) folgt für I„ >> I,

U, I,

=

U, In(l +

i-)=

5 u~ = Ks(Z) exp(--) UT

U, In(-)IPh

5

AW mit UD = e

7.3 Solarzelle, Gesamtwirkungsgrad

379

Die Abb. 7.16 zeigt die Leerlaufspannung U, und den Wirkungsgrad q, (auch Spannungsfaktor genannt) in Funktion der Bandlücke für 25°C und für eine ideale Solarzelle.

0.5

1

2

1.5 Bandlückenenergie

2.5

in eV

Abb. 7.16. Leerlaufspannung und Wirkungrad q, (Spannungsfaktor )

einer idealen Solarzelle in Funktion der Bandlücke für 2S°C, [7.4] Die Leerlaufspannung U, kann theoretisch maximal den Wert der Diffusionsspannung erreichen, welcher bei starker Dotierung dem Bandabstand entspricht gemäß GI. (7.12). In Wirklichkeit ist für eine reelle Zelle oder Modul die Leerlaufspannung etwas niedriger. Der Wirkungsgrad q, ist stark von Bestrahlungsintensität und Temperatur abhängig. Mit den Annahmen (7.14) und (7.18) folgt fur Silizium (mit E„, =. 0.89 AIW) die in Abb. 7.17 dargestellte Abhängigkeit. Bei einer Einstrahlung von 1000 W/m2 und einer Temperatur von 25°C ist ein Wirkungsgrad q, = 0.54 angenommen worden (Uo= 0.6 V entsprechend Abb. 7.15).

1 i

07r14

06-

-15°C

,

T

25°C 05L

/L 02

O1

10

2 30 U, E„,-

l

I 4

65°C

II

I

_

LL-

I

1

I O*

1

iiil

103

i

l

i

,

l

I

I o4

I

i

i

i

l

l

,

105

P, [ W / m2] Abb. 7.1 7. Abhängigkeit von q, (Leerlaufspannung)von Strahlungsintensität und 1 emperatur (kristallines Silizium) für ein Solarmodul. -

7 Photovoltaik

380

Eine Konzentration der Strahlung um den Faktor 100 (Konzentratorzellen [7.2]) würde eine Zunahme des Wirkungsgrades um rund 20% (relativ) bedeuten, vorausgesetzt die Zellentemperatur bleibt die gleiche. Eine Temperaturerhöhung lässt, wie bereits erwähnt, die Leerlaufspannung sinken und reduziert dementsprechend den Wirkungsgrad um ca 0.3% (relativ) pro "C.

7.3.3 Füllfaktor Als Fülljuktor Fbezeichnet man das Verhältnis zwischen dem Produkt aus Spannung und Strom im optimalen Punkt (MPP) und dem Produkt aus Leerlaufspannung und Kurzschlussstrom:

Wird P durch P'ersetzt (Abb. 7.12), lässt sich aus dem theoretischen Kennlinienverlauf mit der für große Einstrahlungen i.d.R. gut erfüllten Annahme

schreiben:

Schließlich sei der Teilwirkungsgrad

eingeführt, der auch Leckstrome und ohmsche Verluste von Diode und Kontakten berücksichtigt. Bei guten Siliziummodulen kann mit dem Richtwert q, = 0.75 gerechnet werden. Eine Annäherung an 1 ist theoretisch möglich. Abbildung 7.18 zeigt den idealisierten Füllfaktor F, (wobei F < F, ) in Funktion der Bandlücke des Halbleiters.

0.5

1

2

1.S Bandlückenenergie

2.5

in eti

Abb. 7.18. Idealisierter Füllfaktor verschiedener Halbleiter, [7.4]

7.3 Solarzelle. Gesamtwirkuneserad

381

7.3.4 Gesamtwirkungsgrad

Der Wirkungsgrad ist als Verhältnis von Leistung im optimalen Punkt P (MPP) und Strahlungsleistung definiert

Durch Einführung des Füllfaktors GI. (7.40) und Berücksichtigung von GI. (7.37) sowie des Photostroms GI. (7.32) folgt

Für die Stromziffer gilt nach Abschn. 7.2 und insbesondere GI. (7.30): E:=Emaxr)lq2q3 . Werden außerdem die Leerlaufspannung gemäß GI. (7.39) und der Füllfaktor gemäß GI. (7.43) eingesetzt, erhält man die Fünffaktorenforrnel

'l

= ' l l 'l2 'l3 '14 ' l 5

.

(7.46)

Mit den angegebenen Richtwerten folgt für Siliziummodule bei 1000 W/m2und 25"C, q 5 0.75 .0.66.0.75 .0.55 .0.75 = 0.15, was etwa dem Wirkungsgrad guter heutiger kommerzieller Solarzellen entspricht. Mit den Annahmen q 3= q, = 1 erhält man den theoretisch maximalen Wirkungsgrad (7.47)

'l,h = '11 '12 '14 .

Abbildung 7.19 zeigt diesen Wirkungsgrad in Funktion der Bandlücke für verschiedene Halbleiter für AMO- und AM 1.5-Sonnenspektrum. Für kristallines Silizium ergibt sich der theoretisch maximale Wert q„, = 0.28. Im Labor sind Wirkungsgrade bis Ca. 21% oder gar 23-24% [7.2] erreicht worden.

0.5

1

1.5 Bandlückenenergie

2

2.5

in eV

Abb. 7.19. Theoretisch maximaler Wirkungsgrad von Solarzellen, 17.41

382

7 Photovoltaik

7.3.5 Möglichkeiten zur Wirkungsgradverbesserung

Eine Erhöhung des Wirkungsgrades ist aus wirtschaftlicher Sicht von großer Bedeutung, da sie die notwendige Fläche verkleinert und so die Kosten der Photovoltaik-Anlage erheblich senkt. Sie darf also auch etwas (allerdings nicht zu viel) kosten. Der vorhin definierte theoretisch maximale Wirkungsgrad %h = q1 q 2 q 4 Iässt sich nicht überschreiten, mit noch tragbarem wirtschaftlichen Aufwand auch kaum erreichen. Für kristallines Silizium bei 1000 W/m2 und 25°C beträgt er wie erwähnt etwa 0.28. Um sich diesem Wert zu nähern, müssen die Wirkungsgrade q, und q5, deren Produkt heute für kommerzielle Module Ca. 0.56 beträgt, weiter verbessert werden. Dazu sind in erster Linic die elektrischen Verluste durch Rekombination und ohmsche Widerstande (eine gute Analyse dazu gibt [7.2]), aber auch die Leckverluste zu reduzieren. Zur Verschlechterung des Wirkungrades q, tragen auch optische Verluste (Photonenverluste) im Bereich A. = 0 ....Am, bei. Durch Antireflexschichten und Texturierung der Oberfläche (Pyramidisierung der Siliziumoberfläche) wird die Reflexion möglichst reduziert und durch Lichtstreuung (an der texturierten Oberfläche) sowie Spiegelung an der Rückseite der Solarzelle die Absorption verbessert [7.2], [7.4].

Es stellt sich ferner die Frage nach den Möglichkeiten, den recht niedrigen theoretischen Wirkungsgrad qti,= q , q2q4 von Ca. 28% zu erhöhen.

Straltlungskonzentration Der Wirkungsgrad q, Iässt sich durch Konzentration der Strahlung verbessern (Abb. 7.17). Theoretisch nimmt dieser Wirkungsgrad logarithmisch mit der Strahlungsleistung zu, um dann bei sehr starker Konzentration abgeflacht gegen 1 zu streben. Mit hundertfacher Konzentration steigt zwar, z.B. bei 25"C, q, von 0.54 auf ca. 0.65, wobei jedoch nur die direkte Strahlung genutzt werden kann (Abschn. 1.2.3.5); diese Technik ist deshalb nur für Standorte mit niedrigem Diffuslichtanteil sinnvoll. Mit Linsen- und Spiegelkonzentratoren lassen sich Konzentrationsfaktoren bis über 1000 erreichen. Die Verbesserung des Gesamtwirkungsgrades der Solarzelle ist allerdings meist weniger gut als erwartet, aus folgendem Grund: wie aus Abb. 7.1 7 ebenfalls ersichtlich, tritt die Verbesserung nur dann ein, wenn die Temperatur konstant bleibt. Da die Konzentration der Energie eine größere Erwärmung nach sich zieht, müsste eine kostenverursachende Kühlung vorgesehen werden. In diesem Zusammenhang sei vermerkt, dass sich die Temperaturerhöhung nicht nur auf den Wirkungsgrad q4, sondern auch auf q, (Temperaturabhängigkeit von R,J negativ auswirkt. Diese Schwierigkeit sowie auch die mit der Nachführung und der Konzentration verbundenen Mehrkosten, trotz Verminderung der aktiven Fläche, haben dazu geführt, dass sich die Kopplung von fokussierenden Spiegeleinrichtungen mit konventionellen Siliziumzellen bis heute nicht durchsetzen konnte. Ein Ausweg könnten spezielle Konzentratorzellen, die als Punktkontaktzellen ausgeführt werden, darstellen [7.5],[7.10].

7.3 Solarzelle, Gesamtwirkungsgrad

383

Verbesserung der Nutzung des Solarspektrums Das Produkt q, q, ist durch die Spektralverteilung der wirksamen Strahlung und das Halbleitermaterial bestimmt. Mit AM 1.5 (1.5 Atmosphärenlängen, vgl. mit Abb. 7.9) beträgt es für kristallines Silizium Ca. 0.75 .0.66 = 0.49. Andere Halbleiter sind auch nicht besser (Abb. 7.1 1). Eine wesentliche Verbesserung kann nur mit Tandem- oder Mehrfachzellen erreicht werden. Darunter wird die Kombination verschiedener Halbleiter verstanden, wobei jeder Halbleiter möglichst den Teil des Spektrums absorbiert, dessen Wellenlängen unmittelbar unterhalb des eigenen h„, liegt (für h = h„, ist q, q, = I). Praktisch ergeben sich Schwierigkeiten mit der Wahl der Schaltung. Im allgemein wird die einfache Serieschaltung eingesetzt, sie hat allerdings den Nachteil, dass hier die schlechteste Solarzelle den Strom bestimmt. Bei Parallelschaltung ergeben sich Probleme mit der Kontaktierung sowie den notwendigen transparenten Zwischenschichten. So oder so erfordern Tandemzellen eine komplexere Technologie, die einen erheblichen Mehraufwand impliziert [7.2]. Dementsprechend ist dieser Technik, obwohl aussichtsreich, bis jetzt kein großer kommerzieller Erfolg beschieden, außer bei Raumfahrtzellen, wo damit Wirkungsgrade über 30% erreicht werden und durchaus üblich sind. Tandemzellen werden auch bei Dünnfilmzellen eingesetzt (siehe Abschnitt 7.3.6). Näheres über Tandem- und Tripelzellen z.B. in [7.4], [7.15], [7.16].

7.3.6 Solarzellentypen Erfolgreichste Solarzelle fur Leistungsanwendungen ist bisher eindeutig die Sili.71umzelle auf mono- oderpolykristalliner Basis. Praktisch alle photovoltaischen Anlagen basieren heute auf dieser Technologie, die dementsprechend gut entwickelt ist, auch wenn für Netzanwendungen um einen Faktor 5 zu teuer. Die Wirkungsgrade der kommerziell erhältlichen Module liegen heute im Bereich 12 % bis 18%. (Laborrekord für eine einzelne Solarzelle 24.7%). Ein wesentliches Handicap dieser Technik ist, dass mehr als 50% der Kosten auf die Solarzelle selbst entfallen, nicht zuletzt wegen des großen Materialaufwandes (Zellendicke von 200 pm für 90%Absorption). '

Dünnschichtsolarzellen Aus diesem Grunde ist man einerseits bestrebt, die Zellendicke der Siliziumzellen auf Ca. 100 pm (oder weniger) zu reduzieren, um den Materialaufwand zu verringern. Andererseits versucht man, eigentliche Dünnschichtsolarzellen zur kommerziellen Reife zu bringen. Eine erste Forschungsrichtung stellen die - Dünnschichtzellen aus kristallinemSilizium dar, deren Dicke etwa bis 5 pm (z.B. auf Glas) beträgt und somit, was den Materialeinsatz (und die Kosten) betrifft, erhebliche Vorteile aufweisen. Um die notwendige Absorption der Strahlung zu erreichen, wird das Licht mehrfach reflektiert (optical confinement). Für Näheres s. [7.2] sowie [7.3]

384

7 Photovoltaik

In Abschn. 7.1.1 wurde erwähnt, dass es Halbleiter gibt mit wesentlich größerer Absorptionskraft als kristallines Silizium. Forschungsanstrengungen haben zur Entwicklung von verschiedenen Solarzellentypen geführt. Die wichtigsten sind: - Solarzellen aus amorpltem Silizium: Mit Schichten < 1 pm lassen sich Solarzellen bauen, die eine weite Verbreitung im kleinen Leistungsbereich (Taschenrechner, Uhren usw.) gefunden haben. Für größere Leistungen ist der erreichte stabilisierte Wirkungsgrad ca. 6% für Module sowie max. 13% im Labor. Die Anfangswirkungsgrade sind zwar höher, aber senken sich auf die erwähnten Werte wegen der lichtinduzierten Degradation. - Solarzellen aus Gallium-Arsenid GaAs: Dieses kristalline Material ermöglicht eine 90%-Absorption mit 2 pm. Der Bandabstand von 1.42 eV ist ebenfalls sehr günstig. Mit AM1.5 werden im Labor Wirkungsgrade bis 24.5% erreicht. Einer Verbreitung dieser Zellen stehen der Preis (vorläufig) und vor allem Umweltaspekte (Giftigkeit von Ga und As) im Wege. Zellen aus GaAs werdenfir Raumfahrtsanwendungen und als Konzentratorzellen entwickelt. Mit diesen Zellen lassen sich höhere Wirkungsgrade erreichen, speziell in der Konfiguration von Tandem- und Mehrfachzellen (siehe oben). Allerdings sind solche Zellen sehr teuer. - Solarzellen aus Cadmium-Tellurid CdTe: Diese Dünnfilmzellen machen heute sehr viel von sich reden (Laborrekord 16.5 % Module wohl Ca. 6%). Probleme: Cadmium (giftig), Tellurium (nicht ausrecichend verfügbar). Produktionskosten minimal [7.17] - Solarzellen aus Kupfer-Indium-Diselenid CulnSe,: Für diese auch als CISSolarzelle bekannte Anordnung aus polykristallinem Material genügt eine Schicht von ca. 2 pm, um die Strahlung zu absorbieren. Der etwas ungünstigere Bandabstand von 1 eV kann durch Hinzufügen von Ga zum In auf optimale 1.4 eV erhöht werden. Damit wurden im Labor Wirkungsgrade von 18.8% erreicht. Kommerzielle Module haben allerdings einen Wirkungsgrad von Ca. 9%. Das Entwicklungspotential wird als gut beurteilt. Ein Nachteil könnte die begrenzte Verfugbarkeit von Indium sein. Dünnschichtsolarzellen eignen sich besonders gut f i r Tandernstrukturen. Insbesondere mikromorphe Solarzellen, welche mikrokristalline und amorphe Solarzellen kombinieren, eröffnen hier neue Perspektiven [7.12], [7.13]. Es werden zur Zeit viele Produktionsanlagen für mikromorphe Module geplant; kommerzielle Modulwirkungsgrade sind etwas über 8% (wobei man hofft, bald auf 10% hinaufzukommen). Die Herstellungskosten und der Materialaufwand sind deutlich geringer als bei den klassischen kristallinen Siliziumzellen.

7.4

Die Sonne als Energieauelle

385

7.4 Die Sonne als Energiequelle Vor Ca. 5 Mrd. Jahren entstand an einem bestimmten Punkt der Milchstraße der Fusionsreaktor Sonne durch lokale Verdichtung der Ur-Gasmasse des Universums (bestehend aus Ca. 75% H und 25% He), die zur kritischen Temperatur von etwa 12 Mio. K fuhrte. Möglicherweise war eine Supernova-Explosion die Ursache der Verdichtung. In den vergangenen 5 Mrd. Jahren hat die Strahlungsintensität wahrscheinlich um Ca. 25% zugenommen. Noch weitere 5 Mrd. Jahren wird die Sonne in derselben Art Wasserstoff zu Helium verbrennen, wobei ihre Strahlungsintensität weiterhin leicht ansteigen wird. Dann wird sie in eine Art Energiekrise geraten und sich zu einem „Roten Riesen" aufblähen, später kollabieren und als „Weißer Zwerg" weiterhin leuchten, schließlich langsam ausbrennen und als unsichtbare Kugel ihren Stern-Lebenslauf beenden. Heute ist die Sonne eine Gaskugel mit folgenden Daten: Radius: 696 '000 km (109 X Erde) Volumen: 1.4 1 2 . 1 0 ~ ~ m --> (7.48) Oberfläche: 6.087. 1018 m Dichte: 1.41 tlm (114 der Erde) Masse: 2. lo2' t (Erde 6 . 102' t ) . Die Abstrahlung beträgt total 380.1012TW, auf die Oberfläche bezogen, die eine Temperatur von 5900 K aufweist, sind dies rund 62 TWlm2. Die abgestrahlte Energie beträgt 12 .I 03' Jla und der entsprechende Massenverlust nach der Relation E = m C' ist Am = 133.10" tla. Dabei werden Ca. 20.10" tla Wasserstoff verbrannt. In 5 Mrd. Jahren sind es ca. 1OZ6 t, was etwa 1 0 15% des ursprünglichen Vorrats bedeutet. 7.4.1 Extraterrestrische Strahlungsintensität

Die Erde kreist um die Sonne in einer leicht elliptischen Bahn. Der Abstand ErdeSonne beträgt

dm

=

152. 106 km

: Anfang Juli

dn,

=

147. 106 km

: Anfang Januar

d,,,

=

149.5.1o6 km

: Anfang AprillOktober

(7.49)

.

Daraus lässt sich die mittlere extraterrestrische Strahlungsintensitüt (d.h außerhalb der Atmosphäre, aber in Erdnähe) berechnen:

D,,

=

380 1°14 4 n d;

=

W 1353 - = Solarkonstante m2

minimaler Wert Anfang Juli : 13 10 Wlm maximaler Wert Anfang Januar : 1400 Wlm

.

7 Photovoltaik

3 86

Die totale Strahlungsleistung auf der Erde lässt sich daraus berechnen, bei Berücksichtigung des Erdradius von Ca. 6.38.106 m (einschl. Atmosphäre). Die mittlere Strahlungsleistung ist

Zwischen Juli und Januar ändert sie sich von 167'000 bis 179'000 TW. 7.4.2 Scheinbare Sonnenbewegung relativ zur Erde

Abbildung 7.20 zeigt das Erdkoordinatensystem (Länge und Breite) und die Neigung der Rotationsachse der Erde um 23.45" gegenüber der Bahnebene. Durch Projektion an das Himmelsgewölbe erhält man das sog. ~immels-Äquatorsystemfür den betrachteten Ort (Abb. 7.21). Wegen der Kleinheit des Erdradius befindet sich der Ort A praktisch im Mittelpunkt des Systems. Die Richtung der Himmelsachse wird von der Breite des Ortes bestimmt. Am Äquator ist die Himmelsachse horizontal, an den Polen stimmt sie mit der Nadir-Zenit-Achse überein.

Breitenkreis Aquator Bahnebene Ortsmeridian Erdachse Koordinaten des Ortes A auf der Erde (Länge, Breite)

Abb. 7.20.

Sonnenbahr

Himmelsä

,

Nadir

Scheinbare Sonnenbewegung, für die Breite

0 - - > östlicheLunge) Lange des Normalzeitortes Cfür den TS = TL - ET) Korrekturterm, s. GI.(7.57) .

(7.55)

Für die westeuropäische oder Greenwich-Zeit (England, Portugal) ist L, = Oe (Greenwich- oder Nullmeridian, London). Für die mitteleuropäische Zeit = MEZ, gültig für die meisten Länder Europas, ist L, = 15", für die osteuropäische Zeit oder Moskauer-Zeit ist L, = 30" usw. Für die Schweiz und die meisten Länder Europas gilt also

TS

=

L - 1 5 + ET MEZ + 15

Sommer: TS

=

SOZ -

Winter:

wobei Sommerzeit SOZ

=

MEZ - 1 .

Der Term ET ist eine Folge der elliptischen Bahn der Erde, deren Sonnenumkreisgeschwindigkeit gemäß den Keplerschen Gesetzen nicht konstant ist. Mit genügender Genauigkeit für Solaranwendungen (nicht aber für nautische Anwendungen) kann man schreiben: 1

ET [h]

a, cos(kN) + bk sin(kN)

=

k= 1

mit N

=

360 nd (nd = laufende Tag-Nr) 365.25

-

Den Verlauf des Korrekturterms ET in Minuten im Verlauf der Jahreszeit zeigt Abb.

Min

1 ' Abb. 7.23. Korrekturterm ET

Tag

7.4

Die Sonne als Energiequelle

389

7.4.3 Berechnung des Sonnenstands

Der Sonnenstand wird definiert durch den Hohenwinkel h (über dem Horizont) oder den Zenitwinkel z = 90" - h und den Azimut a (Abweichung von der Südrichtung). Mit Hilfe von Sätzen aus der sphärischen Trigonometrie (Sinus- und Cosinussatz) folgt für das sphärische Dreieck Nordpol-Zenit- Sonnenstand (cp >O für die nördliche Halbkugel)

sinh

=

cosz

=

sincp sin6 + coscp cos6 coso

sina

=

cosa

=

(7.58)

coss sino cos h sincp sinh - sin6 cos h coscp

Die Gln. (7.59) müssen beide wegen der Doppeldeutigkeit erfüllt sein. Für den theoretischen Sonnenaufgang bzw. - untergang (bei flachem Horizont) folgt

h

=

sinq sin6

0 -->

coso,

=

cosaO =

-

=

-coscp cos6 coso

tancp tanb sin 6 -. cos cp

7.4.4 Berechnung der Strahlungsintensität Die extraterrestrische Strahlungsintensität D, schwankt entsprechend GI. (7.50) um gut 3% um den mittleren Wert und kann als Funktion der Deklination ausgedrückt werden. Wird mit D, die effektiv eintreffende Strahlung bezeichnet, erhält man für die Strahlungintensität auf einer horizontalen Fläche gemäß Abb. 7.24

D = D ,sinh.

~ b b7.24. .

Strahlung auf horizontaler Fläche

Für eine geneigte Flache, deren Neigung relativ zur horizontalen durch den Winkel $ und deren Ausrichtung durch den Azimut a, bestimmt wird (Abb. 7.25), sei der Grundriss Abb. 7.26amit den Vertikalschnitten Abb. 7.26b und 7 . 2 6 ~ betrachtet. Die auf die Fläche wirkende senkrechte Strahlungskomponente D ergibt sich folgendermaßen:

D mit y,

=

= X, + X,

D, sinh tan$ , y, = D,cosh cos(a - al) - y, D, sinh X, = -, X, = Y, s h $ . COS*

(7.62)

390

7 Photovoltaik

Abb. 7.25. Geneigte Fläche in beliebiger Richtung

a) Grundriss

B'

C) Vertikalschnitt BB'

b) Vertikalschnitt AA'

Grundriss und Vertikalschnitte zu Abb. 7.25, Bercchnung der auf der Fläche senkrecht stehenden Komponente von D,

Abb. 7.26.

Aus den Gln. (7.62) folgt durch Einsetzen und einige Umformungen D

=

D1 [sinh

tos*

+ cos h sin* cos(a - U,)]

.

(7.63)

Der Spezialfall von GI. (7.61) folgt für $ = 0. Wird die Fläche um eine vertikale Achse der Sonne nachgefahren, so dass a, = a, folgt D = D, sin (h + q). Wird schließlich die Fläche auch um eine horizontale Achse entsprechend dem Sonnenstand gedreht, so dass $ = 90" - h, folgt D = D, .

7.4

Die Sonne als Energiequelle

391

7.4.5 Strahlungsenergie pro Tag

Die Strahlungsdichte D, ist während des Tages wegen der Wirkung der Atmosphäre und des Wellers nicht konstant und die effektive Tages-Strahlungsenergie dernzufolge einer Berechnung kaum zugänglich und nur experimentell und statistisch erfassbar. Als oberster Richtwert kann, gesetzt D, = D,, die extraterrestrische Tagessumme (Einstrahlung ohne Atmosphäre) angegeben werden:

Horizontale Fläche su

SU

W, =

/

Ddt

=

/

D, sinh dt .

SA

SA

Wird die Zeit durch den Stundenwinkel nach GI. (7.54) ersetzt

*

wobei die lntegrationsgrenzen bei flachem Horizont durch o,entsprechend GI. (7.60) ersetzt werden können, und berücksichtigt GI. (7.58), folgt Oo

W,

=

D,

/ (sinq sin6

+

cosq cos6 c o s o )

24 do . 2n

-

-0

Für den betrachteten Ort und Tag sind cp und 6 konstant, und man erhält schließlich

Wd

24 n

= - D,

(sincp sinb o, + cosq cos6 sino,)

Abbildung 7.27 zeigt den Jahresgang der Tagesenergie für verschiedene Breitengrade und mit der Annahme D,(6) = konst = 1.353 kW/m2. Das Integral über das Jahr führt in Abhängigkeit von der Breite zu Abb. 7.28.

Abb. 7.27.

Jahresgang der Tagesenergie auf einer horizontalen Fläche für verschiedene Breitengrade (extraterrestrische Einstrahlung 1 353 W/m2)

+

Breite des Ortes

Abb. 7.28. Jahresenergie auf einer horizontalen Fläche ohne Atmosphäre in Funktion der

Breite des Ortes Geneigte Fläclie

+

Ist die Fläche nach Süden ausgerichtet (nördliche Hemisphäre) mit Neigung (Abb. 7.25), ist U, = 0, und es genügt, in GI. (7.66 ) cp durch (cp - $) zu ersetzen. In der Regel liefert eine andere Orientierung als Südrichtung eine kleinere Tagesenergie. Es gibt aber auch Fälle, in denen dies nicht zutrifft und eine andere Orientierung sinnvoll ist: Wirkung von Bergprofilen (U, ergibt sich dann aus GI. 7.58 nicht für h = 0, sondern aus h„„, entsprechend dem Bergprofil), regelmäßiger Morgennebel, Bewölkung jeweils am Nachmittag, Reflexionswirkungen (Schnee, Gletscher, Wasser), diffuses Licht usw. Durch Integration der GI. (7.66) folgt allgemein

W,

24

= - D, 7c

[(cos* sincp-sin* coscp) sinb o,

+

+ (cosq coscp + sin* sincp) cosb sinw,)]

(7.67)

.

Werden über eine bestimmte Zeitperiode (Monat, Saison, Jahr) Neigung und Orientierung der Fläche nicht geändert, ergibt die Aufsummierung

"d

einen Ausdruck der Form

A mit (

B

24

= - D,

n

24

= -~ 7c

(sincp

C sin6 o, + coscp C cosb sino,) nd

nd

, ( - ~ ~ ~ c p C ~+i sincpC n o o , cosb sinoo)cosal . nd

nd

7.4

0

10

20 --

30

40 --

50

-)

Die Sonne als Energiequellc

60

70

80

393

90

Breite des Ortes

Abb. 7.29. Optimale Ncigung in Funktion der Breite des Ortes, ohne Atmosphäre (während des Jahres oder des Sommers bzw. Winters unveränderte Neigung)

Die Energie der Periode wird maximiert für dW/d+ gung folgt

=

0, woraus die optimale Nei-

die in Abb. 7.29 in Funktion der Breite des Ortes bei Südausrichtung (nördliche Halbkugel) dargestellt ist. Sie nimmt zu bis zum Polarkreis, uni dann wieder abzunehmen. Mit Atmosphäre ist die optimale Neigung etwas kleiner, weil für den diffusen Lichtanteil die horizontale Lage am besten abschneidet. 7.4.6 Wirkung der Atmosphäre

Werden die bisherigen Berechnungen auf geostationäre Satelliten angewandt, liefern sie exakte Resultate (der Wert des Höhenwinkels bei SA und S U ist allerdings nicht null, sondern leicht negativ und abhängig von der Satellitenhöhe). Für Anlagen auf der Erde ist die Wirkung der Atmosphäre zu berücksichtigen, die nur experimentell erfasst werden kann. Die Atmosphäre verursacht Reflexion, Streuung und Absorption der Sonnenstrahlung. Vor allem die Absorption in 20-30 km Höhe durch das Ozon und in tieferen Schichten durch Hi 0 und CO, bewirkt nicht nur eine Abnahme der Strahlungsintensität, sondern auch eine Veränderung des Spektrums (s. auch Abb. 7.9). Die Verteilung der Sonnenstrahlung in der Atmosphäre kann mit Hilfe des Schemas in Abb. 7.30 näher erklärt werden. Die eintreffende kurzwellige Strahlung So wird z.T. von der Atmosphäre absorbiert und dabei in langwellige Wärmestrahlung umgewandelt. Ein weiterer Teil wird von Luft und Wolken direkt ins Weltall zurückgestrahlt oder gestreut. Was übrig bleibt, trifft als direkte Strahlung S auf die Erde. Die gestreute Strahlung erreicht ebenfalls als Himmelsstrahlung H die Erde. Die auf der Erde gemessene d@use Strahlung

394

7 Photovoltaik Sonne

Reflexion 29%

i 100% Wärmeabstrahlung 71%

30% Absorption

Abb. 7.30. Auftcilung der einfallenden Solarstrahlung durch Reflexion, Streuung und Absorption sowie Wärmeabstrahlung (Zahlen entsprechen Erddurchschnitt)

kann neben der Himmelsstrahlung auch einen Teil Reflexionsstrahlung aus der Umgebung enthalten. Die Summe von Direktstrahlung und Himmelsstrahlung (bzw. Diffusstrahlung) wird als Globalstrahlung G bezeichnet. Nach Abzug der von der Erde reflektierten Strahlung R verbleibt die von der Erde absorbierte Strahlung, die in Wärme umgewandelt wird. Da sich die Erde im thermischen Gleichgewicht befindet, muss diese Wärme wieder abgegeben werden, was etwa zu 213 durch Konvektion und Verdunstung und 113 durch Wärmeabstrahlung (E -A) in die Atmosphäre geschieht. Die Atmosphäre insgesamt strahlt Ca. 7 1% der Sonnenstrahlung als Wärme in das Weltall ab.

7.4.7 Strahlungsintensität mit Atmosphäre Die Strahlungsintensität kann durch Messung von Globalstrahlung und Direktstrahlung erfasst werden [7.8]. Für die Schweiz liegen Messungen der direkten Strahlung bei klarem Himmel für verschiedene Höhenlagen vor (Abb. 7.3 1 und 7.32) sowie über die Globalstrahlung für einzelne Stationen. Bei maximaler Strahlungsintensität (TS = 12, Abschn. 7.4.2) gelten für die direkte Struhlung die Richtzahlen von Tabelle 7.1 (auf einer zur Strahlung normalen Fläche). Die max. Globalstrahlung im schweizerischen Mittelland hat einen typischen Wert bei wolkenlosem Himmel von 1000 W/m2, wovon bei klarblauem Himmel etwa 10% diffus sind. An einem dunstigen Sommernachmittag beträgt der Diffusanteil bis 50%. An einem trüben Wintertag kann die Globalstrahlung lediglich 5 0 100 W/m2 erreichen (1 00% diffus).

7.4

Die Sonne als Energiequelle

395

Direkte Strahlung in der Schweiz in Abhängigkeit von der Höhenlage für verschiedene Jahreszeiten

Tabelle 7.1.

Direkte Strahlung um 12.00 h

Juni Wlm'

Ende März. Anfang April W/m2

extraterrestrisch

1350

4000 m

1158

3000 m

1 1 15

2500 m

1086

2000 m

1047

1500 m

1000

400 m

870

Dezember W/m2

600

z

-

'E 0

so0

Y U

0

-

.m

"

*W

d

C

$, wo

C

L n

3anreszeit

Tages- und jahreszeitliche Verteilung der direkten Sonnenstrahlung auf Normalfläche fur das schweizerische Mittelland in 400 in ü.M, bei klarem Himmel, 1 kcallh-m2= 1.163 W/m2 (Quelle: MZA Zürich)

Abb. 7.31.

396

7 Photovoltaik

mois

Abb. 7.32. Jahreszeitliche Veränderung der Direktstrahlung für verschiedene Stunden des Tages in 2000 m ü.M, bei klarem Himmel, I kcallh-m2= 1.163 W/m2 (Quelle: Studie Institut Battelle)

Die Abb 7.33 gibt eine Schätzung des in Europa möglichen Energieertrags in kWh/kWp mit PV-Anlagen, bei optimaler Ausrichtung der Solargeneratoren. Photovoltaic Solar Electricitv pntential in European Countries

Abb. 7.33. Jährlicher Energieertrag in kWh/kWp bei optimaler Ausrichtung der PVAnlage (Quelle: PVGIS European Communities [7.18])

7.5

Systemtechnik

Je nach Energieversorgungsaufgabe werden zwei Arten von PV-Systemen unterschieden: lnselsysteme und netzgekoppelte PV-Anlagen. Beide verwenden Solargeneratoren, die sich aus Solarmodulen zusammensetzen. Etwa 90% der weltweit installierten PV-Leistung sind heute netzgekoppelt. 7.5.1 Solarmodule und Solargeneratoren Solarmodule

Durch Serieschaltung (in seltenen Fällen auch Parallelschaltung) der derzeit üblichen Solarzellen von häufig 2-4 W Leistung (bei 1000 W/m2)ergeben sich Solarmodule, die eine Leistung von 50-200 W aufweisen. Das meist verwendete Modul für kristallines Silizium besteht aus 36 seriegeschalteten Zellen. Um die Überhitzung von möglicherweise verschatteten Solarzellen zu verhindern, wird jede Solarzelle oder zumindest eine Anzahl von Solarzellen mit einer Diode (Bypassdiode) überbrückt. Solargeneratoren

Durch Serie- und Parallelschaltung von Solarmodulen können Solargeneratoren mit der gewünschten Leistung und Spannung hergestellt wcrden. Die Serieschaltung ergibt einen Strang (oder englisch Stving), der mit Bypassdioden und Strangsicherungen gegen Rückströme geschützt wird. Durch die Serieschaltung wird die gewünschte Systemspannung erreicht. Die Parallelschaltung von Strängen ermöglicht die Erhöhung des Stromes und somit Erreichung der gewünschten Leistung des Solargenerators. Näheres über Aufbau und Herstellung von Solarmodulen und Solargeneratoren sowie über die durch Serie- und Parallelschaltung entstehenden Probleme und insbesondere die durch Teilbeschattung entstehenden Leistungsverluste ist z.B. in [7.4] zu finden 7.5.2 Inselsysteme

Für Inselsysteme kleiner Leistung stellt die PV oft eine wirtschaftliche Lösung dar. Typische Anwendungen sind Telekommunikationseinrichtungen, isolierte Kühleinrichtungen, Verkehrs- und Notrufeinrichtungen, Wasserpumpen, Energieversorgung von Berghütten oder -restaurants, in Entwicklungsländern auch von kleineren Dörfern. Den allgemeinen prinzipiellen Aufbau zeigt Abb. 7.34. Für kleine Verbraucher genügt ein Gleichspannungsausgang, womit auf den relativ teuren Wechselrichter verzichtet werden kann. Der Akkumulator ermöglicht die Entkopplung des Verbrauchs vom Solarenergieangebot.

Solargenerator Abb. 7.34.

Laderegler

Batterie

Wechselrichter Verbraucher

Prin~ipiellerAufbau eines lnselsystems

398

7 Photovoltaik

Im Fall der Wasserpumpe kann dann gepumpt werden, wenn die Sonne scheint, und somit auf die Batterie und den dazu notwendigen Laderegler verzichtet werden. Erwähnenswert ist auch die Anwendung fur Solarmobile (Tour de Sol, Schweiz, World Solar Challenge, Australien, Solarschiff Bielersee). Oft werden Inselanlagen auch als Hybridanlagen ausgefihrt, z.B. als Kombination von PV- und Windenergieanlage. Die Produktion der beiden Anlagen ergänzt sich in Berggebieten gut, da häufig der Wind dann bläst, wenn die Sonne nicht scheint. Bei größeren Verbrauchern kann auch die Kombination der PV-Anlage mit einem dieseloder biogasangetriebenen Generator die optimale Lösung darstellen. Akkumulator Als Batterie oder Akkumulator werden bei PV-Anlagen im Inselbetrieb i.d.R. elektrochemische Speicher, meist Bleiakkumulatoren verwendet. Für die optimale Auslegung von Batterie und Regler sind Simulationsrechnungen, welche die lokale Meteorologie und das Verbraucherverhalten berücksichtigen, notwendig. Der Laderegler gewährleistet eine automatische Betriebsfihrung und schützt die Batterie vor Überladung und Tiefentladung. Näheres in [7.4], [7.5], [7.11]. 7.5.3 Netzgekoppelte PV-Anlagen

Netzgekoppelte Anlagen benötigen keine Speichervorrichtung, da die Ausgleichsfunktion vom Netz übernommen wird, und weisen deshalb einen relativ einfachen Aufbau auf (Abb. 7.35). Sie stehen aber in Konkurrenz mit konventionellen Kraftwerken und bedürfen vorderhand, auf Grund mangelnder Wirtschaftlichkeit, der öffentlichen Förderung (kostendeckende Einspeisevergütung). Diese kann durch ihr langfristiges Potential begründet und solange gerechtfertigt werden, als fossile Brennstoffe nicht nach dem Verursacherprinzip entsprechend ihren externen Kosten (insbesondere Klimaschäden) belastet werden. Weltweit befindet sich die Photovoltaik in einer Expansionsphase mit einer Steigerungsrate in den letzten Jahren von 20-40%/a, die in den entwickelten Industrieländem größtenteils durch die netzgekoppelten Anlagen getragen wird und den nationalen Förderprogrammen zu verdanken ist. Die installierte PV-Leistung betrug 2007 weltweit etwa 8000 MWp (Megawatt-peak). Dem verschärften Wettbewerb, als Folge der Liberalisierung im Stromsektor, wird außerdem mit Marketingstrategien entgegenzutreten versucht, die das in vielen Ländern wache Umweltbewusstsein ansprechen (Börsen fur Solarstrom oder Ökostrom). Möglichkeiten zu einer progressiven Kostensenkung bieten die Fortschritte in der Solarzellentechnologie, die Integration der Solarzellen in Gebäude mit entsprechender Kostenabwälmng und die durch die Produktionsausweitung einhergehende Rationalisierung der gesamten Prozesskette zur Herstellung der Solaranlagen.

Solargenerator

Wechselrichter

Netz

Abb. 7.35. Prinzipieller Aufbau einer netzgekoppelten PV-Anlage

7.5

Systemtechnik

399

7.5.4 Wechselrichter Alle netzgekoppelten Anlagen und die meisten Inselanlagen benötigen einen Wechselrichter, der die vom Solargenerator gelieferte Gleichspannung in eine verbraucher- bzw. netzkonforme Wechselspannung umwandelt. Zu diesem Zweck werden heute fast ausschließlich selbstgeführte, mit Pulsweitenrnodulation (PWM) gesteuerte Wechselrichter verwendet (Band 1, Abschn. 7.3.2), die u.a. den Vorteil aufweisen, einen Strom mit geringem Obenvellengehalt zu erzeugen. Abbildung 7.36 zeigt selbstgeführte dreiphasige Wechselrichter von 20 ...35 kW und 50...300 kW mit einer Eingangsspannung von 450....800 V und einem Stromrippel (peak to peak) von max. 4%. Ein Transformator gewährleistet die galvanische Trennung vom Netz. Der Wirkungsgrad beträgt > 94%.

I

L

I I I

Abb. 7.36. Dreiphasige Wechselrichter für 20-35 kW und 50- 300 kW ( Quelle: Sputnik Engineering AG, Biel, Schweiz, [7.14])

400

7 Photovoltaik

Der Wechselrichter bzw. seine Elektronik stellt das Gehirn der PV-Anlage dar. Er übernimmt alle Steuerungs- und Regelungsfunktionen, insbesondere die Ein- und Ausschaltung in Abhängigkeit der Bestrahlungsstärke und den optimalen Betrieb im MPP-Punkt der Solarzellenkennlinie (Abb. 7.15), ferner die Überwachungs-, Meldeund Schutzaufgaben. Wechselrichter im Bereich 2 ...6 kW werden meist einphasig und oft ohne galvanische Trennung (d.h ohne Trafo) ausgeführt (Abb. 7.37), was dem Wirkungsgrad zugute kommt (> 97%). Es besteht ein Trend, auch größere Wechselrichter im Bereich 30-50 kW ohne Trafo auszuführen. Um die bei fassadenintegrierten Anlagen nötige Freiheit in der architektonischen Gestaltung zu erlangen, verfugt jedes Teilsolarfeld oder jeder Generatorstrang über einen eigenen Wechselrichter, der unabhängig vom Rest der Anlage Strom ins Netz speist. Detailliertere Angaben über photovoltaische Systeme findet man in [7.4].

Abb. 7.37. Einphasiger Wechselrichter ohne galvanische Trennung (ohne Transformator) flir 2- 6 kW; Schaltschema des 6 kW-Wechselrichters (Sputnik Engineering AG, Biel, Schweiz, [7.14])

7.5.5 Modellierung der Solarmodule Das in Abschn. 7.3 gegebene Solarzellenmodell (Eindiodenmodell) eignet sich gut für grundsätzliche Betrachtungen oder zur Nachbildung der Solarzelle für einen engen Betriebsbereich. Das Modell wird durch die 4 Parameter I,, A, U,,R, bestimmt. Für die Identifikation benötigt man 4 Gleichungen, z. B. die Leerlauf- und Optimumsbedingung für zwei verschiedene, relativ nahe liegende Einstrahlungen. Für eine exaktere Nachbildung des Verhaltens realer Solarmodule bei veränderlicher Einstrahlung ist das in Abb. 7.38 gegebene Zweidiodenmodell, das stationär durch folgendes Gleichungssystem beschrieben wird, wesentlich besser:

Das Modell wird durch die 6 Parameter I„ I„ A l , A2 U, F$, bestimmt, die durch 6 Identifikationsgleichungen ermittelt werden können. Diese lassen sich aus gemessenen Solarmodulkennlinien für 3 verschiedene Einstrahlungswerte (beispielsweise 100%, 20% und 5% Einstrahlung, oder 100%, 70% und 5%, da die 20%-Kennlinie oft schwer zu messen ist) bestimmen. Diese liefern für Leerlauf (I = 0, U = U,) und für den optimalen Punkt P (U„, , I„,) (s. Abb. 7.39) die 6 Bedingungen

-

die nach den 6 Parametern aufgelöst werden können. Aus dem Kurzschlussstrom erhält man den Wert des Photostromes, der in erster Näherung I„, I und exakter, mit der Annahme I„ 2 I„ 2 0 (iterative Berechnung),

Abb. 7.38. Ersatzschaltbild der Solarzelle (Zweidiodenmodell)

402

7 Photovoltaik

beträgt. Bei der Festlegung von U, und der Auswertung der Ströme 1,; muss die Temperaturabhängigkeit dieser Größen gemäß den Gln. (7.14) und (7.15) berücksichtigt werden. Eine noch genauere Darstellung erfasst die Abhängigkeit des Shunt-Stromes vom Verhältnis Diodenspannung zu Breakdown-Spannung [7.7]), das auch ohne Modell zu ändern, durch einen nichtlinearen, d.h. mit zunehmender Einstrahlung abnehmenden äquivalenten Parallelwiderstand dargestellt werden kann. Die Anzahl Parameter bei Messung von drei Kennlinien erhöht sich dann auf 8. Zur Identifikation können zusätzlich die Steigungsmasse der Tangenten für die beiden größeren Einstrahlungen (beispielsweise 100% und 70%) entsprechend den gemessenen Kennlinien vorgegeben werden. Das Steigungsmaß der Tangente erhält man durch Berechnung der Ableitung dI/dU aus GI. (7.71). Es folgt

Im Kurzschlusspunkt ist der Diodenwiderstand i.d.R. wesentlich größer als &, und es ergeben sich die einfachen Identifikationsgleichungen

für

't

i

=

1...2

.

Abb. 7.39. Reelle Kennlinie einer Solarzelle (bzw. Solarmoduls): U, Leerlaufspannung, I, Kurzschlussstrom, P Punkt maximaler Leistung (MPP Maximum Power Point)

Statt dessen, oder in einem weiteren Schritt auch zusätzlich, könnten die Steigungsmasse im Leerlaufpunkt zur Identifikation herbeigezogen werden. Aus GI. (7.74) erhält man

1

mit

-

RdOi

für

i

=

41 4 UT

U,, ~xP(-) Alu,

4 2

+

-

A2UT

W (-

U, i 1 U?"

(7.76)

A2

1....2

Dies ermöglicht, eine Abhängigkeit des Seriewiderstandes von der Einstrahlung einzuführen, d.h eine Darstellung des Solarmoduls mit 10 Parametern. Ein SimulinkModell zur Generierung der Solarmodulkennlinie und Untersuchung obiger Ansätze zeigt die Abb. 7.40.

lntl

Step Fcn2

.1 Belastung 2 Kennlinie

t Clo&

To W o k p a c e l

Abb. 7.40. Simulink-Modell zur Untersuchung des stationären und dynamischen Verhaltens eines Solarmoduls

8 Brennstoffzellen

Mit Brennstoffzellen lassen sich Wasserstoff sowie Erdgas und andere Kohlenwasserstoffe (z.B. Benzin, Methanol) oder Biogas elektrochemisch direkt in elektrische Energie umwandeln. Gegenüber Wärmekraftmaschinen, die den Umweg über die mechanische Energie nehmen, ergeben sich höhere Wirkungsgrade, und dies ohne rotierende Teile und entsprechende Lärmemissionen. Bereits fur kleine Leistungen lassen sich Wirkungsgrade von 5 0 6 0 % erreichen, was mit konventioneller Technik nur mit Kombianlagen im 10- 100 MW-Bereich möglich ist. Die Umweltbelastung bei Verwendung von Erdgas ist wegen des höheren Wirkungsgrads und der andersartigen Verbrennung (kein Ruß, keine Stickoxide, keine unverbrannten Kohlenwasserstoffe) geringer als bei konventionellen thermischen Kraftwerken. Die CO,-Emissionen können durch Erhöhung des Wasserstoffanteils weiter reduziert werden. Die Technik entwickelt sich weiter, aber hat die Wirtschaftlichkeitsgrenze noch nicht erreicht. Es ist jedoch absehbar, dass sich ihr im Laufe der nächsten Jahrzehnte breite Einsatzgebiete für mobile und stationare Anwendungen öffnen werden.

8.1 Aufbau und Typen Den grundsätzlichen Aufbau einer Brennstoffzelle zeigt Abb. 8.1. Sie besteht wie eine Batterie aus Anode, Kathode und Elektrolyt. Die poröse Anode wird vom Brenngas (H„ CO, CH, ), die Kathode von Lufi durchströmt. Der Elektrolyt ist gasdicht, lässt also eine unmittelbare Verbindung von Brennstoff und Sauerstoff nicht zu. Durch Ionen werden die Elektronen von der Kathode K zur Anode A transportiert, wobei die Ionenart vom verwendeten Elektrolyt abhängt. Fünfßrennstoffzellen-Familien sind bekannt und befinden sich in Entwicklung. Sie unterscheiden sich in erster Linie durch den Elektrolyt. Nach absteigender Zellentemperatur geordnet, sind dies:

Verbraucher :

Abgase

Brennstoff

I

Abb. 8.1. Autbau der Brennstoffzelle

-

I

Keramik-Zelle (SOFC Solid Oxide Fuel Cell), - 800°C:Als Elektrolyt wird eine keramische Schicht aus Zirkonoxid verwendet. Der Luftsauerstoffwird kathodenseitig durch Aufnahme von zwei Elektronen zu 0 ' ionisiert, kann somit als Ion den Elektrolyt durchdringen, wird auf der Anodenseite durch Elektronenabgabe wieder neutralisiert und leitet die Oxidationsreaktion ein. Die Zelle kann auch direkt mit Erdgas, Propan oder Biogas betrieben werden. Karbonat-Zelle(MCFC Molten Carbonate Fuel Cell), 650°C:Als Elektrolyt wird eine Karbonatschmelze (meist Lythium- und Kaliumkarbonat) verwendet. Als Ion dient das Karbonat-Ion CO,,-. Für dessen Neubildung wird die Luft mit CO, angereichert. Auf der Anodenseite zerfallt es durch Elektronenabgabe in CO, und Sauerstoff, welcher den Brennstoff oxidiert. Als Brennstoffe können Wasserstoff und CO verwendet werden. Phosphorsaure-Zelle (PAFC Phosphor Acid Fuel Cell), 200°C: Als Elektrolyt wird verdünnte Phosphorsäure verwendet. Brennstoff ist Wasserstoff, der aufder Anodenseite sein Elektron abgibt und als Wasserstoffion H' den Elektrolyt durchquert, auf der Kathodenseite ein Elektron wieder aufnimmt und vom Luftsauerstoff oxidiert wird. Die Luft darf kein CO enthalten. Kunststof-Zelle (PEFC Polymer Electrolyte Fuel Cell), 80°C:Als Elektrolyt wird eine Kunststofffolie verwendet, die sich wie eine Säure verhält. Als Ion dient wiederum das Wasserstoffion H' (Vorgänge wie PAFC). Alkali-Zelle (AFC Alkaline Fuel Cell), 70°C: Als Elektrolyt wird verdünnte Kalilauge verwendet. Den Elektronentransport übernehmen die Hydroxylionen 2 O H . Die Oxidationsreaktion OH- entstanden aus der Reaktion H,O + 0 erfolgt auf der Anodenseite mit reinem Wasserstoff. Die Luft darf kein CO, enthalten.

-

Alle funf Brenstoffzellentypen können mit Erdgas betrieben werden, wobei alle, außer der SOFC und der MCFC, dieses zuerst in Wasserstoff oder Wasserstoff + CO umwandeln müssen. Diese Umwandlung ist sehr aufwendig (auch was den Platzbedarf betrifft, bis 60% des Bauvolumens). Eine gute Übersicht dazu gibt Abb. 8.2.

Flüssige Brsnnsioffe

verdampien

I 80°C

BaPC

800°C

Erdgas sik

Erdgas ganz

803%

CO-Rest

Erdgas

snibrnen

umwandeln L

I

l

803%

650°C

440%

I

2m4C

80Y:

Abb. 8.2. Aufbereitung von Erdgas für die funf Brennstoffzellen-Typen [8. I ]

70%

8.2 Prinzip und Modell

407

Den AFC-Familien werden heute nur begrenzte Zukunftsaussichten eingeräumt [&I]. Die PEFC ist für mobile Anwendungen von Interesse und wird vor allem von der Autoindustrie weiterentwickelt. Neben den fünf erwähnten Familien wäre noch die Direkt-Methanol-Brennstoffzelle DMFC zu erwähnen, die direkt (ohne Reformer) mit Methanol betrieben werden kann (Arbeitstemperatur ähnlich wie PEFC). Ihre Aussichten sind noch ungewiss. Für sfationare Energieanwendungen sind vor allem die PAFC, die MCFC und die SOFC prädestiniert. Die Phosphorsaure-Brennstoffielle ist am weitesten entwickelt, bereits heute kommerziell verfügbar (z.B. 200 kW PC25C von ONSI) und für bestimmte Applikationen wirtschaftlich. Die Keramik-Brennstoffielle befindet sich noch in der Entwicklung, besitzt jedoch das größte Entwicklungspotential. Im Abschn. 8.3 werden diese beiden Brennstoffzellen näher betrachtet.

8.2 Prinzip und Modell 8.2.1 Elektrochemische Grundlagen

Für die Energieumwandlung wichtigste chemische Reaktionen sind

-----

H, + 0 . 5 0 , CO + 0 . 5 0 , CH4 + 2 0 ,

+--

H,O CO, CO,

+

2H,O

Die damit verbundene spezifische Enthalpieänderung Ah beträgt bei Normaldruck für H, : 120 MJ/kg, für CO: 10 MJIkg und für CH, : 50 MJlkg. Die Temperatur wirkt sich nur geringfügig auf diese Werte aus (leichte Zunahme bei H?, für Näheres s. [8.2], Standard enthalpy change). Bei einem Massenfluss von m kgls ist die verfügbare chemische Leistung

Von der Enthalpie Ah kann nur diefreie Enthalpie Ahf (Gibbs-Potential) in elektrische Energie umgewandelt werden [8.4], [8.5]. Diese ist definiert durch

Ah,

=

Ah

-

TAs

[Wslkg],

(8.3)

worin As die spezifische Entropieänderung darstellt (s. Anhang I. 1). Die entsprechende maximale elektrische Energie ist W „ = q, Ah,, wobei:

mit

F M n E m

=

= = = =

Faradaysche Konstante = 9.6485. lo4 [Aslmoi] Mol-Masse [kglkmoi] Anzahl ausgetauschte Elektronen (Wertigkeit) EMK (Leerlaufpannung) [U MassenJuss [kgls] .

(8.4)

408

Abb. 8.3.

8 Brennstoffzellen

Freie Enthalpie Ah, in Abhängigkeit von der Temperatur

Der Wirkungsgrad V, berücksichtigt, dass vor allem bei tiefen Temperaturen die mit Katalysator erzwungene Reaktion über mehrere Schritte verläuft, von denen nur der erste zur Spannungsbildung beiträgt. Die Leerlaufspannung entspricht somit nicht dem Gibbs-Potential (bei tiefen Temperaturen, z.B. PEFC-Zelle, ist q, = 0.8).

P„ = E I stellt die innere elektrische Leistung der Zelle dar. Die freie Enthalpie für die drei wichtigsten Reaktionen (GI. 8.1) ist in Abb. 8.3 dargestellt (berechnet aus [8.2]). Aus G1. (8.4) lässt sich die EMK E bestimmen

mit n = 2 für H? und CO und n = 8 für CH,. Für die Methan-Reaktion folgt z.B. bei 25"C, E = 1.06 .q, [V], für die H, -Reaktion E = 1.23 . q, [V]. Durch Serieschaltung von Brennstoffzellen zu einem Brennstoffiellen-Stapel kann die für praktische Anwendungen notwendige Leerlaufspannung erzielt werden. Die effektiv an den Elektroden verfügbare Spannung U ist bei Belastung der Zelle wegen des inneren Spannungsabfalls kleiner als die EMK. Dies hat zur Folge, dass die effektiv erhaltene elektrische Leistung weiter reduziert wird

mit qo = theoretischer Leerlauf-Wirkungsgrad, q, = Spannungs-Wirkungsgrad. In Abb. 8.4 ist der theoretische Leerlauf-Wirkungsgrad in Abhängigkeit der Zellentemperatur für die drei Reaktionen Gln. (8. I ) dargestellt [8.2]. Auffallend ist der gute Wirkungsgrad der Methan-Reaktion. Wird schließlich berücksichtigt, dass der Brennstoff nicht zu 100 % genutzt wird, d. h. dass die effektiv umgewandelte chemische Leistung P„, = U, P, kleiner ist als die gelieferte chemische Rruttoleistung P, mit U,= Brennstoff-Nutzungsgrad (fuel utilization factor < I), folgt

8.2 Prinzio und Modell

409

Abb. 8.4. Theoretischer Wirkungsgrad in Abhängigkeit von der Temperatur

8.2.2 Lineares Modell Wird in erster Näherung angenommen, der innere Widerstand der Zelle sei unabhängig vom Strom, gilt

E - R I RI E Wird der Strom durch die Leistung ersetzt, folgt aus den Gln. (8.4)-(8.6) der Spannungs- Wirkungsgrad 'lu =

='-E-

mit p,: auf die Kurzschlussleistung bezogene innere elektrische Leistung. Die Kurzschlussleistung P, wurde, wie in der Energieversorgungstechnik üblich, als Produkt von Kurzschlussstrom und Leerlaufspannung definiert. Werden alle Leistungen auf die Kurzschlussleistung bezogen, folgt für den Gesamtwirkungsgrad q des Brennstoffzellen-Stapels und die bezogene elektrische Ausgangsleistung p

Abbildung 8.5 zeigt diese beiden Größen in Abhängigkeit von der inneren elektrischen Leistungp,. Die maximale Ausgangsleistung wird dann erhalten, wenn P„ = 0.5 P„ dann ist P , = 0.5 P„ = 0.25 P,. Bei dieser Maximalleistung beträgt allerdings der Wirkungsgrad des Brennstoffzellen-Stapels nur q = 0.5 q, q, u f . Die ökonomische Optimierung des Systems fuhrt in der Regel zu einem Auslegungspunkt entsprechend einer Leistung P„ < 0.5 P,, wobei der Stapel-Wirkungsgrad 50% oder mehr betragen wird.

4 10

8 Brennstoffiellen

Abb. 8.5. Typischer Verlauf von Leistungen und Wirkungsgrad von Brennstoffzellen: p, = P„&, = innere Leistung, ph = P,/Pk = Bruttoleistung (chemisch), p = P,Jt>, = elektr. Ausgangsleistung. q = Wirkungsgrad des Brennstoffzellen-Stapels, qn= Anlagenwirkungsgrad, A = Auslcgungspunkt (Beispiel, q = 50%. 45%)

Für kleinere Belastungen steigt theoretisch der Wirkungsgrad der Brennstoffzelle an, d.h. die Brennstoffzelle hat prinzipiell ein gutes Teillastverhalten. Bei zu klein werdender Last wirkt sich allerdings der Energiebedarf der Hilfseinrichtungen, wie Pumpen, Gebläse, Steuerung usw., der praktisch unabhängig von der Belastung ist, ungünstig aus, wie der in Abb. 8.5 gestrichelt eingezeichnete zu erwartende Anlagenwirkungsgrad q, zeigt.

8.3 Brennstoffzellen für stationäre Anwendungen 8.3.1 Phosphorsäure-Brennstoffzelle (PAFC) Den Grundaufbau einer PAFC-Anlage zeigt Abb. 8.6. Da die Zelle ein H,-reiches Gasgemisch verlangt (ohne CO), muss dieses im Reformer mit Wasserdampf aus Erdgas gewonnen werden. Die Reform-Reaktion liefert H, und CO. In zwei folgenden Stufen wird das CO zu CO, oxidiert und dieses teilweise ausgeschieden. Der Wasserstoffwird an der Anode ionisiert und durchquert als H -Ion den Elektrolyt, um schließlich an der Kathode zu Wasser oxidiert zu werden. Abgas ist Wasserdampf und CO,. Die Zellentemperatur beträgt 200°C. Die heute erreichbare Leistungsdichte ist 1.3 kW/m2 und dürfte bis etwa 2 kW/m2 gesteigert werden können. Die PAFC-Brennstoffzelle ist die am weitesten entwickelte und erprobte Technik. Kommerziell werden Anlagen ab 1 kW angeboten. Die größte bis heute gebaute Anlage hat eine Leistung von 1 1 MW (Japan). Für kleine Anlagen wird Wasserstoff als Brennstoff eingesetzt,

8.3 Stationäre Anwendungen

4 CO

411

Brennstoffzelle

Luft

Aufbereitung Brenner

Wärmetauscher mit H2O-Abscheider Abgas

¢=--

H20 -

Abb. 8.6. Basissystem einer PAFC-Anlage [8. I ]

da die aufwendige Erdgasumwandlung erst für Leistungen über 100 kW wirtschaftlich wird. Die Investitionen liegen für eine 200 kW-Anlage bei 3300 £/kW, die Betriebsrechnung sieht aber dank der hohen Benutzungsdauer von mehr als 8000 hla günstig aus.

8.3.2 Keramik-Brennstoffzelle (SOFC) Vom Aufbau her stellt die SOFC-Zelle das einfachste Konzept dar (Abb. 8.7). Dank der hohen Betriebstemperatur von 800°C kann das Erdgas (oder andere Kohlenwasserstoffe) direkt an der Anode in wasserstoff und Kohlenmonoxid umgewandelt werden. Zur Beschleunigung der Reaktionen wird es teilweise im Vorreformer durchdringt den aus Zirkonaufbereitet. Der kathodenseitig ionisierte Sauerstoff 02oxid bestehende Elektrolyt und oxidiert anodenseitig die Brennstoffe.

Brennstoffzelle

I

Wärmetauscher Abgas

~orreformer

-s

Abb. 8.7. Basissystem einer SOFC-Anlage [8.1]

i\

A

A

A

~

Luft Lufterhitzer

8 Brennstoffzellen

41 2

Die hohe Temperatur der Abgase erlaubt eine Wärmeauskopplung für die verschiedensten Anwendungen oder den Betrieb der Anlage als Blockheizkraftwerk. Die SOFC-Brennstoffzelle befindet sich noch in der Entwicklung, bis jetzt sind lediglich Prototypen bis 100 kW in Betrieb. Obwohl viele technologische Probleme noch zu lösen sind und die Wirtschaftlichkeitsgrenze noch nicht erreicht ist, dürfte sie wegen ihrer Einfachheit und hoher Leistungsdichte (heute ca. 6 kW/m2, im Labor bis 19 kW/m2 nachgewiesen) sowie des hohen Wirkungsgrades (Anlagenwirkungsgrad über 50%) eine vielversprechende Zukunft haben.

8.3.3 Systemtechnik Ähnlich den Photovoltaikanlagen erzeugen Brennstoffzellenanlagen einen Gleichstrom, der für kleine Anwendungen direkt verwendet und für größere Anwendungen im Inselbetrieb oder bei Netzkopplung (Abb. 8.8) mittels Wechselrichter in Wechselstrom umgewandelt wird. Der Wechselrichter, dem sich ähnliche Probleme wie bei der Photovoltaik stellen (Abschn. 7.5), bietet die Möglichkeit, innerhalb bestimmter Grenzen auch die Blindleistungsabgabe- oder -aufnahme zu regulieren. Neben der bereits erwähnten Anwendung der SOFC-Zelle als Blockheizkraftwerk, die zu Brennstoffnutzungsgradenvon 80% führen kann, ist auch die Kombination mit der Mikrogasturbinentechnik interessant. Die heißen Abgase der Brennstoffzelle werden mit Drücken von 3–4 at fir den Betrieb einer nachgeschalteten Gasturbine genutzt (Abb. 8.9). Versuchsanlagen bis 1 MW sind geplant.

Abb. 8.8. Prinzipieller Aufbau einer netzgekoppelten Brennstoffzellenanlage

a

Luft

b

Filter Turbine Verdichter DC AC

Stromumwandler

SOFCAggregat

G Mikrogasturbine Abgase

Entfernung

Wärmetauscher/ Brennstoffvorwärmung Erdgas

Abb. 8.9. Hybridsystem SOFC-Mikrogasturbine

(mit freundlicher Genehmigung Siemens Westinghouse, [8.3])

9 Kernfusion

Seit den fünfziger Jahren werden Forschungsanstrengungen unternommen, durch kontrollierte Verschmelzung von Wasserstoffkernen zu Helium Energie zu gewinnen. Obwohl große Fortschritte erzielt worden sind, ist die technische Realisierung noch in weiter Ferne, weshalb die wirtschaftliche Tragbarkeit der Kernfusion heute schwer zu beurteilen ist. Die internationale Gemeinschaft versucht dennoch, die Option Fusion für die Zukunft offen zu halten. Deren Bedeutung in Zusammenhang mit der in Kap. 1 dargelegten Klimaproblematik ist offensichtlich. Zusammen mit der Solarstrahlung ist die Kernfusion langfristig die einzige Energiequelle mit praktisch unbegrenztem Potential. Es ist jedoch kaum damit zu rechnen, dass vor Mitte des 2 1. Jh. die Fusion eine für die Energiewirtschaft nennenswerte Rolle spielen wird. Für ein vertieftes Verständnis des Fusionsprozesses und der dazu notwendigen Technik werden im Folgenden einige Grundlagen gegeben.

9.1 Grundlagen des Fusionsprozesses 9.1 .I Fusionsreaktionen Die beiden wichtigsten für die Kernfusion in Frage kommenden Kernreaktionen (s. auch Anhang 11) sind die Folgenden: (d,t): (d,d):

D: + T: - - > ~e~~ + n,' + 17.6 M e V 2D12 + 20: - - % He,3 + T: + H; + n,'

-

+

7.2 M e V .

(9.1)

Darin sind D,2 und T,3schwere Wasserstoffkerne (Isotope, s. Anhang 11). D,2 = H,' wird Deuterium-Kern oder Deuteron und T,3 H,3Tritium-Kern oder Triton genannt. Diese und ähnliche Fusions-Reaktionen laufen in den Sternen und insbesondere in unserer Sonne dank großer Masse unter günstigen Bedingungen ab. Den grundsätzlichen Verlauf des Wirkungsquerschnitts (s. Anhang 11.5) der beiden Reaktionen in Abhängigkeit von der relativen kinetischen Energie zeigt Abb. 9.1a. Die (d,t)-Reaktion ist mit weniger Energieaufivand zu realisieren als die (d,d)-Reaktion. Aber auch die erste ist überhaupt erst ab Energien von Ca. 8 keV möglich. Hohe Energien und somit hohe Temperaturen von etwa 100 Mio. Kelvin sind also notwendig, um die Fusionsreaktion einzuleiten. Bei diesen hohen Temperaturen sind Atomkern und Elektronenhülle voneinander abgelöst, und die Materie befindet sich im Plasmmustand. Andere denkbare Methoden, wie z.B. das Beschleunigen von Deuteronen mit Teilchenbeschleuniger und Einschießen auf Tritium fuhren nicht zum Ziel, da die Wahrscheinlichkeit für eine Fusionsreaktion extrem gering wäre [9.1].

414

o [barn] a, l

9 Kernfusion

a

7

Abb. 9.1. a) Wirkungsquerschnitt der Reaktionen (d,t) und (d,d) in Abhängigkeit der

relativen kinetischen Energie, b) Maxwell-Spektrum der Energie für zwei Temperaturen

9.1.2

Energieverteilung

Ausgangsstoff der Fusionsreaktion ist also ein ionisiertes Wasserstoffgas (Plasma), bestehend aus Deuteronen, Tritonen und Elektronen. Der Zusammenhang zwischen Energie und Temperatur sei näher betrachtet. Nach der statistischen Physik gilt für ein solches Gas die Maxwell- Verteilung

Darin ist k die Boltzmann-Konstante = 8.62.1 0-5eVIK. Der Ausdruck (9.2) stellt die Wahrscheinlichkeit fur das Auftreten einer Teilchenenergie zwischen E und E + dE dar. Da die Gesamtwahrscheinlichkeit 1 ist, gilt

0

Abbildung9. l b zeigt die Wahrscheinlichkeit der Energieverteilung, berechnet mit GI. (9.2) für zwei Werte von kT, nämlich

Statt E kann man auch E, nehmen, da in einem kräftefieien Gas alle Richtungen gleich wahrscheinlich sind (Richtungsisotropie) und der erste Term von GI. (11.33) in Anhang 11 deshalb null ist. Der Vergleich der Abb. 9. l a und 9.1 b zeigt deutlich, dass Temperaturen von zumindest mehreren I0 Mio, besser 100 Mio. Grad notwendig sind, um die Fusionsreaktion wirksam einzuleiten und zu erhalten. Für eine genauere quantitative Formulierung ist die Reaktionsrate von Bedeutung. Aus Anhang 11, GI. (11.28) folgt für Energien zwischen E, und E, + dE,

Abb. 9.2. Integraler Reaktionsparameter fur die (d,t)- und in Funktion der Temperatur [9.3]

Wird der integrale Reaktionsparameter $(T) eingeführt

W7

=

p,)

vr(Er)p(ErJ? dEr ,

0

erhält man die Gesamt-Reaktionsrate

Die Abb. 9.2 zeigt den Reaktionsparameter für die beiden Fusionsreaktionen in Abhängigkeit von der Plasmatemperatur. Da die (d,t)-Reaktion viel effizienter ist, war sie das Ziel der bisherigen Anstrengungen der Fusionsforschung.

9.2 Der Fusionsreaktor 9.2.1 Prinzip des (d,t )-Fusionsreaktors Die (d,t)-Reaktion ist zwar wie erwähnt effizienter als die (d,d)-Reaktion, hat aber einen gewichtigen Nachteil: sie benötigt Tritium. Dieses ist in der Natur sehr selten. Im Wasser besteht das Verhältnis H :D : T = 1 : 1.6 10-4: 10-18, d.h. 1 m3 Wasser enthält 160 cm' D, 0, aber nur 1 pm3 T, 0. Tritium muss also im Reaktor selbst „erbrütet" werden.

Reaktormantel Brennkammer Plasma

Abb. 9.3a. Prinzipieller Aufbau des (d,t)-Fusionsreaktors

Die Abbildung 9.3a zeigt den schematischen Aufbau eines Fusionsreaktors. Das im Mantel (auch Blanket genannt) erbrütete Tritium (s. Abschn. 9.2.1.2) wird zusammen mit Deuterium in die Brennkammer injiziert. In der Brennkammer befindet sich also ein (d,t)-Plasma. Dieses wird durch Plasmaeinschluss zusammengehalten und thermisch isoliert (Abschn. 9.2.3). Es ist dies eine der schwierigen Aufgaben der Fusionsforschung. Nach der Fusion muss das Fusionsprodukt Helium aus der Brennkammer entfernt werden. Die Hauptelemente und den möglichen Aufbau eines FusionskraRwerks zeigen die Abb. 9.3b und 9 . 3 ~ .

Abb. 9.3b. Hauptbestandteile eines FusionskraRwerks [9.2]

9.2 Der Fusionsreaktor

41 7

Abb. 9 . 3 ~ . Mirglicher Aufbau eines Fusionskraftwerks [9.4]

9.2.1.1 Plasmareaktion

Wenn die dazu notwendige Temperatur erreicht wird, erfolgt die Plasma-Reaktion

D: + T:

--F

4

a2 +

1

+ 17.6

MeV

.

(9.8)

Die bei der Reaktion freiwerdende Energie erscheint als kinetische Energie der Reaktionsprodukte. Werden diese mit E, und E,, bezeichnet, gilt also 17.6

MeV

= E, + En

.

(9.9)

Die im Plasma erzeugten a-Teilchen werden im Plasmagehalten und abgebremst und tragen zu dessen Erwärmung bei. Bei den Neutronen handelt es sich um schnelle (hochenergetische)Neutronen, die aus dem Plasma entweichen. Für die Energieaufteilung gilt: 1 1 2 E, + En 17.6 MeV = m,v,2 + mnvn 2 2 (Impulssatz) m,?, + mngn = 0 --F m,v, = mnvn m, = 4 mn --F vn = 4 V , (9.10) 1 E, = - 17.6 = 3.5 MeV 5 4 E,, = - 17.6 = 14.1 MeV. 5 Nur 20% der durch Fusion erzeugten Energie tragen also zur Plasmaenvärmung bei.

-

418

9 Kernfusion

9.2.1.2 Mantelreaktionen Das für die Plasmareaktion notwendige Tritium wird im aus Lithium bestehenden Reaktormantel produziert, nach den Lithium-Reaktionen 7

4

1

3

1

Li3 + n0(,) - - > a, + Tl + noth - 2.5 MeV ~ i :+ n&,) - - F ai + T: + 4.8 MeV mit (

n&)

=

schnelle (rapid) Neutronen ,

no(,)

=

langsame (thermische) Neutronen

(9.1 1)

.

Die in der Plasmareaktion G1. (9.8) produzierten und aus dem Plasma entweichenden hochenergetischen (schnellen) Neutronen werden im Mantel abgebremst. Im Mantel wird somit Tritium und Wärme produziert. Tritium ist ein radioaktives Isotop, das mit einer Halbwertszeit von 12.3 Jahren zerfallt, nach der Reaktion

T:

-->

3

He, + ß-

(9.12)

Die Rohstoffe der Fusionsreaktion Deuterium und Lithium sind nicht radioaktiv und im Wasser und in der Erdkruste in großen Mengen vorhanden.

9.2.2 Energiebilanz des Plasmas Für die Erhaltung der Plasmareaktion ist die Energiebilanz des Plasmas maßgebend. Bei thermischem Gleichgewicht gilt für das Plasma

worin P, = zugefuhrte Leistung, P, = abgestrahlte Leistung und P, = kineiische Verlustleistung entsprechend der kinetischen Energie der aus dem Plasma entweichenden Teilchen. Wird mit n die Dichte der Plasmakerne, mit Zdie mittlere Protonenzahl pro Kern bezeichnet (bei reinem Wasserstoffplasma wäre Z = 1, bei Verschmutzung, z. B. durch Erosion der Wände durch Wärme und Neutronenbestrahlung, steigt diese Zahl jedoch an), kann folgender Zusammenhang geschrieben werden [9.3]:

Abgestrahlte Leistung P r = K z 3 n 2 m

[-I,ke V

cm3s 3

mit K

=

3.344 10-l5 [kevo.' K]

(9.14)

S

Kinetische Verlustleistung

r wird als Einschlusszeit bezeichnet. Je größer diese Zeit ist, desto besser ist der Teilchen-Einschluss im Plasma. d.h. umso kleiner sind die Verluste.

9.2 Der Fusionsreaktor

4 19

Die für das Gleichgewicht notwendige Leistungsinjektion ist somit

Andererseits ist die im Plasma durch die Fusion produzierte Leistung wegen GI. (9.7), mit der Annahme n , = n, = n12 und gesetzt 17'600 keV = E„ (Gl. 9.8),

Es lässt sich dann die Plusma-Leistungsvers/ürkung definieren n

5

EQ

-

4

(9.18) 3 K Z n~2 + - n (Z+l) - k T T 2 Durch Auflösung dieser Gleichung nach dem sog. Einschlussparameter n T folgt =

=

JkT

1

Bei vorgegebener Leistungsverstärkung gibt es also für jede Temperatur T ein notwendiges Produkt n t zur Erhaltung der Fusionsreaktion. Die gegenwärtige Forschung versucht, durch progressive Erhöhung der Plasmatemperatur und des Einschlussparameters die Reaktion möglichst ohne externe Energiezufuhr zu realisieren und die kritische Zündgrenze zu erreichen. Die Abbildung 9.4 zeigt den mit G1. (9.19) berechneten Einschlussparameter in Abhängigkeit von kTfür die (d,t)-Reaktion, für drei Werte der Leistungsverstärkung, mit den Annahmen Z = 1 (optimistisch), E„ = 17.6 MeV und $ gemäß Abb. 19.2. Die Kurven haben folgende Bedeutung:

C = 1:

Pf = P,. Dieser Punkt wird als „breakeven" bezeichnet. Die Fusionsenergie deckt gerade die Verluste. Da aber etwa 415 der Fusionsenergie aus dem Plasma entweichen (Neutronen, GI. 9. 10), ist eine Erhaltung der Reaktion nur mit externer Energiezufuhr möglich.

C = 5:

P, = 5 P,, theoretische Zündbedingung. Die Energie der a-Teilchen beträgt nach GI. (9.10) genau 115 der Fusionsenergie. Sofern diese Energie vollumfänglich im Plasma bleibt (perfekter Einschluss), ist eine Erhaltung der Reaktion ohne externen Kreislauf möglich; die Reaklion erhalt sich selbst. Dies ist das eigentliche Endziel der Fusionsforschung.

Für Werte von G zwischen 1 und 5 ist die Erhaltung der Reaktion nur durch die Heizung des Plasmas mit einer Autheizleistung P, möglich. Die Energiebilanz des Kraftwerks ist in Abb. 9.5 dargestellt. Zur Autheizleistung P, addiert sich im Reaktor die Fusionsleistung P,. Die Gesamtleistung (P, + P,) wird mit dem thermodynamischen Wirkungsgrad q in elektrische Energie umgewandelt.

1oi6L.. ........ ......................................................... ....... . ,. ........... . .. .. .. ..... ... ..... ... ..... ... ... .. ... ... .. .. .. ..... ... ..... ... ... .. ... ... ..... ... .. .. .. ..... ... ..... ... ..... ... ..... ... .. .B.,

- 1 . .

. X .

. \ . C

................J....

..........J

. . . . . . . . .

. . . . ... ......... .... ...::.

n z

....

. .. . . . .. .. .. .. .. .. .. .. ..

....... ...........

....

.. .. .. .. ..

...........

,;.

... ....

IOO

.........

. . . . . . . . .

10'

-+

103

102 kT

[keV]

Abb. 9.4. (d,t)-Reaktion: notwendiger Einschlussparameter, um eine bestimmte Leistungsverstärkung zu erzielen, in Abhängigkeit von der Temperatur

Davon wird der Teil E mit Wirkungsgrad q, zur Aufheizung des Plasmas verwendet. Der Restanteil ( I - E) ist die Nutzenergie P, . Da letzten Endes fur den Reaktor vor allem die Relation zwischen der im Plasma freigesetzten und der zur Aufheizung notwendigen Energie interessiert, wird meistens an Stelle der Plasmaverstärkung G eher die Plasmaverstärkung

verwendet. Gemäß Blockdiagramm Abb. 9.5 besteht zwischen P, und Pidie Beziehung PH T ) E V ~( P H + P f ) - - > PH = il EilH P = -1 P (9.2 1 ) 1- i l E i l ~ Q f

Abb. 9.5. Energiebilanz des Fusionskrafiwerks

9.2 Der Fusionsreaktor

42 1

Somit ist rl&rlH=

1

.

(9.22)

P

l+Q

Die dem Plasma zugefhhrte Leistung ist andererseits (bestenfalls) 1

Pf (- - 0.2) . G Aus den Gln. (9.21) und (9.23) folgt der Zusammenhang PI

=

P, + 0.2Pf - - >

-

Q

-

1

P,

- + 0.2

=

P, (1 - 0.2G)

oder Q

G

=

=

(9.23)

G 1 - 0.2 G

Für C = 2 ist z.B. Q = 3.33 und q E q, = 0.23, und mit der Annahme q, q = 0.33, die thermodynamisch realisierbar erscheint, ist E = 0.7, d.h. 70% der produzierten elektrischen Leistung P, müssen fur die Plasmaheizung verwendet werden. Um diese Energie auf 10% zu reduzieren, müsste Q = 3 1 (bzw. G = 4.3) sein. Die „breakevenL'-Bedingung G = 1 entspricht Q = 1.25, die Zündbedingung G = 5 entspricht Q = . Die Forschung hat bis heute die Bedingung G > 1 (oder Q > 1.25) noch nicht realisiert. Der JET (Joint European Torus) in Großbritannien hat erst Fusionsenergie im Ausmaß von ca. 65% der eingesetzten Energie (Q = 0.65) während kurzer Zeit (wenige Sekunden) erhalten können. Mit dem ITER-Pro-jekt(Internationaler Thermonuklearer Experimentalreaktor) in Cadarache (Frankreich) hofft man den Beweis zu erbringen, dass die Fusion technisch realisierbar ist. Die „breakevend'-Bedingungsoll mit einer Plasmaverstärkung Q = 5 bis 10 dauernd überschritten werden. Das ITER-Projekt folgt der europäisch-japanisch-russischen Linie des magnetischen Einschlusses (Tokamak, s. Abschn. 9.2.3), die auch von den USA unterstützt wird. Letztere verfolgen neben dieser Linie auch die Variante des inertialen Einschlusses mittels Laser weiter. Dem ITER-Projekt haben sich 2003 China und Südkorea und 2005 auch Indien angeschlossen. Die Bauarbeiten sollen 2009 beginnen und 201 5 abgeschlossen sein.

9.2.3 Das Einschlussproblem Der wirksame Einschluss der positiv geladenen Plasmateilchen (&Teilchen) ist fundamental für das Erreichen der kritischen Fusionstemperatur. Zwei Methoden sind bisher angewandt worden - der magnetische Einschluss, - der inertiale Einschluss.

422

9 Kernfusion

9.2.3.1 Der magnetische Einschluss Die elektrisch geladenen Plasmateilchen (Ionen und Elektronen) bewegen sich in einem magnetischen Feld B mit einer Geschwindigkeit V, die relativ zur Feldrichtung in axiale und radiale Komponente zerlegt werden kann (Abb. 9.6). Die radiale Komponente fuhrt wegen der zentripetal wirkenden Lorentz-Kraft F (Band 1, Abschn. 2.5.9) zu einer Kreisbewegung gemäß

Bei genügend großem Feld ist r klein und der Einschluss wirksam. Auf Grund der axialen Komponente werden sich die Teilchen spiralformig in Richtung der Feldachse bewegen.

Abb. 9.6. Lorentz-Kraft und Teilchenbewegung im magnetischen Feld

Eine zylindrische Plasma-Anordnung ist nahezu, aber nicht zwangsläufig stabil und hat den Nachteil, dass die Enden offen sind und das Plasma dort ausfließen kann. Eine toroidale Anordnung, wie sie z. B. im Tokamak verwirklicht wird (Abb. 9.7), kann dies verhindern; doch die radiale Inhomogenität des Feldes fuhrt zu radialen Plasmaverlusten, die mit zusätzlichen Maßnahmen verhindert werden müssen. Tokamak Die von russischen Wissenschaftlern entwickelte und in den Abb. 9.7 dargestellte Tokamak- Anordnung ist in verschiedenen Versuchslabors mit Erfolg getestet worden (z.B. JET) und auch f i r das Projekt ITER (Abb. 9.8) vorgesehen. Das Hauptfeld wird in einem horizontal liegenden Torus durch die toroidalen Wicklungen erzeugt. Zur radialen Stabilisierung des Plasmas wird ein vertikales Feld benötigt, das durch einen Transformator impulsartig erzeugt wird (poloidale Wicklungen). Dieser induziert im Torus (Sekundärkreis) den poloidalen Strom. Das Resultat ist ein helikales (verschraubtes) Feld. In einem Tokamak führt die Verbesserung des Einschlussparameters nr im Wesentlichen über größere Maschinen und stärkere Magnetfelder. Im ITER-Projekt sind die Radien mehr als doppelt so groß wie im JET, und das toroidale Magnetfeld beträgt etwa das I .6fache [9.4], Abb. 9.8. Ein Nachteil des Tokamaks ist, dass es sich um eine gepulste Maschine handelt, d.h., der induzierte stabilisierende Plasmastrom kann nur während einer endlichen Zeit aufrecht erhalten werden. Man versucht deshalb, einen stationären Betrieb durch nicht-induktiven Stromtrieb zu erreichen mit Hilfe von Hochfrequenzwellen (Radiowellen) oder durch Einschießen von Neutralteilchen ins Plasma .

9.2 Der Fusionsreaktor

423

Magnetischer Kreis (Eisenkern des Transformators) Innere poloidale Feldwicklungen / (Primärkreis des Transformatorsl Toroidale Feldwicklungen

i

/

Äußere poloidale Feldwicklungen (zur ~ l a s m a ~ ~ o r t n u n g und -Positionierunal

mit Plasmastrorn I ärkreis des ~ransformatoi Resultierendes helikales Magnetfeld (übertrieben groß gezeichnet)

Abb. 9.7. Prinzipieller Aufbau des Tokamak-Reaktors [9.1]

Zentrales Solenoid Nb,Sii, 6 X10d11le

Blariket \Iodril

,

I'uruidalr Feld-Spiilrri Nb,Sri, 18, keilföniiig

-

Poloidalr Feld-Spiilrti Nb-Ti, 6

34 Lnrretteii

Abb. 9.8. Tokamak des ITER-Projektes [9.6]

424

9 Kernfusion

Stellarator Der Stellarator ist eine Maschine, die ohne Plasmastrom eine Stabilisierung erzielt und somit in der Lage ist, ein kontinuierlich stabiles Plasma zu erzeugen [9.4],[9.5]. Die stabile Magnetfeldstruktur wird im modernen Stellarator durch besonders geformte, den Torus umschließende Spulen erzielt (Abb. 9.9). Wesentliche Impulse werden von der sich im Bau befindenden Anlage Wendelstein 7-X erwartet (Greifswald, Deutschland).

Abb. 9.9. Plasma und Magnetspulen des Stellarators 19.41

Plasmaheizung Zur Einleitung der Fusionsreaktion muss das eingeschlossene stabile Plasma auf mindestens mehrere 10 Mio. Grad aufgeheizt werden. Dazu werden neben der ohrnschen Heizung durch den Plasmastrom verschiedene Systeme verwendet: Hochfrequenzheimng über einen HF-Generator mit Frequenzen von 20 MHz bis 200 GHz. Im JET werden damit Ca. 40 MW Heizleistung übertragen. Heizung durch Neutralteilcheninjektion (Deuterium- oder Wasserstoffatome). In letzterem Fall werden zunächst Jonen mit einem Teilchenbeschleuniger beschleunigt und dann in einer Gaswolke neutralisiert (durch Aufnahme von Elektronen), damit sie ungestört in das Magnetfeld eindringen können. Beim Eintreffen auf das Plasma werden sie wieder ionisiert und geben ihre Energie beim Zusammenstoß mit den Plasmateilchen ab. Damit kann dem Plasma eine Heizleistung von mehreren 10 MW abgegeben werden. Im ITER-Projekt ist mit HF und Teilcheninjektion insgesamt eine Heizleistung von 100 MW vorgesehen [9.5].

9.2 Der Fusionsreaktor

425

9.2.3.2 Der inertiale Einschluss

Beim inertialen oder Trägheits-Einschluss werden kleine (d,t)-Plasma-Kügelchen (Durchmesser Ca. 1 mm) durch Laserstrahlen oder Teilchenbündel von allen Seiten impulsartig bombardiert. Durch die Erhitzung verdampft die äußere Schicht und erzeugt eine nach innen gerichtete Druckwelle (tausendfache Dichte des Wassers wird erreicht), welche in der Mitte der Kügelchen die zur Fusion der ersten Kerne (Zündung) notwendige Temperatur von einigen 10 Mio. Grad erreicht. Die freigesetzte Energie heizt das Kügelchen weiter auf, so dass der gesamte Brennstoff fusioniert [9.5]. Modellberechnungen zeigen, dass r = r/v,mit r = Kugelradius, V, = Schallgeschwindigkeit im komprimierten Plasma. Die Fusion sollte eingeleitet werden bei Werten von r = 10-9s und n = 1023-1OZ4~ m (+' ~n r = 1014- 10" , S. Abb. 9.4) [9.3].

9.3 Stand und Perspektiven der Kernfusion 9.3.1 Internationales Forschungsprogramm Kernfusion

Tokamak-Physik

Stromerzeugung

Kommerzielle Fusionskraftwerke

Konzeptverbesserung, Stellarator

Technologie

Anlagen

Plasmaphysik

Nach Abschluss der Testphase des ITER-Experimentalreaktors sollen die Entscheidungen über die Ausgestaltung des ersten Demonstrationskraftwerks DEMO gefallt werden. Dessen Inbetriebnahme sollte aus heutiger Sicht etwa 2030 bis 2035 möglich sein. Ziel der Demonstrationsanlage wäre es, den kommerziellen Einsatz von Fusionskraftwerken fur die zweite Hälfte des Jahrhunderts vorzubereiten (Abb. 9.10).

2005

Entscheidung ITER

DEMO

14 MeV-Neutronenquelle

ITER-relevante Technologie DEMO-relevante Technologie

2015

2025

2035

Abb. 9.10. Forschungsprogramm Kernfusion (Quelle: [ 9.41])

2045

2050

426

9 Kernfusion

9.3.2 Vorzüge der Fusion und technologische Probleme Der Fusionsreaktor hat gegenüber dem Spaltreaktor wichtige Vorteile: Er bildet keine langlebigen Spaltprodukte -> das Entsorgungsproblem ist viel leichter zu lösen. - Im Reaktor gibt es kein Brennstoffinventar, das komplizierte Kontrollsysteme bedingt, sondern der Brennstoff wird in kleinen Mengen laufend von außen injiziert. Der Fusionsprozess kann nicht außer Kontrolle geraten (keine Kettenreaktion) und kann jederzeit leicht abgestellt werden, d.h er ist inhärent sicher. - Pro Gewichtseinheit des Brennstoffs wird (relativ zu Uran 235) mehr als drei Mal mehr Energie erzeugt. -

Die technologischen Probleme, die es zu bewältigen gilt, sind aber sehr groß, und es ist im heutigen Zeitpunkt schwer zu sagen, ob sie gegenüber der extensiven Nutzung der Solarenergie wirtschaftlichere Lösungen erlauben werden. Die beiden Techniken ergänzen sich aber ausgezeichnet, da die Fusionskraftwerke Bandenergie produzieren. Mit Bezug auf den Tokamak-Reaktor seien die wichtigsten Probleme erwähnt: Die Wand der Brennkammer ist einer großen thermischen Belastung ausgesetzt, wird außerdem durch hochenergetische Neutronen beschossen, was die mechanischen Eigenschaften des Materials verändert. Viel Forschungsarbeit ist hier noch zu leisten. Die Wärmeabfuhr (Nutzwärme), die z.B. mit flüssigem Lithium möglich wäre, vermutlich besser aber mit einer festen Li-Verbindung (Granulat) oder mit dem Eutektikum LiPb realisiert werden könnte, stellt ebenfalls Materialprobleme. Wird die (d,t)-Reaktion verwendet, stellen die Tritiumgewinnung im Reaktormantel und der damit verbundene Brennstoffkreislauf Radioaktivitäts- und Sicherheitsprobleme. Zur Erzeugung der hohen Magnetfelder mit geringen Verlusten sind Supraleiterspulen notwendig.

TEIL IV

Regelung und Stabilität des Energieversorgungsnetzes

10 Modellierung und Simulation

Die Analyse des dynamischen Verhaltens und der Stabilität des Energieversorgungsnetzes setzt eine wirklichkeitsgetreue Modellierung aller Netzelemente einschließlich Regelkomponenten voraus. Sowohl zur Lösung spezieller Aufgaben wie für das Verständnis der sich abspielenden Vorgänge sind aber zweckmäßige Vereinfachungen sinnvoll. Die in den folgenden Abschnitten 10.1 bis 10.3 behandelten Modelle sind für Vorgänge mit Frequenzen eindeutig unter 50 Hz geeignet (enthalten also z.B. keine transformatorischen Terme (t.S.) der Synchronmaschine, und das Netz ist stationär dargestellt). Sie dienen in erster Linie der Analyse des Spannungs- und Lastverhaltens sowie der elektromechanischen Pendelungen und zur Stabilitätsanalyse. Für eine weitergehende Modellierung zwecks Simulation sehr großer Netze oder Berücksichtigung der elektromagnetischen Ausgleichsvorgänge s. Abschn. 10.4 und Anhang 111.5. Das Netz besteht aus Leitungen und Transformatoren (größtenteils passiven Netzzweigen), aus Kraftwerken und anderen Einspeiseelementen, die an bestimmten Knotenpunkten (Einspeiseknoten) angeschlossen sind, sowie aus aktiven und passiven Lasten. Ein Knoten oder Netzzweig wird als aktiv bezeichnet, wenn er mit dynamischen Komponenten beschaltet ist. Leistungsübergabeknoten von und zu anderen Netzen können wie Lastknoten behandelt werden. Wichtigstes dynamisches Element ist das Kraftwerk, dessen Blockschema in Abb. 10.1 dargestellt ist. Die Größen des Kraftwerks sind in p.u. ausgedrückt, insbesondere der Strom &; und die Spannung E,, in lokaler Parkzeiger- bzw. Parkvektorform. Als Bczugsgrößen dienen die Generatorspannung U, und die Generatorleistung S, . Der Block „Netzkopplung" berechnet den Polradwinkel6 (für die exakte Def. und Herleitung s. Kap. 12), wandelt die elektrischen Größen von lokalen Park- in Netzkoordinaten um und berücksichtigt die Bezugsspannung U,, der Netzberechnung:

bWdT hydraulisches

Abb. 10.1.

Gesamtmodell des netzgekoppelten Kraftwerks

430

10 Modellieriing lind Simulation

db dt

5-=n-ns

sinb

cosb

-COSO sin0 I = /

1

Die Richtung von Spannung und Strom im Blockdiagramm kann für Vorgänge mit Frequenz Fläche 123 oder 6„, < 6,. Mit Dämpfung ist das asynchrone Moment von m, abzuziehen, womit sich die Fläche 123

5 14

12 Synchronisieiwng und Polradwinkelstabilität

Abb. 12.18. Flächenkriterium

reduziert und die Stabilität verbessert wird. Die Simulation zeigt, dass mit der Dämpfung von Abb. 12.17 Instabilität erst fur m, = 1.1 auftritt.

12.3.1 Transiente Analyse Allgemein setzt sich die Leistung oder exakter das elektrische Drehmoment m aus synchronem und asynchronem Anteil zusammen, wobei anschließend an Störungen das synchrone Drehmoment m, in erster Näherung dem transienten Drehmoment gleichgesetzt werden kann. Wegen GI. (12.1 I), sinngemäss angewandt, folgt

wobei zunächst e, = e, 'und e, = eN '. Störungen des Gleichgewichts werden durch Änderung des Antriebsmoments oder Veränderungen im Netz verursacht. Um das Verständnis zu vertiefen, seien drei einfache Fälle näher analysiert: - Rasche Änderung des Antriebsmoments, - Kurzschluss im Netz, - Zu- und Abschaltung einer Zwischenlast.

12.3 Verhalten bei großen Störungen

515

12.3.1.1 Rasche Änderung des Antriebsmoments Das Antriebsmoment ändere plötzlich seinen Wert von m„ auf m,. Die Vorgänge werden in Abb. 12.19 veranschaulicht und sind analog zu denen der Abb. 12.16 und 12.17. Das Flächenkriterium ist fur den Fall ohne Dämpfung eingezeichnet. Bei Berücksichtigung der Dämpfung sind die fur das Stabilitätskriterium maßgebenden Flächen das Integral der Differenz der spiralformigen Kurve (m, - m„,) und m,.

Abb. 12.19. Transientes Verhalten des Polradwinkels bei plötzlicher Änderung des Antriebsmoments

12.3.1.2 Kurzschluss im Netz Während der Kurzschlussdauer t, bricht die Spannung U„ zusammen. Im schlimmsten Fall ist die Netzspannung und somit auch das elektrische Drehmoment m null. Aus GI. (12.41) folgt durch Integration mit der Annahme m, konstant (Vernachlässigung der Wirkung der Drehzahlregelung) die Kurzschlusstrajektorie o

=I-

r n a , / n 7

Tm

und durch Integration der GI. (12.42)

516

12 Synchronisierung und Polradwinkelstabilität

Der Synchronlauf bleibt erhalten, eine erfolgreiche Abschaltung des Kurzschlusses vorausgesetzt (Kurzunterbrechung, Band 1, Abschn. 14.2.5), wenn im Zeitpunkt t, die Kurzschlusstrajektorie den Stabilitätsbereich nicht verlassen hat (Punkt A in Abb. 12.20) oder wenn sie unter der Wirkung der Dämpfung in diesen wieder eindringt (Punkt B,). Die SM fallt aus dem Tritt, wenn t, einen kritischen Wert überschreitet (Punkte B, und C). Die Interpretation in der (6, m)-Ebene und das Zeitverhalten von Polradwinkel und Drehzahl bei stabilem und instabilem Verhalten zeigen die Abb. 12.21 und 12.22.

Abb. 12.20. Trajektorien bei Netzkurzschlüssen verschiedener Dauer

Abb. 12.21. Transientes Verhalten in der (6, m)-Ebene bei Netzkurzschluss (Flächenkriterium) a) stabiler Fall tK= 90 ms, b) instabiler Fall tK= 120 ms

12.3 Verhalten bei grossen Störungen

5 17

Abb. 12.22. Zeitverhalten von Polradwinkel und Schlupf bei Netzkurzschluss im

stabilen und instabilen Fall 12.3.1.3 Zu- und Abschaltung einer Zwischenlast

Die untersuchte Schaltung ist in Abb. 12.23 dargestellt. Die Simulation (s. dazu auch Abschn. 12.3.2) ergibt fur die Zuschaltung einer Impedanzlast von 80% der Turbogeneratornennlast, mit Netzimpedanzen xQ„= X = 0.1 p.u., die in Abb. 12.24a und Q? 12.24b wiedergegebene Verschiebung der transienten Charakteristik. Der zugrundeliegende stationäre Zustand entspricht einer Generatorleistung p = 0.2 p.u. Bei reiner Wirklast verschiebt sich die Kennlinie leicht nach oben links, bei rein induktiver Last (B < 0 ) leicht nach unten b m . fiir kapazitive Last nach oben. Um bei relativ starren Netzen mit parallelen Impedanzen eine stabilisierende Wirkung

ho f

starres Netz

Abb. 12.23. Netzverbindung mit Zwischenlast

5 18

12 Synchronisierung und Polradwinkelstabilität

= G + j B, xQ= 0.2 p.u., xQ, = xQ, a) rein ohmsche Last b) rein induktive oder kapazitive Last

Abb. 12.24. Verschiebung der transienten Kennlinie bei Lasteinschaltung Y,

zu erzielen, muss die zugeschaltete Leistung ein Mehrfaches der Nennleistung sein, was nur kurzzeitig zulässig ist (Abschn. 12.3.2). Die Kennlinienverschiebungist etwa proportional zur Größe der Netzimpedanz. Sie ist außerdem um so stärker,je näher sich die Last an der SM befindet. Der Fall wurde analytisch in [12.4], [12.5] im Detail untersucht. Kritisch bezüglich Stabilität kann die Ausschaltung einer sich in der Nähe der SM befindlichen Wirklast im Fall eines weichen Netzes werden. In Abb. 12.25, mit Netzreaktanz xQ= 0.4 p.u. und xQ, /xQi= 19, ist der Vorgang noch stabil: ausgehend vom stationären Punkt A, verschiebt sich das synchrone Drehmoment un-mittelbar nach der Lastabschaltung nach B, um sich dann in C einzupendeln. Der Polradwinkel wird vergrößert und die Stabilitätist, wie die Anwendung des Flächenkriteriums zeigt, bei einer noch größeren Abschaltung oder ein noch weicheres Netz gefährdet. Der Pendelvorgangwird durch das asynchrone Drehmoment (proportional zum Schlupf) veranschaulicht.

Abb. 12.25. Wirkung der Abschaltung einer sich in der Nähe der SM befindlichen

Wirklast bei weichem Netz, auf die transiente Kennlinie: I Kennlinie vor der Abschaltung, 2 Kennlinie nach der Abschaltung

12.3 Verhalten bei grossen Störungen

5 19

12.3.2 Stabilisierungsmaßnahmen

Die Stabilität ist bei Kurzschlüssen im Netz umso besser gewährleistet, je größer das transiente Drehmoment der netzgekoppelten SM, und je besser die Dämpfung des Synchronisiervorgangs sind (s. Abb. 12.20 - 12.22). Die Dampfung kann durch Zusatzsignale in der Spannungsregelung (Pendeldämpfungsgerät) verbessert werden (Abschn. 12.2.2, 12.2.3, Gln. 12.35, 12.38). Das (synchrone) transiente Drehmoment wird, wenn von der Anisotropie des Rotors abgesehen wird (d.h. X,' = X,' setzt), im einfachen Fall der Abb. 12.5 entsprechend GI. (12.48) von U e ms = ,in&; I X d ~

gegeben (6Q' = aQ+ a, gemäß Zeigerdiagramm Abb. 12.3). Die Amplitude des Drehmoments, und somit, wegen des Flächenkriteriums, auch die Stabilität, können verbessert werden durch - Verkleinerung der Reaktanz X,; durch Seriekompensation. Die stabilisierende Wirkung der Seriekompensation wurde bereits in Band 1, Abschn. 9.5 aus anderer Sicht hervorgehoben. - Vorübergehende Erhöhung der transienten EMK e, durch Forcierung der Erregung (s. auch Polradwinkelbegrenzung, Band 1 , Abschn. 6.6.2.5) (nur verzögert wirksam), was zu einer Erhohung der SM-Spannung fuhrt oder, was gleich wirkt, durch Verminderung der Ubersetzung des Maschinentransformators. Weitere Maßnahmen sind das vorübergehende Ein- oder Ausschalten von Parallelimpedanzen sowie der Einsatz von Transformatoren mit Querregelung oder entsprechender FACTS-Geräte. Um die Wirkung all dieser Maßnahmen zu untersuchen, sei von der allgemeineren Netzverbindung Abb. 12.26 ausgegangen, die mit Parkvektoren von folgendem p.u. Gleichungssystem beschrieben wird

12 Synchronisierung und Polradwinkelstabilität

520

Abb. 12.26. Netzverbindungsmodell zur Berücksichtigung von Parallel- und Serie-

kompensation sowie Transformator mit Längs- und Querregelung oder entsprechender FACTS-Geräte (e', X,' = transiente Grössen). Die Reaktanz X, schließt die Transformatorreaktanz ein. Von der Reaktanz X, oder X, ist die Reaktanz X, der evtl. Seriekompensation abzuziehen. Längs- und Querwerte sind nur für die SM-Reaktanzen X, und X,' verschieden. Bei Vorgabe von uQund e,' ergeben sich die transienten Lösungen (E = Einheitsmatrix, n, = 1)

X,= E+x;(x;'+Y~),

mit 4

ii

=

F[x;'(Ü,

ül = 0',

- üQ) +

-

Y,

31

X;=TX:T+X, )

t

(12.53) -

m, s p , = ül * i l

.

Die Komponenten von uQfolgen aus uQd= uQsin a Q ,%, = uQcos a Q ,und e,' kann vorgängig mit einer stationären Berechnung (Vorgabe der Leistung) berechnet werden. Die Abb. 12.27 zeigt zwei Beispiele. Die vorübergehende Zuschaltung eines Wirkwiderstandes („Bremswiderstand', engl. „braking resistor") in der Nähe der SM unmittelbar nach Klärung des Kurzschlusses hat durch die Anhebung der Charakteristik einen stabilisierenden Effekt, wie der Vergleich der Bremsflächen in Abb. 12.27anachweist. Eine ähnliche Wirkung erzielen über Leistungselektronik gekoppelte supraleitende Spulen, mit dem Vorteil, dass die Energie rekuperierbar ist. Stabilitätsverbessernd wirkt auch die Einfihrung einer Querspannung durch Quer-

Abb. 12.27. Transiente Drehmomentkennlinie a) Wirkung eines Bremswiderstandes in der Nähe der SM b) Wirkung einer Querspannung (Transformator mit Querregelung,

ß = 30" oder FACTS-Gerät)

12.3 Verhalten bei grossen Störungen

521

transformatoren oder entsprechende FACTS-Geräte, wie die Abb. 12.27b veranschaulicht. Die Verschiebung nach rechts vergrößert deutlich die Stabilitätsreserve. Bei kleinen Polradwinkeln kann auch eine Verschiebung der Kennlinie nach links vorteilhaft sein. Die Wirkung von Queradmittanzen normaler Leistung ist i.d.R. bescheiden, wie die Abb. 12.24 zeigt. Wird jedoch die Änderung einer zu Kompensationszwecken vorgesehenen parallelen Admittanz G +j B über leistungselektronische Einrichtungen (FACTS) mit der Drehzahlabweichung vorzeichenrichtig kontinuierlich moduliert, kann damit eine Verbesserung der Dämpfung des Synchronisiervorgangs erzielt werden [ I 2.41. Eine weitere Eingriffsmöglichkeit bietet die Drehzahlregelung, über welche in thermischen Kraftwerken im Kurzschlussfall während der Kurzschlussdauer eine rasche vorübergehende Verminderung der Antriebsleistung eingeleitet werden kann („fast valving", s. dazu auch Abschn. 1 1.1.2). Damit lässt sich z.B. mit Bezug auf Abb. 12.2 1 b die Beschleunigungsfläche vermindern und die Stabilität zumindest bei guter Dämpfung erhalten. Ein solcher Eingriff ist in hydraulischen Kraftwerken auf Grund der Druckstossgefahr nicht möglich. Sind jedoch z.B. zwei gleiche Gruppen parallelgeschaltet, kann im Kurzschlussfall, einer der beiden Generatoren synchron mit der Abschaltung des Kurzschlusses vom Netz genommen werden („generator tripping"). Dadurch halbiert sich die Antriebsleistung, während sich die transiente Kennlinie zwar etwas, wegen der Erhöhung der Netzreaktanz, jedoch nicht im gleichen Masse verschiebt. Dies hat zur Folge, dass die zur Verfügung stehende Bremsfläche und somit die Stabilitätsmarge erhöht werden.

Subsynchroneschwingungen: Die Seriekompensation mit einer Kapazität kann zu subsynchronen Schwingungen Ca. der Kreisfrequenz (U, IIJLC) fuhren [12.7]. Diese ergeben sich aus der Resonanz der Seriekapazität C mit der Längsinduktivität L (SM + Transformator + Leitungen). Für deren exakte Berechnung müssen sowohl die SM als auch die Netzverbindung mit den transformatorischen Spannungen modelliert werden (s. dazu Abschn. 12.4). Diese subsynchrone Frequenz kann vor allem mit den Torsionsschwingungen interagieren und diese gefährlich verstärken. Eine diesbezügliche Analyse ist deshalb zu empfehlen. -

Beispiel 12.2 Eine Schenkelpolmaschine mit den Daten: S, = 100 MVA, X, = 1.6 p.u., X , = 1 p.u., X,' = 0.35 p.u., X„'= 1 .p.u. wird über die Netzverbindung von Abb. 12.26 mit dem starren Netz gekoppelt. Die Daten sind r = 1 p.u., X , = 0.14 p.u., X, = 0.06 p.u., yL=gL= 0.9 p.u. Der stationäre Zustand ist durch p, = 0.8 p.u., u = 1 p.u., uQ= 1 p.u. definiert.

522

12 Synchronisierung und Polradwinkelstabilität

Abb. 12.28. Resultate der Berechnung Beispiel 12.2 a) ohne b) mit

Seriekornpensation a) Man bestimme die statische und die transiente Leistung in Abhängigkeit vom Polradwinkel. b) Wie verändern sich die Leistungen, wenn die Reaktanz X, durch Seriekompensation auf 0.06 p.u. reduziert wird? Die stationäre Berechnung ergibt e, = 1.63 p.u., e,' = 0.973 p.u. Den Leistungsverlauf nach den Gln. (12.52) und (12.53) zeigt Abb. 12.28.

12.4 Modellierung mit subsynchronen Schwingungen 12.4.1 Synchronmaschine Subsynchrone Schwingungen können bei Seriekompensation (Abschn. 12.3.2) auftreten, wobei die Interaktion mit den Torsionsschwingungen zu überprüfen ist. Auf Grund der relativ hohen Frequenzen müssen die transformatorischen Spannungen (t.S.) berücksichtigt werden. Als Modell kann jenes der Abb. 6.72 in Band 1 genommen werden (für die Parameterberechnung s. Band 1, Abschn. 6.7.3.) oder ein Übertragungsfunktionen-~odellmit Strom als Ausgangsgröße gemäß Abb. 10.2 (modifiziert mit j$ an Stelle von U und $, statt e, ) und vorgeschaltetem (t.S.)-Block, wie in Abb. 12.29 dargestellt.

4

i

JY

SM

- T* Abb 10.2

1,'

Abb. 12.29. SM-Modell mit Übertragungsfunktionen und vorgeschaltetem (t.S.)-Block

12.4 Modellierung für subsynchrone Schwingungen

523

12.4.2 Netzverbindung

Das Gesamtmodell des Kraftwerks zeigt Abb. 12.30. Für die Spannungsregelung sei auf Abschn. 13.1.2 verwiesen. Für die Netzverbindung genügt, falls nicht motorische Zwischenlasten vorhanden sind, eine stationäre Darstellung, z.B. entsprechend Abb. 12.26 (die fünf ersten der Gln. 12.52). Die lmpedanzen von Netz und Last sind allerdings mit t.S. zu modellieren. Im Fall motorischer Last ist die Dynamik entsprechend Abschn. 10.2.2 zu modellieren. Als einfaches Beispiel sei der Fall einer Netzverbindung, bestehend aus der Serieschaltung von Netzwiderstand R„ , Netzinduktivität L„ und Seriekapazität C, behandelt. Dann gilt die Parkzeigerbeziehung (Band 1)

Mit den Bezugsgrößen U , , Zr = U>/S, folgen die p.u. Beziehungen

In Parkvektorform geschrieben, lautet dieser Zusammenhang

mit

X, =

xQ

+

Xc -

,

x2=xe--

1 +s2T;

Xc

1 +s2Tr2

hydraulisches thermisches System

Torsion

SM

verbindung, Last

F

Polar-dqTransformation Abb. 12.30. Gesamtmodell des netzgekoppelten Kraftwerks

----

1% 1

524

12 Synchronisierung und Polradwinkelstabilität

Bei Vernachlässigung der transformatorischen Terme ist in den Gln. (12.54) oder (12.55) sT, = 0 zu setzen. 12.4.3 Polar-dq-Transformation Aus p.u. Netzfrequenz und p.u. Drehzahl folgt der Polradwinkel 6Q (GI. 12.26). Durch Transformation der Polarkoordinaten (uQ, 6Q) in Park'sche Komponenten (Zeigerdiagramm Abb. 12.3) erhält man

12.4.5 Mechanik Im einfachsten Fall gilt

Bei Einbezug der Torsionsschwingungen kommt an Stelle dieser Gleichung folgende allgemeinere p.u. Gleichung im Zustandsraum (entsprechend Abschn. 12.1.1)

mit

X,

=

wobei wegen der p.u.-Darstellung in Ab A, und B folgende Größen zu ersetzen sind: J durch T,, K, durch k,/Tr und K durch k, mit p = Polpaarzahl, M„ = Bezugsdrehmoment

12.4.6 Hydraulisches oder thermisches System und Drehzahlregelung

Für das hydraulische System sei aufAbschn. 4.5 und fiir das thermische System sowie die Drehzahlregelung auf die Abschn. 5.5.4, 5.5.5 und 1 1.1 verwiesen.

12.5 Transiente Analyse von Mehrmaschinensystemen

525

12.5 Transiente Analyse von Mehrmaschinensystemen Die exakte Untersuchung der Dynamik von Mehrmaschinensystemen kann mit einer nichtlinearen Modellierung und Simulation des Systems durchgeführt werden (Kap. 10). Für kleine Störungen genügt eine lineare Analyse, dazu s. Abschn, 12.6. Während einer kurzen Zeit nach der Störung befinden sich die Synchronmaschinen im transienten Zustand, und eine entsprechende vereinfachte transiente Analyse ist möglich. Im Folgenden wird diese Methode näher dargelegt. Ausgegangen sei vom Netz mit m Generatoren der Abb. 12.3 1. Für eine bekannte Netzstruktur und Lastsituation lassen sich durch eine Lastflussberechnung der stationärezustand desNetzes und damit alle Spannungen, Ströme und Leistungen vor der Störung ermitteln (Band 1, Abschn. 9.3, 9.6). Insbesondere sind dann auch die transienten Quellenspannungen aller Generatoren bekannt, die den Ausgangspunkt für die transiente Analyse des Systems darstellen.. 12.5.1 Elektrisch statische Darstellung der Generatoren Im Rahmen der transienten Analyse werden die Generatoren elektrisch durch ein statisches Modell beschrieben. Die Dynamik betrifft lediglich den mechanischen Teil. Physikalisch lässt sich diese Näherung durch die große Trägheit des Polradflusses der SM begründen. Die Resultate sind jedoch nur für Vorgänge kurzer Dauer zuverlässig. Der i-te Generator ist elektrisch durch folgende Gleichungen bestimmt:

Die erste Gleichung beschreibt mit Parkvektoren den stationären und die zweite den transienten Zusammenhang zwischen Quellenspannung und Klemmenspannung der SM. Sind LJ, und 1, aus der Lastflussberechnung bekannt, lassen sich daraus E, und E, - ' bestimmen.

Abb. 12.31. Netz mit m Generatorgruppen, elektrisch stationärc Darstellung

526

12 Synchronisierung und Polradwinkelstabilität

Die Dynamik wird durch die mechanischen p.u. Gln. (12.26) beschrieben

wobei die Polradwinkel tjQ, als Winkel zwischen der q-Achse der maschineneigenen dq-Systeme und einem beliebig festzulegenden, mit synchroner Geschwindigkeit n, rotierenden Spannungszeiger aufzufassen sind (Abb. 12.32). Die Abweichungen der Drehzahlen vom Synchronismus sind gering, und mit guter Näherung kann an Stelle des Drehmoments auch die Leistung p = m . n m . n, m (mit der Annahme n, I) verwendet werden. Werden schließlich physikalische Einheiten eingeführt, lauten die Gleichungen

- -

-

mit der Trägheitskonstante Mi

=

S.

Tmi 2 ,

( U $ =ur

für n,= 1 )

.

Or

Der m-te Generator werde als Bilanz-Generator definiert. Für Stabilitätsbetrachtungen ist es dann sinnvoll die Polradbewegung der anderen Generatoren relativ zur Bewegung dieses Generators hervorzuheben, durch Definition des relativen Polradwinkels 6 ~ m = 6QI

- 6Qm

(1 2.63)

Die Gln. (12.62) werden dann zu

12.5.2 Netzdarstellung Die Last sei durch statische Elemente darstellbar. Das Netz bestehe aus n Knoten, wovon m Generatorknoten. Durch Anwendung der „direkten Methode" lässt sich mit Hilfe der geordneten Knotenadmittanzmatrix das Netz durch die Gln. (9.23) des Abschn. 9.3.2.1 von Band 1 beschreiben (Reihenfolge G, L umgestellt)

12.5 Transiente Analyse von Mehrrnaschinensystemen

527

Darin ist U, der Vektor der Generatorspannungen und U, der Vektor der übrigen Knotenpunktspannungen (Lastknoten). Bei reiner lmpedanzlast (für den allgemeineren Fall s. Abschn. 12.5.5) lassen sich die Lastfunktionen durch

X

Pi = f( oIm

....

%I,

)

1

Abb. 12.33. Blockdiagramm des Mehrmaschincnsystems,

FLR = Frequenzleistungsregelung (Sekundärregelung)

Zur näheren Erläuterung werden nachfolgend die Fälle des Zwei- und Dreimaschinen-Systems anhand konkreter Zahlenwerte für einfache Netzverbindungen durchgespielt.

Beispiel 12.3: Zwei-Maschinen-System a)

Für das Zwei-Maschinen-System der Abb. 12.34 sind der Verlauf der statischen und transienten Leistung zu bestimmem. Die Daten der SM 1 sind mit jenen des Beispiels 12.2 (Abschn. 12.3) identisch, ebenso der stationäre Zustand. Auch die Daten des Netzes seien die gleichen, es werde jedoch auch die ohmsche Komponente der Leitungsimpedanzen berücksichtigt . Somit gilt in p.u. der SM: zl = 0.04 + j 0.14, 22 = 0.02 + j 0.06. Für den Turbogenerator SM 2 gilt: Sr?= 500 MVA, xd = 2 p.u., X, = 1.95 p.u., X,' = 0.3 P.u., X,' = 0.35 p.u.

b)

Man vergleiche die Resultate mit dem Fall S„

XSI'

(-,F=XSI

-\

-

-1

E,'

Abb. 12.34. Zwe-Maschinen-System zu Beispiel 12.3

=

(starres Netz)

12.5 Transiente Analyse von Mehrmaschinensysteinen

53 1

Abb. 12.35. Resultate der Berechnung Beispiel 12.3 a) SM 2 : 500 MVA b) SM 2:

Die mit den Beziehungen (12.78) sowie (12.79) erhaltenen Resultate zeigt die Abb. 12.35. Die Resultate der Abb. 12.35b (So = W ) stimmen wie erwartet weitgehend mit jenen der Abb. 12.28a überein (kleine Unterschiede, auf Grund ohmscher Komponenten der Leitungsimpedanzen). Wird das starre Netz durch eine SM endlicher Leistung ersetzt, wird die Stabilität verschlechtert, wie die Abb. 12.35~1 deutlich zum Ausdruck bringt. In Abb. 12.3% sind die stationäre und die transiente Leistung beider Maschinen in Funktion von 6„ bzw. 6„ dargestellt. Für die Interpretation der Leistungen der SM 2 ist zu beachten, dass 6„ = - 6„.

Beispiel 12.4: Drei-Maschinen-System Abbildung 12.36 zeigt das der Berechnung zugrundeliegendes Schema.

Abb. 12.36. Schema zu Beispiel 12.4

532

12 Synchronisierung und Polradwinkelstabilität

Die Daten sind: SM 1: S, = 100 MVA, X, = 1.6 p.u., X, = 0.8 p.u., X,' = 0.35 p.u., X,' = 0.8 p.u. SM 2: Sr= 200 MVA, X, = 1.9 p.u., X, = 1.85 p.u., X,' = 0.25 p.u., X,' = 0.3 p.u. SM 3: Sr= 500 MVA, X, = 2 p.u., X, = 1.95 p.u., X,' = 0.3 p.u., X,' = 0.35 p.u. Last: Y, = 0.0063- j 0.003 l/Q, Zweigimpedanzen in p.u. der SM 1: L12: 0.02 + j 0.08, L13: 0.04 + j 0.14, L14: 0.015 + j 0.06 L23: 0.04 + j 0.14, L24: 0.015 + j 0.06 L34: 0.02 +j 0.09 Leitungskapazitäten (in Knoten konzentriert): Ycl = 0.0007, Yc2 = 0.0007, Yc3 = 0.0009, Yc4 = 0.0005 I/Q.

Abb. 12.37. Beispiel 12.4 a) stationäre b) transiente Leistungsfläche von SM1 in Funktion der beiden Polradwinkel relativ zum Bilanzgenerator.

Abb. 12.38. Beispiel 12.4 a) stationäre b) transiente Leistungsfläche von SM2 in Funktion der beiden Polradwinkel relativ zum Bilanzgenerator.

12.5 Transiente Analyse von Mehrmaschinensystemen

533

Die Lastflussberechnung wird mit SM 3 als Bilanzgenerator und den Vorgaben: P1 = 8 0 M W , P 2 = 150MW, ul = I, u 2 = l.Ol,undu3 = 1 p.u.,durchgefiihrt. Man erhält P3 = 56.5 MW, Q l = 3.1 MVAr, Q2 = 35.7 MVAr, Q3 = - 16.3 MVAr, 6„, = 18.7", 6,;, = 33.2". Die Abb. 12.37 und 12.38 zeigen die mit den Gln. (12.73), (12.82) und (12.83) berechneten stationären und transienten Leistungsflächen der SM I und SM 2 in Abhängigkeit von den beiden Polradwinkeln 6„ und 6„. In Abb. 12.39 ist ein vertikaler Schnitt durch die Leistungsflächen für beide Maschinen gegeben, der die stationäre und transiente Leistung in Funktion des eigenen Polradwinkels in rad darstellt. Stationär arbeitet SM 2 nicht weit von der statischen Stabilitätsgrenze. Die Kennlinien können für beliebige Netzzustände ermittelt werden. So zeigt Abb. 12.40 die transienten Kennlinien beider Generatoren SM 1 und SM 2 vor und während eines satten Kurzschlusses im Knotenpunkt 4 des Netzes Abb. 12.36. Da der Kurzschluss in diesem Fall generatorfern ist, wird die Stabilität erst bei einer Dauer des Kurzschlusses von mehr als 0.5 s kritisch (s. dazu auch Abschn. 12.3.1).

Abb. 12.39. Beispiel 12.4, Schnitt durch die Leistungsflächen Abb. 12.37 bzw. 12.38 p = stationäre Leistung, p' = transiente Leistung

4,

I

4 3

4,

a23

Abb. 12.40. Beispiel 12.4, transiente Kennlinien der SM I und 2 vor (p3 und während

(p,3 des Kurzschlusscs im Knotenpunkt 4

12.5.4 Systeme mit m > 3 Ähnliche Berechnungen können fur Systeme mit mehr als drei Maschinen durchgeführt werden, wobei die Leistungen als Hyperflächen im m-dimensionalen Raum erscheinen, die durch entsprechende Schnitte veranschaulicht werden können. Die praktische Grenze von Berechnungen dieser Art ist bei zunehmendem m durch die stark zunehmende Rechenzeit gegeben. Werden nicht die Hyperflächen, sondern nur die bei Stabilitätsanalysen momentan wirksamen Leistungen berechnet (in MatlabISimulink, z.B. mit S-functions) steigt der Rechenaufivand weniger dramatisch an. Die Anzahl Maschinen kann durch Netzreduktion (Modelle mit Teilnetzen, die jeweils nur eine SM umfassen, Abschn. 12.5.7) begrenzt werden.

12.5.5 Spannungsunabhängigkeit der Last Die Last ist bisher als Impedanzlast dargestellt worden, was eine quadratische Abhängigkeit der Leistung von der Spannung impliziert. Motorische Lasten beispielsweise sind jedoch, was die Wirkleistung betrifft, nach kurzer Zeit nahezu spannungsunabhängig (s. Abschn. 12.4). Um diesen Effekt zu berücksichtigen, kann der quadratische Ansatz

verwendet werden, der einen Konstantleistung-, einen Konstantstrom- und einen lmpedanzlastanteil enthält. Der entsprechende Laststrom ist

Um die Berechnung der transienten Leistung ohne zusätzliche rechenzeitaufwendige Iterationen durchzuführen, kann der erste Term auf der rechten Seite im stationären Betriebspunkt linearisiert werden, wodurch der spannungsunabhängige Lastanteil durch einen Konstantstrom und eine negative Admittanz näherungsweise erfasst wird. Man erhält aus GI. (12.80) für einen beliebigen Lastknoten

An Stelle der GI. (12.66) tritt die Gleichung

wieder in die Diagonalterme der Matrix D integriert, folgt Wird die Admittanz I„, analog zu GI. (12.67)

12.5 Transiente Analyse von Mehrinaschinensystemen

535

lGi, ist die komplexe Komponente des m-dimensionalen Vektors I„. Wird sie als Spaltenvektor geschrieben mit Real- und Imaginärteil, folgt analog zu GI. (12.70)

und in den GI. (12.75) muss schließlich lediglich

C,

I?,

durch

k= 1

Cik

+

fGIO

k= 1

ersetzt werden.

12.5.6 Stabilität im Großen Sind durch die vorangehende Berechnung die transienten Leistungen P,' (6„ .... 6,.,,) für den gewünschten Zustand bekannt, kann aus GI. (12.64) durch Aufspaltung von P, in transiente und asynchrone Leistung die ( m 1)-dimensionale Zustandsgleichung geschrieben werden

worin M die Diagonalmatrix der Trägheitskonstanten, K, jene der Dämpfungskoeffizienten und P' den Vektor der transienten Leistungen darstellt. Für die Berechnung von K, s. Abschn. 12.2; wesentlich kann der Einfluss von Spannungsregelung und Pendeldämpfungsgerät sein. Für den Bilanzgenerator gilt ferner die Gleichung

Abb. 12.41.

Blockdiagramm zu den Gleichungssystemen ( 1 2.85), ( 12.86)

und es ergibt sich das in Abb. 12.41 dargestellte Rechenschema, das z.B. mit Matlab ausgewertet werden kann und die Polradbewegungen aller Generatoren liefert.

P,;

. . . . .

I

.......

0

1

2

3

-+ t (s)

I

4

5

Abb. 12.42. Kurzschluss von Dauer 0.3 s im Knotenpunkt 4 von Beispiel 12.4, Abb.

12.37 a) Trajektorie der SM 1 b) Trajektorie der SM 2 C) transiente Leistungen der SM 1 d) transiente Leistungen der SM 2 e) Drehzahlabweichungsverlauf der drei Maschinen

12.5 Transiente Analyse von Mehrmaschinensystemen

=)

537

0.02 0.01

0 "a

r, -0.01 (I)

-0 02

delta ,3

d,

-1

0

1 delta



delta 23

2

3

-1

0

1 delta 23

2

3

Abb. 12.43. Kurzschluss von Dauer 0.3 s im Knotenpunkt 4 von Beispiel 12.4, Abb.

12.36, Berechnung von P (6) mit S-function. Resultate wie in Abb. 12.42, in C) und d) sind jedoch die momentanen statt die stationären transienten Leistungen dargestellt

Die Abb. 12.42 zeigt die Auswertung des Beispiels 12.4 (Abb. 12.36) für einen dreipoligen Kurzschluss von 0.3 s Dauer im Knotenpunkt 4. Ergänzende Daten sind T„ = T„ = 5 s, T,,,, = 8 s. Gezeigt werden die Trajektorien und die Leistungen der SM 1 und 2 (vergl. auch mit Abb. 12.40) sowie der Verlauf der Drehzahlabweichungen der drei Gruppen. Wird auf die Ermittlung der stationären Leistungsflächen verzichtet und werden statt dessen die während des transienten Vorgangs wirkenden momentanen Leistungen berechnet (z.B. mit MatlabISimulink, S-functions), ergibt sich das in Abb. 12.43 dargestellte Resultat.

538

12 Synchronisierung und Polradwinkelstabilität

12.5.7 Ordnungsreduktion Im Rahmen der transienten Analyse weisen die Generatoren die Ordnung 2 auf, und das Netz wird auf die Generatorknoten (allgemeiner: aktive Knoten) reduziert. Eine weitere Reduktion ist nur durch Zusammenfassung von Gruppen von Generatoren möglich.

12.5.7.1 Kohärente Generatoren Generatoren eines Teilnetzes werden als koharent bezeichnet, wenn sie sich synchron (oder nahezu synchron) bewegen, und somit die Polradwinkeldifferenz als null oder klein angenommen werden kann. Dann lassen sie sich, wie im Folgenden gezeigt wird, zu einem einzigen Generator zusammenfassen Dazu fuhren wir zunächst eine Netzreduktion nach Zhukov (1 964) durch, [12.4], [ I 2.11). Ausgehend von den Netzgleichungen

worin die Vektoren der zusammenzufassenden Generatorknoten mit G indiziert sind, wird eine äquivalente Netzgleichung eingeführt, welche die Knoten G durch einen einzigen Knoten e ersetzt

unverändert bleiben, folgt aus den ersten Zeilen von (12.87) und Sollen 1 und (12.88) die Äquivalenz

Be=BZ,

IG

P = - , U

mit

die zur elektrischen Interpretation mit idealen Transformatoren in Abb. 12.44 fuhrt. Damit die eingespeiste Leistung im äquivalenten Knoten e mit der Summenleistung der Knoten G übereinstimmt, muss gelten

0' ?* = Ue

-G-G

I* e

-->

I =P'&, e

woraus folgt

und schließlich

Ce

=

Z*'C

de

=

3*' D

Z.

(1 2.90)

12.5 Transiente Analyse von Mehrmaschinensystemen

Netz

539

I,

Abb. 12.44. Netzreduktion nach Zhukov Ide Mello

Das äquivalente Netz hat konstante Admittanzen, wenn die Ubersetzung der Transunabhängig vom Netzzustand. Dann gilt aber

formatoren konstant ist

Sind die Spannungsbeträge der Generatoren konstant, entspricht GI. (12.93) der 6, = konst. (die Winkel ändern synchron). Die Kohärenzbedingung impliziert also (unter der Voraussetzung konstanter Generatorspannungen) die Konstanz der Transformatorübersetzungen und umgekehrt.

Kohärenzbedingung 6, -

12.5.7.2 Transiente Analyse und Kohärenz Im transienten Zustand sind die Generatoren durch die konstante transiente Spannung E,' und den transienten Polradwinkel 6,,' gegeben (Abb. 12.3). In den Gln. (12.87) bis (12.93) tritt an Stelle der Spannung U die Spannung E' und an Stelle des Winkels 6 der Winkel Zu beachten ist, dass Aool = A6, (Abb. 12.3). Nach Abschn. 12.5.3 bestehen nach Elimination der Lastknoten zwischen den Generatorströmen und -Spannungen im Generator-Referenzsystem die transienten Beziehungen (Last als Impedanzlast)

'P

-11-1

3 (E, I , +

=

~

~

l

T;) ~

,

~

t

Die elektrische transiente Leistung ist eine nichtlineare Funktion aller Polradwinkel, nimmt also die allgemeine Form an I

(12.95) P, =f(6Ql .-.. GQ,m-l) Deren Ableitung im stationären Betriebspunkt ist die transiente synchronisierende Leistung. Für zwei verschiedene Generatoren i und j der Generatorgruppe G relativ zum einem Generator (Knoten) k außerhalb dieser Gruppe, gilt z.B.

540

12 Synchronisierung und Polradwinkelstabilität

Bei Änderung von hQ, ist die transiente Beschleunigung der Polräder für die beiden Generatoren i und j dann etwa gleich (bei gleicher Dämpfung), wenn

Ist diese Bedingung erfüllt, ist die Kohärenz der beiden Generatoren relativ zum Knotenpunkt k angenähert gegeben. Ist sie für alle Knotenpunkten k außerhalb der Gruppe G erfüllt sind die Generatoren absolut kohärent. Bei Kohärenz können die Generatoren durch den äquivalenten Generator (E,', 6„') bzw. durch den Parkvektor E,' ersetzt werden. Der äquivalente Polradwinkel wird so gewählt, dass

C

6Qi

G

C

(12.98) , mit M~ = M,, M, G (M = Trägheitsmoment). Die Ersatzgruppe weist die mechanische Leistung P,,,, = C P,,,, auf.

6Qe

=

12.5.7.3 Berechnung der synchronisierenden Leistung Aus GI. (12.94) folgt

Die Ableitung des Stromes erhält man aus den Gln. (12.75), (12.76)

bei Berücksichtigung der Gln. (12.60) und (12.76) zu nz

+

C ciko X; k+i,l

a?: -

d6,

=

2 ac, E: d6, -

Ausdruck, der sich in Matrixform nach der Stromableitung auflösen lässt

ar" -

a6,

acik

=

H:-' [-] Üo , a 6 ~

mit

H,,

=

[H,]

12.6 Lineare Analyse von Mehrmaschinensystemen

541

Analog dazu erhält man t

,

d6,

mit

H„

=

[H:] .

Die Koeffizienten der [X/ d6] Matrix sind lediglich für k +i und k verschieden von Null. Sie folgen aus GI. (12.74)

(12.103)

=j

oder i = j

Wird die Last allgemeiner ausgedrückt (Abschn. 12.5.5), muss der rechten Seite der GI. (12.100) ein zusätzlicher Term entsprechend GI. (12.84) hinzugefügt werden, was jedoch die nachfolgenden Ausdrücke nur leicht modifiziert.

12.6

Lineare Analyse von Mehrmaschinensystemen

Für kleine Störungen des Betriebs kann eine lineare Analyse durchgeführt werden. Die Bewegungsgleichung der Generatorgruppen lautet fur kleine Änderungen wegen der Gln. (12.63), (12.64)

dAo,

q m --

AP,

-

M,,

dAb dt

-

P

Au, - A q

-

(12.105) i = 1 .... m . Die Änderung der elektrischen Leistung folgt für eine Drehzahl- und Spannungsgeregelte Gruppe (evtl. mit Pendeldämpfungsgerät) aus GI. (12.35), wobei diese jetzt nicht in p.u. sondern in physikalischen Größen geschrieben wird

AP1 = K&) A6,

+

Q&) AU, ,

i

=

1 ...... m

.

(12.106)

Dabei ist folgendes zu beachten:

- In1 Unterschied zu Abschn. 12.2 tritt an Stelle der Netzspannung UQdie Spannung U des Anschlussknotens des Kraftwerks an das Netz. Bei der Berechnung der Übertragungsfunktionen des Abschn. 12.2 muss deshalb die Netzreaktanz xQdurch die Reaktanz bis zum Anschlussknoten ersetzt werden (i.d.R. Reaktanz von Maschinentransformator und evtl. Leitungsteilstück). Dementsprechend ist der Winkel 6Qdurch den Winkel 6 der Anschlussspannung zu ersetzen. Gemäß Abb. 12.33 gilt 6Q= 6 + 6 . Für den Bilanzgenerator mit Index m, dessen Anschlusspunktspannung nun stationär und dynamisch als reelle Referenzachse für das Netz genommen wird (Band 1, Abschn. 9.6.2), ist 8, = 0 und somit 6 , = 6„, .

542

12 Synchronisicrung und Polradwinkelstabilität

Netz

Abb. 12.45.

ßlockdiagramm zu Gleichungssystem (1 2.1 Os),(12.1M)

- Die in Abschn. 12.2.2 in p.u. berechneten Übertragungsfunktionen sind mit den Bezugsgrößen zu multiplizieren, und zwar mit Sr für K,(s) und mit S, /U„ f i r Q, (s), worin S, die Nennleistung der Gruppe oder des Kraftwerks und U, die Bezugsspannung des Netzes darstellt. DenGln. (12.105), (1 2.106) entsprichtdas Blockschema Abb. 12.45. Bilanzgenerator und die restlichen ( m 1 ) Generatorgruppen sind gesondert dargestellt. Die Größen der letzteren sind in Vektoren zusammengefasst. Ebenso werden die Übertragungsfunktionen zu einer (diagonalen) Übertragungsmatrix zusammengefasst. Im Bildbereich erhält man

Die Frequenzleistungsregelung (FLR) sorgt durch Steuerung der Antriebsleistungen dafür, dass stationär o,gleich o,gehalten wird (womit stationär Ao, = 0).

12.6 Lineare Analyse von Mehrmaschinensystemen

543

Jede der ( m I)-Generatorgruppen wird durch folgende Gleichungen beschrieben [s Mi + K&)]

Abel = APOI + KRI(s)ASl AP, = KRi(s)AbQi - KJs) ASi

-

+

Q,(s) AU1- s MI Ams QRi(s)AU, ,

(12.108)

die durch Elimination von AijQ, zu

AP,

=

G&) APai - G&) AS1 + G&) AUi - Gi4(s) Am,

fuhren. Die Übertragungsfunktionen G , , G?und G; beschreiben vollständig die Abhängigkeit der Generatorleistung der drehzahl- und spannungsgeregelten Gruppe (evtl. mit Pendeldämpfungsgerät) von den Eingangsgrößen AP„ A6, AU und Ao,. Abbildung 12.46 zeigt den typischen Verlaufder Amplitude der beiden Funktionen G,(s) und G2(s) für ein Wasserkraftwerk (Beispiel 12.1).G3(s) weist qualitativ einen ähnlichen Verlauf wie G2(s) auf, und G,(s) ist prop. sqrt{G,(s) G2(s))

5(l

I

m

0 1 a, ! i

I I

U

.-3

. . ... . .. , ,

'

, .

,

. . ,

; . .;

,

r"

,,,,,

. .. .. ., ,,..

I ., L---.----..--\ 1;

,

, ,

..

,

,

. ,

L"

,

.. .


A lwodurch auch die Bremsfläche A2'>A2wird. 6. Damit liegt der Arbeitspunkt 3' unterhalb des Arbeitspunkts 3; das Polrad ist instabil. -

Abb. 12.53.

Darstellung der instabilen p'-6Q-Trajektorie bciin Generatorarbeitspunkt

60=600 In Abb. 12.53 ist zur besseren Veranschaulichung dieses Vorgangs die sich im instabilen Fall ergebende simulierte P'-iSQ-Trajektorie des Ersatzsystems im

554

12 Svnchronisierung und Polradwinkelstabilität

Arbeitspunkt & = 6 0 ° dargestellt. Zusätzlich ist auch die p'-6Q-Kennlinie für lgp'l=const. im Arbeitspunkt liQ=400 eingetragen. Wie der Abbildung zu entnehmen ist, verläuft die Trajektorie im Gegenuhrzeigersinn zwischen den P'-6QKennlinien für lgp'/=const. und lgl=const. Es ist deutlich erkennbar, wie der Spannungsregler versucht die Trajektorie stets auf die Kennlinie für lgl=const. zu legen, wodurch er das System durch Veränderung der Brems- und Beschleunigungsflächen destabilisiert.

12.7.2 Einfluss von Leistungstransit auf die Polradwinkelstabilität Um den Einfluss unterschiedlicher Leistungstransite auf die Polradwinkelstabilität darstellen zu können, wird das Ersatzsystem in Abb. 12.52b so betrieben, dass sich der Polradwinkel 6~ einmal zu 40" und einmal zu 60" einstellt. Für diese Polradwinke1 können dann die gp'-, g-Zeigerdiagramme des Systems für die beiden Grenzfalle a) lgi =const., quasistationäres Verhalten mit Spannungsregelung b) lep'l=const., transientes Pendelverhalten ohne Spannungsregelung dargestellt werden. Aus Abb. 12.52b folgt unmittelbar aus den Kirchhoffschen Gesetzen

Durch Umformung erhält man

Die GI. (1 2.120) beschreibt den Verlauf der transienten Polradspannung gp' um den Mittelpunkt mit dem Radius I& bei Veränderung des Lagewinkels der Generatorspannung g bei konstanter Amplitude (quasistationäres Verhalten mit Spannungsregelung). Die G1. (12.121) beschreibt den Verlauf der Generatorklemmenspannung g um den Mittelpunkt MI mit dem Radius E, bei Veränderung des Lagewinkels der transienten Polradspannung gll' bei konstanter Amplitude (transientes Pendelverhalten ohne Spannungsregelung).

12.7 Polradwinkelstabilität und ihre Analyse in der Praxis des Netzbetriebs

555

In Abb. 12.54 sind die zugehörigen Ortskurven dieser beiden Spannungen für 6Q=400 und für 6Q=600 dargestellt. Für den quasistationären Fall sind die Ortskurven durchgezogen und für den transienten Fall gestrichelt dargestellt. Wie man der Darstellung entnimmt, wächst im quasistationären Fall le,'/ mit zunehmendem 6Qan, da dieser Spannungszeiger um den Mittelpunkt & dreht. Im transienten Pendelfall dagegen nimmt lgl mit zunehmendem Winkel 6Q ab, da dann der Mittelpunkt M, die Ortskurve von g bestimmt. Der Winkel zwischen der Ortskurve von g im quasistationären und im transienten Fall beträgt in Abb. 12.54a 1 1". Dieser Winkel ist ein Maß für die Abnahme der Generatorspannung bei Polradwinkelzunahme und kann als natürliche Verstärkung des Spannungsreglers angesehen werden. a) Arbeitspunkt 1: Polradwinkel 40'

b) Arbeitspunkt 2: Polradwinkel 60'

C) Polradwinkel-Leistungs-Kennlinien

A 1.o (g(=const.

Abb. 12.54. Auswirkung der Erhöhung der Austauschleistung auf die Generatorklemmenspannung (kein Verbraucher)

In Abb. 12.54b ist dieses Verhalten für den Arbeitspunkt 6,~,=6O" (höherer Lastfluss) dargestellt. Hier hat sich der Winkel zwischen den Ortskurven von g auf 15" erhöht; der Spannungsregler wird also bei der gleichen Polradpendelung zu

556

12 Synchronisierung und Polradwinkelstabilität

größeren Gegenreaktionen veranlasst und wird somit das System stärker destabilisieren. Dieser Sachverhalt kann gemäß Abb. 12.54~ auch aus den für den quasistationären und den Pendelfall Schnittpunkten der ~'-6~-Kennlinien f i r die beiden Arbeitspunkte 6Q1=400und 6Q2;600 abgelesen werden; im zweiten Arbeitspunkt schneiden sich die Kennlinien steiler. In Abb. 12.55a ist ausgehend von GI. (12.121) der berechnete Ortskurvenwinkel als Funktion des Polradwinkels 6Q von 0" bis 60" zusammenhängend dargestellt. Aus dieser Abbildung ist deutlich die Zunahme der Spannungsabweichung bei zunehmendem Polradwinkel 6Qzu erkennen. In Abb. 12.55b sind dazu die mit dem Programmsystem DigSilent berechneten Eigenwerte des Ersatzsystems in Abb. 12.52b dargestellt. Wie der Abbildung zu entnehmen ist, verringert sich die Systemdämpfung o= Re(Lit) mit Spannungsregelung bei gleichzeitig abnehmender Pendelfrequenz w = Im(Li,) beträchtlich. Beim Polradwinkel 0" ist auch die Dämpfung Null, da das System ohne Dämpferwicklungen betrieben wird (xdl=xd'', xq=xqf'),womit

Abb. 12.55. a) Winkel zwischen Spannungsortskurven systems

b) Wurzelortskurven des Ersatz-

der subtransiente Dämpfungsanteil cD"nach [12.2]

entfallt. Da die transiente Dämpfung cD'der Erregerwicklung

jedoch noch vorhanden ist, kann sie hier noch dämpfend wirken. Ihr Dämpfungseinfluss ist in Abb. 12.55b als Wurzelortskurve bohne fUy Polradwinkel von 0' bis 60" dargestellt, wobei die Spannungsregelung ausgeschaltet ist. Wie Abb. 12.55b zu entnehmen ist, destabilisiert die Spannungsregelung schon mit der relativ kleinen transienten Verstärkung IE(s)'l=:10 pu das System vollkommen (Eigenwert immer in rechter s-Halbebene).

12.7 Polradwinkelstabilität und ihre Analyse in der Praxis des Netzbetriebs

557

12.7.3 Einfluss der Verbraucherstruktur auf die Polradwinkelstabilität

Um auch den Einfluss unterschiedlicher Verbraucherstrukturen auf die Polradwinkelstabilität darstellen zu können, wird an der Generatorklemme Abb. 12.52b eine Admittanz yv=g+j'b gegen die Neutrale eingefügt. Aus den Kirchhoffschen Gesetzen folgt dann für den in GI. (12.120) definierten Faktor a

Damit wird neben BI selbst auch der Mittelpunkt MI des Ortskurvenradius it,der Generatorspannung g zu einer komplexen Größe, wodurch sich auch der Ortskurvenwinkel ändert. Es sollen folgende Verbraucher angeschlossen werden: Tabelle 12.1. angeschlossene Verbrauchertypen Wirkleistung Blindleistung Kond. g Susz. b Eigenwert

Verbrauchertyp

-0,5pu

induktiv (Starklast, Tag)

1000MW

1000MVAr

0,5pu

ohmsch (kompensiert)

1000 MW

OMVAr

0,5pu

Opu

kapazitiv (Schwachlast Nacht)

1000 MW

-1 000 MVAr

0.5 pu

0,5 pu

Loh,,, Lkap

In den Abb. 12.56, 12.57 und 12.58 sind die Veränderungen in den Spannungsortskurven und den Generatorleistungen dargestellt. a) Arbeitspunkt 1: Polradwinkel 40'

C)

b) Arbeitspunkt 2: Polradwinkel 60'

Polradwinkel-Leistungs-Kennlinien

Iu_

l = c o n s t . r

Abb. 12.56. Auswirkung der Erhöhung der Austauschleistung auf die Generatorklemmen-

Spannung (ohmsch-induktiver Verbraucher)

558

12 Synchronisierung und Polradwinkelstabilität

a) Arbeitspunkt 1: Polradwinkel 40'

b) Arbeitspunkt 2: Polradwinkel 60'

Abb. 12.57. Auswirkung der Erhöhung der Austauschleistung auf die Generatorklemmen-

spannung (ohnischer Verbraucher) a) Arbeitspunkt 1: Polradwinkel 40'

C)

Polradwinkel-Leistungs-Kennlinien

b) Arbeitspunkt 2: Polradwinkel 60'

-

Abb. 12.58. Auswirkung der Erhöhung der Austauschleistung auf die Generatorklemmenspannung (ohmsch-kapazitiver Verbraucher)

12.7 Polradwinkelstabilität und ihre Analyse in der Praxis des Netzbetriebs

559

Deutlich wird sichtbar, wie der Winkel zwischen der stationären und der transienten Generatorspannung mit zunehmender Suszeptanz (Blindleitwert) b zunimmt. Damit wird also die Spannungsänderung mit zunehmender Kapazität bei gleicher Polradwinkelpendelung größer, wodurch das System stärker destabilisiert wird.

winkelmd(d)

W winkel,h( d) ti-t winke1kap( d) m%€i

& ~ i ( d,&.n(d).&p(d) )

Abb. 12.59a. Winkel zwischen Spannungsortskurven u

L

-0.05

0

0.05

0.1

0.15

0.2

0.25

0.3

d b ),db) , d b o ) ,dh) Abb. 12.59b. Wurzelortskurven für tiO=OO, 20°, 40" und 60"

In Abb. 12.59a sind die berechneten Ortskurvenwinkel im Bereich 0°16Q1600 aufgetragen. Auch hier ist die Zunahme dieses Winkels mit zunehmender Suszeptanz b erkennbar. In Abb. 12.59b sind die zugehörigen Wurzelortskurven &,, h20, h40, b0fur induktive (i), ohmsche (0) und kapazitive (k) Last gerechnet. Aufgrund des ohmschen Lastanteils gibt der Generator auch bei 6Q=00 Wirkleistung ab, wodurch die transiente Dämpfung cD' wirksam ist. Deshalb ist das System bei aQ=OOimmer stabil (linke s-Halbebene). Mit zunehmendem Transit wird das System mit allen Verbrauchertypen instabil, wobei der kapazitive Verbraucher die größte destabilisierende Wirkung hat. Zudem nimmt die Dämpfung gegenüber dem Fall ohne Verbraucher stark ab, da der Generator jetzt mit höherer Leistung betrieben werden muss und damit das synchronisierende Moment geringer wird. Zusammenfassend lässt sich sagen, dass sich die Dämpfung in Netzen verschlechtert, wenn die Last im Tagesverlauf kapazitiver wird.

560

12 Svnchronisierung und Polradwinkelstabilität

12.7.4 Identifizierung destabilisierender Spannungsregler in Mehrmaschinensystemen Beim Analogon in Abb. 12.50 bilden fünf Generatoren ein longitudinales Netz, wobei der Lastfluss wie in Abb. 12.49 von West nach Ost orientiert ist. Nennleistungen, Leitungslängen und Spannungsebene sind hierbei so eingestellt, dass die in Abb. 12.49 dargestellte Frequenz- und Leistungsschwingung zumindest in der Periodendauer gut nachgebildet werden kann.

Zeit in s Abb. 12.60. Verläufe der Polradlagewinkel-Abweichungen 6Qund der Gen.-Spannungen U

Werden die Generatoren (Gen.) durch Momentenstöße so angeregt, dass die langsame Ost-West-Mode hervortritt, so ergeben sich die in Abb. 12.60 dargestellten Verläufe der Polradwinkel ZiQ und Gen.-Spannungen U. Die Generatoren 1 und 2 pendeln in Gegenphase zu den Generatoren 4 und 5, das

12.7 Polradwinkelstabilität und ihre Analyse in der Praxis des Netzbetriebs

561

Polrad des Generators 3 bleibt nahezu stehen und bildet somit die Linie konstanter Frequenz (starrer Knoten). Die Spannungsverläufe U dagegen schwingen alle in Phase, wobei die Abweichungen bei den Generatoren 1 und 5 am kleinsten und bei Generator 3 am größten sind. Dieser Effekt beruht auf der Tatsache, dass die Leistungspendelung über die Leitungen von West nach Ost bis zur Linie konstanter Frequenz mit jedem weiteren pendelnden Generator zunimmt, wodurch die Spannungsabweichungen über die Spannungsabfälle der Leitungen ebenfalls zunehmen. Westlich der Linie konstanter Frequenz nimmt dann mit jedem weiteren Generator der Leistungsfluss und damit die Spannungsabweichung wieder ab, wodurch das dargestellte Spannungs-Pendel-Profil entsteht. Eine derartige Abhängigkeit besteht auch im realen UCTE-Netz. In Abb. 12.52 wurde gezeigt, dass die Spannungsregler immer dann stark destabilisierend wirken, wenn der Polradwinkel ZiQ und die Klemmenspannung U in Gegenphase sind, im anderen Fall müssen sie sogar stabilisierend wirken. Zudem muss bei der Pendelung sowohl aQals auch U eine Abweichung aufweisen, damit die Brems- und Beschleunigungsflächen von den Spannungsreglern verändert werden können. Das ist bei den einzelnen Generatoren gemäß folgendem Muster der Fall: Tabelle 12.2. Schwingungsverhalten von 6, und U

Generator 1 Generator 2 Generator 3 Generator 4 Generator 5

6, sehr groß groß sehr klein groß sehr groß

Phasenlage sehr klein gegenphasig groß gegenphasig sehr groß unbestimmt groß gleichphasig sehr klein gleichphasig U

Pendelanregung anregend stark anregend unbestimmt stark dämpfend dämpfend

Durch die Gegenphasigkeit bei den Generatoren 1 und 2 destabilisieren diese das System, wobei Generator 2 am stärksten wirken muss. Bei den Generatoren 4 und 5 hingegen schwingen Polrad und Spannung in Phase; wodurch diese Spannungsregler (Sp.-regler) sogar dämpfend wirken müssen. Bei Generator 3 ist keine klare Aussage möglich, da er genau auf der Schwingungslinie liegt.

~e(nA

~cneratori

Abb. 12.61. a) Eigenwerte des Fünf-Maschinen-Modells bei Einsatz je eines Sp.-Reglers b) Dämpfung des Fünf-Maschinen-Modells bei Einsatz je eines Sp.-Reglers

562

12 Svnchronisieruneund Polradwinkelstabilität

In Abb. 12.61 sind die Wurzelorte des Fünf-Maschinen-Systems sowie deren Realteile (Dämpfung) für die fünf Fälle dargestellt, dass je nur in einem Generator ein Spannungsregler in Betrieb genommen wird und die restlichen Generatoren ungeregelt seien. Wie den Abbildungen zu entnehmen ist, wirken die Generatoren 1 bis 3 destabilisierend, wobei der Generator 2 das System am stärksten destabilisiert. Die Generatoren 4 und 5 dagegen wirken stark stabilisierend, was die Aussagen in Tab. 12.2 bestätigt. In Abb. 12.61b ist zudem noch die Dämpfung ohne Spannungsregler gestrichelt eingetragen. Häufig werden sogenannte Partizipations-Faktoren zur Auffindung der pendelanfachenden Generatoren herangezogen. Diese entsprechen jedoch lediglich dem Amplitudenverhältnis der in Abb. 12.60 gezeigten Polradwinkelpendelungen. Ausgehend von diesen Faktoren würde man zum falschen Schluss kommen, dass die Maschinen 1 und 5 das Netz am stärksten destabilisieren, da sie am stärksten pendeln. Erst die oben gezeigte zusätzliche Analyse der Spannungen lässt die Detektion von Maschine 2 als stark pendelanfachender Maschine zu. Dieses Vorgehen kann regelungstechnisch algorithmisch durch sogenannte Wesentlichkeitsmasse ausgedrückt werden, was in [12.10] am Beispiel einer aufgetretenen instabilen Netzpendelung im UCPTE-Netz dargestellt ist.

13 Spannungsregelung und Spannungsstabilität

Konstanz von Frequenz und Spannung sind wichtige Qualitätsmerkmale des Netzes. Das Problem der Frequenzhaltung ist in Kap. 1 1 behandelt worden. In einem großen Verbundnetz ist die Frequenz sehr stabil, da die auftretenden Wirkleistungsstöße relativ zur Gesamtleistung des Netzes i.d.R. klein sind. Nach Abklingen der Synchronisierschwingungen (Kap. 12) ist die Frequenz im Netz überall gleich. Die Spannung (Spannungsamplitude oder -effektivwert) kann hingegen lokal, d.h. von Knotenpunkt zu Knotenpunkt, erhebliche Unterschiede aufweisen, die von den Eigenschaften des Netzes abhängen und in erster Linie von der Größe der Blindleistungsj7usse bestimmt werden. Blindleistungsstoße, z.B. beim Einschalten größerer Motoren, verursachen erhebliche Spannungsschwankzrngen, während sich Änderungen der Wirkbelastung weit weniger auswirken. Die Gründe dafür wurden mehrfach in Band 1 erläutert (s. vor allem die Abschn. 4.6.2, 6.5.1.2, und 9.5.1). Mit Maßnahmen bei der Netzplanung und im Netzbetrieb wird die Spannung in allen Lastknotenpunkten des Netzes stationär in einem Bandbereich von im allgemeinen 5 10% um die gewünschte Sollspannung gehalten, unabhängig vom Belastungszustand des Netzes. Dies wird mit der Spannungsregelung der Generatoren, der Transformatoren mit variabler Übersetzung und der Kompensationsanlagen (Abschn. 13.1- 13.3) und mit einer optimalen räumlichen Verteilung der Blindleistungseinspeisung (Kap. 14 und 15) erreicht. Das Problem der ,Ypannungsstubilitat ist in Band 1 in Zusammenhang mit der Belastbarkeit von Übertragungsleitungen bereits angeschnitten worden (Abschn. 9.5.1). Überschreitet die übertragene Leistung bestimmte Grenzwerte, kann die Spannung zusammenbrechen, wobei der lokale Blindleistungsbedarf eine entscheidende Rolle spielt. Der Spannungskollaps wird bei der üblichen ohmsch-induktiven Belastung von einem großen, den vorhin erwähnten Bandbereich weit überschreitenden Spannungsabfall angekündigt. In der Praxis kann er in schwachen Netzen bei Versagen der Spannungs-Blindleistungsregelung eintreten, oder wenn als Folge einer größeren Störung (Ausfall von Kraftwerken oder wichtiger Leitungen) die Leistungseinspeisung eines Teilnetzes nicht mehr in der Lage ist, die lokale Nachfrage zu decken, und wenn das Lastabwurfsystem nicht korrekt funktioniert. In den Abschn. 1 3 . 4 13.6 werden Ursachen und Bedingungen für die Spannungsinstabilität analysiert und Maßnahmen zu deren Vermeidung erörtert.

*

564

13 Spannungsregelung und Spannungsstabilität

13.1 Erregersysteme und Spannungsregelung der SM 13.1 .I Erregersysteme Die Gleichstrom-Erregerleistung großer Synchronmaschinen beträgt bei Vollast höchstens einige Promille der SM-Leistung. Das Erregersystem kann auf vielfältige Weise realisiert werden. In älteren Kraftwerken wird die Erregung von einem Gleichstromgenerator geliefert, der auf der Generatorwelle montiert ist. Dank den Fortschritten der Leistungselektronik wird in neueren Anlagen der Gleichstrom ausschließlich durch Gleichrichtung eines Wechselstromes erzeugt, wobei zwischen rotierenden und rein statischen Einrichtungen unterschieden wird.

13.1.1.1 Erregersystem mit Gleichstromgenerator Den Aufbau der Erregereinrichtung zeigt die Abb. 13. la. Der i.d.R. fremderregte und kompensierte Gleichstromgenerator wird von der Turbine angetrieben und weist demzufolge eine nahezu konstante Drehzahl auf. Solange sich die Sättigung nicht bemerkbar macht, ist seine Spannung U, proportional zum Strom I, in der Erregerwicklung und wird über Kollektor und Schleifringe auf das Feld der SM übertragen. Die Gleichstrommaschine kann durch folgende Beziehungen beschrieben werden

worin n = p.u. Drehzahl (n = 1). Die Sättigungsfunktion f(@J ist im linearen Teil der Kennlinie null. Die Erregerspannung U, wird von einer weiteren kleinen Gleichstrommaschine oder einem elektronischen Verstärker geliefert.

Abb. 13.1. Erregersystem mit Gleichstromgenerator a) Schaltbild, S =Schleifringe b) Blockschaltbild, T, = L, / R, = ungesättigte Zeithonstante der Erregerwichlung, K, = K T,

13.1 Erregersysteme und Spannungsregelung der SM

565

Das Blockschaltbild der Erregereinrichtung gemäß Gln. (13.1) einschließlich Begrenzungen (Sättigung, Deckenspannung des Verstärkers) zeigt Abb. 13.l b. Die (ungesättigte) Zeitkonstante der Erregermaschine liegt meist bei 0.5 - 1 s. 13.1.1.2 Erregersystem mit Wechselstromgenerator An Stelle der Gleichstrommaschine kann ein Wechselstromerreger verwendet werden, dessen Drehstrom über Gleichrichter der Feldwicklung der SM zugefuhrt wird (Abb. 13.2). Beim Wechselstromerreger handelt es sich um eine kleine Synchronmaschine, die vorteilhaft für eine Frequenz von Ca. 500 Hz ausgelegt wird. Entgegen der üblichen Ausfihrung von SM ist die Feldwicklung statisch, während die Hauptwicklung rotiert und mit den ebenfalls rotierenden Gleichrichtern in Drehstrombrückenschaltung (Band 1, Abschn. 7.3) eine konstruktive Einheit bildet. Dies erlaubt, die Schleifringe zu vermeiden. In diesem Zusammenhangwird auch von bürstenlosem Erregersystem gesprochen. Da der Wechselstromerreger dynamisch ebenfalls durch eine Zeitkonstante beschrieben werden kann (s. dazu Abschn. 13.1.2. l), ist das Blockschaltbild Abb. 13.1b auch für diese Anordnung gültig.

SM Abb. 13.2. Erregersystem mit Wechselstromerreger und rotierender Gleichrichter

13.1.1.3 Statische Erregung (Stromrichtererregung) Die entsprechende Anordnung zeigt Abb. 13.3. Die Erregung der SM wird über steuerbare Leistungshalbleiter (i.d.R. Thyristoren) kontrolliert, die von einer fremden Spannungsquelle oder von der Spannung der Synchronmaschine selbst gespeist werden. Um in letzterem Fall auch bei Kurzschluss die Erregung aufrechtzuerhalten, kann der Strornrichterspeisung mit einem Stromtransformator ein stromabhängiger Anteil hinzugefügt werden (Compoundierung). Da die Erregerzeitkonstante wegfallt (bzw. sie reduziert sich auf eine kleine Verzögerung, Band 1, Abschn. 7.3, die in

Abb. 13.3. Statisches Erregersystem (Stromrichtererregung ) mit Fremdspeisung

undloder Speisung ab Klemmen der Synchronmaschine

566

13 Spannungsregelung und Spannungsstabilität

U

Abb. 13.4. Blockschaltbild des statischen Erregersystems von Abb. 13.3

erster Näherung vernachlässigt werden kann), ermöglicht die statische Erregung eine schnellere Regelung. Das entsprechende Blockschaltbild zeigt Abb. 13.4. Die Schleifringe sind mit dieser Lösung nicht zu vermeiden.

13.1.2 Spannungsregelung der Synchronmaschine Die Anlage ist in Abb. 13.5a schematisch dargestellt. Neben dem eigentlichen Spannungsregler sind meist auch Pendeldämpfungsgerät (Abschn. 12.2) und Begrenzer vorhanden. Die Begrenzungen betreffen, wie in Band l, Abschn. 6.6.3 und Abb. 6.65 erläutert, den Statorstrom, den Feldstrom (Rotorstrom) und den Polradwinkel (bzw. die kapazitive Blindleistung). In Zusamrnenhangmit der Spannungsstabilität ist vor allem die Begrenzung des Feldstromes von Bedeutung. Sein Grenzwert wird in Abhängigkeit von der Überlastdauer durch eine entsprechende Kennlinie

4

Begrenzungen Pendeldämpfung

*

C)

starres Netz

Abb. 13.5. Spannungsregelung der SM a) Blockschaltbild der Spannungsregelung

b) Übertragungsfunktionen des Spannungsregelkreises C) Ersatzschaltbild der Belastung

13.1 Erregersysteme und Spannungsregelung der SM

567

gegeben. Bis zu Ca. 10 s Dauer kann er i.d.R. etwa das vierfache des LeerlauferregerStromes erreichen, was z.B. für die Sicherstellung der Polradwinkelstabilität nützlich ist (Abschn. 12.1S). Nach Ca. 100 s darf er aber den Nennerregerstrom nur noch um maximal I0 % übersteigen. Der Spannungsregelkreis Abb. 13.5b enthält die Übertragungsfunktionen G,(s) der SM und E(s) von Erregersystem + Spannungsregler, die nachstehend analysiert werden.

13.1.2.7 Übertragungsfunktion der Synchronmaschine Die Übertragungsfunktion der Synchronmaschine wird wesentlich von deren Belastung bestimmt. Entsprechend Abb. 1 3 . 5 sei ~ die SM mit der Admittanz y, belastet und über die Admittanz yo mit dem starren Netz gekoppelt. Je starrer die Netzverbindung, desto größer ist yo. Im lnselbetrieb ist yo = 0. Für den Laststrom gilt in p.u. die stationäre Beziehung

i = y L U + yQ

((U-U

Q

) = ( Y , + ) !Q ) U

-)!

U

Q -Q

.

(1 3.2)

Wird yL+ yo = y = g + j b gesetzt und die Änderungen um eine Gleichgewichtslage bei vorgegebenem go betrachtet, lässt sich der Zusammenhang zwischen Spannung und Strom fur Frequenzen 0, und die Schnittfrequenz wird leicht reduziert (gestrichelte Linie in Abb. 13.9). Ist die Phasenreserve ungenügend (Anhang 111.5), kann ein PD-Anteil hinzugefügt werden, mit

Abb. 13.8.

Realisierung des Spannungsreglers, KR K,

= k,

k, U)U„

K,= k, U)lJ„,

572

13 Spannungsregelung und Spannungsstabilität

welchem die Dämpfung optimiert wird, und der Regler nimmt folgende „lag-leadForm an

Der lag-Anteil kann auch mit einer Differentialrückfuhrung gemäß Abb. 13.8b realisiert werden, wobei die Äquivalenz gilt: T, = T, (I + k, k,). Die Einfuhrung einer Blindleistungsstatik verändert nur geringfügig die Kreisverstärkung, ist f i r die Reglerauslegung also unwesentlich. In Systemen mit Gleichstromgenerator wird oft auch die Schaltung Abb. 1 3 . 8 ~ verwendet. Die Übertragungsfunktion von Erregereinrichtung + Regler lautet dann

mit (

T , + T, = Te + Td(l + k, k, k,) T,T2 = T,T,

Es folgt dasselbe Resultat wie GI. (1 3.17), jedoch mit dem Nachteil, dass Regelabweichung, Schwingungsfrequenz und Dämpfung nicht mehr unabhängig voneinander gewählt werden können.

Abb. 13.9. Frequenxgang (Amplitude)der Übertragungsfunktion des aufgeschnittenen Regelkreises (Anhang 111.5)

13.1.2.3 Verhalten bei kapazitiver Belastung Bei rein kapazitiver Belastung ist X = nimmt wegen G1. (1 3.10) die Form an 1 Gs(s) = -I ' Xc-Xd

l+sT&

X , ,

mit

und die Übertragungsfunktion der SM

T;

=

T„I

Xe - X ,

.

-

(13.19)

13.1 Erregersysteme und Spannungsregelung der SM

573

Real Axis

Abb. 13.10. Nyquist-Diagramm von GI. (13.20), Beispiel 13.1, X,

=

0.9 p.u.

Sobald X, < X,, wird die Zeitkonstante negativ, und bei der ungeregelten SM tritt Selbsterregung ein (Band 1, Abschn. 6.5.1.3). Für die geregelte Synchronmaschine erhält man wegen GI. (1 3.17) die Übertragungsfunktion des aufgeschnittenen Regelkreises

Mit den Daten von Beispiel 13.1 und der Reglerauslegung von Abschn. 13.1.2.2 weist das Nyquist-Diagramm Abb. 13.10 (berechnet mit Matlab, Control System Toolbox) für eine Belastung X, = 0.9 p.u. < X, die Stabilität des geregelten Systems nach (s. auch Anhang 111.1).

13.1.2.4 Wirkung der Drehzahl Aus GI. (13.6) folgt analog zu GI. (13.8)

Den Zusammenhang zwischen Drehzahl und elektrischer Leistung einschließlich primärer Drehzahlregler (dessen Übertragungsfunktion hier mit R,(s) bezeichnet wird) liefert Abb. 1 1.1. Gilt für die elektrische Leistung (Last) der Ansatz p = k u ", erhält man

Es ergibt sich das Blockschaltbild von Abb. 13.1 1a, das auf jenes von Abb. 13.1 1b reduziert werden kann, mit

574

13 Spannungsregelung und Spannungsstabilität

Abb. 13.11. Wirkung des Drehzahlregelhreises auf die Spannungsregelung

Da i.d.R. der Drehzahlregelkreis deutlich langsamer als der Spannungsregelkreis arbeitet, ist der Einfluss der Übertragungsfunktion K„(s) nur für sehr langsame Spannungsänderungen (niedrige Frequenzen) spürbar.

13.1.2.5 Kopplung mit dem Synchronisierkreis In Abschn. 12.1.4 wurde die Beeinflussung der Synchronisierschwingungen durch den Spannungsregelkreis anhand der Abb. 12.10- 12.12 veranschaulicht. Durch die Anwesenheit eines Pendeldämpfungsgeräts, welches die Polradwinkelstabilität verbessert, wird die Kopplung von Synchronisier- und Spannungsregelkreis verstärkt. Dementsprechend wirkt der Synchronisierkreis aufden Spannungsregelkreis zurück und beeinflusst dessen Verhalten. Aus den erwähnten Abbildungen folgt das Blockdiagramm in Abb. 13.12a, mit welchem diese Beeinflussung untersucht werden kann. Es kann auf das Blockdiagramm gemäß Abb. 13.12b reduziert werden mit

Die Funktion K,(s) modifiziert in Anwesenheit des Pendeldämpfungsgeräts das Verhalten des Erregersystems, während K2(s) die Regelstrecke beeinflusst. Die Übertragungsfunktionen F(s), K(s), D(s), K,(s) sind in Abschn. 12.2 beschrieben.

Abb. 13.12. Wirkung des Synchronisierkreises auf die Spannungsregelung

13.1.2.6 Netzverbindung

Ausgangspunkt f i r die Analyse der Spannungsregelung war Abb. 1 3 . 5 ~mit einer Belastung der SM bestehend aus Belastungsadmittanz y, und Netzadmittanz yQ.Die maßgebende Belastung ist y = y, + yo . Diese Größen werden bei Netzkopplung folgendermaßen durch (rein statische) Netzreduktion erhalten: Das Netz bestehe aus n Knoten, wovon m Generatorknoten und n-m Lastknoten. Werden mit I, U, Strom und Spannung des betrachteten Generators, mit I„ U, jene der übrigen Generatoren und I,, U, jene der Lastknoten (jeweils in einem Vektor zusammengefasst) bezeichnet, folgt die Beziehung

worin Y„ Knotenpunktadmittanz-Teilmatrizen darstellen. Wird die Netzbelastung durch

576

13 Spannungsregelung und Spannungsstabilität

dargestellt, lässt sich Y, in die Diagonalterme von Yßß integrieren (13.27)

U„, = Y„ + Y, und es folgt aus der dritten Zeile von (1 3.25)

-

UB = - y-l BBL

U

('BO

+

'BG

G ')

+

(13.28)

Wird in die erste Zeile der GI. (13.25) eingesetzt, erhält man

~ = ( Y o o - Y o B ~ ~ ~ L ~ B o ) ~ + ( Y o G - Y o(13.29) B ~ ~ ~ L ~ B und mit der vereinfachenden Annahme ,y ,J%,

(13.30) die stationär gut erfüllt ist, da die Generatorspannungen konstant gehalten werden, folgt schließlich aus dem Vergleich mit GI. (13.2) U ~ t

Q

>

Die letzte Näherung ergibt sich, da die 6„ klein sind.

13.2 Regelung von Stufentransformatoren 13.2.1 Reglerauslegung Mit Bezug auf das Schema in Abb. 13.13a und auf die stationären Transformatormatrizen in Band 1, Abschn. 4.5.1 (bei Vernachlässigung des Magnetisierungsstromes), lautet der p.u. Zusammenhang (mit der Annahme Primärseite = Oberspannungsseite) in der H-Matrixform (Band 1, Abb. 4.19):

Das entsprechende Ersatzschema zeigt Abb. 13.13b. Die Sekundärspannung u, sei die geregelte Spannung. Werden die Netzgleichungen

il

=

yl

(aQI- ul) ,

-2 i =

y2 (a2- aQ2)

eingeführt und die Ströme und U, eliminiert, erhält man

(13.33)

13.2 Regelung von Stufentransformatoren

577

Abb. 13.13. Regelung des Stufentransformators

üp Bel + C U

C = - 2( 2l + z y l ) (1 3.34) Up + Y1 und fur den Regelkreis das Blockdiagramm in Abb. 13.14. Die Größe K charakterisiert die Regelstrecke. Durch Wahl des lntegralreglers U -2

=

..2

"

,

mit

werden Stellbefehle oder Störungen (letztere verursacht durch eine Änderung von Y, oder y2)mit der Zeitkonstanten

ausgeglichen. Diese ist bei mechanischer Steuerung recht groß, meist > 10 s. Zu beachten ist, dass für ü„, = 1 + K < 0 und infolgedessen KR< 0 gewählt werden muss. Beispiel 13.2 Die Oberspannung eines Transformators mit lnnenreaktanz X, = 0. I p.u. sei über eine Reaktanz xQ= 0.2 p.u mit dem starren Netz verbunden. Unterspannungsseitig werde der Transformator mit der Impedanz r + j X belastet. Man berechne die Größe K f i r

Abb. 13.14. Regelkreis des Stufentransformators

578

13 Spannungsregelung und Spannungsstabilität

verschiedene Belastungen mit der Annahme uQ,= 1.2 p.u. Man überprüfe die Spannungsstabilität bei rein induktiver Belastung.

Leerlauf

X+..

, c = O , u2 =

12 + , für

u„=l

--F

ü0=1.2

U

induktive Volllast r = 0 , x = 1 , c = 0.3 ,

--

ohmsche Volllast r = 1 , x = 0 , c = j 0.3 , u2 =

1.2 ü , für ü2+0.3

Ü20 = 1

1.2 ü ü2+j0.3

Die Stabilitätsgrenze des Regelkreises wird für

erreicht (für rein induktive Last). Mit obigen Daten tritt Instabilität bei Volllast (C= 0.3) erst für ü < 0.55 auf; selbst mit einer Überlast von 50% ist noch dc = 0.67, man befindet sich also außerhalb des Regelbereichs des Transformators (meist 20 %). In einem schwachen Netz mit z.B. xQ= 0.4 und für X, = 0.15 ist hingegen für eine Überlast von 20% (X= 0.833) C = 0.66 + dc = 0.8 13 ein Spannungskollaps innerhalb des Regelbereichs + 20 % möglich.

*

13.2.2 Lastflussberechnung mit Regeltransformator Für die Simulation des Transformators sei von der Darstellung in Band 1, Abschn. 4.8.2, Abb. 4.30 ausgegangen. Mit der Näherung ß =: 0 (Band 1 , GI. 4. 13) lautet die Transfonnatonnatrix in Y-Form (wenn auch i, das Einspeisestrom-Vorzeichen aufweist, wie dies bei Lastflussberechnungen üblich ist) und üPu= ü„, + Aü„

13.2 Regelung von Slukntransformatoren

579

Der Transformator wird als Transfomator mit fester Übersetzung dargestellt und die Stufenregelung mit den regelbaren Einspeiseströme erfasst. Für diese gilt

Das entsprechende Rechenschema zeigt die Abb. 13.15. Wird die Lastflussberechnung mit dem Newton-Raphson-Algorithmus durchgeführt (Band 1, Abschn. 9.6.2), sind die Einspeiseströme durch Einspeiseleistungen zu ersetzen

As

= U

Ai*

Aus (13.39) folgt mit llz = Y,.

und werden die Spannungen mit Betrag und Phase und die Admittanz mit Betrag und Verlustwinkel ausgedrückt (Band 1, GI. 9.78), schließlich

Ap, Ag, Ap,

ui y12U, sin(6, - O2 - a12) -AüP'uiy12u2 C O S ( O ~ - ~ , - O ~ ~ ~ ) -AüP u2y12U, sin(02-01 -a12)

= - A üP =

=

2

+ A üP (2üOP+ AÜP')uZ sin(-a12)

Ag2

=

-AüPu2y12u1 C O S ( O ~ - Q ~ - C ~ , ~ ) 2

+ A üP'(2üOP'+ AÜP)u2 COS(-alZ) .

Bei der Durchführung der Lastflussberechnung wird die geregelte Spannung U, vorgegeben, der Iterationsschritt liefert U , ,6,,6, und Aq„ woraus mit der vierten der Gln. ( 1 3.41) die Korrektur der Transformatorübersetzung Aü„ berechnet und anschließend mit den ersten drei der Gln. (13.41) die Leistungsinjektion für den nächsten lterationsschritt ermittelt wird. In dynamischen Berechnungen und Simulationen (s. Kap. 10) wird die Spannung U, nicht fest vorgegeben, sondern die Regelschlaufe Abb. 13.14 integriert, wobei in jedem lterationsschritt die Lastflussberechnungan Stelle derNetzgleichungen ( 1 3.33) tritt. Netz, einschlieRlich Transformator

( Stufenregelung

I

Abb. 13.15. Rechenschema Netz mit Stufentransformator

580

13 Spannungsregelung und Spannungsstabilität

13.3 Geregelte Kompensationsanlagen Spannungsprofil und Spannungsschwankungen sind eng mit den Blindleistungsflüssen im Netz gekoppelt. Für eine gute Spannungshaltung (und damit auch Sicherstellung der Spannungsstabilität) genügt es i.d.R. nicht, die Blindleistung allein von den Generatoren regeln zu lassen; es werden zusätzlich Kompensationsanlagen eingesetzt und optimal im Netz verteilt und betrieben (fiir optimale Lastflussverteilung s. Kap. 14). Große Blindleistungsflüsse verschlechtern nicht nur das Spannungsprofil, sondern verursachen Verluste und vermindern so auch direkt die Wirtschaftlichkeit des Netzbetriebs. Im lokalen und regionalen Verteilnetz wird der Blindleistungsbedarf vorwiegend durch die Lasten bestimmt. Zweckmäßig ist dann eine Kompensation mittels Parallelkondensatoren, die je nach Bedarf stufenweise zu- und abgeschaltet werden mit dem Ziel, die Spannungshaltung zu verbessern und die Verteilverluste zu reduzieren. Die Schaltung der Kondensatorstufen kann elektromechanisch (Relais) oder mit leistungselektronischen Mitteln geschehen. Seriekompensation wird nur im Sonderfall eingesetzt (Näheres in Band 1, Abschn. 9.5.3.3). Im Hoch- und Höchstspannungsnetz wird versucht, den Blindleistungsfluss durch optimale Koordination der Generatoren und Kompensationsanlagen zu minimieren. Je nach Zeitpunkt kann insgesamt eine Blindleistungseinspeisung (bei Spitzenbelastung im Netz) oder eine Blindleistungsaufnahme (bei schwacher Last, z.B. in der Nacht) notwendig sein. Als Kompensationsanlagen werden Synchronkompensatoren (Band 1, Abschn. 6.6.2.3) und leistungselektronisch geregelte rein statische Anlagen eingesetzt, die nachstehend näher erläutert werden (zu deren Wirkung und Einsatzbereich s. auch Band 1, Abschn. 9.5.3, Vertiefung bezüglich FACTS in Kap. 15).

13.3.1 Parallelkompensation mit SVC Die SVC-Anlage (Static Var Compensator), besteht aus thyrktorgeregelten Drosseln (TCR) mit dazu parallel geschalteten Kondensatoren (Abb. 13.16). Die ThyristorSteuerung (Zündwinkelsteuerung) ergibt im linearen Flussbereich der Drosseln eine praktisch lineare Strom-Spannungscharakteristik, deren Neigung vom Steuenvinkel abhängt. Die Anlage kann so dimensioniert werden, dass sowohl Blindleistung abgegeben (bei sperrenden oder teilweise sperrenden Thyristoren) als auch aufgenom-

I

i

TCR Abb. 13.16. Spannungsregelung (Kompensation)mit thyristorgeregelten Drosselspulen

(TCR = Thyristor Controlled Reactor)

13.3 Geregelte Kompensationsanlagen

'1

Netz 1

Abb. 13.17.

U

581

12

Netz 2

r

Regelung der Kompensationsanlage

men werden kann (bei leitenden Thyristoren). Auch die Kapazität C kann steuerbar gemacht werden, indem sie durch thyristorgeschaltete Kondensatoren (sog. TSCAbzweige) ersetzt oder ergänzt wird. Die Anlage wird direkt oder über einen Transformator an die Sammelschiene angeschlossen. Innerhalb des Regelbereichs und mit der Annahme, die Oberschwingungen seien durch Filter eliminiert, kann die Anlage durch eine variable Admittanz Y = j B (mit B = resultierende Suszeptanz) dargestellt werden (Abb. 13.17). Mit den einfachen Netzgleichungen (I 3.33)gilt in p.u. (d.h. mit BezugaufdieNetznennspannung U, und die Nennleistung Sr):

i = y u j = j

-

-1

- 1 -2

il = y1 (uQ1- u ) i2 = y2 (U-U Q2 ) . Werden die Ströme eliminiert, folgt für Spannung und Leistungsaufnahme

Den Regelkreis zeigt Abb. 13.18. Er ist linear, wenn die nichtlineare Phasenanschnittsteuerung mit der Umkehrfunktion kompensiert wird. Die Konstante K beschreibt die Regelstrecke. Analog Abschn. 13.4 kann

gewählt werden, womit Störungen des Gleichgewichts mit der Zeitkonstanten

Abb. 13.18.

Regelkreis der Kompensationsanlage

582

13 Spannungsregelung und Spannungsstabilität

ausgeglichen werden. Die Größe K ist > 0 und damit ist auch KR > 0 zu wählen. Mit leistungselektronischen Elementen lässt sich die Regelung sehr schnell machen. Die rein statische Betrachtung der Netzelementen ist jedoch nur so lange richtig, als die Schnittfrequenz des Regelkreises o,= KRK

Leerlauf x

=

-+

uQl ( r + j x ) , r C + j(xQ+x C )

, u = - , für

mit

[ U [ =1

r

=jb

c=l-bxQ

--r C =

(1 3.46)

1.05

C

nduktive Volllast r = O , x = l ,

u

=

b

=

0.75 ,

-

-->

,hmsche Volllast r = l , x = O ,

U ~ ---,

=

-, U 2

Xe + -

-->

l

für

XQ + C

b = 0 ,

K ~ l

=

lul=l

--X

c=0.85

0.20

für lul=l c2 K=0.19.

--F

c=1.0(

Die Größe K hängt für ein starkes Netz 1(xQklein) wenig von den Belastungsverhältnissen ab und ist dann angenähert gegeben von

13.3 Geregelte Kompensationsanlagen

583

Mit einem schwachen Netz I wird K variabel und kann sehr klein oder gar negativ werden. Dann tritt lnstubilitut auf; gemäß GI. (1 3.46) ist für K < 0 auch C < 0 (und somit b > I1 xQ). Für Stabilität muss gelten

Diese Bedingung ist dann erhllt (auch für X = 0), wenn die Leistung der Kompensationsanlage deutlich kleiner ist als die Kurzschlussleistung des Netzes (Faktor 1.1 in Mittel- und Hochspannungsnetzen, s. Band 1, Abschn. 9.2)

13.3.2 Statische Konverter (STATCOM)

Neben den seit vielen Jahren eingesetzten SVC-Anlagen werden (in Zukunft vermehrt) leistungselektronische Geräte eingesetzt, die abschaltbare Elemente enthalten (GTO, IGBT, IGCT) und so die Realisierung von selbstgefuhrten Kompensationsanlagen ermöglichen (für das Prinzip s. Band 1, Abschn. 7.3.2 sowie Abschn. 15.2). An konventionellen Elementen werden nur noch Kondensatoren zur Glättung benötigt. Der leistungselektronische Aufwand ist zwar wesentlich größer, doch insgesamt kann das Anlagengewicht um einen Faktor 3 - 5 reduziert werden. Die Abb. 13.19 zeigt den Aufbau. Der Stromrichter erzeugt eine dreiphasige Wechselspannung E, die in Phase ist mit der Netzspannung U. Ist E > U, fließt über die Transformatoradmittanz Y, = 11 j X, in der angegebenen Stromrichtung ein kapazitiver Blindstrom, d.h es wird dem Netz eine Blindleistung geliefert. Ist die Spannung kleiner als die Netzspannung, wird hingegen eine Blindleistung aufgenommen. Die Gleichungen (13.42) können übernommen werden, jedoch mit

1

=

y, (u -

e ) statt

i

=

y

u.

I Netz 1

Abb. 13.19. a) Statischer Kompensator, S selbstgeführter Stromrichter. TTransformator, C Glättungskondensator b) Ersatzschaltbild

584

13 Spannungsregelung und Spannungsstabilität

Dementsprechend ist die GI. (13.43) durch die folgende zu ersetzen U = -

y1

'QI

Yi -->

4"

+

y2

+

'Q2

+

yT e

T* u (e-U)

,

s

=

u y',(e* - u * )

+

(1 3.48) 9

e

=

Ws)

(Uso, - u )

X~

(q = gelieferte Blindleistung, ist in Phase mit g ). Die Auslegung des Reglers ist analog zu Abschn. 13.5.1, wobei jetzt.

Für eine eingehendere Analyse s. Abschn. 15.4.1.

13.3.3 Seriekompensation Bei der Seriekompensation wird die Leitungsreaktanz durch die Einschaltung von Kapazitäten, i.d.R. an beiden Enden der Leitung, manchmal auch in der Mitte oder an anderer geeigneter Stelle, teilweise kompensiert. Wegen der Resonanz bei Netzfrequenz kommt eine volle Kompensation nicht in Frage; meistens liegt der Kompensationsgrad bei 30-60 %. Über Wirkung und Berechnung s. auch Band 1, Abschn. 9.5.3. Die Kondensatoren sind gegen Kurzschlussstrom zu schützen, da dieser eine Spannung über dem Kondensator erzeugt, welche die Größenordnung der Netzspannung annehmen kann, fur die der Kondensator nicht dimensioniert ist. Als Schutz werden parallel geschaltete Funkenstrecken oder Überspannungsableiter verwendet (Abb. 13.20a). Zum Thema Überspannungsableiter s. Band 1 , Abschn. 14.6.3. Eine geregelte Seriekompensation wird mit der Schaltung Abb. 13.20b erzielt. Durch die Schaltung eines TCR-Abzweigs mit variabler induktiver Admittanz, parallel zur Kapazität C wird die resultierende Admittanz Y, des Kompensationselements kontinuierlich verändert.

Abb. 13.20. a) Klassische Seriekompensation mit Schalter und Überspannungsschutz b) ASC (Advanced Series Compensator): Seriekompensation mit TCR -Element

13.3 Geregelte Kompensationsanlagen

585

Ein weiteres Element ist der ASC oder TCSC (Thyristor Controlled Series Compensator), der vorwiegend zur Lastflusskontrolle und Dämpfung von Leistungspendelungen verwendet wird. Nähere Angaben sind in Abschn. 15.3.2 zu finden. Im Folgenden sei die Anwendung zur Blindleistungs-ISpannungssteuerung näher betrachtet. Das entsprechende Ersatzschaltbild zeigt Abb. 13.2 1 a. Als Steuergröße a sei das Verhältnis der Admittanz des induktiven zu jener des kapazitiven Zweiges definiert. Im Kompensationsbereich variiert die resultierende kapazitive Admittanzzwischen oC und einem minimalen Wert (Abb. 13.2 1 b). In p.u. gilt

ys=jb ,

mit b = w C Z r ( l - a ) = b , ( l - a )

(13.50)

mit a = 0 ..... a„„ < 1. Prinzipiell könnte eine solche Anordnung auch im induktiven Bereich arbeiten (a > 1) und im Kurzschlussfall den Kurzschlussstrom begrenzen. Vorläufig istjedoch diese Anwendung im Vergleich zur klassischen Strombegrenzung mit Drosseln (Band 1, Abschn. 9.2.4) noch unwirtschaftlich. Besteht z.B. das Netz 2 aus einer Verbindung Y, zum starren Netz und einer lokalen passiven Last Y, gelten die p.u. Gleichungen

i = y

-

(U -QI

-

U*)

i = y -2u + Y 2 @ - U Q2 )

"

y, ( U , - U 2 ) .

Durch Eliminieren von Strom und Spannung U , ergibt sich U^ = U2

'QI

+ +

y2

,

mit

Ys Y1 Y , = = -, y, , Ys + Y1

(13.52)

woraus z.B. für die Regelung auf eine vorgegebene Spannung u, die für die Regelstrecke charakteristische Konstante K = dlu,i /da in Abhängigkeit der Belastung bestimmt werden kann.

Abb. 13.21. Regelung der Seriekompensationsanlage

Steuergröße a = Verhältnis von induktiver zu kapazitiver Admittanz

586

13 Spannungsregelung und Spannungsstabilität

13.4 Statische Spannungsstabilität der SM Die statische Stabilität ist eine notwendige Bedingung für die Stabilität im Kleinen wie im Großen (Anhang III.2), weshalb wir zunächst diese untersuchen am Fall einer Synchronmaschine (SM) im Inselbetrieb, die über eine Netzreaktanz einen Lastknoten speist. Die gewonnenen Einsichten werden dann auf den allgemeineren Fall des vermaschten Netzes übertragen. Kurzzeit-Spannungsinstabilitäten lassen sich bei Motorlast nicht ausschließen und sind i.d.R. mit der Polradwinkelinstabilität gekoppelt. Sie lassen sich mit denselben Methoden, die in den Kap. 10 und 12 angewandt wurden, untersuchen (s. dazu auch Abschn. 13.6). Manchmal ist die Spannungsstabilität im Kurzzeitbereich gegeben, geht jedoch infolge Regelungsvorgängen im Langzeitbereich verloren. Zur Analyse der statischen Stabilität gehen wir von der in Abb. 13.22 dargestellten Schaltung und dem entsprechenden Zeigerdiagramm aus. Stationär sind zwei Fälle zu unterscheiden. Ist die SM ungeregelt oder die Regelung unwirksam, z.B. wenn sich die SM an ihren Leistungsgrenzen befindet, stellt die Quellenspannung E die vom Erregerstrom abhängige Polradspannung (also E = E,) und der Winkel a den Polradwinkel relativ zur betrachteten Lastknotenspannung dar. Die Netzreaktanz X schließt die synchrone Reaktanz der SM sowie Transformator- und Leitungsreaktanzen ein. Bei wirksamer Spannungsregelung ist stationär die Spannung E betragsmäßig ebenfalls konstant. Dann gilt E = U„ (mit U„ = Leerlaufspannung der SM), und die der Blindstrom-Statik entsprechende kleine Reaktanz X, tritt an Stelle der synchronen Reaktanz. Auf die Erfassung der Widerstände kann auf der Höchstund Hochspannungsebene, die vor allem für die Spannungsstabilität von Bedeutung sind, in erster Näherung verzichtet werden. Der Zusammenhang zwischen der Quellenspannung E, der Lastknotenspannung U und den abgegebenen Leistungen P und Q ist formal identisch zum Fall der VollpolSM am starren Netz (Band I, Abschn. 6.6.2, 6.6.2.4). Man erhält:

Abb. 13.22. Von einer Synchronmaschine über eine Netzreaktanz abgcgcbcnc Leistung, Schema und Zcigcrdiagramm

13.4 Statische Spannungsstabilität der SM

P Q

=

u Q,

= U

E

-

ur E

Q, (-

ur

587

sincl cosa

- U)

, mit Q,

=

uir .

(13.53)

-

X Q, ist eine für die Schaltung charakteristische, zur Netzreaktanz X umgekehrt proportionale Blindleistung (welche der Kurzschlussleistung der Netzverbindung entspricht) und U die p.u. Spannung der Last. Werden auch E und die Leistungen in p.u. ausgedrückt (mit Bezugsgrößen U, und Sr), folgen die Gleichungen U

p =qo-sina e

q

=

,

U

qo - (cosa

-

mit

qo

e'

= - = X

e 29,

U

(13.54)

-).

e e Durch Eliminierung des Winkels a mit Hilfe der Beziehung sin2 a+cos2 a = I lässt sich U in Abhängigkeit von p und q ausdrücken

Die entsprechende SpannungsJluche für ohmsch-induktive Last (q 0) zeigt die Abb. 13.23a. Auffallend ist die wesentlich stärkere Abhängigkeit der Spannung von der Blindlast als von der Wirklast, was durch die Abb. 13.23b und 1 3 . 2 3 hervorgehoben ~ wird. Deutlich wird ebenso, dass die Spannung zusammenbrechen kann, wenn die Wirklast oder die Blindlast oder eine Kombination von beiden eine bestimmte Grenze überschreitet. Die Bedingungen dazu werden im folgenden genauer unter die Lupe genommen durch Schneiden der Spannungsfläche mit der vertikalen Ebene für cos cp = konst. oder der Fläche, die der Lastkennlinie p = p,(u) entspricht.

13.4.1 (U, P)-Kennlinien bei konstantem Leistungsfaktor Weist die Last einen von der Spannung unabhängigen konstanten Leistungsfaktor auf oder sorgt eine Kompensationsanlage für konstanten cos cp, befindet man sich in einer vertikalen durch den Ursprung des Koordinatensystems gehenden Ebene der Abb. 13.23a. Dann kann in der GI. (13.55) q = p tan cp eingesetzt werden, und man erhält

588

13 Spannungsregelung und Spannungsstabilität

. .:. . . ..

.. . ' . . . .. . . . .. ... ..< . ... ... . . .. .. . . . . . .,**'.:. . . . . . . . . . . ... . .. */*.*;, :. ./.....:... . . ~~ijklastk&t-mf!äche .. . p = p, (U) . . . '

L

/~... . . . ..

. . . ./.,: .. I .". . , . :. .. . . . .. 1.:

. .

1

U -

08

e o

t :. 0

0

-- -01

02

03

OA

05

0

01

02

03

P qo

04

05

q qo

Abb. 13.23. a) Spannungsfläche U = f (p, q) der Schaltung Abb. 13.22 b) Ansicht aus der q-Richtung C ) Ansicht aus der p-Richtung

Daraus folgt der in Abb. 13.24 dargestellteZusammenhang zwischen U und p. Für die maximale Wirklast und die entsprechende kritische Spannung erhält man

Das Stabilitätsverhalten wird von der Spannungsabhängigkeit der Wirkbelastung beeinflusst. Zuerst sei der ungünstigste Fall einer spannungsunabhängigen Wirklast betrachtet.

13.4 Statische Spannungsstabilität der SM

589

P hqo Abb. 13.24. Spannungsverhalten bei konstantem 1,eistungsfaktor

13.4.1.1 Spannungsunabhängige Wirklast

Ist die Wirklast p, unabhängig von der Spannung, wird die Lastkennlinie von einer Vertikalen dargestellt (gestrichelte Linie a), und es stellt sich z.B. für cos cp = 1 der Betriebspunkt A ein. Dieser Fall tritt in der Praxis bei motorischer Last auf, wenn der cos cp von einer Kompensationsanlage konstant gehalten wird. Überschreitet die Wirklast die maximale Leistung P„, , bricht die Spannung zusammen. Gemäß GI. (1 3.57) ist für cos cp = 1 die kritische Spannung eIJ2 = 0.71 e, der Spannungskollaps also statisch bei einer Spannungsabsenkung von knapp 30% zu erwarten. Die Spannungsstabilitut wird von den folgenden zwei Faktoren beeinflusst: - Die Große von q, . Für cos cp = 1 ist z.B. P„„ = 0.5 q, . Je größer q, = e2q, , d.h. bei spannungsgeregelter SM (e = I ) je kleiner X oder steifer das Netz, desto besser ist die Stabilität. Instabilität kann also z.B. dann auftreten, wenn als Folge einer Störung Leitungen ausfallen, X größer und das Netz somit weicher wird. Im Fall der spannungsgeregelten SM (e I , q, = q,) ist z.B. für cos cp = 1, wenn X = 0.3 p.u. + q, 3.33 p.u. und P„, = 1.67 p.u.; erhöht sich aber X auf 0.5 p.u., ist q, 2 p.u und P„„ = I p.u., die Nennleistung also bereits kritisch. Arbeitet die SM an der thermischen Blindleistungsgrenze, wird q, ebenfalls vermindert. Die Polradspannung e ist dann zwar Ca. 2.5 p.u., aber X wird um die synchrone Reaktanz z.B. um 2 p.u. erhöht, womit q, = 2S71(2 + 0.3) = 2.72 statt 3.33. - Der Leistungsfaklor der Last. Je induktiver die Last, desto geringer die Spannungsstabilität; so ergibt sich für cos cp = 0.7, wieder für X = 0.3, nur noch P„„ 0.67 p.u. Ist umgekehrt die Last ohmsch-kapazitiv oder wird der cos cp durch die Kompensationsanlage kapazitiv gehalten, werden die Spannungshaltung und die Stabilitätsmarge erheblich verbessert (s. Abb. 13.24, Fall cos cp = 0.95 kapaz.). Dasselbe Verhalten ist bei der Analyse der elektrischen Leitung festgestellt worden

-

-

-

-

590

13 Spannungsregclung und Spannungsstabilität

(Band 1, Abschn. 9.5.1). Optimale Kompensation ist für die Spannungsstabilität des Netzes von erstrangiger Bedeutung. Die Sicherheit kann durch eine sekundäre Blindleistungsregelung pro Teilnetz, die dafür sorgt, dass die Spannung in einem zentralen Knotenpunkt des Teilnetzes das notwendige Niveau einhält, erheblich verbessert werden [I 3.31. 13.4.1.2 Wirklast mit spannungsabhängigem Lastanteil Bei den üblichen Mischlasten enthält die Wirklastkennlinie einen vertikalen Anteil (motorische Lasten) und einen mit der Spannung zunehmenden Anteil (s. Band 1, Kap. 7). Letzterer würde im Fall ohmscher Widerstände quadratisch zunehmen. Als Beispiel ist in Abb. 13.24 die Kennlinie b eingetragen. Die kritische Spannung ist dann etwas kleiner als der von (13.57) gegebene Wert. Der Betrieb ist stabil (z. B. in B,), solange

Der Ausdruck rechts ergibt sich, weil cos cp = konstant ist. Er drückt, wie in Abschn. 13.4.2 deutlich werden wird, allgemein die statische Stabilitätsbedingung aus. Es ist leicht einzusehen, dass der Betriebspunkt B, in Abb. 13.24 instabil ist, da sich bei leichter Abnahme der Spannung ein Wirkleistungs- und somit auch Blindleistungsdefizit einstellt, das ein weiteres Absinken der Spannung nach sich zieht. Für eine tiefergehende theoretische Analyse s. [13.5]. 13.4.1.3 Verhalten bei reiner lmpedanzlast Bei reiner lmpedanzlast sind sowohl die Wirklast als auch die Blindlast quadratisch von der Spannung abhängig (gleichgültig wie die Impedanzen geschaltet sind). Die Lastkennlinie hat in der Ebene mit konstantem cos cp (WX = konst.) einen entsprechenden Verlauf (Kurve C in Abb. 13.24). Es tritt keine Instabilität auf, da die Stabilitätsbedingung (13.58) immer, z.B. auch im Punkt C, erfüllt ist. Spannungsinstabilität ist also vor allem auf motorische Lasten zurückzuführen. 13.4.1.4 Wirkung von Transformatoren mit variabler Übersetzung Mit Bezug auf das Schema gemäß Abb. 13.25 sei die Reaktanz des Transformators in die Netzreaktanz integriert, und der ideale Transformator mit p.u.-Übersetzung ü„ werde der Last zugeschlagen. Zwischen der für die Netzstabilität maßgebenden Spannung U und der Lastspannung U, besteht die Beziehung U = ü„ U,. Für eine Last s, die aus einem konstanten Anteil und einer Impedanzlast z besteht, gilt

Abb. 13.25. lnselbetrieb mit rcgclbarcm Transformator

13.4 Statische Spannungsstabilität der SM

59 1

Die entsprechende Lastkennlinie ist für verschiedene Werte von ü„ in Abb. 13.26 eingetragen. Sinkt die Spannung auf Grund einer Störung (die z.B. eine Erhöhung der Netzreaktanz, d.h. Verkleinerung von q, zur Folge hat), wird der Spannungsregler, im Bestreben die Lastspannung konstant zu halten, die Übersetzung ü vermindern, bis die Spannung U, und somit auch die Last wieder stimmen. Der Betriebspunkt wandert zunächst von 1 nach 2 und beim Eingreifen der Regelung nach 3. Die Stabilitätsmarge verringert sich.

vor Storung Upu =

nach Storung

2

*

1 Y ,

I

0 95

/I, 0 9

/ / *3 i

/

/

\

I

1

Abb. 13.26. Eingreifen der Lastspannungsregelung nach einer Störung iin Netz

13.4.2

(U,

q)-Kennlinien bei vorgegebener Wirklast

Ist die Kennlinie der Wirklast bekannt, gilt p = p,(u), und die Spannung U kann mit GI. (13.55) in Abhängigkeit von p, und q, oder q in Abhängigkeit von U dargestellt werden: man erhält GI. (13.59). Für reine Blindlast (Grenzfall p, = 0) folgt Abb. 13.27, die im folgenden analysiert wird. Ausgehend vom Leerlaufpunkl mit U = e, verschiebt sich der Betriebspunkt bei zunehmender induktiver Belastung auf der Parabel, z.B. in S„ wobei der Spannungsabfall Au auftritt.

592

13 Spannungsregelung und Spannungsstabilität

Mit der Annahme q, sei unabhängig von U und werde somit von einer vertikalen Kennlinie (z.B. Kennlinie a) beschrieben, ist bei zunehmender Blindlast ein Gleichgewicht oberhalb des Punktes C, mit der Blindleistung q„„ = q, 14 und der Spannung U„ = e/2 nicht mehr möglich und die Spannung bricht zusammen. Die Spannungsabsenkung beträgt im kritischen Punkt 50%. In der Praxis kommt eine von der Spannung unabhängige Blindlast kaum vor. Meist enthält die Blindlast einen konstanten Anteil und einen quadratisch von der Spannung abhängigen Anteil, z.B. gemäß Kennlinie b. Die Instabilität tritt dann bei zunehmender Blindlast nicht in C,, sondern erst in C, auf. Die Punkte I, und I, sind instabil, da, wie bereits erwähnt, bei leichter Abnahme der Spannung ein Blindleistungsdefizit entsteht, das ein weiteres Absinken der Spannung verursacht. Die Stabilitätsbedingung lautet somit

Ohne spannungsunabhängige Anteile, z.B. bei Belastung mit einer Reaktanz X„ ist q, = u' /X, und, wie die gestrichelte Kurve C nachweist, der Betriebspunkt Sc wegen (13.60) stabil. Wird die Schaltung Abb. 13.22 nicht induktiv, sondern kapazitiv belastet (q < O), erhöht sich die Spannung (Punkt D in Abb. 13.27). Der Abstand zur statischen Stabilitätsgrenze nimmt zwar zu, die nähere dynamische Analyse zeigt jedoch, dass wegen der Resonanz der inneren Reaktanz der SM mit der Kapazität beim Überschreiten einer bestimmten kapazitiven Blindlast doch eine Spannungsinstabilität auftritt, die zu einer theoretisch unbegrenzten Spannungssteigerung fuhrt (Selbsterregung, für Näheres s. Abschn. 13.1.2.3 und Band 1, Abschn. 6.5.1.3).

0

0.05

0.1

0.15

0.2

0.25

+

0.3

0.35

0.4

4

--

40

Abb. 13.27. Spannungsverhalten der Schaltung Abb. 13.22 für p,= 0 in Abhängigkeit

von der Blindlast für verschiedene Ulindlastkennlinien

13.4 Statische Spannungsstabilität der SM

593

Wird die Schaltung in Abb. 13.22 mit p = p, vorbelastet, ergibt sich das in Abb. 13.28 dargestellte Spannungsverhalten, wobei vereinfachend angenommen wurde, die Wirkbelastung sei spannungsunabhängig. In diesem Fall folgen aus der zweiten der Gln. (13.59) folgende maximale Blindleistung und die entsprechende kritische Spannung

Der allgemeine Fall mit beliebiger spannungsabhangiger Wirklast lässt sich aus der zweiten der GI. (1 3.59) berechnen und ist für eine gegebene Wirklast in Abb. 13.29 dargestellt. Mit der eingezeichneten Kennlinie der Blindbelastung sind der Betriebspunkt S stabil und der Betriebspunkt I instabil. Allgemein lautet die statische Stabilitätsbedingung (Stabilitätsgrenze entsprechend Punkt C)

(U)' J

e

-

(O,2 90

In der dreidimensionalen (p,q,u)-Darstellung von Abb. 13.23a ergibt sich folgende geometrische Interpretation: Der Schnitt der Wirklastkennfläche p = pL(u) mit der Spannungsfläche U = f((p,q) liefert eine Spannungslinie, deren Projektion in der (q,u)-Ebene identisch ist mit der parabelformigen Kurve von Abb. 13.29. Den Betriebspunkt (dessen Projektion der Punkt S von Abb. 13.29 ist) ergibt sich als Schnittpunkt dieser Spannungslinie mit der Blindlastkennfläche q = qL(u).

Abb. 13.28. Spannungsverhalten der Schaltung Abb. 13.22 in Abhängigkeit von der

Blindlast für p, konstant

594

13 Spannungsregelung und Spannungsstabilität

Abb. 13.29. Fall mit spannungsabhängigcr Wirk- und Blindlast S stabiler Betriebspunkt, I instabiler Betriebspunkt. C Stabilitätsgrenze

13.4.3 Darstellung mit der Generatorblindleistung Interessant ist auch der Zusammenhang zwischen der Blindleistung an den Generatorklemmen und der Blindleistung im Lastpunkt. Er erlaubt eine alternative, für die Erweiterung auf den Fall des vernaschten Netzes wichtige Formulierung der Stabilitätsbedingungen. Aus Abb. 13.22 erhält man Q, = Q

+ 3 x 1 2 , ( Q ~ + P ~ ) = ~ (EQ~ ~I +~ P, ~ ) = ~ u ~ I ~ .

Werden die p.u. Größen eingeführt und der Strom eliminiert, folgt mit q,

=

e2 lx

Abbildung 13.30 zeigt die graphische Darstellung in der (q,q,)-Ebene der ersten dieser Gleichungen für verschiedene Werte der als spannungsunabhängig angenommenen Wirkleistung p,. Die maximal zulässige Blindlast wird wieder von GI. (13.61) gegeben, wobei die kritische Generatorblindleistung q„, = q, 12 unabhängig von p, ist. Für p = p,(u) ergibt sich durch iterative Lösung dieser zwei Gleichungen ein ähnliches Resultat. Im (q,q, ,U)-Raum stellt für p = p, = konstant die erste der Gln. (13.63) eine vertikale zylindrische Fläche und die zweite eine Spannungsfläche dar. Deren Schnittlinie sei als Spunnungslinie bezeichnet (Abb. 13.31). Die Projektion der so erhaltenen Spannungslinie in der (q,u)-Ebene entspricht der Abb. 13.28, während die Projektion in der (q,q,)-Ebene mit der Darstellung in Abb. 13.30 übereinstimmt. Dies gilt auch, wenn p = p,(u), wobei dann eine iterative Rechnung erforderlich ist.

13.4 Statische Spannungsstabilität der SM

595

Abb. 13.30. Generatorblindleistungq „ in Abhängigkeit von der Blindlast q für verschiedene Werte der spannungsunabhängigen Wirklast p,

Auch die Stabilitätsbedingung (Cl. 13.60) lässt sich in dieser Darstellung interpretieren und verallgemeinern. Dazu sei in den Gln. (1 3.63) q durch q,(u) ersetzt und die gleiche Rechnung durchgefiihrt. Das Resultat ist eine zweite Spannungslinie und entsprechende Projektionen, die in Abb. 13.32 der Abb. 13.3 1 überlagert sind.

Abb. 13.31. Spannungsverlauf in Abhängigkeit der Generator- und Lastknotenblind-

leistung für eine gegebene Wirklast

596

13 Spannungsregelung und Spannungsstabilität

Abb. 13.32. Spannungsverlauf in Abhängigkeit der Generator- und L,astpunktblind-

leistung q bzw. Blindlast q, (U)für eine gegebene Wirklast.

Die Projektion in der (q, U )-Ebene ist identisch mit der Abb. 13.29 mit dem stabilen Punkt S b dem instabilen Punkt I , und dem kritischen Punkt C,. Die entsprechenden Betriebspunkte sind auf der Spannungslinie und in der (q, q,)-Ebene wiederzufinden. Insbesondere der Punkt C, stellt die Stabilitätsgrenze in der (q, q,)Ebene dar. Die Verhältnisse in dieser Ebene sind deutlicher in Abb. 13.33 zu sehen. Die Stabilitätsbedingung lautet

Manchmal wird diese Bedingung auch dqldq, > 0 geschrieben, was streng genommen nicht korrekt ist, jedoch keinen Schaden anrichtet, da in der Praxis q, immer mit der Spannung zunimmt und die Ableitung dqL/dq, negativ ist. Deren Vernachlässigung kann als zusätzliche Sicherheitsmarge betrachtet werden. Um sie zu berücksichtigen, kann aus den Gln. (1 3.63) gesetzt q = qL(u)

berechnet werden. Sind die Funktionen p,(u) und qL(u) bekannt, folgt die Ableitung (dq,ldu) und somit auch daldq, = (dqLldu)l(dqJdu).

13.4 Statische Spannungsstabilität der SM

Abb. 13.33. Stabilitätsbedingungin der (q, q ,)-Ebene, q „)q,

= 0.1 14 + 0.15 (

597

~ie)~

13.4.3.1 Sicherheitsindizes Um den Abstand von der Stabilitätsgrenze zu charakterisieren, werden verschiedene Indizes (voltage stability indices, s. auch [I 3.31) verwendet, z.B. mit Bezug auf die Stabilitätsbedingungen (13.26) und (13.33) oder analog zu o = (P„, - p)/p„,

k, =

(47,- d9)

U

-

oder

k, =-

-- 4

d9-dgL-

oder

du 9 4, d9, wobei q„, entsprechend GI. (13.61) eingesetzt werden kann.

o4 =-

9--9 9-

(13.66)

13.4.3.2 Lastkennlinien Zur Beurteilung der Stabilitätsreserve muss die Spannungsabhängigkeit der Lastkennlinien bekannt sein (s. dazu auch Band 1, Kap. 7). Statische Verbraucher, z.B. ohmsche Verbraucher und Impedanzen, haben eine quadratische Abhängigkeit von der Spannung. Bei rotierenden Verbrauchern hängt die Wirkleistung nur transient quadratisch von der Spannung ab, stationär wird sie vom Belastungsmoment bestimmt und ist somit spannungsunabhängig(s. Abschn. 12.4); einen ähnlichen Verlauf hat die Blindleistung bei der Asynchronmaschine (s. Abschn. 10.2.2 und Band I, Abschn. 7.1, GI. 7.35). Die summarische Darstellung arbeitet mit Mischmodellen (z.B. Abschn. 10.2 und Band 1, Abb. 7.17) oder stellt die Blindbelastung durch eine quadratische Funktion dar, die einen Konstantimpedanz-, einen Konstantstrom-, und einen Konstantleistunganteil enthält

Allgemeines zum Thema Spannungsstabilität ist auch in [13.2], [13.4]) zu finden.

598

13 Spannungsregelung und Spannungsstabilität

13.5 Statische Spannungsstabilität im vermaschten Netz Sind m Generatoren in einem Netz mit n Knoten wirksam, nimmt die Netzgleichung folgende Form an (Band I , Abschn. 9.6)

worin P, die Wirkleistung des Bilanzknotens, P den Vektor der Wirkleistungen aller anderen Knoten, Q den Vektor der Blindleistungen der Lastknotenpunkte und jenen der Einspeisungen darstellen. Links ist die Länge der Vektoren angegeben.

G;

Durch Auflösung der ersten zwei Zeilen nach Zeile folgt

P

Mit der Annahme, alle Wirkleistungen

-

8

und Ü und Einsetzen in die 4.

seien gegeben, ebenso die Generator-

spannungenU(; sowie alle Blindlasten außer die des betrachteten Lastknotens k, m m folgt QG

=f(Qk)

U,

--F

CeGi= ~ < Q , > - - F

--.

i=l

=ftQ,)

U,

Q, m

=~(CQ,)

= f t ~ , ,CQ,) . I= l

i=l

(13.70)

Die beiden Gleichungen sind eine Verallgemeinerung der Gln. (13.63), in welchen die Blindleistung des einzigen Generators durch die Summe aller Generatorblindleistungen ersetzt ist. Damit kann ein zu GI. (13.66) analoger Sicherheitsindex definiert werden

k, =

AQk

Um ihn zu berechnen, kann für kleine Änderungen die Netzgleichung um einen stationären durch eine Lastflussberechnung ermittelten Netzzustand linearisiert werden. Es folgt

13.5 Spannungsstabilität im vermaschten Netz

599

Dabei ist vorausgesetzt worden, dass die Spannungen U, durch die Spannungsregelungen konstant gehalten werden. A, B, C, D sind die Funktionalmatrizen (JacobiMatrizen) der Netzgleichungen. Etwas einfacher geschrieben, lautet dieser Zusammenhang

Die Auflösung der Lastflussgleichungen wird normalerweise mit der Annahme durchgeführt, die Last sei spannungsunabhängig. Für alle vorgegebenen Lasten gilt dann AP = 0, AQ = 0. Bei Spannungsabhängigkeit der Last gilt hingegen

In der Matrix L, die diese Abhängigkeit ausdrückt, sind nur die Diagonalkoeffizienten, welche die Abhängigkeit der AP, von AU, und der AQ, von AU, ausdrücken, verschieden von null. Die erste der Beziehungen (13.73) gilt weiterhin, wenn A durch AL= A + L ersetzt wird

600

13 Spannungsregelung und Spannungsstabilität

Durch Eliminierung der Spannung (Betrag und Winkel) aus den Gln. (1 3.75) folgt

Mit der Annahme, alle Wirkleistungen seien gegeben und lediglich die Blindlast des jeweils betrachteten Lastknotenpunktes k ändere, folgt aus GI. (1 3.76) die Sensitivität der Generatorblindleistungen relativ zu den Blindlasten

AQ,

=

s AQ ,

(13.77)

worin S eine Teilmatrix von C AL-' darstellt. Aus GI. (13.77) lässt sich mit GI. (13.71) der Sicherheitsindex aller Lastknoten berechnen:

Das negative Vorzeichen berücksichtigt, dass im Lastflussprogramm üblicherweise die Einspeiseleistungen positiv sind und für die Last somit AQ, = -AQ. Die Sicherheitsindizes können im Rahmen einer Echtzeit-Lastflussberechnung dauernd überwacht werden. Von der Belastung muss dann die Spannungsabhängigkeit bekannt sein, z.B. durch ein Polynom dargestellt und evtl. laufend neu identifiziert werden. Eine weitere Möglichkeit besteht darin, die Sicherheitsindizes, ausgehend von einer gegebenen Lastsituation, schrittweise für progressiv zunehmende Last zu berechnen. Die Steilheit der Lastkennlinie und damit die Matrix L wird bei jedem Schritt neu ermittelt. Damit können die in weichen Netzen vorkommenden kritischen Lastsituationen im voraus erkannt werden.

13.6 Dynamik Die statische Stabilität ist zwar notwendige Bedingung, jedoch keine Garantie weder für die Stabilität im Kleinen noch fiir jene im Großem. Instabilität ist grundsätzlich ein dynamischer Vorgang. Die Stabilität im Kleinen ist nur dann sichergestellt, wenn alle Eigenwerte der Systemmatrix im betrachteten Betriebspunkt negative Realteile aufweisen (Anhang 111.2).

13.6 Dvnamik

60 1

13.6.1 Kurzzeitanalyse Zur Analyse des Kurzzeitbereichs (i.d.R. Sekundenbereich) können die in Kap. 10 angegebenen Modelle und Methoden eingesetzt werden. Ein rascher Einbruch der Spannung kann z.B. bei Motorlast dann stattfinden, wenn nach einer plötzlichen Störung kein (statisches) Gleichgewicht mehr möglich ist (starke Erhöhung der Netzreaktanz) und die Motoren kippen. Dasselbe geschieht, wenn im Kurzschlussfall (Stabilität im Großen) der Fehler nicht schnell genug abgeschaltet wird. Eine oszillatorische Instabilität kann bei Motorlast dann auftreten, trotz statischer Stabilität, wenn die Eigenwerte des Systems „spannungsgeregelte SM + Motor" negative Realteile aufweisen [13.5]. Dies kann vermieden werden durch Kompensationsmaßnahmen, z.B. mittels SVC (Abschn. 13.3, [13.1]). 13.6.2 Langzeitinstabilität Wie bereits in Abschn. 13.4.1 erwähnt, ist manchmal die Spannungsstabilität im Kurzzeitbereich gegeben, geht jedoch infolge Regelungsvorgängen im Langzeitbereich verloren. Zur Untersuchung können die für den Langzeitbereich gültigen Modelle nach Abschn. 10.1 und 10.2 eingesetzt werden, welche die im Sekundenbereich wirksamen Zeitkonstanten vernachlässigen. Allgemeine Simulationsprogramme eignen sich ebenfalls dazu (Abschn. 10.4). Eine eingehende Analyse der Langzeitinstabilität ist in [13.5] zu finden.

Teil V

Betriebsplanung und -führung

14 Betriebsplanung

Methoden zur Lösung der Betriebsführungs- und Planungsprobleme eines vertikal integrierten Energieversorgungszlntenehmens (VIEVU) sind seit Jahrzehnten bekannt [l4.l l l , [14.7], [14.13], [14.15], [14.9],(usw., s. dazuauch [14.2], [l4.l]), und werden im folgenden zuerst zusammenfassend dargelegt und dann aus der Sicht der liberalisierten Energieversorgung ergänzt. Dies setzt die Kenntnis der elementaren mikroökonomischen Grundgesetze voraus, weshalb ein diese erklärender Abschnitt vorangestellt wird. Das Planungsproblem lässt sich in Betriebsplanung bei vorgegebenen Netz- und Krafhverkskapazitäten und Kapazitutsenueiterungsplanungunterteilen. Im folgenden befassen wir uns vor allem mit dem Betriebsoptimierungssproblem, dessen Lösung aber auch wichtige Entscheidungsgrundlagen für die Erweiterung des Netzes liefert.

II

Mikroökonomische Grundlagen

Die Produktionskosten K der Menge Q eines Gutes setzen sich aus den festen Kosten A und den variablen Kosten B(Q) zusammen

Betriebswirtschaftlich sind vor allem die Durchschnittskosten k und die Marginalkosten oder Grenzkosten m von Bedeutung, definiert durch

Ist die Kostenkurve konvex, existiert eine minimale effiziente Produktionsmenge Q„ bei welcher die Durchschnittskosten minimal werden. Durch Ableitung der ersten der beiden Gln. (14.2) erhält man

Bei der Produktionsmenge Q, stimmen die Grenzkosten m, mit den minimalen Durchschnittskosten km, überein (Abb. 14. la). Um die Kosten zu decken und einen Gewinn zu erwirtschaften und zu maximieren, sind für das Unternehmen zwei Bedingungen zu erfüllen: - Der Marktpreis muss über den minimalen Durchschnittskosten liegen. - Die Produktion ist auszuweiten (über die minimale effiziente Größe hinaus), bis die Grenzkosten mit dem Marktpreis übereinstimmen. Ein Konkurrenzmarkt kann sich dort herausbilden, wo die Nachfrage wesentlich größer ist als die minimale effiziente Produktionsmenge der einzelnen Unternehmen.

Die Angebotskurve ergibt sich dann als Summe der Produktionsmengen der Unternehmen in Abhängigkeit von den Grenzkosten xQ(m) und der Marktpreis als Schnittpunkt (Gleichgewichtspunkt) dieser Kurve mit der Nachfragekurve (Abb. 14.1b) Ist eine Branche rentabel, weitet sich, nicht zuletzt auch durch das Auftreten neuer Marktakteure, deren Produktion aus, und die Angebotskurve verschiebt sich nach rechts. Dadurch reduziert sich bei gleicher Nachfkagekurve der Marktpreis. Die Konkurrenzsituation hat zur Folge, dass sich theoretisch und langfristig ein Gleichgewicht bei der minimalen effizienten Produktionsmenge einstellt. Da aber nicht alle Unternehmen die gleichen minimalen Durchschnittskosten aufweisen, werden in der Praxis die unrentablen Unternehmen vom Markt verschwinden und nur die rentablen (mit den kleinsten minimalen Produktionskosten) sich behaupten können. Im Fall der Elektrizität spielt der Faktor Zeit eine erhebliche Rolle, da die Gesamtnachfrage, aber auch das Angebot erheblich schwanken können (Tagmacht, Winterlsommer). Nicht alle Unternehmen sind flexibel in Ihrem Angebot. Gewisse Unternehmen sind darauf spezialisiert, nur in Spitzenzeiten bei hohem Marktpreis zu liefern.

Beispiel 14.1 b)

a)

Kosten

f

Preis

Unternehmen

t

Markt

Abb. 14.1. a) Durchschnittskosten k und Marginalkosten rn des Unternehmens b) Marktpreis als Schnittpunkt von Angebots- und Nachfragekurve

Die Jahreskosten C eines Unternehmens werden durch eine quadratische Funktion der Produktion Q beschrieben: C = a, + a , Q + a, Q2. Man bestimme die minimale effiziente Produktionsmenge, die minimalen Durchschnittskosten und den Profit bei Verkauf zu den Grenzkosten.

14.2 Retriebsoptimierung cines VlEVlJ

14.2

607

Betriebsoptimierung eines vertikal integrierten Energieversorgungsunternehmens

Das vertikal integrierte Unternehmen besitzt und betreibt ein EnergieversorgungsSystem, bestehend aus thermischen und hydraulischen Kraftwerken sowie aus dem Übertragungsnetz. Die Betriebsoptimierung setzt sich in ihrer einfachsten Form zum Ziel, die Kosten der Energieproduktion eines Zeitabschnittes T durch optimale Steuerung der Leistungen der einzelnen Kraftwerke zu minimieren. Die Produktionskosten setzen sich aus einem Grundanteil und einem energieabhängigen Anteil zusammen. Die Grundkosten sind bedingt durch Aufwendungen für Amortisierung, Zinsen, Personalkosten, Unterhalt usw. und laufen unabhängig von der jeweiligen Produktion auf (s. auch Abschn. 2.2). Die energieabhängigen Kosten steigen bei einem thermischen Kraftwerkpark mit der erzeugten Leistung nach einer nichtlinearen stufenartigen Kurve an, können jedoch im Mittel durch eine etwas mehr als linear monoton ansteigende Kurve approximiert werden. Bei hydraulischen Krajtwerken sind die Kosten praktisch energieunabhängig. Von den Produktionskosten spielen für die kurzfristige optimale Betriebsführung (bei gegebenen Kapazitäten) nur die variablen d.h. von der produzierten Energie abhangigen (energieabhangigen) Kosten der thermischen Kraftwerke eine Rolle. Der Energieaustausch mit benachbarten Netzen kann, wenn die Austauschenergie Freiheitsgrade besitzt, d.h. die Leistung nicht ständig vorgegeben ist, ebenfalls in die Optimierung einbezogen werden. Kostenfunktionen der Austauschenergie sind dann zu spezifizieren und können wie jene der Kraftwerke behandelt werden. Der Bedarf an Wirk- und Blindleistung sei fur die betrachtete Periode T und für die einzelnen Netzknotenpunkte bekannt oder als Erwartungswert darstellbar. Die entsprechenden Belastungskurven werden für die numerische Behandlung des Problems diskretisiert, d.h. durch treppenförmige Diagramme mit Treppenstufen der Dauer At ersetzt. Das Optimierungsproblem lässt sich dann auf 4 Grundprobleme, d.h. schließlich auf 4 Gruppen von Rechenalgorithmen rcduzieren:

- Netzberechnung (Leistungsflussberechnung) -

-

Optimale Leistungsverteilung (OPF = optimal power flow) Optimale Speicherbewirtschaftung Optimaler Einsatzplan dcr thcrmischen Gruppen (unit commitment)

In bezug auf die Größe der Optimierungsperiode werden verschiedene Stufen unterschieden: a) b) C) d)

Langfristige (Jahres- und Mehrjahres-) Optimierung Mittelfristige Optimierung (Woche, Monat) Kurzzeitoptimierung (Tag) Momentane Optimierung

Die Stufe d) wird on-line erfolgen und dient als tertiäre Steuerung der Führung der Frequenzleistungsregelung (Kap. 11). Alle Optimierungsstufen können durch Einsatz einer oder mehrerer der vier erwähnten Gruppen von Rechenalgorithmen gelöst werden. Wir setzen uns deshalb zuerst mit den 4 Grundproblemen auseinander, um

608

14 Betriebsolanune

dann in den folgenden Abschnitten die einzelnen Optimierungsstufen näher zu betrachten. 14.2.1 Netzberechnung

Das Netz wird durch die Netzgleichungen dargestellt

worin und Q die Vektoren der Knoten-Wirk- und Blindleistungen sind, die als Differenz von Erzeugung und Verbrauch definiert werden (Band 1, Abschn. 9.6.1 ). Bei vorgegebenen Knotenleistungen werden aus den Gln. (14.4) die Spannungen U und die Phasenwinkel6 in allen Knoten des Netzes bestimmt. Im Bilanzknoten wird normalerweise 6 = 0 gesetzt; die Wirkleistung wird nicht vorgegeben, sondern ergibt sich aus der Berechnung und ist gerade so groß, dass die Wirkleistungsbilanz erfüllt ist. In den Einspeiseknoten werden meist nicht die Blindleistungen, sondern die Spannungen vorgegeben. Begrenzungen aller Art sind zu berücksichtigen (Band 1 Abschn. 9.6.3), so z.B. neben jener der Einspeiseleistungen auch jene der Spannungen und der Phasenwinkeldifferenzen 7weier benachbarter Knoten (s. Band 1, Abschn. 9.6.5). Auch kompliziertere Nebenbedingungen (z.B. Strombegrenzungen, Über~etzungsbe~renzun~ variabler Transformatoren, rotierende Reserve) können berücksichtigt werden. Die Begrenzung der Leistung aufden einzelnen Übertragungsleitungen, mit Rücksicht auf deren Erwärmung oder aus Stabilitätsgründen, erfolgt vielfach durch die erwähnte Begrenzung der Phasenwinkeldifferenz des Spannungszeigers zwischen Anfang und Ende der Leitung. Zur Lösungdes Gleichungssystems (14.4) sind mehrere Methoden bekannt, z.B. die iterative Knotenmethode (Gauß-Seidel) und vor allem das Newton-Raphson-Verfahren (Band 1, Abschn. 9.6.2). Die wichtigsten Zusammenhänge werden im folgenden wieder aufgegriffen und vertieft. 14.2.1.1 Leistungseinspeisung, Zweigleistung, Verluste Bei Vorgabe der Netzimpedanzen, die durch ihre Zweigadmittanzen Y„'~)oder Knotenadmittanzen Y „gegeben sind (Band 1, Abschn. 9.3.1)

flb)

-ik

für kzi

14.2 Betriebsoptimierung eines VIEVU

609

ergeben sich folgendeNetzgleichungen, welche die in den Knoten injizierten Leistungen ausdrücken (Band 1, Abschn. 9.6.1)

Für die in den Zweigen fließenden Leistungen gilt

Die Admittanz Y„(") berücksichtigt die Hälfte der Zweigqueradmittanz. Durch Einsetzen von Strom und Admittanz folgt

Für die Wirk- und Blindleistung der Netzzweige erhält man, da die Quenvirkverluste vernachlässigbar sind (G„"" = G„'")),

Die Zweig-Wirkverluste folgen aus der ersten der (14.8)

pvrk = pik

+

pki

=

3 G$) [ U: + U: - 2 U,ukcos(6,- B,)]

.

(14.9)

Statt durch Aufsummierung der Zweigverluste nach GI. (14.9) können die Gesamtverluste auch direkt aus den Einspeiseleistungen bestimmt werden (Band 1, GI. 9.94)

14.2.1.2 Verlustberechnung

Mit der sehr guten Näherung cos X = 1 - x2/2 (Winkeldifferenz immer klein) wird GI. (14.10) zu

Werden folgende Koeffizienten eingeführt

erhält man aus GI. (14.1 l), bei Berücksichtigung, dass für den Bilanzknoten 1 -> 6, =0

Der Vektor

6 hat die Dimension (

n 1) und die Matrix T ( n l)x(n- I).

Im Rahmen der Gleichstrom-Näherung (DC-power,flow) wird U , = U, = U gesetzt. Der erste Term von G1. (14.13) wird null und T = U2 G (wobei G jetzt die Dimension ( n I)x(n- I) aufweist ). Es folgt in p.u. (Bezugsgrößen Sr = 3 Ur2Y,, U = 1)

Zur Berechnung des Lastflusses wird die Näherung cos X = 1 und sin X = X verwendet, wodurch sich die Gln. (14.6) und (14.8) vereinfachen, da C b „ = 0, 6, = 0

Dies bedeutet, dass bei der Berechnung des Leistungsflusses die Verluste vernachlässigt werden. Aus der ersten der Gln. (1 4.15) folgt

worin =Vektor der freien Leistungen, b = ( n 1)x ( n 1)-Matrix und die zweite der Gln. (14.15) wird

wobei die Gleichung auch für i = 1 (Bezugsknoten) gilt mit der zusätzlichen Definition ( b ' ) „= 0. Mit den Gln. (14.14) und (14.16) lassen sich auch die Verluste in Abhängigkeit von den Knotenleistungen ausdrücken

P,= p ' h p ' ,

mit h = ( b - ' ) ' g b - ' .

(14.18)

Mit der exakten Berechnung GI. (14.10) (oder der exakteren Näherung GI. 14.13), welche den Einfluss der Spannungen und somit auch des Blindleistungsflusses auf die Verluste berücksichtigt, kann die Genauigkeit des DC-Verfahrens überprüft werden. Für den AC-Leistungsfluss s. Anhang V und Band 1 Abschn. 9.6.

14.2 Retriebsoptimierung eines VlEVU

61 1

14.2.2 Netzberechnung mit Spannungseinkopplung Mit dem Einsatz von FACTS-Geräten (Näheres in Kap. 15) wird es möglich, durch Einkoppeln einer Spannung AU„ in eine Leitung, auf den Blind- oder Wirkleistungsfluss Einfluss zu nehmen. Mit Bezug auf Abb. 14.2 gelten in p.u.

woraus U, U,

cos AB, sinA6,

Au, cosq, Ayk sinqik .

= U, + =

Bei reiner Längsregelung ist

bei reiner Querregelung hingegen

oder auch, da A6,, klein ist , Für die übertragenen Leistungen ergibt sich analog G1. (14.8), indem yk durch y„ ersetzt wird, in p.u.

Abb. 14.2. Wirkung eines UPFC-Geräts

6 12

14 Betriebsplanung

Bei reiner Querregelung (Wirkleistungsregelung) und unter den Annahmen des DCLastflusses, mit ui = U, = U„ = 1, g„(b) Min ,

(14.29)

6 14

14 Betriebsplanung

und das Leistungsverteilungsproblem nach Vorgabe von P unabhängig für die einzelnen Zeitabschnitte At gelöst werden. Die Anwendung des Lagrangeverfahrens (s. Anhang V) fuhrt somit zur Lagrangefunktion

mit h, v m a x , V,,,,,, = Lagrange'sche Multiplikatoren. Die Multiplikatoren V„, , V„„ (immer 20) sind i. 0, nur wenn eine der Begrenzungen wirksam wird. Sie treten dann an Stelle der Differentialkosten, die unbestimmt sind (Abb. 14.4). Die Optimumsbedingung für eine beliebige Ciirkleistungseinspeisung P, lautet V,,,,, allgemein (Energie E, = P, . At), gesetzt V = V„, -

Schreibt man diese getrennt für die r thermischen und dies hydraulischen Kraftwerken, erhält man

Sind alle Kostenfunktionen und Wasserverbrauchskurven sowie Wasserwerte bekannt, kann dieses System von (r + s ) Gleichungen zusammen mit der Leistungsbilanz und die wirksamen Begrenzungen in GI. (14.28) nach den ebenso vielen Unbekannten P„,, P,,, A, V aufgelöst werden. In einem Netz ohne Verluste bzw. bei Vernachlassigung der Netzverluste und ohne wirksame Begrenzungen wären die optimalen Grenzkosten aller Generatoren gleich zu h. Die optimale Leistungsverteilung folgt dann unmittelbar (d.h ohne Netzbe-

Abb. 14.4. Differentialkosten des Kraftwerks in Abhängigkeit von der 1,eistung

14.2 Betriebsovtimierun~eines VlEVU

61 5

rechnung) aus den GI. (14.32). Mit dem quadratischen Ansatz der Gln. (14.25) und (14.26) folgt z.B. für die optimalen Energien und Wassermengen

Werden aus W, die Leistungen P, der Wasserkraftwerke berechnet und in die Energiebilanz eingesetzt, folgt der Wert von h. Bei der praktischen Berechnung wird man z.B. den Wert von h zunächst vorgeben und daraus anhand der Grenzkostenkurven die Leistungen berechnen und, wenn die Leistungsbilanz nicht erfiillt ist, 3i. korrigieren bis zur Konvergenz. Bei Berucksichtigung der Netzverluste verändern sich die Grenzkosten der Kraftwerke um den Faktor (1 - dPJdP), wobei dieser Verlustfaktor (penalty factor) kleiner oder größer 1 sein kann, je nach Lage des Kraftwerks. Für die exakte Optimierung des Lastflusses ist also eine Berechnung der Netzverluste in Abhängigkeit von Wirk- und Blindleistungseinspeisungen notwendig. Mit dem DC-Leistungsfluss kann dP, IdP nach (14.18) berechnet werden. Für den Fall des AC- Leistungsflusses mit wirksamen Begrenzungen s. Anhang V. Eine okonomische Interpretation des Multiplikators ergibt sich aus folgender Überlegung. Wird ausgehend von einem optimalen Zustand die Last um AE, = At AP, geändert (um welche Last sich handelt ist gleichgültig) und ermittelt die neue optimale Leistungsverteilung, ergibt sich für die Änderung der Gesamtkosten

und durch Einsetzen der Gln. (14.32) und Berücksichtigung der Leistungsbilanz

h beschreibt somit die Marginalkosten des Gesamtverbrauchs des Netzes. 14..2.3.2 Berücksichtigung der Blindleistungen Relativ zu den Blindleistungseinspeisungen lautet die Lagrange'sche Optimalitätsbedingung zur Minimierung der Produktionskosten (Ableitung von GI. 14.30)

Die Grenzen der Blindleistungseinspeisung der Kraftwerke sind mit dem Multiplikator y berücksichtigt, derjetzt an Stelle von V tritt und nur dann verschieden von null ist, wenn Q = Q„, oder Q = Q„, . Da Wassermenge und Produktionskosten unabhängig von der Blindleistungseinspeisung sind, bleibt die Bedingung übrig

Für y = 0 (Blindleistung nicht blockiert), werden die Netzverluste minimalisiert. Mit anderen Worten, die Produktionskostenminimierungschließt eine Blindleistungsoptimierung nach dem Kriterium der minimalen Netzverluste ein. Eine Entkopplung von Wirkleistungs- und Blindleistungsoptimierung ergibt sich dann fast von selbst nach folgendem iterativen Schema, worin die Verlustberechnung mit dem AC-Leistungsfluss erfolgt.

Wirkleistungsoptimierung

Blindleistungsoptimierung

-1

y

Werden die Netzverluste mit dem DC-Verfahren berechnet, bleiben die Blindleistungsflüsse unberücksichtigt und das erzielte Optimum stellt nur eine ersteNäherung dar. Die Praxis und theoretische Berechnungen zeigen, dass diese Näherung zufrieden-stellend ist, solange die Netzblindleistungsflüsse frei fließen können, nicht aber, wenn Spannungs- oder Blindleistungsgrenzen wirksam werden. Eine zumindest f i r den Momentanbereich algorithrnisch effizientere Lösung des OPF erhält man, wenn die Netzgleichungen an Stelle der Wirkleistungsbilanz als Nebenbedingungen eingeführt werden, womit das Netzberechnungsproblem in den OPF integriert wird [14.1]. Für Näheres s. Anhang V.

14.2.3.3 Begrenzung der Leistungsflüsse der Leitungen Das Optimum wird erreicht, wenn

F ( E , ( A ~ ) )= F(&(A~)) + P ' w ( E ~ ( A ~ -) -)> Min

(14.38)

mit den Nebenbedingungen (Gleichstromlastfluss)

P,- < Pi < Pi-, Pjk< Pik- , 1 .....z

(14.39)

worin z die Anzahl Zweige darstellt. Die Lagrangefunktion lautet (Anhang V)

14.2 Betriebsoptimierung eines VlBVU

61 7

Die Multiplikatoren qIi sind nur an den Leistungsgrenzen verschieden von null. Wir nehmen an, dass dies für z, Zweige zutrifft. Die Optimalitätsbedingungen lauten dann

Die Variablen des Problems sind insgesamt (r + s + 1 + z,), nämlich: (r+s) Kraftwerksleistungen Pi oder die entsprechenden V,,wenn diese an den Grenzen arbeiten, h und z, Multiplikatoren qjk. Zur Verfbgung stehen die (r + s) Gln. (14.41), die Energiebilanz und die z, Gleichungen P„ = P„ „„. Im Rahmen der GleichstromNäherung können diese sowie die Koeffizienten dP„ /dP, aus GI. (14.17) entnommen werden. 14.2.3.4 Beispiel einer momentanen Optimierungsrechnung

Beispiel 14.2

Für das Netz der Abb. 14.5, bestehend aus 3 Knoten mit - einem thermischen Kraftwerk in Knoten 1 von 100 MW, mit Kosten gemäß GI.

(14.25) mit a , = 20 €/MWh, a,= 3.33 ct/(MWh)',

- einem hydraulischen Kraftwerk in Knoten 2, - einer Last von 150 MW in Knoten 3, - Leitungen 220 kV: Verbindung 12 = 50 km, 23

= 60 km, 13 = 20 km, R' = 0.05 Qlkm, X'= 0.3 Rlkm (Querwerte vernachlässigbar), sind die optimale Leistungsverteilung und die Marginalkosten zu bestimmen, mit und ohne Netzverlusten, wenn a) das Wasserkraftwerkein Speicherkraftwerk ist, mit einer installierten Leistungvon 100 MW und gemäß Cl. (14.26): b, = 1200 m3/MWh, b, = 1.2 m3/(MWh)2, b) das Wasserkraftwerk ein Laufkraftwerk ist, mit aktueller Leistung 80 MW, b, = 40'000 m3/MWh, b, = 20m3/(MWh)2, C) im Fall des Speicherkraftwerks, bei hohem Wassenvert, das thermische Kraftwerk an der oberen Grenze arbeitet, d) das Wasserkraftwerk ein Speicherkraftwerk ist und die Leistungsübertragung auf der Verbindung 23 auf 50 MW begrenzt wird. Der Wasserwert p sei aus der übergeordneten Optimierung bekannt. Man verwende den DC Lastfluss.

Abb. 14.5. Netz von Beispiel 14.2

6 18

14 Betriebsplanung

a) Die Optimalitätsbeziehungen lauten bei Vernachlässigung der Netzverluste und falls keines der Kraftwerke an den Leistungsgrenzen arbeitet (also ohne wirksame Begrenzungen)

woraus sich die Lösung ergibt

Aus obigen Zahlenwerten erhält man eine Lösung ohne wirksame Begrenzungen nur für Wasserwerte zwischen ph= 1.62 und 2.02 ctlm3; z.B. f i r ph= 1.87 ct/m3 folgt die optimale Lösung

Bei Berücksichtigung der Netzverluste und durch Einführung der Verlustfaktoren (penalty factors) a = (1 dP,ldP) lauten die Optimalitätsbedingungen -

mit der Lösung Eth

bl P,--< ah -

a1

+

b2 (EL+ P vAt) 2 ph ah

die mit der Berechnung der Verluste und Verlustfaktoren iteriert werden kann (angefangen mit a„ = ah= 1 , P, = 0). Diese lassen sich mit den Annahmen des DC-Lastflusses aus den Gln. (14.18) folgendermaßen berechnen

14.2 Betriebsoptimierung eines VlEVU

Man erhält (wenn 6, = 0 angenommen wird,

=

A = Grenzkosten im Lastknoten)

ah = 0.994 a , = 0.996 , 0.390 M W , - - > E, = 82.9 MWh , Eh = 67.5 MWh 25.63 €lMWh, h, = 25.52 €IMWh, hh = 25.47 €lMWh . Pv

A.

619

=

Aus der Grenzkostendifferenz zwischen abgegebener und aufgenommener Energie ergibt sich ein Netzertrag (AP, - L,,, P„ - A, P,,)von 10 £Ai, welcher genau dem Verlustwert entspricht. b) Ist das Wasserkraftwerk ein Laufivasserkraftwerk mit vorgegebener Leistung, tritt v#O an Stelle der undefinierten Marginalkosten und die Optimumsbeziehungen lauten ohne Netzverluste

mit der Lösung Eth

V =

= EL h =

-

EhO

al

+

2a2 E , .

V stellt den Marginalwert der Energie des Laufkraftwerks dar. Numerisch lautet die Lösung

Eho = 80 MW ,

E,

=

70 MW ,

V =

h

=

24.7 €lMWh .

Werden die Netzverluste berücksichtigt, lauten die Optimumsbedingungen

mit der Lösung

h

=

1

- (U,

+

2a2 E,)

'th

die durch Iteration mit den Verlustbeziehungen (14.42) Leistungen und Multiplikatoren (Grenzkosten) liefert. Numerisch folgt:

h

=

P„ = 80 M W , P , 7 0 . 4 M W , Pv = 0.419MW 24.8 €IMWh , h , = 24.7€/MWh , V = 24.6 €IMWh .

620

14 Betriebsplanung

Der sich aus den Grenzkosten ergebende Netzertrag von 10.4 £/h entspricht wiederum genau dem Wert der Netzverluste. C) Erreicht die Leistung des thermischen Kraftwerks ihre Grenzen, kann dieses wie ein Laufkraftwerk behandelt werden. Dies trifft dann zu, wenn der Wassenvert p, des Speicherkraftwerks hoch ist (mit obigen Zahlen z.B. 0.027 £/mi). Die Optimumsbeziehungen werden im verlustlosen Fall

mit den Lösungen

Numerisch erhält man P,=lOOMw,

P,

=

50MW,

V =

h

=

35.6elMWh.

Bei Berücksichtigung der Netzverluste folgt

mit den Lösungen

und numerisch folgt

h

=

Ph = 50.4 MW P,, = 0.366 M , PIh = 100 M W , 35.8 €IMWh , h , = 35.7 €IMWh , k., = 35.7 €IMWh

Der Netzertrag von 13.1 £/h entspricht exakt dem Wert der Netzverluste. d) Die Optimumsbedingungen ohne Berücksichtigung der Netzverluste lauten bei Leistungsbeschränkung auf der Verbindung 23

14.2 Betriebsoptimierung eines VlEVU

621

Gleichungen, die nach den Unbekannten E „ , E,, , 3i. und q aufgelöst werden können. Die Zweigleistungen folgen aus den Beziehungen (1 5.17) (für 6, =0) zu

Für den Wasserwert P, = 1.63 ctlm' erhält man z.B. ohne Netzverluste und Beschränkungen die optimale Lösung

Wird die Leistung auf der Verbindung 23 auf 50 MW beschränkt, folgt aus obigen Beziehungen (immer ohne Verluste)

Als Folge der Beschränkung ergibt sich eine Erhöhung und empfindliche räumliche Differenzierung der Grenzkosten. Das Wasserkraftwerk wird wesentlich stärker betroffen als das thermische Kraftwerk (da näher an den Engpass), weshalb der Wert seiner Energie relativ sinkt. Das thermische Kraftwerkprofitiert hingegen von der Beschränkung, und das Netz erhält entsprechend der Grenzkostendifferenzierung einen Betrag von 389 €lh, die als Engpasskosten bezeichnet werden und als Fonds-Beitrag zur Behebung des Engpasses zu verstehen sind. Bei Berücksichtigung der Netzverluste erhält man

a,

ap23

+ 2a2 E, - h a , + q - = 0

apth

E*,, + Eh '23

=

EL

+

= '23max

P,, At

.

Diese Gleichungen sind mit den Gln. (14.42) fur Verluste und Verlustfaktoren sowie mit den Beziehungen (14.43) zu iterieren. Numerisch folgt

P, = 80.6 M W , P, = 69.8 M W , PV = 0.394 M W , P„ = 50 MW h = 2 6 . 7 € I M W h , h , = 25.4€lMWh, h, =22.3€IMWh q = 7.8 €IMWh , dP231dlPth = 0.154 , dP„ldlPh = 0.539 .

Der Netzertrag ist 402.6 eh, wovon 392.1 €/h Engpasskosten sind und 10.5 £/h zur Deckung der Verluste benötigt werden. Von den Engpasskosten von 392.1 £/h können 294.9 Wh dem Wasserkraftwerk und 97.2 €/h dem thermischen Kraftwerk zugeordnet werden. Solange sie nicht zur Behebung des Engpasses verwendet werden, können entsprechende finanzielle Anrechte abgeleitet werden.

14.2.4 Optimale Speicherbewirtschaftung

Die einem Speicher während der Periode T zufließende Wassermenge soll unter Ausnutzung der Speicherkapazität so auf die einzelnen Abschnitte At der Periode aufgeteilt werden, dass die Produktionskosten im Netz minimal werden. Das Problem lautet > Min

mit den Nebenbedingungen

worin W(At) das verarbeitete Wasser im Zeitabschnitt At darstellt, Z(At) das zufließende Wasser im selben Zeitabschnitt (aus einer Prognose bekannt) und Sound S, die Speicherinhalte zu Beginn und am Ende der Periode T. W, ist danach die insgesamt für die Periode T verfügbare Wassermenge. Als zusätzliche Bedingung gilt weiterhin die Wirkleistungsbilanz G1. (14.28). Wird das Lagrange-Verfahren auf die Gln. (1 4.44), (14.35) sowie ( 14.28) angewandt, ergibt sich die mit GI. (14.30) übereinstimmende Formulierung von GI. (14.46), worin P die Bedeutung eines Lagrange'schen Multiplikators annimmt. Das Problem wird somit auf das bereits behandelte der optimalen Leistungsverteilung zurückgeführt. Das spezifische Problem der Speicherbewirtschaftung liegt in der Bestimmung des Multiplikators P.

ee = F(Z,(A~)) + P'.( W ( E ~ ( A ~ ) )W,) -

- A A ~ ( C P , - P ~ - P) , -, v

(14.46) ~ A ~ ( P ~ ~ - P , ) + v ~ A ~ ( P ~ - P , ~ ) ,

Ein mögliches Lösungsverfahren wird prinzipiell von Bild 14.6 veranschaulicht [14.5]. P kann zunächst vorgegeben werden, wonach eine erste Leistungsverteilung entsprechend Abschn. 14.2.3, z.B. ohne Berücksichtigung der Netzverluste, vorgenommen wird. Aus den Leistungen ph der hydraulischen Kraftwerke wird die Wassermenge W auf Grund der Wasserverbrauchskurve berechnet. Die Summe über die Periode T wird einen Wasserverbrauch ergeben, der vom vorgeschriebenen abweicht. Auf Grund dieser Abweichung wird der Wasserwert um AP korrigiert und eine neue Leistungsverteilung vorgenommen usw. Wird nämlich zu viel Wasser verbraucht, so heißt dies, dass der Wasserwert zu niedrig angesetzt wurde, wird umgekehrt zu wenig Wasser verbraucht, ist dieses zu teuer gewesen.

14.2 Betriebsoptimierung eines VIEVU

623

Abb. 14.6. Optimale Speicherbewirtschafiung,

RA = Regelalgorithmus, LV = Lastverteilungsprogramm

Bei der Programmierung wird es von Vorteil sein, Leistungsverteilung und Speicherbewirtschaftung nicht nacheinander, sondern parallel durchzuführen. Dies ist möglich, da die Kontrolle der Nebenbedingungen (14.45) keinen optimalen, sondern lediglich einen zulässigen Betriebspunkt fordert. Nach jedem Schritt des Leistungsverteilungsprogrammes, der sequentiell alle Unterabschnitte At umfasst, kann also die Korrektur der Leistungen der hydraulischen Kraftwerke der Nebenbedingung (1 4.45) untergeordnet, und über den Regelalgorithmus RA der neue Wert von gebildet werden. Eine Lösung, die das Maximum-Prinzip anwendet, ist z.B. in [14.6] gegeben. Ein weiteres Problem entsteht durch die Berücksichtigung der Grenzen des Speicherinhaltes. Der effektive Speicherinhalt S kann laufend aus Wasserzufluss Z und Wasserverbrauch W gebildet werden. Es sei nun angenommen, wie von Abb. 14.7veranschaulicht, dass in t' die Speicherinhaltsgrenzeerreicht wird. Ab sofort wird

Abb. 14.7. Speicherinhalt in Funktion der Zeit und Speicherinhaltsgrenzen

der Wasserverbrauch gleich dem Wasserzufluss gesetzt, die Leistung also in Abhängigkeit des Wasserzuflusses begrenzt. In tuändert das Vorzeichen der vom Leistungsverteilungsprogramm verlangten Korrektur AP,, , und die Begrenzung wird unwirksam.. Als Variante sei folgendes Vorgehen beschrieben. Bei jedem Leistungsverteilungsschritt, der wie gesagt sequentiell die Berechnung aller Unterabschnitte At umfasst, werden t' und t" bestimmt, wobei von t' - t" das Speicherkraftwerk wie ein Laufkraftwerk behandelt wird. Die Zeitabschnitte 0-t' und tW-Twerden nun im Speicherbewirtschaftungsprogramm getrennt optimiert, indem nicht mehr dieNebenbedingung (1 4.45), sondern folgende Nebenbedingungen erfüllt werden:

14.2. 5 Einsatzplan der thermischen Gruppen

Die Wirkleistung der Wasserkraftwerke kann i.d.R. kontinuierlich bis null geregelt werden. In den thermischen Kraftwerken hingegen darf eine gewisse Mindestleistung (technisches Minimum) nicht unterschritten werden, oder die Gruppen sind abzustellen. Dieses Minimum kann f i r ein gutes Funktionieren des Kessels bei Dampfanlagen oder der Feuerung bei Gasturbinen sowie der Hilfsbetriebe Ca. 10-30 % der Nennleistung betragen. Für den Entscheid „mit Minimalleistung fahren" oder „abstellen" spielen wirtschaftliche und sicherheitstechnische Aspekte eine Rolle. Betrachten wir zunächst die wirtschaftliche Seite des Problems. Wird eine Gruppe, die nach einem Wochenprogramm in einem bestimmten Zeitintervall r mit Minimalleistung zu fahren hätte, abgestellt, muss eine entsprechende „Ersatzleistung" von anderen Gruppen geliefert werden. Auf der einen Seite werden also die Betriebskosten der betrachteten Gruppe, die sich aus einem festen (Leerlauf-) Anteil und einem energieabhängigen Teil zusammensetzen, während der Zeit t eingespart. Diese Einsparung muss allerdings um die Wiederanfahrkosten der Gruppe, die von der Stillstandsdauer t abhängig sind, gekürzt werden. Aufder anderen Seite müssen für die Ersatzleistung, die auf die übrigen Gruppen des Netzes optimal verteilt werden kann, Zusatz-Produktionskosten bezahlt werden. Die Abschaltung der Gruppe wird offensichtlich nur dann Vorteile bringen, wenn diese Kosten der Ersatzleistung die Einsparungen nicht aufwiegen. Rein intuitiv leuchtet ein, dass die Chancen für die Wirtschaftlichkeit der Abschaltung zunehmen, je länger die Stillstandsdauer t ist, da die Anfahrkosten an Gewicht verlieren. Für jede thermische Gruppe kann bei minimaler Leistung eine kritische Stillstandsdauer ermittelt werden, in Abhängigkeit von den mittleren Kosten der Ersatzleistung F,,,. Das entsprechende Diagramm zeigt Abb. 14.8

14.2 Betriebsoptimierung eines VlEVU

625

Stillstand Betrieb

Abb. 14.8. Kritische Stilstandsdauer z einer thermischen Gruppe in Abhängigkeit von den mittleren Kosten der Ersatzleistung

Eine angenäherte Lösung ergibt sich leicht aus obigen Überlegungen. Zunächst wird eine Leistungsverteilung unter Vernachlässigung der unteren Leistungsgrenzen der thermischen Gruppen durchgeführt. Für alle Gruppen werden sukzessive die Zeitintervalle bestimmt, für welche die Leistung den Minimalwert unterschreitet, und geprüft, mit Hilfe von Diagramm Abb. 14.8 ob Abstellen oder Fahren mit Minimalleistung wirtschaftlicher ist. Die Kosten der Ersatzleistung sind leicht zu bestimmen, da die Differentialkosten in allen Netzknotenpunkten bekannt sind. Die optimale Verteilung der Ersatzleistung auf die Gruppen des Netzes kann durch ein vereinfachtes Leistungsverteilungsverfahren(s. z.B. den Abschnitt momentane Optimierung) erzielt werden. Die Abschaltung der Minimalleistung einer Gruppe entspricht nämlich durchaus f i r die anderen Gruppen einer kleinen Lastzuschaltung. Eine strenge Lösung des Problems zeigt das Blockdiagramm von Abb. 14.9. Eine diskrete Steuervariable Y,die nur die Werte 0 und 1 annehmen kann, wird eingeführt. Falls Y = 0, ist die thermische Gruppe im Zeitabschnitt t abgeschaltet, falls E' =I, ist sie hingegen in Betrieb. Aus der Leistung P„ werden die variablen Kosten F(P„') ermittelt und zu diesen die Leerlaufkosten b addiert. Die Summe über alle t seit Einschaltung der Gruppe wird nun gebildet. Die Addition wird gestoppt, sobald null wird. Zu den totalen Betriebskosten der Gruppe während der Periode T werden die Anfahrkosten a(t) addiert. Diese sind eine Funktion der Stillstandsdauer T, die sich aus der Summation der Zeitabschnitte t seit der letzen Abschaltung, solange 5' = 0, ergibt. Als Resultat folgen die Kosten der thermischen Gruppe für die Periode T, die es zu minimieren gilt

~,(5',J',h)

-->

Min .

th

Das Optimierungsproblem kann mit den Verfahren der nichtlinearen ganzzahligen Programmierung gelöst werden (z.B. branch and bound Methode [14.8]). Diese fuhrt schell zum Ziel, wenn bereits eine gute, wenn auch nicht optimale Lösung des Problems bekannt ist.

626

14 Betriebsplanung

Min

Abb. 14.9. Betriebskosten einer thermischen Gruppe

Der sicherheitstechnische Aspekt betrifft die Forderung nach einer genügenden rotierenden Reserve (Abschn. 1 1.2.1 und Anhang V), sofern diese nicht allein durch die Speicherkraftwerke gedeckt werden kann. Diese sollte bei Ausfall irgendeines Kraftwerks im Netz den Leistungsbedarf noch decken, ohne dass die Übertragungsleitungen zu stark beansprucht werden (Regionalisierung der Reserve). Die entsprechenden Nebenbedingungen können im Programmierungsproblem berücksichtigt werden. Ein weiteres Problem, das im Rahmen des Einsatzplanes der thermischen Gruppen zu lösen ist, betrifft die Frage der Speicherung des Brennstoffs. Dieser verursacht Einkaufskosten, die zeitlich und örtlich variieren. Die Minimierung dieser Ausgaben bei Berücksichtigung der Speichergrenzen führt zu weiteren Bedingungen, welche zu einer Korrektur der Leistungsverteilung thermischer Kraftwerke führt [I 4.161. Das Problem kann auch als Teilproblem einer dynamischen Leistungsverteilung thermischer Kraftwerke betrachtet werden, welche die Optimierung bei variabler Last und unter Berücksichtigung der Änderungsgeschwindigkeit der thermischen Größen und deren Grenzen sucht [ 14.171. 14.2.6 Die langfristige Optimierung

Als langfristige Optimierung wird normalerweise die Minimierung der Betriebskosten über ein Jahr bezeichnet. Als OptimierungsunterabschnitteAT werden zweckmäßigerweise der Monat oder noch besser die Woche gewählt. In einem hydrothermischen Verbund mit vorwiegend hydraulischer Produktion wird das Hauptproblem die Verteilung der zur Verfügung stehenden (prognostizierten) Wassermenge auf die einzelnen Abschnitte AT sein; bei vorwiegend thermischer Produktion stehen die Probleme des Einsatzes der thermischen Gruppen, die mit den Wartungs- und Reparaturplänen kompatibel sind, im Vordergrund. Weitere Randbedingungen, wie Stromlieferungsverträge mit anderen Netzen und zeitabhängige Primärenergiebezugsverträge, können ebenfalls in die Optimierung einbezogen werden. Eine erste grobe Rechnung kann folgendermaßen durchgeführt werden. Die prognostizierten Belastungskurven des Netzes werden so diskretisiert, dass die Dauer der Treppenstufen gleich AT ist. Es wird also z.B. mit mittleren wöchentlichen

14.2 Betriebsoptimierung eines VIEVU

627

Leistungen gerechnet. Wasserkraftwerke mit Tages- oder Wochenspeicherungwerden dann wie Laufkraftwerke behandelt, d.h. die Leistung wird entsprechend dem prognostizierten mittleren wöchentlichen Wasserdargebot festgelegt. Die Leistungsverteilung wird ohne Berücksichtigung der Netzverluste vorgenommen, wodurch keine Iterationen notwendig sind (s. Beispiel 14.2). Das Speicherbewirtschaftungsprogramm liefert die Bewertung des Saisonspeicherwassers und dessen Verteilung WAT auf die Unterabschnitte. Um die Ergebnisse zu verbessern, kann die prognostizierte Belastung der UnterabschnitteAT durch eine Dauerlinie statt durch die mittlere Leistung gegeben werden. Diese Dauerlinie wird ihrerseits durch Treppenstufen ersetzt. Die effektiven Leistungsverhältnisse sind nun wesentlich besser dargestellt. Ausgehend von den bereits berechneten zur VerfUgung stehenden Wassermengen der Saisonspeicher,kann eine genauere Leistungsverteilung für die Unterabschnitte AT vorgenommen werden. Da die von der Dauerlinie erfassten Leistungsschwankungen in erster Linie Tagesschwankungen sind, müssen Nebenbedingungen auch für die Wasserkraftwerke mit Wochenspeichern und Tagesspeichern berücksichtigt werden. Diese Berechnung wird für verschiedene Werte von W„ durchgeführt und ermittelt so für jeden Unterabschnitt die optimalen Differentialkosten dF/dW„ in Abhängigkeit von W„ (Abb. 14.10). Diese Differentialkosten stellennichts anderes als den Bewertungsfaktor des Saisonspeicherwassers dar, der für alle Unterabschnitte denselben Wert haben muss. Aus der letzten Forderung lassen sich die Wassermengen so bestimmen, dass E W„ =W,. Ziel der Jahresoptimierungist, wie schon erwähnt, einerseits die optimale Bewirtschaftung der Saisonspeicher,andererseits die Erstellung von groben Fahrplänen für die thermischen Maschinen. Das Wasserdargebot, aber auch die Netzbelastung können in einer Jahresvorschau als Erwartungswerte dargestelltwerden. Ebenso kann das Ausfallverhalten thermischer Blöcke bei Berücksichtigung der Primärenergiebemgsverträge eine stochastischeAnalyse erfordern. Stochastische Verfahren treten in den letzten Jahren immer stärker in den Vordergrund ([14.19], s. auch Abb. 14.1 1). Die einfache Methode, die Resultate dadurch zu verbessern, dass die deterministische Jahresoptimierung in regelmäßigen Abständen (z.B. alle Monate oder alle 14 Tage) auf Grund der neuesten Daten und Prognosen wiederholt wird, verbessert zwar die Qualität der Planung für den verbleibenden Planungszeitraum holt aber verpasste Chancen nicht zurück..

Abb. 14.10. Wert p des Wassers in Funktion von der verfügbaren Wassermenge W „für die Unterabschnitte Ati, Bedingung Ei W = W,

„,

628

14 ßetriebsplanung

14.2.7 Die mittelfristige Optimierung Nachdem die Verfügbarkeit der thermischen Maschinen, die wöchentlichen Fremdstromverpflichtungen und die wöchentlich zur Verfügung stehenden Wassermengen der Saisonspeicher festgelegt worden sind, kann eine feinere Optimierung der bevorstehenden Woche vorgenommen werden. Damit wird bezweckt a) die optimale Bewirtschaftung des zur Verfügung stehenden Wassers, b) die Festlegung der Einsatzpläne der thermischen Gruppen. Zu Punkt a) sei erwähnt, dass e r die Wochen- und Tagesspeicher die Berücksichtigung der Speicherinhaltsgrenzen wichtig ist. Hauptziel der Speicherbewirtschaftung ist, die für die einzelnen Tage der Woche zur Verfügung stehenden optimalen Wassermengen festzulegen. Punkt b) kann nach den in Abschn. 14.2.5 dargelegten Verfahren behandelt werden. Die Treppenstufen der Belastungsdiagramme werden eine oder mehrere Stunden umfassen. Eine feinere Unterteilung kann wird im Rahmen der Kurzzeitoptimierung vorgenommen. Die Netzverluste werden normalerweise erfasst, jedoch ohne Blindleistungsoptimierung, d.h. mit DC-Lastfluss. Die Detailprognose des Wasserdargebots und der Einsatz thermischer Gruppen kann auch mittelfristig noch unsicher sein. Dies hat zur Folge, dass dann auch die Wochenoptimierung, je nach Fall und Situation, entweder stochastisch oder mehrmals pro Woche auf Grund der neuesten Daten wiederholt wird, um möglichst sichere Eingabedaten für die 'l'agesoptimierung zu erhalten.

14.2.8 Die Kurzzeit-Optimierung Die Kurzzeit-Optimierung erstreckt sich normalerweise über 24 h. Das BetriebsProgramm wird für den folgenden Tag festgelegt, wobei die voraussichtliche Last so auf die einzelnen Kraftwerke verteilt wird, dass die Produktionskosten minimal werden und in den Wasserkraftwerken eine vorgegebene Wassermenge verbraucht wird. Eventuell sind die Einsatzpläne der thermischen Gruppen zu verbessern, vor allem dann, wenn die Unterabschnitte der mittelfristigen Optimierung mehrere Stunden umfassen. Die für den folgenden Tag vorausgesagten Belastungen in den einzelnen Netzknotenpunkten sind in Form eines treppenformigen Diagrammes gegeben, mit Treppenstufen von I h oder 112 h. Im Unterschied zur mittelfristigen Optimierung ist es hier von Vorteil, eine genaue Netzberechnung durchzuführen bei Berücksichtigung der optimalen Blindleistungsverteilung. Die Blindleistungen haben Einfluss auf die Betriebskosten über die Wirkverluste im Netz und sind deshalb in die Optimierung einzubeziehen, vor allem wenn ihre Grenzen oder Spannungsbegrenzungen wirksam werden. Die untere Blindleistungsgrenze ist z.B. verschieden fiir Schenkelpolmaschinen und Turbogeneratoren. Es lässt sich ferner zeigen, dass die Trennung in Blind- und Wirkleistungsoptimierung streng richtig ist, solange keine Begrenzung der Spannungsbeträge undloder der übertragenen Leistungen vorliegt. Werden diese Begrenzungen wirksam, ist die Aufteilung nicht mehr vollkommen zulässig. Der optimale Betriebspunkt wird jedoch mit guter Näherung erreicht, und der geringere Rechenaufwand kann trotzdem dieses Vorgehen rechtfertigen.

14.2 Betriebsoptimierung eines VIEVU

629

14.2.9 Momentane Optimierung Die wirkliche Netzbelastung wird weder momentan noch im Mittel der Zeitabschnitte At exakt mit den Voraussagen für die Tagesoptimierung übereinstimmen. Der Leistungssollwert für die Frequenzleistungsregelung (Abschn. 1 1.3) kann also nicht direkt dem Kurzzeitoptimierungsprogramm entnommen werden. Dessen Resultat muss korrigiert werden entsprechend der momentanen Situation. Werden nur einige Kraftwerke für diese Aufgabe beigezogen, riskiert man vom wirtschaftlichen Optimum abzuweichen. Die beste Lösung ist die on-line-Leistungskorrektur mit Hilfe eines momentanen Optimierungsprogramms. Im folgenden werden einige Verfahren dazu beschrieben. Die Wirkverluste werden nach einem ersten Verfahren näherungsweise als quadratische Funktion der Wirkleistungen ausgedrückt (DC-Lastfluss). Die Wirkleistungsoptimierung lässt sich dann mit einem Verfahren der nichtlinearen Programmierung (NLP) lösen (Anhang V, [14. I]). Die Blindleistungsoptimierung kann getrennt, als Wirkverlustminimierung, ebenfalls mit der NLP gelöst werden. Eine weitere klassische Methode ist die Minimierung der Lagrangefunktion, die auf die Gln. (14.27) und (14.28) anzuwenden ist (s. Anhang V). Die differentiellen Wirkverluste werden exakt mit Hilfe der Funktionalmatrix des Netzes ermittelt und erlauben die Berechnung des Gradienten der Lagrangefunktion im Betriebspunkt. Mit einer Gradientenmethode können daraufhin die Leistungen korrigiert werden, bis das Optimum erreicht ist. Praktisch gleichwertig mit letztem Verfahren ist es, die Netzgleichungen (14.4) an Stelle der Wirkleistungsbilanz (14.28) als Nebenbedingungen einzuführen. Der Gradient der Lagrangefunktion ergibt sich dann direkt mit Hilfe der Funktionalmatrix des Netzes. Ohne wesentlich am Verfahren zu ändern, lassen sich mit Hilfe des Karush-KuhnTucker Theorems ([14. I], Anhang V) auch Leistungs- und andere Begrenzungen einführen.

14.2.10 Tarifierung Das VIEVU hat zwar Interesse, seine Betriebskosten zu minimieren und eine Lastverteilung nach den Grenzkosten vorzunehmen, die Tarifierung ist jedoch von den Grenzkosten entkoppelt. Die Tarife werden auf Grund der gesamten Kapital- und Betriebskosten so festgelegt, dass die Durchschnittskosten gedeckt sind und ein angemessener Gewinn erwirtschaftet wird. Wegen der Monopolstellung fehlt der Kosten- und somit Rationalisierungsdruck.

630

14 Betriebsplanung

14.3 Betriebsoptimierung bei Wettbewerb 14.3.1 Mathematische Grundlagen Im vertikal integrierten System ohne Kapazitätsbeschränkungen wird bei Vernachlässigung der Netzverluste das Kostenoptimum dann erreicht, wenn alle Generatoren die gleichen Grenzkosten A. aufweisen (Abschn. 14.2). Bei Berücksichtigung der Netzverluste trifft dies nicht mehr exakt zu. Bei Kapazitätsbeschränkungen tritt eine räumliche Differenzierung der Grenzkosten auf. In diesem Abschnitt werden die Optimierungsbedingungen fur ein dem Wettbewerb unterstelltes System ohne und mit Kapazitätsbeschränkungen besprochen. Wir setzen eine radikale Liberalisierung und einen idealen Wettbewerb voraus (s. dazu Abschn. 3.5). Einzelne Kraftwerke oder Kraftwerksgruppen werden als unabhängige Produzenten betrachtet, die in Konkurrenz zueinander eine Gewinnmaximierung anstreben. Die Verbraucher haben die Möglichkeit, ihre Energie bei einem beliebigen Produzenten durch bilaterale Verträge oder an der Strombörse zu kaufen. Das Netz stellt eine neutrale Instanz dar, die verpflichtet ist, die vertraglich vereinbarten oder an der Strombörse gehandelten Energieflüsse im Rahmen des technisch Möglichen unter Wahrung der Netzsicherheit optimal zu übertragen. Kontrovers ist, ob der Netzbetreiber auch als Marktoperator agieren soll, mit dem Ziel kurzfristig den größtmöglichen volkswirtschaftlichen Nutzen des Gesamtsystems zu erzielen, oder ob er sich auf die vorerwähnten Aufgaben zu beschränken hat. 14.3.1.1 Verlustloses Netz ohne Kapazitätsbeschränkungen

Die mittlere Leistung des Produzenten j in1 Zeitabschnitt At sei P,, die Energie somit E, = P, At, seine Produktionskosten K, (E, ) und der Marktpreis am betreffenden Knotenpunkt m, [£IMWh]. Zur Profitmaximierung des Produzenten im Zeitabschnitt At muss gelten

Der Verbraucher k bezieht im selben Zeitabschnitt At die mittlere Leistung P, zum Preis m,, wobei sein Nutzen (Nachfrage) durch die Funktion N, (E,) darstellbar ist. Konkret kann dieser Nutzen die Form eines Leistungs-Preisangebots annehmen. Die Nutzenmaximierung ist erreicht, wenn

Bei der Maximierung wurde angenommen, dass die lokalen Marktpreise nicht von der jeweils gelieferten oder erhaltenen Menge abhängen (keine Marktmacht). Aus volkswirtschaftlicher Sicht ist, mit der Annahme das Netz weise keine Verluste auf und verursache keine variablen Kosten, die Nutzenmaximierung dann erreicht, wenn

14.3 Betriebso~timierungbei Wettbewerb

63 1

mit der Nebenbedingung für die Energie

At

(CP, - C P k )

=

0

.

k

J

Die Lagrange-Funktion ist

n=

CN,(E,) -X~E,) +

k

J

~t (

EP, J

-

Epk) k

- -

, (14.53)

und führt zu den Optimalitätsbedingungen

Wegen Gln. (14.49) und (14.50) ist also für alle k und j

mI = m k = A . .

(14.55) Der Multiplikator 3L stellt den Marktpreis der Energie dar (System Marginal Price). Er ergibt sich als Schnittpunkt der Gesamtnutzenfunktion mit der Gesamtkostenfunktion entsprechend der mikroökonomischen Theorie des Abschn. 14.1 (Abb. 14.1). Die Bedingung (14.55) drückt aus, dass das Optimum dann erreicht ist, wenn alle Marginalkosten gleich sind. Das Resultat ist soweit analog zu jenem des vertikal integrierten Systems. Im vertikal integrierten System sind alle Betriebskosten bekannt, und der Marginalpreis kann problemlos zentral berechnet werden. Dies trifft bei Wettbewerbsbedingungen nicht mehr zu, da verschiedene Akteure mitwirken, und aus praktischer Sicht stellt sich die Frage, wie ein solches System funktionieren kann. In der liberalisierten Struktur könnte das Optimum mit folgendem Vorgehen erreicht werden (Fall des obligatorischen Pools, s. Abschn. 3.5), in der Annahme es herrschten ideale Marktverhältnisse, d.h., dass weder die einzelnen Produzenten noch die einzelnen Verbraucher hätten die Möglichkeit das Marktgeschehen zu beeinflussen, s. dazu [14.3], [14.14], [14.18]. Die Erzeuger offerieren für ihre Kraftwerke Marginalpreis-Leistungskurven (Preis zunehmend mit der Leistung), welche z.B. im Rahmen der Kurzzeitoptimierung, die Abschnitte At des folgenden Tages betreffen (z.B. Stunden oder Halbstunden). Diese Kurven sollten die Kostenstruktur der Erzeuger widerspiegeln. Strategisches Verhalten ist bei idealen Marktverhältnissen nicht lohnend. Die Verbraucher teilen dem Marktoperator die erwartete Belastung mit. Gewisse Bedingungen können an den Preis gestellt werden, z.B., dass wenn dieser eine gegebcnc Grcnze überschreitet die Menge reduziert wird, oder umgekehrt, dass diese erhöht wird, wenn der Preis unter eine bestimmte Grenze fallt (Leistung abnehmend mit dem Preis), was der Angabe einer Nachfragekurve geringer Elastizität entspricht. Aus Angebot- und Nachfragekurven berechnet der Marktoperator den Marktpreis (Spot-Preis = Schnittpunkt) und teilt diesen den Marktakteuren mit. Die Erzeuger planen eine entsprechende (optimale) Leistungsverteilung für den folgenden Tag ein. Die Kraftwerke werden somit entsprechend ihrem „merit order" zugeschaltet.

14 Betriebsplanung

632

Ähnliche Überlegungen können für die momentane Optimierung, welche fur die tertiäre Netzsteuerung verwendet wird, angestellt werden. Lang- und mittelfristige Optimierung betreffen vorwiegend die Erzeuger und können von diesen im wesentlichen nach den in Abschn. 14.2 dargelegten Methoden nahezu unabhängig erfolgen (s. dazu auch Abschn. 14.3.3). 14.3.1.2 Berücksichtigung von Netzverlusten, Netzkosten und Generator-Leistungsbegrenzungen

Werden die Netzverluste P, und die Netzkosten R sowie die Begrenzungen der Krafiwerksleistungen berücksichtigt, treten an Stelle der Gln. (14.5 1 )und (14.52) die Beziehungen

PJ -

.

< P, < P,,

,

mit der Lagrange-Funktion =

Ck N ~ ( EJ ~ ) - ~ K , ( E+, L) -~tR( (CJ E P , -, C, E P , -~P ), , k

-

vlmaxAt (P,,

-

P,)

-

vjminAt (P, - P,-)

,-

-->

)

Mm. ,

(14.57)

die bei Berücksichtigung der Gln. (14.49) und (14.50) zu den Optimalitätsbedingungen fuhrt

worin mit a, bzw. ab wiederum die Verlustfaktoren (penalty factors) bezeichnet wurden und V, = V, „, V, „„. Bei wirksamer Leistungsbegrenzung wird m, durch V, ersetzt. Man erhält: -

Die Differenz der Marginalkosten zwischen Verbraucher und Erzeuger stellen entsprechend der mikroökonomischen Theorie die durch Verluste und andere Netzfaktoren (z. B. energieabhängiger Unterhalt) oder Begrenzung der Generatorleistung entstehenden Netz-Grenzkosten dar. Zur Netzfinanzierung reichen sie nur dann, wenn die vom Netz transportierte Energie mindestens die minimale effiziente Größe erreicht (für welche die Grenzkosten die mittleren Kosten gerade noch decken, Abb. 14.1). Netzkosten sind aber weitgehend Festkosten (dRldE -O), womit die minimale

14.3 Betriebsovtimierun~bei Wettbewerb

633

effiziente Größe extrem groß wird (in Beispiel 14.1 wird z.B. für a, + 0, Q, 4CO). Die kurzfristige Marginalkostenbetrachtung erweist sich so als ungeeignet zur Deckung der mittleren Netzkosten. Sie widerspiegelt die Tatsache, dass es sich beim Netz um ein natürliches Monopol handelt. Die Netzgebühren sind somit nach den effektiven Kosten evtl. durch vergleichende Betrachtungen (Benchmarking) durch die Regulierbehörde festzulegen. 14.3.1.3 Optimalitätsbedingungen bei Engpässen

Für ein Netz mit Beschränkungen der Leitungsflüsse tritt an Stelle der GI. (14.56) folgende Formulierung des Optimums

CNk(Ek) - C q E J ) - R(EJ>Ek) - - > fi

(EP, C P,

Mm

I

At

-

J

P,-

-

P")

' PI. 5 PJ=. Pm

< Pm0 '

=

0 (14.60)

k

'

worin P„ die Leistung einer beliebigen Leitungsverbindung darstellt. Es folgt dann die Lagrange-Funktion

die zu den Optimalitätsbedingungen fuhrt

qABist nur bei wirksamer Beschränkung verschieden von 0. Zur Berechnung der Ableitungen der Leitungsflüsse mit den Annahmen des DC-Lastflusses liefern die Gln. (14.17)

634

14 Betriebsplanung

Ein Engpass führt zu einer räumlichen Differenzierung der Grenzkosten und damit zu einer erheblichen Erhöhung des für die Vergütung des Netzes zu Verfügung stehenden Betrags. Diese Engpasskosten können als Fonds betrachtet werden für die Behebung des Engpasses. Sie können ökonomisch korrekt anteilmäßig den einzelnen Kraftwerken zugeordnet werden, wie in Beispiel 14.2 (Abschn. 14.2) gezeigt wurde. Die Marginalkosten ermöglichen so eine ökonomisch sinnvolle Allokation der Netzkapazitäten bzw. sorgen für die für Netzerweiterungen notwendigen Anreize.

14.3.2 Pool-Lösung und ausgehandelter Netzzugang Die oben dargelegte mathematische Optimierung mit Verrechnung zu Grenzkosten liefert ein volkswirtschaftlich korrektes Resultat für das Liberalisierungsmodell mit obligatorischem Pool (Abschn. 3.5). Betont sei nochmals (s. auch Abschn. 3.5.3.2), dass dies allerdings nur dann zutrifft, wenn echte Konkurrenz auf der Erzeugerseite besteht, Marktmacht also durch Aufbrechen dominierender Erzeuger in mehrere Einheiten vermieden wird (negatives Beispiel: altes System in Großbritannien). Beimfreiwilligen Pool werden ein Teil der Leistungen durch die Erzeuger auf Grund ihrer internen „OptimierungG',die sich in den bilateralen Verträgen niederschlägt, festgelegt. Lediglich die Menge-Preis-Offerten der sich am Pool beteiligenden Erzeuger werden durch den Netzbetreiber optimiert und die Kraftwerke nach dem „merit order" zugeschaltet. Signale entsprechend den Marginalkosten gehen aber an alle Erzeuger, die ihre Strategie anpassen können. Im Fall idealer Marktverhältnisse (ohne Marktmacht seitens einzelner Produzenten) ist anzunehmen, dass sich die bilateralen Verträge progressiv auf dem Optimum einpendeln [14.10]. Bei ausgehandeltem Netzzugang (Abschn. 3.5) hat der Netzbetreiber keine Möglichkeit, auf eine Optimierung hinzuwirken. Diese muss außerhalb des Netzbetriebs durch marktwirtschaftliche Verhandlungen zustande kommen. Dazu s. Abschn. 14.3.3. Ob mit diesem System eine zufriedenstellende volkswirtschaftliche Optimierung erreicht werden kann, ohne ein vom Netzbetreiber unterhaltener oder mit dem Netzbetreiber verbundener Spotmarkt, welcher die zur kurzfristigen Optimierung notwendigen Signale aussendet, ist noch offen und wird selbst von sehr liberal gesinnten Ökonomen bezweifelt [14.4]. 14.3.3 Betriebsoptimierung bei ausgehandeltem Netzzugang

Die Erzeugung ist der Teil des liberalisierten Elektrizitätsmarktes, der durch die Kombination von großer Kapitalbindung, deshalb langfristigen vertraglichen Bindungen, neuen Handlungsmöglichkeiten durch größere Marktliquidität und stark volatilen Randbedingungen sowohl auf der Ein- als auch auf der Verkaufsseite am stärksten von der Liberalisierung der Elektrizitätsmärkte betroffen ist. Dies und auch die Trennung von Erzeugung und Systembetrieb hat Auswirkungen auf die Betriebsoptimierung, die Thema dieses Abschnitts sind.

14.3 Betriebsoptimierung bei Wettbewerb

635

14.3.3.1 Konsequenzen der Liberalisierung für Erzeugungsplanung und Systembetriebsführung

Im vertikal integrierten Versorgungsunternehmen sind Netz- und kurzfristige Erzeugungsbetriebsfiihrung wegen ihrer Prägung durch die Anforderungen des Systembetriebs meist eng benachbart, oft sogar in einer Hand. Die gesamte Planung von den langfristigen Aufgaben bis hin zur Momentanoptimierung erfolgt systemweit zentral in einem Top-Down-Ansatz, wie er in Abschn. 14.2 erläutert ist. Eventuelle Einspeisungen Dritter sowie Bezugsverträge werden als Nebenbedingungen oder zusätzliche Optimierungsfreiräume in die Planung des für die jeweilige Regelzone verantwortlichen Monopolunternehmens einbezogen. Diese unternehmerische Einheit von Systembetrieb und Erzeugungsplanung existiert im liberalisierten Markt, wie bereits in Abschn. 3.7 erläutert, nicht mehr. In einer Regelzone, dem Wirkungsbereich eines Systembetreibers, können mehrere Erzeuger tätig sein, die alle f i r sich getrennt optimieren und deren Kraftwerkseinsatz nicht mehr nur von der Kostenstruktur der Kraftwerke und der Lastsituation abhängt, sondern auch vom Erfolg der Anbieter auf dem Großhandelsmarkt. In Märkten mit ausgehandeltem Netzzugang muss der Systembetreiber im Normalfall die Ergebnisse des Handelsprozesses und der unternehmensinternen Optimierungen der Erzeuger in Form der Einspeisefahrpläne der Kraftwerke entgegennehmen und darf sie nur verändern, wenn dies im Interesse eines stabilen Systembetriebs erforderlich ist. Als Konsequenz gibt es keine Stelle im System mehr, die eine Gesamtoptimierung betreiben kann. Jeder Marktteilnehmer handelt für sich betriebswirtschaftlich und optimiert sein I'eilsystem, und zwar unter Einbeziehung aller Kompetenzen, die zum Bestehen im Wettbewerb erforderlich sind. Dies bedeutet, dass prinzipiell durch die Teiloptimierung in Teilsystemen das Gesamtoptimum verfehlt werden kann, selbst wenn alle am Handelsprozess beteiligten Akteure optimal arbeiten. Hinzu kommt noch das Risiko, dass genau letzteres nicht erfüllt ist, dass also z. B. eine Handelsabteilung die Erzeugungskapazität ihres Unternehmens nicht verkauft, obwohl sie wirtschaftlich attraktiv wäre. Allerdings wird dieses Risiko der Suboptimalität aus zwei Gründen in Kauf genommen: Zunächst werden vom Wettbewerb und dem damit verbundenen Kostendruck in den Unternehmen Rationalisierungen und Kostensenkungen erwartet, die eine theoretisch vorhandene Abweichung vom systemweiten Gesamtoptimum überkompensieren. Darüber hinaus bewirken ideal funktionierende Märkte durch Schaffung entsprechender finanzieller Anreize eine Koordination der Optimierung in den Teilsystemen, die dem Gesamtoptimum mindestens sehr nahe kommt. Sogar langfristige, integrale Nebenbedingungen, wie sie z. B. bei der Bewirtschaftung von Jahresspeichern entstehen, können in funktionierenden Märkten mit Ergebnissen gehandhabt werden, die kaum von denen einer mathematischen Optimierung abweichen. Dies setzt allerdings voraus, dass es den Marktteilnehmern gelingt, geeignete Angebote zu formulieren, so dass sich die übrigen Marktteilnehmer in ihrer Optimierung darauf einstellen können, und dass nicht

636

14 Betriebsplanung

einzelne Marktteilnehmer so dominant sind, dass sie den Markt bewusst abweichend vom Gesamtoptimum prägen können. 14.3.3.2 Auswirkungen auf den Planungsprozess und die eingesetzten Werkzeuge Grundsätzlich ändert die Liberalisierung nichts an der Struktur des Planungsprozesses eines Erzeugers, wie er in Abschn. 14.2 erläutert wurde und in Abb. 14.1 1 zusammenfassend dargestellt ist. Die Planung beginnt mit Entscheidungen über den langfristigen Energieeinsatz und die Revisionstermine der Kraftwerke. Diese Festlegungen erfordern einen langen Betrachtungszeitraum und eine entsprechend lange Vorlaufzeit. Dadurch unterliegen sie erheblicher Unsicherheit, der üblichenveise durch eine stochastische Modellierung Rechnung getragen wird. Die Bedeutung einer angemessenen Berücksichtigung der Stochastik des Erzeugerumfelds nimmt in der Liberalisierung zu. In Monopolmärkten genügt es meist, die Stochastik des Ausfalls von Kraftwerken und in Systemen mit hohem Teil dargebotsabhängiger Erzeugung, vor allem Wasser- und Windkraft, noch die des Primärenergiedargebots nachzubilden. Im liberalisierten Umfeld kommen jedenfalls die stärker schwankenden Preise sowohl fiir Primärenergie auf der Einkaufseite als auch f i r elekirische Energie auf der Verkaufseite hinzu. Mit abnehmender zeitlicher Distanz zum Betrieb muss die Detaillierungsgenauigkeit zunehmen. Gleichzeit verliert eine stochastische Modellierung, die Mittelwerte oder Verteilungen von Ergebnissen liefert, an Bedeutung. Die kurzfristige Betriebsplanung ist auf genaue Ergebnisse für den Systemzustand angewiesen, den sie umsetzen muss. Ändern sich die Randbedingungen, muss die Planung aktualisiert werden. Abbildung 14.12 zeigt, wie die Planungsaufgaben aus Abb. 14.11 nach Festlegung des Revisionsplans in einzelne Planungsstufen zerlegt Verantwortungsbereiche Teilaufgaben

Merkmale

Entscheidungen

I

-&Ti=

1

3rennstoffdisposition lahresspeicherbewirtschaitung Ineraieaustauschverträae

L

I I Wochensoeicherbewirtschaftuno

~r.

3-tergieaustauschgeschäfte -ahrplanabsprachen iagesspeicherbewirtcchaftung mrlaufiger Kraftwerkseinsatz P -

1

fühnina Betriebs-

-

. . ..-.

611

Energieaustauschgeschäfte und Fahrplanabsprachen Einsatz "langsame" Kraftwerke Einsatz "schnelle" Kraftwerke Fahrpläne nicht ferngesteuerte KV Wirkleistungen ferngesteuerte Km

V

0 [0 pu .. 1 pu]

iq < 0 [-1 pu .. 0 pu]

- [q]

Abb. 15.31. P- --Diagramm für eine Leitung mit STATCOM

15.3 Aufbau und stationäres Betriebsverhalten

p1 = p = K § K = ¨ 1+ ¨ © bzw .

u1 u 2 sin x1 + x 2



, x1 x 2 i q

2 1

u

§ K= ¨ 1+ ¨ 2 ©

2

675

x2 + u2

2

2 1

x + 2 u1 u 2 x1 x 2 cos x iq

2 2 u1 + u 2 + 2 u1 u 2 cos

-

-

· ¸, ¸ ¹

(15.13)

· ¸;x =x = 1 x 2 ¸ 1 2 ¹

Die dazu erforderliche Umrichterleistung dürfte wirtschaftlich nicht bereitgestellt werden können. Durch den größeren Einfluss auf den Übertragungswinkel erlaubt der STATCOM im Vergleich zum SVC einen größeren Beitrag zur Steigerung der übertragbaren Leistung bei gleichem Übertragungswinkel. 15.3.2 Serieelemente – TCSC und SSSC 15.3.2.1 Aufbau Unter dem Oberbegriff Serieelemente werden alle FACTS-Elemente mit Einbau in Serie zu einem Netzelement zusammengefasst. Die elektrische Wirkung von Seriekompensationen wird über eine Seriespannungseinkopplung erreicht (siehe auch Abschn. 13.3 und Bd.1 Abschn. 9.5 sowie [15.6], [15.20] und [15.24]). Abhängig von den betrieblichen Eigenschaften wird allgemein unterschieden zwischen: x x x x

Thyristorgeregelte Seriekompensation (Thyristor Controlled Series Compensator, TCSC), Thyristorgeregelte Seriereaktanz (Thyristor Controlled Series Reactor, TCSR), Thyristorgeschaltete Seriekompensation (Thyristor Switched Series Compensator, TSSC), Statischer Seriekompensator (Solid State Series Compensator, SSSC, auch Advanced Series Compensation, ASC).

Unterschiede in den Ausführungen von Seriekompensationen liegen in der Bereitstellung dieser Spannung durch transformatorische Seriespannungseinkopplung oder Modulation der elektrischen Länge einer Übertragungsleitung durch Beeinflussung der Längsreaktanz mit Thyristorventilen. Der SSSC entspricht im Aufbau einem in Serie geschalteten STATCOM. Thyristorgeschaltete Seriekompensationen gleichen in ihrer Funktionalität Seriekompensationen mit mechanischen Schaltvorrichtungen. Deren kompensatorische Wirkung wiederum gleicht derer des TCSC. Aus diesem Grund wird hier nur der TCSC näher betrachtet. Abb. 15.34 und Abb. 15.35 zeigen Beispiele für reale Anlagen. Der TCSC besteht aus mehreren in Serie geschalteten Modulen, die als Parallelschaltung aus TCR und Kapazität ausgeführt sind und eine kapazitive sowie induktive Kompensation ermöglichen (Abb. 15.32). Ein zusätzlicher parallel an-

676

15 FACTS-Elemente

geordneter Varistor verhindert eine Komponentenbeschädigung durch Überspannung, dient also als Schutzeinrichtung. 15.3.2.2 Strom-/Spannungscharakteristik und Vierpolform Das Betriebsverhalten eines TCSC kann anhand der Strom-/Spannungscharakteristik eines der in Serie geschalteten Module analysiert werden. Die quantitative Beschränkung des in Abb. 15.33 dargestellten Betriebsbereiches der von dem Längsstrom il abhängigen Seriespannung ul’ ergibt sich aus der Auslegung der Anlage. Qualitativ wird der kapazitive Betriebsbereich bei kleinen Leitungsströmen durch die maximale Zündzeitverstellung der Thyristoransteuerung (2) beschränkt. Die kapazitive Wirkung kann bis zur maximalen Längsspannungsinjektion (1) variiert werden. Bei weiterer Vergrößerung des Stroms bestimmen die fest installierten Kapazitäten das Betriebsverhalten (3). Durch den maximalen Zündverzug (6), den bei großen Längsströmen erreichten maximalen Thyristorstrom (7) und den thermischen Betriebsgrenzen der Thyristoreinheiten (5) ist die untere Grenze des induktiven Betriebes bestimmt. Die induktive Wirkung des TCSC kann kontinuierlich durch Zuschalten der Induktivitäten bis zur vollständigen Durchschaltung der Thyristoren (4) vergrößert werden. Technologische Randbedingungen in bezug auf die thermische Belastbarkeit des Betriebsmittels grenzen zusätzlich den dauerhaft möglichen Betriebsbereich ein. Der Betrieb von TCSC zur Pendeldämpfung und Lastflusssteuerung erfordert Seriespannungseinkopplung, die außerhalb des dargestellten Betriebsbereiches liegen. Da aber gerade hier ein großes Einsatzpotential liegt, wird ein TCSC unter wirtschaftlichen Gesichtspunkten als Reihenschaltung mehrerer TCSC Module ausgeführt. Durch unterschiedliche Ansteuerung kann eine Verschiebung des Betriebsbereiches eines Moduls in Richtung der Spannungsachse erfolgen. Die Ansteuerung der einzelnen Module erfolgt dabei so, dass ein durcha)

b) 1

ul

2

1

i1

2

il TCR ul

u´l

TCR u2

ul

u2 Speicher

Abb. 15.32. Prinzipieller Aufbau von Seriekompensatoren, Thyristorgeregelte Seriekompensation (TCSC) (a) und Statischer Synchronkompensator (SSSC) bzw. ASC (b)

15.3 Aufbau und stationäres Betriebsverhalten

677

Abb. 15.33. Strom- / Spannungscharakteristik eines TCSC Moduls

gängiger Betriebsbereich erreicht werden kann. Bereits der Einsatz von sechs TCSC Modulen erweitert den Betriebsbereich um nahezu die gesamte Fläche zwischen (3) und (4). Diese Ausführung einer Seriekompensation wird über eine variable Serieimpedanz (j xTCSC)-1 modelliert. Der Betrag der Serieimpedanz ergibt sich aus dem aktuellen Betriebszustand also einem ausgewählten Punkt in dem oben genannten Betriebsbereich. Die Einstellung des Betriebspunktes erfolgt durch Verstellung der Ansteuerungswinkel der Thyristorventile. Als Vierpolmatrix für die stationäre Netzberechnung folgt

Y =

1 j xTCSC

ª 1 -1º « ». ¬-1 1¼

(15.14)

Der SSSC kann für stationäre Berechnung nur in sehr grober Näherung auf gleiche Weise modelliert werden. In diesem Fall würde der nahezu belastungsunabhängigen Charakteristik der Seriespannungseinkopplung nicht Rechnung getragen. Mehr empfehlenswert ist eine Modellierung des SSSC über zusätzliche Seriespannungen. Eine Umformung der Seriespannungsquelle in Shuntstromquellen ist ebenfalls möglich und erleichtert die Integration der Gleichungen in die stationäre Netzberechnung. Zur mathematischen Behandlung dieser Vorgehensweise wird auf Bd. 1, Abschn. 4.8.2 sowie Abschn. 14.2.2 in diesem Band verwiesen.

678

15 FACTS-Elemente

Abb. 15.34. TCSC, 107 MVAr Blindleistung, 13.27 : bis 39.81 : Regelbereich, 500 kV, Brasilien (Quelle: IEEE)

Abb. 15.35. TCSC, 21.9 :/Phase Nennreaktanz (statisch), 18.25 :/Phase Reaktanz der Kapazitäten, 1.5 kA Nennstrom, 2.025 kA Überlaststrom (20 min), 2.25 kA Überlaststrom (10 min), 400 kV, Schweden (Quelle: ABB)

15.3 Aufbau und stationäres Betriebsverhalten

679

15.3.2.3 P---Diagramm Für das einphasige Ersatzschaltbild für stationäre Berechnungen stellt der TCSC eine geregelte Längsimpedanz dar. Für das Beispiel eines TCSC in der Netzsituation „Generator speist über Leitung in starres Netz“ folgt dann mit einem TCSC in der Mitte der Leitung die Anordnung nach Abb. 15.36. Die veränderliche Impedanz des TCSC addiert sich zu den Längsreaktanzen der Leitung, so dass für die Berechnung des P---Diagramms sofort folgender Ausdruck folgt:

p1 = p =

u1 u 2 sin + x1 x 2 + x TCSC

- .

(15.15)

Da der TCSC direkt auf die Längsimpedanz der Übertragungsstrecke wirkt, ist der Einfluss auf die übertragene Leistung erheblich größer als bei den zuvor dargestellten Shuntelementen. Mit zunehmender negativer Längsimpedanz nimmt der Kompensationsgrad der Leitung zu (Abb. 15.38). Wie aus der Leistungsgleichung zu entnehmen ist, unterliegt die Beziehung zwischen übertragener Leistung und geregelter Längsimpedanz keinem linearen, sondern einem hyperbolischen Zusammenhang. Für den SSSC erscheint im Ersatzschaltbild eine geregelte Seriespannungsquelle, da dieses Betriebsmittel mit selbstgeführten Umrichtern ausgestattet ist und somit eine vom Betrag des Leitungsstroms nahezu unabhängige Seriespannung eingekoppelt werden kann (Abb. 15.37). Da der SSSC in der Regel ohne Energiespeicher ausgeführt wird, muss die eingeprägte Seriespannung senkrecht auf dem Leitungsstrom stehen. Anderenfalls würde der SSSC Wirkleistung an das Netz abgeben bzw. vom Netz aufnehmen. Für die Berechnung des P---Diagramms ergibt sich in Analogie zum STATCOM der nachstehend angegebene Ausdruck. Bei Betrachtung des Faktors K fällt die Ähnlichkeit der Wirkung eines SSSC zum STATCOM auf.

Abb. 15.36. Ersatzschaltbild einer Anordnung Generator – starres Netz mit TCSC, installiert in der Mitte der Leitung sowie äquivalente Impedanzanordnung

Abb. 15.37. Ersatzschaltbild einer Anordnung Generator – starres Netz mit SSSC, installiert in der Mitte der Leitung sowie äquivalente Impedanzanordnung

680

15 FACTS-Elemente

p pmax xTCSC < 0

xTCSC > 0

- [q] Abb. 15.38. P---Diagramm für eine Leitung mit TCSC

Im P---Diagramm zeigt die Beschreibung des SSSC einen zur Kurvenschar des STATCOM gespiegelten Verlauf auf. In diesem Fall ist die Verzerrung der P--Kurve im Bereich 0q bis 90q stärker ausgeprägt. Technisch gesehen birgt dies keine Vorteile für die Leistungsflussregelung in sich (Abb. 15.39).

p pmax

ul < 0 [-1 pu .. 0 pu]

ul < 0 [0 pu .. 1 pu]

- [q] Abb. 15.39. P- --Diagramm für eine Leitung mit SSSC

15.3 Aufbau und stationäres Betriebsverhalten

p1 = p = K § K= ¨ 1¨ ©

u1 u 2 sin x1 + x 2

681

ul

2 2 u1 + u 2 - 2 u1 u 2 cos

-

· ¸ ¸ ¹

(15.16)

Im Vergleich zum TCSC ist das Verhältnis zwischen eingeprägter Seriespannung und korrespondierender Leistungsflussänderung nahezu linear, so dass sich diese Geräte insbesondere zum Einsatz auf kurzen Leitungen eignen. Dieses Einsatzpotential entsteht beispielsweise dann, wenn in vermaschten Netzen mit kleiner durchschnittlicher Stromkreislänge lokale Übertragungsengpässe entstehen. 15.3.3 Parallel-serielle Elemente – PAR und UPFC 15.3.3.1 Aufbau Unter dem Oberbegriff parallel-serielle Elemente werden alle Betriebsmittel zusammengefasst, die eine elektrische Komponente sowohl im Shunt- als auch im Seriezweig aufweisen (vgl. [15.8], [15.9], [15.20] und [15.24] sowie [15.1] und [15.3]) für die stationäre Modellierung). Wesentliche Betriebsmittel dieser Ausführung sind x x x

der Phasenwinkelregler (Phase Angle Regulator, PAR), des spezielle Phasenwinkelregler (Quadrature Boosting Transformer, QBT), der universale Lastflussregler (Unified Power Flow Controller, UPFC).

Bei einem PAR erfolgt die Regelung der Phase des Längsspannungsabfalls durch die transformatorische Einkopplung einer Zusatzspannung, die durch einen Erregungstransformator mit leistungselektronischen Schaltern erzeugt wird. Das Teilungsverhältnis der Sekundärwindungszahlen und die eingesetzten Thyristorschalter bestimmen die Anzahl der diskreten Schaltstufen. Hinsichtlich der elektrischen Wirkung ist der PAR mit konventionellen Schrägreglern vergleichbar. Der QBT weist einen ähnlichen Aufbau auf. Unterschiede zum PAR liegen in den Verschaltungsmöglichkeiten der Wicklungen, was im Vergleich zum PAR einen eingeschränkten Betriebsbereich zur Folge hat. Als Kombination eines statischen Synchronkompensators und einer statischen Seriekompensation stellt der UPFC eine grundsätzlich neue Konzeption eines regelbaren Betriebsmittels dar, das neben schrägregelnden auch shuntkompensierende Eigenschaften aufweist. Ähnlich dem PAR und QBT besteht ein UPFC aus einem Erregungstransformator im Shunt- und einem Zusatztransformator im Seriezweig. Beide Transformatoren sind über eine Umrichterschaltung mit Gleichstromzwischenkreis gekoppelt. Durch den Gleichstromzwischenkreis wird ein Wirkleistungsaustausch zwischen Erreger- und Zusatztransformator gewährleistet, wodurch die Phasenlage des Längsspannungsabfalls geregelt werden kann (Abb.

682

15 FACTS-Elemente

ul

a) 1

i1

ul

b) 2

1

i1

il

2

iq ul

u2

ul

u2 K1

K2

Abb. 15.40. Aufbau parallel-serieller Komponenten Phasenwinkelregler (a) und Universaler Lastflussregler (b)

15.40 für den Aufbau und Abb. 15.41 sowie Abb. 15.42 als Beispiel einer realen Anlage). Der Einsatz abschaltbarer Leistungshalbleiter im Umrichterzweig ermöglicht die Beeinflussung der Beträge der Quer- und Längsspannung über gleichzeitiges Einspeisen von positiver und negativer Blindleistung in den Shunt- und Seriezweig. Durch diese Eigenschaften ist hauptsächlich die eingekoppelte Seriespannung nach Betrag und Phase regelbar. In bezug auf eine ausgeglichene Wirkleistungsbilanz des UPFC kann nur die aus dem Shuntzweig entnommene Wirkleistung über Umrichter K2 in den Längszweig eingespeist werden, da der UPFC normalerweise ohne zusätzlichen Speicher im Gleichstromkreis ausgeführt wird. 15.3.3.2 Strom-/ Spannungscharakteristik und Vierpolform Der Umrichter K1 ermöglicht unabhängig von der Wirkleistungsaufnahme eine Beeinflussung des Blindstroms iq im Shuntzweig, wodurch der UPFC zusätzlich als Shuntkompensator wirkt. Eine entkoppelte Regelung der elektrischen Größen iq und ul ermöglicht somit gleichzeitige shuntkompensierende und schrägregelnde beziehungsweise seriekompensierende Eigenschaften des UPFC (Abb. 15.44). Aufgrund der kompensierenden und schrägregelnden Eigenschaften ist ein Ansatz für das quasistationäre UPFC Modell eine Kombination aus gesteuerten Quellen und einer regelbaren Admittanz (Abb. 15.43). Weitere, hier nicht weiter betrachtete, Ansätze verfolgen für die Lastflussrechnung eine Modellierung über Strom- und Spannungsquellen. Diese Ansätze weisen eine höhere Genauigkeit auf, erfordern aber eine Anpassung der Lastflussalgorithmen. Zur Berücksichtigung der Eigenschaft, die Blindstromabgabe des Shuntzweiges ohne Spannungsabhängigkeit zu regeln, ist in der quasistationären Netzberechnung zusätzlich ein Anschluss als spannungsgeregelter Knoten zu modellieren. Unter weiterer Berücksichtigung der regelbaren Shuntadmittanz Yq ergibt sich für die quasistationäre Beschreibung eine unsymmetrische Vierpolmatrix Gl. (15.17). Wird die Shuntadmittanz identisch Null gesetzt, entspricht diese Gl. der unsymmetrischen Vierpolmatrix eines PAR.

15.3 Aufbau und stationäres Betriebsverhalten

ª YY q + 12 ü l « Y =Yl « 1 - j ș i, j ¬- ü e

1 ü

e 1

j ș i, j

º » ; mit ü = ü e jT i, j . » ¼

683

(15.17)

Umrichter 1 Umrichter 2

ShuntTransformator Ersatz ShuntTransformator

SerieTransformator

Abb. 15.41. Prinzipieller Aufbau des ersten UPFC, „Inez Substation“, 160 MVA Shuntelement, 160-MVA-Serieelement, 138-kV, USA (Quelle: CIGRE)

Abb. 15.42. Außenansicht des „Inez Substation“ UPFC (Quelle: IEEE)

684

15 FACTS-Elemente

Yl

1 i1

ul

ü Yl

u2

Yq

i2 2

u2

u1 ü

ü

Abb. 15.43. Quasistationäres Modell eines Leistungsflussreglers

Die Modellbeschreibung in Vierpolform aus der Kombination eines shuntkompensierenden und schrägregelnden Betriebsmittels bietet gegenüber Modellierungen als gesteuerte Quellen im Serie- und Shuntzweig den Vorteil, dass das Modell unmittelbar in der stationären Netzberechnung berücksichtigt werden kann. Darüber hinaus tritt hier das bestehende Problem der verbotenen Betriebsbereiche für Stellgrößen im Modellsystem nicht auf (vgl. [15.17]). Diese verbotenen Bereiche entstehen, weil es bei einem Betriebsmittel aufgrund der Wirkleistungsbilanz nicht möglich ist, den komplexen Längsspannungszeiger beliebig einzuprägen. Durch die Modellierung über gesteuerte Quellen im Serie- und Shuntzweig wird diese Schwierigkeit implizit berücksichtigt, da sich die komplexe Längsspannung betriebspunkt- und stellgrößenabhängig einstellt. Die Grenzen dieses Modells liegen bei der Betrachtung von extremen Netzverhältnissen, bei denen der UPFC über den Shuntteil einen großen Wirkstrom aus dem Netz entnimmt, um etwa die Wirkleistungsabgabe durch den Serieteil zu de-

Regelbereich Schrägregelung

u2 ul ul Ortskurve von ul bei reiner Längskompensations

i1 il Ortskurve von iq bei reiner Querkompensation Abb. 15.44. Betriebsdiagramm UPFC

iq

Im Re

15.3 Aufbau und stationäres Betriebsverhalten

685

cken. In diesem Fall kann der eingeprägte Shuntstrom einen derart großen Spannungsabfall verursachen, dass die Regelungsaufgabe durch den Serieteil nicht mehr wahrgenommen werden kann. Da bei Phasenwinkelregeltransformatoren keine Ströme eingeprägt werden, tritt dieses Problem dort nicht auf. Aus den komplexen Leistungsgleichungen eines allgemeinen Vierpols folgt unmittelbar das Steuergesetz für Stellgrößen dieses Modells: ª p i, j Ti, j = Ti - T j - arctan « « q + u2 Y j l ¬« i,j ui u j Y l

ü=



pi, j + qi, j + u 2j Y l



2

º », » ¼»

(15.18)

.

Eine Beeinflussung der Klemmenspannung wird durch geeignete Wahl der Shuntadmittanz Yq realisiert. Unter Berücksichtigung des Betriebsdiagramms erfolgt die Formulierung der Stellgrößenbegrenzungen. Einen linearen Zusammenhang zwischen komplexem Übersetzungsverhältnis und komplexem Knotenspannungsquotient vorausgesetzt, sorgt die Stellgrößenbeschränkung dafür, dass der komplexe Spannungszeiger ul den durch einen Kreis beschränkten Betriebsbereich nicht verlässt. Aus den trigonometrischen Zusammenhängen folgt: max ș imin, ,j

r arcsin( u l ),

ü min,max

1 ª 2 cos(ș i , j ) r cos 2 (ș i , j )  u l  1º . ¼» 1  ü 2 «¬

(15.19)

15.3.3.3 P---Diagramm Ein anderer Modellierungsansatz umfasst die Nachbildung der Hauptkomponenten über Strom- und Spannungsquellen. Dieser Ansatz wird im folgenden zur Analyse des Betriebsverhaltens angewendet. Im Ersatzschaltbild (Abb. 15.) zur Bestimmung des Wirkleistungs-Winkel-Verhaltens erscheinen alle drei Betriebsmittel als gekoppelte Shuntstrom- und Seriespannungsquelle. Die Unterschiede zwischen den drei Betriebsmitteln liegen im elektrischen Verhalten dieser Quellen. Um den Einfluss des Einbauortes, insbesondere beim QBT, näher untersuchen zu können, ist eine zusätzliche Variable l eingeführt worden. Diese repräsentiert den Einbauort des FACTS-Elementes auf der Leitung relativ zur Leitungslänge, so dass gilt: x1

lx

x2

1  l x

(15.20)

Der hier beschriebene PAR wirkt als idealer Phasenwinkelregler und prägt somit eine Zusatzspannung ein, die lediglich eine Phasenverschiebung zwischen den Spannungen am Anfang und Ende dieses Betriebsmittel bewirkt (Abb. 15.45). Da der PAR auf die Winkeldifferenz wirkt, folgt für die Berechnung des P---Diagramms unmittelbar folgender Ausdruck:

686

15 FACTS-Elemente

p1 = p = u1 u2 sin (- + ș ) x1 + x2

(15.21)

Der Einfluss der Einprägung eines Zusatzwinkels besteht demnach nur in der Verschiebung der P---Kurve entlang der Winkelachse. Mit dieser Eigenschaft eignet sich der PAR vor allem zur Verringerung der Winkeldifferenz über einer Leitung und damit zu einer Verbesserung der statischen Stabilität (Abb. 15.46). Außerdem trägt der PAR mit dieser Eigenschaft zu einer Vergrößerung der maximal übertragbaren Wirkleistung bei, wenn die limitierende Größe der maximale Übertragungswinkel ist. Durch Regelung entlang der Leistungsachse ist über die Winkeldifferenz eine unmittelbare Regelung der Wirkleistungsflüsse wie bei jedem konventionellen Schrägregler gegeben. An dieser Stelle sei nochmals darauf hingewiesen, dass der von der vom Spannungsbetrag nahezu entkoppelte Zusammenhang zwischen Übertragungswinkel und Wirkleistungsfluss nur in Netzen mit kleinem R/X-Verhältnis Gültigkeit besitzt. In Netzen mit großem R/X-Verhältnis wird bei einer Winkeländerung der Blindleistungsfluss mitunter in gleicher Größenordnung verändert. Diesem Phänomen ist insbesondere in 16-2/3-Hz-Bahnnetzen Rechnung zu tragen. Aufgrund der geringeren Betriebsfrequenz liegen oftmals in der Übertragungsebene R/XVerhältnisse von nahe eins vor. Bei derartigen Netzverhältnissen führt eine reine

Abb. 15.45a. Ersatzschaltbild einer Anordnung Generator – starres Netz mit PAR, QBT oder UPFC, installiert bei der Leitungslänge l sowie äquivalente Impedanzanordnung

u11 ul T

u 22 Abb. 15.45b. Zeigerdiagramm der Spannung am Anfang und Ende des PAR sowie eingeprägte Zusatzspannung

15.3 Aufbau und stationäres Betriebsverhalten

p pmax

T > 0 [0° .. 60°]

T = 60°

687

T > 0 [-60° .. 0°]

T = -60°

- [q ] Abb. 15.46. P---Diagramm einer Leitung mit PAR

Phasenwinkelregelung nicht nur zur Verschieben der Wirkleistungsflüsse. Blindleistungsflüsse werden in nahezu gleichem Masse geändert. Bei R/X-Verhältnissen nahe eins ist eine Entkopplung zwischen Blindleistung und Übertragungswinkel bzw. Wirkleistung und Spannungsdifferenz nicht mehr gegeben. Eine entkoppelte Wirk-/Blindleistungsregelung erfordert in diesem Fall die Einkopplung einer Spannung, die nicht nur den Übertragungswinkel sondern auch die Spannungsdifferenz zwischen den Anschlusspunkten beeinflusst. Der QBT ist ein reiner Querregler. Die eingekoppelte Zusatzspannung steht senkrecht auf der Spannung am Anfang des Betriebsmittels (Abb. 15.47). Dadurch erfolgt nicht nur eine Phasendrehung dieses Spannungsvektors, sondern auch eine kleine Betragsveränderung, so dass die Blindleistungsflüsse bei diesem Regeleingriff ebenfalls mit beeinflusst werden. Die Bereitstellung einer Zusatzspannung senkrecht zur Anschlussspannung bedeutet technologisch einen geringeren Aufwand, so dass der QBT je nach Netzverhältnissen eine wirtschaftliche Alternative zum PAR darstellt. Für die Berechnung der P---Charakteristik des QBT ergibt sich nach Auflösen der Strom-, Spannungs- und Leistungsgleichungen folgender Ausdruck: p1

p

u1u 2 sin -  T cos T x1  x 2 cos 2 T u1u 2 sin -  T cos T cos 2 T  lx 1  cos 2 T

(15.22)

Diese Darstellung verdeutlicht die Abhängigkeit des Betriebsverhaltens des QBT vom Einbauort. Ist der QBT direkt am speisenden Generator eingebaut, ist bei

688

15 FACTS-Elemente

u11 ul T

u 22 Abb. 15.47. Zeigerdiagramm der Spannung am Anfang und Ende des QBT sowie eingekoppelte Zusatzspannung senkrecht zur Anfangsspannung

extremen Zusatzwinkeln eine starke Überhöhung der maximal übertragbaren Leistung die Folge (Abb. 15.48). Bei einem Einbau in der Mitte der Leitung tritt diese Überhöhung nicht mehr auf. Die Umhüllende der Kurvenschar zeigt einen annähernd sinusförmigen Verlauf, so dass an diesem Einbauort der QBT zu einer nahezu idealen Vergrößerung des Betriebsbereiches beitragen könnte (Abb. 15.49). Abhängig von der übertragenen Leistung wäre hier eine kontinuierliche Anpassung des Winkels der Zusatzspannung erforderlich. Am wenigsten effektiv arbeitet der QBT direkt am starren Netz. Dies ist gleichzusetzen mit einer starren Spannungsquelle ohne Impedanz, ähnelt also Einsatzorten mit sehr großer Kurzschlussleistung. Der Einfluss des QBT auf die Übertragungscharakteristik ist hier am wenigsten ausgeprägt (Abb. 15.50). Selbst große Zusatzwinkel führen nur zu einer vergleichsweise geringen Beeinflussung der Wirkleistung. Bzgl. Des Betriebsverhaltens erweist sich als besonders ungünstig die starke Verringerung der maximal übertragbare Leistung bei Variation des Zusatzwinkels in positive und auch negative Richtung. Der UPFC verfügt über weitaus mehr Freiheitsgrade in der Regelung. Bei koordiniertem Einsatz von Shuntstromquelle und Seriespannungsquelle werden die Übertragungsparameter nahezu unabhängig von der aktuellen Leitungsbelastung geregelt. Dieses Verhalten spiegelt sich in der mathematischen Beschreibung der P---Charakteristik wider: p1

u1u2 u2 ul sin -  x1  x 2 x1  x 2

(15.23)

Bei idealem Betrieb bewirkt der UPFC eine Skalierung der Übertragungscharakteristik. Die P---Kurve wird abhängig von der eingekoppelten Längsspannung skaliert. Im Vergleich zu den FACTS-Elementen PAR und QBT weist der UPFC die beste Betriebscharakteristik auf (Abb. 15.51).

15.3 Aufbau und stationäres Betriebsverhalten

p pmax

T > 0 [0° .. 60°]

689

T > 0 [-60° .. 0°] l=0

T = 60°

T = -60°

- [q ] Abb. 15.48. P---Diagramm einer Leitung mit QBT, eingebaut am speisenden Generator (l=0)

p pmax

T > 0 [0° .. 60°]

T > 0 [-60° .. 0°]

l = 0.5

T = 60°

T = -60°

- [q ] Abb. 15.49. (l=0.5)

P---Diagramm einer Leitung mit QBT, eingebaut in der Mitte der Leitung

690

15 FACTS-Elemente

Abb. 15.50. (l=1)

P---Diagramm einer Leitung mit QBT, eingebaut am zu speisenden Netz

p pmax ul > 0 [0 pu .. 1 pu]

ul < 0 [-1 pu .. 0 pu]

- [q] Abb. 15.51. P---Diagramm einer Leitung mit UPFC, eingebaut in der Mitte der Leitung (l=0.5)

15.3 Aufbau und stationäres Betriebsverhalten

691

15.3.4 Anwendung im Netz 15.3.4.1 Abschätzung der Dimensionierung Die Dimensionierung von FACTS-Elementen hinsichtlich der zur bemessenden Leistung hängt stark von der Netzumgebung ab. Für eine erste Abschätzung der Baugröße reicht hingegen eine grobe Abschätzung im Rahmen eines einfachen Modells aus. Die Aufgabe der Leistungsflussregelung bezieht sich auf die Regelung eines Stromes in einer Übertragungsleitung – hier durch Einspeisung einer Seriespannung. Die Größe der Seriespannung und das Maximum des zu regelnden Stromes geben Auskunft über die ungefähre Baugröße der zu installierenden Einrichtungen. Wird in der Anwendung zur Leistungsflussregelung von einem UPFC ausgegangen besteht die erste Abschätzung der Baugröße in der Dimensionierung von Shunt- und Serieumrichter; beide in erster Näherung als Strom- bzw. Spannungsquelle modellierbar (vgl. Abb. 15.52 sowie [15.19]). Die hier angegebenen Abschätzungen dienen der groben Festlegung der Baugröße. Sie bezieht sich auf den ersten Schritt der Anlagenauslegung. Nach Festlegung der Umrichterleistungen sind detaillierte Berechnungen erforderlich, die sich voranging auf die leistungselektronische Topologie beziehen. Dies schließt unter anderem eine Auslegung der magnetischen Kreise für die Netzankopplung, die Festlegung und Optimierung des Steuerverfahrens sowie wie die Dimensionierung des Geräteschutzes ein. Da für diese Schritte wesentlich detaillierte Modelle mit Abbildung des leistungselektronischen Systems mit Momentanwertsimulation erforderlich sind, kann hier nicht darauf eingegangen werden. Dieser Abschnitt zielt vielmehr auf den ersten Schritt der Dimensionierung unter Fragestellung, wie viel Leistung über ein Serieelement eines UPFC eingespeist werden muss, damit ein bestimmter Betrag von Leistungsfluss geregelt werden kann. Die durch den Serieumrichter eingespeiste Spannung, multipliziert mit dem maximalen Leitungsstrom, ergibt die ungefähre Bauleistung des Serieumrichters. Die für die Regelung erforderliche Einspeisung von Wirkleistung wird durch den Shuntumrichter gedeckt, ebenso wie die Verluste der leistungselektronischen und anderen Komponenten. So kann aus der Abschätzung der einzuspeisenden Seriespannung und dem erforderlichen Regelungsbereich sowohl die Shunt- als auch

sG1 z1

1

G1

sG5

2

u1

4

z2

i24

i54

i12 iL1 i23 sL1

u2

3

z3 u3

uz iZ sZ

i34 u4

iL2

5

z4 u5

sL2

Abb. 15.52. Einphasiges Ersatzschaltbild des betrachteten Modellsystems

G2

692

15 FACTS-Elemente

die Serieumrichterleistung abgeschätzt werden. Ist zusätzlich zur Leistungsflussregelung eine Regelung der Sammelschienenspannung durch Blindleistungseinspeisung erforderlich, muss dies entsprechend berücksichtigt werden. Der Schwerpunkt dieses Abschnittes liegt auf der analytischen Herleitung eines Gleichungssystems zur ersten Abschätzung der zu installierenden Umrichterleistung bei einem UPFC, der ausschl. zur Leistungsflussregelung eingesetzt wird. Die Größe des durch eine Seriespannungseinspeisung geregelten Leistungsflusses über eine Leitung hängt vom Betrag der eingekoppelten Spannung und von den Impedanzverhältnissen im Netz ab. Wird im ersten Schritt die Nichtlinearität der Netzimpedanzen (z.B. durch Schrägregler oder hysteresegeregelte Kompensationen) vernachlässigt, kann jede Netzsituation auf zwei Einspeisungen mit Doppelleitung, von der eine geregelt ist, reduziert werden (vgl. Abb. 15.52). Dieses Modellsystem stellt die Grundlage der analytischen Betrachtungen dar. Bei dieser erfolgt zunächst eine allgemeine Beschreibung des Systems über Strom- und Spannungsgleichungen. Im zweiten Schritt erfolgt eine Diskussion des erhaltenen Modells vor dem Hintergrund unterschiedlicher Systemrandbedingungen. Zwei Beispiele verdeutlichen die Anwendung der Gleichungen. 15.3.4.2 Analytische Lösung des Modellsystems Die analytische Lösung erfolgt unter der Annahme, dass die durch Generator G1 eingespeiste Leistung sG1 konstant ist und die Spannung am entsprechenden Knotenpunkt ebenfalls auf einen konstanten Wert u1 geregelt wird. Ebenfalls als bekannt angenommen sei die eingekoppelte Seriespannung uz. Es wird davon ausgegangen, dass die am Knoten 3 abgenommene Leistung sz ausschließlich zur Deckung des Wirkleistungsbedarfes der Seriespannungsquelle sowie der Deckung der Geräteverluste entnommen wird. Die Berechnung orientiert sich an der Herleitung von Gleichungen zur Diskussion und Untersuchung der folgenden Fragestellungen und Randbedingungen:

Wie groß ist die in den Pfad zwischen Knoten 2 und Knoten 4 kommmutierte Wirkleistung in Abhängigkeit von der eingekoppelten Seriespannung? Welches Phasenlage der Seriespannung uz ist erforderlich, damit eine vom Blindleistungsfluss entkoppelte Wirkleistungsflussregelung vorgenommen werden kann? Welchen Einfluss haben unterschiedliche Netzsituationen auf den Berechnungsvorgang? Sind bei Einstellung der gewünschten Leistungsflüsse die Betriebsgrenzen an allen Netzknoten und Übertragungselementen eingehalten? Für Netzknoten gilt die Einhaltung des vorgegebenen Spannungsbandes (z.B. 0.9 pu – 1.1 pu). Bei Übertragungselementen ist auf den maximal zulässigen Strom und Winkeldifferenz zu achten. In der Berechnung muss zusätzlich einigen technischen Sachverhalten implizit Rechnung getragen werden. Durch die eingeprägte Zusatzspannung uz erfolgt eine Wirkleistungsabgabe and das Netz. Diese Wirkleistungsabgabe ist durch den Shuntumrichter zu decken. Der Shuntumrichter prägt daher zur Deckung der

15.3 Aufbau und stationäres Betriebsverhalten

693

Wirkleistungsabgabe einen Strom in das Netz ein. Dieser Strom verursacht eine zusätzliche Belastung der angeschlossenen Übertragungselemente, insbesondere der Leitung zwischen Knoten 2 und Knoten 3. Ein zusätzlicher Spannungsabfall ist die Folge. Die Spannung an Knoten 3 ist daher mitunter niedriger oder höher als im Falle der Vernachlässigung des Einflusses des Shuntumrichters. Durch den zusätzlichen Strom kann die Wirkung der eingekoppelten Seriespannung vermindert werden. Der Shuntumrichter muss bei minimaler Knotenspannung den erforderlichen Stromfluss zur Deckung des Wirkleistungsbedarfes des Serieumrichters gewährleisten. Die zu installierende Leistung des Shuntumrichters berechnet sich aus maximalem Shuntstrom und maximaler Knotenspannung. Da diese Größen bei reinem Wirkleistungsbetrieb i.d.R. nicht gleichzeitig auftreten ist die zu installierende Leistung normalerweise größer als die tatsächlich in den verschiedenen Betriebspunkten abgegebene bzw. aufgenommene Leistung. Sie stellt vielmehr eine Rechengröße zu Charakterisierung des Umrichters dar. Ausgangspunkt für die Berechnung sind die im folgenden angegebenen Stromund Spannungsgleichungen des Modellsystems in Abb. 15.52: *

i L1

s L1 , * u2

i L2

s L2 , * u4

(15.24)

*

(15.25)

*

i12

s G1 , * u1

i 24

i 12 - i L1 - i 23 ,

(15.27)

i 23

z2 uz , (i 12 - i L1 ) z2  z3 z2  z3

(15.28)

i 54

- i 24 - i 34  i L 2 ,

(15.29)

(15.26)

u2

u 1 - i 12 z 2 ,

(15.30)

u3

u 2 - i 23 z 3 ,

(15.31)

u4

u 2 - i 24 z 2 ,

(15.32)

u5

u 4  i 54 z 4 .

(15.33)

Damit eine Abschätzung der zu installierenden Leistung möglich ist sollte die tatsächlich in Knoten 4 eingespeiste Leistung bekannt sein. Da mit oben genannten Gleichungen das Modellsystem berechnet werden kann ist hier lediglich die Angabe des Leitungsstroms i34 als Funktion der Knotenspannung u3, des Leitungsstrom i23 und der Seriespannung uz erforderlich.

694

15 FACTS-Elemente

i 34

f

u 3; i 23; u z .

(15.34)

Dazu ist zunächst der von dem Shuntumrichter eingeprägte Strom zu berechnen da dieser sich in dem betrachteten Modell dem Leitungsstrom überlagert. Da eine Zerlegung in Real- und Imaginärteil der Größen erforderlich ist, wird folgende Konvention eingeführt:

x

xW

jxB .

(15.35)

Mit einem Umrichterwirkungsgrad von U < 1 muss mit dem Shuntumrichter dem Netz folgende Wirkleistung entnommen werden:

pSH

u ZW i 34W

u ZBi34B

(15.36)

U

Unter Berücksichtigung der Spannung am Anschlusspunkt des Shuntumrichters ergibt sich für den Shuntstrom i z : iz

uZW i34W U

uZB i34 B u

* 3

.

(15.37)

Mit den Knotengleichungen für den Strom und mit der Zerlegung in Polarkoordinaten, wie z.B. iz

iz e j

iz

(15.38)

.

kann der Strom i34 berechnet werden. Damit ist das zu Grunde liegende Modellsystem vollständig beschrieben. Spezielle Fälle des Modellsystems resultieren aus den unterschiedlichen Netzsituationen, die im folgenden näher diskutiert werden. 15.3.4.3 Verbundkupplung - große Kurzschlussleistungen Sind die Kurzschlussleistungen beider Verbundpartner (G1 und G2) groß, aber doch unterschiedlich, können die die Kurschlussleistung repräsentierenden Impedanzen vernachlässigt werden: z1

0 ; z4

0 .

(15.39)

An der grundsätzlichen Berechnung des Modells ändert sich nichts; lediglich die Spannungen an den Sammelschienen 2 und 4 entsprechen denen der die Ersatznetze repräsentierenden Spannungsquellen: u2

u1 .

(15.40)

u5

u4 .

(15.41)

Sind die Kurzschlussleistungen beider Verbundpartner groß, aber nicht unterschiedlich, können die die Kurschlussleistung repräsentierenden Impedanzen ebenfalls vernachlässigt werden. Da die Kurzschlussleistungen gleich groß sind, ist auch von einer Konstanz der Spannungen u1 und u5 auszugehen. In diesem Fall ändert sich die Berechnung, da hier von nicht konstanten Spannungen an den Kno-

15.3 Aufbau und stationäres Betriebsverhalten

695

ten 2 und 4 ausgegangen wurde. Ist die Spannung hier als konstant anzunehmen, muss dies entsprechend im Ansatz berücksichtigt werden. 15.3.4.4 Identische Leitungen Im Fall identischer Übertragungsleitung sind die Impedanzen ebenfalls gleich: z2

z3

z

(15.42)

Dieser Fall tritt i.d.R. dann auf, wenn eine Doppelleitung vorliegt und eine der Leitungen zwecks gleichmäßiger Auslastung kompensiert wird. Dass eine Netzreduktion zu einer identischen Parallelimpedanz führt, ist die Ausnahme. Ist aufgrund der Kurzschlussleistungsverhältnisse noch zusätzlich von der Vereinfachung nach Gl. (15.39) auszugehen und wird u1 als eingeprägt angenommen vereinfacht sich der Ausdruck zur Berechnung des Leitungsstroms vor dem Shuntteil des installierten Reglers zu:

1 1 uz i 12 - i L1 2 2 z

i 23

(15.43)

Die von Erzeugung G1 abgegebene und über den unteren Zweig übertragene Leistung berechnet sich dann nach:

s 23

u 2 i 23 ,

s 23

1 2

s 23

1 1 1 uz s G1 s L1u2 . 2 2 2 z

(15.44)

i12 - i L1 u 2 -

1 uz u2 , 2 z

(15.45)

(15.46)

Wird zusätzlich die Spannung an Knoten 2 als Referenzspannung definiert: u2

!

1 pu e j 0

0

0

UB ej0

,

(15.47)

vereinfacht sich die Berechnung des Leistungsflusses über die geregelte Leitung zusätzlich zu: 1 1 uz s 23 s12 (15.48) 2 2 z Darüber hinaus folgt aus diesem Zusammenhang eine Bedingung für die Phasenlage der eingeprägte Zusatzspannung uz für entkoppelte Wirk- und Blindleistungsregelung. Die Phasenlage der Zusatzspannung muss dem Winkel der Leitungsimpedanz z (hier: z = z1 + z2) entsprechen. Nur dann wird der Realteil der übertragenen Leistung, also Re {s23} = p23 und damit die übertragene Wirkleistung unabhängig von der übertragenen Blindleistung beeinflusst. Ist die Phasenlage der eingekoppelte Spannung dazu um /2 versetzt, wird nur die übertragene Blindleistung, also Im {s23} = q23 verändert.

696

15 FACTS-Elemente

Genauere Auskunft über die Sensitivität der übertragenen Scheinleistung bezüglich einer Änderung der Zusatzspannung liefert folgende Sensitivitätsbetrachtung: (0)

w s 23 w uz

' uz u z u (0) z

1 e j / uz  ' uz . 2 z

(15.49)

Unter Berücksichtigung der Grundbelastung (= Belastung ohne Regelungseingriffe, Index „Base“) folgt für die Verschiebung der Leistungsflüsse:

1 * s12 s Base . (15.50) 2 Für die Leistungsflüsse in Abhängigkeit von der Zusatzspannung bei konstanter Knotenspannung an Knoten 2 folgt dann:

s 23

uz

0

*

s 23

s Base -

1 uz 2 z

.

(15.51)

u2 1 pu

Aus diesem Zusammenhang ist unmittelbar ableitbar, dass eine maximale Zunahme des Leistungsflusses |s23| genau dann erreicht werden kann, wenn die Phase der Zusatzspannung so eingestellt wird, dass folgender Ausdruck gilt: *

‘ s Base

‘

uz  S. z

(15.52)

Ist diese Bedingung erfüllt, lässt sich die Gleichung wie folgt umschreiben:

uz . (15.53) 2z Die Betrachtung dieser Netzsituation macht den Einfluss des R/X-Verhältnisses auf die Auslegung des Serieumrichters deutlich. Zur reinen Wirkleistungsflussregelung muss die eingekoppelte Zusatzspannung eine Phasenlage aufweisen, die dem Winkel der Leitungsimpedanz entspricht. Bei kleinen R/X-Verhältnissen (z.B. R/X = 0.1) dominiert der Blindanteil der Netzimpedanz. Der Leitungsstrom hat idealer Weise einen kleinen Blindanteil. Folglich muss die Seriespannung nahezu senkrecht auf dem Leitungsstrom stehen. In diesem Fall erfolgt über den Serieumrichter nur eine kleine Wirkleistungsabgabe. Die entkoppelte Wirk-/Blindleistungsflussregelung erfolgt nahezu ausschließlich über die Einspeisung von Blindleistung durch den Serieumrichter. Die Dimensionierung des Shuntumrichters fällt entsprechend klein aus. In Netzen mit großem R/X-Verhältnis (z.B. R/X = 1) und kleinem Blindstromanteil im Leitungsstrom ist für die entkoppelte Wirk-/Blindleistungsflussregelung die Einspeisung eines größeren Wirkleistungsanteils durch den Serieumrichter erforderlich. Bei R/X = 1 könnte dann – je nach Leitungsstrom – der Fall auftreten, dass die eingespeiste Wirkleistung in der gleichen Größenordnung liegt, wie die eingespeiste Blindleistung. Die Dimension des Shuntumrichters ist in diesem Fall deutlich größer als in Netzen mit kleinen R/X-Verhältnissen. Dieser Zusammenhang verdeutlicht zusätzlich, dass in Systemen mit kleinen R/X-Verhältnissen eine konventionelle Seriekompensation zur Wirkleistungsflusss23 e j ‘ s23 ‘ s Base sBase 



15.3 Aufbau und stationäres Betriebsverhalten

697

regelung weniger effektiv ist. Hier würde unerwünschter Weise der Blindleistungsfluss in gleichem Masse wie der Wirkleistungsfluss beeinflusst werden. 15.3.4.5 Unterschiedliche Leitungen Unter Annahme hoher Kurzschlussleistungen gilt hier ebenfalls: z1

0 ; z4

0 .

(15.54)

Darüber hinaus sei angenommen, dass nur die Spannung an Knoten 1 bzw. 2 eingeprägte Referenzspannung (1 pu; 0°) sei und die Leitungen unterschiedliche Impedanzen haben:

z2

z3 .

(15.55)

Mit der zentralen Stromgleichung nach Gl. (15.28)

z2

i 23

z2

uz

i12 - i L1 -

z3

z2

z3

,

(15.56)

und unter Verwendung des Ausdrucks für die Berechnung der Scheinleistung über die geregelte Leitung folgt:

s 23

z2 z2

s G1 s L1 -

z3

uz z2

z3

.

(15.57)

Unter der Annahme, dass das R/X-Verhältnis sehr klein ist Re z 2

Im z 2

sowie

Re z 3

Im z 3 ,

(15.58)

folgt für den Scheinleistungsfluss:

s 23

z2 z2

z3

s G1

s L1 -

uz j z2

j z3

, (15.59)

z 2 und z3

mit z2

z3 . Unter Berücksichtigung der Grundbelastung der Leitung

s Base *

s23

z2 uz 0

z2

z3

s G1

s L1 ,

(15.60)

kann der Leistungsfluss über die Leitung in Abhängigkeit von der Zusatzspannung und der Grundbelastung angegeben werden:

s 23

s Base -

uz

*

j z2

j z3

.

(15.61)

Analog zu dem zuvor betrachteten Fall ergibt sich auch hier eine maximale Änderung der Leistungsflüsse, wenn die Phasenlage der Zusatzspannung in einem bestimmten Verhältnis zur übertragenen Wirk- und Blindleistung steht und die Rsowie X-Anteile der Leitungsreaktanzen Berücksichtigung finden:

698

15 FACTS-Elemente

uz z2

s Base *

z3

.

(15.62)

Für den Betrag des Scheinleistungsflusses folgt für diesen Fall dann unmittelbar:

s23 e j s23 sBase

s 23

s Base

1

z2

uz

sBase

z2

z3

.

(15.63)

uz . z3 sBase

(15.64)

Analog zum vorherigen Fall verdeutlicht die Analyse die starke Abhängigkeit von Betrag und Phase der einzukoppelnden Zusatzspannung von den Netzverhältnissen. Auch hier gelten die zuvor beschriebenen Zusammenhänge zwischen einzuspeisender Wirk- bzw. Blindleistung durch den Serieumrichter. 15.3.4.6 Leistungsflussregelung auf einer 380-kV-Doppelleitung Für dieses Beispiel sei eine Doppelleitung mit den folgenden technischen Parametern angenommen:

Abb. 15.53. Doppelleitung

UN = 380 kV, ZB = 1444 B

SB = 100 MVA,

(15.65)

B

Z = (0,03

+ j 0,26

) 100 km / km,

| Z | = 26,17 Für die normierte Leitungsimpedanz gilt dann: | z | [pu] = 0,018123

(15.66)

Von einer Last am Ende der Doppelleitung wird die Nennleistung (SN = 590MVA) einer der beiden Leitungen abgenommen. Aus diesen Angaben folgen für einige Seriespannungsbeträge die Leistungsflüsse über die geregelte Leitung: 1 590 MVA s 23 2,95 sBase (15.67) uz 0 2 100 MVA

s 23 sBase

1

uz 0,1069

s 23 sBase

1,467 ; u z 0 , 05

1 9,35 u z s 23 sBase

(15.68)

1,935 ; u z 0,1

s 23 sBase

2,4 u z 0 ,15

(15.69)

15.3 Aufbau und stationäres Betriebsverhalten

699

15.3.4.7 Regelung mit unterschiedlichen Spannungsebenen Eine häufige Motivation für den Einsatz leistungsflussregelnder Betriebsmittel ist die Kommutierung eines Leistungsflusses auf einen Pfad geringerer Verluste. Dieser Fall liegt vor, wenn Leitungen unterschiedlicher Nennspannungen parallel betrieben werden und stellt die Grundlage dieses Beispiels dar. Bei der untersuchten Netzsituation sind zwei Leitungen mit den Nennspannungen 380 kV und 500 kV parallel geschaltet. Am Ende dieses Netzausschnittes wird eine Leistung von 570 MVA abgenommen. Die für die Umspannung auf 500 kV erforderlichen Transformatoren werden durch ihre Streureaktanz repräsentiert. Mit den technischen Parametern U N = 500 kV; Z B = 2500

; S B = 100 MVA.

(15.70)

Für die Tansformatorreaktanzen und Leitungen sei angenommen: X T1

uk

U N2 = 87.87 SN

= X T2

X L = ( 0.022 + j 0.23 ) 100

j 2 X T1 ZB

z ges1

z ges2

XL

0.018123 pu

(15.71)

km/km = ( 2.2 + j 23 )

= 0.0795 pu

500kV

0.01047 pu

380kV

500kV

(15.72) (15.73) (15.74)

Für die Leistungsflüsse folgt dann für verschiedene Arbeitspunkte: s Base s 23 sBase

5.0367 pu 1

s 23 sBase

s 23 2,2 u z ; sBase

1,22 ; u z 0,1

(15.75) 1,11 ; u z 0,05

s 23 sBase

(15.76)

1,33 .

(15.77)

u z 0,15

15.3.4.8 Verallgemeinerung Aus den Modellgleichungen für das hier betrachtete Modell folgt, dass der Betrag einer Leistungsflussänderung aufgrund einer Regelung über Seriespannungseinkopplung nur von der Impedanz in der von der Regelung betroffenen Masche und der Zusatzspannung abhängt (vgl. Gl. (15.28)). Darüber hinaus erlaubt das Modell eine Abschätzung der einzukoppelnden Seriespannung. Soll beispielsweise auf Leitung 2-3 eine Leistungsflussänderung von s = p + j q erreicht werden, muss die einzukoppelnde Spannung über die Stromänderung in dieser Leitung bestimmt werden:

700

( s)

i 23

15 FACTS-Elemente

i 23

i 23

p j q u 2 e j u2

i 23

p j q u 2 e j u2

*

i 23

p j q u 2 e j u2

*

uz

uz z2 z3 z2

z3

*

(15.78)

(15.79)

(15.80)

Mit diesem zusammengefassten Ergebnis und den zuvor beschriebenen Beispielen lässt das betrachtete Modellsystem einige Rückschlüsse auf das allgemeine Systemverhalten zu. Der Betrag der einzukoppelnden Spannung für eine Leistungsflussänderung hängt nicht vom Belastungszustand ab, sondern voranging von den Impedanzverhältnissen im Netz. Der Betrag der einzukoppelnden Spannung für eine Leistungsflussänderung hängt zusätzlich von der Spannung der Sammelschiene ab, an der der Regler angeschlossen ist. Dieser Zusammenhang bedeutet auch, dass mit einer Shunt–Q-Regelung eines UPFC bei richtigem Einbauort eine SammelschienenSpannungsregelung vorgenommen werden kann, um den Effekt der Querspannungseinkopplung zu vergrößern (konstant zu halten). Dies ist nur an Einbauorten kleiner Kurzschlussleistung sinnvoll. Der Betrag der einzukoppelnden Spannung für eine Leistungsflussänderung hängt von der Leitungslänge der geregelten Leitung (z3) und vom Vermaschungsgrad, also von der der geregelten Leitung parallel geschalteten Impedanz (z2) ab. Die Berechnung der Zusatzspannung nach Gl. (15.80) kann nicht angewendet werden, wenn die Leiter-Erdkapazitäten nicht vernachlässigt werden können, also z.B. ein Kabelnetz betrachtet wird. Gleichung (15.80) gilt nicht, wenn die "externe" Impedanz nichtlinear ist, also z.B. mehrere Schrägregler im Netz installiert sind. Die dabei unsymmetrisch werdende Impedanz z2 kann über eine Impedanz mit Seriespannungsquelle nachgebildet werden. Alternativ kann auch eine Berechnung mit Kettenmatrizen erfolgen. In diesem Fall ist die Kettenmatrix des Parallelpfades unsymmetrisch und verhält sich wie ein Gyrator. Aufgrund der Annahme, dass die von Generator G1 abgegebene Scheinleistung konstant ist, decken sich die Stromänderungen nach Gl. (15.28) nicht genau mit den Ergebnissen einer konventionellen Leistungsflussberechnung. Aufgrund der Leistungsflusskommutierung erfolgt auch eine Änderung der Blindflüsse. Der erhöhte/verminderte Bedarf an Blindleistung wird von beiden Einspeisungen gedeckt. Für die grobe Abschätzung der einzukoppelnden Zusatzspannung gilt dann in erster Abschätzung: s 0,9

uz z Masche

pu .

(15.81)

Sollte die Spannung an den Sammelschienen (hier 2) kleiner als 0.9 pu werden, so ist der Faktor 0.9 entsprechend zu korrigieren.

15.4 Modellierung für die Effektivwertsimulation

701

15.4 Modellierung für die Effektivwertsimulation Die Beschreibung des dynamischen Verhaltens erfolgt über algebraische Gleichungen sowie lineare und nichtlineare Differentialgleichungen. Die den Kurzund Mittelzeitbereich beeinflussende Betriebsmitteldynamik wird stark von dem eingesetzten Regelungssystem (Betriebsmittelregelung) bestimmt. Dessen Ausführung variiert von Anwendung zu Anwendung. Aus diesem Grund wird hier eine allgemeine Struktur der Regelungssysteme und Systemmodelle angegeben. Dabei wird besonderer Wert auf die Koordination der Variablen gelegt, um eine möglichst gute Abbildung der Realität zu erzielen. Die Modellierung umfasst alle Betriebsmittel, die Shunt- und/oder Seriekomponenten aufweisen. Abgeleitet werden die Modellgleichungen von den FACTSElementen mit selbstgeführten Umrichtern, also Spannungsumrichtern. Stellvertretend für diese Technologie sind der Static Synchronous Compensator (STATCOM) als Shuntelement, der Static Synchronous Series Compensator (SSSC) und der Unified Power Flow Controller (UPFC) als Betriebsmittel mit Shunt- und Seriekomponente. Basis der hier beschriebenen Modellierung ist die Ansteuerung von Serie- und Shuntspannungs- und -stromquellen. Die modellhafte Eigenschaft der Strom- bzw. Spannunsgquelle folgt aus dem Verhalten der selbstgeführten Umrichter. Gleichzeitig kann bei leichten Veränderungen in der Modellstruktur auch das Verhalten thyristorgeschalteter Elemente nachgebildet werden. Die hierzu erforderlichen Änderungen beziehen sich auf das Spannung- und Stromverhalten der Quellen, da Elemente wie z.B. SVC und TCSC auf Basis von Impedanzänderungen arbeiten. Weiterhin sind Änderungen an den Begrenzungsfunktionen vorzunehmen, da die Betriebsbereichsbeschränkung selbstgeführter Umrichter sich von der fremdgeführter Einheiten unterscheidet. Da das Verhalten dieser Betriebsmittel bereits in Abschn. 9.5.3 sowie Ansätze zur Modellbildung und Regelung in Abschn. 13.3.1 und 13.3.3 angegeben sind, wird an dieser Stelle auf eine ausführliche Betrachtung dieser FACTS-Elemente verzichtet. Alle hier vorgestellten Ansätze basieren auf einer komplexen Darstellung der Netzgrößen. In der praktischen Realisierung stehen diese natürlich nicht zur Verfügung, sondern müssen durch eine entsprechende Messdatenaufbereitung gewonnen werden. Üblicherweise erfolgt dazu eine RST-DE-dq Transformation. Deren Ergebnis sind Netzgrößen als stehende Zeiger in komplexer Darstellung. Dieser Schritt wird hier der Einfachheit halber ausgelassen. Die Berechnungen beziehen sich dennoch auf komplexe Netzgrößen, deren Bereitstellung durch eine Messwertverarbeitung vorausgesetzt wird. 15.4.1 Shuntelemente – STATCOM Selbstgeführte Umrichter verhalten sich elektrisch wie nahezu ideale Spannungsquellen. Bei entsprechender Regelung der Ausgangsspannung ist ein Betrieb als Stromquelle in einer Shuntanwendung ebenfalls möglich. Das Modell umfasst dementsprechend eine den Betriebsgrenzen des Umrichters entsprechende Shuntspannungsquelle in Serie zu einer Streureaktanz des Netzanschlusstransformators oder in Serie zu der Entkopplungsdrossel im Falle eines transformatorlosen

702

15 FACTS-Elemente

Netzanschlusses. Die Eigenschaft des spannungsgeregelten Netzknotens ist dann die Folge der Variation des in den Knoten eingespeisten Blindstroms. Dieser wird durch Regelung der vom Stromrichter erzeugten Ausgangsspannung gegenüber der Knotenspannung geregelt. Die Spannungsregelung am Anschlussknoten erfolgt also durch die Variation des eingespeisten Blindstroms. Dieser verursacht an den Netzreaktanzen einen Spannungsabfall, der zu dem durch den Leitungsstrom verursachten Längsspannungsabfall mit- oder gegenläufig ist. Physikalisch speist der Umrichter Blindleistung zur Deckung der durch den Energietransport erforderlichen Blindleistung ins Netz und hebt auf diese Weise das Spannungsniveau in der Umgebung um den Anschlussort an (s. dazu auch Abschn. 13.3.2). Aufgrund dieses Zusammenhanges wirkt die gesamte Anordnung wie eine geregelte Stromquelle und wird daher auch als solche in der nachstehend angegebenen Modellierung betrachtet (Abb. 15.54). Der Eingangsgrößenvektor für den Regelkreis wird aus den Netzgrößen ermittelt und an das Modell der Messeinrichtung übergeben. Diese mitunter nichtlineare Übertragungsfunktion beschreibt das Verhalten der Messwertaufbereitung für den Regelkreis. Bei der Effektivwertsimulation hat diese Komponente einen unwesentlichen Einfluss und wird vernachlässigt:

& & & & G M ( u N ) = E ; x1 = u N , & uN

mit

: Eingangsgrößenvektor und

& & GM ( u N )

(15.82)

: Reglerfunktional.

Das Funktional F1 bildet die aufbereiteten Messgrößen auf die Eingangsgrößen des Betriebsmittelreglers mit der Übertragungsfunktion GR ab. Hier sind die Messgrößen Längsstrom i1 und Knotenspannung uq erforderlich:

& ªuq º x1 = « » . ¬ il ¼

(15.83)

Außerdem wird in diesem Modell der für die phasenrichtige Einkopplung des Knotenstromes erforderliche Spannungswinkel abgleitet:

uset GR(uR,uset)

y

F2(y, x3)

x2

GU(x2)

iq

x3 uR

Abb. 15.54: Stromquelle

F1(x1)

il

yN uq

x1

GM(uN)

uN

Modell eines Shuntelementes mit selbstgeführtem Umrichter, modelliert als

15.4 Modellierung für die Effektivwertsimulation

> @

& x 3 = x3 = ‘ u q .

703

(15.84)

Aus der Ausgangsgröße der Betriebsmittelregelung und dem mitgekoppelten Spannungswinkel wird über F2 der Sollwert des einzuprägenden komplexen Knotenstroms iq bestimmt. Dieser wird – nach Real- und Imaginärteil aufgeteilt –in den komplexen Netzgleichungen berücksichtigt.

ª Re{ iq}º & yN = « » . ¬ Im{ iq}¼

(15.85)

Zwischengeschaltet ist die Übertragungsfunktion des Umrichters nebst der unterlagerten Spannungsregelung, die das Verhalten der Stromquelle erst ermöglicht. Dieses Verhalten kann im einfachsten Fall als Verzögerungsglied erster Ordnung mit Zeitkonstanten im Bereich von einigen 10 ms modelliert werden: & & & allgemein : G U : x 2 o y N , . (15.86) & & 1 vereinfacht : G U x 2 = . 1 + TUs Shuntelemente ohne Energiespeicher, wie der STATCOM, injizieren ausschließlich Blindleistung. In einfachsten Fall stellt F1 als Eingangsgrößen für die eigentliche Regelung den Spannungsbetrag am Einsatzort zur Verfügung. Damit folgt unmittelbar für dieses Funktional:

& & § ªu q º · ªu R º ¨ » ¸= = F & «x » 1¨ « ¸ ¬ 3¼ © ¬ il ¼ ¹

ª uq º « »= «¬ ‘ uq »¼

ªuR º «x » ¬ 3¼

(15.87)

Bei einfacher Spannungsregelung enthält der Sollwertvektor den Sollwert der Knotenspannung. Aus dieser wird die Eingangsgröße für das Reglerfunktional gebildet. Die Differenz zwischen dem Spannungsbetrag und dem durch die Spannungs-/Blindleistungskoordination im Netz vorgegebenen Referenzwert ist das Eingangssignal für den Betriebsmittelregler:

& u set = uq,soll ; ' uq = u q,soll - u R

(15.88)

Bei ausführlicher Betrachtung sind im Sollwertvektor alle für die Regelung erforderlichen und von der Betriebsführung veränderlichen Größen zu berücksichtigen. Darunter fallen insbesondere die Vorgabe der Blindleistungsstatik für den Kompensationsbetrieb sowie allgemeine Anpassungen der Regelungsparameter an Veränderungen im Energiesystem. Eine einfache Ausführung des Reglers enthält zwei Glieder mit je proportionalem und integralem Charakter:

& & & i q,soll ( s ) = KN G R (u R , u set ) œ G R ( s ) = ǻ uq ( s )

ª KP 1 º «1 + sT + sT » P I¼ ¬

(15.89)

Die Begrenzung der Stellgröße erfolgt über F2. Die Parameter der Begrenzung ergeben sich aus den Parametern der Stromrichter, insbesondere derer Leistungs-

704

15 FACTS-Elemente

charakteristik. Für den hier angegebenen Fall der Blindleistungskompensation zur Knotenspannungsregelung folgt:



ª L iq,soll (s) cos ‘ uq + D ( t ) & F 2 iq,soll , ‘ uq = « « L iq,soll (s) sin ‘ u + D ( t ) q ¬

º

» = x& 2 , »¼

(15.90) x < x min ­ x min  °° mit der Begrenzung : L(x) = ® x  x min d x d x max ° °¯ x max  x > x max

,

und der relativen Winkelvorgabe für den Blindleistungskompensationsbetrieb mit der Winkeleinstellung D(t) = const = S. Je nach Regelungsstrategie ist es erforderlich die Phase des einzuprägenden Stroms, dessen Betrag durch die Betriebsmittelregelung als Stellgröße vorgegeben wird, über den Parameter D in Abhängigkeit von dem Spannungswinkel der Spannung uq einzustellen. Bei einer lokalen Spannungsregelung durch Blindleistungsinjektion ist der komplexe Knotenstrom orthogonal zu der komplexen Knotenspannung zu bilden. In der Praxis wird diese Phasenverschiebung über die Stromrichtersteuerung erreicht. Bei vollständiger Modellierung des Gleichstromzwischenkreises erfolgt bei einigen Realisierungen weiterhin über diese Stellgröße eine Regelung der Gleichspannung des Zwischenkreiskondensators. Kleine Abweichungen von der S-Vorgabe des Stromversatzes gegenüber der Knotenspannung führen zu einem Wirkenergieaustausch zwischen Gleichstromkreis des Kompensators und Netz. Eingespeicherte oder ausgespeicherte Energie beeinflussen direkt die Zwischenkreisspannung. Abhängig vom verwendeten Bezugssystem entfällt der Faktor drei bei der Energieberechnung:

WDC 'uDC

1 2 CDCuDC und pshunt 2 uDC,0

2

T

^

*

`

Re u q i q ,

2 *  3 Re u q i q dt . CDC ³0

^

(15.91)

`

Dieser Zusammenhang stellt eine Vereinfachung dar. Umrichterverluste und andere Energiesenken sind nicht berücksichtigt. Über eine zeitlich veränderliche Phasenverschiebung zwischen uq und iq erlaubt dieses Modell auch die Beschreibung von Energiespeichern, die über selbstgeführte Umrichter an das Netz angeschlossen sind. In diesem Fall ist neben einer Berücksichtigung der Energiebilanz der Speichereinheit – abhängig von der aus- bzw. eingespeicherten Wirkenergie – der Phasenwinkel des eingeprägten Knotenstromes relativ zur Knotenspannung zu verändern. Das Speichermanagement ist ebenfalls in den Funktionen entsprechend zu berücksichtigen.

15.4 Modellierung für die Effektivwertsimulation

705

15.4.2 Serieelemente – SSSC Die Modellstruktur des Serieelementes mit selbstgeführtem Stromrichter ist ähnlich derer des Shuntelementes. Der Unterschied besteht in der Ausgangsgrößeneinkopplung in das Netz. Die Ausgangsspannung des Gerätes wird hier direkt über eine Seriespannungsquelle in das Netz eingekoppelt. Die Ausführung als Seriekompensator (SSSC) speist über die Seriespannungsquelle Blindleistung in das Netz. Da die dazu einzukoppelnde Spannung senkrecht zum Leitungsstrom stehen sollte, erwirkt diese Spannungseinkopplung eine Phasenverschiebung zwischen den Spannungen am Anfang und Ende der betrachteten Übertragungsstrecke; dies insbesondere dann, wenn ein R/X Verhältnis nahe null vorliegt. Bei realen Ausführungen erfolgt die Zusatzspannungseinkopplung mittels Booster-Transformator. Dessen Streureaktanz liegt in Serie zum Strompfad und addiert sich zu den Reaktanzen der Übertragungsleitung oder des Kabels. Der Einfachheit halber ist diese Streureaktanz hier nicht berücksichtigt; sollte aber zumindest in den Netzgleichungen Berücksichtigung finden. Bei zukünftigen Ausführungen ist aufgrund der kontinuierlich steigenden Leistungsfähigkeit der eingesetzten Halbleiterbauelemente bezüglich Sperrspannung und Abschaltstrom mit einer transformatorlosen Lösung zu rechnen (siehe dazu auch [15.4]). In diesem Fall entfällt die Modellierung der Streureaktanzen. Eine allgemeinere Modellierung über eine zeitvariante Seriespannungsquelle bietet den Vorteil, dass sich alle Serieelemente auf diese Weise beschreiben lassen. Die konstruktiv bedingten Unterschiede hinsichtlich Betriebsbereich und Schaltverhalten werden in der Ansteuerung der Seriespannungsquelle berücksichtigt. Hinsichtlich der Integration in die Netzgleichungen bietet diese Modellstruktur den Vorteil einer für alle Serieelemente einheitlichen Vorgehensweise. Analog zu dem für die Shuntelemente eingeführten Modell wird der Eingangsgrößenvektor aus den Netzgrößen ermittelt und an das Modell der Messeinrichtung übergeben. Diese ebenfalls im allgemeinen Fall als nichtlinear anzunehmende Übertragungsfunktion GM beschreibt das Verhalten der Messwertaufbereitung für den Regelkreis. Bei der Effektivwertsimulation hat diese Komponente ebenfalls einen unwesentlichen Einfluss und wird vernachlässigt: & & & & (15.92) G M (u N ) = E ; x1 = u N . Analog zum Modell des Shuntelementes bildet das Funktional F1 die aufbereiteten Messgrößen auf die Eingangsgrößen des Betriebsmittelreglers (Übertragungsfunktion GR) ab. Hier sind die Messgrößen Längsstrom il und Knotenspannung uq erforderlich (Abb. 15.55). Eine Leistungsflussregelung bedingt die in Gl. (15.99) dargestellten Eingangsgrößen. & ªu q º x1 = « » . (15.93) ¬ il ¼ Für die phasenrichtige Einkopplung der Zusatzspannung muss aus dem Eingangsvektor der Winkel des Leitungsstroms abgeleitet werden: & x 3 = x3 = > ‘ i l @ (15.94)

706

15 FACTS-Elemente

Bei einem reinen Blindleistungskompensationsbetrieb des SSSC (kein Speicher) ist eine Seriespannung senkrecht zum Leitungsstrom bereitzustellen. Dies kommt bei der Ausgangsgrößenbestimmung zum tragen. Aus der Ausgangsgröße der Betriebsmittelregelung und dem mitgekoppelten Stromwinkel wird über F2 der Sollwert der einzuprägenden Seriespannung ul bestimmt. Nach Real- und Imaginärteil aufgeteilt findet diese Spannung in den Netzgleichungen Berücksichtigung: ª Re^u l ` º . & yN = « » ¬« Im^u l ` ¼»

(15.95)

Zwischengeschaltet ist die Übertragungsfunktion des Umrichters nebst der zugehörigen Schutz- und Regelungssysteme. Zu deren Modellierung wird auf Gl. (15.92) verwiesen. Serieelemente wie der SSSC injizieren ausschließlich Blindleistung. Ein wesentlicher Anwendungsfall ist die Regelung der Wirkleistungsflüsse auf einer Leitung. In einfachsten Fall stellt F1 daher neben dem Winkel des Leitungsstroms die den Wirkleistungsfluss auf der Leitung als Eingangsgröße für die eigentliche Regelung zur Verfügung: & * ªu R º & § ªu q º · ª Re uq i l uq º ª pij º ªu R º »=« » = « ». « & » = F 1 ¨¨ « » ¸¸ = « (15.96) i « » « » « » l ¼ ¬ x ‘ i © ¹ ¬ x ‘ il 3 ¬ ¼ ¬« 3¼» l ¬ ¼ ¼

^

`

Bei einfacher Leistungsflussregelung enthält der Sollwertvektor den Sollwert des gewünschten Leistungsflusses. Hieraus wird die Eingangsgröße für das Reglerfunktional gebildet. Die Differenz zwischen dem aktuellen Leistungsfluss und dem Referenzwert ist das Eingangssignal für den Betriebsmittelregler:

& u set = pij,soll ; ' pij = pij,soll - u R .

(15.97)

Auch hier sind im Sollwertvektor alle für die Regelung erforderlichen und veränderlichen Größen zu berücksichtigen. Eine einfache Ausführung des Reglers enthält zwei Glieder mit je proportionalem und integralem Charakter: & & & ul,soll ( s) 1 º ª = KN « KP + G R (u R ,u set ) œ G R ( s) = » + s s ' pij ( s ) 1 TP TI ¼ ¬

uset

GR(uR,uset)

y

F2(y, x3)

x2

GU(x2)

uR

F1(x1)

x1

GM(uN)

ul

yN

x3

uN

(15.98)

il

uq

Abb. 15.55: Modell eines Serieelementes mit selbstgeführtem Umrichter, modelliert als Spannungsquelle

15.4 Modellierung für die Effektivwertsimulation

707

Die Ausgangsgröße der Leistungsflussregelung wird als Stellgröße mit dem Winkel des Stroms il auf F2 geschaltet, um die einzuprägende komplexe Seriespannung zu bestimmen. Dies erfordert die Bestimmung der Phasendrehung unter Berücksichtigung des Stellbereiches des Umrichters nach Gl. (15.105). Die so berechnete einzukoppelnde komplexe Seriespannung muss unter Berücksichtigung der elektrischen Wirkung einer Seriekomponente ohne Speichereinheit senkrecht auf dem Längsstrom il stehen. Es kann nur Blindleistung abgegeben werden. In der Praxis wird dies beispielsweise durch eine Änderung der Phasenlage des Pulsmusters bei Pulsweitenmodulation vorgenommen. Dadurch erfolgt über die einzukoppelnde Spannung ein Energieaustausch zwischen Netz und Umrichterzwischenkreis, um beispielsweise die Zwischenkreisspannung zu regeln. Analog zum Shuntelement folgt zur Beschreibung dieses Vorganges unter Vernachlässigung aller Verluste allgemein der Zusammenhang in Gl. (15.106). Je nach Bezugssystem ist hier der Tatsache Rechnung zu tragen, dass Energie aus einem dreiphasigen Wechselstromsystem in ein Gleichstromsystem übertragen wird. Das hier angegebene Modell eignet sich grundsätzlich auch zur allgemeinen Beschreibung von Seriekomponenten mit Energiespeichereinheit. Diese wird mittelbar oder unmittelbar an den Zwischenkreis angeschlossen. Anwendungsgebiete solcher Ausführungen liegen vor allem im Bereich der Verbesserung der Versorgungsqualität bezüglich der Kompensation von kurzzeitigen Spannungseinbrüchen. Bei dieser Anwendung wird ein Spannungseinbruch im Netz durch die additiv überlagerte Seriespannung kompensiert, so dass ein angeschlossener Verbraucher von einem Netzfehler unberührt bleibt. ª L ul ( s ) cos ‘ ul,soll + Į(t ) º & » , F 2 ul,soll , ‘i l = « «¬ L ul ( s ) sin ‘ ul,soll + Į(t ) »¼

x < x min ­ xmin  °° mit der Begrenzung L( x ) = ® x  x min d x d xmax ° x > xmax ¯° x max 

(15.99) ,

und der relativen Winkelvorgabe D(t) = const. = S

WDC 'uDC

1 2 CDCuDC und pshunt 2 uDC,0

2

T

^

*

`

Re u q i q ,

2 *  3 Re u q i q dt . CDC ³0

^

(15.100)

`

Typischerweise werden Speicher in der genannten Anwendung als Kondensatorspeicher ausgeführt, da die bereitzustellenden Energiemengen verhältnismäßig klein und Antwortzeiten im ms Bereich erforderlich sind. Typische Kompensationszeiten für diese Anwendung liegen im Bereich einiger 100 ms (s. auch Abschn. 15.7). Ist über einen längeren Zeitraum eine vom Winkel des Leitungsstroms un-

708

15 FACTS-Elemente

abhängige Spannungseinkopplung erforderlich, wird der Gleichstromkreis durch einen Shuntumrichter gespeist. Dieses Anlagenkonzept findet wiederum in der Hoch- und Höchstspannungsebene für universelle Leistungsflussregelung (UPFC) Anwendung. 15.4.3 Parallel-Serielle-Elemente - UPFC Das Gerätekonzept des UPFC entsteht durch die Zusammenschaltung des Shuntelementes STATCOM und des Serieelementes SSSC auf der Gleichstromseite. Diese Zusammenschaltung ermöglicht einen Wirkleistungstransfer durch den Gleichstromzwischenkreis. Wirkleistung kann über das Shuntelement aus dem Netz entnommen und über das Serieelement wieder an das Netz abgegeben werden - und umgekehrt. Dies erhöht die Freiheitsgrade des Betriebes erheblich, da entweder die Phasenlage der Seriespannung oder die des Shuntstroms unabhängig von den Netzgrößen gewählt werden. Das Modell ergibt sich aus der Zusammenschaltung der Modelle für Shunt- und Serieelemente nach Abb. 15.56 und Abb. 15.57. Entkoppelt vom Reglerfunktional wird durch die Funktionale F1-3 die Aufbereitung der Messwerte für die Regelkreise und die phasenrichtige Einkopplung der Ausgangsgrößen sichergestellt. Bei der Anwendung dieses Betriebsmittelmodells müssen lediglich die Reglerübertragungsfunktionen spezifiziert werden; die Modellstruktur bleibt davon unbeeinflusst. Hinsichtlich der Messwertaufbereitung und der Aufschaltung der Ausgangsgrößen auf das Netz unterscheidet sich das UPFC-Modell nicht von dem Shunt- und Serieelement-Modell. Wie bei Shuntund Serieelement ergibt sich unter Vernachlässigung des Einflusses der Messwertaufbereitung:

& & & & G M (u N ) = E ; x1 = u N .

(15.101)

Da der UPFC neben einer entkoppelten Wirk- und Blindleistungsregelung auf der Leitung auch die Möglichkeit der Spannungsregelung durch den Shuntumrichter bietet, wird der Eingangsvektor nach Gl. (15.108) gewählt. Über das Funktional F1 erfolgt die Berechnung der Eingangssignale für die Regler sowie der Signale für die Ausgangsgrößenbestimmung aus den verfügbaren Messgrößen (vgl. Gl.

uset H(uN, uset) uN

il1

yN

il2

ul

iq = iq1 + iq2 uq1

uq2

Abb. 15.56: Modell eines FACTS-Elementes mit Shunt- und Serieelement mit Reglerfunktional und Netzeinkopplung

15.4 Modellierung für die Effektivwertsimulation

709

(15.109)). Der Eingangsvektor für die eigentliche Regelung umfasst die aktuellen Wirk- und Blindleistungsflüsse auf der Leitung sowie die Knotenspannung.

ª u q1 « & & x1 = u N = « il1 « «¬ il 2

º » ». » »¼

(15.102)

Die vierte Komponente des Eingangsvektors uR ist ein Signal d, dass der überlagerten Dämpfungsregelung zugeführt wird. Im einfachsten Fall kann hier der Wirkleistungsfluss über das Element gewählt werden. Der eigentliche Regelkreis besteht aus einer Regelung für die Leistungsflüsse und die Knotenspannung (Normalregelung) sowie einer überlagerten Komponenten für Dämpfungsregelung. Daher folgt für den Vektor der Sollwertvorgaben der Ausdruck in Gl. (15.110).

^ ^

& F1



`º » ` »»

ª Re u q1 i l1* « « * « Im u q1 i l1 « uq1 « « & « d « & --x1 = « « il1 « « il2 « « « ‘u q1 « « ‘i l1 « «¬ ‘i l2

& & u set = u set

ª ' p12 « = « ' q12 « «¬ ' uq1

ª p12 « « q12 « » « u » « q1 » « & » « d » « » = « --» « i » « l1 » « i » « l2 » « ‘u q1 » « » « ‘i l1 » « » « ‘i l2 »¼ ¬

º » » » » » » & » ª uR º » « » » = « --- » . » « & » » «¬ x 2 »¼ » » » » » » »¼

º ª p12 ,soll - p12 » « » = « q12 ,soll - q12 » « »¼ «¬ uq1,soll - uq1

º » ». » »¼

(15.103)

(15.104)

Unter Berücksichtigung der Definition des Eingangsvektors kann die Normalregelung über eine Matrix mit den Reglerübertragungsfunktionen in der Hauptdiagonale dargestellt werden. Eine zweite Komponente sorgt für die Überlagerung des Dämpfungssignals, das mit Faktoren gewichtet zu den Normalregelungs-Signalen addiert wird (Gl. (15.105)). Eine Zusammenfassung der beiden Ausdrücke ermöglicht eine kompaktere Darstellung mit einer Regelungsmatrix M.

710

15 FACTS-Elemente

ª G P ( s) « 0 « « 0 «¬

& y

0

0

GQ ( s) 0

0 GU ( s )

0º » & 0 » uR » 0 »¼

(15.105)

ª K D1 º « » &  « K D2 » > 0 0 0 G D ( s ) @ u R . « » «¬ K D3 »¼ Für praktische Implementierungen, beispielsweise in ein blockorientiertes Simulationssystem, ist diese Darstellung aufgrund der erhöhten Anzahl von Zustandsgrößen ungünstiger: ª G P ( s) & & « y =y = « 0 « 0 ¬«

0

0

GQ ( s)

0

0

GU ( s)

K D1 GD ( s )º » & & K D 2 GD ( s )» u R = M u R . » K D 3 GD ( s )¼»

(15.106)

Im einfachsten Fall sind Regler mit proportional integralem Verhalten einzusetzen. Für die Übertragungsfunktionen der Regelung der Wirk- und Blindleistungsflüsse sowie der Knotenspannung folgt Gl. (15.107). Zur Dämpfung dynamischer Vorgänge kann eine unterlagerte Dämpfungsregelung eingeführt werden, die durch Modulation der Stellgrößen der Spannungs-, Wirkleistungs- und Blindleistungsregelung wirkt (siehe Matrix M ). Die einfachste Ausführung stellt eine Übertragungsfunktion mit gezielter Phasen- und Verstärkungsanhebung dar. Daher wird hier eine Kombination von Lead-/Lag-Gliedern mit vorgeschaltetem Filter eingesetzt, deren Ausgangsgröße e über M und die Verteilungsfaktoren KD1 bis KD3 den anderen Regelkreisen überlagert wird. Als Eingangsgröße dient die zuvor selektierte Größe d. Verfahren zur Parametrierung von Übertragungsfunktionen dieser Struktur sind das Frequenzkennlinien- und Wuruset uR

y

GR(uR,uset)

F2(x2, x3, y) x4

uN

GM(uN)

x1

F1(x1)

x2

x5

x3

F3(x2, x4, y)

GU(x5, x6) x6

H(uN, uset) Abb. 15.57: Modell der Regelung eines UPFC – Hauptkomponenten

yN

15.4 Modellierung für die Effektivwertsimulation

711

zelortverfahren. Bei der Anwendung des Frequenzkennlinienverfahrens werden die Zeitkonstanten und Verstärkungsfaktoren so eingestellt, dass der Dämpfungsregler die Phasenverschiebung zwischen Einkopplung der Stellgröße und dem Generator-Turbosatz kompensiert. Das Wurzelortsverfahren ermöglicht eine Analyse der mit der Schwingungsbewegung korrespondierenden Eigenwerte.

GP ( s ) =

GQ ( s ) =

y P (s) K P + K P2 , = 1 + sT P ǻ p1,2 (s) s T P2 y Q (s) ǻ q1,2 (s)

=

KQ K Q2 + , 1 + sTQ s T Q2

GU ( s ) =

y U (s) K U + K U2 . = ǻ uq1 (s) s T U2 1 + sT U

GD ( s ) =

s (1 + s T D1) (1 + s T D 3) . e( s ) = K DR d ( s) 1 + s T UW (1 + s T D 2 ) (1 + s T D 4 )

(15.107)

(15.108)

Eine Realisierung der Ausgangsgrößenweiterleitung für die Regelungen basiert auf der Beeinflussung des Wirleistungsflusses durch den Imaginärteil Seriespannung und der Beeinflussung des Blindleistungsflusses durch den Realteil der Seriespannung. Als dritter Freiheitsgrad steht die Regelung des Shuntstroms zur Verfügung. Diese Vorgehensweise korrespondiert mit der in der Praxis eingesetzten Regelung der d- und q-Komponente der entsprechenden Netzgrößen. Der Ausgangsgrößenvektor des Reglers ergibt sich dann zu: ª Re ^ ul `soll « & y = « Im ^ ul `soll « ¬« iq1.soll

º » »= » ¼»

mit ul,soll = Re ^ ul

`soll + j Im ^ ul `soll

ª y P ( s ) + e( s ) « « y Q ( s ) + e( s ) « « y U ( s ) + e( s ) ¬

º » », » » ¼

(15.109)

.

Der Wirkleistungsregler beeinflusst den Imaginärteil, der Blindleistungsregler den Realteil der Spannung ul,soll, die nach einer Phasendrehung und Begrenzung über F2 als Zusatzspannung ul in den Seriezweig eingeprägt wird. Aufgrund der längsund querregelnden Wirkung ist bei der Phasendrehung sicherzustellen, dass der Realteil von ul in Phase mit der Spannung uql liegt. Die Begrenzung der einzuprägenden Seriespannung hängt von den Konverterleistungen der Umrichter im Shunt- und Seriezweig ab. Da ul nicht in Phase zu il1 liegt, muss die im Seriezweig abgegebene Wirkleistung über den Shuntzweig aufgenommen werden. Diese Wirkleistung berechnet sich nach:

pl = Re

^u

*

l

il2

`.

(15.110)

712

15 FACTS-Elemente

Die maximal im Shuntzweig abgebbare Scheinleistung ist durch die maximale Umrichterleistung sq,max gegeben. Daher muss bei einer Blindleistungsinjektion über iq1 die Wirkleistungsabgabe folgender Randbedingung genügen:

u1 il2 cos ‘ uq1+‘ ul - ‘ il2

pl d

(15.111)

2

2 sq,max - ( uq1 iq1 ) = pl,max .

Diese Randbedingung kann durch die Begrenzung des Betrages und der Phase von ul erfüllt werden. Die Einhaltung dieser Randbedingung durch eine Begrenzung des Betrages von ul schränkt sowohl die längs- als auch die querregelnde Wirkung ein, obwohl aufgrund der maximalen Konverterleistung im Seriezweig s1,max nur eine Scheinleistungsbegrenzung besteht. Wird obige Gleichung durch eine Phasenbegrenzung erfüllt, kann auch bei Erreichen der maximalen Scheinleistungsabgabe im Seriezweig auf jeden Fall die Ortskurve der Seriekompensation abgefahren werden. Dies wäre bei einer Betragsbegrenzung nicht möglich. Unter Einbezug dieser Randbedingungen ergibt sich F2 zu Gl. (15.118). Aufgrund der maximalen Konverterleistung im Seriezweig müssen sowohl Betrag als auch Phase begrenzt werden. Für die Phasenbegrenzung ergibt sich Gl. (15.119). ª Re ^u l ` & & & & & « F 2 x 2 , x 2 , y = x 5 = « Im ^u l ` « «¬ iq2,soll

^

`º»

^ ^

`

ª j‘ u q1 « Re L B L P u l,solle º « » « j‘ u » = « Im L B L P u l,solle q1 » « * »¼ « Re u1 i12 « uq1 ¬

`

» » ». » » » ¼

(15.112)

(15.113)

Die Betragsbegrenzung kann wie folgt beschrieben werden:

­ ° ° LB ( x ) = ® ° ° ¯

x

sl,max e il 2



j‘ x



x d

x >

sl,max i l2

.

(15.114)

sl,max il2

Der Spannungsregelkreis regelt den Betrag des einzuprägenden Shuntstroms iq1. Die Phase dieses Stromes hängt von der Phasenlage der Eingangsspannung uq1 ab, da hier ohne Wirkenergiespeicher durch eine Phasenverschiebung von ʌ/2 eine

15.4 Modellierung für die Effektivwertsimulation

713

reine Blindleistungsabgabe gewährleistet sein muss. Die dazu erforderliche Phasendrehung erfolgt über F3 mit D S/2: Re & & & & & ª F 3 ( x 2 , x 4 , y ) = x6 = « «¬ Im

^L i ^L i Bq

q,soll

Bq

q,soll

`º » , `»¼ (15.115)

iq1,soll cos ‘ uq1 + Į + i q2,soll cos ‘ uq1

mit i q,soll = +

j i q1,soll sin

‘u

q1



+ Į + iq2,soll sin ‘ uq1

.

Die hier erforderliche Betragsbegrenzung ist durch die maximale Konverterleistung im Shuntzweig sq,max bestimmt:

­ x ° ° LBq ( x ) = ® ° sq,max e ° ¯ u q1



x d

sq,max u q1 (15.116)



j ‘x

x>

sq,max u q1

Für die Schnittstellenvektoren zwischen den Funktionalen für die Ausgangsgrößenaufbereitung gilt bei dieser Ausführung:

& x3 = >

@

& ; x 4 = > iq2,soll

@

(15.117)

Bei der Berechnung der Ausgangsgrößen ist sicherzustellen, dass zunächst beide Shuntstrom-Vorgaben vorliegen. In diesem Fall ist nach Berechnung der Ausgangsgrößen des Reglerfunktionals zunächst über F2 die Sollwertvorgabe iq,2,soll zu berechnen. Erst dann ist eine richtige Berechnung der gesamten ShuntstromVorgabe über F3 gewährleistet. Wie bereits beim Shunt- und Serieelement beschrieben, ist die gesamte Modellierung des Umrichterteils für den hier betrachteten Zeitbereich auf ein Verzögerungsglied erster Ordnung reduziert worden. Für die Modellierung dieser Komponente wird auf die bereits angebenden Gleichungen verwiesen. 15.4.4 Modellsynthese Dem im folgenden beschriebenen Verfahren zur Synthese der FACTS-ElementModelle mit den Netzgleichungen liegt das in Abschn. 14.2.2 angegebene Prinzip der „Netzberechnung mit Spannungseinkopplung“ zugrunde. Für eine über die hier speziell auf die Anwendung mit FACTS-Elementen konzentrierte hinausgehende Beschreibung sei auf Abschn. 14.2.2 verwiesen. Das dynamische Verhalten des betrachteten Zeitbereichs wird kraftwerksseitig vorrangig durch die Rotordynamik der installierten Generatoren und deren Regelungseinrichtungen bestimmt. Da die Selbst- und Gegeninduktivitäten des Rotorund Statorsystems von der Rotorstellung abhängig und damit zeitvariant sind, erfolgt eine Berechnung der dynamischen Ausgleichsvorgänge in einem transfor-

714

15 FACTS-Elemente

mierten Bezugssystem. Die dazu beispielsweise eingesetzte Parktransformation ermöglicht eine Beschreibung der Rotordifferentialgleichungen als lineares Differentialgleichungssystem mit konstanten Koeffizienten. Dabei werden die Realund Imaginärteile der dreiphasigen Statorgrößen in Abhängigkeit von der Rotorstellung auf ein orthogonales Rotorbezugssystem (dq-System) transformiert. Die Eingangsgrößen des resultierenden Differentialgleichungssystems sind die Ausgangsgrößen der Regelkreise des Generator-Turbinensatzes und der Komponentenmodelle sowie die Statorströme. Als Ausgangsgröße folgt für jede Achse des Rotorbezugssystems eine zeitvariante Spannung, aus der durch Anwendung der inversen Parktransformation und der algebraischen Statorspannungsgleichungen die Generatorklemmenspannungen im Netzbezugssystem zu berechnen sind (für näheres s. Abschn. 10.1). Aufgrund der algebraischen Formulierung der Statorgleichungen im Kurz- und Mittelzeitbereich muss das Netz, über das die Rückkopplung der Statorspannungen auf die Statorströme erfolgt, ebenfalls über algebraische Gleichungen beschrieben werden. Dazu werden die algebraischen Netzgleichungen so umgestellt, dass die ersten Komponenten des Knotenstromvektors die komplexen Statorströme iG des Netzbezugssystems enthalten (s. dazu auch Abschn. 10.3). Die weiteren Komponenten dieses Vektors repräsentieren die Nettoknotenströme an den Lastknoten iL. In dieser Anordnung wird die Knotenadmittanzmatrix in vier Untermatrizen zerlegt: & & ª i G º ª Y GG Y GL º ª u G º & & « & »=« (15.118) » « & » = i =Y u . «¬ i L »¼ «¬ Y LG Y LL »¼ «¬ u L »¼ Knotenlasten werden über Lastadmittanzen in der Knotenadmittanzmatrix berücksichtigt, weil dadurch eine exaktere Modellierung als bei konstanten Knotenlasten oder Lasten linearer Spannungsabhängigkeit erreicht wird. Der Lastadmittanzvektor yL findet ausschließlich in der Teilmatrix YLL Berücksichtigung:

& ª iG º & L Y LL := Y LL + diag ( y L ) => i = « » . ¬ 0 ¼

(15.119)

Der Knotenstromvektor wird identisch Null und damit eine analytische Lösung der Netzgleichungen ermöglicht. Während der dynamischen Simulation muss keine iterative Netzberechnung durchgeführt werden. Um diesen Vorteil auch bei einem Systemmodell mit FACTS-Elementen ausnutzen zu können, erfolgt hier die Modellsynthese anhand von Erweiterungen der Gl. (15.118) und (15.119). Während kraftwerksnah eingesetzte regelbare Betriebsmittel mit Eigendynamik über eine Einkopplung an den Einspeisungspunkten in die Netzgleichungen integriert werden können, erfordert die Berücksichtigung von nicht kraftwerksnah angeordneten Betriebsmitteln eine Erweiterung der Netzgleichungen mit den von regelbaren Betriebsmitteln eingeprägten komplexen Shuntströmen und Seriespannungen. Damit reduziert sich das Problem der Integration von Modellen von Shunt- und/oder Serieelementen in die Netzgleichungen auf die Integration von zusätzlichen Spannungs- und Stromquellen.

15.4 Modellierung für die Effektivwertsimulation

715

Eingeprägte Shuntströme (iq) beeinflussen unmittelbar die Knotenstrombilanz, so dass Shuntstromquellen in den Netzgleichungen durch Addition berücksichtigt werden können. Da die Anzahl zusätzlicher Knotenströme nicht der Anzahl der Netzknoten entsprechen muss, erfordert die Berücksichtigung in den Netzgleichungen eine Koppelmatrix KQ. Die Anzahl der von Null verschiedenen Elemente dieser Matrix entspricht der Anzahl der Shuntstromquellen. Der Betrag eines jeden Elementes ist eins. Für die um zusätzliche Knotenströme erweiterten Netzgleichungen gilt: (15.120) Eingeprägte Seriespannungen ul sind ohne Transformation auf elektrische Äquivalente in den knotenorientierten Netzgleichungen nicht zu berücksichtigen. Daher wird die Wirkung der Spannungsquellen auf in Serie geschaltete Impedanzen betrachtet. xB

i12

a)

' iq

u1

b)

xL

i21 u2

' ul

xB

i12

i21

xL

'iq u1

'il

xB

i12

c) u1

' i q + 'i l

xL

'u l j ( xB  x L )

u2

i21

'il

u2

Abb. 15.58: Schritte zur Umwandlung einer Seriespannungsquelle in zwei Shuntstromquellen, Ausgangssituation (a), Umformung mit Stromquelle (b) und resultierendes Modell (c)

Da die Serieschaltung aus idealer Spannungsquelle und Impedanz auf das Netz wie die Einprägung von Knotenströmen am Anfang und Ende dieser Serieschaltung wirkt, können eingeprägte Seriespannungen in der Knotenstrombilanz berücksichtigt werden (vgl. Abb. 15.58). Dazu ist eine Koppelmatrix KL erforderlich, die die reziproken Impedanzen der Serieschaltung enthält. Aufgrund der Einkopplung von Seriespannungen über die Knotenstrombilanzen an den Anschlusspunkten des Betriebsmittels ist die Anzahl der von Null verschiedenen Elemente dieser

716

15 FACTS-Elemente

Koppelmatrix doppelt so groß wie die Anzahl der Seriespannungsquellen. Für die um zusätzliche Seriespannungen erweiterten Netzgleichungen folgt:

& & & i = Y L u + K L ul .

(15.121)

Die Zusammenfassung der Gleichungen ergibt die um zusätzliche Shuntströme und Seriespannungen erweiterte Netzgleichungen nach:

ª iG º « » ¬ 0 ¼

ª Y GG Y GL º ª uG º ª K GQ »« =« »+« « Y LG Y LLL » ¬« u L ¼» «¬ K LQ ¼ ¬ & & & = Y Lu + K Q i q + K L u l .

º & ª K GL º & » iq + « » ul »¼ «¬ K LL ¼»

(15.122)

In dieser Darstellung sind die Knotenlasten als Lastadmittanzen berücksichtigt. Der Stromvektor der linken Seite von Gl. (15.122) enthält ausschließlich die Generatorströme. Durch Aufspaltung der Knotenadmittanzmatrix und der Koppelmatrizen in Teilmatrizen folgt eine analytische Beschreibung der Generatorströme und Knotenspannungen als Funktion der Generatorspannungen und der durch die regelbaren Betriebsmittel eingeprägten zusätzlichen Knotenströme und Seriespannungen: & & & -1 u L = - Y LLL Y LG u G + K LQ i q + K LL u l , (15.123) & & & & & i G = Y GG u G + Y GL u L + K GQ i q + K GL u l .





Insgesamt ergibt sich mit dieser Beschreibung der Netzgleichungen und den linearen sowie nichtlinearen Differentialgleichungen der Generatoren, der regelbaren Betriebsmittel und aller Regelungseinrichtungen ein nichtlineares Differentialgleichungssystem.

15.5 Einsatzortbestimmung Die Baugröße eines Netzreglers hängt nicht allein von der zu erzielenden Wirkung im Netz, sondern insbesondere auch vom Einsatzort ab. Für einen wirtschaftlichen Einsatz von Netzreglern ist daher ein solcher Einsatzort zu bestimmen, an dem die Wirkung von Regelungseingriffen besonders effektiv ist. Zur Bestimmung der Einsatzorte von im Netz regelnder Betriebsmittel existieren viele verschiedene Verfahren. Eine einfache Möglichkeit besteht in der Analyse der Sensitivität einer zu regelnden Netzgröße gegenüber einem Betriebsmitteleingriff an einem bestimmten Einsatzort. Der Einsatzort mit der höchsten Sensitivität ist dann nach diesem Kriterium optimal. Beispielhaft für alle Netzregler werden hier die folgenden Fälle „Shuntelemente am Beispiel der Spannungsregelung und -stabilität“ sowie „Serieelemente am Beispiel der Lastflussregelung und Verlustreduktion“ betrachtet.

15.5 Einsatzortbestimmung

717

Die Vorgehensweise stützt sich auf linerarisierte Leistungsflussgleichungen. Bei Netzreglern, die sowohl Shunt- als auch Serieelement-Charakter aufweisen (wie z.B. der UPFC) ist eine Kombination der hier vorgestellten Verfahren möglich. Alle vorgestellten Methoden beruhen auf einer Knoten-Zweig-Darstellung des Netzes. Die Verfahren liefern je einen Vektor, der – je nach Shunt- oder Serieanwendung – ein alle Knoten- bzw. Zweigelemente klassifizierendes Gütemaß enthält, so dass der im Sinne des angewandten Kriteriums optimale Einsatzort direkt entnehmbar ist. Da wirtschaftliche Kriterien, wie Expansionskosten von Unterstationen, nur schwer in die mathematische Analyse integrierbar sind, stellt das Ergebnis der Sensitivitätsanalyse die rein systemtechnische Dimension der Einsatzortbestimmung dar. In der praktischen Anwendung sind eben diese Faktoren weitergehend zu betrachten. 15.5.1 Shuntelemente Aufgrund der üblicherweise schwachen Kopplung zwischen Blindleistungsinjektion und Wirkleistungsfluss bzw. starken Kopplung zwischen Nettoknotenblindleistung und Knotenspannung, ist ein Anwendungsgebiet von Shuntelementen die Spannungsstützung. Als mathematische Grundlage für die Sensitivitätsanalyse von Knotenspannungen bezüglich Blindleistungsinjektionen von Shuntelementen dienen die Gleichungen zur Bestimmung der Nettoknotenwirk- und blindleistung. Alle Variablen gehen normiert in das Gleichungssystem ein. Die Sensitivitätsanalyse erfolgt anhand einer linearisierten Betrachtung durch partielle Differentiation nach Winkel und Spannung.

pi =

nk

¦

ui u j yij sin -i - - j - Dij ,

k=1

qi =

nk

¦

(15.124)

ui u j yij cos -i - - j - Dij ,

k=1

mit y ij = yij e j S / 2 - Dij . Die die Ableitungen enthaltende Jacobi-Matrix J kann überdies als Matrix, bestehend aus den vier Untermatrizen JP- JPu, JP- und JQu dargestellt werden: ª wp & « ǻ p ª º « w« &»=« ¬« ǻq ¼» « w q ¬« w -

wp º & w u » ªǻ º » = » « &» w q » ¬ǻ u ¼ w u ¼»

ª J P- J Pu « «¬ J Q- J Qu

& & º ªǻ - º ªǻ - º » « & » = J « & ». »¼ ¬ ǻ u ¼ ¬ǻ u ¼

(15.125)

Die für die Einsatzortbestimmung erforderliche Beschreibung der Spannungsänderungen 'u und Winkeländerungen '- in Abhängigkeit von den Blindleistungsänderungen 'q und Wirkleistungsänderungen 'p ist aus der Zerlegung der inversen Jacobi-Matrix bestimmbar. Hinsichtlich der Sensitivitätsanalyse werden im weiteren nur die Nettoknotenblindleistung betrachtet. Für die Knotenspannungsänderungen folgt dann:

718

15 FACTS-Elemente -1

ª H P - H Q- º ª J P- J Pu º « » := « » «¬ H Pu H Qu »¼ «¬ J Q- J Qu »¼ & & & & Ÿ 'u = H Pu ' p + H Qu ' q | H Qu ' q .

(15.126)

Ein Matrixelement aus Zeile i und Spalte j der durch die Inversion und Zerlegung bestimmten Matrix HQu repräsentiert in dem betrachteten Arbeitspunkt die Beeinflussung der Knotenspannung ui durch kompensatorische Maßnahmen in Knoten j. Die quadratische Norm einer Spalte von HQu liefert ein Maß für den Einfluss einer Knotenblindleistungsänderung auf die Knotenspannungen. Verringert um die Standardabweichung dieser Spalte folgt ein Gütevektor xu, dessen Komponenten qualitativ einen der nk Netzknoten als Einsatzort eines querkompensierenden Betriebsmittels bewertet: nk

x u( i ) =

¦ H



2

Qu (

j, i )

-

j=1

-

nk

1 nk

¦

j = 1

§§ 1 ¨ ¨¨ n k ¨ ©©

nk

¦H

k = 1

Qu ( k, i )

· · ¸¸  H Qu ( j , i ) ¸¸ ¹ ¹

(15.127)

2

; i = 1  nk .

Zusätzlich zu dieser Bewertung ermöglicht diese Darstellung eine sehr einfache Bewertung des Einflusses eines Shuntelementes auf die Spannungsstabilität. Ein Kriterium für den Übergang von einem spannungsstabilen auf einen spannungsinstabilen Arbeitspunkt ist ein Vorzeichenwechsel in der Determinante der JacobiMatrix [15.22]. Im Übergang auf einen spannungsinstabilen Zustand weist die Determinante der Jacobi-Matrix einen Vorzeichenwechsel auf, da Hauptdiagonalelemente der Untermatrix JQu zu Null werden. In einem ersten Schritt wird die Systemdynamik vernachlässigt. Dann repräsentieren betragsmäßig große Werte Knoten mit hoher Spannungsstabilität. Zur Beurteilung aller Netzknoten werden die Hauptdiagonalelemente der Untermatrix JQu auf einen Vektor xs abgebildet. Dessen Komponenten können Werte aus dem Intervall [0..1] annehmen: 1 T 1 1 1 & xs ª J Qu(1) , J Qu( 2 ) , ... , J Qu( n ) º min §¨ J Qu( k ) ·¸ . (15.128) k «¬ »¼  k 1...nk © ¹ Werte von Knoten, an denen diese Werte nahe eins liegen sind damit weniger gefährdet also solche, deren Bewertung nahe null ausfällt. An diesen Knoten wäre eine Spannungsstützung durch Blindleistungsinjektion stabilitätsfördernd. Allgemein reichen die dafür einsetzbaren Technologien von geschalteten Shuntkompensatoren über thyristorgeregelte statische Shuntkompensatoren (SVC) bis hin zu Shuntkompensatoren auf Basis selbstgeführter Umrichter (STATCOM). 15.5.2 Serieelemente Der Einsatz von Serieelementen zielt vornehmlich auf die Regelung der Leistungsflüsse über einen Übertragungspfad. Dabei ist vornehmlich eine Beeinflussung der Wirkleistung von Interesse, während die übertragene Blindleistung nach Möglichkeit nur wenig beeinflusst werden soll. In Übertragungspfaden mit klei-

15.5 Einsatzortbestimmung

719

nem R/X-Verhältnis kann diese Entkopplung durch Seriekompensation nahezu vollständig erreicht werden. Solche physikalischen Verhältnisse liegen i.d.R. bei Freileitungen im 50-Hz- oder 60-Hz-Netz vor. Bei kleinen R/X-Verhältnissen ist die übertragene Wirkleistung neben den physikalischen Parametern der Leitung maßgeblich durch die Winkeldifferenz zwischen Anfang und Ende der Übertragungsstrecke bestimmt. Leistungsflussregelung wird hier also durch eine mittelbare oder unmittelbare Regelung des Übertragungswinkels realisiert. Während die mittelbare Winkelregelung über Betriebsmittel mit Seriespannungseinkopplung erfolgt, wirken Seriekompensatoren mit „Reaktanzkompensation“ nur mittelbar auf den Übertragungswinkel. Der Übertragungswinkel ist in beiden Fällen Ausgangspunkt für eine Sensitivitätsanalyse zur Bestimmung der optimalen Einsatzorte hinsichtlich Verlustreduktion und Leistungsflussregelung. Ausgehend vom DC-Leistungsfluss (vgl. Abschn. 14.2.1 und 14.2.2) in p.u. und für u = 1 gilt: nk

pi

Knotenleistung

¦b

, -ik

ik -ik

-i  -k

k 1

Zweigleistung

pik

bik(b ) -ik

Zweigverluste

pvik

g ik(b ) -ik2

bik

mit

g ik(b )  jbik(b )

(15.129) = Im {} der Knotenadmittanz = Zweigadmittanz

Wie in Abschn. 14.2.1 beschrieben, gilt folgende Beziehung zwischen Zweigleistung und Knotenleistung bei Berücksichtigung der Leistungsbilanz: n





-1 -1 pik = b(b) ik ¦ ( b )ij - ( b )kj p j , ik = 1 .. n . j=2

mit

(b-1)1j = (b-1)j1 = (b-1)11 = 0 (15.130) b = (n-1)x(n-1)-Matrix der Knotenadmittanzen 1 = Bezugsknoten pj = frei festlegbare Leistungen Davon ausgehend lässt sich leicht die Abhängigkeit der Leistung im Zweig pq von der Einführung eines Zusatzwinkels im Zweig jk ableiten: (b)

p pq = b pq

n

¦ >(b ) -1

j= 2

Q pqjk

wp pq w- jk

>

pj

- (b-1) qj @

n

¦ k=1

b jk - jk =

nz

¦Q

pqjk

jk=1

@

(b) b 1 pj  b1 qj  b1 pk  b1 qk b jk . bpq

- jk , (15.131)

720

15 FACTS-Elemente

Dabei ist nz = Anzahl Zweige, womit auch der Verteilungsfaktor berechnet ist. Was die Verluste betrifft, folgt nk

pv =

(b) pq

¦g -

2 pq

nz



pq=1

pq=1

(b)

g pq

(b)2 pq

b

2 p pq =

nz

¦r

pq

p2pq

(15.132)

pq=1

und für kleine Änderungen durch Linearisierung nz

¦ 2r

' pv =

pq

p pq 0 ' p pq ,

(15.133)

pq=1

und schließlich durch Berücksichtigung der obigen Gl., ebenfalls für Änderungen geschrieben:

'pv =

nz

nz

pq=1

jk=1

¦ 2rpq p pq0 ¦ Q pqjk '- jk

mit D jk

nz

¦D jk=1

nz

wpv w- jk

¦r

jk '- jk

,

(15.134)

pq 2 p pq 0 Q pqjk . .

pq 1

In einem Gütevektor zusammengefasst repräsentieren diese Sensitivitäten eine geschlossene Zweigbewertung bezüglich der Effektivität eines Serieelementes in einem Zweig hinsichtlich der Reduktion von Netzverlusten. Bei Einsatzorten hoher Eignung liegt der Betrag der Vektorkomponente nahe eins. Weniger geeignete Einsatzorte sind durch kleine Beträge gekennzeichnet. & xX

>D

1,

D2, ... , Dnz

@

T

1 max D jk

(15.135)

 jk 1... n z

Die Verteilungsfaktoren lassen nicht nur eine Bewertung des Einflusses von Serieelementen auf die Netzverluste zu, sondern ermöglichen auch eine Bewertung der Effektivität dieser Elemente zur Leistungsflussregelung. Da das Maß für die Beeinflussungsmöglichkeit eines Leistungsflusses in Zweig pq durch einen Regelungseingriff in Zweig ij über einen Verteilungsfaktor Qpqij beschrieben wird, besteht die Möglichkeit, die Sensitivität bzgl. der Umlastung unmittelbar aus diesem Faktor anzugeben.

x pq =

nz

¦g

ij = 1

ij

Eij Q pqjk

(15.136)

Bei dieser Darstellung handelt es sich um eine inkrementelle Betrachtungsweise. Zur Berücksichtigung typischer Vorbelastungen einer Leitung muss zur Bestimmung der Sensitivität xpq jeder betrachtete Verteilungsfaktor entsprechend typischer Belastungsgrade Eij und Signifikanz dieser Belastungsgrade gij gewichtet werden. Der Betrag dieser Faktoren ist von der Struktur des betrachteten Systems abhängig und kann nicht allgemein angegeben werden.

15.5 Einsatzortbestimmung

721

15.5.3 Dynamische Betrachtung Ausgehend von der linearisierten Darstellung des dynamischen Systemmodells ist die Analyse des Einflusses von FACTS-Elementen, auf die mit den Leistungspendelungen korrelierten kritischen Eigenwerte. Kritischen Eigenwerte sind Eigenwerte, die bei einer impulsförmigen Anregung den größten Beitrag zu einem quadratischen Gütemaß nach Gl. 15.137 liefern. ng f

>

@ > T

J = ¦ J k = ¦ ³ y i (t ) Q  k

i=1 0

@

i y (t ) dt .

(15.137)

Dabei ist yi(t) die Impulsantwort des Systems, wenn an der i-ten Maschine eine Impulsfunktion als Eingangsgröße aufgeschaltet wird und alle anderen Eingangsgrößen zu Null gewählt werden. Dieses Verfahren ist als Ergänzung zu der heute weit verbreiteten Modalanalyse zu sehen. Bei dieser wird der Ausgangsgrößenverlauf nach einer sprungförmigen Anregung betrachtet. Grundlage des hier angegebenen Verfahrens ist die Aufschaltung einer Impulsfunktion als Eingangsgröße. Theoretisch spiegelt diese das gesamte Frequenzspektrum wider. Daher kann der Einfluss eines Eigenwertes Oi auf das Gütemaß J unabhängig von der Art der Systemanregung bestimmt werden. Zur Identifikation kritischer Eigenwerte in bezug auf Leistungspendelungen eigenen sich besonders impulsförmige Wirkleistungsänderungen an den Generatoren. Alle Anteile Jk der Eigenbewegung an J können bei einer impulsförmigen Eingangsanregung einzeln bewertet werden. Dies wird hier im Rahmen der Einsatzortbewertung neben der Bestimmung der kritischen Eigenwerte hauptsächlich zur Bewertung von Regelungseingriffen in bezug auf die Dämpfung von Leistungspendelungen ausgenutzt. Daraus ergeben sich, in Ergänzung zu der bei der Einsatzortbestimmung eingesetzten modalen Zustandsdekomposition, die genannten Informationen. Nachdem die kritischen Eigenwerte Oi bestimmt sind, liegen die entsprechenden Komponenten des Gütemaßes J vor. Wird in eine Leitung des Netzes eine Seriespannung oder ein Shuntstrom impulsförmig eingeprägt, entsprechen die korrelierten Komponenten des Gütemaßes dem Dämpfungseinfluss auf die kritischen Eigenwerte. In bezug auf die in Abschn. 15.4 entwickelten Betriebsmittelmodelle prägen FACTS-Elemente Shuntströme und Seriespannungen nach Betrag und Phase ein, wodurch das Gesamtsystem als nichtlineares Differentialgleichungssystem vorliegt. In der linearisierten Darstellung muss daher eine betragsmäßige Einkopplung von Zusatzspannungen und -strömen erfolgen. Während bei Shunt- und Serieelementen ein Übergang auf betragsmäßige Ausgangsgrößen keine Einschränkung der Funktionalität bedeutet, muss die Wirkung von Shunt- und Serieelementen in reine Längs- und Querregelung aufgespalten werden. Aus der Linearisierung des nichtlinearen Differentialgleichungssystems folgt das der Einsatzortbestimmung zugrunde liegende Systemmodell. Damit wird der Einfluss von Regelungsmaßnahmen am Einbauort auf Leistungspendelungen bewertet, die bei entsprechender Wahl von Q durch den Verlauf der Rotorbewegungen Zi und die von den Generatoren abgegebenen elektrischen Leistungen pGi beschrieben werden. Die Matrix Q ist eine reine Diagonalmatrix:

722

15 FACTS-Elemente

Q = diag ( [ qi,i ]T ) ; qi,i = 1 › 0 .

(15.138)

Anhand der Ausgangsgrößenanordnung im Ausgangsvektor werden die Elemente der Matrix Q so gewählt, dass sich folgende Gütemaße für die Rotorfrequenzen und elektrischen Leistungen ergeben: ng f

J Z pq =

¦ ³ >Z

i

m

(t )

@ dt - ¦ 2

ng f

J PG pq =

¦³>p

J Zk ,

 k z pq

i=1 0

m Gi

(t )

i=1 0

@ dt - ¦ 2

(15.139) J PGk .

 k z pq

Dabei geben JZpq und JPGpq den Anteil an der Dämpfung eines kritischen Eigenwertes k an, den ein am Einsatzort pq installiertes FACTS-Element erzielen kann. Die Darstellung über zwei Güteindizes bietet den Vorteil einer differenzierten Beurteilung der Dämpfungsregelung hinsichtlich der mechanischen und elektrischen Beanspruchung des Generator-Turbosatzes. In Bezug auf die Einsatzortbewertung unter Berücksichtigung mehrerer Systemzustände muss aus diesen Gütemaßen der die Dämpfung charakterisierende Gütevektor komponentenweise bestimmt werden: x Di =

J Zi + J PGi

¦ J

Z pq

+ J PG pq

.

(15.140)

 pq

15.6 Verbesserung der transienten Stabilität Nach Vorstellung der allgemeinen Struktur von FACTS-Elementen und Gütekriterien zur Einsatzortplanung liegt der Schwerpunkt dieses Unterkapitels in der Beschreibung möglicher Ansätze zur Verbesserung der transienten Stabilität (siehe auch Abschn. 12.3). Die Dämpfungsregelung, wie in Abschn. 15.4 erwähnt, ist dabei nur ein Aspekt in diesem Zusammenhang. Da hierfür die verschiedensten Ansätze existieren wird an dieser Stelle darauf nicht näher eingegangen. Der Schwerpunkt orientiert sich voranging auf bereits an vielen Stellen beschriebenen Strategien zur Stabilitätsverbesserung (siehe auch Abschn. 12.3.2). Die im folgenden skizzierten Mechanismen sollen in erster Linie das Verständnis für den eigentlichen Regelungsvorgang vergrößern. Sie geben Auskunft darüber, wie durch zusätzliche Eingriffe die transiente Stabilität verbessert werden kann.

15.6 Verbesserung der transienten Stabilität

723

15.6.1 Allgemeine Betrachtung Ein Ansatz zur transienten Stabilitätsuntersuchung geht von der Energieerhaltung aus. Tritt im Übertragungsnetz ein Fehler auf und verringert sich als Folge für die Dauer des Fehlers die Last an einem Generator, wird die nicht an das Netz abgebbare elektrischer Energie in Rotationsenergie gespeichert. Als Folge vergrößert sich die Drehzahl des Rotors und damit ebenso der Polradwinkel. Nach Fehlerklärung muss die so gespeicherte Energie wieder an das Netz abgegeben werden, um den Rotor auf die Nenndrehzahl abzubremsen. Die von der Leistungs-WinkelTrajektorie im P---Diagramm umschlossenen Flächen können als Maß für die Stabilität herangezogen werden (Abb. 15.59). Das Stabilitätskriterium nach dem sogenannten Flächensatz (siehe auch Abschn. 12.3 sowie [15.15]) besagt, dass die Stabilität bei dieser Störung gewahrt bleibt, wenn die Fläche A1 kleiner als die Fläche A2 ist. Die Fläche A1 wird als Beschleunigungsfläche, die Fläche A2 als Bremsfläche bezeichnet. Anschaulich repräsentiert A1 die während der Beschleunigungsphase eingespeicherte Energie während A2 die Energiemenge repräsentiert, die in das Netz wieder eingespeist wird, ohne das der Synchronismus verloren geht. Für die weitere Betrachtung sei dieser Flächensatz zu Grunde gelegt. Die Regelungsstrategie von FACTS-Elementen für die Verbesserung der transienten Stabilität baut also auf diesem Zusammenhang auf. Neben diesem Stabilitätskriterium soll an erster Stelle gezeigt werden, dass die transienten Vorgänge in verschiedene Phasen unterteilt werden können. Als Basis für die folgenden Betrachtungen wird ein einfaches Übertragungssystem mit einem über eine Leitung in ein starres Netz einspeisenden Synchrongenerator betrachtet. In der Mitte der Leitung sei ein FACTS-Element eingebaut (Abb. 15.60).

p pmax 1 Nach dem Fehler A2

Vor dem Fehler

p0 Während des Fehlers

A1

0

G

Gk 90

180

G [ q]

Abb. 15.59: P---Diagramm eines Synchrongenerators am starren Netz mit Beschleunigungsfläche und Bremsfläche zur Verdeutlichung des Flächensatzes

724

15 FACTS-Elemente

Abb. 15.60: Einphasiges Ersatzschaltbild des Modellsystems zur Untersuchung der Regelungsstrategien

Zunächst erfolgt eine allgemeine Betrachtung des Systemverhaltens ohne FACTSElemente. Als Störung sei ein dreiphasiger Kurzschluss an den Generatorklemmen angenommen. Die Kurzschlussklärung erfolgt mittels Kurzunterbrechung. Zur Diskussion des Systemverhaltens werden die Wirkleistungsabweichung bzw. die Änderung des Drehmomentes an der Generatorwelle, die Winkel- und Drehzahlabweichung betrachtet. Die zeitlichen Verläufe dieser Größen sind in Abb. 15.61 dargestellt (vgl. auch Abb. 15.62).

'p

1

2

3

4

5

t 'G Gmax-G0 Gk-G0

t 'Z

t Phase 1 Phase 2

Phase 3

Abb. 15.61: Zeitliche Verläufe der Wirkleistungs-, Winkel- und Drehzahlabweichung bei dreiphasigem Fehler mit anschließender Kurzunterbrechung im hier betrachteten Modellsystem

15.6 Verbesserung der transienten Stabilität

725

p p max 1

3

5 A2

p0

4 A1 2

0 1

90 G

Gk

180

G [ q]

Gmax

Abb. 15.62: P---Diagramm des betrachteten Modellsystems Trajektorie während der betrachteten Störung

Nach Fehlereintritt (1) steigt die Wirkleistungsabweichung im idealisierten Fall sprungartig an. Da die korrespondierende Energie nicht eingespeist werden kann ist eine Rotorbeschleunigung die Folge. Gleichzeitig vergrößert sich der Polradwinkel. Nach Wiederzuschaltung der Last, also nach Fehlerklärung (2), gibt der Generator die überschüssige Energie wieder an das Netz ab. Da die Rotordrehzahl zwar abnimmt, aber immer noch zu groß ist, steigt der Polradwinkel weiter, bis die Drehzahl wieder den Nennwert erreicht hat (3). Nun verursacht der noch zu große Polradwinkel eine weitere Energieabgabe des Generators, der weiter gebremst wird. Die Drehzahlabweichung wird negativ, der Polradwinkel verringert sich und die eingespeicherte Energie wird vollständig abgegeben (4). Aufgrund der noch vorherrschender Inkonsistenz zwischen Drehzahl, Polradwinkel und Leistung, schwingt das System um den Arbeitspunkt vor dem Fehler. Durch die in diesem Beispiel angenommene natürliche Dämpfung klingt die Schwingung nach einigen Perioden ab. Zur Veranschaulichung ist die Trajektorie im P---Diagramm in Abb. 15.62 dargestellt. Hier ist ebenfalls deutlich der erste Unterschwinger der Wirkleistungsabgabe bis Punkt (3) zu erkennen. Ausserdem wird deutlich, dass nach Passieren von Punkt (3) eine gedämpfte Schwingung um den Arbeitspunkt vor der Störung einsetzt. Aus der Betrachtung des zeitlichen Verlaufes der Zustandsgrößen sowie der Trajektorie im P---Diagramm folgt eine Unterteilung der dynamischen Vorgänge in drei im folgenden skizzierten signifikante Phasen.

726

15 FACTS-Elemente

x

Phase 1:

x

Phase 2:

x

Phase 3:

Beschleunigungsphase, beginnt mit Fehlereintritt und endet mit dem ersten Nulldurchgang der Drehzahlabweichung nach Fehlereintritt Bremsphase, beginnt beim ersten Erreichen des maximalen Polradwinkels und endet mit dem ersten Erreichen der vor dem Fehler eingespeisten Wirkleistung nach Fehlereintritt. Beginnt nach dem ersten Erreichen der vor dem Fehler eingespeisten Wirkleistung und dauert bis zum vollständigen Abklingen der Schwingung um den Arbeitspunkt vor Eintritt des Fehlers.

Kann die überschüssige Energie im Rotor während Phase 1 nicht abgegeben werden, wird das System instabil, da in diesem Fall der Polradwinkel weiter steigt. Daher ist diese Phase für den Erhalt der transienten Stabilität besonders wichtig. Für den Fall der Wahrung der transienten Stabilität gibt die englischsprachige Literatur auch den Begriff der „1st Swing Stability” an. Die „1st Swing Stability“ ist gegeben, wenn Phase 1 verlassen wird. Maßgeblich für das Verlassen von Phase 1 ist die Bremsfläche A2. Maßnahmen zur Verbesserung der transienten Stabilität setzen daher an der Vergrößerung der Bremsfläche A2 an. 15.6.2 Allgemeiner Ansatz Eine Verbesserung der Stabilität setzt bei Veränderung der Übertragungscharakteristik zwecks Vergrößerung der Bremsfläche (A2) für die Generatoren an. Je nach Eingriffsmöglichkeiten der verschiedenen FACTS-Elemente sollte das übergeordnete Ziel der Dämpfungsregelung die Maximierung dieser Bremsfläche sein. Die Größe der Beeinflussung der Übertragungscharakteristik ist durch die Bemessungsgrößen der FACTS-Elemente begrenzt. Dies ist bei der Auslegung der Geräte zu berücksichtigen, um eine Verbesserung der transienten Stabilität zu erzielen. Obwohl die in den vorangestellten Abschnitten beschriebenen FACTS-Elemente sich mitunter grundsätzlich in Aufbau und Funktionsweise unterscheiden, gibt es Gemeinsamkeiten im Betrieb, da die gleichen Zustandsgrößen im Netz beeinflusst werden (siehe auch Modellansatz in Abschn. 15.4). Die übergeordneten Ziele der Dämpfungsregelung sind gleich. Hauptziel ist die Wahrung der transienten Stabilität. Weiterhin soll der erste Überschwinger (Phase 1) des Rotors sowie die Schwingung zurück zum Arbeitspunkt (Phase 2) minimiert werden. Die dann auftretenden Schwingungen (Phase 3) sind möglichst effektiv zu dämpfen. Zunächst unabhängig von den FACTS-Element-Ausführungen folgt daraus eine allgemeine Regelungsstrategie; hier diskutiert anhand des Übertragungsmodells aus Abschn. 15.6.1. Dazu sei zunächst ein FACTS-Element angenommen, dass die Übertragungscharakteristik beeinflussen kann und die drei in Abb. 15.63 skizzierten Betriebsmodi aufweist, d.h. drei P---Kurven einstellen kann. Modus 2 entspricht dem System ohne Regelung. Ausgehend vom stationären Arbeitspunkt (1) läuft der Arbeitspunkt während des Fehlers über (2) zu (3). Die Regelung des FACTS-Elementes ist hier in Modus 2. Nach Wiederzuschaltung der Leitung ist eine möglichst große Bremsfläche zu erzielen. Daher erfolgt eine Umschaltung

15.6 Verbesserung der transienten Stabilität

727

auf die Übertragungscharakteristik nach Modus 1. Die Beschleunigungsfläche A2 wird dann maximal, wenn die während der Phase 1 abgegebene Wirkleistung ebenfalls maximal wird. Mit weiter steigendem Polradwinkel schaltet der Betriebsmittelregler bei Erreichen von (5) auf Modus 2 und in (6) auf Modus 3 um. Mit Erreichen von (7) endet Phase 1. Punkt (7) repräsentiert den ersten Nulldurchgang der Drehzahlabweichung bzw. den maximalen Polradwinkel während dieses dynamischen Vorgangs. In Phase 2 schwingt der Rotor in die entgegengesetzte Richtung (negative Drehzahlabweichung). Einerseits ist durch die Regelung weiterhin der Energieüberschuss abzubauen. Dies spricht für einen Weiterbetrieb in Modus 3, da hier die größte Leistungsabgabe vorliegt. Andererseits führt eine zu starke Bremsung des Rotors zu einer größeren Schwingungsamplitude bei der Schwingung um den Arbeitspunkt vor Fehlereintritt. Das Ziel der Regelung in Phase 2 ist daher, die noch existierende Drehzahlabweichung auszuregeln und die Schwingungsamplitude für Phase 3 möglichst klein zu halten. Der Arbeitspunkt wandert dann zunächst auf der P---Kurve für Modus 3 zurück (Abb. 15.64). Nahe dem Nulldurchgang der Wirkleistungsabweichung erfolgt in (8) eine Umschaltung auf Modus 1 (Punkt (9)). Vor hier aus gilt es die Regelung so einzustellen, dass bei Erreichen des minimalen Winkels (also des ersten Unterschwingers der Winkelabweichung im Zeitverlauf) der Rotor nicht unnötig gebremst oder beschleunigt wird. Daher läuft der Betriebspunkt zunächst in den Bremsbereich hinein. Um die abgegebene Bremsenergie zu verringern, schaltet der Regler in (10) auf Modus 3 um. Hier findet bei dem immer noch gro5

p pmax

Phase 1

6

4

7

1 Modus 1 Theoretisches Stabilitätslimit

A2 p0 Modus 3

1

Modus 2

A1 2 0

3 90

Abb. 15.63: P---Diagramm mit Trajektorie für Phase 1

180 G [ q]

728

15 FACTS-Elemente

p pmax

10

Phase 2

8 7

1 Modus 1 Theoretisches Stabilitätslimit p0 9 Modus 2 Modus 3 11

0

90

180 G [ q]

Abb. 15.64: P---Diagramm mit Trajektorie für Phase 2

ßen Polradwinkel die geringste Leistungsabgabe für den folgenden Verlauf statt. In Modus 3 verbleibt der Regler bis zum Erreichen des minimalen Polradwinkels in (11). Ab hier startet die Dämpfungsregelung für die verbleibende Schwingung um den Arbeitspunkt vor Fehlereintritt. Phase 3 repräsentiert hauptsächlich die verbleibende Schwingung um den Arbeitspunkt im ungestörten Betrieb. Die verschiedenen Verfahren zur Dämpfung dieser Schwingung sind hier nicht angegeben. Dennoch sei in dem hier idealisierten Fall auf die theoretische Möglichkeit hingewiesen, den stationären Arbeitspunkt direkt anzufahren (Abb. 15.65). Nach Erreichen von (11) nimmt der Polradwinkel aufgrund der in diesem Punkt zuwenig abgegebenen Generatorleistung zu; der Rotor wird erneut beschleunigt. Da mathematisch die zeitliche Ableitung der Winkeländerung die Drehzahlabhängigkeit ergibt, liegt bei einem Extremwert der Winkeländerung in Punkt (11) der Nulldurchgang des Zeitverlaufs der Drehzahlabweichung vor (der gleiche Zusammenhang gilt auch für Punkt (7) in Phase 1). Nach Verlassen von Betriebspunkt (11) bei leicht positiver Drehzahlabweichung und immer noch zu kleinem Polradwinkel ist die erneute Beschleunigung des Rotors durch ein Umschalten auf (13) in Modus 1 zu bremsen. Dabei ist der Umschaltpunkt (12) so zu wählen das in Punkt (14) die Drehzahlabweichung zu null geworden ist. Punkt (14) repräsentiert überdies einen Arbeitspunkt mit dem Polradwinkel vor Eintritt der Störung. Durch eine Umschaltung auf Modus 2 wird automatisch die Wirkleistungsabgabe vor Störungseintritt wieder eingestellt. Die dynamischen Vorgänge sind dann bei Erreichen von (15) vollständig gedämpft. In Zusammenfassung folgt für die Regelungsstrategie in den einzelnen Phasen:

15.6 Verbesserung der transienten Stabilität

x x

Phase 1: Phase 2:

x

Phase 3:

729

Bremsfläche während der ersten Schwingung maximieren Möglichst ausgeglichene Beschleunigungs- und Bremsenergiebilanz während der Verringerung des Polradwinkels Dämpfung der verbleibenden Schwingung um den stationären Arbeitspunkt

15.6.3 Ausführungsbeispiele Die im vorherigen Abschnitt beschriebene Strategie zur Verbesserung der transienten Stabilität unterliegt idealisierten Bedingungen. Die spezifischen Betriebsmittelcharakteristiken der einzelnen FACTS-Elemente sind nicht berücksichtigt worden. Nach der hier gemachten Unterteilung des dynamischen Verhaltens in drei Phasen wurde deutlich, dass insbesondere Phase 1 und Phase 2 einen Einfluss auf die transiente Stabilität haben. Während die Regelungsstrategie in Phase 1 und Phase 2 direkt die transiente Stabilität beeinflusst ist die Zielsetzung für Phase 3, die Dämpfung der Schwingungen um den stationären Arbeitspunkt. Da hierfür eine Vielzahl von Ansätzen besteht, ist in den Ausführungsbeispielen nur Phase 1 und Phase 2 näher betrachtet. Beispiele für weitere Ausführungen finden sich in beispielsweise in [15.2], [15.14] und [15.16]. Die angewendete Strategie folgt nach dem beschriebenen Verfahren und basiert auf dem Flächensatz.

p pmax

Phase 3

Modus 1

1 14 Theoretisches Stabilitätslimit

13 p0

Modus 2

15 Modus 3 12

0

11

90

Abb. 15.65: P---Diagramm mit Trajektorie für Phase 3

180 G [ q]

730

15 FACTS-Elemente

15.6.3.1 SVC, STATCOM, TCSC, SSSC und UPFC Wichtig für die Ableitung einer spezifischen Regelstrategie für Phase 1 und Phase 2 ist die Beinflussungsmöglichkeit eines FACTS-Elementes bezüglich der P--Charakteristik einer Übertragungsstrecke. Vor diesem Hintergrund weisen die Betriebsmittel SVC, STATCOM, TCSC, SSSC und UPFC als wesentliche Vertreter der Shunt- und/oder Serieelemente, ein ähnliches Betriebsverhalten auf (Abb. 15.66). Alle diese FACTS-Elemente erlauben in einem Bereich um G = 90° ein Absenken oder Anheben der P---Kurve. Wie gezeigt, ist gerade dieser Bereich für eine Regelungsstrategie von besonderem Interesse. Bis zur Fehlerklärung in (3) besteht keine Einflussmöglichkeit durch FACTSElemente. Während der ersten Schwingung in Phase 1 gilt es die Bremsfläche zu maximieren. Dies wird durch die Einstellung – mit den jeweils zur Verfügung stehenden Steuergrößen – der P---Kurve mit der größten maximalen Übertragungsleistung erreicht (Punkt (4)). Nach Nulldurchgang der Drehzahlabweichung in (5) erfolgt zwecks gleichmäßiger Aufteilung der Brems- und Beschleunigungsenergie die Umschaltung auf die P---Kurve mit der kleinsten maximalen Übertragungsleistung (7). Auf dieser Kurve läuft der Betriebspunkt bis zum Erreichen des zweiten Nulldurchgangs der Drehzahlabweichung in (8). Dort setzt die hier nicht näher betrachtete Dämpfungsregelung ein. Zur näheren Beschreibung der korrespondierenden Stellgrößen der einzelnen FACTS-Elemente sei auf Abschn. 15.4 verwiesen.

p p max

4

6 5

1

p0 1

7

8 2 0

3 90

180 G [ q]

Abb. 15.66: P---Diagramm mit Trajektorie für die beschriebene Regelungsstrategie für die Betriebsmittel SVC, STATCOM, TCSC, SSSC und UPFC

15.6 Verbesserung der transienten Stabilität

731

15.6.3.2 QBT Der QBT weist im Vergleich zu den zuletzt betrachteten FACTS-Elementen grundlegende Unterschiede in der Betriebscharakteristik auf. Überdies ist diese vom Einbauort dieses FACTS-Elementes abhängig. Das Potential zur Verbesserung der transienten Stabilität ist dann besonders groß, wenn der Einsatz generatornah erfolgt (Abb. 15.67). In diesem Fall ist eine Anhebung der maximal übertragbaren Leistung möglich. Dies wirkt sich positiv auf die erzielbare Bremsflächenvergrößerung aus. Auch an anderen, ungünstigeren Einsatzorten leistet der QBT einen positiven Beitrag zur Verbesserung der transienten Stabilität. Die Effektivität in diesen Fällen ist allerdings geringer. Hier steht der generatornahe Einsatz bei den folgenden Betrachtungen im Mittelpunkt. Während des Fehlers kann die Trajektorie des Betriebspunktes nicht beeinflusst werden (Punkt (1) bis (3)). Eine Maximierung der Bremsfläche erfolgt durch das Abfahren der jeweiligen Maxima der einstellbaren P---Kurven bis Punkt (6). In diesem Punkt liegt das Maximum der positiven Polradwinkeländerung vor. Während der Verringerung des Polradwinkels erfolgt analog zu den zuvor beschriebenen Betriebsmitteln ein Umschalten zwischen „minimaler“ und „maximaler“ Übertragungscharakteristik zur gleichmäßigen Beschleunigungs- und Bremsenergieaufteilung (Punkte (7) bis (10)). Nach Erreichen von Punkt (10) muss die Regelung zur Dämpfung der Restschwingung aktiviert werden.

p p max

4

7

5

6

1 1

9

p0

8

10 3 0

2

90

180

G [°]

Abb. 15.67: P---Diagramm mit Trajektorie für die beschriebene Regelungsstrategie für das Betriebsmittel QBT

732

15 FACTS-Elemente

15.6.3.3 PAR Im Aufbau zwar ähnlich zum QBT unterscheidet sich der PAR im Betriebsverhalten deutlich von diesem FACTS-Element. Da beim PAR ausschließlich eine Winkänderung bewirkt werden kann, ist die Einflussnahme auf die Übertragungscharakteristik deutlich ausgeprägter. Mit dieser Betriebscharakteristik kann der PAR prinzipiell mit einer zu der oben beschriebenen ähnlichen Regelungsstragie betrieben werden (Abb. 15.68). Aufgrund seiner besonderen Betriebscharakteristik wird hier auf eine zusätzliche Betriebstrategie eingegangen. Bei dieser erfolgt nach Fehlerklärung in (3) eine Verschiebung der P---Kurve durch den PAR so, dass im Betriebspunkt (4) nach Fehlerklärung die maximale Wirkleistung abgegeben wird. Während der gesamten Winkelzunahme führt die Regelung des PAR die P--Kurve nach und ermöglicht damit in diesem Bereich eine maximale Wirkleistungsabgabe. In Punkt (5) ist der maximale durch den PAR eingeprägte Zusatzwinkel erreicht. Der Arbeitspunkt läuft entlang der P---Kurve bis zum Nulldurchgang der Drehzahländerung in (6). Durch das Nachführen der P---Kurve mit dem größer werdenden Polradwinkel ist die Bremsfläche maximiert. Nach Erreichen des maximalen Polradwinkels läuft der Arbeitspunkt bis zum Erreichen der stationären Wirkleistungsabgabe in (7). Ohne zusätzliche Bremsenergie abzugeben oder Beschleunigungsenergie aufzunehmen führt die PAR-Regelung den Arbeitspunkt entlang der P---Kurve (Punkt (8)). Auf dieser läuft der Betriebspunkt weiter bis die zwischen (6) und (7) abgegebene Bremsenergie wieder aufgenommen ist. Ab

p p max

4 5

1

6

8 p0 7 1 9

2 0

3 90

180

G [ q]

Abb. 15.68: P---Diagramm mit Trajektorie für die beschriebene Regelungsstrategie für das Betriebsmittel PAR

15.7 Verbesserung der Versorgungsqualität

733

Punkt (10) übernimmt die Dämpfungsregelung die Regelung des PAR, um die verbleibende Schwingung um den stationären Arbeitspunkt zu dämpfen. Abschliessend sei darauf hingewiesen, dass die für den PAR vorgestellte Strategie zur Verbesserung der transienten Stabilität nicht auf die Anwendung im Betriebsmittel PAR beschränkt ist. Die vorgestellte Methode kann in allen Regelungen von Betriebsmitteln Anwendung finden, die eine ideale Phasenwinkelregelung erlauben. Dass heisst auch der UPFC kann mit der gleichen Strategie für die Verbesserung der transienten Stabilität betrieben werden.

15.7 Verbesserung der Versorgungsqualität Veränderte Randbedingungen in der elektrischen Energieversorgung, haben auch einen Einfluss auf die Qualität der beim Verbraucher zur Verfügung gestellten elektrischen Energie. Gründe hierfür sind die Einflüsse der Marktöffnung sowie die stetig wachsenden Anforderungen an die Versorgungssicherheit. Während netzseitig die effektivere Nutzung vorhandener Übertragungseinrichtungen im Vordergrund steht, ist verbraucherseitig in zunehmendem Maße eine qualitativ hochwertige Energieversorgung zu gewährleisten. Die Qualitätsmerkmale der Versorgung beziehen sich neben einer möglichst genauen Frequenzhaltung vermehrt auf die Gewährleistung konstanter Spannungen bei gleichzeitig kontinuierlichem Energieangebot. Die technische Quantifizierung der Versorgungsqualität erfolgt im wesentlichen anhand folgender Kriterien: x x x x x x

Einhaltung der Sinusform; keine Oberschwingungen, Konstante Frequenz; Einhaltung des Nennwertes, Symmetrie des Drehstromsystems; drei um 120° verschobene Spannungen, Konstanter Effektivwert; Einhaltung der Netznennspannung über der Zeit, Spannungsstarrheit; Beibehaltung der Netzspannung bei Laständerungen, Zuverlässigkeit; Bereitstellung der Energie in der gewünschten Menge zu jedem Zeitpunkt.

Versorgungsqualität ist nach IEC (1000-2-2/4) und CENELEC (EN50160) als eine physikalische Eigenschaft der Versorgung mit elektrischer Energie derart definiert, dass im Normalbetrieb ein technischer Prozess weder gestört noch unterbrochen werden darf. Eine exakte Definition der physikalisch meßbaren Störgrößen und eine darauf aufbauende Festlegung von Grenzwerten ist Gegenstand intensiver Normungsaktivitäten. Zu den heute gravierendsten, die Versorgungsqualität mindernden Störungen, zählen Spannungseinbrüche und kurzzeitige Versorgungsunterbrechungen. Insbesondere hochgradig automatisierte Herstellungsund Fertigungsprozesse reagieren auf temporäre Änderungen im Betrag und in der Phase der Versorgungsspannung besonders sensibel. Bereits Spannungsabsenkungen im Millisekundenbereich können zum Ausfall ganzer Produktionsstraßen und damit zu einem wirtschaftlichen Schaden im Bereich mehrerer Tagesproduktionswerte sowie einer Schädigung der Produktionsmittel führen.

734

15 FACTS-Elemente

Typische hiervon betroffene Industriezweige sind die Papierindustrie, die Halbleiterindustrie und die Chemieindustrie. Auch bei einer maximal sicher ausgelegten Energieversorgung sind diese Störungen nicht auszuschließen, da der räumlich ausgedehnte Prozess der Energieversorgung atmosphärischen Einflüssen ebenso ausgesetzt ist wie nicht vorhersehbarem Komponentenversagen. FACTS-ElementTechnologie ist Anwendungen in diesem Problemfeld ebenfalls geeignet. Dieser Abschnitt gibt in Anlehnung an [15.25] und [15.26] einen Überblick über einige auf dieser Technologie basierenden Geräteausführungen für die Verbesserung der Versorgungsqualität. 15.7.1 Störungsursachen Die in einpolige Erdschlüsse, zweipolige Kurzschlüsse mit und ohne Erdberührung sowie dreipolige Kurzschlüsse zu unterteilenden Fehlerarten beeinflussen die Amplitude und Phasenlage der verbraucherseitig wirksamen Anschlussspannung. Bei ungefähr 80% aller auftretenden Fehler handelt es sich um einpolige Fehler. Darüber hinaus führen Schalthandlungen, wie beispielsweise das Zu- und Abschalten großer Lasten, zu sprungartigen Last- und damit Spannungsänderungen. Insbesondere im Zeitbereich von 100 ms bis 1000 ms ist es nahezu unmöglich, ohne zusätzliche Maßnahmen Spannungseinbrüche zu verhindern. Nur durch zusätzliche Maßnahmen im Netz oder auf der Verbraucherseite können sensible Verbraucher (kritische Verbraucher) gegen derartige Störungen geschützt werden (Abb. 15.69). Maßnahmen auf der Verbraucherseite erfordern einen Eingriff in den Kundenprozess und bieten nur lokale, auf spezielle Störungen zugeschnittene Abhilfe. Eine die Versorgungsqualität garantierende ursächliche Behebung des Problems ermöglichen Maßnahmen im Netz durch Betriebsmittel zur Vergrößerung der Versorgungsqualität (PQ-Geräte, Power-Quality-

Abb. 15.69: Typische Versorgungssituation

15.7 Verbesserung der Versorgungsqualität

735

Geräte). Durch diese kann – auch bei Netzstörungen – die qualitativ hochwertige Versorgung kritischer Verbraucher garantiert werden. Wie stark Störungen am Anschlusspunkt eines Verbrauchers wirksam werden, hängt von der Entfernung zum Ort der Störungsursache ebenso ab wie von der Leistungsfähigkeit, dem Vermaschungsgrad und der Ausführung der zwischengeschalteten Übertragungsstrecke. Dies gilt insbesondere auch für ein- und mehrpolige Leitungsabschaltung in Folge eines Fehlers, was in Netzen ohne ausreichende Redundanz zur allpoligen Versorgungsunterbrechung führen kann. Abhilfe bezüglich der Störungsauswirkung auf den kritischen Verbraucher leistet einerseits aktives kompensatorisches Eingreifen. Andererseits besteht die Möglichkeit die Speisung der Last auf einen ungestörten Netzbezirk umzuschalten. Hinsichtlich der aktiven und von der Netztopologie unabhängigen Störungskompensation bestehen unterschiedliche Lösungen deren Basis leistungselektronische Komponenten sind. Ein bereits weit verbreitetes Konzept – vorwiegend zur Flickerkompensation – stellt der SVC oder STATCOM dar. Möglichst effektiven Schutz kritischer Verbraucher gegen Versorgungsunterbrechungen und Spannungsschwankungen bietet allerdings nur die Fehlerkompensation mit einhergehender Wirkleistungseinspeisung. Durch das Einprägen von Zusatzspannungen in Serie zu einer Leitung zur Spannungskorrektur oder durch die direkte Übernahme der vollständigen Verbraucherversorgung durch ein PQGerät können netzseitige Störungen verbraucherseitig nahezu vollständig kompensiert werden. Bei Einsatz selbstgeführter Spannungsumrichter stehen zur Fehlerbehebung heute grundsätzlich Anlagenkonzepte mit Seriespannungseinkopplung und/oder Parallelstromeinkopplung zur Verfügung (Abb. 15.70). Die hier als Spannungsquellen zur Spannungs- oder Stromregelung eingesetzten Spannungsumrichter sind selbstgeführte Vierquadrantenumrichter mit Gleichstromstromkreis (Voltage Source Converter). Der Gleichstromkreis kann mit einem Energiespeicher verbunden werden (s. Abschn. 15.3). Dieser stellt die zur Kompensation erforderliche Wirkleistung bereit. Die Anforderungen an die Antwortzeit des PQ-Gerätes und die Überbrückungsdauer der Störung entscheiden

Übertragungsnetz Abb. 15.70: qualität

Strominjektion

Spannungseinkopplung

Verbraucher (-netz)

Grundsätzliche Eingriffsmöglichkeiten zur Verbesserung der Versorgungs-

736

15 FACTS-Elemente

über die Wahl der Technologie für die Speichereinheit im Zwischenkreis. Als Speichereinheiten für PQ-Geräte stehen heute prinzipiell zur Verfügung: x x x x

Batteriespeicher, Kondensatorspeicher, Super-Capacitor-Speicher, Supraleitender magnetischer Energiespeicher, Schwungradspeicher.

15.7.2 FACTS-Elemente zur Verbesserung der Versorgungsqualität 15.7.2.1 Dynamic Voltage Restorer Der Dynamic Voltage Restorer (DVR) koppelt in Serie zu einer Übertragungsleitung eine Zusatzspannung ein und kompensiert auf diese Weise ein-, zwei-, und dreipolige Spannungsabsenkungen im Netz, so dass die Versorgung eines angeschlossenen Verbrauchers zu jedem Zeitpunkt über ein symmetrisches Drehstromsystem mit konstantem Effektivwert gewährleistet ist. Unmittelbar nach Detektion eines Spannungseinbruches erfolgt die phasen- und betragsmäßig richtige Einkopplung einer Zusatzspannung über den Boostertransformator (vgl. Abb. 15.71). Aufgrund der von der Phasenlage des Leitungsstromes unabhängigen Einkopplung der Zusatzspannung erfolgt die Abgabe von Wirkleistung an das Netz. Die dabei einzuspeisende Energie wird über einen Energiespeicher bereitgestellt (Abb. 15.72). In einer typischen Anwendung, in dem zur Verbesserung der Versorgungsqualität das DVR-Konzept eingesetzt wird, ist der durch Spannungsabsenkungen UT’

Fehlerhaftes Drehstromsystem (F)

'UT

UTF URF

Zusatzspannungen (')

'UR

UR’

USF

'US US’ Abb. 15.71: Prinzip der Korrektur eines einphasigen Spannungseinbruches durch Zusatzspannungen

15.7 Verbesserung der Versorgungsqualität

737

Abb. 15.72: Prinzipieller Aufbau des DVR zur Korrektur von Spannungsabsenkungen; mit Abspann- und Lasttransformator

betroffene Verbraucher durch einen spannungssensitiven Produktionsprozess gekennzeichnet. Bereits einphasige Spannungsabsenkungen – hier bereits um einige 10% im ms Bereich – führen aus den genannten Gründen zum Ausfall einer ganzen Tagesproduktion. Der eingesetzte DVR korrigiert einphasige Spannungsabsenkungen bis 50% und dreiphasige Spannungsabsenkungen bis 38% über einen Zeitraum von 150 ms. Allgemein eignet sich der DVR besonders zur Korrektur von ein-, zweioder dreiphasigen Spannungseinbrüchen bis 75% im Bereich bis zu einer Minute. Aufgrund der eingesetzten Hardware limitiert lediglich der einzusetzende Energiespeicher die Anlagengröße. Die mit Pulsweitenmodulation angesteuerten Spannungsumrichter erzeugen aus einem Gleichspannungskreis die erforderlichen Zusatzspannungen. Mit der Anforderung, bereits in wenigen Millisekunden nach Störungseintritt ein symmetrisches Drehstromsystem auf der Verbraucherseite wiederhergestellt zu haben, ist das Speichersystem mit Gleichstromkondensatoren ausgeführt. Diese erfüllen die hohen dynamischen Anforderungen an die Ausspeicherung der Energie. Weisen allerdings als Nachteil eine relativ geringe Energiedichte auf. In dem genannten Anwendungsfall mit einer maximalen Kompensationsdauer von 150 ms der genannten Störung spielt dieser Aspekt eine untergeordnete Rolle. Im ungestörten Netzbetrieb arbeitet der DVR im verlustoptimalen Bereitschaftsbetrieb. Die Unterspannungsseite des Booster-Transformators ist kurzgeschlossen, so dass auf der Oberspannungsseite nur die durch konstruktive Maßnahmen minimierte Streuinduktivität wirksam wird. Die Halbleiterelemente werden so durchgesteuert, dass die sekundärseitigen Anschlüsse des Booster-Transformators auf ein Potential des DC-Kreises geschaltet sind. Nur die dabei durchgeschalteten Halbleiter verursachen Verluste. Das Betriebsverhalten zeigt die Effektivität der Spannungskorrektur; beispielsweise bei einer Spannungsabsenkung von 26.7%. Unmittelbar nach dem Störungseintritt koppelt der DVR eine Zusatzspannung ein. Auf der Verbraucherseite bleibt ein symmetrisches Drehstromsystem bestehen (Abb. 15.73). Bereits 2 ms nach Störungseintritt sind die transienten Ausgleichsvorgänge aufgrund des Fehlers und der sprungartigen Spannungsinjektion abgeklungen.

738

15 FACTS-Elemente

Abb. 15.73: Strom- und Spannungsmessungen an einem DVR während eines Spannungseinbruch (Quelle: ABB)

Eine Spannungsabsenkung im Spannungsmaximum einer Phase stellt im Vergleich zu einer Störung im Spannungsnulldurchgang die größte Systemanregung dar. Unabhängig vom Zeitpunkt des Störungseintrittes bestehen die transienten Ausgleichsvorgänge nach Fehlereintritt und -klärung nicht länger als 3 ms. 15.7.2.2 Dynamic Uninterruptible Power Supply Aus dem Bereich kleiner sensitiver Lasten ist das Konzept der unterbrechungsfreien Stromversorgung (Uninterruptible Power Supply, UPS) bekannt (Abb. 15.74). Bei dieser Art des Schutzes sensitiver Lasten gegen Versorgungsunterbrechung und Schwankungen in der Versorgungsspannung wird die Last aus einem in den Versorgungspfad geschalteten Gleichstromkreis gespeist. Zur Überbrückung von Versorgungsunterbrechungen am Netzanschluss speist eine Batterie in den Gleichstromkreis die zur Versorgung der Last erforderliche Energie ein. Bei diesem Konzept arbeiteten aufgrund der Platzierung im Versorgungspfad die leistungselektronischen Komponenten kontinuierlich; unabhängig vom Zustand der Netzeinspeisung. Die dadurch bedingten Verluste wirken sich beim konventionellen UPS nachteilig auf die Wirtschaftlichkeit des Gesamtsystems aus. Bei einer parallel zur schützenden Last angeschlossenen Speichereinheit, die nur dann Energie an die Last abgibt, wenn eine Störung in der netzseitigen Versorgung vorliegt, treten die nachteiligen Betriebsverluste nicht auf. Die Kombination einer parallel zum Netz angeschlossenen Speichereinheit mit einem statischen Schalter zur Netzabtrennung, stellt das Grundkonzept des Dynamischen UPS

15.7 Verbesserung der Versorgungsqualität

739

(DUPS) dar (Abb. 15.74). Der statische Schalter (Solid State Breaker, SSB) dient der Abtrennung des Versorgungspfades vom gestörten Netz. Dies ermöglicht eine Kompensation von Spannungsabsenkungen und die Überbrückung vollständiger Versorgungsausfälle; hier ohne Rückspeisung auf eine mögliche Fehlerstelle. Zusätzlich ist hinsichtlich der zu installierenden Umrichterleistung nur die den Speicher mit dem Netz verbindende Komponente vorzusehen. Dies resultiert im Vergleich zu einer im Versorgungspfad installierten Lösung in geringeren Anlagenkosten. Die Hauptkomponenten (vgl. Abb. 15.74) eines DUPS sind x x x

der schnelle statische Lastschalter, der parallel zum Netz angeschlossene Spannungsumrichter und der Energiespeicher; typischerweise als Batteriespeicher ausgeführt.

Die Schlüsselfunktion in diesem Konzept ist die Realisierung einer schnellen Kommutierung des Laststroms vom netzseitigen Versorgungspfad in den vom Umrichter gespeisten Pfad. Je schneller die Kommutierung erfolgt, desto geringer ist der Einfluss der Netzstörung auf die Last, so dass hier eine kontinuierliche Versorgung gewährleistet ist (Abb. 15.75). Die im Transformator vorhandene Energie wird von einem parallel zum SSB angeordneten MO-Überspannungsableiter aufgenommen. Bei einer reinen Stromunterbrechungszeit des SSB von 250 Ps beträgt die Zeit für die vollständige Abtrennung durch diesen Schalter weniger als 2 ms, einschließlich Steuerung. Während des Bereitschaftsmodus treten ausschließlich die Verluste des Stromrichtertransformators sowie vernachlässigbar kleine Filterverluste auf. Die durch den SSB verursachten Leitungsverluste sind messtechnisch kaum erfassbar und ebenfalls vernachlässigbar klein. Um eine möglichst schnelle Regelung zu erhalten ist die grundlegende Regelungsarchitektur – ähnlich der des DVR – ohne Rückkopplung ausgelegt. Während des Bereitschaftsmodus wird die Umrichterausgangsspannung kontinuierlich der Lastspannung nachgeführt. Eingangssignale sind im wesentlichen die Spannungen am Anschlusspunkt sowie die Lastströme.

Abb. 15.74: Prinzipieller Aufbau des DUPS zur Korrektur von Versorgungsunterbrechungen mit Abspann- und Lasttransformator

740

15 FACTS-Elemente

Obwohl der Umrichter keine Leistung abgibt, arbeitet das Regelungssystem so, als würde der DUPS die Last speisen. Unmittelbar nach Fehlererkennung wird der SSB blockiert und gleichzeitig der Umrichter eingeschaltet. Aufgrund der Stromkommutierung vom Versorgungspfad in den Umrichterpfad sowie einiger möglicher Resonanzen zwischen der Last und dem Umrichterkreis entstehen transiente Schwingungen im Laststrom nur für einige Millisekunden (vgl. Abb. 15.75). Dieser Effekt muss bei der Auslegung möglicher Filter hinsichtlich ausreichender Dämpfung berücksichtigt werden. Eine typische Anwendung des DUPS ist der Schutz sensitiver Lasten vor Spannungseinbrüchen und vollständigen Versorgungsunterbrechungen im Leistungsbereich ab weniger MVA. Die Kompensationsdauer und die Größe der Last bestimmen die Auslegung des Batteriespeichers. Oftmals steht hier die Aufgabe t Fehler

Netzstrom [pu]

1 0.5 0 -0.5

Umrichterstrom [pu]

-1 0

5

10

15

20

25

30

35

40

45

50

60 55 t [ms]

0

5

10

15

20

25

30

35

40

45

50

60 55 t [ms]

0

5

10

15

20

25

30

35

40

45

50

60 55 t [ms]

1 0.5 0 -0.5 -1

Laststrom [pu]

1 0.5 0 -0.5 -1

Abb. 15.75: Laststromkommutierung vom Netz auf den DUPS bei einer Störung in der Versorgung (Quelle: ABB)

15.7 Verbesserung der Versorgungsqualität

741

der Überbrückung der Versorgung einer Last bis zum Hochlauf von Notstromversorgungen, z.B. Dieselaggregaten, im Vordergrund. In diesem Fall ist eine Kompensationsdauer im Minutenbereich ausreichend. Bei Kombination eines DUPS mit einem Dieselaggregat würde die Steuerung des DUPS den Diesel nach Absinken der Spannung für länger als z.B. 10 Sekunden anfahren und die Last nach Synchronisation des Diesels von der Batterie auf den Diesel umverteilen. Der DUPS-Transformator bleibt über die ganze Zeit magnetisiert, um im Falle einer Störung die kürzest mögliche Reaktionszeit zu erhalten. Im Normalbetrieb leitet der SSB. Der Transformator sowie ein etwaiges Filter sind ebenfalls zugeschaltet, sodass grundsätzlich in dieser Anlagenkonfiguration Blindleistungskompensation betrieben werden kann. In diesem Fall stellt der DUPS einen STATCOM dar. Wird eine Spannungsabsenkung oder ein -einbruch außerhalb der 10%-igen Toleranz detektiert, löst der SSB aus und trennt die Last von der natürlichen Einspeisung ab. Gleichzeitig beginnt der DUPS die Last mit einer Spannung, die nach Betrag und Phase exakt derer vor Eintreten des Fehlers entspricht, zu versorgen. Falls 10 Sekunden nach Eintreten des Fehlers die Spannung nicht zu 100 % wiedergekehrt ist, werden die Notstromdiesel angefahren, zur Spannung des Umrichters synchronisiert und anschließend zur Versorgung der Last zugeschaltet. Die Regelung verfolgt derweil weiterhin die netzseitige Spannung, so dass nach der stabilen und anhaltenden Wiederkehr der Netzspannung die Last wieder auf die Sammelschiene des Mittelspannungsnetzes geschaltet werden kann. Die Wiederaufladung der Batterien erfolgt unmittelbar nach Hochlauf der Notstromdiesel. Grundsätzlich werden für einen DUPS die gleichen Spannungsumrichter wie bei dem bereits vorgestellten DVR verwendet. Die Regelungs-Hardware ist verglichen mit dem DVR für dieses Betriebsmittel etwas anspruchsvoller, da externe Geräte wie ein Dieselgenerator und zusätzliche Funktionalität wie Blindleistungskompensation zur Leistungsfaktorkorrektur mit einbezogen werden. 15.7.2.3 Solid State Transfer Switch Der Solid State Transfer Switch (SSTS) ist ein Hochgeschwindigkeitsschalter, der die Umschaltung elektrischer Lasten von einer bevorzugten zu einer anderen, alternativen Spannungsversorgung innerhalb weniger Millisekunden ermöglicht und damit eine Störung von sensitiven Lasten fernhält (Abb. 15.76). Die Grundvoraussetzung für die Installation eines SSTS zum Schutz einer sensitiven Last gegen Netzstörungen ist die Verfügbarkeit zweier, nahezu voneinander entkoppelter Einspeisungen (vgl. Abb. 15.76, Quelle 1 und Quelle 2). Im allgemein liegt dieser Fall bei galvanisch voneinander getrennten Netzbezirken vor. Während des Umschaltens – bei offenem Übergang des SSTS – unterbricht einer der Schalter die Spannungsversorgung einen kurzen Augenblick bevor die alternative Quelle zugeschaltet wird. Vorteilhaft gegenüber einem geschlossenen Übergang ist bei dieser Umschaltung, dass niemals beide Spannungsquellen gleichzeitig auf die Last speisen. Die Überkreuzschaltung entkoppelter Spannungsquellen ist oftmals aus betrieblichen Gründen nicht möglich. Der SSTS kann aus zwei 3Phasen Thyristorschaltern bestehen. Die Thyristorschalter können entweder mit konventionellen Thyristoren oder mit abschaltbaren Thyristoren (z.B. IGCT) aus-

742

15 FACTS-Elemente

Abb. 15.76: Prinzipieller Aufbau eines SSTS zur Umschaltung zwischen zwei von einander unabhängigen Quellen

gerüstet sein. Im eingeschalteten Modus wirkt der Thyristorschalter als niederohmige den Laststrom tragende Verbindung; ausgeschaltet stellt er eine nahezu unendliche Impedanz dar. Die Grundkonfiguration besteht aus antiparallel angeordneten Thyristorgruppen beidseits der möglichen Quellen. Messtechnische Einrichtungen verfolgen kontinuierlich die Netzspannungen. Unmittelbar nach Detektion eines Spannungsabfalls (unterhalb eines Referenzwertes) an den Klemmen der bevorzugten Quelle stoppt der Regler die Zündimpulse zum „eingeschalteten“ Thyristorschalter und gibt unter Wahrung der Verriegelungsbedingungen Zündimpulse an den durchzuschaltenden Thyristorschalter. Der Transfer von der bevorzugen zur alternativen Quelle ist schnell genug, so dass selbst empfindlichste Lasten in ihrem Betrieb nicht gestört werden. In einem Beispiel ist ein industrieller Verbraucher auf einer Spannungsebene von 16 kV über eine Stichleitung an das vermaschte 50-kV-Mittelspannungsnetz angeschlossen (vgl. Abb. 15.77). Tritt ein Fehler im 50-kV-Netz innerhalb des Schutzbereiches des Distanzschutzes auf, sind Kurzunterbrechungen das bevorzugte Mittel zur Fehlerklärung. Die durch die Kurzunterbrechung verursachte kurzzeitige Spannungsabsenkung beeinflusst die Steuerungs- und Produktionsprozesse des Industriebetriebes derart, dass die Produktion unterbrochen und damit sämtliche Produktionsmittel gereinigt werden müssen bevor ein Wiederhochfahren des Prozess möglich wird. Im allgemeinen kommen zur Lösung eines derartigen Problems vier verschiedene Varianten in Betracht: x x

Die Errichtung einer zweiten Versorgungsleitung, die Installation mehrerer UPS an den Orten mit sensitiven Lasten,

15.7 Verbesserung der Versorgungsqualität

743

Abb. 15.77: Konfiguration eines SSTS zur Umschaltung zwischen zwei verschiedenen Spannungsebenen zum Schutz eines Industriebetriebes

die Installation eines DUPS zum vollständigen Schutz der Anlage und der Einsatz eines SSTS. Bei Verfügbarkeit einer alternativen Einspeisung kann die Lösungsvariante mit schnellem Umschalter aus technischen und wirtschaftlichen Gründen die wirkungsvollste Alternative darstellen. In dem hier in Abb. 15.77 dargestellten Beispiel wäre neben der Installation der reinen SSTS-Hardware eine entsprechende Modifikation des Netzanschlusses erforderlich. Schalter S1 ist im Normalbetrieb leitend (NC) und Schalter S2 sperrend (NO). Transformator TR2 ist im Normalbetrieb zwar unter Spannung aber nicht unter Last. Falls eine Störung im 50-kVNetz die Umschaltung der kritischen Last auf die 16-kV-Einspeisung erfordert, werden auf diese Weise hohe Stoßströme und jegliche Schaltverzögerungen der Leistungsschalter im Versorgungspfad über Transformator TR2 vermieden. Nachteilig wirken hier die Leerlaufverluste des Transformators TR2, die entsprechend minimiert werden müssen. Die Aktivierung des SSTS erfolgt durch Detektion einer Spannungsabsenkung auf der 50-kV-Spannungsebene des Verteix x

744

15 FACTS-Elemente

lungsnetzes. Zusätzlich wird eine fortlaufende Diagnose des Thyristorstatus – offen oder kurzgeschlossen – sowie der Gerätetemperatur durchgeführt. Bei Detektion eines Ventilfehlers erfolgt eine sichere Überführung des Systems in den Bypass-Modus. Insgesamt müssen folgende Randbedingungen eingehalten werden: x

x

x

Die Umschaltung zur alternativen Spannungsquelle wird stattfinden, wenn das Spannungsniveau auf der 50-kV-Seite für eine der drei Phasen unter einen Referenzwert (z.B. von 80% der Spannung vor Eintritt der Störung) absinkt. Vermeidung eines Lasttransfers während eines Kurzschlusses auf der Unterspannungsseite. Der SSTS ist so ausgelegt, dass er einen Kurzschlussstrom so lange tragen kann, bis die bestehenden Sicherheitseinrichtungen reagiert haben und der SSTS in den Bypass-Mode schaltet. Vermeidung des Umschaltens, wenn die Spannung der alternativen Quelle auch außerhalb der gesetzten Toleranzen liegt. Die Versorgung erfolgt dann weiterhin über die bevorzugte Quelle.

a)

4

uR,S,T(t) [pu]

1

0

-1 0

0,01

0,02

0,03

0,04

0,05

0,06

0,07

0,04

0,05

0,06

0,07

t [s] b)

uR,S,T(t) [pu]

1 0 -1

0

0,01

0,02

0,03 t [s]

Abb. 15.78: Lastspannungen während eine 90%-Spannungseinbruches bei einem SSTS ; mit konventionellen Thyristoren (a); mit abschaltbaren Thyristoren (b)

15.7 Verbesserung der Versorgungsqualität

745

Der grundlegende Unterschied zwischen den verschiedenen Ausführungen von SSTS liegt im Einsatz der Thyristortechnologie; hier entweder mit konventionellen oder mit abschaltbaren Thyristoren ausführbar (vgl. Abb. 15.78). Der wesentliche Unterschied zwischen diesen beiden Technologien liegt in der erreichbaren Umschaltzeit. Während konventionelle Thyristoren erst bei Nulldurchgang abschalten können, ermöglichen abschaltbare Thyristoren eine erzwungene Stromunterbrechung. Letztere wirkt sich positiv auf die erreichbare Umschaltzeit aus (vgl. Abb. 15.78). Um eine optimale Lösung für ein spezifisches Qualitätsproblem zu finden, stehen grundsätzlich beide Ausführungsformen zur Verfügung. Je nach Eigenschaften der zu schützenden Last ist zu bewerten, welche der beiden eine optimale Lösung erlaubt. 15.7.3 Vergleich Bezüglich des Qualitätskriteriums Verbraucherspannung bestehen die Aufgaben der PQ-Geräte in der Minderung der auf Verbraucher störend wirkenden Unsymmetrie sowie in der Unterdrückung kurzzeitiger Versorgungsunterbrechungen. Die Hauptursache für eine Verschlechterung der Versorgungsqualität sind Spannungsunsymmetrie als Folge von unsymmetrischen Fehlern im Übertragungsnetz. Die grundsätzlich Abhilfe leistenden PQ-Geräte können entweder über eine Einkopplung einer Seriespannungen in der elektrischen Nähe kritischer Verbraucher oder über eine Umschaltung auf eine nicht gestörte Quelle – entweder ein galvanisch entkoppeltes Netz oder eine Speichereinrichtung – wirken. Abhängig von der Netzstruktur und der Spannungssteifheit am Einsatzort muss bezüglich der Anlagenkonzeption grundsätzlich zwischen PQ-Geräten mit und ohne Energiespeicher unterschieden werden. Der DVR – ein Anlagenkonzept mit Speicher – hat seine Leistungsfähigkeit insbesondere auch an Einsatzorten mit niedrigem Kurzschlussleistungsniveau bewiesen. Der DVR ermöglicht unabhängig von der Netzstruktur an allen Einsatzorten eine Verbesserung der Versorgungsqualität. Dazu sind Energiespeicher innerhalb der Anlage einzusetzen, die gerade im höheren Leistungsbereich einen großen Anteil am Gesamtvolumen der Anlage haben. Eine ebenso wirkungsvolle Abhilfemaßnahme stellt insbesondere in Kombination mit Notstromaggregaten der DUPS, ebenfalls mit Energiespeicher, dar. Hier wird für den Zeitraum einer Störung entweder bis Störungsklärung oder bis Hochlauf einer Notstromversorgung die gesamte Last aus einem Speicher gespeist. Während der Störung besteht keine galvanische Kopplung zwischen Netz und Last, da ein statischer Schalter die Netzverbindung abschaltet. Auch große Störungen im Netz haben damit keine Rückwirkung auf die zu schützende Last. Ist eine von der Haupteinspeisung einer Last galvanisch entkoppelte Speisung verfügbar, ermöglicht der SSTS einen Schutz sensitiver Lasten gegen Störungen im Netz. Der SSTS schaltet von einer gestörten Quelle auf eine dann aufgrund der Entkopplung nicht von der Störung betroffene Quelle um und gewährleistet damit eine – je nach Ausführung – nahezu kontinuierliche Versorgung der Last.

16 Leit- und Informationstechnik

16.1 Überblick

Abb. 16.1. Leit- und Informationstechnik im Überblick

Zur Gewährleistung einer sichern und zuverlässigen Versorgung mit elektrischer Energie bedarf es, neben den primären Bestandteilen des Energieversorgungsnetzes, auch der sogenannte Sekundärtechnik, um den Energieversorgungsprozess überwachen und steuern zu können. Die dafür benötigte Leit- und Informationstechnik erstreckt sich von der Feldebene innerhalb der Schaltanlagen und Umspannwerke über die Stationsleittechnik bis zur Netzleitebene und die daran angrenzende Integration mit der EVU-weiten IT-Welt. In Abb. 16.1 sind die einzelnen Ebenen der Leit- und Informationstechnik dargestellt. In diesem Kapitel wird im Folgenden näher auf die unteren zwei Ebenen (Felderfassung, Lokalsteuerung & Automation sowie Kommunikation) eingegangen. Die oberen Ebenen (Netzüberwachung und –betrieb SCADA, Höherwertiger Netzbetrieb sowie Geschäftsprozesse) werden dann im Kapitel 17 „Leittechnik für elektrische Energienetze“ behandelt. 16.1.1 Aufgabe der Leit- und Informationstechnik Die bedarfsgerechte Versorgung von Verbrauchern mit elektrischer Energie stellt einen höchst komplexen Prozess dar, dessen einzelne Prozesskomponenten zudem noch räumlich weit verteilt sein können. Die Leittechnik dient dazu, diesen Pro-

748

16 Leit- und Informationstechnik

zess von zentralen Stellen aus zu überwachen und zu steuern. Die Grundfunktionalität der Leittechnik wird auch als SCADA (= Supervisory Control and Data Acquisition) Funktion bezeichnet und beinhaltet die Überwachung und Steuerung der Stellglieder eines Energieversorgungsnetzes sowie die Aufzeichnung der aus dem Netz übertragenen Mess- und Statuswerte. Mit Hilfe der SCADA Funktionalität kann sich der betriebsführende Bediener ein Bild über den aktuellen Energieversorgungsprozess machen und bei Bedarf steuernd in den Prozess eingreifen. 16.1.2 Historie Die Leit- und Informationstechnik innerhalb der elektrischen Energieversorgung fand ihre Anfänge in der Automatisierung von Kraftwerken. Primäres Ziel war dabei eine Verbesserung der Betriebssicherheit, aber schon damals war Personaleinsparung ein Ziel von Automatisierungsmaßnahmen, wenn auch nur untergeordnet. Später, mit der zunehmenden Vernetzung der Kraftwerke, wurde die Frequenzregelung eine immer wichtigere Aufgabe für die Leittechnik. Um die Energieerzeugung und später auch den Energieaustausch mit anderen Unternehmen zu koordinieren, wurden mittels Leittechnik immer mehr Regelungsaufgaben in zentralen Leitwarten konzentriert. Vor der Einführung des Transistors im Jahr 1947 waren in der Leittechnik hauptsächlich elektromechanische Schutz- und Kontrollgeräte im Einsatz. Während in den Anfängen die Informationsübertragung mittels Relais- und Impulstechnik erfolgte, konnten mit Einführung der Elektronik immer leistungsfähigere Übertragungsstrecken realisiert werden. Ende der 60er Jahre, mit der Einführung von Prozessrechnern, konnten dann die ersten computergestützten Leistungs/Frequenzregelungen realisiert werden. Mit der wachsenden Leistungsfähigkeit der Computer fing man in den 70er Jahren damit an, auch die Schaltanlagen der Übertragungsnetze mit Hilfe von Leittechnik zu überwachen und zu automatisieren. Durch die verstärkte Nachfrage nach Netzleitsystemen begannen einige Firmen standardisierte Systeme für diese Anwendungen zu entwickeln. Die damaligen Systeme kann man als die erste Generation von SCADA-Systemen bezeichnen. Wegen der noch unzureichenden Graphikmöglichkeiten der Computerterminals dienten die Leitrechner hauptsächlich zur Fernüberwachung von unbemannten Stationen beziehungsweise der Ausführung von betriebsunterstützenden Berechnungen. Die Visualisierung des Netzzustandes und die Steuerung der Schaltanlagen erfolgten über große Schalttafeln oder Mosaikwände. Erst mit den zunehmenden Grafikfähigkeiten von Computerbildschirmen erfolgte nach und nach eine Verlagerung der Betriebsführungsaufgaben auf Bildschirmarbeitsplätze. Mit der immer weiter wachsenden Rechenleistung wurde es in den 80er Jahren möglich, den Computer auch für Optimierungsaufgaben einzusetzen. Mit Hilfe von speziellen Algorithmen, die zuerst als Batchjob, später auch online ausgeführt wurden, konnte so zum Beispiel der ökonomischste Einsatz von Wasser- und thermischen Kraftwerken ermittelt werden. Mit Hilfe dieser Programme war es auch möglich, den Austausch von Energie ökonomisch zu bewerten, eine Grundvoraussetzung für den späteren Handel mit Energie. Die wachsende Rechnerleis-

16.2 Feld- und Stationstechnik

749

tung wurde aber auch dazu verwendet, um die Mensch-Maschine-Kommunikation in Richtung mehr Benutzerfreundlichkeit weiterzuentwickeln. In den 90er Jahren begann man schließlich die bisher nur in den Übertragungsnetzen angewandte Leittechnik auch auf den Bereich der Verteilnetze auszudehnen. Neben der ausschließlichen Netzüberwachung wurden im Zuge der Verteilnetzautomatisierung auch zusätzliche Funktionen wie Arbeits- oder Materialverwaltung in die Leitsysteme integriert. Darüber hinaus entwickelte sich die Leit- und Informationstechnik von einer eigenständigen, isolierten Infrastruktur hin zu einer in die EVU IT-Welt integrierten Lösung. 16.1.3 Ausblick Während sich in der Vergangenheit die Leit- und Informationstechnik darauf beschränken konnte den technischen Prozess der Energieversorgung zu überwachen und zu steuern, spielen heute im Zeitalter des liberalisierten Energiemarktes auch kommerzielle Aspekte eine Rolle. Da die Übertragung der Energie nicht mehr nur eine technische Notwendigkeit darstellt, sondern Teil des kommerziellen Prozesses geworden ist, muss die Leit- und Informationstechnik heute auch die für die kommerzielle Abrechnung notwendigen Informationen sammeln und anderen Systemen zur Verfügung stellen. Integration und der Datenaustausch zwischen den einzelnen Systemen spielen in der Weiterentwicklung der Leit- und Informationstechnik in Zukunft eine immer wichtigere Rolle. Nur so lassen sich die immer größer werdenden Datenmengen, die während des liberalisierten Energieversorgungsprozesses anfallen, bewältigen. Dabei gewinnt die Leit- und Informationstechnik als Lieferant von quasi Echtzeitinformation eine immer größere Bedeutung, wenn es darum geht im Wettbewerb zeitnah die richtigen Entscheidungen treffen zu können. Dies beinhaltet auch eine lokal unabhängige Verfügbarkeit der Informationen (Mobil Computing). Eine weitere neue Herausforderung an die Leit- und Informationstechnik stellt die Netzeinbindung regenerativer Energien dar. Unter dem Begriff „Smartgrid“ werden hier Bemühungen zusammengefasst, die Energieversorgung sicherer zu machen, indem unter anderem Kleinstkraftwerke mittels IT-Technologie zu virtuellen Kraftwerken zusammengefasst werden, um diese dann besser in den Energieversorgungsprozess zu integrieren.

16.2 Feld- und Stationsleittechnik Die unterste Ebene der Energie Automatisierung bildet die sogenannte Feld- und Stationsleittechnik. Die Automatisierungskomponenten dieser Ebenen bilden zum einen die Schnittstelle (Wandler) zwischen der Primärtechnik und der Leittechnik. Darüber hinaus übernehmen sie die prozessnahen Aufgaben wie den Schutz der Netzbetriebmittel vor Beschädigung durch Überlast oder Störungen wie Kurzschluss oder ähnliches. Zum anderen werden auch schon gewisse Automatisierungsaufgaben übernommen, sowie die Kommunikation mit der übergeordneten Netzleitsystemebene abgewickelt. Die Feld- und Stationsleittechnik ist heutzutage darauf ausgelegt ohne ständige Bedienerpräsenz auszukommen, so dass Schalt-

750

16 Leit- und Informationstechnik

und Umspannanlagen heute unbemannt sind und von den Netzleitwarten aus ferngesteuert werden. 16.2.1 Plattform & Systemarchitektur Bei der Steuerung und dem Schutz des Energieversorgungsnetzes gilt es eine Menge von Informationen zu verarbeiten und weiterzuleiten. Da die Feld- und Stationsleittechnik auf der Basis von verteilten Komponenten bzw. Systemen aufgebaut ist, bedarf es einer Plattform- beziehungsweise Systemarchitektur die diesen Informationsaustausch unterstützt und dabei eine größtmögliche Herstellerunabhängigkeit gewährleistet. Dabei lassen sich die Anforderungen an Integration in zwei Hauptrichtungen gliedern. 16.2.1.1 Horizontale Integration Unter der horizontalen Integration versteht man die Verschmelzung der Funktionen Schutz, Steuerung und Überwachung zu einem einzigen System. Synergien, welche aus einer horizontalen Integration erwachsen sind, sind zum einen die Harmonisierung der Bedienerschnittstellen (= Mensch/Maschine-Kommunikation MMK) für Schutz, Steuerung und Überwachung auf Stations- respektive Feldebene. Auf diese Weise wird eine Vereinfachung bei Planung, Betrieb und Wartung erreicht. Zum anderen eröffnen die Synergien zwischen Schutz und Steuerung zusätzlich neue Möglichkeiten, wie zum Beispiel adaptiver Schutz, welche bereits in der Planungsstufe die Möglichkeiten für einen wirtschaftlichen Betrieb schaffen. 16.2.1.2 Vertikale Integration Mit vertikaler Integration wird die Durchgängigkeit eines Systems von der Primärtechnik bis hin zur Netzleitebene bezeichnet. Dabei umfasst die Integration sowohl Befehle als auch jede andere Art von relevanter Information. Durch die vertikale Integration besteht auf allen Ebenen Zugriff auf Messwertund Zustandsinformation. Die Mehrfachnutzung von Information führt zu Einsparungen an Hardwarebauteilen und Verkabelungsaufwand. Neben dem Informationszugriff stehen auch allen Bedienungsebenen die Überwachungs- und Steuerungsmöglichkeit zur Verfügung. Damit lässt sich die Automatisierung flexibel an die vorhandenen Betriebsabläufe anpassen. Die umfassende Selbstüberwachung bei der digitalen Leittechnik bietet zudem eine erhöhte Verfügbarkeit und verringert die Betriebskosten und die Notwendigkeit der vorbeugenden Wartung. Bei Stations-Automatisierungssystemen handelt es sich heute meist um offene Systeme, die auch Integration von Fremdgeräten über geeignete Schnittstellen gestatten. Auf Stationsebene lassen sich Daten und Informationen nach dem Ethernet TCP/IP Protokoll über das lokale Rechnernetzwerk, auch Local Area Network (LAN) genannt, mit allen Geräten und Systemen austauschen, die dieser Norm entsprechen. 16.2.1.3 IT-Sicherheit Mit der immer weiter schreitenden IT-Vernetzung und der Einführung von Ethernet und TCP/IP-basierter Kommunikation zwischen Anlagenkomponenten besteht

16.2 Feld- und Stationstechnik

751

ein immer größerer Bedarf nach IT-Sicherheit. Hierunter versteht man den Schutz vor unbefugtem Zugriff auf das System über dessen Netzwerkschnittstellen. Aber auch der Schutz der übertragenen Informationen gegen Mithören oder Verfälschung durch Dritte muss durch entsprechen IT-Sicherheitslösungen gewährleistet sein. Hierbei müssen zum einen die einzelnen Komponenten der miteinander kommunizierenden Systeme gegen entsprechende Attacken ‚gehärtet’ sein. Zum anderen muss die Kommunikation zwischen den Komponenten geschützt werden. Dazu lassen sich Netzwerkverbindungen zwischen räumlich benachbarten Komponenten durch sogenannte Firewalls nach außen hin abschirmen. Eine Firewall überwacht die ein- und ausgehende Kommunikation einer von ihre geschützten Netzwerkinsel und lässt nur die Informationen passieren, die als vertrauenswürdig eingestuft werden. Da die Kommunikation zwischen räumlich weiter entfernten Komponenten teilweise auch Netzwerkverbindungen verwenden muss, die sich nicht abschirmen lassen, wie zum Beispiel öffentliche Netze, wird hier die übertragene Information durch Verschlüsselung und Signierung gegen unerwünschten Zugriff oder Verfälschung geschützt. 16.2.2 Prozess- und Feldbusebene Feldeinheiten stellen die Verbindung zum Prozess her und verhindern durch die galvanische Trennung der Ein- und Ausgänge sowie durch geeignete Abschirmung die Übertragung von elektromagnetischen Störungen. Fortgeschrittene Prozessschnittstellen verbinden den Prozess durch dezentrale Ein- und Ausgänge oder nicht-konventionelle Sensoren und Aktoren. Während in der Vergangenheit die Feldeinheiten noch über Sternkoppler an den Stationsbus angeschlossen waren, werden diese heute meist direkt mit dem Stationsbus gekoppelt, welcher basierend auf Ethernet und TCP/IP implementiert ist. Dabei hat sich wegen der Immunität gegen Störeinstrahlung Lichtwellenleitertechnik in Form von Glasfaseringen weitgehend etabliert. 16.2.2.1 Stationsbus Für die Kommunikation zwischen den Automatisierungskomponenten in der Stationsleittechnik haben sich in der Vergangenheit einige Standards etabliert um auch Geräte verschiedener Hersteller verbinden zu können. Bei den Kommunikationsprotokollen finden man hier unter anderem die Standards IEC 60870-5-101 bis -104 oder DNP V3.00. Auf Stationsbusebene wird meist Profibus für die Kommunikation innerhalb der Stationsautomatisierung eingesetzt. Wegen der hohen Immunität gegenüber elektromagnetischen Störungen (EMI) erfolgt der Datenaustausch oftmals über Lichtwellenleitertechnologie. Zur Steuerung der Kommunikation kommen entweder Peer-to-Peer-Protokolle oder Master-/Slave-Protokolle zum Einsatz. Während Peer-to-Peer-Protokolle ereignisgetrieben sind, d.h. jedes angeschlossene Gerät darf spontan Meldungen zum Bus senden, erfolgt die Kommunikationsteuerung beim Master-/SlaveProtokoll ausschließlich durch den Busverwalter (Master). Dabei werden die Feldeinheiten (Slaves) zyklisch vom Master abgefragt. Der Busverwalter ist meist auf dem Kommunikationsprozessor oder im zentralen Stationsrechner implementiert.

752

16 Leit- und Informationstechnik

Netzleitstelle

IEC 60870-5-101 DNP V3.00

Netzleitstelle

Zeitsignal

IEC 60870-5-104

Log.IN1

1100

F1

SICAM PAS CC

1530 1530

8888 Log.Out1

>1 1503 Log.IN2

2173

F2

2173

Log.IN3 1530

Ethernet

IEC 60870-5-101/DNP V3.00 Profibus FMS/IEC 60870-5-103

Abb. 16.2. Typische Automationsanlage mit den Hauptkomponenten und Kommunikationseinrichtungen

Mit dem steigenden Einsatz intelligenter Geräte stieg der Bedarf an leistungsfähiger Kommunikation und Vernetzung immer mehr. Damit einhergehend stiegen aber auch die Forderungen nach einem durchgängigen Engineering und Management der Systeme. 16.2.2.2 IEC 61850 Um diesen Anforderungen Rechnung zu tragen, begann die Internationalen Elektrischen Kommission, kurz IEC, Anfang der 90er Jahre eine neue Normenreihe für Leit- und Schutztechnik in Schaltanlagen zu entwickeln. Dabei stellte diese neue IEC 61850 ein Novum dar, da sie statt wie bisher nicht nur Teilaspekte der Kommunikation, sondern das gesamte System, inklusive Engineering, Betrieb und Begriffsvereinheitlichung behandelte. Die daraus resultierenden Definitionen innerhalb der Normenreihe IEC 61850 decken einheitlich die Kommunikation zwischen den Bereichen Prozess (Wandler, Schalter), Feldebene (Schutz, Steuerung) und Stationsleittechnik (Bedienplatz, Fernwirkankopplung) ab. Dabei werden bei der Kommunikation nicht nur die Übertragung der Signale definiert, sondern auch deren Bedeutung, zum Beispiel durch eindeutige Namen oder die physikalische Einheiten. Dazu definiert die IEC 61850 nicht nur die Kommunikationsprotokolle sondern ein komplettes Datenmodel für die Beschreibung der Systemkomponenten. Dies erlaubt eine Selbstbeschreibung der Information, so dass sie für alle die Norm unterstützenden Geräte direkt nutzbar wird und es keiner Informationsumsetzer mehr bedarf. Somit können alle intelligenten Geräte einer Schaltanlage direkt an den Stationsbus angeschlossen werden. Dies erlaubt die gemeinsame Nutzung von Wandlerdaten von verschieden Geräten, aber auch beliebige Peer-to-

16.2 Feld- und Stationstechnik

753

Peer Kommunikation zur Implementierung verschiedenster Steuerung- und Schutzlösungen.

Netzleitstelle

Zeitsignal

IEC 60870-5-104

Log.IN1

1100

F1

1530 1530

8888 Log.Out1

>1 1503 Log.IN2

2173

F2

2173

Log.IN3 1530

Stationsrechner mit IEC 61850

Lokaler Bedienplatz

Stationsbus Ethernet TCP/IP mit IEC 61850 Schutzgeräte mit IEC 61850

RTUs mit IEC 61850

Controller mit IEC 61850

Abb. 16.3. Stationsautomation basierend auf dem Standard IEC 61850

16.2.3 Netzschutz Zum Schutz der Betriebsmittel einer Schaltanlage gegen Fehlbedienungen, Überlastungen oder Störungen (z. B. Kurzschluss) sind in einem Stations-Automatisierungssystem vielfältige Schutzfunktionen implementiert. 16.2.3.1 Verriegelung Mit Hilfe von Verriegelungsfunktionen realisiert man einen Schutz des Netzes gegen Fehlbedienungen. Dieser Schutz beginnet auf der Feldebene, um zum Beispiel das Einlegen eines Erders bei unter Spannung stehenden Geräten zu verhindern (verriegeln). Sowohl feldspezifische als auch feldübergreifende Verriegelungen werden mit Hilfe von Bool’schen Algorithmen in den Feldkontrollern realisiert. Für feldübergreifenden Verriegelungen benötigt man auch Stellungsmeldungen von Schaltgeräten in andere Feldern (z.B. Sammelschienentrenner, Querkupplungen, usw.) welche dann über den Stationsbus übertragen werden müssen. 16.2.3.2 Synchrocheck (Synchronisationsüberprüfung) Die Synchrocheckfunktion gehört zu den Aufgaben der Feldeinheiten und gibt den Schließbefehl von der Warte oder der automatischen Wiedereinschaltfunktion frei, sofern die Spannungs-, Phasenwinkel- und Frequenzdifferenzen über den Leistungsschalter in den zulässigen Toleranzen liegen.

754

16 Leit- und Informationstechnik

16.2.3.3 Allgemeine Schutzfunktionen In Stations-Automatisierungssystemen kann je nach Stationsauslegung eine Vielzahl von unterschiedlichen Schutzgeräten zum Einsatz kommen. x Generatorschutz: Der Generatorschutz setzt sich aus mehreren Teilsystemen zusammen, die den Generator vor unzulässigen Betriebsbedingungen schützen sollen. Neben Überlast, sind auch Unter- beziehungsweise Überfrequenz, Schieflast oder Rückleistung, Betriebszustände die es zu vermeiden gilt. Weiterhin werden auch die Wicklungen des Generatorständers, beziehungsweise Rotors auf Erd- oder Kurzschlüsse überwacht. Meist umfasst der Generatorschutz auch die Überwachung des zugehörigen Maschinentransformators. x Leitungsschutz: Der Leitungsschutz wird auch als Feldschutz bezeichnet und überwacht die von einem Sammelschienenfeld abgehende Leitung beziehungsweise das abgehende Kabel. Der Leitungs- oder Feldschutz beinhaltet Kurzschlussüberwachung für das angeschlossene Betriebsmittel sowie die Synchronüberwachung für den zugehörigen Leistungsschalter. Je nach der Länge der überwachten Leitung werden für die Kurzschlussüberwachung zwei verschiedene Verfahren angewendet. Bei kurzen Leitungen erfolgt die Überwachung durch Differentialschutz, dabei werden die Signale des Schutzes vom anderen Ende der Leitung mittels Glasfaserkabel übertragen. Bei längeren Leitungen erfolgt die Überwachung meist nach dem Distanzschutzverfahren, bei dem aus dem Quotienten von Spannung und Strom die Eingangsimpedanz der Leitung ermittelt wird. Im Falle eines Kurzschlusses auf der Leitung unterschreitet diese Impedanz einen Grenzwert, woraufhin der Schutz die Leitung automatisch abschaltet. x Sammelschienenschutz: Der Sammelschienenschutz dient dem Kurzschlussschutz und ist meist als Differentialschutz ausgeführt. Dabei wird die Summe der Feldströme aller an die Sammelschiene angeschlossen Abgangsfelder überwacht. Weicht diese Summe von Null ab, so werden an alle Abgangsfelder Ausschaltbefehle gesendet und so die Sammelschiene von Netz getrennt. In Netzen mit isoliertem Sternpunkt beinhaltet der Sammelschienenschutz meist auch noch eine Isolationsüberwachung, um Erdschlüsse erkennen zu können. x Transformatorschutz Der Transformatorschutz dient ähnlich wie der Generatorschutz dazu, den Transformator vor unerlaubten Betriebsbedingungen zu schützen. Neben Überlast werden ölgekühlte Transformatoren auch auf zu hohe Drücke im Kühlkreislauf überwacht (Buchholtzschutz). Der Grund für einen Druckanstieg im Transformator ist meist ein Windungsschluss, der zu einer starken lokalen Erwärmung führt. Die Kurzschlussüberwachung des Transformators erfolgt in der Regel nach dem Differentialschutzprinzip.

16.2 Feld- und Stationstechnik

755

Die modernern digitalen Schutzgeräte sind in der Regel direkt mit dem Stationsbus verbunden, während die Binär- und Analogsignale ältere Schutzgeräte entweder mit der Feldeinheit oder mit einer Erfassungseinheit verdrahtet sind. 16.2.3.4 Adaptiver Schutz Durch die horizontale Integration moderner Stations-Automatisierungssysteme lassen sich heute auch adaptive Schutzkonzepte realisieren. Zum Beispiel erhalten Schutzgeräte vom Stationsbus Informationen über die Zustände der Schaltgeräte und über Betriebsarten. Aufgrund dieser Informationen lassen sich von programmierbaren Logiken gesteuerte Schutzfunktionen aktivieren bzw. sperren und Schutzeinstellungen im Rahmen von automatischen Abläufen an eine neue Netzkonfiguration anpassen. Beispiele solcher Anpassungen sind: x Aktivieren/Sperren von Schutzfunktionen in Abhängigkeit der Netzerdung. x Anpassung der Distanzschutzeinstellungen bei Umgehungsschienenbetrieb. x Aktivieren/Sperren von zugeordneten Schutzfunktionen bei Maschinen, die als Generator und Motor betrieben werden. 16.2.4 Stationsebene Auf der Stationsebene gibt es einen zentralen Stationsrechner, heute vorzugsweise als standardisierter Industrie-PC ausgeführt, der gleichzeitig als Bedienplatz und als Stationsautomatisierungs-Server für die Prozessdatenbank dient. Die anlagenspezifischen leittechnischen Anwendungen werden durch die Anwendersoftware des Stations-Automatisierungssystems ausgeführt. Als Plattform für die Stationsrechner kommen zumeist kleinere SCADA-Systeme zum Einsatz. Als grundlegende Kommunikationskanäle lösen die Netzwerkschnittstellen (LAN) immer mehr die serielle Schnittstellen (COM Port) ab. Über diese Kommunikationskanäle erfolgt auch die Kommunikation mit einem übergeordneten Netzleitsystem, wobei gegebenenfalls noch ein Protokollumsetzer dazwischengeschaltet sein kann. Um eine genaue Zeitstempelung im ganzen Stationsautomatisierungssystem zu erreichen, wird die Rechneruhr oftmals über Funk (DCF-77) oder Satellit (GPS) auf die absolute Zeit synchronisiert. Des Weiteren werden Drucker für den Ausdruck von Bildschirminhalten oder für Ereignisaufzeichnung eingesetzt. Für die Fernwartung des Stations-Automatisierungssystems können Service-Modems in das System integriert sein. Das Prozessabbild des zentralen Stationsrechners enthält alle für die Überwachung der Schaltanlage erforderlichen Informationen wie zum Beispiel: x Die aktuellen Stellungen (EIN, AUS) beziehungsweise Zustände (LOKAL- oder FERNSTEUERUNG, BLOCKIERT, SIMULIERT usw.) der Leistungsschalter, Trenner und Erder. x Die Position der Trafostufensteller. x Messwerte wie Spannung, Frequenz, Strom, Wirk- oder Blindleistung. x Sonstige Meldungen wie Schutzanregung, Schutzauslösung, Wischermeldungen, usw.

756

16 Leit- und Informationstechnik

Mit Hilfe dieser Informationen werden die für die Stationsautomatisierung typischen Aufgaben ausgeführt. 16.2.5 Anwendung Der Hauptzweck eines Stations-Automatisierungssystems ist die zuverlässige und wirtschaftliche Versorgung der Verbraucher mit elektrischer Energie. Um diesen Anforderungen gerecht zu werden, muss der Stationsrechner die folgenden Anforderungen erfüllen. 16.2.5.1 Datentypen und Verarbeitung Die Datenverarbeitung beinhaltet die Erfassung und Speicherung der Daten die von den Wandlern und Feldgeräten übermittelt werden sowie deren Weiterverarbeitung durch die Applikationen des Stationsleitsystems bzw. die Weiterleitung an ein überlagertes Netzleitsystem. Von diesem empfangene Befehle müssen dahingehend auf ihre Gültigkeit überprüft und an die jeweiligen Aktoren ausgegeben werden. Die Datenverarbeitung eines SCADA-Systems behandelt die folgenden BasisDatentypen: x Messwerte x Meldungen x Zähler (für Marken, Ereignisübersichtsverarbeitung, etc.) x Status-Flags (Merkmale) x Ersatzwerte x Befehle x Sollwerte Darüber hinaus können in einem SCADA-System auch noch andere anwendungsabhängige Datentypen existieren. Messwerte Die Feldgeräte für Steuerung und Schutz sind mit den Hauptstrom- und Hauptspannungswandlern verbunden. Aus diesen Messwerten werden die Wirk- und Blindleistung sowie die Frequenz abgeleitet. Zur Erfassung anderer Messwerte wie Temperaturen, Drücke, etc. unterstützen Stations-Automatisierungssysteme zumeist auch Eingänge für mA- und V-Messwerte sowie Pt-Widerstande für die Temperaturmessung. Die Messwerte werden zyklisch von der erfassenden Einheit an den zentralen Stationsrechner übertragen, um dort aufgezeichnet und weiterverarbeitet zu werden. Zu Verringerung des Datenaufkommens werden teilweise auch nur die Messwerte übertragen, die eine einstellbare Messwertänderung seit der letzten Übertragung überschritten haben. Jeder Messwert (Analogwert) wird vom SCADA-System vorrangig vor dem Abspeichern in der Systemdatenbank verarbeitet. Diese Verarbeitung umfasst: x Umwandlung in technische Einheiten x Grenzwertüberprüfung x Nullbereichsverarbeitung x Gradientenüberwachung

16.2 Feld- und Stationstechnik

757

Umwandlung in technische Einheiten Für analoge Messwerttypen werden die binäre Darstellung von der Datenerfassung in technische Einheiten (kV, MW, MVar, etc.) umgewandelt. Dies geschieht entweder durch lineare Umrechnung (y = ax + b) oder durch einen nichtlinearen Umwandlungsalgorithmus. Für digitale Messwerttypen wird die binäre Darstellung des Werts vom SCADA System umgerechnet/dekodiert. Typische Formate zur Kodierung digitaler Messwerte sind zum Beispiel: x 16 Bit 2er Komplement x 12 Bit 2er Komplement x 5 Bit Gray code mit Paritätsbit Einen Sonderfall stellen die Positionsmesswerte von Transformatorstufenstellern dar. Wegen des kleinen Wertebereichumfangs werden diese Messwerte teilweise auch als BCD (= Binary-Coded Decimal) codierte Zahlenwerte übertragen. Grenzwertüberprüfung Um den Nennmessbereich zu bestimmen werden die Betriebsgrenzen der Messwerte (Wandlergrenzen) herangezogen. Zusätzlich können jedem Messwert weitere Grenzwertpaare zugeordnet werden. Diese Grenzen können, gemäß den betrieblichen Erfordernissen, frei gewählt werden. Typischerweise werden diese Grenzwerte dazu benutzt, um Warn- oder Alarmzustände des überwachten Werts zu bestimmen. Wird eine Grenzwertverletzung erkannt, so wird das zugehörige Status-Flag bezüglich des jeweilig über- oder unterschrittenen Grenzwertes für das Objekt gesetzt. Der Messwert wird gespeichert und die Ereignis-/Alarmbehandlung wird entsprechend der vorgegebenen Einstellungen angestoßen. Erzeugung eines Ereignisses

Oberer Grenzwertlevel 2

Erzeugung eines Ereignisses

Erzeugung eines Ereignisses

Oberer Grenzwertlevel 1

= Deadband

Abb. 16.4 Grenzwertüberwachung

Um zu verhindern, dass Messwerte, die im Bereich eines Grenzwertes schwanken, ständige Alarme auslösen, kann für jeden Messwert ein Unempfindlichkeitsbereich (= Deadband) definiert werden. Die Grenzwertverletzung wird sofort erkannt, wenn der Messwert die Grenze über-/unterschreitet. Um jedoch

758

16 Leit- und Informationstechnik

wieder in den Normalbereich zurückzukommen, muss der Wert die Grenze in Richtung Normalbereich zusätzlich um den Betrag des Unempfindlichkeitsbereichs überschreiten. Abb. 16.4 veranschaulicht dies. Nullbereichsverarbeitung Die Nullbereichsverarbeitung sorgt für einen definierten Zustand, wenn der Messwert im Bereich des Nullwertes liegt. Dazu wird ein Unempfindlichkeitsbereich um den Nullpunkt verwendet. Falls ein Messwert innerhalb dieses Unempfindlichkeitsbereichs liegt, so wird sein Wert auf Null gesetzt. Der Übergang eines Messwertes in/aus dem Nullbereich kann dazu verwendet werden, ein Zustandsmerkmal zu setzten oder eine Berechnung anzustoßen. Gradientenüberwachung Für Messwerte kann auch ein Gradient vorgegeben werde. Für diese Punkte wird der Gradient als absolute Steigung aus den letzten 'n' Werten berechnet. Bei Überoder Unterschreiten eines Grenzwertes für den Gradienten wird ebenfalls die Ereignis-/Alarmbehandlung entsprechend der vorgegebenen Einstellungen angestoßen. Meldungen Meldungen (Binärwerte) werden von SCADA System zur Abspeicherung von Zustands- oder Statusinformationen verwendet. Eindeutige Zustände werden mit nur einem Bit codiert (JA/NEIN), für Zustände bei denen auch Zwischenwerte auftreten können, werden zwei Bit (Doppelmeldung) zur Informationsübertragung verwendet. Ein Beispiel für Doppelbit-Meldungen sind die Statusmeldungen von Schaltgeräten. Hier gibt es zwischen OFFEN und GESCHLOSSEN aus mechanischen Gründen noch einen Zwischenzustand (Störstellung) der durch das zusätzliche Bit übertragen werden kann. Eine Zustandsänderung kann für jede fernübertragene Meldung erkannt werden, indem der empfangene Status mit dem in der Datenbank gespeicherten Status verglichen wird. Doppelmeldungen, die einen Übergangszustand (0/0 oder 1/1) haben, benötigen eine zusätzliche zeitliche Überwachung. Dies ist notwendig, um den Übergangszustand von einer Störstellung unterscheiden zu können. Die Ereignisverarbeitung wird erst nach einer längeren Verzögerungszeit angestoßen. Zählwerte Impulse, die sich auf einen bestimmten Wert, meist einen Leistungswert, beziehen, werden mit den Digitaleingängen eines Fernwirkgeräts (RTU) verbunden. Die Impulse werden dann von dem Fernwirkgerät gezählt. Die Zählwerttelegramme werden periodisch zum Ende jeder Erfassungsperiode, zum Beispiel stündlich, an die Applikationsserver übertragen. Diese Übertragung wird Abrechnungsablesung genannt. Zusätzlich können Übertragungen zwischen den Erfassungsperioden, zum Beispiel 5-minütlich, erfolgen. Dies wird zwischenzeitliche Erfassung genannt und für Trendzwecke innerhalb der Erfassungsperiode verwendet. Mit jeder Übertragung des Impulszählers werden das letzte Inkrement, der aktuelle Zählwert und der letzte Stundenwert in der Echtzeitdatenbank gespeichert. Die Verarbeitung von Impulszählern umfasst:

16.2 Feld- und Stationstechnik

759

x Umwandlung in technische Einheiten x Grenzwert- und Plausibilitätsüberprüfung x Überprüfung auf Vollständigkeit Die Impulse für Zählwerte werden in den Fernwirkgeräten aufaddiert. Diese werden vom SCADA-System, durch Multiplikation der in der letzten Periode registrierten Impulse mit einem Skalierungsfaktor, in Leistungswerte umgerechnet. Wenn ein Zählwert empfangen wird, erfolgt eine Überprüfung. Betriebsgrenzen und Plausibilitätsgrenzen werden herangezogen, um einen normalen Wertebereich für Zählwerte zu definieren. Liegt der übertragene Wert außerhalb dieser Grenzwerte, so wird der Zähler in der Datenbank als ungültig markiert. Durch die Verletzung einer Grenze wird das zugehörige Flag für die Grenzwertverletzung für das Objekt gesetzt und die Ereignis-/Alarmbehandlung entsprechend der vorgegebenen Einstellungen angestoßen. Da Zählwerte in der Regel für kommerzielle Abrechnungszwecke verwendet werden, ist es notwendig nach jedem Zyklus (Hauptwert oder Zwischenwert) alle Zählwerte auf Vollständigkeit zu überprüfen. Falls ein Telegramm fehlt, wird das zugehörige Status-Flag für das Objekt gesetzt und die Ereignis-/Alarmbehandlung wird entsprechend der vorgegebenen Einstellungen angestoßen. Falls ein Telegramm fehlt, besteht in der Regel die Möglichkeit einen Ersatzwert zu berechnen, um eine vollständige Aufzeichnung zu gewährleisten. Dabei gibt es verschiedene Arten die Ersatzwerte abzuleiten: x Verwendung des Alternativwertes x Verwendung eines Messwertes x Verwendung eines manuell eingegebenen Wertes x Fortführung des letzten Inkrements x Inkrement auf Null setzen Um Zählwerte zu kennzeichnen, die aus der erfolgreichen Berechnung eines Ersatzwertes stammen, wird ein entsprechendes Status-Flag gesetzt. Zustandsmerkmale (Status-Flags) Zustandsmerkmale existieren für Messwerte, Meldungen und Zählwerte. Sie geben Aufschluss über die Qualität der Daten und andere betrieblichen Einschränkungen. Einige dieser Merkmale werden automatisch durch die Datenerfassung und Datenverarbeitung gesetzt. Andere werden explizit durch Nachführung eingegeben. Im Folgenden eine Auswahl von typischen Zustandsmerkmalen: Nachgeführt Dieses Flag wird für ferngemeldete Messwerte, Meldungen und Zählwerte gesetzt, die vom Bediener nachgeführt wurden. Für nicht ferngemeldete Objekte, deren Eingabe nur händisch erfolgen kann, wird es nicht gesetzt. Datenerfassung blockiert Dieses Flag wird für Messwerte, Meldungen und Zählwerte per Handeingabe gesetzt. Es wird automatisch gesetzt, wenn eine Nachführung für das betreffende Objekt durchgeführt wurde.

760

16 Leit- und Informationstechnik

Aktualisiert Dieses Flag ist normalerweise gesetzt. Es wird für Messwerte, Meldungen und Zählwerte zurückgesetzt, wenn das Objekt, durch ein Problem auf der Übertragungsstrecke oder im Fernwirkgerät, nicht übertragen wurde, oder durch eine Grenzwertverletzung bei der A/D-Wandlung ungültig wird. Das Flag wird auch gesetzt, wenn das Objekt nachgeführt wird. Warnmeldung gesperrt Dieses Flag wird per Handeingabe für Messwerte und Meldungen gesetzt. Bei gesetzten Flag ist die Warnmeldeverarbeitung für den entsprechenden Datenpunkt gesperrt, zum Beispiel um bei Wartungsarbeiten an der Fernwirkanlage nicht durch Fehlalarme irritiert zu werden. Befehlssperre Dieses Flag wird per Handeingabe für steuerbare Geräte oder Objekte gesetzt. Bei gesetzten Flag ist die Befehlsverarbeitung für den entsprechenden Datenpunkt gesperrt, zum Beispiel um bei Wartungsarbeiten in der Schaltanlage das dort arbeitenden Personal nicht zu gefährden. Ersatzwert Das Flag wird durch die Datenverarbeitung für Zählwerte gesetzt, wenn es sich um einen Ersatzwert handelt (siehe auch Abschnitt Zählwert). Befehle und Sollwerte Im Zustand FERNSTEUERUNG werden Steuerbefehle vom übergeordneten Netzleitsystem überprüft (siehe Abschnitt Verriegelungen) und an das jeweils zuständige Feldgerät weitergeleitet. Bevor das Feldgerät den Befehl ausführt, prüft es ebenfalls, ob grade ein anderer Befehl ausgeführt wird, ob irgendwelche Verriegelungsbedingungen vorliegen oder ob eine Blockierungsbedingung, zum Beispiel zu niedriger SF6-Gasdruck vom Leistungsschalter, vorliegt. Bei Leistungsschaltern muss auch die Freigabe der Synchroncheck-Funktion vorhanden sein. Nach positiver Prüfung sämtlicher Bedingungen wird der Befehl an den Schalter ausgegeben. Im Zustand LOKALSTEUERUNG erfolgt die Bedienereingabe am Bedienplatz des Stationsrechners. Anschließend erfolgen dieselben Überprüfungen, bevor der Befehl letztendlich an das angewählte Schaltgerät ausgegeben wird. Ein Stationsleitsystem umfasst eine Anzahl verschiedenster Möglichkeiten zur Steuerung von Betriebsmitteln. Dabei kann es sich auch um die Bedienung von mehreren Objekten und genau definierten Befehlssequenzen handeln. Plausibilitätsprüfungen sollen eine möglichst große Sicherheit bei der Anlagensteuerung gewährleisten. Gängige Befehlsarten die von einem SCADA-System gesteuert werden können sind: x Steuerbefehl (ein/aus) x Höher/Tiefer-Befehl (bei Transformator Stufenstellern) x Auf/Zu-Befehl (bei Ventilen und Schiebern) x Sollwertvorgabe

16.2 Feld- und Stationstechnik

761

Steuerbefehl (Ein/Aus-Befehl) Der Steuerbefehl kennt zwei Alternativen (ein/aus), die den möglichen Zuständen des Betriebsmittels entsprechen. Man unterscheidet zwei Typen von Befehlen die sich in Sicherheit und Geschwindigkeit unterscheiden: x sofortige Ausführung x Befehle mit Rücküberprüfungs-Charakteristik Für den Befehl mit sofortiger Ausführung wird ein einzelnes Befehlstelegramm an das Zielgerät übertragen. Demgegenüber wird der Befehl mit Rücküberprüfung aufgelöst in zwei einzelne Befehle an das Zielgerät, ein Anwahltelegramm, dass das zu steuernde Objekt festlegt, gefolgt durch ein Ausführungstelegramm, das gesendet wird, nachdem die Antwort auf das Anwahltelegramm im Leitsystem empfangen und geprüft wurde. Die Antwort auf das Anwahltelegramm wird im Leitsystem dahingehend geprüft, ob es sich um das richtige Gerät und die richtige Hardwareadresse handelt, bevor der Ausführungsbefehl geschickt wird. Nach dem Senden des Ausführungsbefehls wird in beiden Fällen anschließend die richtige Rückmeldung für das Objekt aus dem Prozess überprüft. Höher/Tiefer-Befehl Der Höher/Tiefer-Befehl kennt zwei Alternativen (höher/tiefer), die den möglichen Richtungen entsprechen, in die der Zustand des Betriebsmittels verändert werden kann. Im Gegensatz zum Steuerbefehl kann bei einem Höher/TieferBefehl für das vorgesehene Objekt eine beliebige Anzahl von einzelnen Ausführungsbefehlen aufeinander folgen. Die Überwachung eines Höher/Tiefer-Befehl erfolgt analog zu einem Steuerbefehl. Auf/Zu-Befehl Der Auf/Zu-Befehl ist ähnlich dem Höher/Tiefer-Befehl. Allerdings arbeitet er nicht mit diskreten Stufen sondern stufenlos. Solange der Befehl aktiv ist oder noch keine Endstellung erreicht ist, ändert das angesprochen Objekt seinen Zustand in die vorgegeben Richtung. Sollwertvorgaben Bei einer Sollwertvorgabe wird ein Sollwerttelegramm mit dem eingegebenen neuen Sollwert an die RTU gesendet. Es können mehrfach Sollwertvorgaben für dasselbe Objekt durchgeführt werden ohne es für jeden solchen Befehl neu anwählen zu müssen. Schaltprogramme Schaltprogramme ermöglichen die Steuerung einer Anzahl von Betriebsmitteln durch vorgegebene Schaltsequenzen. Diese können auch Sicherheitsüberprüfungen und Verzögerungszeiten enthalten. Typische Anwendungsfälle für Schaltprogramme sind: x Zu- und Abschalten von Kabeln oder Übertragungsleitungen auf eine Sammelschiene durch eine Schaltsequenz für die Trenner und Leistungsschalter im Abgangsfeld.

762

16 Leit- und Informationstechnik

Sammelschienenwechsel EIN/AUS-Befehle für Leistungsschalter (z. B. Lastabwurf oder Wiederzuschalten einer Last) x Verarbeitung einer großen Anzahl von Straßenlaternen morgens und abends x Steuerung von Objekten Schaltprogrammfunktion erlaubt es dem Bediener Schaltprogramme mittels einer Art Makrosprache zu definieren. Für das Erstellen einer vollständigen Sequenz sind meist noch weitere Funktionen verfügbar: x Funktionen um den Ablauf zu steuern, wie: - Warten bis eine bestimmte Meldung ihren Zustand geändert hat, bevor die Sequenz fortgeführt wird - Unterbrechen der Sequenz für eine bestimmte Zeit oder bis sie vom Bediener fortgeführt wird - Abbruch einer Sequenz - Bedingte Ausführung: den Zustand einer Meldung oder eines Messwertes abfragen und die folgende Zeile nur dann ausführen, wenn die Bedingung zutrifft x Zuweisung eines Sollwertes für ein Betriebsmittel x Statusänderung einer Meldung in der Datenbank (wirkt wie eine Nachführung) x Änderung eines Messwertes in der Datenbank (wirkt wie eine Nachführung) x Ausgabe einer Nachricht x Ausgabe eines Ereignisses in die Ereignisliste und auf den Drucker Vordefinierten Sequenzen, wie zum Beispiel Sammelschienenwechsel können dann im Zustand FERNSTEUERUNG auch mittels eines einzigen Befehlstelegramms vom übergeordneten Leitsystem aufgerufen werden. x x

Verriegelungen Die Verriegelungsfunktion schützt vor unerlaubten Befehlen und Nachführungen. Für Meldungen können Verriegelungsbedingungen definiert werden, die überprüft werden bevor ein Betriebsmittel geschaltet wird. Trifft die Bedingung zu, wird der Befehl oder die Nachführung abgewiesen. Für Test- oder Notsituationen können die Verriegelungen umgangen werden. Die Funktion erlaubt die Vorgabe von Einzelbedingungen oder Mehrfachbedingungen, die jedes Mal überprüft werden, wenn ein Befehl oder eine Nachführung versucht wird. Verriegelungsbedingungen werden logisch aufgebaut (z. B. ein bestimmter Leistungsschalter ist geöffnet, ein Gerätestatus ist im Zustand 'ferngemeldet' oder eine Übertragungsleitung ist spannungsführend). Verriegelungsbedingungen lassen sich zum einen als globale Regeln definieren, zum Beispiel keine Verbindung zwischen spannungsführenden und geerdeten Netzteilen. Diese topologischen Verriegelungsbedingungen werden mit Hilfe von Topologieprozessoren überprüft. Weiterhin können spezielle Verriegelungsbedingungen mit Hilfe von Makroprogrammen definiert werden. Die Verriegelungsprüfungen können in den folgenden Bereichen angewendet werden:

16.2 Feld- und Stationstechnik

763

x Topologische Bedingungen x Zustand von Objekten x Generelle Bedingungen Ist ein Objekt einer Verriegelungsfunktion zugeordnet, dann wird die Verriegelungsprüfung oder die Folge der Verriegelungsprüfungen jedes Mal ausgeführt, wenn das Objekt angesteuert werden soll. Falls das Ergebnis der Prüfung die gewünschte Bedienhandlung nicht zulässt, wird die Steuerungsanforderung abgebrochen und eine Fehlermeldung auf dem Monitor angezeigt. Für Test- oder Notsituationen kann unter Benutzung der Umgehungsfunktion (Bypass-Funktion) eine solche abgewiesene Steuerungsanforderung doch ausgeführt werden. Aus Sicherheitsgründen wird die Verwendung der Bypass-Funktion vom System in der Ereignisliste protokolliert. 16.2.5.2 Ereignis-/Alarmbehandlung Die Ereignisbehandelung verarbeitet alle Ereignisse die von Schalt- und Schutzgeräten erzeugt werden und für den Betrieb der Schaltanlage von Bedeutung sind. Jede Änderung im Prozess oder in der Sekundärtechnik erzeugt ein Ereignis. Diese werden möglichst nah am Entstehungsort, das heißt normalerweise in den Feldeinheiten, mit einem Zeitstempel versehen. Um bei großen Ereignisaufkommen oder Kommunikationsunterbrechungen sicherzustellen, dass keine Ereignisse verloren gehen, sind alle an der Ereignisverarbeitung beteiligten Komponenten (Feldeinheit, Datenerfassungseinheit, Kommunikationseinheit) mit einem Ereignisspeicher versehen. Die dezentral entdeckten Ereignisse werden an das Stationsleitsystem übertragen, wo sie in Ereignislisten innerhalb der Prozessdatenbank des Stationsrechners abgelegt werden und, falls zutreffend, zu den Aufzeichnungen auf dem Ereignisdrucker addiert werden, bzw. an das übergeordnete Netzleitsystem weitergeleitet werden. Ereignisverarbeitung Ereignisse werden dann erzeugt, wenn sich der Status einzelner Objekte im Prozess oder auch im Stationsleitsystem selbst verändert. Die Ereignisverarbeitung eines SCADA-Systems kann, gesteuert durch ein vielseitiges System zur Klassifizierung, eine oder mehrere der folgenden Aktionen einleiten: x Ausgabe des Ereignisses auf dem Drucker x Ausgabe des Ereignisses in der Ereignisliste x Unquittierte und anstehende Warnmeldung x Akustischer Alarm x Anstoß von weiteren Funktionen Sowohl für Messwerte als auch für Meldungen können bei der Ereignisverarbeitung meist unterschiedliche Zeitverzögerung definiert werden, normalerweise in Abhängigkeit vom überwachten Betriebsmitteltyp. So können beispielsweise. Zeitverzögerungsgruppen für Leistungsschalter oder für antriebsgesteuerte Trenner usw. angegeben werden. Die Verzögerungszeit spezifiziert eine Zeitspanne zwischen dem Zeitpunkt der Erkennung einer Messwert- oder Meldungsänderung und dem Zeitpunkt der möglichen Darstellung dieser Zustandsänderung. Nimmt der Zustand des Messwertes oder der Meldung innerhalb dieser Zeitspanne wieder

764

16 Leit- und Informationstechnik

den ursprünglichen Wert an, so wird keine Darstellung des Ereignisses oder einer Warnmeldung angestoßen. Ereignislisten Eine Ereignisliste ist die historische Aufzeichnung von Ereignissen, die chronologisch sortiert dargestellt werden, wobei jedes Ereignis einen Zeitstempel und eine Beschreibung hat. Um den Bediener nicht mit Ereignissen zu überfluten, erfolgt bei der Darstellung von Ereignislisten eine Filterung auf Ereignisse, die zu einem bestimmten Teil des Systems, zum Beispiel einer Spannungsebene, gehören. Dieser Filter wird automatisch durch den gegenwärtig selektierten Systemteil bestimmt und beschränkt den Informationsumfang auf den für den Bediener zu diesem Zeitpunkt relevanten Anteil. Zusätzlich zur automatischen Filterung können auch weitere Reduzierungen der Ereignisse vom Bediener durch Verwendung der Ereignisauszugsfunktion erreicht werden. Die Liste kann so eingeschränkt werden, dass sie nur noch Ereignisse einer bestimmten Priorität, eines bestimmten Typs, Ereignisse für ein bestimmtes Objekt oder eine Gruppe von Objekten oder einer Kombination dieser oder anderer Eigenschaften enthält. Als Beispiel. kann so zur Lokalisierung eines Erdschlusses die Ereignisdarstellung auf alle Meldungen von Erdschlussrelais in einem bestimmten Zeitraum eingeschränkt werden. Warnmeldungsverarbeitung Bestimmte Ereignisse können so definiert werden, dass sie als Warnmeldung (Alarm) weiterverarbeitet werden. Warnmeldungen müssen explizit quittiert werden und bieten weitreichendere Möglichkeiten zu Darstellung als Ereignisse. Warnmeldungen werden wie folgt dargestellt: x Betroffene Objekte werden in einen Zustand „unquittierte Warnmeldung“ und/oder „anstehende Warnmeldung“ gesetzt. In jedem Bild, in dem sie angezeigt werden, werden die Symbole besonders hervorgehoben. x Eine Warnmeldungsbedingung erzeugt einen Eintrag in entsprechenden Warnmeldelisten. x Das Eintreten einer Warnmeldung kann zu einem akustischen Alarm führen. Warnmeldeliste Die Warnmeldeliste hat die gleiche Struktur wie die Ereignisliste. Während die Ereignisliste eine kontinuierliche Registrierung aller Ereignisse enthält, geben die Einträge in der Warnmeldeliste die aktuellen Warnmeldezustände der Objekte in komprimierter Form wieder. Unquittierte Warnmeldungen können von jedem Bedienplatz aus, der über die entsprechende Zuständigkeit bezüglich des zugehörigen Objektes verfügt, quittiert werden. Wird ein Objekt quittiert, so wird der Eintrag für dieses Objekt als quittiert gekennzeichnet. Gehört das Objekt zu einer anstehenden Warnmeldung, so verbleibt der Eintrag in der Warnmeldeliste erkennbar als quittiert, jedoch im Zustand anstehende Warnmeldung. Im anderen Fall wird der Eintrag aus der Liste gelöscht.

16.2 Feld- und Stationstechnik

765

16.2.5.3 Visualisierung Zur Überwachung und Steuerung der kontrollierten Schaltanlage werden durch die Dateneingabe so genannte Anlagenbilder erstellt. Diese zeigen die Konfiguration und den dynamischen Status der gesamten Anlage, bzw. von einzelnen Teilsystemen. Dabei werden in einer schematischen Darstellung der Anlage die statischen Informationen zusammen mit dynamischen Objekten dargestellt. Statische Bildinformation sind zum Beispiel die Anlagentopologie mit Leitungsabgängen, Sammelschienen und Transformatoren, die Namen der Betriebsmittel oder Sammelschienenfelder, usw. Die dynamischen Bildobjekte zeigen den Gerätestatus, numerische Werte für Leistungsfluss, Spannungen und andere Messwerte, oder auch durch das Stationsleitsystem berechnete Werte, wie zum Beispiel Summen von Messwerte oder die aus Wirk- und Blindleistung ermittelte Scheinleistung. Gegebenenfalls wird auch eine dynamische Netzeinfärbung dazu verwendet, um den Status (spannungsführend, spannungslos, geerdet, usw.) oder die Spannungsebene, mittels entsprechender Einfärbung der Symbole für Leitungen, Sammelschienen, Transformatoren, usw., zu visualisieren. Die Überwachung der Betriebsmittel, der Schaltanlage oder des Umspannwerkes erfolgt in Regel über diese Anlagenbilder. Durch Anwahl eines Betriebsmittels in einem Anlagenbild und der Auswahl des entsprechenden Bediendialogs werden die Überwachungs- und Steuerungsfunktionen des Stationsleitsystems aufgerufen. Neben den Anlagenbildern gibt es in Stationsleitsystemen noch eine Reihe weiterer Bildtypen: x Listenbilder Listenbilder finden Verwendung zur Präsentation von Ereignis- oder Warnmeldelisten, aber auch zur Darstellung von tabellarischen Ergebnissen der Applikationen, wie zum Beispiel Archiven. x Baumdarstellung (Explorer Darstellung) Neben der Darstellung der Betriebsmittel in den Anlagenbildern können alle in der Datenbank des Stationsleitsystems befindlichen Datenobjekte auch in eine Baumdarstellung, ähnlich der Dateistruktur eines PCLaufwerkes, dargestellt werden. Die Anordnung der Objekte innerhalb des Baumes erfolgt automatisch gemäß der bei der Dateneingabe definierten Anlagenhierarchie. Damit lassen sich auch Datenobjekte anwählen, für die keine Darstellung in einem Anlagenbild gemacht wurde, wie zum Beispiel Fernwirkgeräte. x Kurvendarstellung Mit Hilfe von Kurvendarstellungen lässt sich der Verlauf von dynamischen Größen (z.B. Messwerte) in Abhängigkeit von der Zeit darstellen. Damit lassen sich Entwicklungstendenzen leichter verfolgen. x Systembilder Zur Überwachung der Funktionen des Stationsleitsystems selbst, gibt es eine Reihe von Systembildern, in denen die Komponenten des Leitsystems und ihr jeweiliger Status dargestellt werden.

766

16 Leit- und Informationstechnik

16.2.5.4 Störverlaufsanalyse/Störschriebe Schutzgeräte werden heutzutage ausschließlich in Digitaltechnik gebaut und besitzen Analog/Digital Wandler, die ein hochfrequentes Abtasten der Eingangssignale ermöglichen. Dadurch lassen sich in die Geräte Störschriebfunktionen implementieren, die es erlauben, den Signalverlauf vor, während und nach einer Störung für einen definierten Zeitraum aufzuzeichnen und abzuspeichern. Diese Störschriebinformationen können dann über den Stationsbus ausgelesen und mittels entsprechender Visualisierungssoftware auf dem Stationsrechner oder auch auf dem Rechner eines überlagerten Netzleitsystems zur Störverlaufsanalyse dargestellt werden. Als ein herstellerunabhängiges Dateiformat für die Störschriebinformationen hat sich des sogenannte COMTRADE Format etabliert. 16.2.5.5 Datenpflege Systeme zur Schaltanlagenüberwachung benötigen eine große Zahl an statischen Informationen für die Beschreibung der Systemkonfiguration, der Fernwirkrangierung und der Anlagentopologie. Passend zur Anlagentopologie müssen dann gegebenenfalls auch noch Anlagenbilder für das Bedienerinterface gezeichnet werden. Dabei handelt es sich zum einen um Beschreibungen (Textdaten), zum anderen um graphische Abbildungen der Anlage. Beide Informationstypen müssen konsistent, leicht zu erfassen und leicht zu aktualisieren sein.

Abb. 16.5. Typisches Applikationsfenster für Systemkonfiguration und Datenpflege

Die Eingabe der Daten des Stationsleitsystems erfolgt meist zuerst in einer eigenständigen Datenpflegeapplikation, die den Dateneingeber durch verschiedene, teilweise auch aufgabenbezogen, gefilterte Darstellung der Daten (Topologie, Kommunikation, Konfiguration, usw.) bei der Dateneingabe unterstützen. Mit Hilfe von Vorlagen lassen sich immer wiederkehrende Datenkonstellationen schnell und einfach erfassen. Mit der Einführung der IEC 61850 lassen sich viele Informationen auch importieren, wenn diese bei der Konfiguration einer anderen Komponente, zum Beispiel eines Schutzgerät, schon einmal für ein anderes Gerät eingegeben und in der von

16.3 Phasenwinkelmessungen

767

der IEC 61850 definierten Substation Configuration Language (SCL) exportiert worden sind.

16.3 Phasenwinkelmessungen In der Vergangenheit konnten nur die Betragswerte der Strom- und Spannungsmesswerte aus den Schaltanlagen und Umspannstationen zu einer zentralen Leitstelle übertragen werden, da es an einem hochgenauen Zeitnormal mangelte. Mit der Verbreitung der GPS Technologie steht nun ein solches Zeitnormal überall auf der Welt zur Verfügung. Damit wird es möglich, neben den Beträgen auch die Phasenwinkel von Spannung und Strom an räumlich getrennten Orten zu erfassen und an ein zentrales System zu übertragen. (siehe Abb. 16.6) Dort können dann die Phasenwinkelinformationen in Relation gesetzt und ausgewertet werden. Für die Messung von Synchronzeigern in Elektroenergiesystemen ist mit der IEEE C37.118 ein weltweiter Standard definiert worden Netzleitwarte

Satelliten

V, I, f ,

df dt

Kommunikationskanäle GPS Signal

Vektorgrößenmessung von Spannungen & Strömen mit hoher Genauigkeit bezüglich Amplitude, Phasenwinke and Zeitsynchronization ( Kompressor

I. 1 Grundbegriffe

825

Aus Gln. (I.3), (1.7) und (1.8) folgt

Der I. Haupsatz lautet somit für FlieJprozesse 1 2 2 Ah + -(c2-cl) + g(z2-zl) 2

=

q +

W

(1.9) Der Vergleich mit G1. (1.5) zeigt, dass bei Fließprozessen die Summe aus Enthalpie, kinetischer und potentieller Energie an Stelle der inneren Energie tritt. Da bei gasförmigen Medien i.d.R. kinetische und potentielle Energie vernachlässigbar klein sind, genügt es meist Au durch Ah zu ersetzen. Der in Kap. 4 behandelte Fall einer Wasserströmung ist ein Spezialfall von GI. (1.9). Der Wärmeaustausch wird vernachlässigt und die innere Energie U ist konstant (da nur temperaturabhängig, GI. I.2b). Die Dichte ist ebenfalls konstant und somit die Enthalpiedifferenz Ah = A(p V)= (p,-p,)lp. Die GI. (1.9) wird zur GI. (4.5) von D. Bernoulli. Für die innere Energie der Masse Am (als geschlossenes System) gelten weiterhin die Gln. (I.5), (1.6). Wird in GI. (1.3) eingesetzt, erhält man

Da d@v) = p dv + V dp, folgt aus dem Vergleich mit (1.9) die Kompressionsarbeit (I. 10) Abbildung 1.6 zeigt die Interpretation der Volumen- bzw. Druckänderungsarbeit in der (p V)-Ebenefür geschlossene Systeme (Gl. I.6), und für Fließprozesse (GI. 1.10).

Abb. 1.6: a) Volumenänderungsarbeit für geschlossene Systeme, b) Druckänderungsarbeit für Fließprozesse

826

Anhang I Thermodynamik

1.1.4 Entropie, zweiter Hauptsatz

Sowohl für geschlossene Systeme als auch fir Fließprozesse lässt sich die innere Energie durch (I. 1 1) ausdrücken. Mit den Gln. (1.3) und (1.4) folgt:

Es ergibt sich folgende Interpretation der Entropie

(I. 13) Die Entropiezunahme bei Zustandsänderung ist das Verhältnis zwischen der totalen Wärmezunahme und der absoluten Temperatur. Ist der Prozess adiabat (q = 0) nimmt die Entropie immer zu, da die Reibungsverluste q,. nur positiv sein können. Die Entropie eines adiabaten Prozesses kann also niemals abnehmen, bei natürlichen adiabaten Prozessen nimmt sie immer zu (zweiter Hauptsatz). Dies hängt damit zusammen, dass natürliche Prozesse immer Reibungen aufiveisen und somit irreversibel sind. Sowohl fiir geschlossene Systeme als auch f i r Fließprozesse lässt sich die Wärmezunahme (Wärmezufuhr + Reibungswärme) bequem im (T,s)-Diagramm darstellen (Abb. 1.7)

Abb. 1.7: Darstellung der Wärmezunahme in der (T,s)-Zustandsebene, gültig für geschlossene Systeme und Fließprozesse

1.2 Kreisprozesse

827

1.2 Kreisprozesse Ein Kreisprozess ist eine Folge von Zustandsänderungen, die schließlich den Stoff in den ursprünglichen Zustand zurückfiihren. Alle Zustandsgrößen sind nach einem Kreisprozess unverändert. Die technischen Anwendungen der Thermodynamik basieren auf Kreisprozesse. Wird der Kreisprozess im Uhrzeigersinn durchlaufen (Abb. I.8), ergibt sich Arbeit aus Wärme also einen thermischen Motor; wird er im Gegenuhrzeigersinn durchlaufen, ergibt sich umgekehrt Wärme (oder Kälte) aus Arbeit also eine Wärmepumpe (oder Kältemaschine). Mit Bezug auf den thermischen Motor wird definiert: W = erhaltene minus aufgewendete technische Arbeit, q = zugeführte minus abgeführte Wärme. Da f i r den Kreisprozess Au = Ah = 0, folgt aus den Gln. (1.5) und (1.12) bei Berücksichtigung obenerwähnter Vorzeichen die fundamentale Beziehung

Abbildung 1.8 zeigt ihre Interpretation in der (T,s)- und in der @,V)-Ebene.

Abb. 1.8: Interpretation in der (T,s)- und @,V)-Ebenevon GI. (1.14)

1.2.1 Kreisprozess von Carnot Der reversible (verlustlose) Kreisprozess von Carnot (Abb. 1.9) besteht aus zwei Isentropen und zwei Isothermen. Aus GI. (1.14) folgt die Energiebilanz W = q: Die erhaltene Arbeit ist: W =

ql - q2 = (Tl - Tz) As

Als thermischen Wirkungsgrad wird das Verhältnis von erhaltener Arbeit zu zugeführter Wärme bezeichnet (I. 15) Der Camotprozess ist der Prozess mit dem höchsten Wirkungsgradder sich zwischen den Temperaturen T, und T, realisieren lässt

Anhang I Thermodynamik

828

Abb. 1.9: Camotprozess (Motor): AB reversible adiabate Kompression, BC ideale

isotherme Kompression (mit Wärmezufuhr q,), CD reversible adiabate Expansion, DA ideale isotherme Expansion (mit Wärmeabfuhr q,). Wärmebilanz: q = q,-q,, Wärmezufuhr: q, = T, As, Wärmeabfuhr: q, = T, As Beispiel I. 1 Man berechne den Wirkungsgrad einer Carnot-Maschine mit 6, = 300°C und 62 = 30°C.

Aus G1 (I. 15) folgt (mit T = 6 + 273)

1.2.2 Exergiebegriff,Wirkungsgrade Durch Einführung der Umgebungstemperatur T,, , Iässt sich die zugeführte Wärme f i r den Carnotprozess folgendermaßen schreiben:

ql

=

ql, + ql,

=

(Tl-TJAs + TUAs

=

Bergie

+

Anergie

(I. 16)

Die Wärme besteht aus Exergie und Anergie. Für den Wirkungsgrad folgt

(I. 17) Der thermische Wirkungsgrad des Carnotprozesses setzt sich zusammen aus dem Carnotfaktor q, und dem exergetischen Wirkungsgrad qex.

T~-Tu

41

Tl

Tu

Tl

Arbeit -

'l"=~rergie(I.m 18)

Da die Temperatur T, nicht tiefer als T,, sein kann, erreicht q„ höchstens den Wert 1, wenn T, = T, Dies bedeutet, dass sich höchstens der Exergieanteil der Wärme in Arbeit umwandeln Iässt. In der Praxis ist dies nicht vollumf~nglichmöglich, da für eine wirtschafliche Wärmeabgabe ein bestimmtes Temperaturgefalle (T,- T„ ) notwendig ist. Anergie ist mitzuschleppender Ballast.

Beispiel 1.2 Man berechne den Carnotfaktor und den exergetischen Wirkungsgrad von Beispiel I. 1, wenn die Umgebungstemperatur 10°C beträgt.

Der Exergieanteil der zugeführten Wärme ist 5 1%. Diese Exergie kann mit einem Wirkungsgrad von 93% genutzt werden.

1.2.3 Allgemeiner Kreisprozess Für einen beliebigen Kreisprozess mit Wärmezufuhr q, bei variabler Temperatur T ist der Exergieanteil

Der thermische Wirkungsgrad eines Kreisprozesses lässt sich demnach allgemein schreiben

Der mittlere Carnotfaktor qm hängt vom Temperaturniveau der Warmezufuhr ab und charakterisiert den Kreisprozess. Bei gegebener maximaler Temperatur kann er höchstens den Wert q, des Carnot-Kreisprozesses erreichen (GI. 1.1 8). Der exergetische Wirkungsgrad charakterisiert die Gute einer Warmekraftmaschine besser als der thermische (oder energetische) Wirkungsgrad. Die exergetischen Verluste haben zwei Ursachen:

Der exergetische Wirkungsgrad des reversiblen Prozesses qe„„ berücksichtigt, dass die Abwärme q, noch einen Exergieanteil q,„ enthält, da T2 > T „ , der in wertloser Umgebungsanergie umgewandelt wird. Wäre die Wärmeabgabetemperatur durchwegs T, = T „ , würden diese Verluste nicht auftreten. Wie oben bereits erwähnt, ist dies jedoch nicht vereinbar mit einer wirtschaftlichen Wärmeabgabe. Der innere Wirkungsgrad q, rührt von den Irreversibilitäten (Reibungen) des Prozesses her. In einem reversiblen Prozess, wie der vorher besprochene CamotProzess, bleibt die Anergie unverändert (also q„„ = q„„), damit ist W = q,-q, = q,„-qZex,und q, = 1). Mit Reibung nimmt hingegen die Anergie zu (d.h. q„„ > q„„) und somit ist W = (q, q , ) < (q„,-q,„).

830

Anhang I Thermodynamik

1. 3 Teilprozesse Ein Kreisprozess als Ganzes erfolgt in einem geschlossenen System. Er besteht jedoch aus Teilprozessen, die i.d.R. (offene) Fließprozesse sind. Diese Teilprozesse lassen sich etwas idealisiert in zwei Kategorien einteilen:

-

Wärmeaustausch unter verschiedenen Bedingungen : konstante Temperatur : isothermer Prozess : isobarer Prozess konstanter Druck : isochorer Prozess konstantes Volumen

-

Kompression oder Expansion ohne Wärmeaustausch: adiabate Prozesse

1.3.1 Isothermer Prozess

Im idealen Gas ist Au = 0, da die innere Energie nur von der Temperatur abhängt. Ferner gilt pv = RT und somit Ah = A(pv) = R AT = 0. Mit Bezug auf den motorischen Prozess und bei Vernachlässigung der kinetischen und potentiellen Energie folgt aus den Gln. (1.9) und (1.12):

i i

T A s = q + q r = pdv = - vdp = I

I

(1.22) I

P2

Die Wärmezuführ q ist von Expansion begleitet und liefert die Arbeit W.Die Enthalpie bleibt unverändert. Druckabnahme und Entropiezunahme können mit GI. (1.22) berechnet werden. Der isotherme Prozess im Gas hat nur theoretische Bedeutung (Carnotprozess), da er schwer zu realisieren ist (Abb. I. 10). Im Nassdampfbereich ist ein isothermer Prozess zugleich ein isobarer (s. weiter unten) und somit leicht zu realisieren.

Abb. 1.10: Isothermer Prozess: 1

- 2 isotherme Expansion, 2 - 1 isotherme Kompression

1.3.2 Isobarer Prozess Im idealen Gas ist Au = C,, AT (C,,= mittlerer Wert, da temperaturabhängig). Da ACpv) = p Av = R AT, folgt Ah = (C,,+ R) AT = C, AT. Die Gln.(1.9) und (1.12) liefern W = q - Ah = -qr 2

Eine isobare Erwärmung hat keine Nutz-Arbeitsleistung zur Folge, nur die Reibungsverluste werden gedeckt. Sie erhöht die Enthalpie, die Temperatur und die Entropie des Gases (Abb. I. 11). Isobare Prozesse sind technisch leicht realisierbar (Gasturbine, Dieselmotor, Dampfprozesse).

Abb. 1-11: 1

+

2 isobare Erwärmung, 2

-+

1 isobare Abkühlung

Im Nassdampfbereich ist der isobare Prozess zugleich isotherm. Es folgt W = q - Ah = -qr T As = q + qr = Ah = Verdampfungsenthalpie

(1.24)

1.3.3 Isochorer Prozess Im idealen Gas ist Au = C,, AT. Da ACpv) = V Ap = R AT, folgt wieder Ah = C,? AT. Aus den Gln. (1.9) und (I. 12) erhält man (Abb. I. 12)

AS

=

C,

In- T2 Tl

=

C,,

In-P2 P1

832

Anhang I Thermodynamik

Abb. 1.12: 1

- 2 isochore Erwärmung, 2 - 1 isochore Abkühlung

Die Wärmezufuhr erhöht Enthalpie, Druck, Temperatur und Entropie des Gases. Ein Arbeitsaustausch entsteht im Fließprozess durch die Verschiebearbeit, hat jedoch keine technische Bedeutung. Isochore Prozesse kommen im Otto- und Dieselmotor vor. Beim Dampfprozess ist die Erwärmung der Flüssigkeit im Wesentlichen ein isochorer Prozess. Die Gln. (1.25) sind auch f i r diesen Fall gültig. 1.3.4 Adiabate Prozesse

Im idealen Gas ist Au = C,, AT, A b v ) = R AT, Ah = cp AT. Da q = 0 und pv folgt aus den Gln. (1.9) und (I. 12)

= RT

Die beiden ersten Gleichungen sind auch f i r Flüssigkeit und Nassdampf gültig. Die Expansion liefert Arbeit auf Kosten der Enthalpie. Druck und Temperatur reduzieren sich. Die Entropie erhöht sich wegen der inneren Reibung (Abb. I. 13).

Abb. 1.13: 1

+

2 adiabate Expansion, 2' + 1' adiabate Kompression (beide irreversibel)

Der adiabate Prozess ist der wichtigste Prozess zur Erzeugung von mechanischer Arbeit. Seine Berechnung erfolgt beim Dampfprozess mit Hilfe des Mollier-Diagramms (h,s-Diagramm), der im Anhang V111 gegeben ist. 1.3.4.1 lsentroper Prozess (reversible Adiabate) Ist wichtig als theoretischer Grenzfall (reversibler Kreisprozess). Für q,. As = 0. Aus der dritten der Gln.(I.26) folgt fiir ein ideales Gas

dT C P T

R-dp = 0 - - > P

, Tl

mit

P1

K = JC

=

0 ist

(1.27)

C"

1.3.4.2 lsoenthalper Prozess (adiabate Drosselung) Ein adiabater Fließprozess (q = 0) ohne äußere Arbeitsleistung (W = 0) ist nach G1. (1.9) isoenthalp, d.h. Ah = 0, sofern die Geschwindigkeits- und Höhendifferenz vernachlässigt wird, also C, = C, und z, = z, . Bei der adiabaten Drosselung (Druckabfall durch ein Ventil, Abb. 1.14) entstehen Verluste durch Wirbel womit 4,. 0.

'

Isolierung,

Abb. 1.14: Adiabate Drosselung eines Fluids

Durch den Druckabfall nimmt i.d.R die Temperatur ab (Abb. I. 15). Der reversible Prozess ist auch nicht näherungsweise quasistatisch, weshalb die Thermodynamik allein keine Aussagen machen kann [A.IO]. Eine nähere Analyse ist nur mit der Strömungsmechanik möglich.

Abb. 1.15: Isoenthalpe Expansion (nicht umkehrbar)

834

Anhang I 'Thermodynamik

1.3.5 Polytrope Zustandsänderung Alle bisher betrachteten reversiblen Teilprozesse lassen sich durch die Gleichung

pv "

=

konst

(1.28)

zusammenfassen. In der Tat gilt

p v = konst p=konst v=konst pvK=konst

Isotherme Isobare Isochore Isoentrope

--> -->

--> --X

n = 1 n=O n = n = ~

(1.29) .

Die von GI. (1.28) definierte Zustandsänderung wird Polytrope und der Exponent n Polytropenexponent genannt. Mit der Polytropen lassen sich auch Zustandsänderungen beschreiben, die zwischen den bisher behandelten liegen. Beziehungen, die für den isentropen Prozess (reversible Adiabate) gültig sind, z.B. GI. (1.27), lassen sich durch Ersatz des Isentropenkoeffizienten K durch den Polytropenexponent n direkt übernehmen.

1.4 Technische Kreisprozesse Als Beispiel einer allgemeinen Wärmekraftmaschine sei das Schema in Abb. 1.16 betrachtet und das entsprechende (T,s)-Diagramm in Abb. 1.17. Der Kreisprozess besteht aus vier Teilprozessen AB, BC, CD und DA; als reversibler (idealisierter) Kreisprozess sei der Kreisprozess mit derselben Wärmezufuhr q , ,nämlich A'B, BC, CD' und D Y : betrachtet:

AB:

BC: CD: DA:

Im Kompressor (Pumpe) erfolgt eine adiabate Kompression des Arbeitsmediums, wobei die Arbeit W, absorbiert wird. Die entsprechende reversible Kompression ist AB' (praktisch gleichwertig wie A B ) . Dem Kreisprozess wird die Wärme q , zugeführt (Brennkammer, Kessel, Reaktor). In der Turbine (Motor) erfolgt eine adiabate Expansion mit der Arbeitsleistung W , . Die reversible (verlustlose) adiabate Expansion entspricht CD'. Dem Kreisprozess wird die Wärmemenge q, entzogen (Kühler, Kondensator).

Turbine Motor

T

C

% +

Kessel Brennkammer

., Pumpe Kompressor

D

Kondensator

Abb. 1.16. Allgemeine Wärmekraftmaschine

adiabatische^

T

Wärmezufuhr

Kompression

.. adiabatische

'.-.;,. ..

P -

:

jA'

... .. ,. ... .

..,,. ., .

I

. I' , , ,

D'i. .

Expansion

.J-)

. 92 i . . wärhaifuhr ... ... .

.

s

2' 2

Abb. 1.17: (T,s)-Diagramm des Kreispro7esses von Abb. 1.16

Die vier Teilprozesse AB, BC, CD, DA der wichtigsten technischen Kreisprozesse zur Erzielung von Arbeit sind (im idealisierten reversiblen Fall):

- Ottoprozess (Benzinmotoren): Isentrope, Isochore, Isentrope, Isochore, - Dieselprozess: Isentrope, Isobare, Isentrope, Isochore, - Joule-Prozess (Gasturbine): Isentrope, Isobare, Isentrope, Isobare, - Dampfprozess (Dampfturbine): Isentrope, Isobarea, Isentrope, Isobarea

(" = Isobare ist zugleich Isotherme).

Reversibler Kreisprozess zur Erzielung von Wärme (Wärmepumpe) oder Kälte (Kältemaschine) im Gegenuhrzeigersinn D'CBA'D' (für Näheres s. Abschn. 5.9): - Dampfprozess: Isentrope, Isobarea, Isenthalpe, Isobarea

Kraftwerkprozesse Der Wärmeinhalt des Brennstoffes sei q, und die abgegebene elektrische Leistung W , W,,,(Abb. 1.1 6). Für den Kraftwerkswirkungsgrad ergibt sich

= W, -

Die vier Wirkungsgrade berücksichtigen:

- die Wärmeverluste bei der Verbrennung und die Wärmeübertragung q, - die Verluste des idealisierten Kreisprozesses = (A'BCDIA')l(l

'BC2') gemäß Abb. 1.8,

- die Verluste der Kompression und Expansion q , = wIw„, = (W,-w,)/(w„, = (h,

= q,lq„

qthlev = W„,Iq, = (wlre, - ~ ~ „ ~ , ,) l q , -W/

),

hll- h,+h,)l(h, - h,], - h,+h,.) gemäß GI. (1.26), - die Verluste der elektrischen Maschinen q, = (qs w,-~,,/q,,,)l(w,-~~J mit q, = Wirkungsgrad des Generators und V,,,= Wirkungsgrad des Kompressormotors. Der thermische Wirkungsgrad qth= wlq, = qth„, q, ist (ABCDA)I(lABCD2). (Näheres zu den Kraftwerkprozessen in Kap. 5). -

Anhang ll

Kernphysikalische Grundlagen

11.1 Aufbau des Atoms und Bindungsenergie Das Atom besteht aus Kern + Hülle. Der Atomradius hat die Größenordnung 1 0-'cm der Kernradius l O - ' - 10.'' Cm. Der Atomkern ist positiv, die Hülle negativ geladen (Elektronenwolke). Die Gesamtladung des Atoms ist Null, es sei denn das Atom sei ionisiert, womit es zum + oder - Ion wird.

Atomhülle Sie besteht aus Elektronen e- (Ruhemasse m = 0.9109 10-" g). In der Kernphysik wird auch das Symbol ß-verwendet (Beta-Teilchen). Für die Hülle gilt das Bohr'sche Schalenmodell und die Quantenmechanik. Letztere ist von großer Bedeutung für die Chemie und die Halbleiterphysik. Eine wichtige Größe ist die Planck'sche Konstante h = 6.625 1 0-i4Js.

Atomkern Der Atomkern besteht aus Nukleonen mit Teilchenradius von 10." Cm:

Protonen p + ( m Neutronen n ( m

=

=

1.672510-'~ g ) 1.674810-'~ g )

(11.1)

Die Kernkräfte (starke Wechselwirkung, Ca. 1 OOOmal stärker als die elektromagnetische Kraft) halten die Protonen zusammen trotz elektromagnetischer Abstoßung. Nach heutiger Auffassung bestehen die Nukleonen aus je drei Quarks, die als Urbausteine des Universurns gelten. Symbol eines Atomkerns ist XZA,mit A = Anzahl Nukleonen, Z = Anzahl Protonen. Beispiele:

Wasserstoff H:

: Ip +

~ e ;: 2p + +2n : 8 p + + 8n Sauerstoff Helium

=

ai ( a - Teilchen)

0i6

Eisen

~

Uran

U?

e

z: 2 6 p + + 3 0 n : 92p++238n

Die Neutronen spielen in der Nutzung der Kernenergie eine entscheidende Rolle. Neutronen haben eine im atomaren Maßstab zwar extrem lange, f i r unsere Begriffe jedoch relativ kurze Lebensdauer von 1013 s. Sie zerfallen (Theorie des ß - Zerfalls von Fermi) gemäß

838

Anhang I1 Kernphysikalische Grundlagen

n - - > p'

+

ß- + Antineutrino .

(1 1.3)

Das Antineutrino hat eine Ruhemasse =: 0. Elektron und Antineutrino haben zusammen eine Energie von 0.78 MeV, wobei:

1 MeV

=

106 . 1.6 10-19~s. 1 V

=

1.6 10-13 J .

(I I .4)

Wird nach der Einstein'schen Äquivalenz E = m C' die zu dieser Energie äquivalente Masse berücksichtigt, ergibt sich die Massenbilanz:

p + : 1.6725 10-24g ß- : 0.0009 10-24g 0.78MeV : 0.0014 l ~ g -(Massenddekt) ~ ~

(11.5)

....................

n : 1.6748 10-24g . Im atomaren Bereich werden die Massen i.d.R. nicht in g, sondern in Atommasseneinheiten U gegeben. Es gilt:

Nach der Äquivalenz E = m c2entspricht die Masse u -> 933 MeV. Die Massen der drei Elementarteilchen sind:

Bindungsenergie Im atomaren Bereich gilt das Gesetz der Erhaltung von Masse + Energie (mit der Äquivalenz E = m C"). Bei der Vereinigung von Nukleonen zu einem Atomkern treten große Bindungsenergien auf (starke Wechselwirkung), die auf Kosten der Masse gehen. Die Bindungsenergie AE entspricht dem Massendefekt Am:

Am

=

Z m p + ( A - 2 ) m,

mit (

A Z M

= =

=

-

M

[U]

---X

AE

=

933 Am [MeV]

Anzahl Nukleonen Anzahl Protonen Kernmasse ( = Atommasse abzüglich Elektvonen)

Beispiel Kohlenstoffatom C,", mit Z = 6, A = 12, M = 12 U :

Am = 0.095652 u - - - X AE = 89.24 MeV Bindungsenergie pro Nukleon : 7.44 MeV

(11.8)

11.1 Aufbau des A@is und Bifldurigsen~rg&

839

MeV/Nukleon 9 U

8 7

Spaltung

6 5 Fusion

4 3 2 H

1 0

0

20

40

60

80

100 120 140 160 180 200 220 240 Anzahl Nukleonen

Abb. 11.1: Bindungsenergie irn Atomkern [A.6]

Solche Berechnungen können für alle Atome durchgeführt werden. Es ergibt sich das Diagramm in Abb. 11.1, welches die Bindungsenergie pro Nukleon in Abhängigkeit von der Nukleonenzahl darstellt. Die stabilsten Kerne (größte Bindungsenergie = tieferes Energieniveau) haben eine Nukleonenzahl von ca. 50. Schwere Kerne sind weniger stabil. Die Spaltung von Uran führt zu stabileren Kernen, die sich auf einem tieferen Energieniveau befinden, weshalb Energie frei wird. Die Fzlsion von Wasserstoffzu Helium liefert viel Energie, da Helium, wie aus Abb. 11.1 ersichtlich, besonders stabil ist, und in dieser Hinsicht deutlich aus der Reihe tanzt. Wie Abb. 11.2a zeigt, befinden sich alle existierende Kombinationen von Protonen und Neutronen in einem engen Band, wobei die Anzahl Neutronen mindestens so groß und bei großen Kernen deutlich größer ist als die Zahl der Protonen. Bei

Abb. 11.2: a) Stabile Kombinationen von Protonen und Neutronen. b) Bindungsenergie (Energieniveau) der Isotope eines Elementes. Z = Protonenzahl, A = Nukleoncnzahl

840

Anhang I1 Kernphysikalische Grundlagen

zunehmender Protonenzahl ist der stabile Bereich bei Z = 83 begrenzt. Wismut (Z = 83) ist das letzte Element mit einem stabilen (nicht zerfallenden) Kern (BigjZo9 ).

11.2 lsotope Der stabile Bereich von Abb. 11.2a kann als Grund eines Energietales betrachtet werden, dessen Schnitt tur Z = konstant Abb. 11.2b ergibt. In diesem Schnitt unterscheiden sich die Kerne nur durch die Neutronenzahl. Die entsprechenden Atomvarianten werden Isotope genannt. lsotope eines Atoms unterscheiden sich zwar kernphysikalisch durch die Nukleonenzahl, nicht aber chemisch. Eine Isotopentrennung ist dank des unterschiedlichen Gewichtes möglich. Wie Abb. 11.2b zeigt, gibt es stabile und instabile Isotope. Letztere haben zu wenige oder zu viele Neutronen. Beispiele

Chlor besteht aus

CI:;

zu 75%

CI:

zu 25%

.

) im Mittel

Beide lsotope sind stabil. Kohlens@'ist stabil als C,I2. In der Natur existiert auch das instabile lsotop C,I4. Es zerfallt zwar nach der Reaktion

cj4

---5568a--> N : ~+ ß- ,

(11.12)

doch wird es ständig aus Stickstoff neu gebildet durch Einwirkung der kosmischen Strahlung nach der Reaktion

C6I4ist radioaktiv undemittievt ß-Strahlen. Da C,I4 in der Natur vorkommt, wird von natürlicher Radioaktivitätgesprochen. Die Halbwevtszeit (s. GI. 11.16) ist 5568 Jahre. In Lebewesen wird C6I4ständig erneuert, so dass sein prozentualer Anteil konstant bleibt. Nach dem Tod hört die Erneuerung auf, weshalb der Gehalt an C,14 zur Altersbestirnmung von Fossilien dient (gute Resultate bis Ca. 20'000 Jahre zurück). Das Isotop C," kann künstlich durch Bestrahlung erzeugt werden (künstliches Isotop) und ist ebenfalls instabil (radioaktiv). Es zerfallt nach der Reaktion

(Positiver ß-Strahler, ß'

=

Positronen, entstehen aus p'

+ Antineutrino -> n + e').

11.3 Radioaktivität

841

11.3 Radioaktivität Alle Elemente mit Z > 83 sind instabil, also radioaktiv, und zerfallen progressiv bis stabile Elemente erreicht werden, wie nachfolgend am Beispiel der Uran - Radium Kette gezeigt wird.

Die Kette zeigt deutlich, dass die Halbwertszeiten der einzelnen Reaktionen sehr unterschiedlich sind (von 109Jahren bis min oder gar PS), wobei beim Zerfall a, ß und y-Strahlen entstehen. Die y-Strahlen sind hochenergetische Photonen im MeVBereich. Schwere radioaktive Elemente sind in der Erdkruste überall zu finden, und tragen wesentlich zur naturlichen Radioaktivitat bei. Für den Zerfall radioaktiver Elemente gilt folgendes Gesetz

N

=

-

dt

N

=

A

=

(

Anzahl Kerne Zerjiallskonstante .

Daraus folgt

hN

=

- a t + lnN,

-->

N

- -

e-kt

No Zeitkonstante:

1

Halbwertszeit: T

-

A

=

1

-

A

(11.16)

ln2 .

Die Anzahl Zerfallsreaktionen pro s wird als Aktivität bezeichnet und in Becquerel [Bq] angegeben

dt Alte Einheit ist das Curie [Ci], I Ci

=

1 nCi 37 1 0 9 ~ q( 1 Bq

=

=

37 Bq 27pCi

(11.17)

Es sei erwähnt, dass der menschliche Körper eine natürliche Radioaktivität von Ca. 3.10' Bq aufweist. Auf die biologische Wirkung der Radioaktivität wird in Abschn. 5.6.6 eingegangen.

842

Anhang 11 Kernphysikalische Grundlagen

11.4 Kernreaktionen Dass Kernreaktionen rriöglich sind, ein Eleinerit also in ein anderes umgewandelt werden kann, wurde erstmals von Rutherford 19 19 an folgender Reaktion nachgewiesen N714+ --> 0;' + H; . (11.18)

4

An folgender Reaktion hat Chadwick 1923 die Neutronen entdeckt

Joliot-Curie entdeckten 1934 die künstliche Radioaktivität durch folgende Reaktion

Alle Materie des Universums ist durch Fusion von Wasserstoff entstanden. Etwa I0 s nach dem Urknall (big bang) gab es nur Protonen (Wasserstoffkerne). Wenig später bildeten sich Heliumkerne. nach der Reaktion 4 H;

-->

He; + 2 ß' + Energie ,

(11.21)

allerdings über die Zwischenstufen H,' und He,3. Erst viel später, iin Laufe der Sternentwicklung, wurden schwerere Elemente gebildet, z. B Kohlenstoff

3 He;

-->

C,'*

+

Energie .

(11.22)

Besonders häufig sind im Universum die Elemente mit einer Nukleonenzahl, die ein Vielfaches von 4 ist, die also aus mehreren Heliumkernen bestehen, z.B

11.5 Wirkungsquerschnitt und Reaktionsrate Die Wahrscheinlichkeit, mit der Teilchen miteinander reagieren, kann mit Hilfe des Begriffs des Wirkungsquerschnitts beschrieben werden. Der Teilchenfluss

e, [

cm .s

Teilchen 1=n1[ I cm

.

vi

cm

[-I

S

bestehend aus Teilchen mit der Dichte n, , die sich mit der Geschwindigkeit V , bewegen, sei betrachtet. Dieser Teilchenfluss treffe auf andersartige stehende Teilchen 2. Die Anzahl pro s interagierender Teilchen 2 ist dann

11.5 Wirkungsquerschnitt und Reaktionsrate

5

S

]

= 0

[cm2] .

(p1

[-

Teilchen] cm 2 s

843

= 1 1 '

o wird mikroskopischer Wirkungsyuevschnitt der Interaktion zwischen Teilchen 1 und 2 genannt. Als Maß für den Wirkungsquerschnitt gilt in der Kerntechnik das

barn = l ~ cm2 - . ~ ~ Für Teilchen 2 mit der Dichte n, wird die Reaktionsvate definiert

(11.26)

Bewegen sich die Teilchen 2 mit Geschwindigkeit V , , ist die relative Bewegung für die Reaktionsrate maßgebend:

vr= 1 31 - - > R = o n l n 2 v r . (11.28) Der Wirkungsquerschnitt hängt von der Natur der beiden Teilchen, jedoch auch von der Größe der relativen kinetischen Energie E, ab. Es gilt also

%=Ul -U2,

1 m1 m2 2 2 m, +m2 Der Ausdruck für E, lässt sich folgendermaßen begründen: nach dem Impulssatz gilt

o

=

f(Er)

mit

Er

= - -V r

m, Ul + m2 U2 = ( m 1 + m 2 )U , (11.30) worin U die Geschwindigkeit des Schwerpunktes beider Masseteilchen darstellt. Diese Geschwindigkeit bleibt nach dem Zusammenprall der beiden Teilchen unverändert, da keine externen Kräfte wirksam sind. Aus den Gln. (11.28) und (11:30) folgen die Beziehungen

Durch Quadrieren erhält man nach dem Kosinussatz (Abb. 11.3)

2

2

v2

=

v2 +

m1 (m. + m, )2

V,! +

2v

1 V r -cos y

m, + m ,

Für die kinetische Energie folgt, da sich die Beiträge der letzten Terme aufheben

844

Anhang I I Kernphysikalische Grundlagen

"2

Abb. 11.3: Absolute und relative Geschwindigkeiten

Der erste Term hängt nicht von der relativen Bewegung der Teilchen ab, ist also für die Interaktion der Teilchen belanglos, womit GI. (11.29) bewiesen ist. Die möglichen Interaktionen sind: - Streuung: beide Teilchen bleiben erhalten, - Einfang: ein Teilchen verschwindet, - Reaktion: beide Teilchen verschwinden, und es entstehen neue Teilchen.

11.6 Die Kernspaltung 11.6.1 Die Spaltung von Natururan besteht aus 99.3% UZT8und 0.7% U2'5. Das Isotop U2'5 ist der wichtigste Spaltstqfl Dessen Spaltung erfolgt durch Beschuss mit Neutronen. Der Spalt- Wirkungsquerschnitt (s. Abschn. 11.5) ist am größten für kleine, sog. „thermischeG' Energien. Er beträgt:

of 1 600 barn für thermische Neutronen (0.0025 eV o 7 barn für 1 keV oj = 2 barn für 1 MeV (schnelle Neutronen) .

=

20 "C) (11.34)

Nur langsame Neutronen sind also in der Lage, U2'5 effizient zu spalten. Die Spaltung erfolgt nach der Reaktion 1

(11.35) n,,&) - - 2~ + V n,(,) + 207 M e V , worin X = Spaltprodukte, deren Wahrscheinlichkeitsverteilung Maxima bei einer Nukleonenzahl von Ca. 94 bzw. 140 aufweist (z.B. Strontium 94 + Xenon 140), wie von Abb. 11.4 veranschaulicht. Durchschnittlich entstehen pro Spaltreaktion V = 2.42 schnelle Neutronen. Dieprompten, d.h. unmittelbar aus der Spaltung hervorgehenden Neutronen haben eine Energieverteilung nach Abb. 11.5. Ihre mittlere Energie beträgt Ca. 2 MeV. Die Spaltprodukte X sind i.d.R radioaktiv, zerfallen weiter und produzieren ebenfalls Neutronen, sog. verzogerte Neutronen, mit einer mittleren Energie von 0.4 MeV. Es handelt sich also ebenfalls um schnelle Neutronen. Der Anteil verzögerte Neutronen an der Neutronenerzeugung V beträgt Ca. ß, = 6.5%0. +

11.6 Die Kernspaltung

W

iin

IW

120

ija

14

X45

isa

Abb. 11.4: Wahrscheinlichkeitsverteilung der Spaltprodukte: Y = Anzahl Atome mit Nukleonenzahl A für 100 Spaltungen lA.61

Da für die Spaltreaktion thermische Neutronen benötigt werden, die Spaltreaktion selber jedoch nur schnelle Neutronen produziert, kann sich die Kettenreaktion in einem Reaktor nur dann halten, wenn die schnellen Neutronen verlangsamt werden. Dies geschieht mit einem Moderator (Abb. 11.6) Pro Spaltreaktion werden rund 205 MeV frei, d.h. pro kg UZJ5:

205

=

0

Spaltungen X 1.6.10-l6 il XP- 1 Mol Mol MeV 0.235 kg il Tcal 83.7 lo9 -= 20kg~235 kg~235 23

MeV ~ 6 . 1 0 Spaltung

1

2

3

4

5

6

MeV

Abb. 11.5: Energieverteilungder prompten Neutronen

(11.36)

846

Anhang II Kernphysikalische Grundlagen

Tcal Ikg U„,

........................................ .L

i...!hermisch ....i Moderator &..............@ !Z!!.......... Abb. 11.6: Uranspaltung, n = Neutronen, X = Spaltprodukte. Beste Moderatoren sind: Graphit, Schweres Wasser D,O. H,O

11.6.2 Spalt- und Brutstoffe Neben UZ3'sind zwei weitere Spaltstoffe bekannt, nämlich die Isotopen U2" und Puz3' (Plutonium). Deren Spaltung verläuft sehr ähnlich wie die Spaltung von U'35, sowohl bezüglich produzierter Energie als auch Anzahl schneller Neutronen. U2" und Pu2" kommen aber in der Natur nicht vor. Sie werden künstlich hergestellt mit folgenden Reaktionen

PU?

+ ß-

(11.37)

U,',"

+

P-.

Stoffe, die durch Neutroneneinfang Spaltstoffe produzieren, werden Brutstoffe genannt. und Th'3'sind demzufolge Brutstoffe. Brutstoffe lassen sich nur schwer spalten. Ihre Spalt-Wirkungsquerschnitte sind sehr klein und betragen O,

a,

=

0 barn für thermische Neutronen und bis 1 MeV 0.5 - 1 barn für Energien > 2 MeV .

(11.38)

In einem Spaltstoffatom werden durch die Spaltreaktion V Neutronen erzeugt. Ist N, die Dichte der Spaltstoffatome [Teilchen/cm3]und 4 die Neutronen-Flussdichte, so ist die Spaltrate nach Cl. (11.27)

847

11.6 Die Kernspaltung

Gleichzeitig werden jedoch auch Neutronen eingefangen (ohne Spaltung) entsprechend einem Einfangquerschnitt o,. Die Einfangrate ist

Da der Absorptionsquerschnitt

U, = U,

+ U, ist, folgt

Neutronenproduktionsrate: V Rf = Ne~tronenabsorptiomrate: Ra = oa NI (P

V =

of N I (P (of+oc)N,

(P

.

(11.41)

Das Verhältnis von Produktion zu Absorption wird Multiplikationsfaktor des Spaltstoffs genannt

Tabelle 11.1 zeigt einige Kennzahlen der drei Spaltstoffe für thermische Neutronen: Tabelle 11.1 : Wirkungsquerschnitte fur thermischeNeutronen (o in barn) sowieNeutronenproduktion V. Multiplikationsfahtor und Anteil ver~ögerterNeutronen ß, der drei Spaltstoffe

Spaltstoff

of 53 1

(Jc

48

0,

V

11

ß,

579

2,49

2,287

2.6 10.'

Anhang III

Dynamik und Regelungstechnik

111.1 Darstellung linearer Systeme Ein lineares System mit Eingangsvektor .- und Ausgangsvektor Y (Abb. 111.1) lässt sich durch ein System linearer Differentialgleichungen erster Ordnung beschreiben, welche die Form annehmen

I

Abb. 111.1 : Lineares System

worin X der Vektor der Zustandsgrößen und A, B, C, D die Zustandsraummatrizen darstellen. Die stationäre Lösung ist

Dynamisch entspricht Gleichungssystem (111.1) dem Blockschaltbild Abb. 111.2. Aus der ersten der Gln. (111. I) ergibt sich durch Laplace-Transformation im Bildbereich

mit 20 Anfangsbedingungen und E Einheitsmatrix.

U

Abb. 111.2: Blochschaltbild des linearen Systems im Lustandsraum

850

Anhang I11 Dynamik und Regelungstechnik

Abb. 111.3. Darstellung des linearen Systems mit Üb~rtra~un~sfunktionen

Der Ausgangsvektor ist

Daraus ergibt sich die Darstellung mit Übertragungsfunktionen von Abb. 111.3 (Laplace-Carson, s. Band 1, Abschn. 6.2.6). @(s) wird Fundamentalmatrix genannt. Sie bestimmt die Dynamik und kann folgendermaßen berechnet werden [A. 1 1 ]

Der Nenner (Determinante von S E - A ) stellt das charakteristische Polynom dar und liefert die Eigenwerte der Syslemmatrix A. Vor allem die Matrix A ist somit für das dynamische Verhalten des Systems maßgebend. C(s) ist die Uberlragung~mulrix(Matrix der Übertragungsfuiiktioile~ly, /U, für X, = 0). Sie lässt sich analytisch aus den Zustandsraummatrizen durch

bestimmen. Den Übergang von der Zustandsraumdarstellung zur äquivalenten Darstellung mit Übertragungsfunktionen erhält man z.B. in Matlab (Control System Toolbox) mit dem Befehl

Das System sys ist durch die Zustandsraummatrizen A, B, C, D gegeben, und daraus ergibt sich die Übertragungsmatrix g. Sind umgekehrt die einzelnen Übertragungsfunktionen gk gegeben, kann mit sysk das Zustandsraummodell pro Eingang, oder durch Bildung der Übertragungsmatrix g das dieser Übertragungsmatrix entsprechende Zustandsraummodell sys minimalster Ordnung (vollständig steuerbar und beobachtbar [A.3]) bestimmt werden:

gl g2 g3 g4

=

= = =

ijf(num1,den) ~j(num2,den) sysk = ss(gk) oder flnum3, den) ) g = [ g l , g2; g3, g4] - - r sys ijf(num4,den)

=

ss(g)

'

111.2 Stabilität

851

111.2 Stabilität Ein lineares Syslern ist dann asymptotisch stabil, wenn alle Eigenwerte der Systemrnutrix A negative Realteile aufweisen. Sind komplex konjugierte Eigenwerte vorhanden, ist die Systemantwort oszillierend. Sie ist merklich oszillierend, wenn wichtige Eigenwerte komplex sind (s. dazu auch Abschn. 111.4). In einem nichtlinearen System muss zwischen der Stabilitat irn Kleinen, d.h der Stabilität für kleine Abweichungen um eine Gleichgewichtslage und der Stabilitat irn GroJen unterschieden werden.

Stabilität im Kleinen Das nichtlineare System wird um eine stationäre Lösung linearisiert. Die Stabilität im Kleinen ist für den betrachteten stationären Betrieb dann gewährleistet, wenn das linearisierte System stabil ist, was durch die Analyse von dessen Systemmatrix festgestellt werden kann. In diesem Zusammenhang wird auch von statischer Sttabilitat (oder Stabilität des stationären Betriebs) gesprochen, obwohl letztere auf Grund rein statischer Überlegungen ermittelt wird (stationäre Kennlinie). Die statische Stabilität ist zwar eine notwendige, jedoch keine hinreichende Bedingung für die Stabilität im Kleinen (z.B. ungenügende Dämpfung ist möglich).

Stabilität im Großen Die Stabilität für große Störungen einer Gleichgewichtslage ist dann gegeben, wenn das System eine neue statisch stabile Lage erreicht oder nach Elimination der Störung in eine statisch stabile Lage zurückkehrt. Die Stabilität im Großen ist keine Systemeigenschaft, sondern von Art, Größe und Ort der Störung abhängig. Sie kann durch eine transiente Analyse oder nichtlineare Simulation überprüft werden. Kurzzeit- und Langzeitstabilität Instabilitäten (im Kleinen wie im Großen) können sowohl bei Vorgängen auftreten, die sich im Sekundenbereich abspielen, als auch bei Vorgängen, die minutenlang dauern. Um sie zu untersuchen, werden verschiedene Modelle verwendet, die im jeweiligen Frequenzbereich eine realistische Nachbildung der Systemelemente sicherstellen. So werden bei der Analyse der Kurzzeitstabilitui langsame Vorgänge vernachlässigt, d.h. die entsprechenden Zustandsvariablen als konstant betrachtet (Beispiele im Energieversorgungsnetz: Übersetzung von Stelltransformatoren, Flussverkettung von Synchronmaschinen bei der transienten Analyse). Umgekehrt werden bei der Analyse der Langzeitstabilität schnelle Vorgänge als bereits ausgeklungen betrachtet, d.h. die entsprechenden Zeitkonstanten vernachlässigt (Beispiel: Vernachlässigung von subtransienten Effekten, von Synchronisierschwingungen bei Drehzahl- und Frequenzregelung oder bei der Analyse der Spannungsstabilität, von Motorlastdynamik bei der Spannungsstabilität).

852

Anhang 111 Dynamik und Regelungstechnik

111.3 Kopplung linearer Teilsysteme Besteht das betrachtete Gesamtsystem aus n Teilsystemen, die gemäß GI. (111.1) folgendermaßen beschrieben werden

können die Gleichungen zu einem resultierenden System zusammengefasst werden, welches wieder die Form

annimmt. mit

Die resultierenden Zustandsraummatrizen A, B, C, D sind Block-Diagonalmatrizen. Die Eingänge eines beliebigen Teilsystems seien von den Ausgängen anderer Teilsysteme über eine Kopplungsmatrix K abhängig

U

=

Us + K y ' ,

(111.8)

worin in üs lediglich die Gesamtsystem-Eingangsgrößen verschieden von null sind. Wird 2 aus den Gln. (111.6) und (111.8) eliminiert, folgen die Beziehungen dx' - = A, X + Bs iis dt mit

A,=A+BG Bs=BH C s = C + D G Ds=DH

mit (

G = K ( E - D g)-' C H=E+K(E-D~)-'D

(1.10)

( E = Einheitsmatrix), die das dynamische Verhalten des Gesamtsystems vollständig beschreiben. Die Systemmatrix A , liefert die entsprechenden Eigenwerte.

853

111.4 Modalc Analvse

111.4 Modale Analyse 111.4.1 Modale Zerlegung Wird in GI. (111.1) der Zustandsvektor x' durch den Zustandvektor Z ersetzt

X=MZ, folgt

das vereinfacht wieder durch

dz' =AdZ+Bdii dt

-

beschrieben werden kann, mit

Durch geschickte Wahl der Matrix M wird die Systemmatrix A diagonal. In Matlab kann dies mit

[M AdI

=

eig(A)

(111.15)

geschehen, ein Befehl, der die Diagonalmatrix Ac,und die Diagonalisierungsmatrix M (Matrix der Eigenvektoren) liefert. Die Diagonalmatrix enthält die Eigenwerte h, des Systems. Abbildung 111.4 zeigt das Blockdiagramm des modaltransformierten Systems. Die Matrix (s E A,) enthält in der Diagonalen die Lösungen oder Modi (s - h,), und GI. (111.13) lässt sich im Bildbereich schreiben -

Abb. 111.4 : Blockdiagramm des modaltransformierten Systems

854

Anhang I11 Dynamik und Regelungstechnik

Dies bedeutet, dass jeder Eingang U, über jeden Modus j mit dem Faktor C„ blkan der Bildung der Ausgangsgröße y, beteiligt ist. Die Koeffizienten C,und blkder Matrizen C, und B, sind im allgemeinen komplex. 111.4.2 Modale Reduktion

Die modale Reduktion besteht nun darin, das System in der Ordnung dadurch zu reduzieren, dass nur wichtige Modi berücksichtigt werden. Dazu ist eine Bewertung der Modi notwendig. Reelle Eigenwerte ergeben aperiodische und die Zusammenfassung komplex konjugierter Eigenwerte oszillierende Teilbewegungen. Jeder reelle Eigenwert ergibt gemäss G1. (111.16) folgenden Beitrag zu y,

Die entsprechende Antwort auf einen Einheitssprung von

U,

lautet

Jeder komplex-konjugierte Eigenwert liefert den Beitrag S

kIJkl . -

Ayrik = uk ( S

1 +2C. - + J ("01

a, + aJ*

+ kyk2

s

)

-

2 UOj

mit ~ , = ~ A , ~C , .

=

--

2

ISI (111.19)

Die entsprechende Sprungantwort ist

Die reellen Faktoren k„„ die im wesentlichen vom Verhältnis Ic, b„ I / Id, I abhängen, ermöglichen zusammen mit der Zeitkonstanten T, bzw. der Eigenfrequenz wo, und Dämpfung C, eine Bewertung der Wichtigkeit der einzelnen Terme für den Verlauf der Systemantwort [A.7], [A.12].

111.5 Netzdarstellung für höhere Frequenzen

855

111.5 Netzdarstellung für höhere Frequenzen Das aus linearen Elementen bestehende elektrische Netz kann für Vorgänge, die eine Frequenz eindeutig unter 50 Hz aufweisen, durch die komplexen Knotenadmittanzen beschrieben werden. Für höhere Frequenzen sei nachstehende Darstellung im Bildbereich näher betrachtet.

Induktive Netzzweige Entsprechend Abb. 111.5 gilt für die Momentanwerte im Zeitbereich

worin u ,eine ~ Spannungsquelle darstellt. Im Bildbereich der Laplace-Transformation folgt U

- U, = (R+sL)i

-

LiLo

(111.22)

und mit der Laplace-Carson-Transformation (Band 1, Abschn. 6.2.6)

worin i„ der Anfangsstrom darstellt. Diese Gleichung lässt sich auch schreiben

Z(s)i + U , Z(s) = (R + s L ) ;

U - U, =

mit U , ,drückt

U,

(111.24)

LsiLo .

=

darin, die über der Zweigimpedanz liegende Anfangsspannung aus.

Bemerkenswert ist die perfekte Analogie mit der Zweig-Diferenzengleichung nach [A.8], die sich durch Diskretisierung der Differentialgleichung (111.21) ergibt: U

- us = Z(Q)i +

mit

Z(Q)

=

U,,

(R + Q L ) ;

U, =

LQv, ,

(111.25)

die sich also aus der Laplace-Carson-Beschreibung des Zweiges GI. (111.24) direkt ableiten lässt, mit Ersatz von - s durch den von der Schrittweite h abhängigen Parameter

Q,

- der Anfangsspannung U , durch den Vergangenheitswert U , bzw. des Anfangs-

Stromes iIl, durch den Vergangenheitswert

V,,

welche die Spannung bzw. den

Abb. 111.5: Induktiver Netzzweig mit Spannungsquelle

856

Anhang I11 Dynamik und Regelungstechnik

Strom des vorherigen Rechenschritts darstellen.

Q und U „ sind vom Diskretisierungsverfahren abhängig. Für die Trapezregel gilt z.B lA.81

0 -

und

h'

V,

(r + h)

=

2 i(t) + V, (r) .

(111.26)

Kapazitive Netzzweige

Analog dazu und entsprechend Abb. 111.6 folgt für einen kapazitiven Zweig mit Stromquelle i,s

und die Laplace-Carson-Transformierte

i

-

i,

=

(G+sC)u - Csu, ,

(111.28)

die auch in der Form

i - i, = Y(s)U + i , mit Y(s) = ( G + s C ) ; i,

=Csu,.

geschrieben werden kann. Die Diskretisierung der Differentialgleichung fuhrt andererseits zur analogen Zweig-Differenzengleichung [A.8]

i - i, = Y@) u + iv mit Y(6a) = ( G + Q C ) ; i V = C 6 a v , ,

(111.30)

Abb. 111.6: Kapazitiver Netzzwcig mit Stromquelle

Insgesamt lassen sich also die Zweig-Differenzengleichungen aus der Beschreibung mit der Laplace-Carson-Transformation Gln. (111.24) und (111.29) mit den Substitutionen

erhalten.

111.6 Elementare lineare Regelungstechnik

857

111.6 Elementare lineare Regelungstechnik Abbildung 111.7 zeigt das Blockschema eines einfachen einschleifigen linearen Regelkreises. Es enthält neben der Regelstrecke den Sensor, den Aktor zur Leistungsverstärkung und den Regler. Die Regelstrecke ist durch zwei das Stell- und Störverhalten beschreibende Übertragungsfunktionen gegeben. Aus dem Blockschema folgt durch Einführung des auf die Regelgröße bezogenen (fiktiven) Sollwertes y, und der Übertragungsfunktion G(s) der instrunientierten Regelstrecke

der Zusammenhang

der zum vereinfachten Blockdiagramm mit Einheitsrückfuhrung von Abb. 111.8 fuhrt.

Regelstrecke Storverhalten

x>oo;p,-pl 1 !+[Gq A(s)

Regler

Stellglied (Aktor)

Regelstrecke Stellverhalten

J '

Messumformei (Sensor)

y = Regelgrösse (geregelte Grosse) z = Störgrösse U = Stellgrosse X= Istwert xs = Sollwert Ax = Regelabweichung

Abb. 111.7: Grundelemente des einschleifigen Regelkreises

-

858

Anhang I11 Dynamik und Kegelungstechriik

Regelstrecke Störverhalten

Y Regler

instrumentierte Regelstrecke

Abb. 111.8: Vereinfachtes Blockschaltbild des lincaren Regelkreises

Als Übertrag~n~sfunktion des offenen (oder aufgeschnittenen) Regelkreises wird

G (s) = R(s) G(s . (111.34) bezeichnet. Das Stell- und ~t8rverhaltendes egelkreises wird dann durch

k

gegeben. Das Stellverhalten wird einzig von der Übertragungsfunktion C,(s) bestimmt. Dies gilt, zumindest bezüglich Eigenwerte, auch für die Dynamik des Störverhaltens. Hauptaufgabe des Regelungstechnikers ist es also, bei Vorgabe der instrumentierten Regelstrecke G(s) den Regler R(s) so festzulegen, dass die Übertragungsfunktion G&s) den Anforderungen an den Regelkreis Genüge leistet. Diese Anforderungen betreffen die Stabilitut, die Genauigkeit (Regelabweichung) und die Regelgeschwindigkeit. Die klassischen Lösungen dieses Synthese-Problems sind -

Analytische Lösung durch Vorgabe des Stellverhaltens Synthese im Frequenzbereich

111.6.1 Vorgabe des Stellverhaltens Wird die Übertragungsfunktion G,(s) des geschlossenen Regelkreises vorgegeben

kann nach R(s) aufgelöst werden. Es folgt

111.6 Elementare lineare k ~ e i u n ~ s t e c h n i k

859

Ist n der Grad des Nenner- und m jener des Zählerpolynoms einer Übertragungsiünktion, sei mit PNÜ = n-m der Pol-Nullstellen-Überschuss bezeichnet. Aus physikalischen Gründen ist der PNÜ einer Übertragungsfunktion nie negativ. Die Wahl von G,(s) ist im Prinzip frei, unterliegt jedoch für die Realisierbarkeit von R(s) der Einschränkung, dass der PNÜ von G,(s) mindestens so groß wie der PNÜ von G(s) sein muss. Ist der PNÜ von G(s) 2, was vielen praktischen Fällen entspricht, kann eine Stellantwort zweiter Ordnung gewählt werden, z.B

Durch diese Wahl wird die Regelabweichung null, die Schwingungsfrequenz o,(und damit die Regelgeschwindigkeit) und die Dämpfung können frei den Bedürfnissen angepasst werden. Für den Regler folgt

Kann die Regelstrecke z. B. durch die Übertragungsfunktion

beschrieben werden, liefert die GI. (11I .39) den optimalen PID-Regler. Die Methode unterliegt in der hier gegebenen Form gewissen Einschränkungen; so eignet sie sich z.B. nicht, wenn die Übertragungsfunktion G(s) instabil ist, oder zwar stabil ist, jedoch nichtminimales Phasenverhalten, also z.B. die Form

aufweist. Für allgemeinere Verfahren sei auf die einschlägige Literatur verwiesen (z.B. unter Polvorgabe [A. 1 11).

860

Anhang I11 Dynamik und Regelungstechnik

111.6.2 Synthese im Frequenzbereich Diese Methode besteht darin, den Frequenzgang der Übertragungsfunktion des aufgeschnittenen Regelkreises G, (s) zu optimieren. Ausgangspunkt ist der Amplituden- und Phasengang (Bode-Diagramm) der instrumentierten Regelstrecke G(s). Durch die Einführung geeigneter Korrekturglieder R(s) (z.B. PI, PD, PID-Glieder usw., s. Zusammenstellung in Abb. III.IO), wird der gewünschte Frequenzgang von G,(s) erzielt. Die Eigenschaften des Regelkreises können aus dem Frequenzgang von G,(s) herausgelesen werden (Abb. 111.9): Die Regelgeschwindigkeit wird im Wesentlichen von der Schnittfrequenz o, (Frequenz für Amplitude = 1, d.h. 0 dB) bestimmt, die in erster Näherung der dominanten Schwingungsfrequenz entspricht. Die (asymptotische ) Stabilitat ist dann sichergestellt, wenn bei der Schnittfrequenz die Phase größer ist als 180". Eine gute Dampfung ist gewährleistet, wenn die Phasenveserve Acp (Abstand zu - 180")bei der Schnittfrequenz i. Allg. etwa 40-70" aufweist. Gleichzeitig sollte die Verstavkungsreserve (vertikaler Verschiebungsfaktor des Amplitudengangs, welcher die Stabilität nicht kompromittiert) mindestens 0.5-2 (+ 6 dB) betragen. Die Regelabweichung in %wird von 1 4 1 + K,) gegeben, worin K, die Amplitude (Absolutwert, nicht dB!) für o + 0 darstellt. -

-. m

0 a,



C

a

Frequenz (radlsec) Abb. 111.9: Beispiel für den Frequenzgang von G „(s)eines Regelkreises: Schnittfrequenz 7.1 radls, Phasenreserve 56", Regelabweichung 2%

111.6 Elementare lineare Regelungstechnik

86 1

Die auf dem Bode-Diagramm beruhende Methode unterliegt bzgl. Stabilität der Einschränkung, dass die Funktion G,(s) asymptotisch stabil sein muss (alle Eigenwerte mit negativem Realteil), was praktisch der meist erfüllten Bedingung entspricht, dass die Regelstrecke stabil sein muss. Andernfalls ist das allgemeine Nyquist-Kriterium zu verwenden. Dieses besagt, dass das System dann und nur dann stabil ist [10.3], wenn die Anzahl Drehungen der Nyquistkontur (Darstellung von G, Cjo) von - bis + M ) im Gegenuhrzeigersinn um den Punkt - 1, gleich zur Anzahl instabiler Eigenwerte ist (= Anzahl Wurzeln mit positivem Realteil).

Abb. 111.10: Übcrtragungslunktionen und Frequenzgang üblicher Regler

Anhang IV Berechnung der Blindleistungen im Rahmen der linearen Analyse von Mehrmaschinensystemen

IV.l Blindleistungsabgabe der Generatoren Die ans Netz gelieferte Blindleistung des Generators ist in p.u. (Bd 1, Abschn. 6.5.1.1)

Durch Linearisierung folgt

Mit ähnlichem Vorgehen wie in Abschn. 12.2, durch Einsetzen der Gln. (12.22) und (12.23), folgen die zu (12.25) analogen Gleichungen

mit

Kb(s)

=

-

1

1

2

1

>

pO - - uQO(- - sin(26Qo) 2 x~Q(s> x ~ Q ( s )

Durch Einbezug von Spannungsregelung und Pendeldämpfungsgerät erhält man in formal identischer Weise die zu GI. (12.35) analogen Beziehungen

Aq

=

KRb(s)A6

+

QRb(s)AuQ Fb(4 W

mit KRb(s) = Kgb(s) + KJs) 1

+

F&> E(s)

IV.2 Lineare Analyse des Mehrmaschinensystems An Stelle der starren Netzspannung tritt in den GI. (IV.3) die Anschlussspannung an das Netz. Die Spannung UQ ist durch U und hQdurch 6 = 6Q- B zu ersetzen. Durch Einbezug von GI. (1V.3) wird die GI. (12.1 12) zur folgenden erweitert

und durch Elimination von AaQierhält man neben der GI. (12.1 13) noch folgenden Zusammenhang

Glbl(s) =

mit

K„(s) s 2q KR^(^)

, G&)

=

-s 2qKRbl(4 s 2 ~+ ,KRi(s)

+

(IV.5)

Bei der Umwandlung in den Zustandsraum muss die Beziehung (12.1 15) durch die Blindleistung ergänzt werden

dt

=

AG 2 + BI

A P ~+ B2 A 8

=

CwX + D, A% + D,

AQ

=

Cb X

Dbl

AÜ +

h AP,,,

~8 + D, A Ü + k7y APm APO + Db2 AB + Db3 AÜ + kb APm ,

AP

+

+ B,

und an Stelle der GI. (12.117) tritt

(1V.6)

1V.2 Lineare Analyse des Mehrmaschinensystems

865

Netzgleichungen Werden alle Lasten als statisch betrachtet und durch Admittanzen beschrieben, lauten die Netzgleichungen nach Elimination aller Lastknoten, in Netzkoordinaten gemäss den Gln. (12.66) bis (12.68)

Die Umwandlung in Generatorkoordinaten entsprechend der Umformung Gln. (12.73) bis (12.76) fuhrt zur Parkvektorgleichung

Die ins Netz injizierte Wirkleistung erhält man aus Cl. (12.69)

Pi = 3 ÜI'fi , die durch Linearisierung zu

führt. Die Linearisierung der Stromgleichung (12.105) liefert andererseits

(IV. 10)

Anhang V

Optimierung

V.l Lagrange-Verfahren Lagrangefunktion ohne Begrenzungen Gesucht ist das Minimum (Optimum) einer Zielfunktion von n Variablen

F(x,)

Min ,

-->

i

=

1 ..... n ,

(V. 1 )

mit den m Nebenbedingungen

fk(x,)

k

0

=

=

1 .....m.

(v.2)

Das Minimum existiert und ist ein globales Minimum, wenn die Funktion F konvex ist. Es wird durch Minimierung der Lagrangefunktion erhalten

S? = F(x,)

-

E

hk &(X,)

- ->

Min ,

k

die zur Lösung fuhrt

(V.3)

Die Gln (V.2) und (V.4) bilden ein System von (n+m) Gleichungen dessen Lösung die n optimalen Werte für X, und die m Lagrange 'schen Multiplikatoren h, liefert. Für die exakte mathematische Fundierung s. z.B. [A.9].

Berücksichtigung von Begrenzungen Sind die Variablen X , Begrenzungen unterworfen des Typs X,